<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>GNEWS</title>
    <link>https://news.945688.xyz/</link>
    <description>Recent content on GNEWS</description>
    <generator>Hugo</generator>
    <language>en</language>
    <lastBuildDate>Thu, 16 Apr 2026 14:00:00 +0800</lastBuildDate>
    <atom:link href="https://news.945688.xyz/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>苹果发布 Vision Pro 2：空间计算的真正黎明？</title>
      <link>https://news.945688.xyz/posts/vision-pro-2/</link>
      <pubDate>Thu, 16 Apr 2026 14:00:00 +0800</pubDate>
      <guid>https://news.945688.xyz/posts/vision-pro-2/</guid>
      <description>在初代产品试水两年后，苹果带着更轻、更便宜、算力更强的 Vision Pro 2 回来了。这一次，它能真正走进大众的客厅吗？</description>
    </item>
    <item>
      <title>停止废话：ChatGPT 与 Claude 的高阶 Prompt 压榨指南</title>
      <link>https://news.945688.xyz/posts/chatgpt-claude-prompting-guide/</link>
      <pubDate>Wed, 15 Apr 2026 22:00:00 +0800</pubDate>
      <guid>https://news.945688.xyz/posts/chatgpt-claude-prompting-guide/</guid>
      <description>90% 的人都在用错误的方式使用 AI。不要把大模型当成搜索引擎，也不要把它们当成能读懂人心的人类。掌握这几个核心 Prompt 技巧，榨干 GPT-4o 和 Claude 3.5 的最后一滴算力。</description>
    </item>
    <item>
      <title>Markdown 语法全面测试指南 (Typography Demo)</title>
      <link>https://news.945688.xyz/posts/markdown-syntax-demo/</link>
      <pubDate>Wed, 15 Apr 2026 21:00:00 +0800</pubDate>
      <guid>https://news.945688.xyz/posts/markdown-syntax-demo/</guid>
      <description>这是一篇包含各种常用 Markdown 语法的极限压力测试文章，用于检验当前 GNEWS 主题在各种复杂排版元素下的渲染质感。</description>
    </item>
    <item>
      <title>拆解 LLM 底层逻辑 (一)：自注意力机制与 Transformer 的暴力美学</title>
      <link>https://news.945688.xyz/posts/llm-under-the-hood-1-transformer/</link>
      <pubDate>Wed, 15 Apr 2026 20:00:00 +0800</pubDate>
      <guid>https://news.945688.xyz/posts/llm-under-the-hood-1-transformer/</guid>
      <description>一切现代大语言模型（LLM）的基石，都是 2017 年 Google 提出的 Transformer 架构。这篇文章我们将抛开晦涩的学术论文，从底层逻辑剖析大模型是如何“理解”上下文的。</description>
    </item>
    <item>
      <title>拆解 LLM 底层逻辑 (二)：从预训练到 RLHF 的炼丹之路</title>
      <link>https://news.945688.xyz/posts/llm-under-the-hood-2-training/</link>
      <pubDate>Wed, 15 Apr 2026 19:00:00 +0800</pubDate>
      <guid>https://news.945688.xyz/posts/llm-under-the-hood-2-training/</guid>
      <description>我们拿到手的 ChatGPT 或 Claude，是一个举止得体、对答如流的“AI 助理”。但在它成为助理之前，它只是一个贪婪吞噬了全人类互联网文本的狂暴巨兽（Base Model）。</description>
    </item>
    <item>
      <title>OpenAI GPT-6 传闻再起：AGI的脚步更近了？</title>
      <link>https://news.945688.xyz/posts/openai-gpt6-rumors/</link>
      <pubDate>Wed, 15 Apr 2026 09:30:00 +0800</pubDate>
      <guid>https://news.945688.xyz/posts/openai-gpt6-rumors/</guid>
      <description>随着 Sam Altman 在最新访谈中的暗示，关于 GPT-6 具备自主逻辑推理能力的传闻在硅谷引发了巨大反响。</description>
    </item>
  </channel>
</rss>
