<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>技术笔记 on GNEWS</title>
    <link>https://news.945688.xyz/categories/%E6%8A%80%E6%9C%AF%E7%AC%94%E8%AE%B0/</link>
    <description>Recent content in 技术笔记 on GNEWS</description>
    <generator>Hugo</generator>
    <language>en</language>
    <lastBuildDate>Wed, 15 Apr 2026 22:00:00 +0800</lastBuildDate>
    <atom:link href="https://news.945688.xyz/categories/%E6%8A%80%E6%9C%AF%E7%AC%94%E8%AE%B0/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>ChatGPT Plus 低价代充链条拆解：一张收据如何被反复复用</title>
      <link>https://news.945688.xyz/posts/chatgpt-plus-turkey-receipt-exploit/</link>
      <pubDate>Wed, 15 Apr 2026 22:00:00 +0800</pubDate>
      <guid>https://news.945688.xyz/posts/chatgpt-plus-turkey-receipt-exploit/</guid>
      <description>市场上低于官方价格的 ChatGPT Plus 代充服务，通常并非来自正规优惠渠道，而是建立在 iOS 内购收据与账号绑定验证不足的灰色链条之上。本文从技术原理角度梳理这一模式的运行逻辑与潜在风险。</description>
    </item>
    <item>
      <title>如何更高效地使用 ChatGPT 与 Claude：从提示词到任务设计</title>
      <link>https://news.945688.xyz/posts/chatgpt-claude-prompting-guide/</link>
      <pubDate>Wed, 15 Apr 2026 22:00:00 +0800</pubDate>
      <guid>https://news.945688.xyz/posts/chatgpt-claude-prompting-guide/</guid>
      <description>多数用户并不是不会使用大模型，而是仍在沿用搜索引擎式提问方式。要让 ChatGPT 与 Claude 输出稳定、可用、接近生产级的内容，关键在于任务定义、约束条件与示例设计。</description>
    </item>
    <item>
      <title>Markdown 语法示例：常用排版元素完整演示</title>
      <link>https://news.945688.xyz/posts/markdown-syntax-demo/</link>
      <pubDate>Wed, 15 Apr 2026 21:00:00 +0800</pubDate>
      <guid>https://news.945688.xyz/posts/markdown-syntax-demo/</guid>
      <description>本文用于系统展示 Markdown 在新闻与技术博客场景下的常见排版能力，包括标题、强调、列表、引用、代码块、表格、链接和图片等元素。</description>
    </item>
    <item>
      <title>拆解 LLM 底层逻辑（一）：Transformer 与自注意力机制如何工作</title>
      <link>https://news.945688.xyz/posts/llm-under-the-hood-1-transformer/</link>
      <pubDate>Wed, 15 Apr 2026 20:00:00 +0800</pubDate>
      <guid>https://news.945688.xyz/posts/llm-under-the-hood-1-transformer/</guid>
      <description>大多数现代大语言模型都建立在 Transformer 架构之上。理解自注意力机制、位置编码和多头注意力，是理解 LLM 为什么能处理长上下文、建立语义关联和进行复杂生成的基础。</description>
    </item>
    <item>
      <title>拆解 LLM 底层逻辑（二）：从预训练到 RLHF，大模型如何被塑造</title>
      <link>https://news.945688.xyz/posts/llm-under-the-hood-2-training/</link>
      <pubDate>Wed, 15 Apr 2026 19:00:00 +0800</pubDate>
      <guid>https://news.945688.xyz/posts/llm-under-the-hood-2-training/</guid>
      <description>用户看到的 ChatGPT 或 Claude，往往表现为一个可以对话、解释和执行任务的助手。但在成为助手之前，它首先是一个通过海量语料进行预训练的基础模型，随后再经过监督微调与人类反馈强化学习被塑造成今天的产品形态。</description>
    </item>
  </channel>
</rss>
