<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>LLM on GNEWS</title>
    <link>https://news.945688.xyz/tags/llm/</link>
    <description>Recent content in LLM on GNEWS</description>
    <generator>Hugo</generator>
    <language>en</language>
    <lastBuildDate>Wed, 15 Apr 2026 22:00:00 +0800</lastBuildDate>
    <atom:link href="https://news.945688.xyz/tags/llm/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>停止废话：ChatGPT 与 Claude 的高阶 Prompt 压榨指南</title>
      <link>https://news.945688.xyz/posts/chatgpt-claude-prompting-guide/</link>
      <pubDate>Wed, 15 Apr 2026 22:00:00 +0800</pubDate>
      <guid>https://news.945688.xyz/posts/chatgpt-claude-prompting-guide/</guid>
      <description>90% 的人都在用错误的方式使用 AI。不要把大模型当成搜索引擎，也不要把它们当成能读懂人心的人类。掌握这几个核心 Prompt 技巧，榨干 GPT-4o 和 Claude 3.5 的最后一滴算力。</description>
    </item>
    <item>
      <title>拆解 LLM 底层逻辑 (一)：自注意力机制与 Transformer 的暴力美学</title>
      <link>https://news.945688.xyz/posts/llm-under-the-hood-1-transformer/</link>
      <pubDate>Wed, 15 Apr 2026 20:00:00 +0800</pubDate>
      <guid>https://news.945688.xyz/posts/llm-under-the-hood-1-transformer/</guid>
      <description>一切现代大语言模型（LLM）的基石，都是 2017 年 Google 提出的 Transformer 架构。这篇文章我们将抛开晦涩的学术论文，从底层逻辑剖析大模型是如何“理解”上下文的。</description>
    </item>
    <item>
      <title>拆解 LLM 底层逻辑 (二)：从预训练到 RLHF 的炼丹之路</title>
      <link>https://news.945688.xyz/posts/llm-under-the-hood-2-training/</link>
      <pubDate>Wed, 15 Apr 2026 19:00:00 +0800</pubDate>
      <guid>https://news.945688.xyz/posts/llm-under-the-hood-2-training/</guid>
      <description>我们拿到手的 ChatGPT 或 Claude，是一个举止得体、对答如流的“AI 助理”。但在它成为助理之前，它只是一个贪婪吞噬了全人类互联网文本的狂暴巨兽（Base Model）。</description>
    </item>
  </channel>
</rss>
