<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/">
    <channel>
        <title>Beancount.io Blog</title>
        <link>https://beancount.io/zh/bean-labs/research-logs</link>
        <description>Beancount.io Blog</description>
        <lastBuildDate>Sun, 12 Jul 2026 00:00:00 GMT</lastBuildDate>
        <docs>https://validator.w3.org/feed/docs/rss2.html</docs>
        <generator>https://github.com/jpmonette/feed</generator>
        <language>zh</language>
        <item>
            <title><![CDATA[FinRAGBench-V：金融领域带视觉引用的多模态 RAG]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain</guid>
            <pubDate>Sun, 12 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[FinRAGBench-V (EMNLP 2025) 是首个针对金融领域带视觉引用的多模态 RAG 的大规模基准测试，涵盖超过 11.2 万页文档和 1,394 对人工标注的问答对。顶级模型在块级引用召回率上仅达到 20–61%，且多模态检索的表现优于纯文本检索近 50 个百分点。]]></description>
            <content:encoded><![CDATA[<p>金融 AI 一直由纯文本 RAG（检索增强生成）主导，但真实的金融文档充满了 OCR（光学字符识别）无法完全捕捉的图表、表格和插图。FinRAGBench-V (EMNLP 2025) 是首个用于评估金融领域带视觉引用的多模态 RAG 的大规模基准测试，其结果清醒地提醒我们，生产系统距离完善还有多远。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文介绍">论文介绍<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%E8%AE%BA%E6%96%87%E4%BB%8B%E7%BB%8D" class="hash-link" aria-label="论文介绍的直接链接" title="论文介绍的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinRAGBench-V%EF%BC%9A%E9%87%91%E8%9E%8D%E9%A2%86%E5%9F%9F%E5%B8%A6%E8%A7%86%E8%A7%89%E5%BC%95%E7%94%A8%E7%9A%84%E5%A4%9A%E6%A8%A1%E6%80%81%20RAG" alt="2026-07-12-finragbench-v-multimodal-rag-visual-citation-financial-domain" class="img_ev3q"></p>
<p>来自北京大学的 Zhao、Jin、Li 和 Gao 介绍了 FinRAGBench-V，这是一个由真实金融文档构建的双语基准测试，涵盖了研究报告、财务报表、招股说明书、学术论文、杂志和新闻文章。检索语料库规模庞大——包含 60,780 页中文页面和 51,219 页英文页面，每种语言约有 1,100 份文档。它配对了 1,394 对人工标注的问答对，涵盖七个问题类别：文本推理、图表和表格提取、数值计算、时效性查询以及多页推理。除了数据集外，该论文的核心贡献是 RGenCite，这是一个基线系统，它在生成答案的同时，还会以边界框坐标的形式生成像素级视觉引用，标记支持每个论点的特定文档区域。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>多模态检索以压倒性优势领先纯文本检索</strong>：ColQwen2 是一种基于页面图像嵌入构建的视觉语言检索器，其 Recall@10 在中文环境下达到 90.13%，在英文环境下达到 85.86%。而最好的文本检索器（如 BM25 和 BGE-M3）最高仅在 42.71% 左右。这种差距绝非偶然。</li>
<li class=""><strong>即便是前沿模型，生成准确率依然较低</strong>：在英文测试中，GPT-4o 的准确率为 43.41% (ROUGE 24.66)；在中文测试中，o4-mini 达到 58.13% (ROUGE 38.55)。这些都是在具备强大检索能力的前提下，顶级专有模型的表现。</li>
<li class=""><strong>页面级引用有效，但块级引用无效</strong>：对于表现最好的模型，页面级召回率在 75–93% 之间。然而，块级召回率（即确定支撑论点的具体表格单元格或图表区域）则下降到了 20–61%。这是可审计性的关键瓶颈。</li>
<li class=""><strong>数值推理和多页推理最先让模型失效</strong>：在所有测试系统中，涉及跨页计算或跨时间跨度的问题是准确率下降最明显的地方。</li>
<li class=""><strong>专有模型表现显著优于开源替代方案</strong>：在多模态 RAG 领域，闭源 API 与开源模型之间的差距比大多数 NLP 基准测试中都要大，这表明对于开源模型而言，视觉金融推理仍是一个未解难题。</li>
<li class=""><strong>引用的自动评估并不完善</strong>：图像裁剪引用评估器与人工判断的 Pearson 相关系数 r = 0.68。这虽然在合理范围内，但如果没有人工抽样，仍不足以完全信任。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些结论站得住脚哪些值得商榷">哪些结论站得住脚，哪些值得商榷<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%E5%93%AA%E4%BA%9B%E7%BB%93%E8%AE%BA%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E5%80%BC%E5%BE%97%E5%95%86%E6%A6%B7" class="hash-link" aria-label="哪些结论站得住脚，哪些值得商榷的直接链接" title="哪些结论站得住脚，哪些值得商榷的直接链接" translate="no">​</a></h2>
<p>多模态检索的发现是本文最可信的结果。在超过 6 万页的规模下，多模态检索器与纯文本检索器之间近 50 个百分点的差距是不容忽视的。在索引之前对金融文档进行 OCR 处理会破坏结构布局信号——例如数字所在的列、图表标题是否修改了对表格的解读——这些信号对于检索至关重要。</p>
<p>生成准确率的数据很真实，但很难孤立地解读。作者没有详细分析准确率差距中有多少归因于检索错误，多少归因于生成失败。鉴于英文 Recall@10 已经达到 85.86%，很大一部分失败必然源于生成端而非检索端。明确这一细分领域将有助于厘清瓶颈在于多模态推理，还是多模态大模型（MLLM）处理金融语言时的更深层基础问题。</p>
<p>针对该基准测试的范围，1,394 个问答对的评估集相对较小。由于被划分为七个类别和两种语言，部分细分领域的样本量不足 200。各类别发现的统计显著性仅是隐含的。这在基准测试论文中并不少见，但也意味着容易构建出“挑选过”的对比结果。</p>
<p>引用评估方案是一个有趣的贡献，但与人工评分 r = 0.68 的相关性还不够强，不足以将自动评估视为块级接地的绝对标准。作者也承认了这一点，并明确指出未来的工作需要更好的引用评估指标。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-至关重要">为什么这对金融 AI 至关重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E8%87%B3%E5%85%B3%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 至关重�要的直接链接" title="为什么这对金融 AI 至关重要的直接链接" translate="no">​</a></h2>
<p>Beancount 基于纯文本分类账文件运行，这使得纯文本 RAG 在查询历史交易时非常有效。但更广泛的会计任务涉及的文档显然不是纯文本：银行对账单 PDF、扫描发票、收据图像、带有嵌入表格和图表的年度报告。一旦 Beancount 代理需要根据源文档进行账目核对——例如核实某笔费用是否与存档发票匹配——它执行的正是在 FinRAGBench-V 中进行基准测试的任务。</p>
<p>块级引用的发现对该用例最为关键。如果一个代理必须通过指向 PDF 中的特定行项目来证明某笔分类账分录的合理性，而目前最好的系统只能实现 20–61% 的块级召回率，那么这还不具备审计就绪性。在这一数字得到实质性改善之前，任何涉及扫描源文档的 Beancount 流程都需要人工参与审核。</p>
<p>检索模式的差距也强力反驳了在文档摄取中使用纯文本流水线的做法。收据图像携带了布局信息——金额字段、供应商名称、行项目位置——这些都会被 OCR 破坏。正是这些布局信息区分了总计金额与税额，FinRAGBench-V 表明多模态检索器能以文本检索器无法企及的方式利用这些信息。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>ColPali: Efficient Document Retrieval with Vision Language Models</strong> —— ColQwen2 的前身，确立了视觉页面嵌入方法，FinRAGBench-V 最好的检索器正是基于此构建的 [arXiv:2407.01449, ECCV 2024]</li>
<li class=""><strong>M3DocRAG: Multi-modal Retrieval is What You Need for Multi-page Multi-document Understanding</strong> —— 利用一个灵活的框架解决多文档视觉问答，可处理跨页面的单跳和多跳视觉推理 [arXiv:2411.04952]</li>
<li class=""><strong>Benchmarking Temporal-Aware Multi-Modal RAG in Finance</strong> —— 2025 年的一个配套基准测试，评估金融多模态 RAG 中的时间敏感性，与 FinRAGBench-V 的时间敏感问题类别形成直接互补 [arXiv:2503.05185]</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Finance</category>
            <category>Financial Reporting</category>
            <category>Data Science</category>
            <category>Reconciliation</category>
            <category>Beancount</category>
        </item>
        <item>
            <title><![CDATA[LLM 智能体能担任 CFO 吗？EnterpriseArena 132 个月的模拟揭示了巨大差距]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark</guid>
            <pubDate>Sat, 11 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[EnterpriseArena 对 11 个大语言模型进行了为期 132 个月的 CFO 模拟，追踪其生存率、期末估值和结账率。仅 Qwen3.5-9B 在 80% 的测试中幸存；GPT-5.4 和 DeepSeek-V3.1 的幸存率为 0%。人类专家的幸存率为 100%，且期末估值是模型的 5 倍。关键瓶颈在于：LLM 在 80% 的时间里跳过了账目对账，导致其基于过时的财务状态进行决策。]]></description>
            <content:encoded><![CDATA[<p>当前金融 AI 领域最雄心勃勃的问题不是“LLM 能否回答关于资产负债表的问题？”，而是“LLM 能否在不耗尽资金的情况下长期管理公司的财务？”Yi Han 等人的论文《LLM 智能体能担任 CFO 吗？》（<em>Can LLM Agents Be CFOs?</em>, arXiv:2603.23638）构建了 EnterpriseArena 来测试这一点，而答案是：勉强可以，但表现并非如你所料。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文分析">论文分析<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%E8%AE%BA%E6%96%87%E5%88%86%E6%9E%90" class="hash-link" aria-label="论文分析的直接链接" title="论文分析的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=LLM%20%E6%99%BA%E8%83%BD%E4%BD%93%E8%83%BD%E6%8B%85%E4%BB%BB%20CFO%20%E5%90%97%EF%BC%9FEnterpriseArena%20%E8%B5%84%E6%BA%90%E5%88%86%E9%85%8D%E5%9F%BA%E5%87%86%E6%B5%8B%E8%AF%95" alt="2026-07-11-can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark" class="img_ev3q"></p>
<p>EnterpriseArena 是一个为期 132 个月（11 年）的 CFO 级别资源分配模拟。每个时间步代表一个月。智能体会收到关于公司层面财务状况、匿名业务文档以及从 FRED、CBOE 和标普全球数据中提取的宏观经济信号的部分观测信息。它每月拥有 20 次工具调用预算，分布在四种操作中：核实现金头寸、审查财务记录、分析市场状况和预测现金流。智能体必须在三个操作中选择其一：结账（对账）、请求资金（股权或债务，结果具有随机性）或跳过。主要约束是公司的现金余额在每个时间步必须保持非负；一旦违反，该回合即以零分结束。在生存的前提下，智能体会根据评分公式 $Rev_T \times 5 + Cash_T - 5,000 \times N_{tools}$ 来最大化期末企业估值，该公式明确惩罚了过度的工具调用。</p>
<p>测试评估了 11 个 LLM，包括 Gemini-3.1-Pro、Claude-Haiku-4.5、GPT-5.4、DeepSeek-V3.1、Llama-3.3-70B、Qwen3.5-397B 和 Qwen3.5-9B，同时引入了由两名分别拥有 8 年和 14 年经验的财务专业人士验证的人类专家基准。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="关键观点">关键观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%E5%85%B3%E9%94%AE%E8%A7%82%E7%82%B9" class="hash-link" aria-label="关键观点的直接链接" title="关键观点的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>模型间的生存率差异巨大</strong>：Qwen3.5-9B 在 80% 的测试中幸存，Gemini-3.1-Pro 为 50%，Claude-Haiku-4.5 和 GLM-5 各为 20%，而 GPT-5.4、DeepSeek-V3.1、Llama-3.3-70B、Mistral-Small-24B 和 Mixtral-8x7B 则全部为 0%。LLM 的整体平均生存率为 26%。</li>
<li class=""><strong>大模型并不一定优于小模型</strong>：Qwen3.5-9B（90 亿参数，80% 生存率，7880 万美元期末估值）果断击败了 Qwen3.5-397B（3970 亿参数，20% 生存率）和 GPT-5.4（0% 生存率）。</li>
<li class=""><strong>与人类的差距巨大</strong>：人类基准实现了 100% 的生存率和 $152.2M ± $29.6M 的期末估值；而 LLM 的平均值仅为 2820 万美元，生存率为 26%。</li>
<li class=""><strong>结账是关键瓶颈</strong>：人类专家在 94.3% 的时间步中会结账（对账）；而 LLM 的平均比例仅为 19.3%。结账是生成基准财务报表并使后续理性决策成为可能的核心操作。</li>
<li class=""><strong>只收集信息而不采取行动是致命的</strong>：Qwen3.5-397B 在整个模拟过程中频繁使用市场分析和预测工具，但几乎从不结账（结账率为 0.0%），也几乎从不请求资金，尽管它“知道”发生了什么，最终仍因现金耗尽而倒闭。</li>
<li class=""><strong>工具预算惩罚至关重要</strong>：评分公式主动惩罚那些强迫性检查信息而不采取行动的智能体，这一约束反映了真实的决策机会成本。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些结论站得住脚哪些存疑">哪些结论站得住脚，哪些存疑<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%E5%93%AA%E4%BA%9B%E7%BB%93%E8%AE%BA%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E5%AD%98%E7%96%91" class="hash-link" aria-label="哪些结论站得住脚，哪些存疑的直接链接" title="哪些结论站得住脚，哪些存疑的直接链接" translate="no">​</a></h2>
<p>双重目标设计——作为硬约束的生存率加上期末估值——是近期智能体基准测试中最强有力的选择之一。它反映了真实 CFO 的运作方式：如果资金枯竭，你将无法优化增长。对日历日期和公司身份的匿名化处理防止了模型通过记忆历史结果来进行模式匹配，这相比于使用真实股票代码和日期的金融基准测试是一个真正的方改进。</p>
<p>作者通过案例研究确定的失败模式分类是可信的：GPT-5.4 达到了 99.1% 的“跳过”率（意味着它在几乎每个时间步都通过不采取行动来执行操作），而 Qwen3.5-397B 则误将分析当成了行动。这些是行为迥异的失败模式，需要不同的补救措施。</p>
<p>我不那么信服的地方在于：随机宏观环境使用高斯噪声来近似市场冲击，作者自己也承认这无法复制黑天鹅事件或人类的非理性。每月 20 次调用的工具预算也有些随意——现实中的 CFO 在使用自己的记忆时并不会面临这种查询率限制，这引发了一个问题：该基准是在衡量长周期的财务判断力，还是更接近于资源压力下的 RAG（检索增强生成）表现。单智能体结构是作者提到的另一个明确局限：现实中的 CFO 在由财务总监、财务规划与分析 (FP&amp;A) 专家和司库团队组成的层级体系中运作，而论文并未尝试模拟这一点。</p>
<p>模型规模不能预测生存率的发现令人震惊且可能属实，但其机制并未得到充分解释。作者记录了这一现象，但未完全拆解这究竟是指令遵循、长上下文连贯性还是风险校准方面的失败。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-至关重要">为什么这对金融 AI 至关重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E8%87%B3%E5%85%B3%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 至关重要的直接链接" title="为什么这对金融 AI 至关重要的直接链接" translate="no">​</a></h2>
<p>EnterpriseArena 中的“结账”操作本质上就是 Beancount 中的 <code>balance</code> 余额断言和账本对账步骤——即智能体在行动前确认财务状态基准真相的时刻。研究发现 LLM 在 80% 的时间里跳过了这一步，这直接映射到了“回写安全性”问题：一个在行动前拒绝核实的智能体，其决策必然基于过时或幻觉的状态。对于 Beancount 自动化而言，这表明在任何智能体循环中，对账步骤都应该是强制性且可验证的，而非可选。</p>
<p>132 个月的时间跨度也与多年期的账本管理直接类比。研究发现持续的态势感知能力会随时间推移而下降，这与我们对管理五年交易历史的 Beancount 智能体的预期一致：即使智能体的上下文中拥有所有数据，在第 60 个月时它也可能无法做出连贯的决策。这表明在长期运行的 Beancount 智能体会话中，周期性的强制对账检查点——而不仅仅是响应式查询——是必要的。</p>
<p>Qwen3.5-397B 陷入的信息搜集陷阱是一个有用的设计警示：配备了大量检索工具的智能体可能更倾向于检索而非承诺行动，尤其是在错误操作（账本损坏）成本很高的情况下。EnterpriseArena 所采用的工具预算约束，可能有助于增强 Beancount 回写智能体的行动纪律。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>EcoGym</strong> (arXiv:2602.09514) —— 这是一个互补的长周期经济基准，涵盖了自动售货、自由职业和运营环境，步数超过 1,000 步；没有模型能在三个环境中同时占据主导地位，这表明 EnterpriseArena 中的失败模式并非特定基准设计所特有。</li>
<li class=""><strong>AFlow: Automating Agentic Workflow Generation</strong> (arXiv:2410.10762, ICLR 2025 oral) —— 将工作流设计重新表述为利用 MCTS 和 LLM 反馈的代码空间搜索；如果 EnterpriseArena 证明了人工设计的智能体行为会失败，那么 AFlow 则是自动发现更好流水线的下一步方案。</li>
<li class=""><strong>ToolLLM: Facilitating Large Language Models to Master 16,000+ Real-world APIs</strong> (arXiv:2307.16789, ICLR 2024) —— 基础性的工具使用训练和评估框架；了解 ToolLLM 如何学习工具调用行为，有助于理清 EnterpriseArena 中的“规避行动”失败究竟是训练问题还是提示词工程问题。</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Reconciliation</category>
            <category>Beancount</category>
            <category>Cash Flow</category>
            <category>Financial Management</category>
            <category>Forecasting</category>
        </item>
        <item>
            <title><![CDATA[WildToolBench：为何在真实世界工具调用中没有 LLM 的会话准确率能超过 15%]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild</guid>
            <pubDate>Fri, 10 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[WildToolBench (ICLR 2026) 评估了 57 个 LLM 在源自真实用户行为的 1,024 个任务上的表现——没有模型的会话准确率超过 15%，其中组合编排、隐藏意图和指令转换是三个最显著的失败模式。]]></description>
            <content:encoded><![CDATA[<p>我一直在跟踪的工具使用基准测试——BFCL、ToolBench、τ-bench——都有一个共同的设计缺陷：它们是根据基准测试作者对用户行为的想象来构建任务的。被 ICLR 2026 接收的 WildToolBench 则回归到真实的用户日志，询问用户<em>实际上</em>在做什么。答案令人深思：在评估的 57 个 LLM 中，没有一个会话准确率超过 15%。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文解读">论文解读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%E8%AE%BA%E6%96%87%E8%A7%A3%E8%AF%BB" class="hash-link" aria-label="论文解读的直接链接" title="论文解读的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=WildToolBench%EF%BC%9A%E4%B8%BA%E4%BD%95%E5%9C%A8%E7%9C%9F%E5%AE%9E%E4%B8%96%E7%95%8C%E5%B7%A5%E5%85%B7%E8%B0%83%E7%94%A8%E4%B8%AD%E6%B2%A1%E6%9C%89%20LLM%20%E7%9A%84%E4%BC%9A%E8%AF%9D%E5%87%86%E7%A1%AE%E7%8E%87%E8%83%BD%E8%B6%85%E8%BF%87%2015%25" alt="2026-07-10-wildtoolbench-benchmarking-llm-tool-use-in-the-wild" class="img_ev3q"></p>
<p>来自阿里巴巴的于培杰、刘伟、杨一凡及其同事展示了 WildToolBench (arXiv:2604.06185)，这是一个包含 256 个多轮对话场景、1,024 个任务的基准测试，这些任务源自真实用户行为模式，并基于约 1,600 个公共 API。其核心论点是，现有的基准测试趋于饱和并非因为模型表现优异，而是因为任务太假。真实用户会将请求捆绑在一起，遗漏两轮前分享过的上下文，并在询问工具问题、闲聊和请求澄清之间切换——有时就在一条消息内。WildToolBench 将这些失败模式量化为三个结构化的挑战类别，并测量任务级准确率和更为严格的会话级准确率（要求对话中的所有四个任务都成功）。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>大多数模型的会话准确率崩溃至个位数</strong>：Gemini-2.0-Flash-Thinking 以 14.45% 的会话准确率领先，Claude-4-Sonnet 为 12.50%，GPT-4o 为 11.72%。在四轮会话中通过所有任务是非常困难的，即使是 60% 的任务准确率，转化后也只有不到 15% 的会话准确率——这是每次交互都要缴纳的复合概率税。</li>
<li class=""><strong>组合编排（Compositional orchestration）是最陡峭的悬崖</strong>：混合顺序加并行的工具拓扑结构将顶尖模型的任务准确率限制在 25% 以内，而纯并行或纯顺序链的准确率为 54-62%。当一个任务需要先进行并行扇出再进行顺序合并时，协调问题超出了当前任何模型能可靠处理的范畴。</li>
<li class=""><strong>隐藏意图的差距比以往测量的都要大</strong>：WildToolBench 确保 100% 的任务涉及隐式或跨轮信息；而 BFCL v3 仅占 15.7%。长程依赖任务（缺失信息在两轮对话之前）是最难的子类型，即使在任务层面，也没有模型能突破 50%。</li>
<li class=""><strong>指令转换（Instruction transitions）以线性速率叠加错误</strong>：每次额外的策略切换（工具任务 → 聊天 → 澄清 → 工具任务）会使准确率下降约 5-15 个百分点。在发生三次转换时，受影响最严重的模型会丢失 30 分。作者称之为“自我条件作用（self-conditioning）”：先前的响应会以难以在中途纠正的方式，使模型对后续指令的理解产生偏差。</li>
<li class=""><strong>最优路径率（Optimal Path Rate）保持在 43% 以下</strong>：即使模型正确完成了任务，它们也会浪费多余的 API 调用。Claude-4-Sonnet 实现了 42.74% 的最佳最优路径率，这意味着大多数正确的完成步骤都超过了必要步骤——这对任何生产系统来说都是延迟和 Token 的直接成本。</li>
<li class=""><strong>专用工具使用模型表现不如通用前沿模型</strong>：xLAM-2-70B 和 ToolACE2-8B 的错误函数名比例均超过 30%，表现逊于 GPT-4o 或 Claude-4-Sonnet。在狭窄的工具使用语料库上进行微调似乎会产生脆弱性，而非在面对真实用户行为的分布偏移时的鲁棒性。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些结论站得住脚哪些存疑">哪些结论站得住脚，哪些存疑<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%E5%93%AA%E4%BA%9B%E7%BB%93%E8%AE%BA%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E5%AD%98%E7%96%91" class="hash-link" aria-label="哪些结论站得住脚，哪些存疑的直接链接" title="哪些结论站得住脚，哪些存疑的直接链接" translate="no">​</a></h2>
<p>基准测试的设计在最关键的地方非常扎实。任务准确率和会话准确率之间的区分完全正确：复合失败模式是杀死真实部署的原因，而大多数先前的研究报告的任务级数据掩盖了这一点。三种挑战分类（组合编排、隐藏意图、指令转换）动机充分且有实证支持——不同挑战类型的性能退化曲线是真实且显著的。</p>
<p>弱点在于规模。来自 256 个场景的 1,024 个任务作为一个研究成果是可信的，但对于旨在长期跟踪 57 个模型的排行榜来说略显单薄。作者直接承认了这一点，并提到了未来的自动化扩展管线。另一个问题是，“基于真实用户日志”包含了很多加工：最终的任务是部分合成的，由多智能体系统从种子模式构建，然后由人工标注员验证。虽然声称是基于真实数据，但数据并非原封不动的实况——它是“受真实启发”的。这关系到你如何字面上理解 15% 的天花板；如果生成管线引入了真实用户实际上并不具备的人为难度，那么部分差距可能会缩小。</p>
<p>我也对将指令转换分析作为一种架构层面的主张持怀疑态度。论文将其归因于基础局限性，但 RLHF 微调目标与多模态用户会话之间的训练分布不匹配是更简洁的解释。这是可以解决的，而非结构性的。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对财务-ai-至关重要">为什么这对财务 AI 至关重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E8%B4%A2%E5%8A%A1-ai-%E8%87%B3%E5%85%B3%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对财务 AI 至关重要的直接链接" title="为什么这对财务 AI 至关重要的直接链接" translate="no">​</a></h2>
<p>这三种失败模式几乎完美对应了真实用户与 Beancount 回写智能体交互的方式。用户问“上个月我在杂货上花了多少钱，顺便把今天的 Whole Foods 收据也加上”——这是一个捆绑在一次交互中的组合任务。接着他们说“其实是 47.23 美元而不是 42 美元，我查了一下”——这是需要智能体跟踪会话状态的参数修正。然后他们问“那个类别对吗？”——这是一个澄清请求，智能体不应重新执行它刚刚完成的写入操作。在混合顺序加并行编排中 25% 的上限，以及指令转换带来的 30 分下降，正是这些失败模式会体现在处理真实用户会话的账本智能体中。</p>
<p>专用工具使用模型表现不如通用前沿模型的发现特别具有相关性。如果我们考虑在 Beancount 特定的工具调用示例上微调一个更小的开源模型（这是显而易见的降本方案），WildToolBench 是一个直接的警告：专业化可能会牺牲对实际用户行为分布的鲁棒性。最优路径率的发现也很重要：一个使用两倍 API 调用量来完成任务的智能体不仅效率低下；对于回写操作，冗余的中间调用可能会使账本处于不一致的中间状态。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world APIs</strong> (arXiv:2307.16789, ICLR 2024) —— WildToolBench 明确对标的基础训练框架；理解其合成评估设计可以阐明实时执行究竟增加了什么。</li>
<li class=""><strong>τ-bench: A Benchmark for Tool-Agent-User Interaction in Real-World Domains</strong> (arXiv:2406.12045) —— 关于现实多轮工具使用的最接近的前期研究；将 τ-bench 的零售/航空领域与 WildToolBench 的公共 API 覆盖范围进行对比，可以看出这一挑战的普遍性。</li>
<li class=""><strong>AFlow: Automating Agentic Workflow Generation</strong> (arXiv:2410.10762, ICLR 2025 oral) —— 如果指令转换问题可以通过自动发现更好的智能体工作流而非扩展训练数据来解决，AFlow 是实现这一目标最可靠的机制。</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Machine Learning</category>
            <category>Beancount</category>
            <category>Data Science</category>
            <category>Technology</category>
        </item>
        <item>
            <title><![CDATA[LLM 置信度与校准：研究现状深度综述]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey</guid>
            <pubDate>Thu, 09 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[一项关于 LLM 置信度估计和校准方法的系统性综述——涵盖白盒 Logit 方法、基于一致性的 SelfCheckGPT 以及语义熵——研究表明，GPT-4 的言语置信度得分仅达到约 62.7% 的 AUROC，仅略高于随机水平。这对于在金融和会计领域部署具有不确定性意识的代理具有直接影响。]]></description>
            <content:encoded><![CDATA[<p>上周我介绍了 ReDAct，当低成本模型的不确定性超过校准阈值时，它会将代理决策路由到昂贵的备选模型。那篇论文对“不确定性”有很多泛泛的论述——值得停下来了解一下学术界在衡量和校准不确定性方面到底掌握了哪些知识。Geng 等人的《大型语言模型中的置信度估计与校准综述》（NAACL 2024）是一个很好的起点：它对哪些方法有效、哪些无效以及哪些尚未被衡量进行了系统性的分类。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文简介">论文简介<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%E8%AE%BA%E6%96%87%E7%AE%80%E4%BB%8B" class="hash-link" aria-label="论文简介的直接链接" title="论文简介的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=LLM%20%E7%BD%AE%E4%BF%A1%E5%BA%A6%E4%B8%8E%E6%A0%A1%E5%87%86%EF%BC%9A%E7%A0%94%E7%A9%B6%E7%8E%B0%E7%8A%B6%E6%B7%B1%E5%BA%A6%E7%BB%BC%E8%BF%B0" alt="2026-07-09-confidence-estimation-calibration-llms-survey" class="img_ev3q"></p>
<p>Geng、Cai、Wang、Koeppl、Nakov 和 Gurevych 调查了关于 LLM 置信度估计和校准的新兴文献，任务涵盖从多项选择题（QA）到开放式生成和机器翻译。核心问题：LLM 既可以非常准确，也可以完全不可靠，而这在外部很难区分。该综述将解决方案空间分为两个主要分支——利用内部模型状态的白盒方法，以及将模型视为不透明的黑盒方法——并在每个分支中进一步区分了置信度估计和事后校准。</p>
<p>该论文发表于 NAACL 2024（第 6577–6595 页），由来自达姆施塔特工业大学、MBZUAI 和穆罕默德·本·扎耶德人工智能大学的团队于 2023 年 11 月提交，并于 2024 年 3 月修订。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class="">
<p><strong>通过 Logit 获取白盒置信度</strong>：最简单的方法使用 Token 级别的概率或长度归一化对数似然作为置信度信号。这些方法有效，但面临一个根本性的歧义：低 Token 概率可能反映出事实置信度低，也可能仅仅是不寻常的措辞——模型可能对词语选择不确定，但对底层事实很确定。</p>
</li>
<li class="">
<p><strong>基于一致性的黑盒置信度 (SelfCheckGPT)</strong>：Manakul 等人 (EMNLP 2023) 对多个补全结果进行采样，并使用 BERTScore、NLI 或 n-gram 重叠度对其相互一致性进行评分。无需 Logit 访问权限。核心见解：对于 LLM 熟知的事实，重复采样会趋于一致；对于虚构的事实，采样则会发散。</p>
</li>
<li class="">
<p><strong>语义熵</strong>：Farquhar 等人 (<em>Nature</em>, 2024) 在计算熵之前将语义等效的答案聚类。LLM 可能会对“巴黎”和“法国首都”使用不同的措辞——原始 Token 熵将这些视为发散，而语义熵则不然。这比 Token 级别的一致性迈进了一大步，综述对此进行了背景说明。</p>
</li>
<li class="">
<p><strong>言语置信度失效</strong>：当被要求输出置信度百分比时，模型会陷入过度自信。实证研究 (Groot 等人，ACL 2024 TrustNLP) 发现，GPT-3、GPT-3.5 和 Vicuna 的言语置信度平均预期校准误差 (ECE) 均超过 0.377，无论实际准确率如何，预测结果都集中在 90–100% 范围内。即使是评估中校准最好的模型 GPT-4，在使用言语置信度区分正确和错误答案时，其 AUROC 也仅为约 62.7%，仅略高于随机猜测。</p>
</li>
<li class="">
<p><strong>校准技术因任务而异</strong>：对于分类任务，上下文校准（减去用空“[N/A]”提示词估计的类别先验偏差）和位置去偏 (PriDE) 解决了已知的系统性偏差。对于生成任务，序列似然校准 (SLiC) 在排序后的补全结果上微调模型。温度缩放 (Temperature scaling)——最简单的事后修复方案——在许多场景中仍具竞争力。</p>
</li>
<li class="">
<p><strong>缺乏统一基准</strong>：该综述最具批判性的结构性观察是：目前还没有一个涵盖跨任务和跨领域置信度估计方法的统一基准。这使得严谨地比较各种方法几乎不可能。该领域正在进行不具可比性的评估。</p>
</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些观点站得住脚哪些站不住">哪些观点站得住脚，哪些站不住<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%E5%93%AA%E4%BA%9B%E8%A7%82%E7%82%B9%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E7%AB%99%E4%B8%8D%E4%BD%8F" class="hash-link" aria-label="哪些观点站得住脚，哪些站不住的直接链接" title="哪些观点站得住脚，哪些站不住的直接链接" translate="no">​</a></h2>
<p>这种分类法很扎实。白盒与黑盒的区别对系统设计非常有帮助，而对基于 Logit 方法的处理也很坦诚地指出了它们的局限性——作者直接指出，Token 概率将事实置信度与词汇不确定性混为一谈。从业者往往低估了这种混淆。</p>
<p>令我感到沮丧的地方：这篇综述在很大程度上是描述性的。几乎没有比较各种方法的实验性基准，作者也明确承认这是其局限性。读完之后，我得到了一个清晰的设计空间蓝图，但对于新任务应该使用哪种方法却缺乏指导。</p>
<p>言语置信度的结果——GPT-4 在其自述置信度上的 AUROC 约为 62.7%——应该成为任何在生产环境中部署 LLM 的人的必备常识。但事实并非如此。人们仍然在发布诸如“在 1-10 分的范围内，你有多大信心？”之类的提示词，并将答案视为有意义的。其实并非如此。</p>
<p>综述对 RLHF 校准问题的论述也较少：人类反馈的训练后处理是让模型校准得更好还是更差？目前正反两方面都有证据，而综述在很大程度上回避了这个问题。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-很重要">为什么这对金融 AI 很重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E5%BE%88%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 很重要的直接链接" title="为什么这对金融 AI 很重要的直接链接" translate="no">​</a></h2>
<p>ReDAct 的安全性建立在拥有来自廉价模型的校准不确定性信号之上。这篇综述清楚地表明了实现这一点有多难。Logit 信号在白盒设置中可用，但会将词汇不确定性和事实不确定性混淆。基于一致性的方法在黑盒设置中有效，但每次决策需要多次采样——对于处理大批量交易条目的高吞吐量 Beancount 回写代理来说，成本太高。</p>
<p>对于 Bean Labs 来说，最实用的发现是：语义熵在评分一致性之前先将语义等效的答案聚类，这对于账本条目至关重要，因为模型可能会以多种语法不同的形式表达相同的借贷关系。Beancount 代理应该对采样的账本条目补全结果使用语义聚类，而不是原始的 Token 级方差，以检测何时幻觉出了账户名称或金额。</p>
<p>言语置信度的校准失败是对任何向用户展示“AI 置信度有多高？”的 UI 的直接警告：不要信任模型产生的数字。请改用外部校准器或基于一致性的方法，或者根本不要展示它。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class="">Farquhar 等人，《使用语义熵检测大型语言模型中的幻觉》，<em>Nature</em>, 2024 —— 这是从该综述框架中诞生的最严谨的方法；值得阅读全文，而不仅仅看综述摘要。</li>
<li class="">Manakul 等人，《SelfCheckGPT：生成式大型语言模型的零资源黑盒幻觉检测》，EMNLP 2023 (arXiv:2303.08896) —— 经典的基于一致性的方法；在部署任何黑盒置信度信号之前必须理解。</li>
<li class="">Groot 等人，《过度自信是关键：大型语言模型和视觉语言模型中的言语不确定性评估》，TrustNLP at ACL 2024 (arXiv:2405.02917) —— 对言语置信度在不同模型和任务中失效情况的最全面实证审计。</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Trust</category>
            <category>Finance</category>
            <category>Data Science</category>
            <category>Hallucination Detection</category>
        </item>
        <item>
            <title><![CDATA[JSONSchemaBench：真实世界的模式复杂度打破了大语言模型结构化输出的保证]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models</guid>
            <pubDate>Wed, 08 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[JSONSchemaBench 对 9,558 个真实世界的 JSON 模式进行了针对六种约束解码框架的测试，发现模式复杂度导致覆盖率从简单模式的 86% 崩塌至复杂模式的 3%，其中 XGrammar 静默输出了 38 个不合规结果，且没有任何框架能够涵盖所有 45 个 JSON Schema 特征类别。]]></description>
            <content:encoded><![CDATA[<p>大多数团队将约束解码视为一个已解决的问题——添加一个 JSON 模式，即可获得有效的 JSON。JSONSchemaBench (arXiv:2501.10868) 是首次针对 9,558 个真实世界模式测试该假设的系统性尝试，结果并不像营销宣传的那样令人宽慰。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文内容">论文内容<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%E8%AE%BA%E6%96%87%E5%86%85%E5%AE%B9" class="hash-link" aria-label="论文内容的直接链接" title="论文内容的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=JSONSchemaBench%EF%BC%9A%E7%9C%9F%E5%AE%9E%E4%B8%96%E7%95%8C%E7%9A%84%E6%A8%A1%E5%BC%8F%E5%A4%8D%E6%9D%82%E5%BA%A6%E6%89%93%E7%A0%B4%E4%BA%86%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E7%BB%93%E6%9E%84%E5%8C%96%E8%BE%93%E5%87%BA%E7%9A%84%E4%BF%9D%E8%AF%81" alt="2026-07-08-jsonschemabench-structured-outputs-language-models" class="img_ev3q"></p>
<p>Saibo Geng、Hudson Cooper、Michał Moskal 及其微软研究院的同事介绍了 JSONSchemaBench，这是一个包含 9,558 个源自真实生产环境的模式基准测试：包括 GlaiveAI 函数调用签名、按复杂度（从简单到极难）分层的 GitHub 仓库、Kubernetes API 配置、Snowplow 事件分析模式以及 JSONSchemaStore 集合。他们评估了六种约束解码框架——Guidance、Outlines、Llamacpp、XGrammar、OpenAI Structured Outputs 和 Gemini——涵盖三个维度：覆盖率（框架能处理多少比例的模式）、效率（与无约束生成相比的每秒 Token 开销）和质量（下游任务的准确性）。评估矩阵还包括官方 JSON Schema 测试套件，该套件记录了任何合规引擎都应支持的 45 个特征类别。</p>
<p>其核心观点是，模式复杂度是区分强大框架与脆弱框架的关键变量，且没有任何单一框架能在所有三个维度上都占据主导地位。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>覆盖率在模式复杂度面前崩溃。</strong> 在简单的 GlaiveAI 模式上，所有框架的得分都在 86% 以上。但在 GitHub-Hard 模式（多层嵌套、递归定义、复杂模式约束）上，Guidance 降至 41%，Llamacpp 降至 39%，XGrammar 降至 28%，而 Outlines 则跌至惨不忍睹的 3%。OpenAI 在 GitHub-Hard 上的覆盖率仅为 9%，而 Gemini 在中等复杂度或更高复杂度的模式上完全无法产生有效输出。</li>
<li class=""><strong>Kubernetes 暴露了 XGrammar 的特定弱点。</strong> 尽管 XGrammar 声称速度极快，但在 Kubernetes 模式上的覆盖率仅为 7%，这可能是因为这些模式依赖于上下文相关的模式，而 XGrammar 的上下文无关预计算无法处理。对于生产级智能体，能够处理包含 Kubernetes 配置在内的基准测试覆盖率并非可选项。</li>
<li class=""><strong>欠约束比编译失败更危险。</strong> XGrammar 在 JSON Schema 测试套件中出现了 38 次欠约束失败——这意味着它输出了违反声明模式的 JSON，却静默报告成功。Guidance 只有 1 次此类失败。对于写回型智能体，编译错误可以在设计阶段被捕获；而欠约束失败会在运行时损坏数据且没有任何信号。</li>
<li class=""><strong>Guidance 的快进功能带来了真实的 50% 提速。</strong> 当存在长确定性序列（例如固定对象结构中的字段名称）时，Guidance 可以在每个解码步骤中推进多个 Token。在 A100 上的 Llama-3.1-8B 上，Guidance 的每个输出 Token 运行时间为 6-9 毫秒，而无约束生成为 15-16 毫秒。Outlines 比无约束生成更慢，为 30-46 毫秒，主要原因是其前期自动机编译在每个模式上需要花费 3-8 秒。</li>
<li class=""><strong>约束解码适度提升了推理准确性。</strong> 在 GSM8K（数学）上，Guidance 将准确性从 80.1%（无约束）提升到 83.8%。在 Last Letter 和 Shuffle Objects 任务中，增益在 1-3 个百分点之间。这反驳了广泛引用的担忧，即强迫使用 JSON 格式会降低回答质量——但其影响程度较小，格式选择不应成为框架选型的驱动因素。</li>
<li class=""><strong>没有任何框架能涵盖所有 45 个 JSON Schema 特征类别。</strong> Guidance 涵盖了 13 个，Llamacpp 和 XGrammar 各涵盖 1 个，Outlines 则为 0。实际意义在于，任何使用 <code>if/then/else</code>、<code>unevaluatedProperties</code> 或递归 <code>$ref</code> 定义的模式，其行为都将取决于底层使用的引擎，且具有不可预测性。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些结论站得住脚哪些站不住">哪些结论站得住脚，哪些站不住<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%E5%93%AA%E4%BA%9B%E7%BB%93%E8%AE%BA%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E7%AB%99%E4%B8%8D%E4%BD%8F" class="hash-link" aria-label="哪些结论站得住脚，哪些站不住的直接链接" title="哪些结论站得住脚，哪些站不住的直接链接" translate="no">​</a></h2>
<p>该基准测试最显著的贡献在于模式的来源。之前的评估大多使用玩具模式或单一来源集合。将 Kubernetes 配置与函数调用签名并列是正确且具有对抗性的多样化尝试。复杂度分层（从简单到极难）也为从业者提供了校准曲线：如果你的模式类似于 GlaiveAI 函数调用，XGrammar 或 Guidance 都可以；如果它们类似于 Kubernetes 配置清单，你的选择范围会迅速缩小。</p>
<p>主要弱点在于单样本贪婪搜索评估。通过每个模式一次生成来衡量覆盖率低估了真实能力——一个框架可能在 20% 的时间内失败，但在重试时成功。论文承认了这一点，但没有报告温度采样下的 pass@k 数据，这对于失败会重试的生产系统至关重要。</p>
<p>比较中还混杂了不可比的模型。开源框架（Guidance、Outlines、Llamacpp、XGrammar）在 Llama-3.2-1B 上进行测试，而 OpenAI 和 Gemini 运行的是它们各自未公开的模型。OpenAI 在 GitHub-Hard 上 9% 的覆盖率可能既反映了约束解码架构，也反映了模型能力。公平的比较需要受控的模型访问权限——这显然是作者无法强迫闭源供应商提供的。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-很重要">为什么这对金融 AI 很重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E5%BE%88%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 很重要的直接链接" title="为什么这对金融 AI 很重要的直接链接" translate="no">​</a></h2>
<p>每一个 Beancount 写回代理都会生成结构化输出。如果代理在转换为 <code>.beancount</code> 语法之前先将 Beancount 指令输出为 JSON，或者它通过 JSON 模式调用工具，那么这种 JSON 生成的可靠性就不是细节问题——它是成败的关键。FinTrace 论文显示，尖端模型在处理工具输出的推理上会失败；JSONSchemaBench 揭示了一个交错的问题：甚至在推理之前，格式化层就可能静默地输出不合规的结果。</p>
<p>Kubernetes 的测试结果对 Beancount 尤其具有启发意义。账本模式并非扁平的键值对集合。账户层级、交易元数据和标签结构创建了类似于 Kubernetes API 对象的嵌套递归模式。一个在 Kubernetes 上得分仅为 7% 的框架，无论其每个 Token 的开销有多快，都不足以处理复杂的账本模式。</p>
<p>欠约束失败模式是我最担心的。使用 XGrammar 的 Beancount 代理可能会发出一个通过框架内部验证检查但违反实际模式的交易——而代理没有任何理由重试。静默的数据损坏比显性的失败更糟糕。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>XGrammar</strong> (arXiv:2411.15100, Dong et al.) —— 被测试的最快框架之一背后的技术论文，解释了上下文无关/相关 Token 拆分以及为什么 Kubernetes 模式会使其面临压力。</li>
<li class=""><strong>Grammar-Aligned Decoding / ASAp</strong> (NeurIPS 2024) —— 表明约束解码中的 Token 掩码可能会扭曲模型的概率分布，并提出了一种修正的采样算法；这是该基准测试仅间接衡量的质量问题的理论基础。</li>
<li class=""><strong>XGrammar-2</strong> (arXiv:2601.04426) —— 续作，将 XGrammar 扩展到智能体场景下的动态模式，即模式本身在多轮对话中会发生变化，这与根据哪些账户类型处于活跃状态而调整输出格式的 Beancount 代理直接相关。</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Automation</category>
            <category>Beancount</category>
            <category>Performance</category>
        </item>
        <item>
            <title><![CDATA[FinMCP-Bench：MCP 架构下真实世界金融工具使用的大语言模型代理基准测试]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol</guid>
            <pubDate>Tue, 07 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[FinMCP-Bench 在 65 个 MCP 服务器支持的 613 个真实世界金融工具使用任务上评估了六个大语言模型——表现最好的模型在多轮任务中的精确匹配率仅为 3.08%，揭示了从单工具到多轮场景下 20 倍的性能崩塌。]]></description>
            <content:encoded><![CDATA[<p>MCP 已成为大语言模型（LLM）工具调用的事实连接标准——Anthropic 在 2024 年底推出了它，到 2026 年初，所有主流模型提供商都已采用。FinMCP-Bench (arXiv:2603.24943, ICASSP 2026) 是首个基于真实 MCP 工具服务器构建的基准测试，专门针对金融代理，它的出现恰逢其时，告诉我们这种标准化的底层架构是否真的能帮助代理完成有用的金融工作。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文详解">论文详解<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%E8%AE%BA%E6%96%87%E8%AF%A6%E8%A7%A3" class="hash-link" aria-label="论文详解的直接链接" title="论文详解的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinMCP-Bench%EF%BC%9AMCP%20%E6%9E%B6%E6%9E%84%E4%B8%8B%E7%9C%9F%E5%AE%9E%E4%B8%96%E7%95%8C%E9%87%91%E8%9E%8D%E5%B7%A5%E5%85%B7%E4%BD%BF%E7%94%A8%E7%9A%84%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E4%BB%A3%E7%90%86%E5%9F%BA%E5%87%86%E6%B5%8B%E8%AF%95" alt="2026-07-07-finmcp-bench-llm-agents-financial-tool-use-model-context-protocol" class="img_ev3q"></p>
<p>朱洁、田一民及其来自阿里云 Qwen 点金团队、盈米基金和苏州大学的同事们提出了 FinMCP-Bench，这是一个包含 613 个样本的评估套件，涵盖了 10 个金融场景类别和 33 个子场景。其中的工具并非模拟生成的——该基准测试由 65 个真实的、符合 MCP 标准的金融工具服务器支持，这些服务器提取自“且慢”APP 金融助手的真实生产日志。作者将样本分为三类：145 个单工具样本、249 个多工具样本和 219 个多轮样本。他们测试了六个模型：参数量分别为 4B、30B 和 235B 的 Qwen3 系列（均具备增强思维能力），以及 DeepSeek-R1、GPT-OSS-20B 和 Seed-OSS-36B。核心评估指标包括工具精确率、工具召回率、工具 F1 值，以及要求序列中每个工具调用都完全准确的精确匹配率 (EMR)。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>MCP 作为评估基石</strong>：使用真实的 MCP 服务器定义而非合成的 API 模式，弥合了基准评估与代理在实际部署的金融系统中面临的情况之间的重大鸿沟。</li>
<li class=""><strong>三维难度划分</strong>：单工具、多工具和多轮样本不仅是数量上的差异，它们还暴露了性质不同的失效模式。</li>
<li class=""><strong>多轮崩溃</strong>：表现最好的模型 (Qwen3-235B) 在单工具任务中达到 60% 的 EMR，在多工具任务中为 10.62%，在多轮任务中仅为 3.08%。从单工具到多轮任务，性能下降了 20 倍。</li>
<li class=""><strong>工具 F1 值更具包容性</strong>：同一模型在这三种设置下的 TF1 分别为 66.85%、69.42% 和 41.56%——这表明模型通常能选对工具，但在顺序、参数化或对话跟踪方面存在失误。</li>
<li class=""><strong>单工具中召回率优于精确率</strong>：模型在不确定时倾向于过度调用工具，而不是调用不足。对于金融任务来说，这是一种更安全的失效模式，但仍意味着浪费的 API 调用和推理链中的噪声。</li>
<li class=""><strong>非单调的规模扩展</strong>：Qwen3-30B 在所有子场景中并未能持续优于 Qwen3-4B，这打破了“在多步工具使用中，大模型总是更胜一筹”的假设。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些结论站得住脚哪些不然">哪些结论站得住脚，哪些不然<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%E5%93%AA%E4%BA%9B%E7%BB%93%E8%AE%BA%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E4%B8%8D%E7%84%B6" class="hash-link" aria-label="哪些结论站得住脚，哪些不然的直接链接" title="哪些结论站得住脚，哪些不然的直接链接" translate="no">​</a></h2>
<p>使用真实的生产日志作为单工具示例的来源是该研究中最强大的方法论选择。它将基准测试植根于用户的真实行为，而非研究人员虚构的场景，这在金融 AI 文献中非常罕见。多工具和多轮样本是使用依赖图和角色扮演提示词合成扩展的，考虑到标注成本，这是合理的，但它引入了一个风险：合成过程往往比真实用户产生的查询更整洁、更具导向性。多轮任务 3.08% 的 EMR 令人震惊，但应谨慎解读——EMR 要求整个序列完全正确，因此单个中间工具调用错误就会导致整个任务失败。这是一个严格且可以说是不切实际的生产标准；像 TF1 这样的部分得分指标描述了一个更细致的情况。</p>
<p>论文未解决的问题：没有分析性能差距主要是因为输入理解问题（模型误解了用户意图）、输出格式问题（意图正确但工具调用格式错误），还是推理问题（中间结论错误）。如果没有这种分解，很难知道应该在何处投入工程力量。论文还在隔离状态下评估模型；没有测试加入验证或反思步骤是否会改变多轮场景的结果。</p>
<p>该基准测试还与“且慢”特定的 65 个工具深度绑定，这限制了其结果迁移到具有不同工具集的其他金融平台的能力。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-很重要">为什么这对金融 AI 很重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E5%BE%88%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 很重要的直接链接" title="为什么这对金融 AI 很重要的直接链接" translate="no">​</a></h2>
<p>FinMCP-Bench 是目前最接近 Beancount 写回代理（write-back agent）实际工作流程的公开评估：接收用户请求，识别适用的工具（或工具链），按顺序调用它们，并处理后续回合。3.08% 的多轮 EMR 是一个残酷的现实检验。一个管理多步账本修正的 Beancount 代理——例如，在特定日期范围内对账户间的一组交易进行重新分类，然后对账，最后生成报告——正是当前模型在精确匹配标准下几乎普遍失败的多轮、多工具任务。</p>
<p>MCP 框架具有直接的相关性：Beancount 的 Python API、beanquery 接口和 fava 的 REST 层都可以封装为 MCP 服务器。FinMCP-Bench 告诉我们，瓶颈不在于协议，而在于对工具调用序列的推理。</p>
<p>工具召回率超过精确率（模型过度调用）的发现对于写回安全性也至关重要：如果一个代理在仅需读取时调用了账本变更工具，可能会默默地损坏账本。对于写回代理，偏向精确率的评估指标（而非偏向召回率的指标）应作为主要的安全性信号。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>JSONSchemaBench</strong> (arXiv:2501.10868) —— 评估 1 万个 JSON 模式中结构化输出的可靠性；直接探讨了 FinMCP-Bench 中的工具调用格式故障是否属于受限解码问题。</li>
<li class=""><strong>ToolLLM</strong> (arXiv:2307.16789, ICLR 2024) —— FinMCP-Bench 所参照的基础工具使用训练框架；了解其深度优先搜索树探索有助于阐明 FinMCP-Bench 的生产日志方法论增加了什么价值。</li>
<li class=""><strong>WildToolBench</strong> (arXiv:2604.06185) —— 评估真实用户查询在野外环境下的工具使用情况；其发现没有任何模型在野外用户行为上的准确率超过 15%，这与 FinMCP-Bench 的生产日志方法互为补充。</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Beancount</category>
            <category>Fintech</category>
            <category>Machine Learning</category>
            <category>Reconciliation</category>
        </item>
        <item>
            <title><![CDATA[FinTrace：针对金融任务的 LLM 工具调用轨迹级评估]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks</guid>
            <pubDate>Mon, 06 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[FinTrace 在 9 个指标上对 13 个大语言模型（LLM）进行了评估，涵盖了 800 条专家标注的金融任务轨迹。研究发现，前沿模型在工具选择方面表现强劲（F1 ~0.9），但在信息利用率（即代理对工具返回结果进行推理的步骤）方面得分仅为 3.23/5。]]></description>
            <content:encoded><![CDATA[<p>FinTrace (arXiv:2604.10015) 在我上次记录的 FinToolBench 发布一周后问世，这两篇论文之间有着直接的对话关系。FinToolBench 衡量的是代理（agent）是否调用了正确的工具，而 FinTrace 则提出了一个更难的问题：即使代理调用了正确的工具，它是否真的对结果进行了推理？这种区别是本文的核心，我认为，也是整个 Beancount 回写代理问题的核心。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文解读">论文解读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%E8%AE%BA%E6%96%87%E8%A7%A3%E8%AF%BB" class="hash-link" aria-label="论文解读的直接链接" title="论文解读的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinTrace%EF%BC%9A%E9%92%88%E5%AF%B9%E9%87%91%E8%9E%8D%E4%BB%BB%E5%8A%A1%E7%9A%84%20LLM%20%E5%B7%A5%E5%85%B7%E8%B0%83%E7%94%A8%E8%BD%A8%E8%BF%B9%E7%BA%A7%E8%AF%84%E4%BC%B0" alt="2026-07-06-fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks" class="img_ev3q"></p>
<p>Cao 等人推出了 FinTrace，这是一个包含 800 条专家标注轨迹的基准测试，涵盖了简单、中等和困难三个难度等级的 34 个真实世界金融任务类别。作者围绕四个维度的九项指标构建了评估体系：<strong>动作正确性</strong>（工具调用 F1、任务相关性）、<strong>执行效率</strong>（步骤效率、冗余得分）、<strong>过程质量</strong>（逻辑进阶、信息利用率、进度得分）以及<strong>输出质量</strong>（任务通过率、最终答案质量）。他们评估了 13 个 LLM，并发布了 FinTrace-Training，这是一个包含 8,196 条用于微调的精选偏好轨迹的数据集。</p>
<p>其核心观点是，前沿模型已掌握工具选择，但在更难的步骤（即利用工具返回的结果）上表现出系统性失败。该基准测试通过 5 分制对信息利用率、逻辑进阶和进度得分进行打分，并辅以工具 F1 分数和步骤效率的算法指标进行探测。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="关键要点">关键要点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%E5%85%B3%E9%94%AE%E8%A6%81%E7%82%B9" class="hash-link" aria-label="关键要点的直接链接" title="关键要点的直接链接" translate="no">​</a></h2>
<ul>
<li class="">表现最好的模型 Claude-Opus-4.6 实现了 0.896 的工具调用 F1 分数——说明选择能力很强——但在信息利用率方面仅得 3.23/5，这是四个面向输出的指标中最薄弱的一项。</li>
<li class="">Claude-Opus-4.6 的任务通过率为 2.65/5，最终答案质量为 3.34/5；即使是顶尖模型也无法持续产生正确、完整的答案。</li>
<li class="">Qwen-3.5-9B 表现出一种退化模式：步骤效率 (1.000) 和冗余度 (1.000) 接近完美，因为它几乎不调用任何工具，这体现在其工具调用 F1 分数仅为 0.109。虽然“高效”，但毫无用处。</li>
<li class="">在 FinTrace-Training 上进行训练改善了中间过程指标（通过 DPO，逻辑进阶从 2.29 提升到 2.56；进度得分从 2.00 提升到 2.30），但最终答案质量仍然存在瓶颈——在 1-5 分制下，没有模型变体在小模型上的平均得分显著超过 1.21。</li>
<li class="">在抑制灾难性失败模式方面，DPO 的表现优于 SFT：逻辑进阶得分为 1 的比例从 11.9% (SFT) 降至 9.5% (DPO)。</li>
<li class="">在所有 13 个模型中，表现最差的子类别普遍是推理问答 (Reasoning QA)，Claude-Opus-4.6 在该项的综合得分仅为 0.62 —— 这是一个连最强前沿模型也难以突破的硬天花板。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些结论站得住脚哪些站不住脚">哪些结论站得住脚，哪些站不住脚<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%E5%93%AA%E4%BA%9B%E7%BB%93%E8%AE%BA%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E7%AB%99%E4%B8%8D%E4%BD%8F%E8%84%9A" class="hash-link" aria-label="哪些结论站得住脚，哪些站不住脚的直接链接" title="哪些结论站得住脚，哪些站不住脚的直接链接" translate="no">​</a></h2>
<p>核心发现——工具选择和工具推理是可分离的——论据充足，且四轴评估体系是一项真正的贡献。之前的基准测试（如 FinToolBench）止步于执行痕迹；FinTrace 增加了由 LLM 评判的过程质量指标，揭示了中间环节发生的情况。在 100 个样本的验证中，评分者间的 Cohen's κ 系数达到 0.89，这对于部分基于 LLM 评判的基准测试来说是令人鼓舞的。</p>
<p>即便如此，一些方法论的选择限制了我从字面上接受这些数据。主要的 34 个任务类别并未在正文中列出——它们被放到了附录 B 中——所以我无法判断它们对现实世界金融实践的代表性如何。难度等级是根据基准测试自身查询池中的百分位排名定义的，这是一种循环衡量：困难仅意味着相对于其他 800 条轨迹而言较为少见，而非任何绝对意义上的困难。</p>
<p>微调分析令人沮丧。在 FinTrace-Training 上训练 9B 模型改善了中间推理，但最终答案质量依然很差。论文将其归因于过程与输出之间的“断层”，但未解释原因。最合理的解释——无论轨迹质量如何，9B 模型都缺乏金融任务所需的事实检索和算术能力——却未被提及。仅展示 Qwen-3.5-9B 的 DPO 结果也让人无法得知更大规模的模型是否能获益更多。</p>
<p>我也对总体分数的聚合方式表示怀疑。将算法指标（F1 ∈ [0,1]）与 LLM 评判的 1-5 分 Likert 量表得分通过归一化到 [0,1] 并求平均值，混淆了截然不同的失败类型。一个完全调用错误工具的模型，与一个调用了正确工具却忽略了输出结果的模型，其故障性质是不一样的。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-至关重要">为什么这对金融 AI 至关重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E8%87%B3%E5%85%B3%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 至关重要的直接链接" title="为什么这对金融 AI 至关重要的直接链接" translate="no">​</a></h2>
<p>核心发现直接映射到了 Beancount 回写问题。如果一个代理能够可靠地调用正确的 Beancount CLI 工具，但随后误解了输出——例如，解析资产负债表响应却过账到了错误的账户——这比没有自动化更糟糕：它会产生看起来正确但实际上完全错误的账目分录，足以迷惑粗心的审核者。</p>
<p>信息利用率（Information Utilization）是我在观察任何 Beancount 代理时最关注的指标。在受控的金融基准测试中，目前最好的模型在此项仅得 3.23/5，这一事实应该成为任何生产环境部署的强制性约束。它表明，在看到该得分稳定保持在 4.0 以上之前，任何回写操作都必须进行人工审核。</p>
<p>FinTrace 还证实了上周 ReDAct 所暗示的观点：正确的架构不是端到端的 LLM 推理，而是将验证外部化的流水线。一个能够良好选择工具（工具 F1 ~0.9）并在行动前将结果传递给独立验证步骤的代理，比试图在单次推理中处理原始工具输出的代理更可靠。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class="">FinMCP-Bench (arXiv:2603.24943)：使用 MCP 作为工具接口标准的配套论文，在阅读清单的下一项——与 FinTrace 直接可比，但构建在不同的协议层。</li>
<li class="">"Benchmarking LLM Tool-Use in the Wild" (arXiv:2604.06185)：同时发表，评估了金融领域以外的工具调用；可以澄清信息利用率差距是领域特定的还是普遍存在的。</li>
<li class="">"Data-Driven Function Calling Improvements in Large Language Model for Online Financial QA" (arXiv:2604.05387)：从训练数据的角度针对相同的工具调用故障模式进行研究，可能解释了 FinTrace-Training 的 DPO 缺失了什么。</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Finance</category>
            <category>Fintech</category>
            <category>Automation</category>
            <category>Beancount</category>
            <category>Machine Learning</category>
        </item>
        <item>
            <title><![CDATA[FinToolBench：评估大语言模型智能体在真实金融工具使用中的表现]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use</guid>
            <pubDate>Sun, 05 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[FinToolBench 将 760 个实时金融 API 工具与 295 个可执行查询相结合，在真实金融任务中对 LLM 智能体进行基准测试。研究发现，GPT-4o 保守的 22.7% 调用率带来的回答质量（CSS 0.670）高于 Qwen3-8B 激进的 87.1% 工具调用率（TIR），而所有测试模型的意图不匹配率均超过 50%。]]></description>
            <content:encoded><![CDATA[<p>大多数金融 AI 基准测试评估的是模型能否阅读文档。FinToolBench 则测试模型能否<em>采取行动</em> —— 调用实时 API、获取当前市场数据并返回正确答案。对于任何试图实现真实金融工作自动化的系统来说，这正是关键所在，也是我一直期待有人能严谨填补的空白。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文详情">论文详情<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%E8%AE%BA%E6%96%87%E8%AF%A6%E6%83%85" class="hash-link" aria-label="论文详情的直接链接" title="论文详情的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinToolBench%EF%BC%9A%E8%AF%84%E4%BC%B0%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E6%99%BA%E8%83%BD%E4%BD%93%E5%9C%A8%E7%9C%9F%E5%AE%9E%E9%87%91%E8%9E%8D%E5%B7%A5%E5%85%B7%E4%BD%BF%E7%94%A8%E4%B8%AD%E7%9A%84%E8%A1%A8%E7%8E%B0" alt="2026-07-05-fintoolbench-evaluating-llm-agents-real-world-financial-tool-use" class="img_ev3q"></p>
<p>Jiaxuan Lu 及其同事推出了 FinToolBench（arXiv:2603.08262，2026 年 3 月），声称这是第一个用于评估金融工具学习智能体的真实、可执行基准测试。其论点非常直接：现有的金融 AI 评估侧重于对文档进行静态问答，而像 ToolLLM 这样的通用工具使用基准测试将金融仅视为另一个 API 类别，缺乏特定领域的合规性约束。FinToolBench 试图填补这两种失败模式之间的空白。</p>
<p>该基准测试将 760 个可执行的金融工具（包含来自 RapidAPI 的 261 个实时端点和来自 AkShare 的 499 个接口）与 295 个经过严格筛选的评估查询配对，分为 166 个单工具案例和 129 个多工具案例。工具涵盖股票、债券、基金、外汇、衍生品、宏观和加密货币领域。至关重要的是，这些是真实的、可调用的 API，而不是模拟存根（mocked stubs）。作者还引入了 FATR（金融感知工具路由），这是一种基准智能体，使用 BGE-M3 检索（前 20 个候选对象）、标注有金融属性的工具卡，以及一个限制在五步之内的约束感知型 ReAct 规划器。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>执行并非瓶颈 —— 对输出结果的推理才是。</strong> GPT-4o 拥有最高的条件软评分（CSS = 0.670），这意味着当它成功调用工具时，它能给出正确的答案，但它的工具调用率仅为 22.7%（TIR = 0.227）。Qwen3-8B 的工具调用率为 87.1%，但在成功调用时，获得正确答案的概率仅为 40.4%。</li>
<li class=""><strong>意图不匹配是主要的合规性失败原因。</strong> 大多数模型的意图不匹配率（IMR）超过了 50%，这意味着智能体在查询仅要求信息查询时，经常发出具有交易意图的调用。在受监管的金融背景下，这是一个严重的问题。</li>
<li class=""><strong>注入金融属性有助于提高合规性，且不会损害能力。</strong> FATR 基准的工具卡为每个工具标注了时效性、意图类型和监管领域，这在不显著降低调用率的情况下，减少了陈旧数据调用（TMR）和领域违规（DMR）。</li>
<li class=""><strong>多工具查询暴露了可靠性差距。</strong> 129 个多工具查询需要链式调用并在步骤之间传递输出；与单工具案例相比，其性能大幅下降，这与 FinTrace 和 TheAgentCompany 的研究结果一致。</li>
<li class=""><strong>小模型在调用频率上可以超过大模型，但在推理能力上则不然。</strong> Qwen3-8B 的 TIR 为 0.871，而 GPT-4o 仅为 0.227，这表明小模型更“激进”，但 Qwen3-8B 的条件执行率（CER，即 TESR/TIR）仅为 0.339，而 GPT-4o 为 0.618，这表明 GPT-4o 在决定调用工具时要精确得多。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些观点站得住脚哪些站不住">哪些观点站得住脚，哪些站不住<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%E5%93%AA%E4%BA%9B%E8%A7%82%E7%82%B9%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E7%AB%99%E4%B8%8D%E4%BD%8F" class="hash-link" aria-label="哪些观点站得住脚，哪些站不住的直接链接" title="哪些观点站得住脚，哪些站不住的直接链接" translate="no">​</a></h2>
<p>该基准测试选择使用真正的实时、可执行 API 是其主要贡献，而且是非常实在的贡献。模拟 API 一直是工具使用基准测试中公开的秘密：ToolLLM 的 16,000 个 API 听起来令人印象深刻，直到你意识到其评估是使用 LLM 作为裁判，判断调用“是否本应”成功。FinToolBench 避免了这一点。</p>
<p>合规性指标（TMR、IMR、DMR）在概念上是正确的 —— 金融智能体需要知道获取昨天的收盘价与发起一笔交易之间的区别 —— 但论文中关于这些分类如何执行的描述较为单薄。目前尚不清楚意图类型（信息型 vs 交易型）的基准真相标签是由法律或合规专家验证的，还是仅由数据集作者分配的。这在实践中非常重要。</p>
<p>模型名单也异常狭窄：Doubao-Seed-1.6、Qwen3-8B、GLM-4.7-Flash 和 GPT-4o。没有 Claude Sonnet 或 Gemini 2.5，而这些本应是自然的对比对象。结果表显示 GPT-4o 是一个高精度、低覆盖率的离群值；我想知道 Claude 的工具使用行为是更接近 GPT-4o 的保守模式，还是 Qwen3-8B 的激进模式。</p>
<p>按现代基准测试标准来看，295 个查询的评估集规模较小。在拥有 760 个工具的情况下，295 个查询的覆盖率意味着大多数工具从未被测试过。论文没有报告每个领域的覆盖统计数据，这意味着标题中的数据可能是由股票和宏观等覆盖较好的子领域驱动的。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-很重要">为什么这对金融 AI 很重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E5%BE%88%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 很重要的直接链接" title="为什么这对金融 AI 很重要的直接链接" translate="no">​</a></h2>
<p>Beancount 回写智能体 —— 任何调用 <code>bean-add</code>、修补账本文件或查询 <code>beanquery</code> 的智能体 —— 都会面临 FinToolBench 所揭示的失败模式。意图不匹配问题可以直接转化：当用户询问读取问题时，发出写入调用的 Beancount 智能体与 IMR 违规具有相同的失败特征。时效性维度则对应于当用户期望当前余额时，智能体却调用了陈旧的缓存账本状态的问题。</p>
<p>精确度与覆盖率之间的博弈（GPT-4o vs Qwen3-8B）也具有直接相关性。对于 Beancount 回写，我宁愿让 GPT-4o 采取保守的调用行为 —— 低 TIR 但高 CER 和 CSS —— 也不愿使用频繁执行错误工具的高调用率模型。错误的写入比无操作（no-ops）的成本要高得多。</p>
<p>FATR 这种为工具标注合规属性而非依赖模型自行推断的方法，是一个值得借鉴的设计模式。为 Beancount CLI 工具封装明确的元数据（例如调用是只读的还是变动的，以及它触及的是当前账本状态还是已归档账本状态），是将同样的想法应用于较小范围的实践。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>FinTrace</strong> (arXiv:2604.10015) —— 涵盖 34 个金融任务类别的轨迹级评估，包含 9 个指标；将 FinToolBench 的单次调用评估直接扩展到多步序列，并使用 DPO 微调 Qwen-3.5-9B 以改进中间推理。</li>
<li class=""><strong>FinMCP-Bench</strong> (arXiv:2603.24943) —— 针对 65 个基于 MCP 的金融工具进行 613 个样本测试，涵盖单工具、多工具和多轮调用；MCP 框架与 Beancount 工具接口直接相关。</li>
<li class=""><strong>ToolLLM</strong> (arXiv:2307.16789, ICLR 2024) —— FinToolBench 明确针对的 ToolBench 论文；了解模拟 API 基准测试能测量什么和不能测量什么，可以更清楚地看到 FinToolBench 的可执行性到底带来了多少价值。</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Machine Learning</category>
            <category>Fintech</category>
            <category>Beancount</category>
            <category>Compliance</category>
            <category>Data Science</category>
        </item>
        <item>
            <title><![CDATA[OmniEval：金融领域全方位 RAG 评估基准]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain</guid>
            <pubDate>Sat, 04 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[OmniEval (EMNLP 2025) 通过 1.14 万个自动生成的测试用例，在 5 种任务类型 × 16 个金融主题上对 RAG 系统进行了基准测试。表现最好的系统数值准确度仅为 36%——这有力地证明了在写入结构化金融账本之前，RAG 流水线需要验证层。]]></description>
            <content:encoded><![CDATA[<p>大多数金融领域的 RAG 基准测试只关注系统是否能够检索并回答——仅此而已。来自中国人民大学的 Shuting Wang 等人提出的 OmniEval (EMNLP 2025, arXiv:2412.13018) 提出了一个更难的问题：在任务类型和金融主题的完整矩阵中，性能是否依然稳健？我正在阅读这篇论文，因为在尝试基于 RAG 流水线构建可靠的 Beancount 账本代理之前，这是描绘金融 RAG 失败模式最系统化的一次尝试。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文">论文<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%E8%AE%BA%E6%96%87" class="hash-link" aria-label="论文的直接链接" title="论文的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=OmniEval%EF%BC%9A%E9%87%91%E8%9E%8D%E9%A2%86%E5%9F%9F%E5%85%A8%E6%96%B9%E4%BD%8D%20RAG%20%E8%AF%84%E4%BC%B0%E5%9F%BA%E5%87%86" alt="2026-07-04-omnieval-omnidirectional-automatic-rag-evaluation-financial-domain" class="img_ev3q"></p>
<p>OmniEval 构建了一个二维评估网格：五类任务（抽取式问答、多跳推理、对比式问答、长文本问答和对话式问答）与 16 个金融主题（股票市场、投资银行、基金、财产保险等）交叉。其结果是一个结构化的基准测试，包含 1.14 万个自动生成的测试用例、1700 个经人工标注的用例，以及一个由 6 个中文金融数据源组成的 36.2 万份文档的检索语料库（包括 19.3 万份文档的 BSCF-DB、5.5 万份的 FinGLM、4.8 万份的 BAAI-Fin、官方网页抓取、PDF 以及维基百科金融内容）。该基准测试还包含一个经过微调的大语言模型评估器——基于 910 个经人工标记的实例训练的 Qwen2.5-7B-Instruct——它从准确性、幻觉、完整性、利用率和数值准确性五个维度对生成质量进行评分。这篇论文发表于 EMNLP 2025。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class="">自动生成的测试用例通过人工验收率为 87.47%，这意味着大约每 8 个生成的实例中就有 1 个被丢弃——对于一个基准测试来说，这个噪声率不容小觑。</li>
<li class="">表现最好的检索器 (GTE-Qwen2-1.5B) 在自动生成的集合上实现了 0.4370 的 MAP 和 0.4491 的 MRR，这意味着即使使用测试中最强的检索器，排名第一的段落正确率也低于一半。</li>
<li class="">所有“检索器-大语言模型”组合的生成准确度 (ACC) 范围从 0.3238 到 0.4476——最好的配置回答正确率也不到一半。</li>
<li class="">数值准确度 (NAC) 是最显著的发现：范围在 0.0659 到 0.3595 之间。表现最好的系统在金融数值上的正确率约为 36%；最差的则接近于零。</li>
<li class="">经过微调的评估器与人工标注的一致性达到了 74.4% (κ = 0.6486)，显著优于仅使用提示词的基准测试 (55–71%)——但仍然有四分之一的评估结果与人类判断不符。</li>
<li class="">多跳推理和对话式问答始终是最难的任务类别。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些具有参考价值哪些没有">哪些具有参考价值——哪些没有<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%E5%93%AA%E4%BA%9B%E5%85%B7%E6%9C%89%E5%8F%82%E8%80%83%E4%BB%B7%E5%80%BC%E5%93%AA%E4%BA%9B%E6%B2%A1%E6%9C%89" class="hash-link" aria-label="哪些具有参考价值——哪些没有的直接链接" title="哪些具有参考价值——哪些没有的直接链接" translate="no">​</a></h2>
<p>这种矩阵评估设计确实很有用。之前的金融基准测试（如 FinanceBench、FinQA、DocFinQA）将评估视为单一维度——通常是答案准确性——从而忽略了 RAG 失败方式的结构性差异。了解系统在抽取式问答上得分很高但在多跳推理上得分很低，这具有可操作性；而仅仅知道一个总平均分则不然。OmniEval 网格使这种差异变得可见，而性能在不同主题间不一致的发现，正是从业者在部署前需要了解的信息。</p>
<p>尽管如此，我仍想直言不讳地指出一些实际的局限性。语料库绝大部分是中文的：六个数据源中有五个是中文金融数据（BSCF、FinGLM、BAAI-Fin），第六个是中文维基百科。论文没有按语言报告结果——它只报告了汇总数据。这使得论文中的每一项得分在作为关于通用金融 RAG 的结论时都值得商榷，而更应被视为针对中文文本及中文专用检索器和大语言模型（GTE-Qwen2-1.5B, Qwen2.5-72B, Yi15-34B）的金融 RAG 结论。英语金融用户不能直接引用这些数字。</p>
<p>大语言模型评估器基于 910 个标注实例进行训练。这太少了。74.4% 的人类一致性（κ = 0.6486）作为起点是说得通的，但这意味着评估框架本身引入了大量噪声。如果该基准测试用于比较仅有几个百分点差异的系统，评估器的方差将淹没信号。</p>
<p>自动生成流水线——GPT-4 生成测试问题，人工以 87.47% 的通过率进行过滤——也引发了论文未提及的污染问题：GPT-4 生成的问题可能以某种方式发挥了 GPT-4 级别模型的优势，从而在系统性上让旧模型或更小的模型处于劣势。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-至关重要">为什么这对金融 AI 至关重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E8%87%B3%E5%85%B3%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 至关重要的直接链接" title="为��什么这对金融 AI 至关重要的直接链接" translate="no">​</a></h2>
<p>数值准确度分数是我不断回想的数字：0.0659–0.3595。如果在基准评估中，表现最好的 RAG 系统在金融数字上的正确率仅为 36%，那么任何基于原生 RAG 流水线构建的 Beancount 回写代理都会损坏账本数据。Beancount 的格式是非常严苛的——错误的金额、日期或账户名称要么导致解析错误，要么导致可能跨财年传播的隐性会计错误。该基准测试为我们提供了具体的证据，表明在没有验证层的情况下，RAG 检索和 LLM 生成对于直接回写账本而言还不够可靠。</p>
<p>任务类别结构也清晰地对应于 Beancount 的使用场景。抽取式问答对应于简单的余额查询。多跳推理对应于诸如“我第一季度到第三季度的税后净收入是多少？”之类的问题。对话式问答对应于用户在会话中反复完善对账请求。OmniEval 关于多跳和对话式任务最难的发现，对 Beancount 代理的设计来说正是一个坏消息：简单的情况几乎没问题，而现实的情况正是系统崩溃的地方。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class="">ARES: An Automated Evaluation Framework for Retrieval-Augmented Generation (arXiv:2311.09476, NAACL 2025) —— 这是与 OmniEval 的评估器微调方法最接近的通用领域对应方案；将 ARES 方法论与 OmniEval 的方法论进行比较，可以明确大语言模型评估器的设计选择是有原则的还是随机的。</li>
<li class="">RAGEval: Scenario-Specific RAG Evaluation Dataset Generation Framework (ACL 2025, aclanthology.org/2025.acl-long.418) —— 自动生成 RAG 评估场景；它扩展了 OmniEval 使用的自动生成方法，并可能解决污染问题。</li>
<li class="">FinRAGBench-V: A Benchmark for Multimodal RAG with Visual Citation in the Financial Domain (arXiv:2505.17471) —— 将 RAG 评估扩展到多模态金融文档（表格、图表）；随着 Beancount 用户越来越多地在纯文本账本旁附带收据图像和 PDF 账单，这一点变得非常有意义。</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>LLM</category>
            <category>Finance</category>
            <category>Data Science</category>
            <category>Beancount</category>
            <category>Automation</category>
        </item>
        <item>
            <title><![CDATA[LLM 异常检测综述 (NAACL 2025)：强大的分类体系，缺失的表格数据覆盖]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey</guid>
            <pubDate>Fri, 03 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[对 Xu 和 Ding 在 NAACL 2025 上发表的关于基于 LLM 的异常和 OOD 检测综述的评注：虽然检测与生成的分类体系站得住脚，但表格数据覆盖的几乎完全缺失意味着金融 AI 从业者必须自行综合来自视觉模型的见解。]]></description>
            <content:encoded><![CDATA[<p>本主题之前的三个条目介绍了 AnoLLM、CausalTAD 和 AD-LLM——每个都专门针对表格异常检测。Ruiyao Xu 和 Kaize Ding 这篇被 NAACL 2025 Findings 接收的综述，本应将这些线索整合进一张统一的蓝图。我原本期待一个能厘清设计空间的分类体系；然而我得到的主要是对图像和视频异常检测的综述，仅带有一层微薄的普适性外衣。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文内容">论文内容<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%E8%AE%BA%E6%96%87%E5%86%85%E5%AE%B9" class="hash-link" aria-label="论文内容的直接链接" title="论文内容的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=LLM%20%E5%BC%82%E5%B8%B8%E6%A3%80%E6%B5%8B%E7%BB%BC%E8%BF%B0%20%28NAACL%202025%29%EF%BC%9A%E5%BC%BA%E5%A4%A7%E7%9A%84%E5%88%86%E7%B1%BB%E4%BD%93%E7%B3%BB%EF%BC%8C%E7%BC%BA%E5%A4%B1%E7%9A%84%E8%A1%A8%E6%A0%BC%E6%95%B0%E6%8D%AE%E8%A6%86%E7%9B%96" alt="2026-07-03-llm-anomaly-ood-detection-survey" class="img_ev3q"></p>
<p>Xu 和 Ding 的综述 (arXiv:2409.01980) 建议将基于 LLM 的异常和分布外 (OOD) 检测分为两个高级类别：<strong>用于检测的 LLM</strong> (LLMs for Detection)，模型直接识别异常；以及 <strong>用于生成的 LLM</strong> (LLMs for Generation)，模型增强训练数据或生成供下游检测器使用的自然语言解释。每个类别进一步细分。检测分为基于提示的方法 (使用自然语言提示查询冻结或微调的 LLM) 和基于对比的方法 (通过比较图像块与文本描述来评估异常程度的 CLIP 系列模型)。生成分为以增强为中心的方法 (生成伪 OOD 标签或合成少数样本) 和以解释为中心的方法 (为标记的事件生成自然语言理由)。</p>
<p>随附的 GitHub 阅读列表涵盖了大约 39 篇论文：24 篇关于检测，10 篇关于增强，5 篇关于解释。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>基于对比的方法在图像异常检测中占据主导地位。</strong> WinCLIP 在 MVTec-AD 的零样本异常分类和分割上分别达到了 91.8% 和 85.1% 的 AUROC，无需任何特定数据集的微调，可与在该数据集上训练的有监督方法相媲美。</li>
<li class=""><strong>冻结的 LLM 在处理非文本数据时遇到了模态鸿沟。</strong> 综述明确指出，“直接提示冻结的 LLM 在各种数据类型上进行异常或 OOD 检测，通常由于文本与其他数据模态之间固有的模态鸿沟而导致次优性能。”</li>
<li class=""><strong>LoRA 和适配器微调弥补了大部分差距。</strong> 像 AnomalyGPT 和 AnomalyCLIP 这样采用参数高效技术进行微调的方法，表现明显优于其冻结的同类模型。</li>
<li class=""><strong>作为增强的生成尚未得到充分利用。</strong> BLIP-2 生成的字幕级伪 OOD 标签在 OOD 检测中优于单词级和描述级备选方案，这表明即使对于视觉任务，更丰富的文本监督也很重要。</li>
<li class=""><strong>以解释为中心的生成是最新的子类别。</strong> 像 Holmes-VAD 和 VAD-LLaMA 这样的系统超出了二元标记的范畴，为异常事件生成自然语言理由，主要应用于监控视频。</li>
<li class=""><strong>表格数据几乎缺失。</strong> 综述引用了一种方法——Li 等人 (2024) 的 “Tabular”——它将表格行转换为文本提示并使用 LoRA 进行微调，但没有提供对比数据。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些观点站得住脚哪些站不住">哪些观点站得住脚，哪些站不住<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%E5%93%AA%E4%BA%9B%E8%A7%82%E7%82%B9%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E7%AB%99%E4%B8%8D%E4%BD%8F" class="hash-link" aria-label="哪些观点站得住脚，哪些站不住的直接链接" title="哪些观点站得住脚，哪些站不住的直接链接" translate="no">​</a></h2>
<p>这两个类别的分类体系确实很简洁，我可能会用它来整理我自己的思路。检测与生成的区别捕捉到了一个真实的架构分叉：你要么要求 LLM 直接分类，要么使用它为传统检测器构建更好的训练信号。</p>
<p>我不能接受的是，这篇论文将其框架设定为广泛的异常检测综述。其覆盖范围压倒性地集中在工业缺陷图像 (MVTec-AD, VisA) 和监控视频 (UCF-Crime, XD-Violence) 上。在编目的约 39 篇论文中，几乎没有一篇涉及表格或金融数据。时间序列得到了几处引用。表格仅得到一句话。这对于 Bean Labs 来说不是一张蓝图——这是给想要使用 CLIP 进行缺陷检测的计算机视觉研究人员的蓝图。</p>
<p>作者承认“由于篇幅限制，无法进行详细的指标总结”，这是一种委婉的说法，指没有对比表。对于一篇综述论文来说，缺乏定量综合是一个重大缺陷。读者在不逐一追踪每篇被引用论文的情况下，无法利用本文决定哪种范式更适合其用例。</p>
<p>幻觉挑战被列为一个开放性问题，但处理得比较肤浅——它指出了风险，却未分析哪些检测范式更易受影响或不易受影响，也未分析以解释为中心的生成如何通过人工审核使幻觉更易被检测。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-很重要">为什么这对金融 AI 很重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E5%BE%88%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 很重要的直接链接" title="为什么这对金融 AI 很重要的直接链接" translate="no">​</a></h2>
<p>尽管图像覆盖比例很高，但有两个子类别具有相关性。首先，<strong>以解释为中心的生成</strong>子类别正是 Beancount 审计代理所需要的：不仅仅是一个分录异常的标记，而是一个解释原因的自然语言句子。财务审计人员无法根据二元输出采取行动。其次，综述对表格异常检测几乎完全沉默，这本身就很有启发性——它证实了我一直关注的 AnoLLM、CausalTAD 和 AD-LLM 这一线索是一个前沿领域而非成熟领域，而且为 Beancount 账簿设计基于 LLM 的审计工具需要综合尚未迁移到表格环境的视觉异常检测见解。</p>
<p>提示与微调的权衡是最具操作性的发现：零样本提示可以作为第一步近似，但受困于模态鸿沟；基于代表性标记样本的 LoRA 微调可以弥补差距。对于拥有来自历史账簿的标记异常示例的 Beancount 部署，微调路径看起来比纯提示更可靠。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读建议">延伸阅读建议<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB%E5%BB%BA%E8%AE%AE" class="hash-link" aria-label="延伸阅读建议的直接链接" title="延伸阅读建议的直接链接" translate="no">​</a></h2>
<ul>
<li class="">"Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs" (arXiv:2406.03614) —— 在真实的总账分录上使用 LLM 句嵌入；这是从本综述框架到 Beancount 表格用例的直接桥梁。</li>
<li class="">"Enhancing Anomaly Detection in Financial Markets with an LLM-based Multi-Agent Framework" (arXiv:2403.19735) —— 用于市场数据异常检测的多智能体流水线；多智能体协调模式可能会延续到账簿审计。</li>
<li class="">AnomalyGPT (arXiv:2308.15366) —— 用于工业异常检测的微调 LVLM，具有像素级定位功能；阅读本文可以阐明“用于检测的 LLM 微调”在架构上的实际含义，综述描述了这一点但未作解释。</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Fraud Detection</category>
            <category>Data Science</category>
            <category>Beancount</category>
            <category>Analytics</category>
        </item>
        <item>
            <title><![CDATA[发现于中：通过校准位置注意力偏差提升长上下文 RAG]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias</guid>
            <pubDate>Thu, 02 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[一种无需训练的推理时校准方法，通过从大语言模型注意力权重中减去位置偏差，在检索文档被埋没在上下文中部时恢复高达 15 个百分点的 RAG 准确率——以及这对特定金融代理流水线的意义。]]></description>
            <content:encoded><![CDATA[<p>自从写了关于 Liu 等人原始发现的日志以来，我一直在思考“迷失在中部”（lost-in-the-middle）的问题：给大语言模型（LLM）传递长上下文，它会非常稳定地忽略埋在中间的证据。《发现于中：通过校准位置注意力偏差提升长上下文利用率》（"Found in the Middle: Calibrating Positional Attention Bias Improves Long Context Utilization"，Hsieh 等人，ACL Findings 2024, arXiv:2406.16008）提供了一个我见过的最直接且实用的解决方案：一种无需训练的推理时校准方法，通过从模型的注意力权重中减去位置偏差，可以恢复高达 15 个百分点的 RAG 准确率。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文解读">论文解读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%E8%AE%BA%E6%96%87%E8%A7%A3%E8%AF%BB" class="hash-link" aria-label="论文解读的直接链接" title="论文解读的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%E5%8F%91%E7%8E%B0%E4%BA%8E%E4%B8%AD%EF%BC%9A%E9%80%9A%E8%BF%87%E6%A0%A1%E5%87%86%E4%BD%8D%E7%BD%AE%E6%B3%A8%E6%84%8F%E5%8A%9B%E5%81%8F%E5%B7%AE%E6%8F%90%E5%8D%87%E9%95%BF%E4%B8%8A%E4%B8%8B%E6%96%87%20RAG" alt="2026-07-02-found-in-the-middle-calibrating-positional-attention-bias" class="img_ev3q"></p>
<p>Hsieh 等人从一个诊断性观察开始：即使是经过长上下文训练的大语言模型，也表现出持久的 U 型注意力模式。输入开头和结尾的标记（Tokens）无论是否相关，都会获得不成比例的高关注度，而中间的标记则被系统性地低估。作者从实证角度将此现象与“迷失在中部”的准确率下降联系起来，而不是将其视为一个独立的现象。</p>
<p>他们的修复方案在概念上非常优雅。他们将注意力分解为两个叠加部分：相关性（我们需要的）和位置偏差（我们不需要的）。为了分离偏差项，他们在每个位置向相同的上下文传递一个“虚拟”（dummy）文档——即无信息的填充内容，并记录由此产生的注意力分布。该虚拟文档的注意力近似于纯粹的位置先验。从真实注意力得分中减去它，剩下的残差就能更好地反映真实的相关性：</p>
<p><strong>校准注意力 = Attn(document, k) − Attn(dummy, k)</strong></p>
<p>然后，在最终答案生成步骤之前，使用重新缩放的得分对检索到的文档进行重新排序或重新加权。至关重要的一点是，这不需要任何训练。校准在推理时应用于最后 16 个解码器层和所有注意力头。成本是增加 O(K) 次前向传递，其中 K 是检索到的文档数量——虽然开销不小，但可以预见。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class="">U 型注意力偏差是模型架构固有的，即使在明确使用长上下文目标训练的模型中依然存在。</li>
<li class="">在相同的检索上下文中传递虚拟（空/噪声）文档可以隔离位置先验；减去它可以在不进行任何微调的情况下消除偏差。</li>
<li class="">在 NaturalQuestion 数据集上（K=20，标准文档放在中间），校准后的 Recall@3 从 20.52% 跃升至 68.32%；在 K=10 时，从 36.38% 提升至 74.27%。</li>
<li class="">当标准文档位于上下文中部时，端到端 QA 准确率提高了 6-15 个百分点；在 24 个实验配置中的 22 个中都有所改善。</li>
<li class="">该方法优于六个基准方案：原始注意力（vanilla attention）、查询生成排序（query-generation ranking）、相关性生成提示（relevance-generation prompting）、注意力排序（attention sorting, Peysakhovich &amp; Lerer 2023）、提示词重排序（prompt reordering）以及 LongLLMLingua-rk。</li>
<li class="">该方法在 NaturalQuestion（基于维基百科的 2,655 个真实查询）和 SynthWiki（990 个由 GPT-4 生成的合成条目）上进行了评估。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些观点站得住脚哪些还有待商榷">哪些观点站得住脚，哪些还有待商榷<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%E5%93%AA%E4%BA%9B%E8%A7%82%E7%82%B9%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E8%BF%98%E6%9C%89%E5%BE%85%E5%95%86%E6%A6%B7" class="hash-link" aria-label="哪些观点站得住脚，哪些还有待商榷的直接链接" title="哪些观点站得住脚，哪些还有待商榷的直接链接" translate="no">​</a></h2>
<p>核心结果非常惊人，我相信它是可信的。对于位于上下文中间的标准文档，Recall@3 出现 20.52%→68.32% 的差距，这并不是那种在审查下会消失的数字——它衡量的是注意力分布方式中真实存在的东西。无需训练的设计是一个真正的实践优势：你可以将其应用在任何现有的 RAG 流水线上，而无需触碰模型权重。</p>
<p>即便如此，我也有一些保留意见。首先，“虚拟文档”方法假设位置偏差在大致位置上是可分离且可叠加的——这是一种线性分解，作者自己也指出这可能过于简化。真实的注意力偏差可能会以非线性的方式与内容相互作用。其次，O(K) 的额外前向传递被评价为“可接受”，但从未针对延迟或成本进行基准测试。在 K=20 检索量的生产系统中，你每运行一个查询就要执行 21 次前向传递，而不是 1 次。对于处理数百个交易的 Beancount 代理来说，这个倍数至关重要。</p>
<p>第三——这也是最有趣的限制——作者指出位置偏差在某些任务中实际上可能是有用的。例如，近因偏差（Recency bias）可能是让模型正确加权近期账目分录而非旧分录的原因。不分青红皂白地消除偏差可能会损害位置作为有效信号的任务。这一点得到了承认，但未进行研究。</p>
<p>最后，实验使用了 NaturalQuestion 和合成数据集。金融领域的特定文档——密集的表格、跨年度的申报文件、具有重复结构的账目分录——与开放领域的维基百科段落非常不同。在声称这种校准适用于金融 RAG 之前，需要在这些分布上进行验证。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-很重要">为什么这对金融 AI 很重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E5%BE%88%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 很重要的直接链接" title="为什么这对金融 AI 很重要的直接链接" translate="no">​</a></h2>
<p>直接联系非常明确：自 DocFinQA 以来的每篇日志都在围绕同一个问题。当 Beancount 代理检索 20 条相关的账目分录来回答“根据银行对账单核对三月账目”之类的问题时，检索窗口中间的分录所获得的注意力系统性地低于上下文顶部和底部的分录。这不是检索失败——而是生成侧的失败，无论如何改进检索排序都无法修复。</p>
<p>“发现于中”校准是一种看似合理的缓解方案，它不需要对底层模型进行重新训练，并且可以直接应用于任何账目 QA 流水线的生成步骤。O(K) 的成本担忧是现实存在的，但尚在可控范围内——对于中等规模的模型，20 个文档的检索窗口仍在实际应用范围内。在部署它之前，我想看到的是在 Beancount 结构化数据上的特定验证：位置校正是有助于统一性能，还是会无意中抑制让近期交易比旧交易更可靠的近因信号？</p>
<p>更广泛的原理——即注意力机制会独立于内容相关性编码位置先验，且这些先验可以在不重新训练的情况下被校准消除——是值得记住的。它为其他偏差的类似校准打开了大门：Token 频率偏差、输入长度归一化、生成中的冗余偏差。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class="">"Mitigate Position Bias in LLMs via Scaling a Single Hidden States Channel" (arXiv:2406.02536, ACL Findings 2025) —— 建议缩放单个隐藏状态维度，而不是减去注意力得分；值得直接与“发现于中”的方法进行比较。</li>
<li class="">"Large Language Models for Anomaly and Out-of-Distribution Detection: A Survey" (arXiv:2409.01980, NAACL 2025) —— 阅读列表中的下一篇；将 AnoLLM、CausalTAD 和 AD-LLM 等研究串联成一个统一的分类体系。</li>
<li class="">Liu et al., "Lost in the Middle: How Language Models Use Long Contexts" (arXiv:2307.03172, TACL 2023) —— “发现于中”所响应的原始诊断报告；必读背景。</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Data Science</category>
            <category>Automation</category>
            <category>Beancount</category>
            <category>Reconciliation</category>
        </item>
        <item>
            <title><![CDATA[面向 LLM 智能体的不确定性感知委派：何时从小型模型切换到大型模型]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents</guid>
            <pubDate>Wed, 01 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[ReDAct 默认运行小型模型，仅在 Token 级困惑度显示不确定性时才上报给昂贵的大型模型。在匹配或超过 GPT-5.2 准确率的同时，实现了 64% 的成本节省 —— 这一模式可直接应用于 Beancount 交易分类智能体。]]></description>
            <content:encoded><![CDATA[<p>自主智能体面临着既要廉价又要可靠的压力，这两个目标背道而驰：前沿模型可靠但昂贵，小型模型廉价但易出错。Piatrashyn 等人的 ReDAct 论文 (arXiv:2604.07036) 提出了一条折中路线 —— 默认运行小型模型，仅在小型模型不确定时才委派给大型模型。我之所以读这篇论文，是因为这种张力定义了每一个生产环境下的 Beancount 回写智能体：你希望系统能廉价地处理常规分类，并在非常规情况损坏账本之前将其上报。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文解读">论文解读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%E8%AE%BA%E6%96%87%E8%A7%A3%E8%AF%BB" class="hash-link" aria-label="论文解读的直接链接" title="论文解读的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%E9%9D%A2%E5%90%91%20LLM%20%E6%99%BA%E8%83%BD%E4%BD%93%E7%9A%84%E4%B8%8D%E7%A1%AE%E5%AE%9A%E6%80%A7%E6%84%9F%E7%9F%A5%E5%A7%94%E6%B4%BE%EF%BC%9A%E4%BD%95%E6%97%B6%E4%BB%8E%E5%B0%8F%E5%9E%8B%E6%A8%A1%E5%9E%8B%E5%88%87%E6%8D%A2%E5%88%B0%E5%A4%A7%E5%9E%8B%E6%A8%A1%E5%9E%8B" alt="2026-07-01-redact-uncertainty-aware-deferral-llm-agents" class="img_ev3q"></p>
<p>ReDAct (推理-委派-行动) 基于 ReAct 提示范式，引入了一种双模型智能体架构。默认由一个廉价的小型模型（如 Qwen3-80B、Llama3.3-70B 或 Llama4-Maverick）处理每一步。在每一步中，它先生成推理路径，然后生成行动。系统仅针对<strong>行动生成步骤</strong>测量 Token 级的不确定性，并将其与校准后的阈值进行比较。如果不确定性超过该阈值，则由大型昂贵模型（如 GPT-5.2、Qwen3-235B 或 Qwen3-480B）重新运行该步骤；否则执行小型模型的行动。</p>
<p>不确定性度量是基于信息论的，仅需要 Token 级的对数概率：序列概率（负对数概率之和）、困惑度（长度归一化）和平均 Token 熵（各 Token 位置的平均熵）。阈值是通过在一组留出的小型模型运行结果中进行校准的，选择能使每个回合达到目标大型模型调用次数 K 的值。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>在行动步骤而非推理步骤测量不确定性。</strong> 一项针对 2,411 个 ALFWorld 步骤的辅助实验发现，推理层面的不确定性在区分正确与错误步骤方面的辨别力较差；行动层面的困惑度（PPL）作为正确性的预测指标，具有显著更高的 ROC-AUC 和 PRR。</li>
<li class=""><strong>使用 Qwen3-80B + GPT-5.2 的 PPL 委派在 ALFWorld 上达到了 80.8% ± 1.1%</strong>，超过了仅使用 GPT-5.2 的 78.3% ± 1.9%，而成本仅为 16.25 美元（相比 45.21 美元） —— 节省了约 64%。</li>
<li class=""><strong>实践中约 15% 的步骤被委派</strong>，以匹配约 10% 的校准目标；这种差距的出现是因为失败（较短）的轨迹对委派预算的贡献不成比例。</li>
<li class=""><strong>以相同比例进行的随机委派得分为 77.0%</strong> —— 仍优于仅使用小型模型（68.3%），但差于不确定性量化（UQ）引导的委派。不确定性信号确实起到了作用，而不仅仅是增加调用大型模型的次数。</li>
<li class=""><strong>MiniGrid 显示出的提升空间较小。</strong> 采用 PPL 委派的 Qwen3-80B + GPT-5.2 达到了 95.0%，而仅使用 GPT-5.2 为 99.0%。当小型模型在结构上存在不足时，较小的任务词汇量会为委派方法创造一个更难突破的上限。</li>
<li class=""><strong>委派分布取决于具体任务。</strong> ALFWorld 在后期步骤中委派更多（提示历史更长），而 MiniGrid 则显示出与智能体初始位置相关的双峰模式。这意味着固定阈值校准在同类任务族中的泛化效果优于跨任务族。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些结论站得住脚哪些存疑">哪些结论站得住脚，哪些存疑<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%E5%93%AA%E4%BA%9B%E7%BB%93%E8%AE%BA%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E5%AD%98%E7%96%91" class="hash-link" aria-label="哪些结论站得住脚，哪些存疑的直接链接" title="哪些结论站得住脚，哪些存疑的直接链接" translate="no">​</a></h2>
<p>核心经验发现是可信的：行动字符串的困惑度是衡量给定步骤是否即将出错的一个合理指标。ReAct 中的推理/行动分解自然提供了一个附加不确定性信号的清晰切入点，而辅助的正确性预测实验为这一设计选择提供了真正的机制性辩护。</p>
<p>让我不太信服的是：在 ALFWorld 上“超过单大型模型”的结果。80.8% ± 1.1% 与 78.3% ± 1.9% 在一个标准差范围内重合。作者将其归功于互补优势 —— 小型模型处理常规步骤，避免了大型模型偶尔的冒险行为 —— 但并没有针对每一步的消融实验来证实这种说法。这很可能只是噪声。</p>
<p>基准测试的选择也有局限性。ALFWorld 和 MiniGrid 是基于文本的家庭模拟和网格世界导航 —— 这些狭窄的环境没有涉及工具调用、代码执行或多文档检索。在那些更丰富的场景（即与 Beancount 相关的场景）中，不确定性校准委派是否成立仍未得到解答。此外，选择 GPT-5.2 作为大型模型使得成本数据难以复现。</p>
<p>校准程序存在一个未解决的循环性：阈值是在用于校准的同一分布上选择的，没有留出验证集。作者承认校准（小型模型 rollouts）和评估（混合 rollouts）之间存在分布偏移，但将阈值鲁棒性留作未来研究。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-至关重要">为什么这对金融 AI 至关重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E8%87%B3%E5%85%B3%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 至关重要的直接链接" title="为什么这对金融 AI 至关重要的直接链接" translate="no">​</a></h2>
<p>Beancount 回写智能体在处理每笔交易时都面临着完全相同的委派问题。常规的杂货购买需要分类；而带有部分匹配摘要的异常多路外币掉期则需要人工干预。目前的做法要么是全自动化（有风险），要么是全人工审核（昂贵）。ReDAct 的框架提供了一个可行的中间地带：运行廉价模型，当候选账目分录的困惑度超过校准阈值时进行上报。</p>
<p>财务背景增加了论文未提及的两个考量。首先，这里的委派通常意味着<strong>暂停并询问用户</strong>，而不是调用更大的 LLM —— 账本的准确性标准是用户的意图，而非基准测试分数。其次，提交 Beancount 分录的不可逆性高于在 ALFWorld 中放错物品。校准目标 K 应该更保守地调优，在委派前倾向于降低小型模型的精确度要求，而不是相反。</p>
<p>即便有这些注意事项，64% 的成本削减信号仍值得认真对待。如果一个 Beancount 智能体处理一个月的交易，只有 15% 的分类决策需要使用昂贵模型，那么运行一个高性能回写智能体的经济效益就会好得多。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>KnowNo</strong> (Ren et al., 2023, CoRL): "请求帮助的机器人：大型语言模型规划器的不确定性对齐" —— 使用共形预测来校准何时请求帮助的<em>覆盖率</em>保证。ReDAct 没有与其进行比较；在选择生产方案之前，理解共形保证与阈值校准之间的权衡至关重要。[arXiv:2307.01928]</li>
<li class=""><strong>A Survey of Confidence Estimation and Calibration in Large Language Models</strong> (Guo et al. updated, NAACL 2024) —— 大型语言模型置信度估计与校准综述：对言语化置信度、基于采样的以及事后校准方法进行了系统分类；这是决定困惑度是否是正确的不确定性代理，还是校准后的 Logit 缩放表现更好的理论背景。[arXiv:2311.08298]</li>
<li class=""><strong>UALA: Uncertainty-Aware Language Agent</strong> (Han, Buntine, Shareghi) —— 在<em>工具调用</em>决策（调用工具 vs 依赖模型知识）上应用了结构相似的不确定性阈值，减少了超过 50% 的工具调用；这是针对智能体不确定性中工具使用维度的直接补充。[<a href="https://uala-agent.github.io/" target="_blank" rel="noopener noreferrer" class="">https://uala-agent.github.io/</a>]</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Machine Learning</category>
            <category>Beancount</category>
            <category>Decision-making</category>
            <category>Plain-Text Accounting</category>
            <category>Trust</category>
        </item>
        <item>
            <title><![CDATA[OpenHands：AI 软件代理开放平台及其对财务自动化的意义]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents</guid>
            <pubDate>Tue, 30 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[OpenHands 是一个采用 MIT 许可证、基于 Docker 沙箱的代理平台，其中 CodeAct 在 SWE-Bench Lite 上达到了 26% 的成绩——这是一个发人深省的基准测试，它确立了 AI 代理如今能够可靠完成的任务范围，以及为什么首批富有成效的财务部署应当是严格限制范围的，而非完全自主的。]]></description>
            <content:encoded><![CDATA[<p>我经常看到 OpenHands 被作为 TheAgentCompany、InvestorBench 以及越来越多评估论文的基础层——但我还没有读过它的核心论文。这是该领域其他研究正在悄然构建的基础设施，因此了解它究竟提供了什么、在哪些方面存在不足，比建立在它之上的任何单一基准测试结果都更重要。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文解读">论文解读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%E8%AE%BA%E6%96%87%E8%A7%A3%E8%AF%BB" class="hash-link" aria-label="论文解读的直接链接" title="论文解读的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=OpenHands%EF%BC%9AAI%20%E8%BD%AF%E4%BB%B6%E4%BB%A3%E7%90%86%E5%BC%80%E6%94%BE%E5%B9%B3%E5%8F%B0%E5%8F%8A%E5%85%B6%E5%AF%B9%E8%B4%A2%E5%8A%A1%E8%87%AA%E5%8A%A8%E5%8C%96%E7%9A%84%E6%84%8F%E4%B9%89" alt="2026-06-30-openhands-open-platform-ai-software-developers-generalist-agents" class="img_ev3q"></p>
<p>OpenHands（Wang 等人，2024；ICLR 2025）是一个用于构建和评估充当通用软件开发者的 LLM 代理的开源平台。由 Xingyao Wang 和 Graham Neubig 领导的 24 人团队在论文中提出，大多数现有的代理框架要么研究范围过窄（硬编码任务循环），要么生产范围过窄（闭源或单一用途），难以作为研究社区的共享基础。OpenHands 试图通过在一个 MIT 许可的代码库中提供标准化的运行时、清晰的代理抽象和 15 个集成的评估基准来解决这个问题。</p>
<p>其运行时是一个包含 Bash Shell、Jupyter IPython 服务器和 Playwright 控制的 Chromium 浏览器的 Docker 沙箱环境。代理通过三种主要的动作类型进行交互：用于 Python 的 <code>IPythonRunCellAction</code>、用于 Shell 命令的 <code>CmdRunAction</code> 以及用于网页导航的 <code>BrowserInteractiveAction</code>。一个多代理协调原语 <code>AgentDelegateAction</code> 允许主代理生成专门的子代理。默认骨干是 CodeAct——最初作为一篇独立论文发表，主张代码是 LLM 代理理想的统一动作空间——该平台发布了几种代理实现，包括通用的 CodeActAgent 和专门的 BrowsingAgent。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>代码作为通用动作空间</strong>：CodeAct 将所有代理操作（文件编辑、API 调用、数据转换）整合到 Python 或 Bash 中，让 LLM 在其训练最充分的媒介中进行推理。这避开了困扰函数调用（function-calling）代理的脆弱 JSON 模式问题。</li>
<li class=""><strong>沙箱化 Docker 运行时</strong>：每个代理都在隔离的容器中运行，因此代理可以自由执行任意代码而不会危及宿主机——这是任何可能被授予真实凭据的生产级财务代理的先决条件。</li>
<li class=""><strong>15 个基准测试集成</strong>：SWE-Bench Lite（代码修复）、HumanEvalFix（错误修复）、WebArena（网页导航）、GPQA（研究生水平推理）、GAIA（通用任务解决）等 15 个基准测试。将这些测试集成在一起可以防止选择性评估。</li>
<li class=""><strong>CodeActAgent + claude-3.5-sonnet 在 SWE-Bench Lite 上达到了 26%</strong>，在 HumanEvalFix 上达到了 79.3%；BrowsingAgent 在 WebArena 上达到了 15.5%——在没有任何特定任务训练的情况下实现了极具竞争力的零样本表现。</li>
<li class=""><strong>GAIA 性能</strong>：使用 GPTSwarm 时为 32.1%，远低于 92% 的人类基准——这与所有其他通用代理基准测试显示的 60-70 分的人机差距一致。</li>
<li class=""><strong>社区规模</strong>：在提交 ICLR 时已拥有 7.14 万个 GitHub Star 和 188 多名贡献者；TheAgentCompany 采用了 OpenHands 作为其评估框架，赋予了其事实上的基准基础设施地位。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些经得起推敲哪些不能">哪些经得起推敲，哪些不能<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%E5%93%AA%E4%BA%9B%E7%BB%8F%E5%BE%97%E8%B5%B7%E6%8E%A8%E6%95%B2%E5%93%AA%E4%BA%9B%E4%B8%8D%E8%83%BD" class="hash-link" aria-label="哪些经得起推敲，哪些不能的直接链接" title="哪些经得起推敲，哪些不能的直接链接" translate="no">​</a></h2>
<p>沙箱化运行时设计是扎实的工程实践。在 Docker 中隔离代理执行是任何后续可能被赋予真实财务账本写入权限系统的正确默认选择，而且将基准测试并列放置而非散布在不兼容的代码库中确实很有用。</p>
<p>然而，基准测试的覆盖范围更多是愿景式的而非系统性的。15 个基准测试跨越了完全不同的任务类型和难度级别，缺乏关于如何汇总或比较结果的明确框架。在同一篇论文中报告 SWE-Bench Lite 26% 的成绩和 HumanEvalFix 79.3% 的成绩，可能会产生同一个代理既平庸又优秀的错觉——这些任务根本不具可比性。作者没有提供原则性的多基准汇总方法。</p>
<p>关于 CodeAct 的假设——即代码是正确的通用动作格式——存在争议。它在开发任务中表现良好，但在每个动作上都强加了一个 Python/Bash 中介层，这增加了延迟，并且当动作语义无法清晰映射到代码时（模糊的用户指令、仅限自然语言的 API）会失效。论文没有针对非代码动作空间进行基准测试，以证明这种优势是真实的，而不是由 LLM 骨干网络产生的混淆。</p>
<p>也许最重要的差距在于评估与部署的分离。26% 的 SWE-Bench 数据来自一个相对干净、规范明确的基准测试。社区报告和 GitHub Issue 讨论一致描述了在模糊或长程的现实任务中可靠性要低得多——这正是 TheAgentCompany 记录的失败模式。论文没有讨论如何在现实的任务规范噪声下衡量或提高稳健性。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对财务-ai-至关重要">为什么这对财务 AI 至关重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E8%B4%A2%E5%8A%A1-ai-%E8%87%B3%E5%85%B3%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对财务 AI 至关重要的直接链接" title="为什么这对财务 AI 至关重要的直接链接" translate="no">​</a></h2>
<p>OpenHands 是目前社区拥有的最接近共享代理基板的东西。如果 Bean Labs 为 Beancount 代理构建评估基础设施，这里的运行时架构——Docker 沙箱、Python/Bash 动作、可插拔的 LLM 后端——值得采用而非重新构建。<code>AgentDelegateAction</code> 原语自然地映射到财务代理流水线中，其中顶级协调器授权给专门的子代理：一个用于账本读取，一个用于异常标记，一个用于由人工审核的拟议回写。</p>
<p>结合 SWE-Bench 和 TheAgentCompany 的数据，建立了一个令人清醒的先验认知：即使是目前最好的代理，也只能完成大约 26-30% 的现实、明确的软件任务。财务账本自动化更难——交易往往是模糊的，错误的影响范围是真实存在的，而且用户意图经常定义不足。正确的推论不是代理还没准备好，而是首批富有成效的部署将是范围严格受限的一次性写入工作流（分类建议、对账标记），而不是自主的多步骤账本编辑。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="下一步阅读建议">下一步阅读建议<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%E4%B8%8B%E4%B8%80%E6%AD%A5%E9%98%85%E8%AF%BB%E5%BB%BA%E8%AE%AE" class="hash-link" aria-label="下一步阅读建议的直接链接" title="下一步阅读建议的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>ReDAct: Uncertainty-Aware Deferral for LLM Agents</strong> (arXiv:2604.07036) —— 将廉价模型与昂贵模型配对，仅在不确定性较高时才转交给昂贵模型；直接解决了 OpenHands 风格的代理应如何决定何时将 Beancount 回写上报给人工审核。</li>
<li class=""><strong>FinTrace: Holistic Trajectory-Level Evaluation of LLM Tool Calling for Long-Horizon Financial Tasks</strong> (arXiv:2604.10015) —— 跨越 34 个财务场景的 800 个专家标注的任务序列；提供了 OpenHands 在财务特定长程工具使用方面所缺乏的评估方法。</li>
<li class=""><strong>FinMCP-Bench: Benchmarking LLM Agents for Real-World Financial Tool Use under the Model Context Protocol</strong> (arXiv:2603.24943) —— 涵盖 65 个真实 MCP 财务工具的 613 个样本，直接关系到构建在 OpenHands 运行时上的 Beancount 代理在真实 MCP 部署中将如何被评估。</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>Open Source</category>
            <category>Automation</category>
            <category>LLM</category>
            <category>Developers</category>
            <category>Beancount</category>
            <category>Plain-Text Accounting</category>
            <category>Machine Learning</category>
        </item>
        <item>
            <title><![CDATA[Fin-RATE：大语言模型在跨周期和跨实体财务分析中的失败表现]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark</guid>
            <pubDate>Mon, 29 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[Fin-RATE 对 17 个大语言模型进行了基准测试，涵盖了来自 2,472 份 SEC 文件的 7,500 对专家精选的问答。研究揭示了在纵向追踪下准确率暴跌 18.60%，而金融专业模型 Fin-R1 在跨实体任务中的表现下降了 54 点——检索流程而非骨干模型才是核心瓶颈。]]></description>
            <content:encoded><![CDATA[<p>金融大语言模型（LLM）基准测试的发展轨迹正在不断扩大范围，Fin-RATE 是目前最清晰的例子，展示了当我们要模型像真实分析师那样工作时会发生什么：不仅要在单一文件中追踪公司，还要跨越多个周期并与行业同行进行对比。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文概览">论文概览<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%E8%AE%BA%E6%96%87%E6%A6%82%E8%A7%88" class="hash-link" aria-label="论文概览的直接链接" title="论文概览的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=Fin-RATE%EF%BC%9A%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E5%9C%A8%E8%B7%A8%E5%91%A8%E6%9C%9F%E5%92%8C%E8%B7%A8%E5%AE%9E%E4%BD%93%E8%B4%A2%E5%8A%A1%E5%88%86%E6%9E%90%E4%B8%AD%E7%9A%84%E5%A4%B1%E8%B4%A5%E8%A1%A8%E7%8E%B0" alt="2026-06-29-fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark" class="img_ev3q"></p>
<p>Fin-RATE 由耶鲁大学及其合作机构的 Yidong Jiang、Junrong Chen 及其同事于 2026 年 2 月发布。该基准测试构建自 2020 年至 2025 年间 43 家公司和 36 个行业的 2,472 份 SEC 监管文件。该基准将 7,500 对专家精选的问答组织成三种任务类型，模拟了专业分析师的工作流程：DR-QA（单一文件内的细节与推理）、EC-QA（针对共同话题的两家公司的跨实体比较）以及 LT-QA（同一公司跨报告期的纵向追踪）。每种任务类型包含 2,500 个问题。评估涵盖了 17 个大语言模型——包括 GPT-4.1 和 GPT-5 等闭源模型，DeepSeek-V3 和 Llama-3.3-70B 等开源通用模型，以及 Fin-R1、Fino1-14B、FinanceConnect-13B 和 TouchstoneGPT-7B 等金融专业模型。评分采用统一的 LLM-as-Judge 框架，由三个独立裁判（GPT-5、DeepSeek-V3.2、Qwen3-235B）根据准确性及五个分析维度对每个回答进行评级。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class="">性能随任务复杂度增加而崩溃：在 17 个模型的平均表现中，从单文档 DR-QA 到纵向 LT-QA 准确率下降了 18.60%，从 DR-QA 到跨实体 EC-QA 下降了 14.35%。</li>
<li class="">带有网页搜索功能的 GPT-5 表现最佳，但其在所有三种任务类型中的峰值准确率仅为 43–44%——对于一个旨在模拟真实分析师工作流的基准测试来说，这一表现不尽如人意。</li>
<li class="">金融专业推理模型 Fin-R1 在 DR-QA 上达到了 57.48%，但在 EC-QA 上崩溃至 3.32%——54 个点的跌幅远超任何通用模型的退化程度。</li>
<li class="">在 RAG（检索增强生成）设置下，所有模型的表现都远低于 27%，而黄金上下文（gold-context）下的表现高达 57.48%；这表明检索流程而非 LLM 本身才是核心瓶颈。</li>
<li class="">论文引入了涵盖四个类别的 13 种错误分类学：幻觉与矛盾、金融特定的数值和语义错误、查询/上下文理解错误以及检索层面的失败。在 RAG 模式下的 EC-QA 任务中，“证据缺失”占错误的 75.44%。</li>
<li class="">金融专业模型在复杂任务中表现出比通用模型系统性更高的幻觉率，尽管它们在金融术语的使用上表现更好。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些观点站得住脚哪些站不住">哪些观点站得住脚，哪些站不住<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%E5%93%AA%E4%BA%9B%E8%A7%82%E7%82%B9%EF%BF%BD%EF%BF%BD%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E7%AB%99%E4%B8%8D%E4%BD%8F" class="hash-link" aria-label="哪些观点站得住脚，哪些站不住的直接链接" title="哪些观点站得住脚，哪些站不住的直接链接" translate="no">​</a></h2>
<p>这三种路径的结构设计确实非常出色。大多数金融基准测试（如 FinQA、TAT-QA、FinanceBench）将问答视为单文档任务。Fin-RATE 是首批明确将跨实体比较和纵向追踪建模为一级任务的基准之一，其结果暴露了一个根本性的差距：当前的 LLM 处理孤立的披露问答尚可，但一旦需要跨文档、实体或时间段进行综合分析，就会分崩离析。</p>
<p>Fin-R1 的崩溃是这篇论文中最引人注目的发现，我认为这一点被低估了。一个擅长单文档提取的金融微调模型显然在训练中陷入了死角：它学习了在单一文档内回答问题的模板，而不是关联实体和时间段的推理策略。这是一个具体的警示：如果不在微调中加入明确的多文档推理监督，窄领域微调可能会适得其反。该模型可能过度拟合了“在文件中查找数字”的浅层模式，而没有通往“将此数字与另一家公司另一份文件中的等效数字进行比较”的泛化路径。</p>
<p>也就是说，有些方法论上的问题值得关注。GPT-5 既是被评估的模型之一，也是评分的三个裁判之一。作者通过使用三个裁判来减少个体偏见，这有所帮助，但裁判与最强评估模型之间的重叠令人不安。论文报告了裁判之间的高度一致性，但没有单独量化 GPT-5 评分了多少比例的 GPT-5 自身回复，也没有说明 GPT-5 的自评得分是否与其他两个裁判存在系统性差异。任何自我评估偏差都会夸大研究中表现最佳模型的顶层结果。</p>
<p>43 家公司的样本量也显得有些单薄。虽然涵盖的文件类型非常广泛（10-K, 10-Q, 8-K, 6-K, DEF 14A 以及若干 S 和 SC 系列），但所有任务中出现的都是这 43 家公司。在预训练中见过这些公司披露信息的模型具有无法量化的优势，而论文并未包含任何数据污染分析。</p>
<p>检索相关的发现很重要，但不完整。论文指出，由于检索失败，RAG 性能比黄金上下文低了约 30 个点。但它只测试了一种检索设置——它将检索失败视为一种诊断结果，而不是进行系统性变量测试。如果有一篇后续论文在 Fin-RATE 上全面测试各种检索架构，将更具实践参考价值。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-至关重要">为什么这对金融 AI 至关重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E8%87%B3%E5%85%B3%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 至关重要的直接链接" title="为什么这对金融 AI 至关重要的直接链接" translate="no">​</a></h2>
<p>Beancount 账本审计正需要 Fin-RATE 所揭示的这两项失效能力：纵向追踪（该账户在多个财政年度中是如何演变的？）和跨实体比较（该子公司的资产负债表是否与合并报表一致？）。在时间追踪下 18.60% 的准确率下降是一个具体的数字，它应该为任何在多个报告期内进行推理的 Beancount 智能体校准预期。如果前沿模型在黄金上下文下的纵向 SEC 问答中失败率达 43%，那么处理多年账本历史的 Beancount 智能体在设计时就应包含明确的检索、时间锚定和人工介入机制，而不是完全依赖端到端的 LLM 推理。</p>
<p>检索占据主导地位的发现对系统设计的优先级最为重要。如果黄金上下文的表现几乎是 RAG 表现的两倍，那么正确的投资方向应该是更好的分块（chunking）、段落选择和检索，而不是更强大的骨干 LLM。这与 DocFinQA 在长上下文 SEC 文件中的发现一致：模型周围的流水线才是瓶颈。</p>
<p>Fin-R1 的警告也直接适用于 Beancount 用例。对 Beancount DSL 语法和交易模式进行微调可能会产生一个能很好处理简单分录生成的模型，但在使审计真正发挥作用的多账户、多周期对账任务中，模型可能会崩溃。Fin-RATE 证明了，没有多文档推理训练的专业化在面对复杂任务时是非常脆弱的。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class="">Fin-R1 (arXiv:2503.16252) —— 了解什么样的训练设置产生了如此脆弱的跨文档表现，以及多文档推理是否曾被纳入考虑范围。</li>
<li class="">FinTrace (arXiv:2604.10015) —— 对 LLM 在 34 个金融任务类别中的工具调用进行轨迹级评估；补充了 Fin-RATE 的静态问答视角，提供了关于模型虽然调用了正确工具但在结果推理上失败的过程级诊断。</li>
<li class="">OpenHands (arXiv:2407.16741) —— TheAgentCompany 评估背后的开放智能体平台；了解其架构有助于明确哪些基础智能体能力是现成的，哪些差距应归因于任务难度而非平台限制。</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Analytics</category>
            <category>Financial Reporting</category>
            <category>Data Science</category>
            <category>Reconciliation</category>
        </item>
        <item>
            <title><![CDATA[FinDER：真实分析师查询揭示金融 RAG 中 74% 的召回率差距]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation</guid>
            <pubDate>Sun, 28 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[FinDER 针对标普 500 指数 10-K 文件，使用 5,703 个真实的对冲基金分析师查询对 RAG 进行基准测试；E5-Mistral 仅实现了 25.95% 的上下文召回率，而充满缩写的查询导致精确率下降了 8.2 个百分点——这证明了查询归一化而非更好的嵌入，才是修复金融 AI 流水线的首要方案。]]></description>
            <content:encoded><![CDATA[<p>FinDER (arXiv:2504.15800) 是一个基于一个简单但未被充分重视的观察而建立的检索基准：金融专业人士输入的真实查询，与学术基准中那些经过修饰的问题完全不同。我之所以阅读这篇论文，是因为它处于我一直在关注的两个方向的交汇点——金融 AI 中的检索差距，以及 DocFinQA 和 FinanceBench 开始揭示的实际现实问题。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文内容">论文内容<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%E8%AE%BA%E6%96%87%E5%86%85%E5%AE%B9" class="hash-link" aria-label="论文内容的直接链接" title="论文内容的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinDER%EF%BC%9A%E7%9C%9F%E5%AE%9E%E5%88%86%E6%9E%90%E5%B8%88%E6%9F%A5%E8%AF%A2%E6%8F%AD%E7%A4%BA%E9%87%91%E8%9E%8D%20RAG%20%E4%B8%AD%2074%25%20%E7%9A%84%E5%8F%AC%E5%9B%9E%E7%8E%87%E5%B7%AE%E8%B7%9D" alt="2026-06-28-finder-financial-dataset-rag-evaluation" class="img_ev3q"></p>
<p>Chanyeol Choi、Jihoon Kwon 及其在一家金融 AI 公司的同事们展示了一个包含 5,703 个专家标注的“查询-证据-答案”三元组数据集，这些数据源自真实的对冲基金分析师问答服务。这些文档是来自 SEC EDGAR 的 490 家标普 500 指数公司的 Form 10-K 文件。FinDER 与之前基准测试的不同之处在于查询端：89.86% 的查询包含三个或更多领域特定的缩写或首字母缩略词。真实的分析师可能不会输入“公司 X 在 2023 财年的总收入是多少？”，而是输入“GOOGL 10-K FY23 revs breakdown by segment”。该数据集发表于 ICLR 2025 金融 AI 进展研讨会，随后出现在 ICAIF 2025 上。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>检索召回率普遍低得惊人</strong>：E5-Mistral（最佳密集检索器）总体仅达到 25.95% 的上下文召回率；BM25 仅为 11.68%。“财务（Financials）”类别——与会计直接相关的类别——是最难的：两者的召回率分别为 15.84% 和 6.42%。</li>
<li class=""><strong>仅查询歧义就导致精确率下降了 8.2 个百分点</strong>：作者在 500 个查询上测试了 E5-Mistral，将规范的释义（精确率 33.9）与真实的缩写查询（精确率 25.7）进行了对比。这一差距完全归因于对缩写/首字母缩略词的处理，而非文档的复杂性。</li>
<li class=""><strong>检索质量是生成的主要瓶颈</strong>：在没有上下文的情况下，LLM 的得分接近于零（正确率 9-10%）；有了前 10 个检索到的段落，正确率达到 29-34%；而在拥有完美的“金准（oracle）”上下文时，正确率跃升至 60-68%。现实情况与金准条件之间 35 个百分点的差距，比开源模型与前沿模型之间的差距还要大。</li>
<li class=""><strong>即使检索良好，组合算术也会失效</strong>：在所有四个模型（Claude-3.7-Sonnet、GPT-o1、DeepSeek-R1-Distill 和 Qwen-QWQ）中，多步计算任务（组合查询）的正确率仅为 ~20%，即使提供了前 10 个检索到的段落也是如此。GPT-o1 在乘法任务中以 42.90% 领先，但在除法任务中下降到 27.78%。</li>
<li class=""><strong>LLM 重排序带来了虽小但持续的提升</strong>：在回答之前让模型对 E5-Mistral 的前 10 个命中结果进行重排序，Claude-3.7-Sonnet 的 F1 达到了 63.05，GPT-o1 达到了 62.90。Deepseek-R1-Distill 以 60.01 紧随其后，尽管它在其他结构化推理方面表现强劲。</li>
<li class=""><strong>类别难度不均衡</strong>：风险类查询最容易检索（E5-Mistral 召回率为 33.07）；财务类查询仍然最难（15.84）。这与查询结构相关——风险披露使用自然语言散文，而财务表格使用密集的数值符号。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些论点经得起推敲哪些不能">哪些论点经得起推敲，哪些不能<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%E5%93%AA%E4%BA%9B%E8%AE%BA%E7%82%B9%E7%BB%8F%E5%BE%97%E8%B5%B7%E6%8E%A8%E6%95%B2%E5%93%AA%E4%BA%9B%E4%B8%8D%E8%83%BD" class="hash-link" aria-label="哪些论点经得起推敲，哪些不能的直接链接" title="哪些论点经得起推敲，哪些不能的直接链接" translate="no">​</a></h2>
<p>核心贡献是扎实的：这是来自在职分析师的真实查询分布，缩写问题是真实存在的。任何基于维基百科或 FinQA 式众包构建的基准测试都会忽略这一点。三层评估结构（无上下文、现实检索、金准上下文）是正确的设计；它清晰地将检索质量与推理质量区分开来，并展示了剩余的生成差距（即使在定性问题上拥有完美上下文，仍有 ~32-34% 的失败率）。</p>
<p>该论文最薄弱的地方在于可复现性。在发表时，该数据集尚未公开——作者称他们“计划稍后公开发布”。对于一篇自荐为评估标准的研讨会论文来说，这是一个重大问题。未发布的基准测试不是基准测试，而是案例研究。此后它已在 ICAIF 2025 上亮相，因此可能已经发布，但 arXiv 版本尚未证实这一点。</p>
<p>检索评估也仅使用了四个单阶段模型（BM25、GTE、mE5、E5-Mistral）。没有混合检索，没有查询扩展，没有 HyDE，也没有针对缩写问题的重写步骤。鉴于作者已经精确地刻画了缩写差距，令人惊讶的是他们没有测试显而易见的修复方法：在检索前扩展查询（例如将“GOOGL”映射为“Alphabet Inc.”）。论文中缺失了这一实验。</p>
<p>生成结果值得细读。~9-10% 的无上下文表现并不是一个有用的下限——它本质上就是零——但 60-68% 的金准上限比看起来更具信息量。即使手里拿着正确的段落，最好的模型在定性问题上仍有约三分之一会失败，在组合算术上则有五分之四会失败。这个上限很重要：它意味着单纯靠检索无法解决问题。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-很重要">为什么这对金融 AI 很重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E5%BE%88%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 很重要的直接链接" title="为什么这对金融 AI 很重要的直接链接" translate="no">​</a></h2>
<p>FinDER 中的查询分布与 Beancount 用户实际上如何与账本智能体互动的场景非常吻合。一个维护账目多年的用户会输入简写的、带有上下文的查询——例如“AMZN card Q3 reimb?”（亚马逊卡第三季度报销？），而不是“亚马逊信用卡在第三季度的报销额是多少？”标准的嵌入模型无法检索到正确的条目，因为它们是在规范的自然语言文本上训练的。在个人账本领域，这种从规范查询到真实查询的 8.2 点精确率下降可能还是保守的，因为个性化的简写（如用“prop mgmt fee”代表“property management fee”）比 SEC 标准缩写离训练数据更远。</p>
<p>E5-Mistral 25.95% 的上下文召回率上限是一个强制约束：任何 Beancount RAG 流水线都需要预留应对大部分证据缺失的预算。其中一个启示是，高召回率的二次检索（多次迭代、多样化的查询表达）比提高单次检索的 F1 更重要。另一个启示是，查询归一化——在检索前将用户的简写映射到规范的账户名称——应该是一个显式的预处理步骤，而不是留给嵌入模型去处理。</p>
<p>即使在金准上下文下，组合算术的准确率也仅为 20%，这是一个单独的信号：对于 Beancount 计算任务，生成的瓶颈在于推理，而非检索。无论检索变得多么出色，PAL 风格的卸载（生成 Python 算术代码而非自由文本计算）仍然是处理数值任务的正确答案。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="下一步读什么">下一步读什么<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%E4%B8%8B%E4%B8%80%E6%AD%A5%E8%AF%BB%E4%BB%80%E4%B9%88" class="hash-link" aria-label="下一步读什么的直接链接" title="下一步读什么的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>Fin-RATE</strong> (arXiv:2602.07294) —— 针对 SEC 文件的多期追踪伴随基准；在时间相关任务上准确率下降了 18.60%，这直接对应了 Beancount 多年账本的问题。</li>
<li class=""><strong>IRCoT</strong> (arXiv:2212.10509, ACL 2023) —— 将检索与思维链推理交织在一起；多轮检索结构直接解决了 FinDER 揭示的单轮召回率低的问题。</li>
<li class=""><strong>利用 LLM 进行针对特定领域检索的查询扩展</strong> —— 目前还没有单一的基准论文能很好地涵盖这一点，但 FinDER 揭示的缩写差距使其成为首要的研究重点；搜索“HyDE financial domain”和“query expansion SEC filings 2025”是正确的起点。</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Finance</category>
            <category>Beancount</category>
            <category>Data Science</category>
            <category>Financial Reporting</category>
        </item>
        <item>
            <title><![CDATA[迷失在中间：大语言模型中的位置偏差及其对金融 AI 的影响]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts</guid>
            <pubDate>Sat, 27 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[Liu 等人发表的 TACL 2024 论文表明，大语言模型在处理埋藏在长上下文中间的信息时，性能会下降多达 20 个百分点——这种 U 形性能退化影响了包括 Claude-1.3-100K 在内的所有受测模型——这对 RAG 流水线在金融和会计应用中应如何排列检索到的段落具有具体的指导意义。]]></description>
            <content:encoded><![CDATA[<p>当我回想起 DocFinQA 的记录时——在处理具有 123K token 上下文的 SEC 文件时，基于检索的流水线和长上下文大语言模型都崩溃了——我留下的问题是 <em>为什么</em>。Liu 等人的这篇论文（TACL 2024, arXiv:2307.03172）提供了机制上的答案，事实证明，这种失效模式比我预想的更简单且更难以消除。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文简介">论文简介<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%E8%AE%BA%E6%96%87%E7%AE%80%E4%BB%8B" class="hash-link" aria-label="论文简介的直接链接" title="论文简介的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%E8%BF%B7%E5%A4%B1%E5%9C%A8%E4%B8%AD%E9%97%B4%EF%BC%9A%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E4%B8%AD%E7%9A%84%E4%BD%8D%E7%BD%AE%E5%81%8F%E5%B7%AE%E5%8F%8A%E5%85%B6%E5%AF%B9%E9%87%91%E8%9E%8D%20AI%20%E7%9A%84%E5%BD%B1%E5%93%8D" alt="2026-06-27-lost-in-the-middle-language-models-long-contexts" class="img_ev3q"></p>
<p>Nelson F. Liu、Kevin Lin、John Hewitt、Ashwin Paranjape、Michele Bevilacqua、Fabio Petroni 和 Percy Liang 撰写的《迷失在中间：语言模型如何使用长上下文》（Lost in the Middle: How Language Models Use Long Contexts）进行了两项针对性实验：基于 NaturalQuestions-Open 的多文档问答（包含 10、20 和 30 个检索到的文档）和合成键值检索（包含 75、140 和 300 对）。在每个实验中，他们系统地改变相关文档或键值对在输入上下文中的位置——开头、中间或结尾——同时保持其他所有因素不变。研究结果非常清晰：性能呈现出一条 U 形曲线，谷值位于上下文的中间，且该曲线出现在所有受测模型中。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>U 形曲线是真实且一致的。</strong> 在 20 个文档的问答设置中，第一位置的性能约为 75%，到第 10 个位置下降到 55% 左右，然后在第 20 个位置回升到约 72%——边缘与中心之间存在约 20 个百分点的差距。</li>
<li class=""><strong>所有模型都遵循同样的模式。</strong> 受测模型涵盖了闭源和开源、小型和大型：GPT-3.5-Turbo（4K 和 16K）、GPT-4、Claude-1.3（8K 和 100K）、MPT-30B-Instruct 以及 LongChat-13B。U 形曲线在每一个模型中都有体现，包括那些明确以扩展上下文窗口为卖点的模型。</li>
<li class=""><strong>即使是 Claude-1.3-100K 也不能幸免。</strong> 100K 上下文变体的表现与其他模型一致。长上下文窗口并不意味着模型实际上会在整个窗口内均匀地分配注意力。</li>
<li class=""><strong>闭卷基准线设定了一个令人冷静的底线。</strong> 没有任何文档的 GPT-3.5-Turbo 正确回答了 56.1% 的 NaturalQuestions；在仅能访问那一个相关文档的理想情况下，正确率达到了 88.3%。但在 20 个文档设置中最差的中间位置，性能甚至跌破了闭卷基准线——这意味着添加更多上下文反而起到了反作用。</li>
<li class=""><strong>编码器-解码器模型（Flan-T5-XXL, Flan-UL2）在训练长度内更具鲁棒性，但当上下文超出长度时也会出现性能下降。</strong> 架构差异确实有影响，但在规模扩大时，两者都会退化。</li>
<li class=""><strong>根本原因是因果注意力掩码（Causal Attention Masking）。</strong> 每个 token 只能关注之前的 token，因此与中间位置相比，最开头的位置在整个模型中积累了更多的总注意力权重。近因效应（Recency effects）也拉升了上下文末尾的性能。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些结论站得住脚哪些不一定">哪些结论站得住脚，哪些不一定<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%E5%93%AA%E4%BA%9B%E7%BB%93%E8%AE%BA%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E4%B8%8D%E4%B8%80%E5%AE%9A" class="hash-link" aria-label="哪些结论站得住脚，哪些不一定的直接链接" title="哪些结论站得住脚，哪些不一定的直接链接" translate="no">​</a></h2>
<p>这里的实验设计非常简洁：位置是唯一受控变量，任务是标准基准测试，且发现结果在多种模型家族中得到了复现。我对核心结果没有异议。</p>
<p>我觉得不太有说服力的是将键值检索任务作为现实应用的有效代理。UUID 到 UUID 的查找测试的是模型是否能复读出记忆的字符串，而不是它是否具备推理能力。U 形曲线在那里也出现了，这强化了位置偏差的说法，但也意味着论文混淆了两种不同的现象：精确匹配任务的检索准确性与相关段落的推理质量。我想知道，当相关文档在给出最终答案前需要多步推理时，这种 U 形曲线是会恶化还是好转，而不仅仅是逐字复述。</p>
<p>作者在大体上承认但未填补的一个空白是：他们从未测试过指令微调（Instruction fine-tuning）或 RLHF 是否改变了位置敏感性，只测试了更大的上下文窗口是否有影响。鉴于根本原因是架构上的（因果掩码），我怀疑指令微调无法解决这个问题，但论文并未证实这一点。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-至关重要">为什么这对金融 AI 至关重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E8%87%B3%E5%85%B3%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 至关重要的直接链接" title="为什么这对金融 AI ��至关重要的直接链接" translate="no">​</a></h2>
<p>这篇论文为我一直遇到的实证模式提供了机制上的解释。DocFinQA 在长篇 SEC 文件上崩溃了。IRCoT 和 FLARE 都会在推理前检索多个段落并将其串联起来。我见过的金融背景下的每个 RAG 流水线都会将检索到的段落按顺序塞进提示词，并寄希望于模型能关注到正确的那一个。</p>
<p>这对 Beancount 代理（Agents）的意义是具体的。如果一个代理检索了十条账本分录作为上下文，那么处于第 3 到第 7 位的分录最容易被忽略或引发幻觉。这不仅仅是检索问题——这是一个呈现（Presentation）问题。根据这篇论文，有两种应对方案：要么将最具诊断相关性的分录放在最前面（和最后面），要么根本不要串联，一次只对一个段落进行推理。</p>
<p>这一发现也让长上下文大语言模型的叙事变得复杂。每个季度都有新模型宣布更大的上下文窗口。这篇论文告诉我们，如果你在窗口内均匀分布证据，窗口再长也不意味着你想象中的效果。一个将相关交易埋藏在 60K 位置的 128K 上下文模型，还不如一个能精准检索到正确段落的 4K 上下文模型。</p>
<p>对于回写安全性（Write-back safety）而言，其后果令人不安：如果要求模型总结一个账本会话，而相关的“不要过账此交易”策略规则出现在长系统提示词的中间，模型可能会表现得好像从未读过该规则一样。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>《发现于中间：通过即插即用的位置编码让语言模型更好地使用长上下文》</strong>（"Found in the Middle: How Language Models Use Long Contexts Better via Plug-and-Play Positional Encoding"，Zhang 等人，arXiv:2403.04797）—— 提出多尺度位置编码（Ms-PoE）作为一种通过 RoPE 缩放实现的无需训练的修复方案；声称在 Zero-SCROLLS 上提升了多达 3.8 个百分点，直接解决了 U 形曲线问题。</li>
<li class=""><strong>《永不迷失在中间：通过位置无关的分解训练掌握长上下文问答》</strong>（"Never Lost in the Middle: Mastering Long-Context Question Answering with Position-Agnostic Decompositional Training"，arXiv:2311.09198）—— 采取了相反的方法，训练模型显式地与位置无关；与 Ms-PoE 的对比澄清了微调或推理侧技巧哪种是更好的杠杆。</li>
<li class=""><strong>《通过缩放单一维度减轻大语言模型中的位置偏差》</strong>（"Mitigate Position Bias in Large Language Models via Scaling a Single Dimension"，arXiv:2406.02536）—— 识别出了导致偏差的特定位置隐藏状态维度，并在无需重新训练的情况下对其进行缩放；这是目前提出的最精密的修复方案，对于在不重新训练的情况下部署现有模型具有重要意义。</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Data Science</category>
            <category>Finance</category>
            <category>Technology</category>
            <category>Analytics</category>
        </item>
        <item>
            <title><![CDATA[AD-LLM 基准测试：GPT-4o 在文本异常检测中零样本 AUROC 达到 0.93+]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection</guid>
            <pubDate>Fri, 26 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[AD-LLM 在五个 NLP 数据集上针对三种异常检测角色（零样本检测器、数据增强引擎和模型选择顾问）对 GPT-4o 和 Llama 3.1 8B 进行了基准测试；GPT-4o 的零样本 AUROC 达到了 0.93–0.99，但基于 LLM 的模型选择仍然不可靠，这对金融审计 AI 具有直接影响。]]></description>
            <content:encoded><![CDATA[<p>本系列的最后两篇文章介绍了 AnoLLM 和 CausalTAD —— 针对表格数据异常检测的微调和提示词工程方法。在将其中任何一种部署到生产规模之前，您需要了解大语言模型（LLM）在更广泛的异常检测范式中的实际地位。这正是 AD-LLM 的明确目标，它从三个不同的角色对 LLM 进行了基准测试：零样本检测器、数据增强引擎和模型选择顾问。虽然重点是 NLP 文本数据而非表格账本条目，但其方法论经验是可以借鉴的。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文内容">论文内容<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%E8%AE%BA%E6%96%87%E5%86%85%E5%AE%B9" class="hash-link" aria-label="论文内容的直接链接" title="论文内容的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=AD-LLM%20%E5%9F%BA%E5%87%86%E6%B5%8B%E8%AF%95%EF%BC%9AGPT-4o%20%E5%9C%A8%E6%96%87%E6%9C%AC%E5%BC%82%E5%B8%B8%E6%A3%80%E6%B5%8B%E4%B8%AD%E9%9B%B6%E6%A0%B7%E6%9C%AC%20AUROC%20%E8%BE%BE%E5%88%B0%200.93%2B" alt="2026-06-26-ad-llm-benchmarking-llms-anomaly-detection" class="img_ev3q"></p>
<p>来自南加州大学（USC）和德克萨斯 A&amp;M 大学（Texas A&amp;M）的 Tiankai Yang、Yi Nian 及其同事推出了 AD-LLM (arXiv:2412.11142, ACL Findings 2025)，这是第一个在 NLP 数据集上系统评估 LLM 在三种异常检测范式中表现的基准。设置是一类分类（one-class classification）：训练数据仅包含正常样本，模型必须在测试时标记异常。五个数据集 —— AG News、BBC News、IMDB Reviews、N24 News 和 SMS Spam —— 均源自文本分类任务，并将其中一个类别指定为异常。论文对比了 GPT-4o 和 Llama 3.1 8B Instruct 与 18 种传统的无监督基准模型，涵盖了端到端方法（CVDD、DATE）和两步走的“嵌入+检测器”组合（OpenAI embeddings + LUNAR、LOF、孤立森林等）。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>零样本检测在文本领域表现良好。</strong> GPT-4o 在五个数据集的“正常+异常”设置中取得了 0.9293–0.9919 的 AUROC 分数；Llama 3.1 达到了 0.8612–0.9487。表现最好的传统基准 OpenAI + LUNAR 在 AG News 上的得分约为 0.92 —— GPT-4o 在无需任何训练的情况下即可与之匹敌或超越。</li>
<li class=""><strong>合成增强具有持续但微小的帮助。</strong> LLM 生成的合成样本在所有五个数据集上都改进了 OpenAI + LUNAR 流水线。类别描述增强也改进了大多数基准模型，尽管收益并不均衡 —— Llama 3.1 在 IMDB Reviews 上将 AUROC 提高了 +0.07，但其他地方的效果较小。</li>
<li class=""><strong>模型选择是薄弱环节。</strong> GPT-o1-preview 推荐的模型在大多数数据集上超过了平均基准性能，有时甚至接近最佳方法（例如在 IMDB Reviews 和 SMS Spam 上）。但它从未能可靠地识别出表现最好的模型，作者也承认推荐是基于缺乏数据集特定统计数据的简单输入。</li>
<li class=""><strong>开源与专有模型之间的差距是真实的。</strong> 根据数据集的不同，GPT-4o 对 Llama 3.1 8B 的 AUROC 领先优势为 4–13 个点，这一差距与零样本表格异常检测论文中看到的模式一致。</li>
<li class=""><strong>NLP 异常检测仍缺乏权威基准。</strong> 仅使用源自分类语料库的五个数据集显得有些单薄。配套的 NLP-ADBench 论文（EMNLP Findings 2025）扩展到了八个数据集和 19 种算法，但仍使用“语义类别即异常”的构建方式，这使得这些任务显得有些牵强。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些结论站得住脚哪些站不住">哪些结论站得住脚，哪些站不住<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%E5%93%AA%E4%BA%9B%E7%BB%93%E8%AE%BA%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E7%AB%99%E4%B8%8D%E4%BD%8F" class="hash-link" aria-label="哪些结论站得住脚，哪些站不住的直接链接" title="哪些结论站得住脚，哪些站不住的直接链接" translate="no">​</a></h2>
<p>零样本检测的发现是可信的。在不需要针对标记异常数据进行微调的情况下，将 LLM 作为评分器使用是非常有效的，尤其是当异常类别在语义上具有一致性时 —— 垃圾邮件与正常短信的区别，训练良好的语言模型是可以理解的。AUROC 数值很高，而且与强大的基于 OpenAI 嵌入的基准模型进行的对比也是公平的。</p>
<p>然而，其范围之窄被论文淡化了。所有五个数据集都将异常编码为不同的“主题类别” —— 垃圾邮件与合法短信、来自特定出版商的新闻与分布内媒体。这意味着 LLM 本质上是在进行主题分类，而这正是它被明确预训练过的任务。该基准测试不包括单一类别内的语义异常（例如，同一账户类型内的异常交易），而这恰恰是金融审计中真正重要的异常类型。</p>
<p>数据增强和模型选择任务是在相同的五个数据集上评估的，因此论文最终只是在基准测试 LLM 是否能让同一个窄域问题的不同切面变得略好一点。作者坦率地列出了六个局限性 —— 包括他们仅测试了 LLM 的子集、排除了少样本和微调方案，以及模型选择依赖于简单的输入 —— 这在学术上是诚实的，但也标志着该基准测试是多么初步。</p>
<p>一个值得怀疑者关注的结果是：两个模型的 AUPRC 分数都大幅低于 AUROC。Llama 3.1 在 BBC News 上的 AUROC 达到 0.8612，但 AUPRC 仅为 0.3960，反映了一类设置中的类别不平衡。在要求高精确度的审计场景中，AUPRC 是更有意义的指标，而在这里，情况就不那么乐观了。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-很重要">为什么这对金融 AI 很重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E5%BE%88%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 很重要的直接链接" title="为什么这对金融 AI 很重要的直接链接" translate="no">​</a></h2>
<p>Bean Labs 的议程涉及两个异常检测用例：实时捕获异常账本条目（表格化、结构化）以及标记发票、备忘录或支持工单中的可疑描述文本（非结构化 NLP）。AD-LLM 直接针对第二种情况，并为我们提供了一个现实的上限：GPT-4o 在干净、平衡的数据集上，零样本检测文本中主题级异常的 AUROC 可以达到 0.93 以上。这是一个有用的先验知识，但账本摘要异常更为微妙 —— 一个描述常规服务但属于被标记为可疑模式供应商的发票备忘录，并不是一个主题分类问题。该基准提供了一个起点，而不是答案。</p>
<p>模型选择的发现对系统设计也有独特的启发。向 LLM 询问“我应该在这个数据集上使用哪个异常检测器？”并获得可靠答案的梦想尚未实现。这意味着在类 AnoLLM 的微调、类 CausalTAD 的因果提示或经典的嵌入方法之间做出选择，仍需要人类的判断或系统的实证评估 —— 这不能委托给 LLM 顾问。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>NLP-ADBench</strong> (arXiv:2412.04784, EMNLP Findings 2025) —— 同一团队的配套基准测试，涵盖了八个数据集和 19 种算法；提供了 AD-LLM 五个数据集范围无法涵盖的更广泛的经典基准背景。</li>
<li class=""><strong>Large Language Models for Anomaly and Out-of-Distribution Detection: A Survey</strong> (arXiv:2409.01980, NAACL Findings 2025) —— 调查了涵盖文本、图像和表格模态的基于 LLM 的异常检测（AD）方法的完整格局；补充了 AD-LLM 相对于先前工作所处位置的背景。</li>
<li class=""><strong>AnoLLM: Large Language Models for Tabular Anomaly Detection</strong> (OpenReview:7VkHffT5X2, ICLR 2025) —— 表格数据的对应研究；将其基于似然的方法与 AD-LLM 基于提示词的零样本策略进行比较，可以阐明哪种范式更适合 Beancount 账本条目。</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Data Science</category>
            <category>Fraud Detection</category>
            <category>Analytics</category>
            <category>Anomaly Detection</category>
        </item>
        <item>
            <title><![CDATA[CausalTAD：用于大语言模型表格异常检测的因果列排序]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection</guid>
            <pubDate>Thu, 25 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[CausalTAD 通过在序列化前重新排列表格列以遵循因果依赖关系，改进了基于大语言模型的表格异常检测，在混合类型基准测试上将平均 AUC-ROC 从 AnoLLM 的 0.803 提升至 0.834——这对于检测结构化账本数据中的异常具有直接意义。]]></description>
            <content:encoded><![CDATA[<p>之前的日志介绍了 AnoLLM，它通过负对数似然对小型大语言模型进行微调，从而对表格异常进行评分。CausalTAD (arXiv:2602.07798) 提出了一个深刻的后续问题：向大语言模型输入列的顺序是否重要？结果表明，答案是肯定的——在排序中注入因果结构可以带来稳定且可复现的提升。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文解读">论文解读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%E8%AE%BA%E6%96%87%E8%A7%A3%E8%AF%BB" class="hash-link" aria-label="论文解读的直接链接" title="论文解读的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=CausalTAD%EF%BC%9A%E7%94%A8%E4%BA%8E%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E8%A1%A8%E6%A0%BC%E5%BC%82%E5%B8%B8%E6%A3%80%E6%B5%8B%E7%9A%84%E5%9B%A0%E6%9E%9C%E5%88%97%E6%8E%92%E5%BA%8F" alt="2026-06-25-causaltad-causal-knowledge-llm-tabular-anomaly-detection" class="img_ev3q"></p>
<p>Wang 等人提出了 CausalTAD，这是一种建立在 AnoLLM 式大语言模型异常检测器之上的方法，并进行了一项针对性的改进：它不是以随机或任意的列顺序序列化表格行，而是在大语言模型读取行之前，发现列之间的因果依赖关系并按照这些依赖关系重新排序。</p>
<p>该论文包含两个核心部分。首先是<strong>因果驱动的列排序模块</strong>。作者改编了 COAT 因子提取框架：大语言模型读取列元数据和样本以提取高层语义因子（对于信用卡交易，一个像“补偿”这样的因子可能涵盖金额和商户列）。基于这些因子，PC、LiNGAM 和 FCI 这三种因果发现算法分别构建了因子上的有向因果图。随后，列重排问题转化为了线性排序问题（Linear Ordering Problem）：寻找最大化有向边权重之和的排列 π，使得原因列在序列化文本中出现在结果列之前。由于该线性规划（LP）有许多近乎最优的解，他们在大约 90% 最优值范围内采样 K ≈ 10 种排序，并对其取平均值。</p>
<p>其次是<strong>因果感知的重加权模块</strong>。并非所有列都同等重要。影响多个因子的列会获得更高的权重 αj = |M⁻¹(cj)|，即它所贡献的因子数量。最终的异常评分是跨 K 种排序的每列负对数似然的加权平均值。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="关键思想">关键思想<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%E5%85%B3%E9%94%AE%E6%80%9D%E6%83%B3" class="hash-link" aria-label="关键思想的直接链接" title="关键思想的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>列排序是自回归大语言模型的一种非平凡归纳偏置</strong>：将原因列置于其结果列之前，可以让模型在为结果分配概率时参考正确的上下文。</li>
<li class=""><strong>因子层面的因果发现</strong>（而非原始列层面）使该方法能够处理混合类型的表格，因为在异构列之间进行直接因果发现通常存在噪声。</li>
<li class=""><strong>性能提升明显</strong>：在 6 个混合类型基准数据集上，使用 SmolLM-135M 的 CausalTAD 平均 AUC-ROC 达到 0.834，而 AnoLLM 为 0.803——在相同骨干模型下实现了 3.1 个百分点的绝对提升。</li>
<li class=""><strong>特定领域的显著增益</strong>：特别是在 Fake Job Posts 数据集上，CausalTAD 的评分为 0.873，而 AnoLLM 为 0.800——实现了 9.1% 的相对增益，这在真实的分类系统中非常有意义。</li>
<li class=""><strong>超越经典方法</strong>：在 30 个数值型 ODDS 基准数据集上，CausalTAD 取得了最佳的平均 AUC-ROC，一致优于传统的基准方法（Isolation Forest、ECOD、KNN）和深度学习方法（DeepSVDD、SLAD）。</li>
<li class=""><strong>算法鲁棒性</strong>：在消融实验中，所有三种因果发现算法都优于随机排序；在混合数据集上，LiNGAM 略优于 PC 和 FCI。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些观点站得住脚哪些站不住">哪些观点站得住脚，哪些站不住<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%E5%93%AA%E4%BA%9B%E8%A7%82%E7%82%B9%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E7%AB%99%E4%B8%8D%E4%BD%8F" class="hash-link" aria-label="哪些观点站得住脚，哪些站不住的直接链接" title="哪些观点站得住脚，哪些站不住的直接链接" translate="no">​</a></h2>
<p>核心主张——即因果列顺序有助于提升性能——得到了很好的支持。消融实验很清晰：在 Fake Job Posts 基准测试中，将随机排序替换为三种因果发现方法中的任何一种都能改善结果（从 0.832 提升至 0.870–0.873），并且因子计数重加权在每种配置下都进一步提供了帮助。这是一个可信的故事。</p>
<p>我觉得不那么有说服力的是其<strong>自举（bootstrapping）假设</strong>。因果图是利用大语言模型从系统待分析的数据中提取语义因子来构建的。如果大语言模型误解了该领域——例如，对于具有非标准列名的定制会计系统——因子提取将会出错，而一个错误的因果图可能比随机排序更糟，因为它引入了系统性偏置。作者承认了这一风险（“依赖于大语言模型提取因子的能力”），但并未独立基准测试因子提取的准确性。</p>
<p>此外，<strong>计算开销问题</strong>比论文暗示的更为严重。运行三种因果发现算法、求解线性规划、采样 K 种排序，然后对每个测试点的 K 个序列化版本进行推理，这使得推理成本增加了 K 倍。对于拥有数百万条目的账本来说，这非常关键。论文指出“未来的工作可能会专注于提高效率”，但未提供具体的性能分析。</p>
<p>最后，30 个数值型 ODDS 数据集已经被广泛研究，对于此类方法来说可能已经趋于饱和。更有意义的信号在于 6 个混合类型数据集——这些才是金融领域的现实场景——那里的改进虽然真实存在，但从绝对值来看相对有限。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-很重要">为什么这对金融 AI 很重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E5%BE%88%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 很重要的直接链接" title="为什么这对金融 AI 很重要的直接链接" translate="no">​</a></h2>
<p>Beancount 交易具有真实的因果结构：过账金额因果性地驱动了账户选择，账户驱动了对交易对手的预期，而摘要文本在因果关系上处于这三者的下游。随机的列序列化忽略了这一点，这意味着 AnoLLM 式的模型看到“memo: groceries | account: Expenses<!-- -->:Food<!-- --> | amount: $4200”的可能性与看到正确排序版本的可能性一样大。</p>
<p>CausalTAD 提供了一种原则性的方法来编码“金额和账户先行”，而无需将其硬编码为规则。对于 Bean Labs 的审计代理来说，这建议了一个实用的架构选择：在对一批交易进行异常评分之前，先进行一次因果发现，找出账本列模式（schema）上的因果图，然后将该固定排序用于后续的所有推理。这样，开销仅在模式层面支付一次，而不是每笔交易支付一次。</p>
<p>论文中的信用卡欺诈检测示例在任务结构上与账本异常检测基本相同：异构特征、稀有标签，以及领域专家直观了解但大语言模型可能会忽略的因果顺序。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>AD-LLM: Benchmarking Large Language Models for Anomaly Detection</strong> (arXiv:2412.11142, ACL Findings 2025) —— 这是 CausalTAD 所属的三种大语言模型异常检测范式的系统性基准测试；阅读它可以了解全景，而不仅仅是 AnoLLM 与 CausalTAD 的单一对比。</li>
<li class=""><strong>COAT: Boosting Large Language Model-Based In-Context Learning for Tabular Data</strong> (Liu et al., 2024) —— 这是 CausalTAD 改编的因子提取框架；了解其工作原理可以明确因果图质量可能在何处失效。</li>
<li class=""><strong>Causal discovery in heterogeneous data: a survey</strong> —— 用于了解 PC、LiNGAM 和 FCI 在混合类型表格数据上的相对优缺点，因为论文将这三者视为可以互换，但它们做出了不同的独立性假设。</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Fraud Detection</category>
            <category>Data Science</category>
            <category>Anomaly Detection</category>
            <category>Beancount</category>
        </item>
        <item>
            <title><![CDATA[AnoLLM：针对金融数据表格式异常检测的 LLM 微调]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection</guid>
            <pubDate>Wed, 24 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[AnoLLM (ICLR 2025) 将表格式异常检测重新表述为 LLM 密度估计 —— 在正常行上进行微调，并通过负对数似然进行评分。它在混合类型欺诈数据集上优于传统方法，但在纯数值数据上没有优势，这对检测 Beancount 账本分录中的异常具有实际意义。]]></description>
            <content:encoded><![CDATA[<p>我两天前读到的那篇关于零样本 LLM 异常检测的论文 (arXiv:2406.16308) 表明，GPT-4 无需任何训练就能识别表格式离群值，在 ODDS 基准测试上达到了 ECOD 等经典基线的水平。但它有一个明显的弱点：要求模型输出异常行索引列表是非常脆弱的 —— 开源模型经常会幻觉产生索引、超出范围，或者将每一行都标记为可疑。由亚马逊的 Che-Ping Tsai、Ganyu Teng、Phillip Wallis 和 Wei Ding 在 ICLR 2025 上发表的 AnoLLM 修复了这种脆弱性，同时也进军了纯数值基线开始感到吃力的混合类型数据集。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文内容">论文内容<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%E8%AE%BA%E6%96%87%E5%86%85%E5%AE%B9" class="hash-link" aria-label="论文内容的直接链接" title="论文内容的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=AnoLLM%EF%BC%9A%E9%92%88%E5%AF%B9%E9%87%91%E8%9E%8D%E6%95%B0%E6%8D%AE%E8%A1%A8%E6%A0%BC%E5%BC%8F%E5%BC%82%E5%B8%B8%E6%A3%80%E6%B5%8B%E7%9A%84%20LLM%20%E5%BE%AE%E8%B0%83" alt="2026-06-24-anollm-llm-fine-tuning-tabular-anomaly-detection" class="img_ev3q"></p>
<p>AnoLLM 将表格式异常检测重新构想为语言模型密度估计，而非提示分类。作者不是让 LLM 指出哪些行看起来可疑，而是在序列化的分布内（正常）训练行上微调预训练语言模型，然后根据学习到的分布下的负对数似然 (NLL) 为每个测试行评分。与训练分布完全不符的行会获得较高的 NLL —— 这就是异常评分。没有索引格式，没有输出解析，也没有脆弱的正则提取。</p>
<p>序列化过程将每个表格行转换为包含特征名称和值的自然语言字符串。对于文本值列，NLL 按列进行归一化以避免长度偏差，否则较长的描述会机械地积累更高的概率成本。对于数值和分类列，原始 Token 级别的 NLL 会在字段内累加。该模型在半监督设置下进行微调 —— 只有标记为正常的行进入训练 —— 使用分布式 GPU 训练，最多进行 2,000 步。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>输出格式问题：</strong> 先前的索引预测方法要求 LLM 能够可靠地从批次中输出异常行索引。Llama 系列模型经常将错误的索引与数值配对，生成超出批次大小的索引，或者干脆将所有内容列为异常。NLL 完全绕过了这一点。</li>
<li class="">AnoLLM 在六个具有混合特征类型的基准数据集上实现了最佳性能，包括来自 Kaggle 的汽车保险欺诈检测和电子商务欺诈数据集。</li>
<li class="">在 30 个以数值为主的 ODDS 基准数据集上，AnoLLM 的表现与顶级经典基线持平 —— 虽然没有明显更好，但具有竞争力。</li>
<li class="">文本特征的“每列 NLL 归一化”是一个虽小但关键的工程决策：如果没有它，包含三十个 Token 的交易描述会在评分中压倒两位数的金额，这是一种错误的归一化偏置。</li>
<li class=""><strong>训练基线背景：</strong> 零样本 GPT-4 方法 (arXiv:2406.16308) 在 ODDS 上的平均 AUROC 为 74.1，与 ECOD (75.5) 和 KNN (70.7) 相当。AnoLLM 的优势具体体现在文本和分类特征承载有意义异常信号的数据集上。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些站得住脚哪些站不住脚">哪些站得住脚，哪些站不住脚<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%E5%93%AA%E4%BA%9B%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E7%AB%99%E4%B8%8D%E4%BD%8F%E8%84%9A" class="hash-link" aria-label="哪些站得住脚，哪些站不住脚的直接链接" title="哪些站得住脚，哪些站不住脚的直接链接" translate="no">​</a></h2>
<p>NLL 的核心思想是可靠的。将微调后的语言模型用作序列化行上的密度估计器是符合原理的，并且它能自然地同时处理所有列的联合分布 —— 这是逐列应用经典无监督检测器无法干净利落完成的事情。对索引预测的修复确实有用，且与零样本基线的比较也是公平的。</p>
<p>令我困扰的是论文中未充分报告的成本效益差距。AnoLLM 需要微调并部署一个 LLM 进行推理 —— 与在 CPU 上几秒钟内拟合 ECOD 或孤立森林 (IsolationForest) 相比，这是一项巨大的基础设施投入。在 ODDS 基准（纯数值）上，AnoLLM 仅是“持平”，而非更优。因此，AnoLLM 的论据完全在于混合类型领域，而评估的六个数据集均来自 Kaggle 上的欺诈检测。对于一个强有力的推荐来说，六个数据集的经验基础显得单薄，尤其是考虑到来自 Kaggle 的基准数据集往往具有整洁的模式、固定的列语义和已知的地面真值 —— 这些都是生产环境账本数据通常缺乏的。</p>
<p>列排序问题也悬而未决。CausalTAD (arXiv:2602.07798) 立即发现了这一差距：AnoLLM 以任意顺序序列化列，忽略了字段之间的因果关系。对于具有已知因果链的结构化数据 —— 例如账户类型影响有效的交易范围，进而影响预期的交易对手 —— 这是一个真正的局限。CausalTAD 将重新排序视为线性排序问题，并报告称在 30 多个数据集上相比 AnoLLM 有持续的改进。这个差距的存在且能被如此迅速地发现，表明 AnoLLM 的序列化设计并未经过充分考虑。</p>
<p>还有一个论文未提及的规模问题：正常训练样本达到多大数量级时，微调 LLM 的价值才会超过直接在数值特征上训练的表格式深度学习模型？对于只有几千条分录的个人 Beancount 账本，计算成本可能轻易抵消任何精度提升。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-很重要">为什么这对金融 AI 很重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E5%BE%88%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 很重要的直接链接" title="为什么这对金融 AI 很重要的直接链接" translate="no">​</a></h2>
<p>Beancount 账本分录正是 AnoLLM 针对的那种混合类型数据：金额（数值）、账户名称（结构化文本）、收款人/摘要（自由文本）、标签（分类）、日期（结构化）。像 <code>2024-03-15 * "AWS" "Cloud invoice" Assets:Checking -$2,400</code> 这样的一行数据同时编码了跨越所有这些类型的信息。经典异常检测器在这里会很吃力，因为它们需要为每种列类型分别处理，并且会丢失它们之间的相关性 —— 即“AWS”发票应该在特定范围内并对应特定账户的联合模式。</p>
<p>AnoLLM 的 NLL 方法原则上可以从历史正常分录中学习这些联合模式，并标记任何列组合中的偏差。这可能比基于规则的 JETs 或单列统计测试更有用。</p>
<p>尽管如此，复式记账约束是 AnoLLM 无法仅从序列化行中学习到的结构化知识 —— 借贷必须相等，账户层级必须被遵守。这些领域不变性是硬约束，而非统计规律，如果训练数据包含任何异常或舍入伪影，无论对历史行进行多少 LLM 微调，都无法可靠地强制执行它们。正确的架构可能是将 AnoLLM 的语义异常 NLL 评分与结构化异常的显式规则检查相结合。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class=""><strong>CausalTAD (arXiv:2602.07798)</strong> —— 通过引入因果列排序直接改进了 AnoLLM；这是最值得评估的直接后续研究。</li>
<li class=""><strong>AD-LLM: Benchmarking Large Language Models for Anomaly Detection (arXiv:2412.11142, ACL Findings 2025)</strong> —— 提供了个人方法论文中缺失的系统性多范式评估。</li>
<li class=""><strong>"Language Models are Realistic Tabular Data Generators" (Borisov et al., arXiv:2210.06280, ICLR 2023)</strong> —— AnoLLM 用作基线的 BE-GREAT 模型；了解它可以阐明 AnoLLM 在索引预测之外究竟改进了什么。</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Fraud Detection</category>
            <category>Data Science</category>
            <category>Beancount</category>
            <category>Finance</category>
        </item>
        <item>
            <title><![CDATA[LLM 在 Beancount DSL 生成中得分仅为 2.3%：LLMFinLiteracy 基准测试]]></title>
            <link>https://beancount.io/zh/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark</link>
            <guid>https://beancount.io/zh/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark</guid>
            <pubDate>Tue, 23 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[LLMFinLiteracy 基准测试发现，五个约 7B 参数的权重开放模型生成完全正确的 Beancount 交易的成功率仅为 2.3%。失败原因集中在会计推理而非语法上，这表明“编译器在环”反馈是构建可靠回写代理的关键缺失环节。]]></description>
            <content:encoded><![CDATA[<p>这是我自 LOG-001 以来一直在等待的一篇论文：一项针对 LLM 是否能从自然语言金融场景中生成有效的 Beancount DSL 交易的直接实证测试。来自柏林应用科技大学的 Figueroa 等人提出了他们所称的——据我所知是正确的——首个已发表的关于 LLM 在纯文本会计中生成金融交易能力的评估。简而言之：它们做不到，至少在没有可靠性的情况下做不到，即使使用了思维链（CoT）提示词，并将实际的 Beancount 资产负债表作为上下文提供给它们。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="论文详解">论文详解<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%E8%AE%BA%E6%96%87%E8%AF%A6%E8%A7%A3" class="hash-link" aria-label="论文详解的直接链接" title="论文详解的直接链接" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=LLM%20%E5%9C%A8%20Beancount%20DSL%20%E7%94%9F%E6%88%90%E4%B8%AD%E5%BE%97%E5%88%86%E4%BB%85%E4%B8%BA%202.3%25%EF%BC%9ALLMFinLiteracy%20%E5%9F%BA%E5%87%86%E6%B5%8B%E8%AF%95" alt="2026-06-23-llm-beancount-dsl-financial-literacy-benchmark" class="img_ev3q"></p>
<p>Figueroa, Grundmann, Freidank, Löser 和 Nejdl 在一个名为 LLMFinLiteracy 的双任务基准测试中评估了五个约 7B 参数的权重开放模型。任务 1 要求模型根据来自五个 DAX 上市公司（空客、拜耳、德国电信、梅赛德斯-奔驰、SAP）的真实季度资产负债表，生成会影响特定流动性比率（流动比率、速动比率或现金比率）的文本场景。任务 2 要求模型将这些场景翻译成可编译的 Beancount 交易。Beancount 编译器充当基准语法检查器；人类领域专家评估语义正确性。论文介绍了一个涵盖这两个任务的 12 类错误分类法，并使用了包含双入账会计规则、输入/输出示例以及 Beancount 格式的真实公司资产负债表的 9 步思维链提示词。由于金融数据的敏感性，评估的模型——Llama-3-8B、Qwen-2-7B、Mistral-7B、CodeLlama-7B 和 CodeQwen-1.5-7B——都在本地运行。语料库总计 1,500 个生成的样本，其中 300 个分层条目由人类专家进行了评估。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="核心观点">核心观点<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%E6%A0%B8%E5%BF%83%E8%A7%82%E7%82%B9" class="hash-link" aria-label="核心观点的直接链接" title="核心观点的直接链接" translate="no">​</a></h2>
<ul>
<li class="">在 300 个评估的场景-交易对中，只有 7 个（2.3%）是完全端到端正确的；即使仅限于三个通用模型，正确率也仅上升到 3.8%。</li>
<li class="">表现最好的两个模型 Qwen-2-7B 和 Mistral-7B，生成正确场景的概率仅为 21.67% 和 20.00%，生成正确编译交易的概率仅为 16.67% 和 10.00%。</li>
<li class="">代码专用模型（CodeLlama, CodeQwen）在两个任务上得分均为 0%；它们对提示词模板的响应是字面上的“Processed — Waiting for next input”字符串，完全忽略了任务。</li>
<li class="">语法不是瓶颈：没有模型产生过任何语法错误。失败完全在于会计<strong>推理</strong>——余额错误在 Qwen-2（61.67%）和 Llama-3（38.33%）中占主导地位，而 Mistral 则主要引用了提供的资产负债表中不存在的账户（45% 的未知账户错误）。</li>
<li class="">很大一部分成功编译的交易在语义上是错误的——模型最喜欢的技巧是将减少负债称为“出售你的债务”，这虽然增加了现金，但原因错误。</li>
<li class="">被用作自动裁判的 GPT-4o 未能发现向其展示的所有 10 个荒谬场景中的不一致之处，这证实了 LLM 自我评估对于会计输出而言并非可靠的质量门控。</li>
<li class="">模型在很大程度上是复制提示词中的输入/输出示例，而不是进行泛化：那 7 个正确的交易对与提供的示例交易结构非常相似。</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="哪些结论站得住脚哪些站不住">哪些结论站得住脚，哪些站不住？<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%E5%93%AA%E4%BA%9B%E7%BB%93%E8%AE%BA%E7%AB%99%E5%BE%97%E4%BD%8F%E8%84%9A%E5%93%AA%E4%BA%9B%E7%AB%99%E4%B8%8D%E4%BD%8F" class="hash-link" aria-label="哪些结论站得住脚，哪些站不住？的直接链接" title="哪些结论站得住脚，哪些站不住？的直接链接" translate="no">​</a></h2>
<p>论文的核心实证贡献是扎实的。Beancount 编译器是一个客观、可重复的正确性标准，使用真实的公司资产负债表而非演示数据增加了生态有效性。分层错误分类法设计得非常周到——在发现第一个错误时停止评估，避免了对垃圾输出给予“部分学分”而导致的虚高评分。</p>
<p>也就是说，存在作者大多承认的明显局限性。来自 2023–2024 年的五个约 7B 权重开放模型只是能力格局中的一小部分；出于隐私原因排除了 GPT-4o 和 Claude，这虽然可以理解，但意味着标题数据（2.3% 正确率）低估了前沿水平。为了测试内在的领域知识，提示词中故意省去了财务比率公式——这在方法论上是一个有趣的选择，但这也使得结果与任何合理包含公式文档的系统都不具有可比性。此外，跨越五个模型、三个比率和五家公司的 300 个由人类评估的样本规模较小；每个模型每个比率的单元格太小（12 个样本），无法得出关于方差的有力结论。</p>
<p>最有趣的方法论空白是缺乏任何基于迭代或反馈的协议。没有工具调用，没有自我修正，没有编译器反馈循环——只有单次生成。鉴于 CRITIC (LOG-012) 和相关工作表明，工具交互式优化能显著提高具有可验证输出的任务的准确性，一个“Beancount 编译器在环”的实验本可以提供更多关于可部署性的信息。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="为什么这对金融-ai-至关重要">为什么这对金融 AI 至关重要<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E5%AF%B9%E9%87%91%E8%9E%8D-ai-%E8%87%B3%E5%85%B3%E9%87%8D%E8%A6%81" class="hash-link" aria-label="为什么这对金融 AI 至关重要的直接链接" title="为什么这对金融 AI 至关重要的直接链接" translate="no">​</a></h2>
<p>Bean Labs 回写代理的每个设计决策都基于对 LLM 处理 Beancount DSL 能力的假设。这篇论文是第一个实证锚点。标题结论虽然令人清醒，但也具有非常有用的解释性。</p>
<p>首先，失败模式是特定的，而非随机的。余额错误和未知账户是两个主要问题，两者都可以通过编译器在环反馈循环来解决：Beancount 编译器会准确地告诉你哪个账户是未知的，以及交易是否平衡。一个基于编译器输出进行迭代的代理架构——而不是生成一次就停止——其表现应该会显著优于此处的单次生成结果。其次，语法是“免费”的。模型显然已经学会了 Beancount 的表面语法；它们只是无法可靠地将金融意图转化为正确的账户变动。这种区别对于在提示词工程和微调方面投入精力的方向至关重要。第三，GPT-4o 无法自动评估会计质量的发现提高了任何自动验证系统的门槛：你需要编译器，加上领域专家的抽查，而不是一个 LLM 裁判。</p>
<p>这篇论文还证实了我从异常检测工作 (LOG-049) 中怀疑的一点：处理金融交易的 LLM 过于容易执行“编译并提交”。“错误 | 可编译”这一类别——即通过了语法检查但在语义上错误的交易——正是回写安全护栏必须捕获的失败模式。一笔交易可以完美平衡，但仍将收入记为负债减少，这在任何纯语法检查中都无法被检测到。</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="延伸阅读">延伸阅读<a href="https://beancount.io/zh/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%E5%BB%B6%E4%BC%B8%E9%98%85%E8%AF%BB" class="hash-link" aria-label="延伸阅读的直接链接" title="延伸阅读的直接链接" translate="no">​</a></h2>
<ul>
<li class="">AnoLLM: Large Language Models for Tabular Anomaly Detection (OpenReview:7VkHffT5X2, ICLR 2025) —— 基于似然的异常评分，作为批量检测方法的替代方案；可自然地与 Beancount 编译器信号结合，以标记结构有效但统计异常的条目。</li>
<li class="">ReDAct: Uncertainty-Aware Deferral for LLM Agents (arXiv:2604.07036) —— 将低置信度的决策路由到更大的模型或人类；直接解决了 Beancount 回写代理何时应推迟到人工审核，而不是在编译器反馈循环后继续执行的问题。</li>
<li class="">CRITIC: Large Language Models Can Self-Correct with Tool-Interactive Critiquing (arXiv:2305.11738, ICLR 2024) —— 在本文评估的架构之上构建编译器在环修正代理的最相关的现有工作。</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>Beancount</category>
            <category>Plain-Text Accounting</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Financial Literacy</category>
            <category>Double-Entry</category>
            <category>Transaction Validation</category>
        </item>
    </channel>
</rss>