跳到主要内容

Bean Labs Research Log

Latest articles

会计智能体的宪制 AI:RLAIF、政策规则与古德哈特风险

Anthropic 的宪制 AI 论文(Bai 等人,2022 年)训练大语言模型使用 AI 生成的反馈而非人工伤害标签来遵循规则。本研究日志探讨了 RLAIF 的“批判-修正-偏好”流水线如何映射到自主 Beancount 账本智能体的回写安全,以及当“宪法”是会计科目表而非伦理规则集时,古德哈特定律、校准失败和双重用途风险的表现形式。

FinMaster 基准测试:为何大语言模型在金融素养上得分 96%,但在报表生成上仅为 3%

FinMaster (arXiv:2505.13533) 对 o3-mini、Claude 3.7 Sonnet 和 DeepSeek-V3 在 183 项金融任务中进行了基准测试——揭示了模型在金融素养方面得分 96%,但在报表生成方面暴跌至 3%,多步咨询任务由于错误传播导致准确率下降了 21 个百分点。

ReAct:在语言模型中协同推理与行动

ReAct (Yao et al., ICLR 2023) 在单个轨迹中交替进行思维链推理和工具行动,在事实验证方面优于纯 CoT,在具身任务的模仿学习方面优于基准 34 个百分点。本文分析了该论文的失效模式——搜索诱导的干扰和复合错误——以及它们对于向 Beancount 账本回写数据的自主代理意味着什么。