跳到主要内容

Bean Labs Research Log

InvestorBench:金融交易决策中的大语言模型智能体基准测试

InvestorBench (ACL 2025) 在股票、加密货币和 ETF 交易的回测中,通过累计回报率和夏普比率(而非问答准确率)对 13 个大语言模型骨干进行了测试。Qwen2.5-72B 以 46.15% 的累计回报率荣登股票榜首;针对金融微调的模型在股票表现上反而不如预期。模型参数量比领域微调更能可靠地预测性能。

Latest articles

在等量思考 Token 预算下,单智能体大模型在多跳推理表现上优于多智能体系统

2026 年斯坦福大学的一篇预印本论文通过统一五种多智能体架构的思考 Token 预算发现,在多跳推理任务中,单智能体大模型表现与多智能体系统相当甚至更优。该研究基于数据处理不等式提供了理论依据,并探讨了其对金融 AI 智能体设计的启示。

Atlas:检索器-阅读器联合预训练以 11B 参数击败 540B 参数的超大模型

Atlas (JMLR 2023) 在仅有 64 个训练样本的情况下,在 Natural Questions 上实现了 42.4% 的准确率——以 11B 参数击败了拥有 540B 参数的 PaLM 模型 3 个百分点。该模型通过联合预训练基于 Contriever 的稠密检索器和基于 T5 的 Fusion-in-Decoder 阅读器实现。本文分析涵盖了检索准确率限制、587GB 索引基础设施成本,以及对 Beancount 账本问答系统的影响。

多智能体 LLM 辩论:真实的准确率提升、未受控的计算开销与集体幻觉

深入解读 Du 等人的 ICML 2024 多智能体辩论论文——该研究报告称算术准确率提升了 14.8 个百分点——同时参考了 2025 年的反驳研究(显示在同等预算下,单智能体表现与辩论持平),并分析了为何集体幻觉(占辩论失败案例的 65%)会对 AI 辅助的账本提交构成特定风险。