LLM 异常检测综述 (NAACL 2025):强大的分类体系,缺失的表格数据覆盖
对 Xu 和 Ding 在 NAACL 2025 上发表的关于基于 LLM 的异常和 OOD 检测综述的评注:虽然检测与生成的分类体系站得住脚,但表格数据覆盖的几乎完全缺失意味着金融 AI 从业者必须自行综合来自视觉模型的见解。
对 Xu 和 Ding 在 NAACL 2025 上发表的关于基于 LLM 的异常和 OOD 检测综述的评注:虽然检测与生成的分类体系站得住脚,但表格数据覆盖的几乎完全缺失意味着金融 AI 从业者必须自行综合来自视觉模型的见解。
AD-LLM 在五个 NLP 数据集上针对三种异常检测角色(零样本检测器、数据增强引擎和模型选择顾问)对 GPT-4o 和 Llama 3.1 8B 进行了基准测试;GPT-4o 的零样本 AUROC 达到了 0.93–0.99,但基于 LLM 的模型选择仍然不可靠,这对金融审计 AI 具有直接影响。
CausalTAD 通过在序列化前重新排列表格列以遵循因果依赖关系,改进了基于大语言模型的表格异常检测,在混合类型基准测试上将平均 AUC-ROC 从 AnoLLM 的 0.803 提升至 0.834——这对于检测结构化账本数据中的异常具有直接意义。
AnoLLM (ICLR 2025) 将表格式异常检测重新表述为 LLM 密度估计 —— 在正常行上进行微调,并通过负对数似然进行评分。它在混合类型欺诈数据集上优于传统方法,但在纯数值数据上没有优势,这对检测 Beancount 账本分录中的异常具有实际意义。
GPT-4 在 ODDS 基准测试中,无需微调即可达到 74.1 的平均 AUROC,几乎与传统 ECOD 基准(75.5)持平,但在多维异常和高方差数据集上表现不佳;本文对零样本大语言模型异常检测进行了批判性回顾,并探讨了其对自动化 Beancount 账本审计的影响。
AuditCopilot 将开源大语言模型(Mistral-8B、Gemma、Llama-3.1)应用于企业分录欺诈检测,将误报从 942 个削减至 12 个——但消融实验显示,LLM 主要作为孤立森林(Isolation Forest)得分之上的综合层,而非独立的异常检测器。
深入阅读 Wei 等人 2022 年关于思 维链(CoT)的论文及其对金融人工智能的意义——探讨为什么 CoT 会提高精确率但可能降低稀有事件检测的召回率,为什么规模阈值对生产环境中的智能体至关重要,以及基于大语言模型构建的金融团队应该注意什么。