<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/">
    <channel>
        <title>Beancount.io Blog</title>
        <link>https://beancount.io/ru/bean-labs/research-logs</link>
        <description>Beancount.io Blog</description>
        <lastBuildDate>Sun, 12 Jul 2026 00:00:00 GMT</lastBuildDate>
        <docs>https://validator.w3.org/feed/docs/rss2.html</docs>
        <generator>https://github.com/jpmonette/feed</generator>
        <language>ru</language>
        <item>
            <title><![CDATA[FinRAGBench-V: мультимодальный RAG с визуальными цитатами в финансовой сфере]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain</guid>
            <pubDate>Sun, 12 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[FinRAGBench-V (EMNLP 2025) — это первый масштабный бенчмарк для мультимодального RAG с визуальными цитатами в финансах, охватывающий более 112 тыс. страниц документов и 1394 размеченных вручную пар вопросов и ответов. Лучшие модели достигают лишь 20–61% полноты цитирования на уровне блоков, а мультимодальный поиск превосходит текстовый почти на 50 процентных пунктов.]]></description>
            <content:encoded><![CDATA[<p>В области ИИ для финансов долгое время доминировал исключительно текстовый RAG, однако реальные финансовые документы изобилуют графиками, таблицами и схемами, которые OCR не может зафиксировать полностью. FinRAGBench-V (EMNLP 2025) — это первый масштабный бенчмарк для оценки мультимодального RAG с визуальными цитатами в финансовой сфере, и его результаты служат отрезвляющим напоминанием о том, какой путь еще предстоит пройти промышленным системам.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="о-статье">О статье<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%D0%BE-%D1%81%D1%82%D0%B0%D1%82%D1%8C%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок О статье" title="Прямая ссылка на заголовок О статье" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinRAGBench-V%3A%20%D0%BC%D1%83%D0%BB%D1%8C%D1%82%D0%B8%D0%BC%D0%BE%D0%B4%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9%20RAG%20%D1%81%20%D0%B2%D0%B8%D0%B7%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%BC%D0%B8%20%D1%86%D0%B8%D1%82%D0%B0%D1%82%D0%B0%D0%BC%D0%B8%20%D0%B2%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%BE%D0%B9%20%D1%81%D1%84%D0%B5%D1%80%D0%B5" alt="2026-07-12-finragbench-v-multimodal-rag-visual-citation-financial-domain" class="img_ev3q"></p>
<p>Джао, Цзинь, Ли и Гао из Пекинского университета представляют FinRAGBench-V — двуязычный бенчмарк, составленный из реальных финансовых документов: аналитических отчетов, финансовой отчетности, проспектов эмиссии, академических статей, журналов и новостей. Корпус для поиска внушителен — 60 780 страниц на китайском и 51 219 страниц на английском языке (примерно по 1100 документов на язык) — и дополнен 1394 парами вопросов и ответов, размеченными вручную. Вопросы охватывают семь категорий: текстовый логический вывод, извлечение данных из графиков и таблиц, численные расчеты, запросы, чувствительные ко времени, и многостраничные рассуждения. Помимо самого набора данных, основным вкладом статьи является RGenCite — базовая система, которая генерирует ответы вместе с визуальными цитатами на уровне пикселей в виде координат ограничивающих рамок (bounding boxes), отмечающих конкретные области документа, подтверждающие каждое утверждение.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Мультимодальный поиск превосходит текстовый с огромным отрывом</strong>: ColQwen2, визуально-языковая поисковая модель на основе эмбеддингов изображений страниц, достигает Recall@10 в 90,13% (китайский) и 85,86% (английский). Лучшие текстовые поисковики, BM25 и BGE-M3, показывают максимум около 42,71%. Этот разрыв — не статистическая погрешность.</li>
<li class=""><strong>Точность генерации низка даже для передовых моделей</strong>: GPT-4o на английском языке достигает точности 43,41% (ROUGE 24,66); o4-mini на китайском — 58,13% (ROUGE 38,55). Это топовые проприетарные модели с качественно настроенным поиском.</li>
<li class=""><strong>Цитирование на уровне страниц работает, на уровне блоков — нет</strong>: полнота на уровне страниц составляет 75–93% у лучших моделей. Полнота на уровне блоков — определение конкретной ячейки таблицы или области графика, обосновывающей утверждение — падает до 20–61%. Это критический пробел для обеспечения проверяемости (auditability).</li>
<li class=""><strong>Численные рассуждения и многостраничный вывод первыми ломают модели</strong>: вопросы, требующие вычислений по нескольким страницам или временным интервалам, — это те области, где точность падает наиболее резко во всех протестированных системах.</li>
<li class=""><strong>Проприетарные модели существенно превосходят открытые аналоги</strong>: разрыв между закрытыми API и открытым ПО здесь больше, чем в большинстве бенчмарков NLP. Это говорит о том, что визуальные финансовые рассуждения пока остаются нерешенной задачей для открытых моделей.</li>
<li class=""><strong>Автоматическая оценка цитат несовершенна</strong>: оценщик цитирования на основе обрезки изображений достигает коэффициента корреляции Пирсона r = 0,68 в сравнении с человеческими суждениями — это приемлемо, но недостаточно надежно, чтобы доверять результатам без выборочной проверки.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что--нет">Что подтверждается, а что — нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE--%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что — нет" title="Прямая ссылка на заголовок Что подтверждается, а что — нет" translate="no">​</a></h2>
<p>Вывод о преимуществе поиска — самый убедительный результат статьи. Разрыв почти в 50 процентных пунктов между мультимодальными и текстовыми поисковиками на корпусе из 60 тыс.+ страниц слишком велик, чтобы его игнорировать. Когда вы применяете OCR к финансовому документу перед индексацией, вы разрушаете сигналы структурной разметки — в какой колонке находится число, относится ли подпись к интерпретации таблицы. Как выяснилось, это имеет колоссальное значение для качества поиска.</p>
<p>Показатели генерации честны, но их трудно интерпретировать изолированно. Авторы не проводят абляционный анализ того, какая часть разрыва в точности обусловлена ошибками поиска, а какая — сбоями генерации. Учитывая, что Recall@10 для английского языка уже составляет 85,86%, значительная часть неудач должна приходиться на этап генерации. Понимание этой разбивки прояснило бы, является ли узким местом мультимодальное рассуждение или нечто более фундаментальное в том, как MLLM работают с финансовым языком.</p>
<p>Оценочный набор из 1394 пар вопрос-ответ невелик для масштабов бенчмарка. При разделении на семь категорий и два языка на некоторые сегменты приходится менее 200 примеров. Статистическая значимость выводов на уровне категорий остается неявной. Это типично для статей по бенчмаркам, но означает, что при желании можно легко сконструировать предвзятые сравнения.</p>
<p>Протокол оценки цитирования — интересный вклад, но коэффициент Пирсона r = 0,68 не позволяет рассматривать автооценку как истину в последней инстанции для обоснования на уровне блоков. Авторы признают это; необходимость разработки более совершенных метрик цитирования прямо обозначена в планах на будущее.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-финансового-ии">Почему это важно для финансового ИИ<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%BE%D0%B3%D0%BE-%D0%B8%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для финансового ИИ" title="Прямая ссылка на заголовок Почему это важно для финансового ИИ" translate="no">​</a></h2>
<p>Beancount работает с текстовыми файлами журналов, что делает текстовый RAG оправданным для запросов по прошлым транзакциям. Но более широкая задача учета включает документы, которые определенно не являются простым текстом: PDF-выписки из банков, отсканированные инвойсы, изображения чеков, годовые отчеты со встроенными таблицами и графиками. В тот момент, когда агенту Beancount нужно сверить запись в журнале с первоисточником — убедиться, что конкретное начисление соответствует счету в архиве, — он выполняет именно ту задачу, которую тестирует FinRAGBench-V.</p>
<p>Для этого сценария использования важнее всего вывод о цитировании на уровне блоков. Если агент должен обосновать запись в журнале, указав на конкретную позицию в PDF-файле, а лучшая доступная система достигает лишь 20–61% полноты на уровне блоков, это не подходит для полноценного аудита. Любой конвейер Beancount, работающий со сканами документов, требует участия человека до тех пор, пока этот показатель существенно не улучшится.</p>
<p>Разрыв в модальности поиска также является сильным аргументом против чисто текстовых конвейеров обработки документов. Изображение чека несет информацию о разметке — поля сумм, названия поставщиков, позиции товаров, — которую OCR уничтожает. Именно эта структурная информация позволяет отличить итоговую сумму от суммы налога, и FinRAGBench-V показывает, что мультимодальные поисковики используют её так, как текстовые не могут.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-почитать-дальше">Что почитать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что почитать дальше" title="Прямая ссылка на заголовок Что почитать дальше" translate="no">​</a></h2>
<ul>
<li class=""><strong>ColPali: Efficient Document Retrieval with Vision Language Models</strong> — предшественник ColQwen2, заложивший подход к эмбеддингам визуальных страниц, на котором построен лучший поисковик FinRAGBench-V [arXiv:2407.01449, ECCV 2024]</li>
<li class=""><strong>M3DocRAG: Multi-modal Retrieval is What You Need for Multi-page Multi-document Understanding</strong> — решает задачи визуального QA по нескольким документам с помощью гибкой структуры, поддерживающей простые и сложные визуальные рассуждения на разных страницах [arXiv:2411.04952]</li>
<li class=""><strong>Benchmarking Temporal-Aware Multi-Modal RAG in Finance</strong> — сопутствующий бенчмарк 2025 года, оценивающий чувствительность к времени в финансовом мультимодальном RAG, который напрямую дополняет категорию вопросов о времени в FinRAGBench-V [arXiv:2503.05185]</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Finance</category>
            <category>Financial Reporting</category>
            <category>Data Science</category>
            <category>Reconciliation</category>
            <category>Beancount</category>
        </item>
        <item>
            <title><![CDATA[Могут ли LLM-агенты быть финансовыми директорами? 132-месячная симуляция EnterpriseArena выявляет огромный разрыв]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark</guid>
            <pubDate>Sat, 11 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[EnterpriseArena проводит 11 LLM через 132-месячную симуляцию финансового директора, отслеживая выживаемость, итоговую оценку и частоту закрытия отчетности. Только Qwen3.5-9B выживает в 80% запусков; показатели GPT-5.4 и DeepSeek-V3.1 составили 0%. Эксперты-люди достигают 100% выживаемости при итоговой стоимости в 5 раз выше. Критическое узкое место — LLM пропускают сверку реестров в 80% случаев, действуя на основе устаревшего финансового состояния.]]></description>
            <content:encoded><![CDATA[<p>Самый амбициозный вопрос в области финансового ИИ сейчас — не «может ли LLM ответить на вопрос о балансовом отчете?», а «может ли LLM управлять деньгами компании в течение длительного времени, не обнулив счет?». Работа И Ханя и др. <em>Can LLM Agents Be CFOs?</em> (arXiv:2603.23638) представляет EnterpriseArena для проверки именно этого сценария, и ответ таков: едва ли, и не так, как вы могли бы ожидать.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="о-статье">О статье<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%D0%BE-%D1%81%D1%82%D0%B0%D1%82%D1%8C%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок О статье" title="Прямая ссылка на заголовок О статье" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D0%9C%D0%BE%D0%B3%D1%83%D1%82%20%D0%BB%D0%B8%20LLM-%D0%B0%D0%B3%D0%B5%D0%BD%D1%82%D1%8B%20%D0%B1%D1%8B%D1%82%D1%8C%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D1%8B%D0%BC%D0%B8%20%D0%B4%D0%B8%D1%80%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%B0%D0%BC%D0%B8%3F%20132-%D0%BC%D0%B5%D1%81%D1%8F%D1%87%D0%BD%D0%B0%D1%8F%20%D1%81%D0%B8%D0%BC%D1%83%D0%BB%D1%8F%D1%86%D0%B8%D1%8F%20EnterpriseArena%20%D0%B2%D1%8B%D1%8F%D0%B2%D0%BB%D1%8F%D0%B5%D1%82%20%D0%BE%D0%B3%D1%80%D0%BE%D0%BC%D0%BD%D1%8B%D0%B9%20%D1%80%D0%B0%D0%B7%D1%80%D1%8B%D0%B2" alt="2026-07-11-могут-ли-llm-агенты-быть-финансовыми-директорами-enterprisearena-бенчмарк-распределения-ресурсов" class="img_ev3q"></p>
<p>EnterpriseArena — это 132-месячная (11-летняя) симуляция распределения ресурсов на уровне финансового директора (CFO). Каждый шаг представляет один месяц. Агент получает частичные данные о финансовых показателях фирмы, анонимизированные бизнес-документы и макроэкономические сигналы, полученные из данных FRED, CBOE и S&amp;P Global. У него есть бюджет в 20 вызовов инструментов в месяц, распределенных по четырем операциям: проверка остатка денежных средств, обзор финансовых записей, анализ рыночных условий и прогнозирование денежных потоков. Агент должен выбрать одно из трех действий: закрыть книги (сверка), запросить финансирование (акционерный капитал или долг со случайным результатом) или пропустить ход. Основное ограничение заключается в том, что остаток денежных средств компании должен оставаться положительным на каждом этапе; нарушение этого правила завершает эпизод с нулевым результатом. При условии выживания агент максимизирует итоговую оценку предприятия по формуле Rev_T × 5 + Cash_T − 5 000 × N_tools, которая явно штрафует за избыточное использование инструментов.</p>
<p>Было оценено одиннадцать LLM, включая Gemini-3.1-Pro, Claude-Haiku-4.5, GPT-5.4, DeepSeek-V3.1, Llama-3.3-70B, Qwen3.5-397B и Qwen3.5-9B, наряду с базовым уровнем эксперта-человека, подтвержденным двумя профессионалами в области финансов с опытом работы 8 и 14 лет соответственно.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Показатели выживаемости сильно различаются между моделями</strong>: Qwen3.5-9B выживает в 80% случаев, Gemini-3.1-Pro — в 50%, Claude-Haiku-4.5 и GLM-5 — по 20% каждый, а GPT-5.4, DeepSeek-V3.1, Llama-3.3-70B, Mistral-Small-24B и Mixtral-8x7B — 0%. Средний показатель для LLM составляет 26%.</li>
<li class=""><strong>Более крупные модели не всегда превосходят меньшие</strong>: Qwen3.5-9B (9 млрд параметров, 80% выживаемости, конечная оценка $78,8 млн) решительно побеждает Qwen3.5-397B (397 млрд параметров, 20% выживаемости) и GPT-5.4 (0% выживаемости).</li>
<li class=""><strong>Разрыв с людьми огромен</strong>: базовый уровень человека достигает 100% выживаемости и конечной стоимости в $152,2 млн ± $29,6 млн; средний показатель LLM составляет $28,2 млн при 26% выживаемости.</li>
<li class=""><strong>Закрытие книг — критическое узкое место</strong>: эксперты-люди закрывают книги (проводят сверку) на 94,3% временных этапов; LLM в среднем делают это в 19,3% случаев. Именно это действие формирует достоверную финансовую отчетность и позволяет принимать рациональные последующие решения.</li>
<li class=""><strong>Сбор информации без действий смертелен</strong>: Qwen3.5-397B активно использует инструменты анализа рынка и прогнозирования на протяжении всей симуляции, но почти никогда не закрывает книги (частота 0,0%) и почти никогда не запрашивает финансирование, погибая от истощения денежных средств, несмотря на «знание» происходящего.</li>
<li class=""><strong>Штраф за бюджет инструментов имеет значение</strong>: формула оценки активно наказывает агентов, которые компульсивно проверяют данные вместо того, чтобы действовать — ограничение, отражающее реальные альтернативные издержки.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-выдерживает-критику-а-что-нет">Что выдерживает критику, а что нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%D1%87%D1%82%D0%BE-%D0%B2%D1%8B%D0%B4%D0%B5%D1%80%D0%B6%D0%B8%D0%B2%D0%B0%D0%B5%D1%82-%D0%BA%D1%80%D0%B8%D1%82%D0%B8%D0%BA%D1%83-%D0%B0-%D1%87%D1%82%D0%BE-%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что выдерживает критику, а что нет" title="Прямая ссылка на заголовок Что выдерживает крит�ику, а что нет" translate="no">​</a></h2>
<p>Дизайн с двойной целью — выживание как жесткое ограничение плюс итоговая оценка — является одним из самых сильных решений в последних бенчмарках агентов. Это отражает то, как на самом деле работают финансовые директора: вы не можете оптимизировать рост, если у вас закончились деньги. Анонимизация календарных дат и названий компаний не позволяет моделям подбирать шаблоны на основе заученных исторических результатов, что является подлинным методологическим улучшением по сравнению с финансовыми бенчмарками, использующими реальные тикеры и даты.</p>
<p>Таксономия режимов отказа, которую авторы идентифицируют с помощью тематических исследований, заслуживает доверия: GPT-5.4 достигает 99,1% процента пропусков (что означает бездействие почти на каждом этапе), в то время как Qwen3.5-397B ошибочно принимает анализ за действие. Это поведенчески различные режимы отказа, требующие разных методов исправления.</p>
<p>В чем я менее уверен: стохастическая макросреда использует гауссов шум для аппроксимации рыночных шоков, что, как признают сами авторы, не может воспроизвести события типа «черный лебедь» или иррациональность людей. Бюджет в 20 вызовов инструментов в месяц также выглядит несколько произвольным — реальные финансовые директора не сталкиваются с подобным ограничением частоты запросов к собственной памяти, что ставит вопрос о том, измеряет ли бенчмарк долгосрочное финансовое суждение или нечто более близкое к «RAG в условиях нехватки ресурсов». Структура с одним агентом — еще одно явное ограничение, названное авторами: реальные CFO работают в иерархии контролеров, аналитиков FP&amp;A и казначейских групп, и в статье не делается попыток симулировать это.</p>
<p>Вывод о том, что размер модели не предсказывает выживаемость, поразителен и, вероятно, достоверен, но механизм объяснен недостаточно хорошо. Авторы отмечают это, не раскрывая полностью, является ли это неудачей в следовании инструкциям, когерентности длинного контекста или калибровке рисков.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-финансового-ии">Почему это важно для финансового ИИ<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%BE%D0%B3%D0%BE-%D0%B8%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для финансового ИИ" title="Прямая ссылка на заголовок Почему это важно для финансового ИИ" translate="no">​</a></h2>
<p>Действие по закрытию книг в EnterpriseArena — это, по сути, утверждение <code>balance</code> в Beancount и этап сверки реестров: момент, когда агент фиксирует достоверное представление о финансовом состоянии перед действием. Тот факт, что LLM пропускают это в 80% случаев, напрямую связан с проблемой безопасности обратной записи: агент, избегающий сверки перед действием, — это агент, действующий на основе устаревшего или галлюцинированного состояния. Для автоматизации Beancount это означает, что этап сверки должен быть обязательным и проверяемым — а не опциональным — в любом цикле работы агента.</p>
<p>132-месячный горизонт также напрямую аналогичен многолетнему управлению реестрами. Тот факт, что устойчивая ситуационная осведомленность со временем деградирует, — это та же деградация, которую мы ожидаем от агента Beancount, управляющего пятилетней историей транзакций: даже если у агента есть все данные в контексте, он может не действовать согласованно на 60-м месяце. Это говорит о том, что периодические принудительные контрольные точки сверки — а не просто реактивные запросы — необходимы в долгоживущих сессиях агентов Beancount.</p>
<p>Ловушка сбора информации, в которую попадает Qwen3.5-397B, является полезным предупреждением для проектировщиков: агенты, оснащенные множеством инструментов поиска, могут предпочитать поиск принятию обязательств, особенно когда цена неверного действия (повреждение реестра) высока. Ограничения бюджета инструментов, подобные тем, что используются в EnterpriseArena, могут помочь обеспечить дисциплину действий в агентах обратной записи Beancount.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-почитать-дальше">Что почитать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%D1%87%D1%82%D0%BE-%EF%BF%BD%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что почитать дальше" title="Прямая ссылка на заголовок Что почитать дальше" translate="no">​</a></h2>
<ul>
<li class=""><strong>EcoGym</strong> (arXiv:2602.09514) — дополнительный долгосрочный экономический бенчмарк в средах Vending, Freelance и Operation на протяжении 1000+ шагов; ни одна модель не доминирует во всех трех, что позволяет предположить, что режимы отказа в EnterpriseArena не являются специфичными для одной конструкции бенчмарка.</li>
<li class=""><strong>AFlow: Automating Agentic Workflow Generation</strong> (arXiv:2410.10762, доклады ICLR 2025) — переосмысливает проектирование рабочих процессов как поиск в пространстве кода с использованием MCTS и обратной связи от LLM; если EnterpriseArena показывает, что созданное вручную поведение агентов терпит неудачу, AFlow — очевидный следующий шаг для автоматического поиска лучших конвейеров.</li>
<li class=""><strong>ToolLLM: Facilitating Large Language Models to Master 16,000+ Real-world APIs</strong> (arXiv:2307.16789, ICLR 2024) — основополагающая база для обучения и оценки использования инструментов; понимание того, как обучается поведение вызова инструментов в ToolLLM, проясняет, является ли отказ от действий в EnterpriseArena проблемой обучения или проблемой промптинга.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Reconciliation</category>
            <category>Beancount</category>
            <category>Cash Flow</category>
            <category>Financial Management</category>
            <category>Forecasting</category>
        </item>
        <item>
            <title><![CDATA[WildToolBench: Почему ни одна LLM не превышает 15% точности сессии в реальных сценариях использования инструментов]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild</guid>
            <pubDate>Fri, 10 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[WildToolBench (ICLR 2026) оценивает 57 LLM на 1024 задачах, основанных на реальном поведении пользователей — ни одна модель не превышает 15% точности сессии, при этом композиционная оркестрация, скрытые намерения и переходы между инструкциями являются тремя наиболее критичными режимами отказа.]]></description>
            <content:encoded><![CDATA[<p>Бенчмарки для оценки использования инструментов, за которыми я слежу — BFCL, ToolBench, τ-bench — объединяет один общий недостаток: задачи в них строятся на основе воображения авторов о том, что делают пользователи. WildToolBench, принятый на ICLR 2026, обращается к логам реальных пользователей и исследует, что они делают <em>на самом деле</em>. Ответ отрезвляет: из 57 протестированных LLM ни одна не превысила 15% точности сессии.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="исследование">Исследование<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%D0%B8%D1%81%D1%81%D0%BB%D0%B5%D0%B4%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Исследование" title="Прямая ссылка на заголовок Исследование" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=WildToolBench%3A%20%D0%9F%D0%BE%D1%87%D0%B5%D0%BC%D1%83%20%D0%BD%D0%B8%20%D0%BE%D0%B4%D0%BD%D0%B0%20LLM%20%D0%BD%D0%B5%20%D0%BF%D1%80%D0%B5%D0%B2%D1%8B%D1%88%D0%B0%D0%B5%D1%82%2015%25%20%D1%82%D0%BE%D1%87%D0%BD%D0%BE%D1%81%D1%82%D0%B8%20%D1%81%D0%B5%D1%81%D1%81%D0%B8%D0%B8%20%D0%B2%20%D1%80%D0%B5%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D1%85%20%D1%81%D1%86%D0%B5%D0%BD%D0%B0%D1%80%D0%B8%D1%8F%D1%85%20%D0%B8%D1%81%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F%20%D0%B8%D0%BD%D1%81%D1%82%D1%80%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D0%BE%D0%B2" alt="2026-07-10-wildtoolbench-benchmarking-llm-tool-use-in-the-wild" class="img_ev3q"></p>
<p>Пейцзе Юй, Вэй Лю, Ифань Ян и их коллеги из Alibaba представляют WildToolBench (arXiv:2604.06185) — бенчмарк, состоящий из 256 сценариев многоходовых диалогов с 1024 задачами, взятыми из подлинных паттернов поведения пользователей и основанными на ~1600 публичных API. Основной аргумент авторов заключается в том, что существующие бенчмарки близки к насыщению не из-за совершенства моделей, а из-за искусственности задач. Реальные пользователи объединяют запросы, опускают контекст, которым они делились два шага назад, и переключаются между вопросом к инструменту, светской беседой и просьбой о пояснении — иногда в рамках одного сообщения. WildToolBench формализует эти режимы отказа в три структурированные категории проблем и измеряет как точность на уровне задач, так и гораздо более строгую точность на уровне сессии, которая требует успешного выполнения всех четырех задач в диалоге.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Точность сессии падает до однозначных чисел для большинства моделей</strong>: Gemini-2.0-Flash-Thinking лидирует с точностью сессии 14,45%, Claude-4-Sonnet — 12,50%, GPT-4o — 11,72%. Успешное выполнение всех задач в четырехходовой сессии настолько сложно, что даже 60% точности на уровне отдельных задач превращаются в менее чем 15% точности сессии — своего рода «налог» совокупной вероятности на каждое взаимодействие.</li>
<li class=""><strong>Композиционная оркестрация — самый сложный барьер</strong>: Смешанные последовательно-параллельные топологии инструментов ограничивают топовые модели точностью в 25% на задачу, по сравнению с 54–62% для чисто параллельных или последовательных цепочек. Когда задача требует параллельного разветвления с последующим последовательным слиянием, проблема координации превышает возможности любой современной модели.</li>
<li class=""><strong>Скрытые намерения — более значительный разрыв, чем измерялось ранее</strong>: WildToolBench гарантирует, что 100% задач включают неявную или межходовую информацию; в BFCL v3 таких задач лишь 15,7%. Задачи с долгосрочными зависимостями — где недостающая информация находится более чем в двух ходах назад — являются самым сложным подтипом, где ни одна модель не преодолевает порог в 50% даже на уровне отдельных задач.</li>
<li class=""><strong>Переходы между инструкциями накапливают ошибки линейно</strong>: Каждое дополнительное переключение политики (задача для инструмента → чат → уточнение → задача для инструмента) снижает точность примерно на 5–15 процентных пунктов. При трех переходах наиболее пострадавшие модели теряют 30 пунктов. Авторы называют это «самообуславливанием» (self-conditioning): предыдущие ответы смещают интерпретацию последующих инструкций моделью таким образом, который трудно исправить в середине сессии.</li>
<li class=""><strong>Доля оптимальных путей остается ниже 43%</strong>: Даже когда модели выполняют задачи правильно, они тратят избыточное количество вызовов API. Claude-4-Sonnet достигает лучшего показателя доли оптимальных путей (Optimal Path Rate) — 42,74%, что означает, что большинство успешных выполнений требуют больше шагов, чем необходимо. Это прямые затраты на задержку (latency) и токены для любой промышленной системы.</li>
<li class=""><strong>Специализированные модели для работы с инструментами уступают общим флагманским моделям</strong>: xLAM-2-70B и ToolACE2-8B демонстрируют частоту ошибок из-за неверных имен функций выше 30%, что хуже показателей GPT-4o или Claude-4-Sonnet. Тонкая настройка на узких корпусах использования инструментов, похоже, создает хрупкость, а не устойчивость при столкновении с реальным пользовательским поведением.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что-нет">Что подтверждается, а что нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE-%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что нет" title="Прямая ссылка на заголовок Что подтверждается, а что нет" translate="no">​</a></h2>
<p>Дизайн бенчмарка силен там, где это важнее всего. Разграничение между точностью задач и точностью сессии абсолютно верно: именно накопление ошибок губит реальные внедрения, а большинство предыдущих работ сообщают цифры на уровне задач, которые маскируют эту проблему. Таксономия трех проблем (композиционная оркестрация, скрытые намерения, переходы между инструкциями) хорошо обоснована и подтверждена эмпирически — кривые деградации производительности по типам проблем выглядят реально и впечатляюще.</p>
<p>Слабое место — масштаб. 1024 задачи из 256 сценариев — это достойный исследовательский артефакт, но маловато для лидерборда, призванного отслеживать 57 моделей во времени. Авторы признают это и упоминают автоматизированный конвейер масштабирования в будущих работах. Другая проблема заключается в том, что формулировка «основано на реальных логах» подразумевает много допущений: финальные задачи частично синтетические, сконструированы мультиагентной системой на основе исходных паттернов, а затем проверены людьми. Утверждение обосновано, но данные не являются «дикими» в буквальном смысле — они вдохновлены ими. Это важно для того, насколько буквально стоит воспринимать потолок в 15%; часть разрыва может сократиться, если конвейер генерации вносит искусственную сложность, которую реальные пользователи на самом деле не проявляют.</p>
<p>Я также скептически отношусь к анализу переходов между инструкциями как к архитектурному утверждению. Статья приписывает это фундаментальному ограничению, но несоответствие распределения обучающих данных между целями RLHF и мультимодальными пользовательскими сессиями кажется более простым объяснением. Это устранимая проблема, а не структурная.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-финансового-ии">Почему это важно для финансового ИИ<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%BE%D0%B3%D0%BE-%D0%B8%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для финансового ИИ" title="Прямая ссылка на заголовок Почему это важно для финансового ИИ" translate="no">​</a></h2>
<p>Три режима отказа почти идеально накладываются на то, как реальные пользователи взаимодействуют с агентом обратной записи Beancount. Пользователь спрашивает: «сколько я потратил на продукты в прошлом месяце, и заодно добавь сегодняшний чек из Whole Foods» — это композиционная задача, объединенная в один ход. Затем следует: «на самом деле там 47,23 доллара, а не 42, я проверил» — это корректировка параметров, требующая от агента отслеживания состояния сессии. Затем они спрашивают: «эта категория верна?» — это запрос на уточнение, и агент не должен повторно выполнять операцию записи, которую он только что завершил. Ограничение в 25% на смешанную оркестрацию и падение на 30 пунктов из-за переходов между инструкциями — это именно те режимы отказа, которые проявятся у бухгалтерского агента, обрабатывающего реальные пользовательские сессии.</p>
<p>Вывод о том, что специализированные модели уступают флагманским, особенно актуален. Если мы рассматриваем возможность тонкой настройки небольшой открытой модели на примерах вызова инструментов Beancount — очевидный ход для снижения затрат — WildToolBench служит прямым предупреждением: специализация может принести в жертву устойчивость к распределению реального пользовательского поведения. Показатель доли оптимальных путей также важен: агент, который использует в два раза больше вызовов API для выполнения задачи, не просто неэффективен; для операций записи в учетную книгу избыточные промежуточные вызовы могут оставить ее в несогласованном состоянии.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-почитать-дальше">Что почитать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что почитать дальше" title="Прямая ссылка на заголовок Что почитать дальше" translate="no">​</a></h2>
<ul>
<li class=""><strong>ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world APIs</strong> (arXiv:2307.16789, ICLR 2024) — основополагающая структура обучения, которой WildToolBench открыто противопоставляет себя; понимание её синтетического дизайна оценки проясняет, что именно добавляет исполнение в реальном времени.</li>
<li class=""><strong>τ-bench: A Benchmark for Tool-Agent-User Interaction in Real-World Domains</strong> (arXiv:2406.12045) — наиболее близкая предыдущая работа по реалистичному многоходовому использованию инструментов; сравнение доменов розничной торговли и авиаперевозок τ-bench с охватом публичных API в WildToolBench показывает широту обобщения проблемы.</li>
<li class=""><strong>AFlow: Automating Agentic Workflow Generation</strong> (arXiv:2410.10762, ICLR 2025 oral) — если проблема переходов между инструкциями решаема путем автоматического поиска лучших рабочих процессов агентов, а не масштабирования обучающих данных, то AFlow является наиболее перспективным механизмом для этого.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Machine Learning</category>
            <category>Beancount</category>
            <category>Data Science</category>
            <category>Technology</category>
        </item>
        <item>
            <title><![CDATA[Уверенность и калибровка LLM: обзор того, что на самом деле показывают исследования]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey</guid>
            <pubDate>Thu, 09 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[Систематический обзор методов оценки и калибровки уверенности LLM — подходов «белого ящика» на основе логитов, SelfCheckGPT на основе согласованности и семантической энтропии — показывает, что показатели вербализованной уверенности GPT-4 достигают лишь ~62,7% AUROC, что едва превышает случайность. Это имеет прямые последствия для развертывания агентов, учитывающих неопределенность, в сфере финансов и бухгалтерского учета.]]></description>
            <content:encoded><![CDATA[<p>На прошлой неделе я рассказывал о ReDAct, который перенаправляет решения агента на дорогую резервную модель, когда неопределенность дешевой модели превышает откалиброванный порог. В той статье много общих слов о «неопределенности» — стоит сделать паузу, чтобы понять, что науке на самом деле известно об ее измерении и калибровке. Работа Генга и соавторов «A Survey of Confidence Estimation and Calibration in Large Language Models» (NAACL 2024) — лучшее место для начала: систематическая таксономия того, что работает, что нет и что еще никто не измерял.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="о-статье">О статье<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%D0%BE-%D1%81%D1%82%D0%B0%D1%82%D1%8C%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок О статье" title="Прямая ссылка на заголовок О статье" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D0%A3%D0%B2%D0%B5%D1%80%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D1%8C%20%D0%B8%20%D0%BA%D0%B0%D0%BB%D0%B8%D0%B1%D1%80%D0%BE%D0%B2%D0%BA%D0%B0%20LLM%3A%20%D0%BE%D0%B1%D0%B7%D0%BE%D1%80%20%D1%82%D0%BE%D0%B3%D0%BE%2C%20%D1%87%D1%82%D0%BE%20%D0%BD%D0%B0%20%D1%81%D0%B0%D0%BC%D0%BE%D0%BC%20%D0%B4%D0%B5%D0%BB%D0%B5%20%D0%BF%D0%BE%D0%BA%D0%B0%D0%B7%D1%8B%D0%B2%D0%B0%D1%8E%D1%82%20%D0%B8%D1%81%D1%81%D0%BB%D0%B5%D0%B4%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F" alt="2026-07-09-confidence-estimation-calibration-llms-survey" class="img_ev3q"></p>
<p>Генг, Цай, Ван, Кёппль, Наков и Гуревич исследуют новую литературу по оценке и калибровке уверенности LLM в задачах от тестов с вариантами ответов до генерации открытых текстов и машинного перевода. Основная проблема: LLM могут быть как высокоточными, так и совершенно ненадежными способами, которые трудно отличить извне. Обзор организует пространство решений в две основные ветви: методы «белого ящика», использующие доступ к внутренним состояниям модели, и методы «черного ящика», рассматривающие модель как непрозрачную. Внутри каждой ветви дополнительно различают оценку уверенности и ее апостериорную калибровку.</p>
<p>Статья была опубликована на NAACL 2024 (страницы 6577–6595), пересмотрена в марте 2024 года на основе версии от ноября 2023 года командой из ТУ Дармштадта, MBZUAI и Университета ИИ имени Мухаммеда бен Заида.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголово�к Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class="">
<p><strong>Уверенность «белого ящика» через логиты</strong>: Самый простой подход использует вероятности на уровне токенов или логарифмическое правдоподобие, нормализованное по длине, в качестве сигнала уверенности. Эти методы работают, но сталкиваются с фундаментальной двусмысленностью: низкая вероятность токена может отражать либо низкую уверенность в фактах, либо просто необычную формулировку — модель может сомневаться в выборе слов, будучи уверенной в лежащем в основе факте.</p>
</li>
<li class="">
<p><strong>Уверенность «черного ящика» на основе согласованности (SelfCheckGPT)</strong>: Манакул и соавторы (EMNLP 2023) берут несколько выборок ответов и оценивают их взаимную согласованность с помощью BERTScore, NLI или перекрытия n-грамм. Доступ к логитам не требуется. Ключевой вывод: для фактов, которые LLM знает хорошо, повторяющиеся выборки сходятся; для галлюцинированных фактов они расходятся.</p>
</li>
<li class="">
<p><strong>Семантическая энтропия</strong>: Фаркуар и соавторы (<em>Nature</em>, 2024) группируют семантически эквивалентные ответы перед вычислением энтропии. LLM может сформулировать «Париж» и «столица Франции» по-разному — обычная энтропия токенов сочтет их расходящимися, семантическая энтропия — нет. Это качественный шаг вперед по сравнению с согласованностью на уровне токенов, который обзор помещает в контекст.</p>
</li>
<li class="">
<p><strong>Вербализованная уверенность не работает</strong>: Когда модель просят выдать процент уверенности, она впадает в самоуверенность. Эмпирическая работа (Грут и соавторы, TrustNLP на ACL 2024) показывает, что у GPT-3, GPT-3.5 и Vicuna средняя ожидаемая ошибка калибровки (ECE) превышает 0,377 для вербализованной уверенности, при этом прогнозы группируются в диапазоне 90–100% независимо от реальной точности. Даже GPT-4 — наиболее калиброванная из оцененных моделей — достигает AUROC лишь около 62,7% при использовании вербализованной уверенности для различения правильных и неправильных ответов, что едва выше случайного угадывания.</p>
</li>
<li class="">
<p><strong>Методы калибровки зависят от задачи</strong>: Для классификации контекстная калибровка (вычитание априорного смещения классов, оцененного с помощью пустого промпта «[N/A]») и устранение позиционного смещения (PriDE) решают проблему известных систематических искажений. Для генерации калибровка правдоподобия последовательности (SLiC) дообучает модели на ранжированных ответах. Температурное масштабирование — самое простое апостериорное решение — остается конкурентоспособным во многих сценариях.</p>
</li>
<li class="">
<p><strong>Единого бенчмарка не существует</strong>: Самое критическое структурное наблюдение обзора: нет ни одного бенчмарка, охватывающего методы оценки уверенности во всех задачах и доменах. Это делает практически невозможным строгое сравнение методов. Область сравнивает теплое с мягким.</p>
</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что-нет">Что подтверждается, а что нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE-%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что нет" title="Прямая ссылка на заголовок Что подтверждается, а что нет" translate="no">​</a></h2>
<p>Таксономия прочна. Различие между «белым ящиком» и «черным ящиком» действительно полезно для проектирования систем, а разбор методов на основе логитов честен в отношении их ограничений — авторы прямо отмечают, что вероятность токена смешивает фактическую уверенность с лексической неопределенностью. Практики часто недооценивают это смешение.</p>
<p>Что в обзоре разочаровывает: он носит в основном описательный характер. Почти нет экспериментальных бенчмарков, сравнивающих методы лицом к лицу, и авторы прямо признают это как ограничение. После прочтения остается четкая карта проектных решений, но нет руководства, какой метод использовать для новой задачи.</p>
<p>Результаты по вербализованной уверенности — AUROC GPT-4 ~62,7% для собственной заявленной уверенности — должны быть базовым знанием для любого, кто внедряет LLM в эксплуатацию. Но это не так. Люди все еще выпускают промпты в духе «оцени свою уверенность по шкале от 1 до 10» и относятся к ответу как к значимому. Это не так.</p>
<p>В обзоре также мало внимания уделено вопросу калибровки через RLHF: делает ли дообучение на отзывах людей модели более или менее калиброванными? Есть свидетельства в обе стороны, и обзор во многом обходит эту тему.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-финансового-ии">Почему это важно для финансового ИИ<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%BE%D0%B3%D0%BE-%D0%B8%D0%B8" class="hash-link" aria-label="Прямая ссылка на за�головок Почему это важно для финансового ИИ" title="Прямая ссылка на заголовок Почему это важно для финансового ИИ" translate="no">​</a></h2>
<p>ReDAct строит свою систему безопасности на наличии калиброванного сигнала неопределенности от дешевой модели. Обзор ясно дает понять, насколько это сложно на самом деле. Сигналы на основе логитов доступны в условиях «белого ящика», но смешивают лексическую и фактическую неопределенность. Методы на основе согласованности работают в «черном ящике», но требуют нескольких выборок на одно решение — это дорого для высокопроизводительного агента обратной записи Beancount, обрабатывающего пакет записей транзакций.</p>
<p>Самый полезный вывод для Bean Labs: семантическая энтропия группирует семантически эквивалентные ответы перед оценкой согласованности, что критически важно для записей в реестре, где модель может выразить одни и те же дебетово-кредитные отношения в нескольких синтаксически различных формах. Агент Beancount должен использовать семантическую кластеризацию по выборкам завершенных записей — а не простое отклонение токенов — чтобы обнаружить галлюцинацию в названии счета или сумме.</p>
<p>Провал калибровки вербализованной уверенности — это прямое предупреждение для любого интерфейса, показывающего пользователю «насколько уверен ИИ?»: не доверяйте числу, которое выдает модель. Используйте внешний калибратор или методы на основе согласованности, либо не показывайте это число вовсе.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-читать-дальше">Что читать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%D1%87%D1%82%D0%BE-%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что читать дальше" title="Прямая ссылка на заголовок Что читать дальше" translate="no">​</a></h2>
<ul>
<li class="">Farquhar et al., «Detecting hallucinations in large language models using semantic entropy», <em>Nature</em>, 2024 — самый строгий метод, вытекающий из структуры этого обзора; стоит прочитать полностью, а не в кратком изложении.</li>
<li class="">Manakul et al., «SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models», EMNLP 2023 (arXiv:2303.08896) — канонический метод на основе согласованности; обязателен к изучению перед внедрением любого сигнала уверенности для «черного ящика».</li>
<li class="">Groot et al., «Overconfidence is Key: Verbalized Uncertainty Evaluation in Large Language and Vision-Language Models», TrustNLP at ACL 2024 (arXiv:2405.02917) — самый тщательный эмпирический аудит того, как вербализованная уверенность дает сбои в различных моделях и задачах.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Trust</category>
            <category>Finance</category>
            <category>Data Science</category>
            <category>Hallucination Detection</category>
        </item>
        <item>
            <title><![CDATA[JSONSchemaBench: Сложность реальных схем нарушает гарантии структурированного вывода LLM]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models</guid>
            <pubDate>Wed, 08 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[JSONSchemaBench тестирует 9 558 реальных схем JSON на шести фреймворках ограниченного декодирования и обнаруживает, что сложность схем приводит к падению покрытия с 86% на простых схемах до 3% на сложных, при этом XGrammar незаметно выдает 38 некорректных ответов, и ни один фреймворк не охватывает все 45 категорий функций JSON Schema.]]></description>
            <content:encoded><![CDATA[<p>Большинство команд рассматривают ограниченное декодирование как решенную проблему: добавьте JSON-схему и получите валидный JSON. JSONSchemaBench (arXiv:2501.10868) — это первая систематическая попытка проверить это предположение на 9 558 реальных схемах, и результаты оказались менее обнадеживающими, чем обещает маркетинг.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="исследование">Исследование<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%D0%B8%D1%81%D1%81%D0%BB%D0%B5%D0%B4%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Исследование" title="Прямая ссылка на заголовок Исследование" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=JSONSchemaBench%3A%20%D0%A1%D0%BB%D0%BE%D0%B6%D0%BD%D0%BE%D1%81%D1%82%D1%8C%20%D1%80%D0%B5%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D1%85%20%D1%81%D1%85%D0%B5%D0%BC%20%D0%BD%D0%B0%D1%80%D1%83%D1%88%D0%B0%D0%B5%D1%82%20%D0%B3%D0%B0%D1%80%D0%B0%D0%BD%D1%82%D0%B8%D0%B8%20%D1%81%D1%82%D1%80%D1%83%D0%BA%D1%82%D1%83%D1%80%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D0%BE%D0%B3%D0%BE%20%D0%B2%D1%8B%D0%B2%D0%BE%D0%B4%D0%B0%20LLM" alt="2026-07-08-jsonschemabench-structured-outputs-language-models" class="img_ev3q"></p>
<p>Сайбо Генг, Хадсон Купер, Михал Москаль и их коллеги из Microsoft Research представляют JSONSchemaBench — бенчмарк из 9 558 схем, взятых из реальных производственных источников: сигнатур вызовов функций GlaiveAI, репозиториев GitHub (разбитых по сложности от тривиальных до сверхсложных), конфигураций Kubernetes API, схем аналитики событий Snowplow и коллекции JSONSchemaStore. Они оценивают шесть фреймворков ограниченного декодирования — Guidance, Outlines, Llamacpp, XGrammar, OpenAI Structured Outputs и Gemini — по трем осям: покрытие (какую долю схем фреймворк вообще может обработать), эффективность (накладные расходы на токены в секунду по сравнению с неограниченной генерацией) и качество (точность выполнения последующих задач). Сетка оценки также включает официальный набор тестов JSON Schema Test Suite, который документирует 45 категорий функций, которые должен поддерживать любой совместимый движок.</p>
<p>Основное утверждение заключается в том, что сложность схемы является решающей переменной, отделяющей способные фреймворки от хрупких, и что ни один фреймворк не доминирует по всем трем осям.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Покрытие обрушивается при усложнении схем.</strong> На простых схемах GlaiveAI все фреймворки набирают более 86%. Но на схемах GitHub-Hard — многоуровневая вложенность, рекурсивные определения, сложные паттерны ограничений — покрытие Guidance падает до 41%, Llamacpp до 39%, XGrammar до 28%, а Outlines до катастрофических 3%. OpenAI достигает лишь 9% на GitHub-Hard, а Gemini не выдает валидных результатов на схемах средней и высокой сложности.</li>
<li class=""><strong>Kubernetes выявляет специфическую слабость XGrammar.</strong> Несмотря на заявления XGrammar о скорости, он достигает лишь 7% покрытия на схемах Kubernetes, вероятно, потому что эти схемы полагаются на контекстно-зависимые паттерны, которые контекстно-независимые предварительные вычисления XGrammar не могут обработать. Покрытие в бенчмарке, включающем конфиги Kubernetes, обязательно для производственных агентов.</li>
<li class=""><strong>Недостаточные ограничения опаснее, чем ошибка компиляции.</strong> XGrammar демонстрирует 38 отказов типа «under-constrained» (недостаточное ограничение) в JSON Schema Test Suite — это означает, что он выдает JSON, нарушающий заявленную схему, при этом молча сообщая об успехе. У Guidance только 1 такой отказ. Для агента обратной записи ошибка компиляции обнаруживается на этапе разработки; отказ из-за недостаточных ограничений повреждает данные во время выполнения без какого-либо сигнала.</li>
<li class=""><strong>Функция fast-forwarding в Guidance обеспечивает реальный прирост скорости на 50%.</strong> При наличии длинных детерминированных последовательностей (например, имен полей в фиксированной структуре объекта), Guidance может продвигаться на несколько токенов за один шаг декодирования. На Llama-3.1-8B на A100 Guidance работает со скоростью 6–9 мс на выходной токен, в то время как неограниченная генерация — 15–16 мс. Outlines работает медленнее неограниченной генерации (30–46 мс), в основном из-за предварительной компиляции автомата, занимающей 3–8 секунд на схему.</li>
<li class=""><strong>Ограниченное декодирование незначительно повышает точность рассуждений.</strong> На GSM8K (математика) Guidance повышает точность с 80,1% (без ограничений) до 83,8%. В задачах Last Letter и Shuffle Objects прирост составляет 1–3 пункта. Это противоречит широко распространенному мнению о том, что принудительный формат JSON ухудшает качество ответов, но эффект настолько мал, что выбор формата не должен определять выбор фреймворка.</li>
<li class=""><strong>Ни один фреймворк не охватывает все 45 категорий функций JSON Schema.</strong> Guidance охватывает 13, Llamacpp и XGrammar — по 1, а Outlines — 0. Практическое следствие: любая схема, использующая <code>if/then/else</code>, <code>unevaluatedProperties</code> или рекурсивные определения <code>$ref</code>, будет вести себя непредсказуемо в зависимости от того, какой движок используется под капотом.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтвердилось-а-что-нет">Что подтвердилось, а что нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B4%D0%B8%D0%BB%D0%BE%D1%81%D1%8C-%D0%B0-%D1%87%D1%82%D0%BE-%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтвердилось, а что нет" title="Прямая ссылка на заголовок Что подтвердилось, а что нет" translate="no">​</a></h2>
<p>Самый сильный вклад бенчмарка — это источники схем. Предыдущие оценки использовали игрушечные схемы или коллекции из одного источника. Включение конфигов Kubernetes наряду с сигнатурами вызовов функций — это правильный вид состязательного разнообразия. Стратификация сложности (от тривиальной до ультра) также дает практикам кривую калибровки: если ваши схемы похожи на вызовы функций GlaiveAI, XGrammar или Guidance одинаково хороши; если они похожи на манифесты Kubernetes, выбор быстро сужается.</p>
<p>Главная слабость — оценка по одному жадному сэмплу (single-sample greedy evaluation). Измерение покрытия по одной генерации на схему занижает реальные возможности — фреймворк может давать сбой в 20% случаев, но срабатывать при повторной попытке. Авторы признают это, но не сообщают показатели pass@k с температурным сэмплированием, что было бы важно для производственных систем, выполняющих повторные попытки при сбое.</p>
<p>Сравнение также смешивает несопоставимые модели. Open-source фреймворки (Guidance, Outlines, Llamacpp, XGrammar) тестировались на Llama-3.2-1B, в то время как OpenAI и Gemini запускают свои собственные закрытые модели. Покрытие OpenAI в 9% на GitHub-Hard может отражать возможности модели так же сильно, как и архитектуру ограниченного декодирования. Для справедливого сравнения потребовался бы контролируемый доступ к моделям, который авторы, очевидно, не могут навязать проприетарным провайдерам.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-ии-в-финансах">Почему это важно для ИИ в финансах<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D0%B8%D0%B8-%D0%B2-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%B0%D1%85" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для ИИ в финансах" title="Прямая ссылка на заголовок Почему это важно для ИИ в финансах" translate="no">​</a></h2>
<p>Каждый агент обратной записи Beancount генерирует структурированный вывод. Если агент выдает директивы Beancount в формате JSON перед преобразованием в синтаксис <code>.beancount</code>, или если он вызывает инструменты через JSON-схемы, надежность этой генерации — не деталь, а основа процесса. Исследование FinTrace показало, что передовые модели плохо рассуждают над выводами инструментов; JSONSchemaBench выявляет ортогональную проблему: еще до этапа рассуждений уровень форматирования может незаметно выдать некорректный результат.</p>
<p>Результат с Kubernetes особенно показателен для Beancount. Схемы главной книги — это не плоские наборы «ключ-значение». Иерархии счетов, метаданные транзакций и структуры тегов создают вложенные рекурсивные паттерны, похожие на объекты Kubernetes API. Фреймворк, набирающий 7% на Kubernetes, не готов к сложным схемам бухгалтерского учета, независимо от того, насколько малы его накладные расходы на токен.</p>
<p>Режим отказа из-за недостаточных ограничений — это то, из-за чего я бы лишился сна. Агент Beancount, использующий XGrammar, может выдать транзакцию, которая пройдет внутреннюю проверку валидации фреймворка, но нарушит фактическую схему — и у агента не будет причин для повторной попытки. Незаметное повреждение данных хуже, чем явная ошибка.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-почитать-дальше">Что почитать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что почитать дальше" title="Прямая ссылка на заголовок Что почитать дальше" translate="no">​</a></h2>
<ul>
<li class=""><strong>XGrammar</strong> (arXiv:2411.15100, Dong et al.) — техническая статья об одном из самых быстрых протестированных фреймворков, объясняющая разделение токенов на контекстно-зависимые и независимые, а также причины, по которым схемы Kubernetes создают для него нагрузку.</li>
<li class=""><strong>Grammar-Aligned Decoding / ASAp</strong> (NeurIPS 2024) — показывает, что маскирование токенов при ограниченном декодировании может искажать распределение вероятностей модели, и предлагает скорректированный алгоритм сэмплирования; теоретическая база для проблем качества, которые бенчмарк измеряет лишь косвенно.</li>
<li class=""><strong>XGrammar-2</strong> (arXiv:2601.04426) — продолжение, расширяющее XGrammar на динамические схемы в агентных сценариях, где сама схема меняется в ходе многоэтапной сессии, что напрямую применимо к агентам Beancount, адаптирующим формат вывода в зависимости от активных типов счетов.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Automation</category>
            <category>Beancount</category>
            <category>Performance</category>
        </item>
        <item>
            <title><![CDATA[FinMCP-Bench: Тестирование LLM-агентов для решения реальных финансовых задач с использованием инструментов в рамках протокола MCP]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol</guid>
            <pubDate>Tue, 07 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[FinMCP-Bench оценивает шесть моделей LLM в 613 реальных задачах по использованию финансовых инструментов на базе 65 серверов MCP. Лучшая модель показала точность 3,08% в многоходовых задачах, выявляя 20-кратное падение производительности при переходе от одного инструмента к сложным сценариям.]]></description>
            <content:encoded><![CDATA[<p>MCP стал фактическим стандартом интеграции для использования инструментов LLM — Anthropic представила его в конце 2024 года, а к началу 2026 года его приняли все основные поставщики моделей. FinMCP-Bench (arXiv:2603.24943, ICASSP 2026) — это первый бенчмарк, построенный на реальных серверах инструментов MCP специально для финансовых агентов. Он появился как раз вовремя, чтобы показать, помогает ли эта стандартизированная инфраструктура агентам выполнять полезную финансовую работу.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="о-статье">О статье<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%D0%BE-%D1%81%D1%82%D0%B0%D1%82%D1%8C%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок О статье" title="Прямая ссылка на заголовок О статье" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinMCP-Bench%3A%20%D0%A2%D0%B5%D1%81%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5%20LLM-%D0%B0%D0%B3%D0%B5%D0%BD%D1%82%D0%BE%D0%B2%20%D0%B4%D0%BB%D1%8F%20%D1%80%D0%B5%D1%88%D0%B5%D0%BD%D0%B8%D1%8F%20%D1%80%D0%B5%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D1%85%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D1%8B%D1%85%20%D0%B7%D0%B0%D0%B4%D0%B0%D1%87%20%D1%81%20%D0%B8%D1%81%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5%D0%BC%20%D0%B8%D0%BD%D1%81%D1%82%D1%80%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D0%BE%D0%B2%20%D0%B2%20%D1%80%D0%B0%D0%BC%D0%BA%D0%B0%D1%85%20%D0%BF%D1%80%D0%BE%D1%82%D0%BE%D0%BA%D0%BE%D0%BB%D0%B0%20MCP" alt="2026-07-07-finmcp-bench-llm-agents-financial-tool-use-model-context-protocol" class="img_ev3q"></p>
<p>Цзе Чжу, Иминь Тянь и коллеги из команды Alibaba Cloud Qwen DianJin, YINGMI Wealth Management и Университета Сучжоу представляют FinMCP-Bench — оценочный набор из 613 образцов, охватывающий 10 категорий финансовых сценариев и 33 подсценария. Инструменты здесь не являются симуляциями — бенчмарк поддерживают 65 реальных MCP-совместимых серверов финансовых инструментов, взятых из реальных логов работы финансового помощника Qieman APP. Авторы разделяют образцы на три типа: 145 задач с одним инструментом, 249 с несколькими инструментами и 219 многоходовых диалогов. Они тестируют шесть моделей: семейство Qwen3 (4B, 30B и 235B параметров, все с режимом расширенного мышления), а также DeepSeek-R1, GPT-OSS-20B и Seed-OSS-36B. Основными метриками оценки являются точность (Tool Precision), полнота (Tool Recall), F1-мера (Tool F1) и показатель точного совпадения (EMR), который требует, чтобы каждый вызов инструмента в последовательности был абсолютно верным.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>MCP как основа оценки</strong>: использование определений реальных серверов MCP вместо синтетических схем API сокращает разрыв между бенчмарком и тем, с чем агенты сталкиваются в реальных финансовых системах.</li>
<li class=""><strong>Трехуровневое разделение сложности</strong>: задачи с одним инструментом, несколькими инструментами и многоходовые сценарии различаются не только количеством действий — они выявляют качественно разные типы сбоев.</li>
<li class=""><strong>Крах на многоходовых задачах</strong>: лучшая модель (Qwen3-235B) достигает 60% EMR на одном инструменте, 10,62% EMR на нескольких инструментах и всего 3,08% EMR в многоходовых диалогах. Падение от простых задач к сложным — 20-кратное.</li>
<li class=""><strong>Tool F1 более снисходителен</strong>: та же модель набирает 66,85%, 69,42% и 41,56% по метрике TF1 в трех настройках соответственно. Это показывает, что модели часто выбирают правильные инструменты, но ошибаются в порядке вызовов, параметрах или отслеживании контекста беседы.</li>
<li class=""><strong>Полнота выше точности в простых задачах</strong>: при неуверенности модели склонны вызывать лишние инструменты, а не пропускать нужные. Для финансовых задач это более безопасный тип сбоя, хотя он и ведет к лишним вызовам API и шуму в цепочке рассуждений.</li>
<li class=""><strong>Нелинейная масштабируемость</strong>: Qwen3-30B не всегда превосходит Qwen3-4B во всех подсценариях, что опровергает предположение о том, что большая модель всегда лучше справляется с многошаговым использованием инструментов.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что-нет">Что подтверждается, а что нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE-%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что нет" title="Прямая ссылка на заголовок Что подтверждается, а что нет" translate="no">​</a></h2>
<p>Использование реальных производственных логов для примеров с одним инструментом — самое сильное методологическое решение. Это привязывает бенчмарк к реальному поведению пользователей, а не к сценариям, выдуманным исследователями, что редко встречается в литературе по финансовому ИИ. Многоинструментальные и многоходовые образцы синтетически расширены с помощью графов зависимостей и ролевых промптов. Это разумно, учитывая стоимость разметки, но создает риск: синтез обычно выдает более чистые и понятные запросы, чем те, что пишут реальные пользователи. Показатель EMR 3,08% в многоходовых задачах пугает, но его следует интерпретировать осторожно: EMR требует идеальной точности всей последовательности, поэтому одна ошибка в промежуточном вызове приводит к провалу всей задачи. Это строгий и, возможно, нереалистичный стандарт для эксплуатации; метрики с частичным зачетом, такие как TF1, дают более нюансированную картину.</p>
<p>Чего в статье нет: отсутствует анализ того, является ли разрыв в производительности проблемой понимания ввода (модель неверно интерпретирует желание пользователя), проблемой форматирования вывода (верное намерение, но неверный формат вызова) или проблемой рассуждения (неверные промежуточные выводы). Без этого разделения трудно понять, куда инвестировать инженерные усилия. Также модели оцениваются изолированно; нет тестов того, изменит ли ситуацию добавление этапа верификации или рефлексии.</p>
<p>Бенчмарк также глубоко привязан к специфическим 65 инструментам Qieman, что ограничивает переносимость результатов на другие финансовые платформы с иным набором инструментов.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-ии-в-финансах">Почему это важно для ИИ в финансах<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D0%B8%D0%B8-%D0%B2-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%B0%D1%85" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для ИИ в финансах" title="Прямая ссылка на заголовок Почему это важно для ИИ в финансах" translate="no">​</a></h2>
<p>FinMCP-Bench максимально приближен к тому, что на самом деле делал бы агент для записи в Beancount: получение запроса пользователя, определение подходящего инструмента (или цепочки инструментов), их последовательный вызов и обработка последующих уточнений. Показатель EMR 3,08% для многоходовых задач — это жесткое столкновение с реальностью. Агент Beancount, управляющий многошаговой корректировкой реестра (например, переклассификация группы транзакций по счетам за определенный период с последующей сверкой и генерацией отчета), — это именно та многоходовая задача, с которой текущие модели почти повсеместно не справляются по стандартам точного совпадения.</p>
<p>Контекст MCP имеет прямое отношение: Python API Beancount, интерфейс beanquery и REST-слой fava — все это можно обернуть в MCP-серверы. FinMCP-Bench говорит нам, что узким местом является не протокол, а логика рассуждений над последовательностью вызовов инструментов.</p>
<p>Вывод о том, что полнота вызовов превышает точность (модели вызывают лишнее), также важен для безопасности записи данных: агент, вызывающий инструмент изменения реестра там, где требовалось только чтение, может незаметно повредить данные. Для агентов, работающих на запись, основным сигналом безопасности должны быть метрики, ориентированные на точность (precision), а не на полноту (recall).</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-почитать-дальше">Что почитать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что почитать дальше" title="Прямая ссылка на заголовок Что почитать дальше" translate="no">​</a></h2>
<ul>
<li class=""><strong>JSONSchemaBench</strong> (arXiv:2501.10868) — оценивает надежность структурированного вывода по 10 000 схем JSON; напрямую исследует, являются ли сбои форматирования вызовов инструментов в FinMCP-Bench проблемой ограниченного декодирования.</li>
<li class=""><strong>ToolLLM</strong> (arXiv:2307.16789, ICLR 2024) — фундаментальный фреймворк для обучения использованию инструментов, с которым сопоставляется FinMCP-Bench; понимание его поиска по дереву помогает осознать вклад методологии FinMCP-Bench на основе реальных логов.</li>
<li class=""><strong>WildToolBench</strong> (arXiv:2604.06185) — оценивает использование инструментов на реальных пользовательских запросах «в дикой природе»; вывод о том, что ни одна модель не превышает 15% точности на реальном поведении пользователей, дополняет подход FinMCP-Bench.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Beancount</category>
            <category>Fintech</category>
            <category>Machine Learning</category>
            <category>Reconciliation</category>
        </item>
        <item>
            <title><![CDATA[FinTrace: Оценка траекторий вызова инструментов LLM для финансовых задач]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks</guid>
            <pubDate>Mon, 06 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[FinTrace тестирует 13 LLM на 800 аннотированных экспертами траекториях финансовых задач по 9 метрикам, обнаружив, что передовые модели демонстрируют хороший выбор инструментов (F1 ~0.9), но набирают лишь 3.23/5 по использованию информации — этапу, на котором агенты анализируют результаты работы инструментов.]]></description>
            <content:encoded><![CDATA[<p>FinTrace (arXiv:2604.10015) появилась спустя неделю после FinToolBench, о которой я писал в прошлый раз, и эти две работы напрямую дискутируют друг с другом. Если FinToolBench измеряет, вызывает ли агент нужные инструменты, то FinTrace задает более сложный вопрос: даже если агент вызывает правильные инструменты, проводит ли он на самом деле рассуждения на основе полученных результатов? Это различие является ключевым моментом статьи и, на мой взгляд, основной проблемой всей задачи создания агентов записи для Beancount.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="статья">Статья<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%D1%81%D1%82%D0%B0%D1%82%D1%8C%D1%8F" class="hash-link" aria-label="Прямая ссылка на заголовок Статья" title="Прямая ссылка на заголовок Статья" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinTrace%3A%20%D0%9E%D1%86%D0%B5%D0%BD%D0%BA%D0%B0%20%D1%82%D1%80%D0%B0%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%B8%D0%B9%20%D0%B2%D1%8B%D0%B7%D0%BE%D0%B2%D0%B0%20%D0%B8%D0%BD%D1%81%D1%82%D1%80%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D0%BE%D0%B2%20LLM%20%D0%B4%D0%BB%D1%8F%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D1%8B%D1%85%20%D0%B7%D0%B0%D0%B4%D0%B0%D1%87" alt="2026-07-06-fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks" class="img_ev3q"></p>
<p>Цао и соавторы представляют FinTrace — бенчмарк из 800 аннотированных экспертами траекторий, охватывающих 34 категории реальных финансовых задач трех уровней сложности: легкий, средний и сложный. Авторы строят свою оценку вокруг рубрики из девяти метрик, организованных по четырем осям: <strong>правильность действий</strong> (F1 вызова инструментов, релевантность задаче), <strong>эффективность исполнения</strong> (эффективность шагов, показатель избыточности), <strong>качество процесса</strong> (логическая последовательность, использование информации, показатель прогресса) и <strong>качество результата</strong> (коэффициент прохождения задач, качество итогового ответа). Они оценивают 13 LLM, а также выпускают FinTrace-Training — набор данных из 8 196 отобранных траекторий предпочтений для дообучения.</p>
<p>Основное утверждение заключается в том, что передовые модели освоили выбор инструментов, но систематически терпят неудачу на более сложном этапе: использовании того, что возвращают инструменты. Бенчмарк проверяет это с помощью 5-балльной шкалы для использования информации, логической последовательности и показателя прогресса, а также алгоритмических метрик для F1 инструментов и эффективности шагов.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class="">Лучшая модель, Claude-Opus-4.6, достигает F1 вызова инструментов 0.896 — отличный выбор — но набирает всего 3.23/5 по Использованию информации, самой слабой из четырех метрик, ориентированных на результат.</li>
<li class="">Коэффициент прохождения задач у Claude-Opus-4.6 составляет 2.65/5, а качество финального ответа — 3.34/5; даже топовая модель не всегда выдает правильные и полные ответы.</li>
<li class="">Qwen-3.5-9B демонстрирует дегенеративный паттерн: почти идеальная эффективность шагов (1.000) и избыточность (1.000), потому что она почти не вызывает инструменты, что отражается в F1 вызова инструментов 0.109. Эффективно, но бесполезно.</li>
<li class="">Обучение на FinTrace-Training улучшает метрики промежуточных процессов (логическая последовательность растет с 2.29 до 2.56 с DPO; показатель прогресса — с 2.00 до 2.30), но качество финального ответа остается заблокированным — ни один вариант не превышает в среднем 1.21 по шкале 1–5 для малых моделей.</li>
<li class="">DPO превосходит SFT в подавлении катастрофических режимов отказа: доля оценок «Логическая последовательность» равных 1 падает с 11.9% (SFT) до 9.5% (DPO).</li>
<li class="">Самая худшая подкатегория для всех 13 моделей — Reasoning QA, где Claude-Opus-4.6 набирает всего 0.62 в целом — жесткий потолок даже для сильнейшей модели.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что-нет">Что подтверждается, а что нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE-%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что нет" title="Прямая ссылка на заголовок Что подтверждается, а что нет" translate="no">​</a></h2>
<p>Основной вывод о том, что выбор инструмента и рассуждение над ним разделимы, хорошо мотивирован, а рубрика из четырех осей является реальным вкладом. Предыдущие бенчмарки, такие как FinToolBench, останавливаются на трассировках выполнения; FinTrace добавляет метрики качества процесса, оцениваемые LLM, которые показывают, что происходит в промежутках. Коэффициент κ Коэна между экспертами 0.89 на валидации из 100 примеров обнадеживает для бенчмарка, частично построенного на судьях-LLM.</p>
<p>Тем не менее, несколько методологических решений ограничивают доверие к цифрам. 34 категории задач не перечислены в основной статье — они вынесены в Приложение B — поэтому я не могу сказать, насколько они репрезентативны для реальной финансовой практики. Уровни сложности определяются процентильным рангом внутри собственного пула запросов бенчмарка, что является круговым показателем: «сложный» означает просто необычный по сравнению с другими 800 траекториями, а не сложный в каком-либо абсолютном смысле.</p>
<p>Анализ дообучения расстраивает. Обучение модели 9B на FinTrace-Training улучшает промежуточные рассуждения, но качество финального ответа остается неудовлетворительным. В статье это объясняется «разрывом» между процессом и результатом, но не объясняется причина. Самое правдоподобное объяснение — что модели 9B не хватает памяти фактов и арифметических способностей, необходимых для финансовых задач, независимо от качества траектории — осталось без внимания. Демонстрация результатов DPO только для Qwen-3.5-9B также делает невозможным понимание того, получают ли больше пользы крупные модели.</p>
<p>Я также скептически отношусь к агрегации общих баллов. Объединение алгоритмических метрик (F1 ∈ [0,1]) с оценками судей-LLM по 5-балльной шкале Ликерта путем нормализации к [0,1] и усреднения смешивает совершенно разные типы сбоев. Модель, которая вызывает неправильные инструменты, — это не тот же тип поломки, что и модель, которая вызывает правильные инструменты, а затем игнорирует результат.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-финансового-ии">Почему это важно для финансового ИИ<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%BE%D0%B3%D0%BE-%D0%B8%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для финансового ИИ" title="Прямая ссылка на заголовок Почему это важно для финансового ИИ" translate="no">​</a></h2>
<p>Основной вывод напрямую переносится на проблему записи (write-back) в Beancount. Агент, который надежно вызывает нужные инструменты Beancount CLI, но затем неверно интерпретирует результат — скажем, разбирает ответ по балансовому отчету и делает запись не на тот счет — хуже, чем отсутствие автоматизации: он создает уверенно ошибочные записи в реестре, которые выглядят правильными для случайного проверяющего.</p>
<p>Метрика «Использование информации» — это то, за чем я бы следил внимательнее всего для любого агента Beancount. Тот факт, что лучшая доступная модель набирает 3.23/5 по этому показателю в контролируемом финансовом бенчмарке, должен стать сдерживающим фактором для любого промышленного внедрения. Это аргумент в пользу обязательной проверки человеком любой операции записи, по крайней мере до тех пор, пока мы не увидим, что этот балл стабильно превышает 4.0.</p>
<p>FinTrace также подтверждает то, что ReDAct предполагал на прошлой неделе: правильная архитектура — это не сквозное рассуждение LLM, а конвейер, который выносит проверку вовне. Агент, который хорошо выбирает инструменты (Tool F1 ~0.9), а затем передает результаты на отдельный этап валидации перед действием, более надежен, чем тот, который пытается рассуждать над необработанным выводом инструмента за один проход.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-читать-дальше">Что читать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%D1%87%D1%82%D0%BE-%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что читать дальше" title="Прямая ссылка на заголовок Что читать дальше" translate="no">​</a></h2>
<ul>
<li class="">FinMCP-Bench (arXiv:2603.24943): сопутствующая статья, использующая MCP как стандарт интерфейса инструментов, следующая в списке чтения — напрямую сопоставима с FinTrace, но построена на другом протокольном уровне.</li>
<li class="">"Benchmarking LLM Tool-Use in the Wild" (arXiv:2604.06185): появилась одновременно и оценивает вызов инструментов вне финансов; прояснит, является ли разрыв в использовании информации специфичным для домена или общим.</li>
<li class="">"Data-Driven Function Calling Improvements in Large Language Model for Online Financial QA" (arXiv:2604.05387): нацелена на те же режимы отказов при вызове функций с точки зрения обучающих данных и может объяснить, чего не хватает в DPO FinTrace-Training.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Finance</category>
            <category>Fintech</category>
            <category>Automation</category>
            <category>Beancount</category>
            <category>Machine Learning</category>
        </item>
        <item>
            <title><![CDATA[FinToolBench: Оценка LLM-агентов при использовании финансовых инструментов в реальных условиях]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use</guid>
            <pubDate>Sun, 05 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[FinToolBench объединяет 760 работающих финансовых API-инструментов с 295 исполняемыми запросами для тестирования LLM-агентов на реальных финансовых задачах. Исследование показало, что консервативная частота вызовов GPT-4o (22,7%) обеспечивает более высокое качество ответов (CSS 0,670), чем агрессивная TIR Qwen3-8B (87,1%), в то время как несоответствие намерений (intent mismatch) превышает 50% у всех протестированных моделей.]]></description>
            <content:encoded><![CDATA[<p>Большинство бенчмарков ИИ в финансах проверяют, может ли модель прочитать документ. FinToolBench проверяет, может ли модель что-то <em>сделать</em> — вызвать активный API, получить текущие рыночные данные и вернуть правильный ответ. Именно этот разрыв критичен для любой системы, стремящейся автоматизировать реальную финансовую работу, и я давно ждал, когда кто-то заполнит его со всей строгостью.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="статья">Статья<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%D1%81%D1%82%D0%B0%D1%82%D1%8C%D1%8F" class="hash-link" aria-label="Прямая ссылка на заголовок Статья" title="Прямая ссылка на заголовок Статья" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinToolBench%3A%20%D0%9E%D1%86%D0%B5%D0%BD%D0%BA%D0%B0%20LLM-%D0%B0%D0%B3%D0%B5%D0%BD%D1%82%D0%BE%D0%B2%20%D0%BF%D1%80%D0%B8%20%D0%B8%D1%81%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B8%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D1%8B%D1%85%20%D0%B8%D0%BD%D1%81%D1%82%D1%80%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D0%BE%D0%B2%20%D0%B2%20%D1%80%D0%B5%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D1%85%20%D1%83%D1%81%D0%BB%D0%BE%D0%B2%D0%B8%D1%8F%D1%85" alt="2026-07-05-fintoolbench-evaluating-llm-agents-real-world-financial-tool-use" class="img_ev3q"></p>
<p>Цзясюань Лу и коллеги представляют FinToolBench (arXiv:2603.08262, март 2026 года) как то, что они называют первым в мире реально исполняемым бенчмарком для оценки финансовых агентов, обучающихся работе с инструментами. Формулировка прямая: существующие оценки финансового ИИ фокусируются на статических ответах на вопросы по документам, в то время как общие бенчмарки использования инструментов, такие как ToolLLM, рассматривают финансы просто как еще одну категорию API без специфических для предметной области регуляторных ограничений. FinToolBench пытается заполнить пространство между этими двумя тупиковыми путями.</p>
<p>Бенчмарк объединяет 760 исполняемых финансовых инструментов — 261 активную конечную точку (endpoint) из RapidAPI и 499 интерфейсов из AkShare — с 295 тщательно отобранными оценочными запросами, разделенными на 166 одноэтапных и 129 многоэтапных кейсов. Инструменты охватывают сферы акций, облигаций, фондов, форекса, деривативов, макроэкономики и криптовалют. Важно, что это реальные, вызываемые API, а не имитации (stubs). Авторы также представляют FATR (Finance-Aware Tool Routing) — базового агента, использующего поиск BGE-M3 (топ-20 кандидатов), карточки инструментов с финансовыми атрибутами и планировщик ReAct, учитывающий ограничения и лимитированный пятью шагами.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Проблемой является не само выполнение, а рассуждение над результатами.</strong> У GPT-4o самый высокий показатель Conditional Soft Score (CSS = 0,670), что означает получение правильных ответов при успешном вызове инструмента, но модель вызывает инструменты лишь в 22,7% случаев (TIR = 0,227). Qwen3-8B обращается к инструментам в 87,1% случаев, но дает правильный ответ только в 40,4% успешных вызовов.</li>
<li class=""><strong>Несоответствие намерений — основная причина нарушений комплаенса.</strong> Показатель IMR (Intent Mismatch Rate) превышает 50% у большинства моделей, что означает, что агенты регулярно инициируют транзакционные вызовы, когда запрос требует лишь информационного поиска. Это серьезная проблема в контексте регулируемых финансов.</li>
<li class=""><strong>Внедрение финансовых атрибутов помогает соблюдению правил без ущерба для возможностей.</strong> Карточки инструментов базовой модели FATR — аннотирование каждого инструмента данными об актуальности, типе намерения и регуляторной области — снижают количество вызовов устаревших данных (TMR) и нарушений домена (DMR) без значительного ухудшения частоты вызовов.</li>
<li class=""><strong>Многоэтапные запросы выявляют разрыв в надежности.</strong> 129 многоэтапных запросов требуют цепочки вызовов и передачи данных между шагами; производительность существенно падает по сравнению с одноэтапными случаями, что согласуется с выводами FinTrace и TheAgentCompany.</li>
<li class=""><strong>Малые модели могут превосходить большие по частоте вызовов, но не по качеству рассуждений.</strong> TIR модели Qwen3-8B (0,871) против 0,227 у GPT-4o показывает, что малые модели более «склонны к действию», но CER (Conditional Execution Rate, т.е. TESR/TIR), составляющий 0,339 для Qwen3-8B против 0,618 для GPT-4o, показывает, что GPT-4o гораздо точнее в те моменты, когда она все же решает использовать инструмент.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что-нет">Что подтверждается, а что нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE-%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что нет" title="Прямая ссылка на заголовок Что подтверждается, а что нет" translate="no">​</a></h2>
<p>Использование подлинно живых, исполняемых API — главный вклад этого бенчмарка, и он весьма значителен. Имитированные API были «грязным секретом» бенчмарков использования инструментов: 16 000 API в ToolLLM звучат впечатляюще, пока не понимаешь, что в оценке используется LLM в качестве судьи того, «сработал бы» вызов или нет. FinToolBench этого избегает.</p>
<p>Метрики комплаенса (TMR, IMR, DMR) концептуально верны — финансовые агенты должны понимать разницу между получением вчерашней цены закрытия и инициацией сделки, — но описание того, как эти классификации обеспечиваются в статье, довольно скудное. Неясно, проверялись ли эталонные метки для типов намерений (информационные против транзакционных) экспертами по праву или комплаенсу, или же они были просто назначены авторами датасета. На практике это имеет большое значение.</p>
<p>Список моделей также странно узок: Doubao-Seed-1.6, Qwen3-8B, GLM-4.7-Flash и GPT-4o. Нет ни Claude Sonnet, ни Gemini 2.5, которые были бы естественными кандидатами для сравнения. Таблица результатов показывает, что GPT-4o является исключением с высокой точностью, но низким охватом; мне было бы интересно узнать, ближе ли поведение Claude к консервативному паттерну GPT-4o или к агрессивному Qwen3-8B.</p>
<p>Набор из 295 запросов невелик по современным стандартам бенчмарков. При наличии 760 инструментов охват в 295 запросов означает, что большинство инструментов никогда не тестируется. В статье не приводятся статистические данные по охвату каждой области, а значит, основные показатели могут определяться подмножеством хорошо охваченных областей, таких как акции и макроэкономика.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-финансового-ии">Почему это важно для финансового ИИ<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%BE%D0%B3%D0%BE-%D0%B8%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для финансового ИИ" title="Прямая ссылка на заголовок Почему это важно для финансового ИИ" translate="no">​</a></h2>
<p>Агенты обратной записи Beancount — любые агенты, которые вызывают <code>bean-add</code>, вносят правки в файл гроссбуха или запрашивают данные через <code>beanquery</code>, — сталкиваются именно с теми типами сбоев, которые выявляет FinToolBench. Проблема несоответствия намерений переносится напрямую: агент Beancount, который инициирует вызов записи, когда пользователь задал вопрос на чтение, имеет тот же признак отказа, что и нарушение IMR. Измерение актуальности (timeliness) соотносится с проблемой вызова устаревшего кэшированного состояния гроссбуха, когда пользователь ожидает текущий баланс.</p>
<p>Противоречие между точностью и охватом (GPT-4o против Qwen3-8B) также имеет прямое отношение к делу. Для записи в Beancount я бы предпочел консервативное поведение GPT-4o — низкий TIR, но высокие CER и CSS, — чем модель с высокой частотой вызовов, которая часто использует не тот инструмент. Ошибочные записи обходятся гораздо дороже, чем отсутствие действий (no-ops).</p>
<p>Подход FATR по аннотированию инструментов атрибутами комплаенса вместо того, чтобы полагаться на выводы модели, — это паттерн проектирования, который стоит перенять. Обертка инструментов командной строки Beancount явными метаданными о том, является ли вызов только чтением или модификацией, и затрагивает ли он текущее или архивное состояние гроссбуха, — это та же идея, примененная в меньшем масштабе.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-читать-дальше">Что читать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%D1%87%D1%82%D0%BE-%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что читать дальше" title="Прямая ссылка на заголовок Что читать дальше" translate="no">​</a></h2>
<ul>
<li class=""><strong>FinTrace</strong> (arXiv:2604.10015) — оценка на уровне траекторий в 34 категориях финансовых задач с использованием 9 метрик; напрямую расширяет оценку одиночных вызовов FinToolBench до многошаговых последовательностей и выполняет тонкую настройку Qwen-3.5-9B с помощью DPO для улучшения промежуточных рассуждений.</li>
<li class=""><strong>FinMCP-Bench</strong> (arXiv:2603.24943) — 613 примеров на базе 65 финансовых инструментов MCP, тестирующих одиночные, множественные и многоходовые вызовы; структура MCP имеет прямое отношение к интерфейсам инструментов Beancount.</li>
<li class=""><strong>ToolLLM</strong> (arXiv:2307.16789, ICLR 2024) — статья о ToolBench, противопоставление которой эксплицитно выстраивает FinToolBench; понимание того, что может и чего не может измерить база с имитацией API, проясняет, что на самом деле дает исполняемость в FinToolBench.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Machine Learning</category>
            <category>Fintech</category>
            <category>Beancount</category>
            <category>Compliance</category>
            <category>Data Science</category>
        </item>
        <item>
            <title><![CDATA[OmniEval: Всенаправленный бенчмарк для оценки RAG в финансовой сфере]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain</guid>
            <pubDate>Sat, 04 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[OmniEval (EMNLP 2025) оценивает системы RAG по 5 типам задач и 16 финансовым темам, используя 11,4 тыс. автоматически сгенерированных тестовых случаев. Лучшие системы достигают лишь 36% точности в вычислениях — это конкретное доказательство того, что RAG-конвейеры нуждаются в слоях валидации перед записью в структурированные финансовые гроссбухи.]]></description>
            <content:encoded><![CDATA[<p>Большинство бенчмарков RAG в финансах задаются вопросом, может ли система найти информацию и ответить — и на этом всё. OmniEval (EMNLP 2025, arXiv:2412.13018) от Шутинг Ванг и соавторов из RUC ставит более сложный вопрос: сохраняется ли производительность во всей матрице типов задач и финансовых тем? Я читаю его сейчас, потому что это самая структурированная попытка нанести на карту контуры неудач RAG в финансах, прежде чем мы попытаемся построить надежных агентов для ведения гроссбухов Beancount на базе RAG-конвейеров.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="статья">Статья<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%D1%81%D1%82%D0%B0%D1%82%D1%8C%D1%8F" class="hash-link" aria-label="Прямая ссылка на заголовок Статья" title="Прямая ссылка на заголовок Статья" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=OmniEval%3A%20%D0%92%D1%81%D0%B5%D0%BD%D0%B0%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9%20%D0%B1%D0%B5%D0%BD%D1%87%D0%BC%D0%B0%D1%80%D0%BA%20%D0%B4%D0%BB%D1%8F%20%D0%BE%D1%86%D0%B5%D0%BD%D0%BA%D0%B8%20RAG%20%D0%B2%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%BE%D0%B9%20%D1%81%D1%84%D0%B5%D1%80%D0%B5" alt="2026-07-04-omnieval-omnidirectional-automatic-rag-evaluation-financial-domain" class="img_ev3q"></p>
<p>OmniEval выстраивает двумерную сетку оценки: пять классов задач (экстрактивные ответы на вопросы, многошаговые рассуждения, сравнительные ответы, развернутые ответы и диалоговые ответы), пересекающиеся с 16 финансовыми темами (фондовые рынки, инвестиционный банкинг, фонды, страхование имущества и другие). Результатом является структурированный бенчмарк с 11,4 тыс. автоматически сгенерированных тестовых примеров, 1,7 тыс. примеров, размеченных людьми, и поисковым корпусом из 362 тыс. документов, собранным из шести китайских источников финансовых данных (BSCF-DB — 193 тыс. документов, FinGLM — 55 тыс., BAAI-Fin — 48 тыс., официальные веб-страницы, PDF-файлы и финансовый контент Википедии). Бенчмарк также включает тонко настроенный LLM-оценщик — Qwen2.5-7B-Instruct, обученный на 910 размеченных вручную экземплярах, который оценивает качество генерации по параметрам точности, галлюцинаций, полноты, полезности и числовой точности. Статья была опубликована на EMNLP 2025.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class="">Автоматически сгенерированные тестовые случаи прошли проверку на принятие человеком на 87,47%, что означает, что примерно 1 из 8 сгенерированных экземпляров был отброшен — нетривиальный уровень шума для бенчмарка.</li>
<li class="">Лучший ретривер (GTE-Qwen2-1.5B) достиг MAP 0,4370 и MRR 0,4491 на автоматически сгенерированном наборе, что означает, что наиболее высоко ранжированный фрагмент оказывается верным менее чем в половине случаев даже при использовании самого сильного из протестированных ретриверов.</li>
<li class="">Точность генерации (ACC) для всех комбинаций ретривер-LLM варьировалась от 0,3238 до 0,4476 — лучшая конфигурация дает правильные ответы менее чем на половину вопросов.</li>
<li class="">Числовая точность (NAC) — самый яркий вывод: от 0,0659 до 0,3595. Лучшая система правильно называет финансовые показатели примерно в 36% случаев; худшая — почти никогда.</li>
<li class="">Тонко настроенный оценщик достиг 74,4% совпадения с человеческой разметкой (κ = 0,6486), существенно превзойдя базовые модели, работающие только на промптах (55–71%), но всё же оставив каждую четвертую оценку не соответствующей суждению человека.</li>
<li class="">Многошаговые рассуждения и диалоговые ответы стабильно оказывались самыми сложными классами задач.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что--нет">Что подтверждается, а что — нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE--%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что — нет" title="Прямая ссылка на заголовок Что подтверждается, а что — нет" translate="no">​</a></h2>
<p>Матричный дизайн оценки действительно полезен. Предыдущие финансовые бенчмарки (FinanceBench, FinQA, DocFinQA) рассматривают оценку по одной оси — обычно точности ответов — и упускают структурные различия в том, как именно RAG терпит неудачу. Знание того, что система хорошо справляется с экстрактивными ответами, но плохо с многошаговыми рассуждениями, дает возможность для действий; знание того, что она набирает какой-то средний общий балл, — нет. Сетка OmniEval делает эти различия видимыми, а вывод о том, что производительность непостоянна в разных темах, — это именно тот результат, который практики должны видеть перед внедрением.</p>
<p>Тем не менее, есть реальные ограничения, о которых я хочу сказать прямо. Корпус данных преимущественно китайский: пять из шести источников — это китайские финансовые данные (BSCF, FinGLM, BAAI-Fin), а шестой — китайская Википедия. В статье нет результатов с разбивкой по языкам — только агрегированные цифры. Это делает каждый балл в статье сомнительным в качестве утверждения о финансовых RAG в целом, в отличие от финансовых RAG на китайских текстах со специализированными для Китая ретриверами и LLM (GTE-Qwen2-1.5B, Qwen2.5-72B, Yi15-34B). Англоязычные или русскоязычные пользователи финансовых инструментов не могут напрямую использовать эти цифры.</p>
<p>LLM-оценщик обучен на 910 размеченных экземплярах. Этого мало. 74,4% совпадения с человеком при κ = 0,6486 допустимы как отправная точка, но это означает, что сама структура оценки вносит существенный шум. Если бенчмарк используется для сравнения систем, которые различаются на несколько процентных пунктов, дисперсия оценщика поглотит полезный сигнал.</p>
<p>Конвейер автоматической генерации — GPT-4 создает вопросы, люди фильтруют их с уровнем принятия 87,47% — также поднимает вопрос о загрязнении данных (contamination), который в статье не рассматривается: вопросы, сгенерированные GPT-4, могут подыгрывать сильным сторонам моделей класса GPT-4 так, что это систематически ставит в невыгодное положение старые или меньшие модели.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-финансового-ии">Почему это важно для финансового ИИ<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%BE%D0%B3%D0%BE-%D0%B8%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для финансового ИИ" title="Прямая ссылка на заголовок Почему это важно для финансового ИИ" translate="no">​</a></h2>
<p>Показатели числовой точности — это те цифры, к которым я постоянно возвращаюсь: 0,0659–0,3595. Если лучшая протестированная RAG-система правильно называет финансовые числа только в 36% случаев в рамках бенчмарка, любой агент обратной записи Beancount, построенный на базе наивного RAG-конвейера, будет портить данные гроссбуха. Формат Beancount строг: неправильная сумма, дата или название счета приводят либо к ошибке парсинга, либо к скрытой бухгалтерской ошибке, которая может распространиться на несколько финансовых лет. Этот бенчмарк дает нам конкретные доказательства того, что выборка RAG и генерация LLM еще недостаточно надежны для прямой обратной записи в гроссбух без слоя валидации.</p>
<p>Структура классов задач также четко проецируется на варианты использования Beancount. Экстрактивные ответы соответствуют простым проверкам баланса. Многошаговые рассуждения соответствуют вопросам вроде «какова моя чистая прибыль после уплаты налогов за 1–3 кварталы?». Диалоговые ответы соответствуют пользователю, который итеративно уточняет запрос на сверку в течение сессии. Вывод OmniEval о том, что многошаговые и диалоговые задачи являются самыми сложными, — это как раз плохие новости для проектирования агентов Beancount: простые случаи почти в порядке, но именно на реалистичных сценариях система разваливается.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-почитать-дальше">Что почитать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что почитать дальше" title="Прямая ссылка на заголовок Что почитать дальше" translate="no">​</a></h2>
<ul>
<li class="">ARES: An Automated Evaluation Framework for Retrieval-Augmented Generation (arXiv:2311.09476, NAACL 2025) — ближайший аналог OmniEval в общей области по подходу к тонкой настройке оценщика; сравнение методологии ARES с OmniEval прояснило бы, являются ли решения по дизайну LLM-оценщика обоснованными или ситуативными.</li>
<li class="">RAGEval: Scenario-Specific RAG Evaluation Dataset Generation Framework (ACL 2025, aclanthology.org/2025.acl-long.418) — автоматизированная генерация сценариев для оценки RAG; расширяет методологию автогенерации, которую использует OmniEval, и может решить проблему загрязнения данных.</li>
<li class="">FinRAGBench-V: A Benchmark for Multimodal RAG with Visual Citation in the Financial Domain (arXiv:2505.17471) — расширяет оценку RAG на мультимодальные финансовые документы (таблицы, графики); актуально, так как пользователи Beancount всё чаще хранят изображения чеков и PDF-выписки вместе с текстовыми гроссбухами.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>LLM</category>
            <category>Finance</category>
            <category>Data Science</category>
            <category>Beancount</category>
            <category>Automation</category>
        </item>
        <item>
            <title><![CDATA[Обзор методов обнаружения аномалий с помощью LLM (NAACL 2025): сильная таксономия, отсутствие охвата табличных данных]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey</guid>
            <pubDate>Fri, 03 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[Критический разбор обзора Сюй и Дина для NAACL 2025 об обнаружении аномалий и OOD на базе LLM. Таксономия «обнаружение против генерации» актуальна, но почти полное отсутствие табличных данных вынуждает специалистов по финансовому ИИ самостоятельно адаптировать наработки из моделей компьютерного зрения.]]></description>
            <content:encoded><![CDATA[<p>Предыдущие три записи в этой ветке были посвящены AnoLLM, CausalTAD и AD-LLM — каждая из которых нацелена именно на обнаружение аномалий в табличных данных. Этот обзор Руияо Сюя и Кайзе Дина, принятый на NAACL 2025 Findings, должен был связать эти нити в единую карту ландшафта. Я ожидал таксономию, которая прояснит пространство проектирования; то, что я получил, — это в основном обзор обнаружения аномалий на изображениях и видео с тонким налетом общности.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="статья">Статья<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%D1%81%D1%82%D0%B0%D1%82%D1%8C%D1%8F" class="hash-link" aria-label="Прямая ссылка на заголовок Статья" title="Прямая ссылка на заголовок Статья" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D0%9E%D0%B1%D0%B7%D0%BE%D1%80%20%D0%BC%D0%B5%D1%82%D0%BE%D0%B4%D0%BE%D0%B2%20%D0%BE%D0%B1%D0%BD%D0%B0%D1%80%D1%83%D0%B6%D0%B5%D0%BD%D0%B8%D1%8F%20%D0%B0%D0%BD%D0%BE%D0%BC%D0%B0%D0%BB%D0%B8%D0%B9%20%D1%81%20%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E%20LLM%20(NAACL%202025)%3A%20%D1%81%D0%B8%D0%BB%D1%8C%D0%BD%D0%B0%D1%8F%20%D1%82%D0%B0%D0%BA%D1%81%D0%BE%D0%BD%D0%BE%D0%BC%D0%B8%D1%8F%2C%20%D0%BE%D1%82%D1%81%D1%83%D1%82%D1%81%D1%82%D0%B2%D0%B8%D0%B5%20%D0%BE%D1%85%D0%B2%D0%B0%D1%82%D0%B0%20%D1%82%D0%B0%D0%B1%D0%BB%D0%B8%D1%87%D0%BD%D1%8B%D1%85%20%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85" alt="2026-07-03-llm-anomaly-ood-detection-survey" class="img_ev3q"></p>
<p>В обзоре Сюя и Дина (arXiv:2409.01980) предлагается разделить обнаружение аномалий и данных вне распределения (OOD) на базе LLM на два высокоуровневых класса: <strong>LLM для обнаружения</strong> (LLMs for Detection), где модель напрямую идентифицирует аномалии, и <strong>LLM для генерации</strong> (LLMs for Generation), где модель дополняет обучающие данные или создает объяснения на естественном языке, которые передаются нижестоящему детектору. Каждый класс подразделяется далее. Обнаружение делится на методы на основе промптов (замороженные или дообученные LLM, опрашиваемые с помощью текстовых промптов) и контрастивные методы (модели семейства CLIP, которые оценивают степень аномальности путем сравнения фрагментов изображений с текстовыми описаниями). Генерация делится на методы, ориентированные на аугментацию (создание псевдо-OOD меток или синтетических выборок меньшинства), и методы, ориентированные на объяснение (создание логических обоснований на естественном языке для помеченных событий).</p>
<p>Сопутствующий список литературы на GitHub охватывает примерно 39 работ: 24 по обнаружению, 10 по аугментации и 5 по объяснению.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Контрастивные методы доминируют в обнаружении аномалий на изображениях.</strong> WinCLIP достигает 91,8% и 85,1% AUROC в классификации и сегментации аномалий в режиме zero-shot на датасете MVTec-AD без какой-либо специфической настройки под датасет, что сопоставимо с методами обучения с учителем.</li>
<li class=""><strong>Замороженные LLM сталкиваются с модальным разрывом в нетекстовых данных.</strong> В обзоре прямо отмечается, что «прямое использование замороженных LLM для обнаружения аномалий или OOD в различных типах данных часто приводит к субоптимальной производительности из-за врожденного разрыва между текстом и другими модальностями данных».</li>
<li class=""><strong>LoRA и адаптерная настройка позволяют преодолеть этот разрыв.</strong> Методы вроде AnomalyGPT и AnomalyCLIP используют эффективные по параметрам техники дообучения и существенно превосходят свои «замороженные» аналоги.</li>
<li class=""><strong>Генерация как аугментация используется недостаточно.</strong> Псевдо-OOD метки на уровне подписей, созданные BLIP-2, превосходят альтернативы на уровне слов и описаний при обнаружении OOD, что указывает на важность богатого текстового надзора даже для визуальных задач.</li>
<li class=""><strong>Генерация с упором на объяснения — самая новая подкатегория.</strong> Системы вроде Holmes-VAD и VAD-LLaMA выходят за рамки бинарных флагов и генерируют обоснования аномальных событий на естественном языке, в основном для видео с камер наблюдения.</li>
<li class=""><strong>Табличные данные почти не представлены.</strong> В обзоре цитируется один метод — «Tabular» Ли и др. (2024), который преобразует строки таблиц в текстовые промпты и дообучает модель с помощью LoRA, но сравнительные показатели не приводятся.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что--нет">Что подтверждается, а что — нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE--%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что — нет" title="Прямая ссылка на заголовок Что подтверждается, а что — нет" translate="no">​</a></h2>
<p>Таксономия из двух классов действительно логична, и я, вероятно, буду использовать ее для структурирования собственных мыслей. Различие между обнаружением и генерацией отражает реальную архитектурную развилку: вы либо просите LLM классифицировать данные напрямую, либо используете её для создания лучшего обучающего сигнала для традиционного детектора.</p>
<p>Что я не могу принять, так это позиционирование статьи как широкого обзора обнаружения аномалий. Содержание подавляюще сконцентрировано на изображениях промышленных дефектов (MVTec-AD, VisA) и видео наблюдения (UCF-Crime, XD-Violence). Из примерно 39 каталогизированных работ почти ни одна не касается табличных или финансовых данных. Временные ряды удостоились нескольких упоминаний. Табличные данные — одного предложения. Это не карта ландшафта для Bean Labs — это карта ландшафта для исследователей компьютерного зрения, которые хотят использовать CLIP для поиска дефектов.</p>
<p>Авторы признают, что «ограничения по объему не позволяют привести подробные сводки метрик», что является вежливым способом сказать, что сравнительных таблиц нет. Для обзорной статьи отсутствие количественного синтеза — существенный пробел. Читатели не могут использовать эту работу, чтобы решить, какая парадигма лучше для их сценария использования, не изучая каждую цитируемую статью в отдельности.</p>
<p>Проблема галлюцинаций указана как открытый вопрос, но её рассмотрение поверхностно — упоминается риск без анализа того, какие парадигмы обнаружения более или менее подвержены ему, или как генерация объяснений может сделать галлюцинации более заметными при проверке человеком.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-финансового-ии">Почему это важно для финансового ИИ<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%BE%D0%B3%D0%BE-%D0%B8%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для финансового ИИ" title="Прямая ссылка на заголовок Почему это важно для финансового ИИ" translate="no">​</a></h2>
<p>Две подкатегории актуальны, несмотря на перекос в сторону изображений. Во-первых, подкатегория <strong>генерации с упором на объяснения</strong> — это именно то, что нужно агентам аудита Beancount: не просто флаг о том, что бухгалтерская проводка аномальна, а предложение на естественном языке, объясняющее почему. Финансовые аудиторы не могут работать с бинарным выводом. Во-вторых, почти полное молчание обзора по поводу обнаружения аномалий в таблицах само по себе информативно — оно подтверждает, что направление AnoLLM, CausalTAD и AD-LLM, за которым я слежу, является передовым, а не проторенным, и что разработка инструментов аудита на базе LLM для регистров Beancount требует синтеза идей из области компьютерного зрения, которые еще не были перенесены в табличную среду.</p>
<p>Компромисс между промптингом и дообучением — самый практически применимый вывод: zero-shot промптинг работает как первое приближение, но страдает от модального разрыва; дообучение на базе LoRA на репрезентативных размеченных примерах закрывает этот разрыв. Для развертывания Beancount с размеченными примерами аномалий из прошлых периодов путь дообучения кажется более надежным, чем чистый промптинг.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-читать-дальше">Что читать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%D1%87%D1%82%D0%BE-%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что читать дальше" title="Прямая ссылка на заголовок Что читать дальше" translate="no">​</a></h2>
<ul>
<li class="">"Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs" (arXiv:2406.03614) — использует эмбеддинги sentence-transformer от LLM для реальных записей главной книги; прямой мост от структуры этого обзора к табличному использованию в Beancount.</li>
<li class="">"Enhancing Anomaly Detection in Financial Markets with an LLM-based Multi-Agent Framework" (arXiv:2403.19735) — мультиагентный конвейер для обнаружения аномалий в рыночных данных; паттерн мультиагентной координации может быть перенесен на аудит регистров.</li>
<li class="">AnomalyGPT (arXiv:2308.15366) — дообученная LVLM для промышленного обнаружения аномалий с локализацией на уровне пикселей; чтение этой статьи проясняет, что именно означает «настройка LLM для обнаружения» с точки зрения архитектуры, что в обзоре описывается, но не объясняется.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Fraud Detection</category>
            <category>Data Science</category>
            <category>Beancount</category>
            <category>Analytics</category>
        </item>
        <item>
            <title><![CDATA[Найдено посередине: калибровка позиционного смещения внимания улучшает RAG с длинным контекстом]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias</guid>
            <pubDate>Thu, 02 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[Калибровка на этапе вывода, не требующая дообучения, вычитает позиционное смещение из весов внимания LLM, восстанавливая до 15 процентных пунктов точности RAG, когда извлеченные документы находятся в середине контекста — и что это значит для специализированных финансовых агентских конвейеров.]]></description>
            <content:encoded><![CDATA[<p>Я размышлял о проблеме «потери в середине» (lost-in-the-middle) с тех пор, как написал заметку об оригинальном открытии Лю и соавторов: передайте LLM длинный контекст, и она гарантированно проигнорирует свидетельства, скрытые в середине. Статья «Found in the Middle: Calibrating Positional Attention Bias Improves Long Context Utilization» (Hsieh et al., ACL Findings 2024, arXiv:2406.16008) предлагает самое прямое и практичное решение, которое я когда-либо видел: калибровку на этапе вывода, не требующую обучения, которая вычитает позиционное смещение модели из её весов внимания, восстанавливая до 15 процентных пунктов точности RAG.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="о-статье">О статье<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%D0%BE-%D1%81%D1%82%D0%B0%D1%82%D1%8C%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок О статье" title="Прямая ссылка на заголовок О статье" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D0%9D%D0%B0%D0%B9%D0%B4%D0%B5%D0%BD%D0%BE%20%D0%BF%D0%BE%D1%81%D0%B5%D1%80%D0%B5%D0%B4%D0%B8%D0%BD%D0%B5%3A%20%D0%BA%D0%B0%D0%BB%D0%B8%D0%B1%D1%80%D0%BE%D0%B2%D0%BA%D0%B0%20%D0%BF%D0%BE%D0%B7%D0%B8%D1%86%D0%B8%D0%BE%D0%BD%D0%BD%D0%BE%D0%B3%D0%BE%20%D1%81%D0%BC%D0%B5%D1%89%D0%B5%D0%BD%D0%B8%D1%8F%20%D0%B2%D0%BD%D0%B8%D0%BC%D0%B0%D0%BD%D0%B8%D1%8F%20%D1%83%D0%BB%D1%83%D1%87%D1%88%D0%B0%D0%B5%D1%82%20RAG%20%D1%81%20%D0%B4%D0%BB%D0%B8%D0%BD%D0%BD%D1%8B%D0%BC%20%D0%BA%D0%BE%D0%BD%D1%82%D0%B5%D0%BA%D1%81%D1%82%D0%BE%D0%BC" alt="2026-07-02-found-in-the-middle-calibrating-positional-attention-bias" class="img_ev3q"></p>
<p>Сье и др. начинают с диагностического наблюдения: LLM — даже те, что обучались на длинных контекстах — демонстрируют устойчивый U-образный паттерн внимания. Токены в начале и в конце входных данных получают непропорционально высокое внимание независимо от их релевантности, в то время как токены в середине систематически недооцениваются. Авторы эмпирически связывают это с падением точности «lost-in-the-middle», а не рассматривают как отдельный феномен.</p>
<p>Их решение элегантно по своей сути. Они разлагают внимание на два аддитивных компонента: релевантность (то, что нам нужно) и позиционное смещение (то, что не нужно). Чтобы изолировать смещение, они пропускают «пустой» (фиктивный) документ — неинформативное наполнение — через тот же контекст в каждой позиции и записывают полученное распределение внимания. Это внимание пустого документа аппроксимирует чистое позиционное априорное распределение. Вычитание его из реальных показателей внимания оставляет остаток, который лучше отражает истинную релевантность:</p>
<p><strong>Calibrated attention = Attn(document, k) − Attn(dummy, k)</strong></p>
<p>Затем пересчитанные показатели используются для ранжирования или перевзвешивания извлеченных документов перед финальным этапом генерации ответа. Важно, что обучение не требуется. Калибровка применяется на этапе вывода к последним 16 слоям декодера и всем головкам внимания. Стоимость составляет O(K) дополнительных проходов вперед, где K — количество извлеченных документов — величина нетривиальная, но предсказуемая.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class="">U-образное позиционное смещение внимания присуще архитектуре модели и сохраняется даже в моделях, специально обученных для работы с длинным контекстом.</li>
<li class="">Пропуск фиктивного (пустого/шумного) документа через тот же контекст извлечения изолирует позиционное априорное распределение; его вычитание удаляет смещение без какой-либо тонкой настройки (finetuning).</li>
<li class="">Recall@3 на NaturalQuestion (K=20, золотой документ помещен в середину) прыгает с 20,52% до 68,32% при калибровке; при K=10 — с 36,38% до 74,27%.</li>
<li class="">Сквозная точность ответов на вопросы (QA) улучшается на 6–15 процентных пунктов, когда золотой документ находится в середине контекста; улучшения сохраняются в 22 из 24 экспериментальных конфигураций.</li>
<li class="">Метод превосходит шесть базовых моделей для сравнения: стандартное внимание, ранжирование на основе генерации запросов, промптинг с генерацией релевантности, сортировку по вниманию (Peysakhovich &amp; Lerer 2023), переупорядочивание промптов и LongLLMLingua-rk.</li>
<li class="">Метод оценивался на NaturalQuestion (2655 реальных запросов по Википедии) и SynthWiki (990 синтетических записей, сгенерированных GPT-4).</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается--а-что-нет">Что подтверждается — а что нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F--%D0%B0-%D1%87%D1%82%D0%BE-%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается — а что нет" title="Прямая ссылка на заголовок Что подтверждается — а что нет" translate="no">​</a></h2>
<p>Основной результат поразителен, и я в него верю. Разрыв в Recall@3 с 20,52% до 68,32% для золотых документов в середине контекста — это не та цифра, которая испаряется при тщательном изучении; она измеряет нечто реальное в распределении внимания. Дизайн без обучения — это подлинное практическое преимущество: вы можете внедрить это поверх любого существующего RAG-конвейера, не касаясь весов модели.</p>
<p>Тем не менее, у меня есть некоторые сомнения. Во-первых, подход с «пустым документом» предполагает, что позиционное смещение примерно позиционно-разделимо и аддитивно — линейное разложение, которое сами авторы помечают как потенциально упрощенное. Реальное смещение внимания может взаимодействовать с контентом нелинейно. Во-вторых, дополнительные O(K) проходов вперед оцениваются как «приемлемые», но никогда не тестировались на предмет задержки или стоимости. В рабочей системе с извлечением K=20 вы запускаете 21 проход вместо одного на запрос. Для агента Beancount, сортирующего сотни транзакций, этот множитель имеет значение.</p>
<p>В-третьих — и это самое интересное ограничение — авторы отмечают, что позиционное смещение может быть полезным для определенных задач. Например, смещение в сторону новизны (recency bias) может заставлять модель правильно отдавать приоритет недавним записям в бухгалтерской книге над старыми. Неизбирательное удаление смещения может повредить задачам, где позиция является валидным сигналом. Это признается, но не изучается.</p>
<p>Наконец, в экспериментах используются NaturalQuestion и синтетический набор данных. Специфические финансовые документы — плотные таблицы, отчеты за несколько лет, записи в журналах с повторяющейся структурой — сильно отличаются от статей Википедии. Калибровку необходимо будет проверить на этих распределениях, прежде чем утверждать, что она будет работать для финансового RAG.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-финансового-ии">Почему это важно для финансового ИИ<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%BE%D0%B3%D0%BE-%D0%B8%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для финансового ИИ" title="Прямая ссылка на заголовок Почему это важно для финансового ИИ" translate="no">​</a></h2>
<p>Прямая связь очевидна: каждая заметка со времен DocFinQA вращается вокруг одной и той же проблемы. Когда агент Beancount извлекает 20 релевантных записей из журнала, чтобы ответить на вопрос типа «сверь март с банковской выпиской», записям из середины окна извлечения будет уделяться систематически меньше внимания по сравнению с записями в начале и конце контекста. Это не провал извлечения — это ошибка на стороне генерации, которую не исправит никакое улучшение ранжирования.</p>
<p>Калибровка «found-in-the-middle» — это правдоподобный способ смягчения проблемы, который не требует переобучения базовой модели и может быть применен непосредственно на этапе генерации в любом QA-конвейере для бухгалтерских книг. Опасения по поводу стоимости O(K) реальны, но управляемы — окно извлечения в 20 документов с моделью среднего размера все еще находится в практических пределах. Что бы я хотел увидеть перед внедрением, так это проверку именно на структурированных данных Beancount: помогает ли позиционная коррекция равномерно или она непреднамеренно подавляет сигнал новизны, который делает недавние транзакции более заслуживающими доверия, чем старые?</p>
<p>Стоит помнить об общем принципе: механизмы внимания кодируют позиционные априорные значения независимо от релевантности контента, и эти априорные значения можно откалибровать без переобучения. Это открывает дверь к аналогичным калибровкам для других смещений: смещения частоты токенов, нормализации длины ввода, смещения избыточности при генерации.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-читать-дальше">Что читать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%D1%87%D1%82%D0%BE-%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что читать дальше" title="Прямая ссылка на заголовок Что читать дальше" translate="no">​</a></h2>
<ul>
<li class="">«Mitigate Position Bias in LLMs via Scaling a Single Hidden States Channel» (arXiv:2406.02536, ACL Findings 2025) — предлагает масштабирование одного измерения скрытого состояния вместо вычитания показателей внимания; стоит сравнить с подходом «found-in-the-middle» напрямую.</li>
<li class="">«Large Language Models for Anomaly and Out-of-Distribution Detection: A Survey» (arXiv:2409.01980, NAACL 2025) — следующий в списке для чтения; объединяет идеи AnoLLM, CausalTAD и AD-LLM в единую таксономию.</li>
<li class="">Liu et al., «Lost in the Middle: How Language Models Use Long Contexts» (arXiv:2307.03172, TACL 2023) — оригинальный «диагноз», на который отвечает данная статья; необходимое базовое чтение.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Data Science</category>
            <category>Automation</category>
            <category>Beancount</category>
            <category>Reconciliation</category>
        </item>
        <item>
            <title><![CDATA[Учёт неопределенности при делегировании задач LLM-агентами: когда переходить от малых моделей к большим]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents</guid>
            <pubDate>Wed, 01 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[ReDAct по умолчанию запускает малую модель и переходит к дорогостоящей модели только тогда, когда перплексия на уровне токенов сигнализирует о неопределенности. Это позволяет сэкономить 64% затрат по сравнению с использованием только GPT-5.2, сохраняя или превосходя её точность — паттерн, напрямую применимый для агентов категоризации транзакций Beancount.]]></description>
            <content:encoded><![CDATA[<p>Давление на автономных агентов с целью сделать их одновременно дешевыми и надежными тянет в разные стороны: флагманские модели надежны, но дороги, а малые модели дешевы, но склонны к ошибкам. Статья Пятрашина и соавт. ReDAct (arXiv:2604.07036) предлагает срединный путь — запускать малую модель по умолчанию и делегировать задачу большой модели только тогда, когда малая модель не уверена в результате. Я читаю её, потому что то же самое противоречие характерно для любого продакшн-агента записи данных в Beancount: вы хотите, чтобы система дешево справлялась с рутинной категоризацией и передавала неочевидные случаи человеку или более мощной модели, прежде чем они исказят реестр.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="о-статье">О статье<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%D0%BE-%D1%81%D1%82%D0%B0%D1%82%D1%8C%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок О статье" title="Прямая ссылка на заголовок О статье" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D0%A3%D1%87%D1%91%D1%82%20%D0%BD%D0%B5%D0%BE%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8%20%D0%BF%D1%80%D0%B8%20%D0%B4%D0%B5%D0%BB%D0%B5%D0%B3%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B8%20%D0%B7%D0%B0%D0%B4%D0%B0%D1%87%20LLM-%D0%B0%D0%B3%D0%B5%D0%BD%D1%82%D0%B0%D0%BC%D0%B8%3A%20%D0%BA%D0%BE%D0%B3%D0%B4%D0%B0%20%D0%BF%D0%B5%D1%80%D0%B5%D1%85%D0%BE%D0%B4%D0%B8%D1%82%D1%8C%20%D0%BE%D1%82%20%D0%BC%D0%B0%D0%BB%D1%8B%D1%85%20%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B5%D0%B9%20%D0%BA%20%D0%B1%D0%BE%D0%BB%D1%8C%D1%88%D0%B8%D0%BC" alt="2026-07-01-redact-uncertainty-aware-deferral-llm-agents" class="img_ev3q"></p>
<p>ReDAct (Reason-Defer-Act) базируется на парадигме промптинга ReAct и вводит двухмодельную архитектуру агента. Малая дешевая модель — Qwen3-80B, Llama3.3-70B или Llama4-Maverick — по умолчанию обрабатывает каждый шаг. На каждом этапе она генерирует цепочку рассуждений, а затем — действие. Система измеряет неопределенность на уровне токенов <em>только на этапе генерации действия</em> и сравнивает её с откалиброванным порогом. Если неопределенность превышает этот порог, шаг перезапускается большой дорогой моделью (GPT-5.2, Qwen3-235B или Qwen3-480B); в противном случае выполняется действие малой модели.</p>
<p>Меры неопределенности основаны на теории информации и требуют только логарифмических вероятностей (log-probs) на уровне токенов: вероятность последовательности (суммарная отрицательная логарифмическая вероятность), перплексия (нормализованная по длине) и средняя энтропия токенов (средняя энтропия по позициям токенов). Порог калибруется на отложенной выборке прогонов малой модели путем выбора значения, которое обеспечивает целевое количество вызовов большой модели на эпизод K.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Измеряйте неопределенность на этапе действия, а не рассуждения.</strong> Дополнительный эксперимент на 2411 шагах ALFWorld показал, что неопределенность на уровне рассуждений плохо разграничивает правильные и неправильные шаги; перплексия на уровне действий имеет заметно более высокие показатели ROC-AUC и PRR как предиктор правильности.</li>
<li class=""><strong>Делегирование по PPL с Qwen3-80B + GPT-5.2 достигает 80.8% ± 1.1% на ALFWorld</strong>, превосходя результат одной GPT-5.2 (78.3% ± 1.9%), при стоимости $16.25 против $45.21 — экономия составляет примерно 64%.</li>
<li class=""><strong>На практике делегируется около 15% шагов</strong>, чтобы соответствовать калибровочной цели примерно в 10%; разрыв возникает из-за того, что неудачные (более короткие) траектории вносят непропорционально большой вклад в бюджет делегирования.</li>
<li class=""><strong>Случайное делегирование с той же частотой дает 77.0%</strong> — это все равно лучше, чем использование только малой модели (68.3%), но хуже, чем делегирование под руководством UQ (оценки неопределенности). Сигнал неопределенности действительно важен, а не просто сам факт более частого обращения к большой модели.</li>
<li class=""><strong>MiniGrid показывает меньший потенциал роста.</strong> Qwen3-80B + GPT-5.2 с делегированием по PPL достигает 95.0% против 99.0% у одной GPT-5.2. Узкий словарный запас задач создает жесткий потолок для подхода с делегированием, когда малая модель структурно не подходит для задачи.</li>
<li class=""><strong>Распределение делегирования зависит от задачи.</strong> В ALFWorld больше задач делегируется на поздних этапах (длинная история промптов), тогда как MiniGrid демонстрирует бимодальный паттерн, связанный с начальной позицией агента. Это означает, что фиксированная калибровка порога лучше обобщается внутри семейства задач, чем между ними.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что--нет">Что подтверждается, а что — нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE--%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что — нет" title="Прямая ссылка на заголовок Что подтверждается, а что — нет" translate="no">​</a></h2>
<p>Основной эмпирический вывод заслуживает доверия: перплексия строки действия является разумным прокси-показателем того, пойдет ли конкретный шаг не так. Декомпозиция рассуждение/действие в ReAct естественным образом предоставляет удобную точку для прикрепления сигнала неопределенности, а вспомогательный эксперимент по прогнозированию правильности дает подлинное механистическое обоснование выбора дизайна.</p>
<p>В чем я менее уверен: в результате «превосходит одну большую модель» на ALFWorld. Значения 80.8% ± 1.1% и 78.3% ± 1.9% пересекаются в пределах одного стандартного отклонения. Авторы объясняют это взаимодополняющими сильными сторонами — малая модель справляется с рутинными шагами без периодического неоправданного риска, свойственного большой модели, — но нет пошагового абляционного исследования для проверки этой гипотезы. Это вполне может быть статистическим шумом.</p>
<p>Выбор бенчмарков также ограничен. ALFWorld и MiniGrid — это текстовые симуляции домашнего хозяйства и навигация в сеточном мире; узкие среды, в которых не используются вызовы инструментов, выполнение кода или поиск по нескольким документам. Остается открытым вопрос, сохранится ли эффективность делегирования с калибровкой по неопределенности в таких более богатых условиях (актуальных для Beancount). А выбор GPT-5.2 в качестве большой модели затрудняет воспроизведение данных о стоимости.</p>
<p>Процедура калибровки содержит неучтенную цикличность: порог выбирается на том же распределении, на котором он калибровался, без отложенной валидации. Авторы признают сдвиг распределения между калибровкой (прогоны малой модели) и оценкой (гибридные прогоны), но оставляют изучение устойчивости порога для будущих работ.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-ии-в-финансах">Почему это важно для ИИ в финансах<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D0%B8%D0%B8-%D0%B2-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%B0%D1%85" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для ИИ в финансах" title="Прямая ссылка на заголовок Почему это важн�о для ИИ в финансах" translate="no">​</a></h2>
<p>Агенты записи в Beancount сталкиваются ровно с тем же вопросом делегирования при каждой транзакции. Обычная покупка продуктов требует категоризации; необычный многоэтапный валютный своп с частично совпадающим примечанием (memo) требует участия человека. Текущая практика — это либо полная автоматизация (рискованно), либо полный ручной обзор (дорого). Фреймворк ReDAct предлагает практически применимый компромисс: запускать дешевую модель и эскалировать задачу, когда перплексия предлагаемой записи в журнале превышает откалиброванный порог.</p>
<p>Финансовый контекст добавляет два соображения, которые не рассматриваются в статье. Во-первых, делегирование здесь часто должно означать <em>остановку и запрос пользователя</em>, а не вызов более крупной LLM — стандартом корректности реестра является намерение пользователя, а не оценка в бенчмарке. Во-вторых, необратимость зафиксированной записи в Beancount выше, чем у неправильно положенного предмета в ALFWorld. Целевой показатель калибровки K, вероятно, должен быть настроен консервативно в сторону более низкой точности на малой модели перед делегированием, а не наоборот.</p>
<p>Сигнал о снижении затрат на 64% стоит воспринимать серьезно даже с этими оговорками. Если агент Beancount обрабатывает транзакции за месяц, и только 15% решений по категоризации требуют дорогой модели, экономика использования способного агента записи выглядит гораздо привлекательнее.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-почитать-дальше">Что почитать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что почитать дальше" title="Прямая ссылка на заголовок Что почитать дальше" translate="no">​</a></h2>
<ul>
<li class=""><strong>KnowNo</strong> (Ren et al., 2023, CoRL): "Robots that ask for help: uncertainty alignment for large language model planners" — использует конформное прогнозирование для калибровки гарантии <em>покрытия</em> того, когда нужно просить о помощи. ReDAct не сравнивается с ним; понимание компромисса между конформными гарантиями и калибровкой порога важно перед выбором подхода для продакшн-системы. [arXiv:2307.01928]</li>
<li class=""><strong>A Survey of Confidence Estimation and Calibration in Large Language Models</strong> (Guo et al. updated, NAACL 2024) — систематическая таксономия вербализованной уверенности, методов на основе сэмплирования и апостериорной калибровки; теоретическая база для решения вопроса о том, является ли перплексия правильным прокси-показателем неопределенности или калиброванное масштабирование логитов сработает лучше. [arXiv:2311.08298]</li>
<li class=""><strong>UALA: Uncertainty-Aware Language Agent</strong> (Han, Buntine, Shareghi) — применяет структурно схожий порог неопределенности к решению о <em>вызове инструмента</em> (вызвать инструмент или положиться на знания модели), сокращая количество вызовов инструментов более чем на 50%; прямое дополнение к ReDAct в аспекте использования инструментов агентами. [<a href="https://uala-agent.github.io/" target="_blank" rel="noopener noreferrer" class="">https://uala-agent.github.io/</a>]</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Machine Learning</category>
            <category>Beancount</category>
            <category>Decision-making</category>
            <category>Plain-Text Accounting</category>
            <category>Trust</category>
        </item>
        <item>
            <title><![CDATA[OpenHands: открытая платформа для ИИ-агентов-разработчиков и её значение для автоматизации финансов]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents</guid>
            <pubDate>Tue, 30 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[OpenHands — это платформа для агентов с лицензией MIT и песочницей Docker, где CodeAct достигает 26% на SWE-Bench Lite. Это отрезвляющий бенчмарк, который показывает реальные возможности ИИ-агентов на сегодня и объясняет, почему первые эффективные внедрения в финансах должны иметь четкие границы, а не быть полностью автономными.]]></description>
            <content:encoded><![CDATA[<p>Я постоянно сталкиваюсь с OpenHands как со вспомогательным слоем под TheAgentCompany, InvestorBench и растущим списком работ по оценке — однако я ещё не читал саму статью. Это инфраструктура, на которой потихоньку строится всё остальное в этой области, поэтому понимание того, что она на самом деле дает и в чем её недостатки, важнее любого отдельного результата бенчмарка, построенного на её основе.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="статья">Статья<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%D1%81%D1%82%D0%B0%D1%82%D1%8C%D1%8F" class="hash-link" aria-label="Прямая ссылка на заголовок Статья" title="Прямая ссылка на заголовок Статья" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=OpenHands%3A%20%D0%BE%D1%82%D0%BA%D1%80%D1%8B%D1%82%D0%B0%D1%8F%20%D0%BF%D0%BB%D0%B0%D1%82%D1%84%D0%BE%D1%80%D0%BC%D0%B0%20%D0%B4%D0%BB%D1%8F%20%D0%98%D0%98-%D0%B0%D0%B3%D0%B5%D0%BD%D1%82%D0%BE%D0%B2-%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D1%87%D0%B8%D0%BA%D0%BE%D0%B2%20%D0%B8%20%D0%B5%D1%91%20%D0%B7%D0%BD%D0%B0%D1%87%D0%B5%D0%BD%D0%B8%D0%B5%20%D0%B4%D0%BB%D1%8F%20%D0%B0%D0%B2%D1%82%D0%BE%D0%BC%D0%B0%D1%82%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D0%B8%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2" alt="2026-06-30-openhands-open-platform-ai-software-developers-generalist-agents" class="img_ev3q"></p>
<p>OpenHands (Wang et al., 2024; ICLR 2025) — это платформа с открытым исходным кодом для создания и оценки LLM-агентов, выступающих в роли универсальных разработчиков ПО. Основное утверждение авторов (команды из 24 человек под руководством Синъяо Ванга и Грэма Ньюбига) заключается в том, что большинство существующих фреймворков для агентов либо слишком узки для исследований (жестко закодированные циклы задач), либо слишком узки для продакшена (закрытый исходный код или узкая специализация), чтобы служить общей основой для сообщества. OpenHands пытается исправить это, предоставляя стандартизированную среду выполнения, чистую абстракцию агента и 15 интегрированных бенчмарков в одном MIT-репозитории.</p>
<p>Среда выполнения представляет собой изолированный Docker-контейнер, содержащий оболочку bash, сервер Jupyter IPython и браузер Chromium под управлением Playwright. Агенты взаимодействуют через три основных типа действий: <code>IPythonRunCellAction</code> для Python, <code>CmdRunAction</code> для команд оболочки и <code>BrowserInteractiveAction</code> для веб-навигации. Примитив координации нескольких агентов, <code>AgentDelegateAction</code>, позволяет основному агенту порождать специализированных субагентов. Дефолтной основой является CodeAct — концепция, изначально опубликованная в виде отдельной статьи, в которой утверждается, что код является идеальным унифицированным пространством действий для LLM-агентов. Платформа поставляется с несколькими реализациями агентов, включая универсальный CodeActAgent и специализированный BrowsingAgent.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Код как универсальное пространство действий</strong>: CodeAct объединяет все действия агента (редактирование файлов, вызовы API, преобразование данных) в Python или bash, позволяя LLM рассуждать в той же среде, на которой она обучалась больше всего. Это позволяет избежать хрупкости схем JSON, которая преследует агентов, использующих вызов функций.</li>
<li class=""><strong>Изолированная среда выполнения в Docker</strong>: каждый агент запускается в отдельном контейнере, поэтому он может свободно выполнять произвольный код без угрозы для хост-машины — это обязательное условие для любого финансового агента в продакшене, которому могут быть доверены реальные учетные данные.</li>
<li class=""><strong>15 бенчмарков в одной связке</strong>: SWE-Bench Lite (исправление кода), HumanEvalFix (исправление багов), WebArena (веб-навигация), GPQA (рассуждения на уровне выпускника вуза), GAIA (решение общих задач) и еще десять. Совместное размещение предотвращает предвзятость при выборе результатов для оценки.</li>
<li class=""><strong>CodeActAgent + claude-3.5-sonnet достигает 26% на SWE-Bench Lite</strong> и 79,3% на HumanEvalFix; BrowsingAgent достигает 15,5% на WebArena — конкурентоспособные результаты zero-shot без специального обучения под конкретные задачи.</li>
<li class=""><strong>Производительность на GAIA</strong>: 32,1% с использованием GPTSwarm, что значительно ниже человеческого уровня в 92% — это согласуется с результатами других бенчмарков для универсальных агентов, показывающих разрыв в 60–70 пунктов между человеком и агентом.</li>
<li class=""><strong>Масштаб сообщества</strong>: 71,4 тыс. звезд на GitHub и более 188 участников на момент подачи статьи на ICLR; TheAgentCompany приняла OpenHands в качестве своей среды оценки, что придало ей статус де-факто стандартной инфраструктуры для бенчмарков.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что-нет">Что подтверждается, а что нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE-%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что нет" title="Прямая ссылка на заголовок Что подтверждается, а что нет" translate="no">​</a></h2>
<p>Архитектура изолированной среды выполнения — это солидное инженерное решение. Изоляция выполнения агента в Docker является правильным выбором по умолчанию для любой системы, которой позже может быть предоставлен доступ на запись в реальные финансовые журналы. Также искренне полезно, что бенчмарки собраны вместе, а не разбросаны по несовместимым репозиториям.</p>
<p>Однако охват бенчмарков скорее амбициозен, чем систематичен. 15 бенчмарков охватывают совершенно разные типы задач и уровни сложности без четкой структуры того, как результаты должны агрегироваться или сравниваться. Отчет о 26% на SWE-Bench Lite наряду с 79,3% на HumanEvalFix в одной и той же статье рискует создать впечатление, что один и тот же агент одновременно и посредственный, и превосходный — задачи просто несопоставимы. Авторы не предлагают принципиальной методологии агрегации результатов по нескольким бенчмаркам.</p>
<p>Предположение CodeAct о том, что код является правильным универсальным форматом действий, оспаривается. Это хорошо работает для задач разработки, но накладывает посреднический слой Python/bash на каждое действие, что увеличивает задержку и дает сбои, когда семантика действия не ложится чисто на код (двусмысленные инструкции пользователя, API только на естественном языке). В статье не приводится сравнение с пространствами действий, не основанными на коде, чтобы доказать, что преимущество реально, а не обусловлено мощью самой LLM.</p>
<p>Возможно, самым важным пробелом является разрыв между оценкой и реальным развертыванием. Показатель 26% в SWE-Bench получен на относительно чистом, четко специфицированном бенчмарке. Отчеты сообщества и ветки обсуждений на GitHub постоянно описывают гораздо более низкую надежность в реальных задачах с двусмысленными условиями или длинным горизонтом планирования — тот же режим отказа, который задокументировала TheAgentCompany. В статье не рассматривается вопрос о том, как измерять или повышать устойчивость в условиях зашумленной спецификации задач.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-финансов-и-ии">Почему это важно для финансов и ИИ<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2-%D0%B8-%D0%B8%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для финансов и ИИ" title="Прямая ссылка на заголовок Почему это важно для финансов и ИИ" translate="no">​</a></h2>
<p>OpenHands — это самое близкое к общему фундаменту для агентов, что есть у сообщества. Если Bean Labs будет строить инфраструктуру оценки для Beancount-агентов, архитектуру среды выполнения отсюда — песочница Docker, действия на Python/bash, подключаемые бэкенды LLM — стоит перенять, а не изобретать заново. Примитив <code>AgentDelegateAction</code> естественным образом ложится на конвейер финансового агента, где оркестратор верхнего уровня делегирует задачи специализированным субагентам: одному для чтения гроссбуха, другому для выявления аномалий, третьему для подготовки записей, которые затем проверяет человек.</p>
<p>Цифры SWE-Bench и TheAgentCompany, если читать их вместе, устанавливают отрезвляющую базу: даже лучшие доступные агенты выполняют примерно 26–30% реалистичных, недвусмысленных задач по разработке ПО. Автоматизация финансовых журналов сложнее — транзакции часто двусмысленны, цена ошибки реальна, а намерения пользователя часто не до конца специфицированы. Правильный вывод заключается не в том, что агенты не готовы, а в том, что первыми продуктивными внедрениями будут строго ограниченные рабочие процессы «записи в один проход» (предложения по категоризации, сверка), а не автономное многоэтапное редактирование гроссбуха.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-почитать-дальше">Что почитать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что почитать дальше" title="Прямая ссылка на заголовок Что почитать дальше" translate="no">​</a></h2>
<ul>
<li class=""><strong>ReDAct: Uncertainty-Aware Deferral for LLM Agents</strong> (arXiv:2604.07036) — объединяет дешевую модель с дорогой и передает задачу дорогой модели только при высокой неопределенности; напрямую отвечает на вопрос, как агент в стиле OpenHands должен решать, когда передать запись в Beancount на проверку человеку.</li>
<li class=""><strong>FinTrace: Holistic Trajectory-Level Evaluation of LLM Tool Calling for Long-Horizon Financial Tasks</strong> (arXiv:2604.10015) — 800 экспертно размеченных последовательностей задач в 34 финансовых сценариях; методология оценки использования инструментов на длинном горизонте, которой не хватает OpenHands для специфики финансов.</li>
<li class=""><strong>FinMCP-Bench: Benchmarking LLM Agents for Real-World Financial Tool Use under the Model Context Protocol</strong> (arXiv:2603.24943) — 613 примеров использования 65 реальных финансовых инструментов MCP; напрямую относится к тому, как Beancount-агент, построенный на базе OpenHands, будет оцениваться в реальном развертывании через MCP.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>Open Source</category>
            <category>Automation</category>
            <category>LLM</category>
            <category>Developers</category>
            <category>Beancount</category>
            <category>Plain-Text Accounting</category>
            <category>Machine Learning</category>
        </item>
        <item>
            <title><![CDATA[Fin-RATE: Как LLM терпят неудачу в кросс-периодном и кросс-субъектном финансовом анализе]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark</guid>
            <pubDate>Mon, 29 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[Fin-RATE тестирует 17 LLM на 7 500 парах вопросов и ответов, отобранных экспертами из 2 472 отчетов SEC. Исследование выявило падение точности на 18,60% при лонгитюдном отслеживании и снижение на 54 пункта для специализированной финансовой модели Fin-R1 в кросс-субъектных задачах. Основным узким местом оказался конвейер поиска данных (retrieval), а не базовая модель.]]></description>
            <content:encoded><![CDATA[<p>Траектория развития бенчмарков финансовых LLM продолжает расширяться, и Fin-RATE — самый наглядный пример того, что происходит, когда мы просим модели делать то, что делают реальные аналитики: отслеживать компанию не только в рамках одного отчета, но и за несколько периодов, а также в сравнении с конкурентами по отрасли.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="исследование">Исследование<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%D0%B8%D1%81%D1%81%D0%BB%D0%B5%D0%B4%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Исследование" title="Прямая ссылка на заголовок Исследование" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=Fin-RATE%3A%20%D0%9A%D0%B0%D0%BA%20LLM%20%D1%82%D0%B5%D1%80%D0%BF%D1%8F%D1%82%20%D0%BD%D0%B5%D1%83%D0%B4%D0%B0%D1%87%D1%83%20%D0%B2%20%D0%BA%D1%80%D0%BE%D1%81%D1%81-%D0%BF%D0%B5%D1%80%D0%B8%D0%BE%D0%B4%D0%BD%D0%BE%D0%BC%20%D0%B8%20%D0%BA%D1%80%D0%BE%D1%81%D1%81-%D1%81%D1%83%D0%B1%D1%8A%D0%B5%D0%BA%D1%82%D0%BD%D0%BE%D0%BC%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%BE%D0%BC%20%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7%D0%B5" alt="2026-06-29-fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark" class="img_ev3q"></p>
<p>Fin-RATE, опубликованный в феврале 2026 года Идуном Цзяном, Цзюньжуном Чэнем и их коллегами из Йеля и партнерских институтов, представляет собой бенчмарк, созданный на основе 2 472 отчетов SEC 43 компаний из 36 отраслей за период 2020–2025 гг. Бенчмарк включает 7 500 отобранных экспертами пар вопросов и ответов, разделенных на три типа задач, отражающих рабочие процессы профессиональных аналитиков: DR-QA (детализация и рассуждение в рамках одного отчета), EC-QA (кросс-субъектное сравнение двух компаний по общей теме) и LT-QA (лонгитюдное отслеживание одной и той же фирмы за разные отчетные периоды). Каждый тип задачи содержит 2 500 вопросов. Оценка охватывает 17 LLM — проприетарные модели, включая GPT-4.1 и GPT-5, открытые модели общего назначения, такие как DeepSeek-V3 и Llama-3.3-70B, и специализированные финансовые модели, такие как Fin-R1, Fino1-14B, FinanceConnect-13B и TouchstoneGPT-7B. Для оценки используется унифицированный фреймворк «LLM в качестве судьи» с тремя независимыми судьями (GPT-5, DeepSeek-V3.2, Qwen3-235B), которые оценивают каждый ответ на правильность и по пяти аналитическим измерениям.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class="">Производительность падает по мере роста сложности задач: точность снижается в среднем на 18,60% при переходе от DR-QA по одному документу к лонгитюдному LT-QA, и на 14,35% от DR-QA к кросс-субъектному EC-QA для всех 17 моделей.</li>
<li class="">GPT-5 с веб-поиском показывает лучшие результаты, однако его пиковая точность составляет всего 43–44% во всех трех типах задач — удручающий показатель для бенчмарка, призванного имитировать реальную работу аналитиков.</li>
<li class="">Fin-R1, специализированная финансовая модель с функциями рассуждения, достигает 57,48% в DR-QA, но обваливается до 3,32% в EC-QA — падение на 54 пункта, что значительно превышает деградацию любой модели общего назначения.</li>
<li class="">В условиях RAG (генерация с дополненным поиском) производительность всех моделей падает ниже 27% по сравнению с результатами на «золотом контексте» (до 57,48%); конвейер поиска, а не сама LLM, является критическим узким местом.</li>
<li class="">Работа вводит таксономию ошибок из 13 типов, разделенных на четыре категории: галлюцинации и противоречия, финансово-специфические числовые и семантические ошибки, ошибки понимания запроса/контекста и сбои на уровне поиска. В задаче EC-QA с использованием RAG на «отсутствие доказательств» (Missing Evidence) приходится 75,44% ошибок.</li>
<li class="">Специализированные финансовые модели демонстрируют систематически более высокий уровень галлюцинаций в сложных задачах по сравнению с моделями общего назначения, несмотря на лучшее владение финансовой терминологией.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что--нет">Что подтверждается, а что — нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE--%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что — нет" title="Прямая ссылка на заголовок Что подтверждается, а что — нет" translate="no">​</a></h2>
<p>Трехкомпонентная структура задач спроектирована действительно грамотно. Большинство финансовых бенчмарков (FinQA, TAT-QA, FinanceBench) рассматривают QA как задачу по одному документу. Fin-RATE одним из первых явно моделирует кросс-субъектное сравнение и лонгитюдное отслеживание как первостепенные задачи, и результаты обнажают фундаментальный пробел: современные LLM сносно справляются с изолированными ответами по отчетности, но разваливаются, как только им нужно синтезировать данные из разных документов, компаний или временных периодов.</p>
<p>Провал Fin-R1 — самый поразительный результат работы, и я считаю, что ему уделяется недостаточно внимания. Финансово-ориентированная модель, преуспевающая в извлечении данных из одного документа, судя по всему, «загнала себя в угол» при обучении: она выучила шаблоны ответов внутри одного документа, но не стратегии рассуждения для сопоставления субъектов и периодов. Это конкретное предостережение против узкоспециализированной тонкой настройки (fine-tuning) без явного контроля над рассуждениями по нескольким документам. Модель, вероятно, переобучилась на поверхностном паттерне «найти число в отчете» и не имеет путей обобщения для задачи «сравнить это число с эквивалентным числом в другом отчете другой компании».</p>
<p>При этом есть методологические вопросы, заслуживающие внимания. GPT-5 одновременно является одной из оцениваемых моделей и одним из трех судей. Авторы используют трех судей для уменьшения индивидуальной предвзятости, что помогает, но совпадение судьи и самой сильной оцениваемой модели вызывает дискомфорт. В работе сообщается о высоком согласии между судьями, но отдельно не количественно не оценивается, какую долю своих собственных ответов оценил GPT-5 и отличаются ли его оценки систематически от оценок двух других судей. Любая предвзятость при самооценке может завышать итоговый результат лучшей модели в исследовании.</p>
<p>Выборка из 43 компаний также невелика. Охват типов отчетности похвально широк (10-K, 10-Q, 8-K, 6-K, DEF 14A, а также серии S и SC), но одни и те же 43 компании фигурируют во всех задачах. Модели, видевшие отчетность этих компаний на этапе предварительного обучения, имеют неучтенное преимущество, а в статье отсутствует анализ на предмет загрязнения данных (contamination analysis).</p>
<p>Вывод о роли поиска (retrieval) важен, но неполон. Авторы фиксируют, что производительность RAG падает примерно на 30 пунктов по сравнению с идеальным контекстом из-за ошибок поиска. Но они тестируют только одну конфигурацию RAG — ошибка поиска рассматривается как диагноз, а не как переменная для систематического изучения. Последующая работа, тестирующая различные архитектуры поиска на базе Fin-RATE, была бы гораздо более полезной для практического применения.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-ии-в-финансах">Почему это важно для ИИ в финансах<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D0%B8%D0%B8-%D0%B2-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%B0%D1%85" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для ИИ в финансах" title="Прямая ссылка на заголовок Почему это важно для ИИ в финансах" translate="no">​</a></h2>
<p>Аудит журналов Beancount требует именно тех двух возможностей, которые, как показывает Fin-RATE, работают плохо: лонгитюдное отслеживание (как менялся этот счет в течение финансовых лет?) и кросс-субъектное сравнение (согласуется ли баланс этой дочерней компании с консолидированным отчетом?). Падение точности на 18,60% при временном отслеживании — это конкретная цифра, которая должна скорректировать ожидания от любого агента Beancount, рассуждающего о нескольких отчетных периодах. Если передовые модели терпят неудачу на уровне 43% при лонгитюдном анализе SEC на идеальном контексте, то агент Beancount, работающий с многолетней историей проводок, должен проектироваться с явным акцентом на поиск, временную привязку и эскалацию на человека, а не на сквозной (end-to-end) вывод LLM.</p>
<p>Вывод о доминирующей роли поиска важнее всего для определения приоритетов при проектировании систем. Если производительность на идеальном контексте почти вдвое выше производительности RAG, то правильные инвестиции должны быть направлены в лучшее разбиение на фрагменты (chunking), выбор пассажей и поиск, а не в более мощную базовую LLM. Это перекликается с тем, что DocFinQA обнаружил для длинных отчетов SEC: узким местом является конвейер вокруг модели.</p>
<p>Предупреждение по поводу Fin-R1 также напрямую относится к использованию Beancount. Тонкая настройка на синтаксисе Beancount DSL и паттернах транзакций может создать модель, которая хорошо справляется с генерацией простых записей, но ломается на сверке нескольких счетов за несколько периодов, что и делает аудит полезным. Специализация без обучения рассуждению по нескольким документам хрупка именно в тех аспектах, которые измеряет Fin-RATE.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-почитать-дальше">Что почитать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что почитать дальше" title="Прямая ссылка на заголовок Что почитать дальше" translate="no">​</a></h2>
<ul>
<li class="">Fin-R1 (arXiv:2503.16252) — чтобы понять, какая настройка обучения привела к столь хрупкой производительности при работе с несколькими документами и входило ли вообще в задачи обучение рассуждению по нескольким документам.</li>
<li class="">FinTrace (arXiv:2604.10015) — оценка вызова инструментов LLM на уровне траектории в 34 категориях финансовых задач; дополняет статичный взгляд Fin-RATE диагностикой на уровне процесса: где модели вызывают нужные инструменты, но не могут сделать выводы на основе результатов.</li>
<li class="">OpenHands (arXiv:2407.16741) — открытая платформа агентов, лежащая в основе оценок TheAgentCompany; понимание ее архитектуры проясняет, какие базовые возможности агентов были доступны, а какие пробелы связаны со сложностью задач, а не с ограничениями платформы.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Analytics</category>
            <category>Financial Reporting</category>
            <category>Data Science</category>
            <category>Reconciliation</category>
        </item>
        <item>
            <title><![CDATA[FinDER: реальные запросы аналитиков выявили 74%-ный разрыв в полноте поиска для финансовых RAG-систем]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation</guid>
            <pubDate>Sun, 28 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[FinDER оценивает RAG на 5 703 реальных запросах аналитиков хедж-фондов к отчетам 10-K компаний S&P 500; E5-Mistral достигает лишь 25,95% полноты контекста, а запросы с обилием аббревиатур снижают точность на 8,2 пункта — доказательство того, что нормализация запросов, а не улучшение эмбеддингов, является первоочередной задачей для финансовых AI-конвейеров.]]></description>
            <content:encoded><![CDATA[<p>FinDER (arXiv:2504.15800) — это бенчмарк для систем поиска, построенный на простом, но недооцененном наблюдении: запросы, которые вводят реальные финансовые специалисты, совсем не похожи на приглаженные вопросы из академических тестов. Я изучаю его, потому что он находится на пересечении двух тем, за которыми я слежу: разрыва в качестве поиска в финансовом ИИ и проблемы практического реализма, которую начали подсвечивать DocFinQA и FinanceBench.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="о-статье">О статье<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%D0%BE-%D1%81%D1%82%D0%B0%D1%82%D1%8C%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок О статье" title="Прямая ссылка на заголовок О статье" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinDER%3A%20%D1%80%D0%B5%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B5%20%D0%B7%D0%B0%D0%BF%D1%80%D0%BE%D1%81%D1%8B%20%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D1%82%D0%B8%D0%BA%D0%BE%D0%B2%20%D0%B2%D1%8B%D1%8F%D0%B2%D0%B8%D0%BB%D0%B8%2074%25-%D0%BD%D1%8B%D0%B9%20%D1%80%D0%B0%D0%B7%D1%80%D1%8B%D0%B2%20%D0%B2%20%D0%BF%D0%BE%D0%BB%D0%BD%D0%BE%D1%82%D0%B5%20%D0%BF%D0%BE%D0%B8%D1%81%D0%BA%D0%B0%20%D0%B4%D0%BB%D1%8F%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D1%8B%D1%85%20RAG-%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC" alt="2026-06-28-finder-financial-dataset-rag-evaluation" class="img_ev3q"></p>
<p>Чанёль Чхве, Джихун Квон и их коллеги из фирмы по финансовому ИИ представляют набор данных из 5 703 аннотированных экспертами триплетов «запрос–доказательство–ответ», полученных из реального сервиса вопросов и ответов для аналитиков хедж-фондов. Документы представляют собой отчеты по форме 10-K 490 компаний из индекса S&amp;P 500, собранные из базы SEC EDGAR. Что отличает FinDER от предыдущих бенчмарков, так это характер запросов: 89,86% из них содержат три или более специфических для отрасли аббревиатуры или акронима. Вместо «Какова общая выручка компании X за 2023 финансовый год?» реальный аналитик может написать «GOOGL 10-K FY23 выручка разбив по сегм.». Набор данных был опубликован на семинаре ICLR 2025 «Достижения в финансовом ИИ» и позже появился на ICAIF 2025.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Полнота поиска шокирующе низка по всем направлениям</strong>: E5-Mistral (лучшая модель плотного поиска) достигает лишь 25,95% общей полноты контекста; BM25 показывает 11,68%. Категория «Финансы» — наиболее релевантная для бухгалтерского учета — является самой сложной: 15,84% и 6,42% соответственно.</li>
<li class=""><strong>Одна только неопределенность запроса обходится в 8,2 пункта точности</strong>: Тестируя E5-Mistral на 500 запросах, авторы сравнивают корректно сформулированные перефразы (точность 33,9) с реальными запросами с аббревиатурами (точность 25,7). Разрыв полностью объясняется обработкой аббревиатур/акронимов, а не сложностью документов.</li>
<li class=""><strong>Качество поиска — доминирующее «узкое место» для генерации</strong>: LLM без контекста показывают результат, близкий к нулю (9–10% правильных ответов); с 10 лучшими найденными фрагментами они достигают 29–34%; с идеальным «оракульным» контекстом результат прыгает до 60–68%. Этот 35-пунктовый разрыв между реалистичными условиями и «оракулом» больше, чем разрыв между открытыми и передовыми моделями.</li>
<li class=""><strong>Составная арифметика не справляется даже при хорошем поиске</strong>: Задачи на многошаговые вычисления (составные запросы) достигают лишь ~20% точности на всех четырех моделях — Claude-3.7-Sonnet, GPT-o1, DeepSeek-R1-Distill и Qwen-QWQ — даже при наличии 10 лучших найденных фрагментов. GPT-o1 лидирует в задачах на умножение с результатом 42,90%, но падает до 27,78% при делении.</li>
<li class=""><strong>Переранжирование с помощью LLM дает скромное, но стабильное улучшение</strong>: Позволяя моделям переранжировать 10 лучших результатов E5-Mistral перед ответом, Claude-3.7-Sonnet достигает F1 63,05, а GPT-o1 — 62,90. Deepseek-R1-Distill отстает с результатом 60,01, несмотря на сильные показатели в структурированных рассуждениях в других тестах.</li>
<li class=""><strong>Сложность категорий неравномерна</strong>: Запросы по рискам легче всего поддаются поиску (полнота E5-Mistral: 33,07); «Финансы» остаются самыми трудными (15,84). Это коррелирует со структурой запроса: раскрытие рисков использует естественный язык, финансовые таблицы — плотную числовую нотацию.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-выдерживает-критику-а-что-нет">Что выдерживает критику, а что нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%D1%87%D1%82%D0%BE-%D0%B2%D1%8B%D0%B4%D0%B5%D1%80%D0%B6%D0%B8%D0%B2%D0%B0%D0%B5%D1%82-%D0%BA%D1%80%D0%B8%D1%82%D0%B8%D0%BA%D1%83-%D0%B0-%D1%87%D1%82%D0%BE-%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что выдерживает критику, а что нет" title="Прямая ссылка на заголовок Что выдерживает критику, а что нет" translate="no">​</a></h2>
<p>Основной вклад солиден: это распределение реальных запросов от работающих аналитиков, и проблема аббревиатур действительно актуальна. Любой бенчмарк, построенный на Википедии или краудсорсинге в стиле FinQA, упускает это из виду. Трехуровневая структура оценки — без контекста, реалистичный поиск, оракульный контекст — правильный дизайн; она четко отделяет качество поиска от качества рассуждений и показывает остаточный разрыв в генерации (все еще ~32–34% неудач даже с идеальным контекстом в качественных вопросах).</p>
<p>Самое слабое место статьи — воспроизводимость. На момент публикации набор данных не был общедоступным — авторы заявляют, что «планируют выпустить его публично позже». Это серьезная проблема для статьи с семинара, претендующей на статус стандарта оценки. Бенчмарки, которые не опубликованы, — это не бенчмарки, а тематические исследования (case studies). С тех пор работа появилась на ICAIF 2025, так что релиз мог состояться, но версия на arXiv этого не подтверждает.</p>
<p>Оценка поиска также использует только четыре одноэтапные модели (BM25, GTE, mE5, E5-Mistral). Нет гибридного поиска, нет расширения запросов, нет HyDE, нет этапа перезаписи, направленного именно на проблему аббревиатур. Учитывая, что авторы точно охарактеризовали разрыв из-за сокращений, удивительно, что они не протестировали очевидное решение: развертывание запроса («GOOGL» → «Alphabet Inc.») перед поиском. Этот эксперимент отсутствует.</p>
<p>Результаты генерации заслуживают более внимательного прочтения. Показатель в ~9–10% без контекста не является полезной нижней границей — это практически ноль — но потолок «оракула» в 60–68% более информативен, чем кажется. Даже имея на руках правильный фрагмент, лучшие модели терпят неудачу примерно в одной трети качественных вопросов и в четырех пятых задач на составную арифметику. Этот потолок важен: он означает, что поиск сам по себе не решит проблему.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-ai-в-финансах">Почему это важно для AI в финансах<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-ai-%D0%B2-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%B0%D1%85" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для AI в финансах" title="Прямая ссылка на заголовок Почему это важно для AI в финансах" translate="no">​</a></h2>
<p>Распределение запросов в FinDER хорошо проецируется на то, как пользователи Beancount на самом деле взаимодействуют с агентом главной книги. Пользователь, который годами ведет свои счета, будет вводить сокращенные, контекстные запросы — «AMZN карта Q3 возм?» вместо «Каковы возмещения по кредитной карте Amazon в третьем квартале?». Стандартные модели эмбеддингов не смогут найти нужные записи, потому что они обучались на чистом тексте на естественном языке. Падение точности на 8,2 пункта при переходе от чистых запросов к реальным, вероятно, является консервативной оценкой для домена личных финансов, где специфические сокращения («упр недв сб» для «сбора за управление недвижимостью») еще дальше от обучающих данных, чем стандартные аббревиатуры SEC.</p>
<p>Потолок полноты контекста в 25,95% у E5-Mistral — это стимул к действию: любой RAG-конвейер для Beancount должен учитывать большую долю упущенных доказательств. Один из выводов заключается в том, что повторный поиск с высокой полнотой (несколько проходов, диверсифицированные формулировки запросов) важнее, чем повышение F1 за один проход. Другой вывод — нормализация запросов (сопоставление пользовательских сокращений с каноническими названиями счетов перед поиском) должна быть явным этапом предобработки, а не отдаваться на откуп модели эмбеддингов.</p>
<p>Точность составной арифметики в 20% даже с оракульным контекстом — это отдельный сигнал: для вычислительных задач в Beancount «узким местом» генерации являются рассуждения, а не поиск. Вынос вычислений в стиле PAL (генерация кода на Python вместо текстового расчета) остается правильным ответом для числовых задач, независимо от того, насколько хорошим станет поиск.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-почитать-дальше">Что почитать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что почитать дальше" title="Прямая ссылка на заголовок Что почитать да�льше" translate="no">​</a></h2>
<ul>
<li class=""><strong>Fin-RATE</strong> (arXiv:2602.07294) — сопутствующий бенчмарк для многопериодного отслеживания по отчетам SEC; точность падает на 18,60% в задачах, связанных со временем, что напрямую отражает проблему многолетних журналов Beancount.</li>
<li class=""><strong>IRCoT</strong> (arXiv:2212.10509, ACL 2023) — чередование поиска с рассуждениями в стиле цепочки мыслей; структура многопроходного поиска напрямую решает проблему низкой полноты за один проход, выявленную в FinDER.</li>
<li class=""><strong>Расширение запросов с помощью LLM для специализированного поиска</strong> — пока нет единого бенчмарка, который бы хорошо это освещал, но разрыв в аббревиатурах FinDER делает это первоочередным приоритетом исследований; поиск по запросам «HyDE financial domain» и «query expansion SEC filings 2025» будет правильной отправной точкой.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Finance</category>
            <category>Beancount</category>
            <category>Data Science</category>
            <category>Financial Reporting</category>
        </item>
        <item>
            <title><![CDATA[Затерянные посередине: позиционное смещение в LLM и его влияние на финансовый ИИ]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts</guid>
            <pubDate>Sat, 27 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[В статье TACL 2024 года Лю и др. показывают, что LLM работают на 20 пунктов хуже с информацией, скрытой в середине длинного контекста — U-образная деградация затрагивает все протестированные модели, включая Claude-1.3-100K — с конкретными выводами о том, как пайплайны RAG должны упорядочивать извлеченные фрагменты в финансовых и бухгалтерских приложениях.]]></description>
            <content:encoded><![CDATA[<p>Оглядываясь на запись DocFinQA — где пайплайны на основе поиска и LLM с длинным контекстом потерпели неудачу при обработке документов SEC с контекстом в 123 тысячи токенов — вопрос, который я оставил открытым, заключался в том, <em>почему</em> это произошло. Статья Лю и др. (TACL 2024, arXiv:2307.03172) дает механистический ответ, и оказывается, что этот тип сбоя проще и устойчивее, чем я ожидал.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="статья">Статья<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%D1%81%D1%82%D0%B0%D1%82%D1%8C%D1%8F" class="hash-link" aria-label="Прямая ссылка на заголовок Статья" title="Прямая ссылка на заголовок Статья" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D0%97%D0%B0%D1%82%D0%B5%D1%80%D1%8F%D0%BD%D0%BD%D1%8B%D0%B5%20%D0%BF%D0%BE%D1%81%D0%B5%D1%80%D0%B5%D0%B4%D0%B8%D0%BD%D0%B5%3A%20%D0%BF%D0%BE%D0%B7%D0%B8%D1%86%D0%B8%D0%BE%D0%BD%D0%BD%D0%BE%D0%B5%20%D1%81%D0%BC%D0%B5%D1%89%D0%B5%D0%BD%D0%B8%D0%B5%20%D0%B2%20LLM%20%D0%B8%20%D0%B5%D0%B3%D0%BE%20%D0%B2%D0%BB%D0%B8%D1%8F%D0%BD%D0%B8%D0%B5%20%D0%BD%D0%B0%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D1%8B%D0%B9%20%D0%98%D0%98" alt="2026-06-27-lost-in-the-middle-language-models-long-contexts" class="img_ev3q"></p>
<p>«Затерянные посередине: как языковые модели используют длинные контексты» Нельсона Ф. Лю, Кевина Лина, Джона Хьюитта, Ашвина Паранджапе, Микеле Бевилакуа, Фабио Петрони и Перси Ляна описывает два целевых эксперимента: ответы на вопросы по нескольким документам на базе NaturalQuestions-Open (с 10, 20 и 30 извлеченными документами) и синтетический поиск пар «ключ-значение» (с 75, 140 и 300 парами). В каждом эксперименте они систематически меняли положение релевантного документа или пары «ключ-значение» внутри входного контекста — начало, середина или конец — при сохранении всех остальных параметров. Вывод однозначен: производительность описывает U-образную кривую с провалом в середине контекста, и эта кривая проявляется у всех протестированных моделей.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>U-образная форма реальна и стабильна.</strong> В сценарии QA с 20 документами точность в первой позиции составила около 75%, снизилась до примерно 55% на 10-й позиции и восстановилась до 72% на 20-й позиции — разрыв между краями и центром составил около 20 пунктов.</li>
<li class=""><strong>Все модели следуют одной и той же схеме.</strong> Протестированные модели включают как закрытые, так и открытые, малые и большие: GPT-3.5-Turbo (4K и 16K), GPT-4, Claude-1.3 (8K и 100K), MPT-30B-Instruct и LongChat-13B. U-образная кривая проявилась в каждой из них, включая модели, явно позиционируемые как имеющие расширенные окна контекста.</li>
<li class=""><strong>Даже Claude-1.3-100K не застрахован.</strong> Вариант со 100K-контекстом вел себя так же, как и остальные. Длинное окно контекста не означает, что модель действительно распределяет внимание равномерно по нему.</li>
<li class=""><strong>Базовый уровень «закрытой книги» отрезвляет.</strong> GPT-3.5-Turbo без каких-либо документов правильно ответила на 56,1% вопросов NaturalQuestions; при наличии прямого доступа только к одному релевантному документу результат достиг 88,3%. Но в худших средних позициях в сценарии с 20 документами производительность упала ниже уровня «закрытой книги» — это означает, что добавление контекста было активно вредным.</li>
<li class=""><strong>Модели энкодер-декодер (Flan-T5-XXL, Flan-UL2) более надежны в пределах своей тренировочной длины, но возвращаются к той же схеме, когда контекст ее превышает.</strong> Архитектурное различие имеет значение, но оба типа все равно деградируют при масштабировании.</li>
<li class=""><strong>Коренная причина — причинная маскировка внимания.</strong> Каждый токен может обращаться только к предшествующим токенам, поэтому позиции в самом начале накапливают больший суммарный вес внимания во всей модели, чем позиции в середине. Эффекты недавности также подтягивают вверх показатели в конце контекста.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что-нет">Что подтверждается, а что нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE-%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что нет" title="Прямая ссылка на заголовок Что подтверждается, а ч�то нет" translate="no">​</a></h2>
<p>Экспериментальный дизайн здесь восхитительно чист: позиция — единственная переменная, задачи являются стандартными бенчмарками, а результат воспроизводится в широком диапазоне семейств моделей. У меня нет возражений против основного результата.</p>
<p>Что мне кажется менее убедительным, так это представление задачи поиска «ключ-значение» как значимого прокси для реального использования. Поиск UUID-в-UUID проверяет, может ли модель повторить заученную строку, а не способна ли она на логические рассуждения. U-кривая проявляется и там, что подкрепляет тезис о позиционном смещении, но это также означает, что в статье смешиваются два разных явления: точность извлечения в задачах на точное совпадение и качество рассуждений над релевантными фрагментами. Мне было бы интересно узнать, ухудшается или улучшается U-образная форма, когда релевантный документ требует многошагового логического вывода перед окончательным ответом, а не просто дословного воспроизведения.</p>
<p>Также есть пробел, который авторы в основном признают, но не устраняют: они так и не проверили, меняет ли тонкая настройка инструкций или RLHF чувствительность к позиции, проверив только влияние размера окна контекста. Учитывая, что коренная причина архитектурная (причинная маскировка), я подозреваю, что настройка инструкций это не исправит, но статья этого не подтверждает.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-финансового-ии">Почему это важно для финансового ИИ<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%BE%D0%B3%D0%BE-%D0%B8%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для финансового ИИ" title="Прямая ссылка на заголовок Почему это важно для финансового ИИ" translate="no">​</a></h2>
<p>Эта статья дает механистическое объяснение эмпирической закономерности, с которой я постоянно сталкиваюсь. DocFinQA провалилась на длинных документах SEC. IRCoT и FLARE извлекают несколько фрагментов и объединяют их перед рассуждением. Каждый пайплайн RAG, который я видел в финансовом контексте, последовательно сбрасывает извлеченные фрагменты в промпт и надеется, что модель обратит внимание на нужный.</p>
<p>Вывод для агентов Beancount вполне конкретен. Если агент извлекает десять записей реестра в качестве контекста, записи в позициях 3–7 подвергаются наибольшему риску быть проигнорированными или вызвать галлюцинации. Это проблема не извлечения, а представления. Из этой статьи следуют два решения: либо ставить наиболее диагностически важные записи первыми (и последними), либо вообще не объединять их и проводить рассуждения по одному фрагменту за раз.</p>
<p>Результаты также усложняют риторику вокруг LLM с длинным контекстом. Каждый квартал новая модель объявляет об увеличении окна контекста. Эта статья говорит о том, что длинное окно не означает то, что вы думаете, если вы равномерно распределяете доказательства в нем. Модель с контекстом 128K, которая прячет релевантную транзакцию на 60-й тысяче токенов, хуже, чем модель с контекстом 4K, которая извлекает именно тот фрагмент, который нужен.</p>
<p>Для безопасности обратной записи последствия неутешительны: если модель просят обобщить сессию работы с реестром, а соответствующее правило политики «не проводить эту транзакцию» оказывается в середине длинного системного промпта, модель может повести себя так, будто она никогда не читала это правило.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-читать-дальше">Что читать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%D1%87%D1%82%D0%BE-%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что читать дальше" title="Прямая ссылка на заголовок Что читать дальше" translate="no">​</a></h2>
<ul>
<li class=""><strong>"Found in the Middle: How Language Models Use Long Contexts Better via Plug-and-Play Positional Encoding"</strong> («Найдено посередине: как языковые модели лучше используют длинные контексты с помощью подключаемого позиционного кодирования», Zhang и др., arXiv:2403.04797) — предлагает многомасштабное позиционное кодирование (Ms-PoE) как исправление без переобучения через масштабирование RoPE; заявляет об улучшении до 3,8 пункта на Zero-SCROLLS, напрямую решая проблему U-кривой.</li>
<li class=""><strong>"Never Lost in the Middle: Mastering Long-Context Question Answering with Position-Agnostic Decompositional Training"</strong> («Никогда не теряться посередине: мастерство ответов на вопросы в длинном контексте с помощью декомпозиционного обучения, не зависящего от позиции», arXiv:2311.09198) — использует противоположный подход и обучает модель быть явно независимой от позиции; сравнение с Ms-PoE проясняет, является ли тонкая настройка или ухищрения на этапе вывода лучшим инструментом.</li>
<li class=""><strong>"Mitigate Position Bias in Large Language Models via Scaling a Single Dimension"</strong> («Смягчение позиционного смещения в больших языковых моделях путем масштабирования одного измерения», arXiv:2406.02536) — выявляет конкретное измерение скрытых состояний позиций, ответственное за смещение, и масштабирует его без переобучения; самое хирургическое исправление, предложенное на данный момент, актуальное для развертывания существующих моделей без переобучения.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Data Science</category>
            <category>Finance</category>
            <category>Technology</category>
            <category>Analytics</category>
        </item>
        <item>
            <title><![CDATA[Бенчмарк AD-LLM: GPT-4o достигает 0,93+ AUROC в режиме Zero-Shot для обнаружения текстовых аномалий]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection</guid>
            <pubDate>Fri, 26 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[Бенчмарк AD-LLM оценивает GPT-4o и Llama 3.1 8B в трех ролях — детектора zero-shot, инструмента аугментации данных и советника по выбору модели — на пяти наборах данных NLP; GPT-4o достигает AUROC 0,93–0,99 в режиме zero-shot, однако выбор моделей на базе LLM остается ненадежным, что имеет прямое значение для ИИ в сфере финансового аудита.]]></description>
            <content:encoded><![CDATA[<p>В последних двух статьях этой серии мы рассматривали AnoLLM и CausalTAD — подходы на основе дообучения (fine-tuning) и промпт-инжиниринга для обнаружения аномалий в табличных данных. Прежде чем внедрять какой-либо из них в промышленную эксплуатацию, необходимо понять, на каком этапе развития сейчас находятся LLM в широком спектре парадигм обнаружения аномалий. Именно в этом заключается цель AD-LLM — бенчмарка, оценивающего LLM в трех различных ролях: детектора zero-shot, движка для аугментации данных и советника по выбору модели. Основное внимание уделяется текстовым данным NLP, а не табличным записям в бухгалтерских книгах, однако методологические уроки вполне применимы.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="научная-работа">Научная работа<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%D0%BD%D0%B0%D1%83%D1%87%D0%BD%D0%B0%D1%8F-%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%B0" class="hash-link" aria-label="Прямая ссылка на заголовок Научная работа" title="Прямая ссылка на заголовок Научная работа" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D0%91%D0%B5%D0%BD%D1%87%D0%BC%D0%B0%D1%80%D0%BA%20AD-LLM%3A%20GPT-4o%20%D0%B4%D0%BE%D1%81%D1%82%D0%B8%D0%B3%D0%B0%D0%B5%D1%82%200%2C93%2B%20AUROC%20%D0%B2%20%D1%80%D0%B5%D0%B6%D0%B8%D0%BC%D0%B5%20Zero-Shot%20%D0%B4%D0%BB%D1%8F%20%D0%BE%D0%B1%D0%BD%D0%B0%D1%80%D1%83%D0%B6%D0%B5%D0%BD%D0%B8%D1%8F%20%D1%82%D0%B5%D0%BA%D1%81%D1%82%D0%BE%D0%B2%D1%8B%D1%85%20%D0%B0%D0%BD%D0%BE%D0%BC%D0%B0%D0%BB%D0%B8%D0%B9" alt="2026-06-26-ad-llm-benchmarking-llms-anomaly-detection" class="img_ev3q"></p>
<p>Тянькай Ян, И Нянь и их коллеги из USC и Texas A&amp;M представили AD-LLM (arXiv:2412.11142, ACL Findings 2025) — первый бенчмарк для систематической оценки LLM в трех парадигмах обнаружения аномалий на наборах данных NLP. Условия задачи — одноклассовая классификация: обучающие данные содержат только нормальные образцы, а модель должна выявлять аномалии во время тестирования. Пять наборов данных — AG News, BBC News, IMDB Reviews, N24 News и SMS Spam — получены из задач классификации текста, где одна из категорий обозначена как аномальная. В работе сравниваются две LLM, GPT-4o и Llama 3.1 8B Instruct, с 18 традиционными неконтролируемыми (unsupervised) базовыми моделями, которые включают как сквозные методы (CVDD, DATE), так и двухэтапные комбинации «эмбеддинги + детектор» (эмбеддинги OpenAI + LUNAR, LOF, Isolation Forest и др.).</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="основные-идеи">Основные идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%D0%BE%D1%81%D0%BD%D0%BE%D0%B2%D0%BD%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Основные идеи" title="Прямая ссылка на заголовок Основные идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Обнаружение в режиме Zero-shot хорошо работает для текста.</strong> GPT-4o показывает AUROC от 0,9293 до 0,9919 на пяти наборах данных в режиме «Норма+Аномалия»; Llama 3.1 достигает 0,8612–0,9487. Лучшая традиционная базовая модель, OpenAI + LUNAR, набирает около 0,92 на AG News — GPT-4o сравнивается с ней или превосходит её без всякого обучения.</li>
<li class=""><strong>Синтетическая аугментация помогает стабильно, но умеренно.</strong> Синтетические образцы, сгенерированные LLM, улучшают конвейер OpenAI + LUNAR на всех пяти наборах данных. Аугментация описаний категорий также улучшает большинство базовых моделей, хотя результаты неоднородны — Llama 3.1 увеличивает AUROC на +0,07 на IMDB Reviews, но в других местах прирост меньше.</li>
<li class=""><strong>Выбор модели — слабое звено.</strong> GPT-o1-preview рекомендует модели, которые превосходят среднюю базовую производительность на большинстве наборов данных, а иногда приближаются к лучшему методу (например, на IMDB Reviews и SMS Spam). Однако она ни разу не смогла надежно определить лучшую модель, и авторы признают, что рекомендации основаны на упрощенных входных данных, в которых отсутствуют специфические статистические показатели датасета.</li>
<li class=""><strong>Разрыв между открытым ПО и проприетарными моделями реален.</strong> Преимущество GPT-4o по AUROC над Llama 3.1 8B составляет 4–13 пунктов в зависимости от набора данных. Этот разрыв соответствует паттерну, наблюдаемому в работах по обнаружению аномалий в табличных данных в режиме zero-shot.</li>
<li class=""><strong>В области обнаружения аномалий NLP все еще не хватает окончательного бенчмарка.</strong> Пять наборов данных, производных от корпусов для классификации, — это мало. Сопутствующая работа NLP-ADBench (EMNLP Findings 2025) расширяет список до восьми наборов данных и 19 алгоритмов, но по-прежнему использует ту же конструкцию «семантическая категория как аномалия», что делает эти задачи несколько искусственными.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что--нет">Что подтверждается, а что — нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE--%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что — нет" title="Прямая ссылка на заголовок Что подтверждается, а что — нет" translate="no">​</a></h2>
<p>Результаты zero-shot выглядят убедительно. Использование LLM в качестве оценщиков без дообучения на размеченных данных аномалий действительно полезно, когда класс аномалий семантически связен — спам-сообщение отличается от обычного SMS так, как это понимает хорошо обученная языковая модель. Показатели AUROC высоки, а сравнение с сильными базовыми моделями на основе эмбеддингов OpenAI является честным.</p>
<p>Однако сфера применения ограничена, что в статье несколько приуменьшается. Во всех пяти наборах данных аномалии закодированы как иная <em>тематическая категория</em> — спам против легитимных SMS, новости от стороннего издателя против новостей из основной выборки. Это означает, что LLM, по сути, выполняет тематическую классификацию — задачу, на которой она была специально предварительно обучена. Бенчмарк не включает семантические аномалии внутри одной категории (например, необычные транзакции внутри одного типа счета), а ведь именно такие аномалии важны для финансового аудита.</p>
<p>Задачи аугментации данных и выбора моделей оцениваются на тех же пяти датасетах, поэтому статья в итоге проверяет, могут ли LLM немного улучшить решение одной и той же узкой проблемы. Авторы честно перечисляют шесть ограничений — включая то, что они тестируют лишь подмножество LLM, исключают режимы few-shot и дообучения, и полагаются на упрощенные входные данные для выбора моделей. Это подчеркивает предварительный характер данного бенчмарка.</p>
<p>Один результат стоит отметить для скептиков: показатели AUPRC существенно ниже AUROC для обеих моделей. Llama 3.1 на BBC News достигает AUROC 0,8612, но лишь 0,3960 AUPRC, что отражает дисбаланс классов в одноклассовой постановке задачи. В контексте высокоточного аудита AUPRC является более значимой метрикой, и здесь картина выглядит менее радужной.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-ии-в-финансах">Почему это важно для ИИ в финансах<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D0%B8%D0%B8-%D0%B2-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%B0%D1%85" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для ИИ в финансах" title="Прямая ссылка на заголовок Почему это важно для ИИ в финансах" translate="no">​</a></h2>
<p>Повестка Bean Labs включает два сценария обнаружения аномалий: выявление необычных записей в бухгалтерской книге в реальном времени (табличные, структурированные данные) и маркировка подозрительного повествовательного текста в инвойсах, меморандумах или тикетах поддержки (неструктурированный NLP). AD-LLM напрямую относится ко второму случаю и дает нам реалистичный «потолок»: GPT-4o может в режиме zero-shot обнаруживать тематические аномалии в тексте с AUROC выше 0,93 на чистых, сбалансированных данных. Это полезный ориентир, но аномалии в описаниях проводок более тонкие: меморандум к счету, который описывает рутинную услугу, но относится к поставщику, замеченному в подозрительных схемах, не является проблемой тематической классификации. Бенчмарк дает отправную точку, но не готовый ответ.</p>
<p>Вывод о выборе моделей интересен отдельно для проектирования систем. Мечта о том, чтобы спросить у LLM «какой детектор аномалий мне использовать для этого набора данных?» и получить надежный ответ, пока не сбывается. Это означает, что выбор между дообучением в стиле AnoLLM, причинно-следственными промптами в стиле CausalTAD или классическим методом эмбеддингов по-прежнему требует человеческого суждения или систематической эмпирической оценки — это нельзя делегировать советнику на базе LLM.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-почитать-дальше">Что почитать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что почитать дальше" title="Прямая ссылка на заголовок Что почитать дальше" translate="no">​</a></h2>
<ul>
<li class=""><strong>NLP-ADBench</strong> (arXiv:2412.04784, EMNLP Findings 2025) — сопутствующий бенчмарк от той же группы, охватывающий восемь наборов данных и 19 алгоритмов; предоставляет более широкий контекст классических базовых моделей, который не может обеспечить AD-LLM.</li>
<li class=""><strong>Large Language Models for Anomaly and Out-of-Distribution Detection: A Survey</strong> (arXiv:2409.01980, NAACL Findings 2025) — обзор всего ландшафта подходов к обнаружению аномалий на базе LLM для текста, изображений и таблиц; помогает понять место AD-LLM относительно предыдущих работ.</li>
<li class=""><strong>AnoLLM: Large Language Models for Tabular Anomaly Detection</strong> (OpenReview:7VkHffT5X2, ICLR 2025) — табличный аналог; сравнение его подхода на основе логарифмического правдоподобия (likelihood) со стратегией zero-shot на основе промптов в AD-LLM проясняет, какая парадигма больше подходит для записей в реестре Beancount.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Data Science</category>
            <category>Fraud Detection</category>
            <category>Analytics</category>
            <category>Anomaly Detection</category>
        </item>
        <item>
            <title><![CDATA[CausalTAD: каузальное упорядочивание столбцов для обнаружения аномалий в табличных данных с помощью LLM]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection</guid>
            <pubDate>Thu, 25 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[CausalTAD улучшает обнаружение аномалий в табличных данных на базе LLM путем переупорядочивания столбцов таблицы с учетом каузальных зависимостей перед сериализацией, повышая средний показатель AUC-ROC с 0,803 до 0,834 по сравнению с AnoLLM на бенчмарках смешанного типа — что имеет прямое значение для обнаружения аномалий в структурированных данных бухгалтерских книг.]]></description>
            <content:encoded><![CDATA[<p>В предыдущей записи рассматривался AnoLLM, который дообучает небольшую LLM для оценки аномалий в таблицах через отрицательное логарифмическое правдоподобие. CausalTAD (arXiv:2602.07798) задает важный уточняющий вопрос: имеет ли значение порядок, в котором вы подаете столбцы в эту LLM? Ответ, как выяснилось, положительный: внедрение каузальной структуры в упорядочивание дает стабильный и воспроизводимый прирост производительности.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="о-статье">О статье<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%D0%BE-%D1%81%D1%82%D0%B0%D1%82%D1%8C%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок О статье" title="Прямая ссылка на заголовок О статье" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=CausalTAD%3A%20%D0%BA%D0%B0%D1%83%D0%B7%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B5%20%D1%83%D0%BF%D0%BE%D1%80%D1%8F%D0%B4%D0%BE%D1%87%D0%B8%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5%20%D1%81%D1%82%D0%BE%D0%BB%D0%B1%D1%86%D0%BE%D0%B2%20%D0%B4%D0%BB%D1%8F%20%D0%BE%D0%B1%D0%BD%D0%B0%D1%80%D1%83%D0%B6%D0%B5%D0%BD%D0%B8%D1%8F%20%D0%B0%D0%BD%D0%BE%D0%BC%D0%B0%D0%BB%D0%B8%D0%B9%20%D0%B2%20%D1%82%D0%B0%D0%B1%D0%BB%D0%B8%D1%87%D0%BD%D1%8B%D1%85%20%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85%20%D1%81%20%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E%20LLM" alt="2026-06-25-causaltad-causal-knowledge-llm-tabular-anomaly-detection" class="img_ev3q"></p>
<p>Ванг и др. предлагают CausalTAD — метод, который надстраивается над детекторами аномалий типа AnoLLM и вносит одно целевое изменение: вместо сериализации строк таблицы в случайном или произвольном порядке столбцов, он обнаруживает каузальные (причинно-следственные) зависимости между ними и переупорядочивает их с учетом этих зависимостей перед тем, как LLM прочтет строку.</p>
<p>Работа состоит из двух функциональных частей. Первая — модуль каузального упорядочивания столбцов. Авторы адаптируют фреймворк извлечения факторов COAT: LLM считывает метаданные столбцов и образцы данных для извлечения семантических факторов высокого уровня (например, для транзакций по кредитным картам фактор «Компенсация» может объединять столбцы суммы и продавца). На основе этих факторов три алгоритма каузального обнаружения — PC, LiNGAM и FCI — строят ориентированные графы причинности. Проблема переупорядочивания столбцов превращается в задачу линейного упорядочивания: найти перестановку π, максимизирующую сумму весов ориентированных ребер так, чтобы столбцы-причины шли перед столбцами-следствиями в сериализованном тексте. Поскольку задача линейного программирования имеет много близких к оптимальным решений, они выбирают K ≈ 10 вариантов упорядочивания в пределах 90% от оптимума и усредняют результат.</p>
<p>Вторая часть — модуль перевзвешивания с учетом каузальности. Не все столбцы одинаково важны. Столбец, влияющий на множество факторов, получает более высокий вес αj = |M⁻¹(cj)|, соответствующий количеству факторов, в которые он вносит вклад. Итоговая оценка аномальности — это средневзвешенное значение отрицательных логарифмических правдоподобий по столбцам для K вариантов упорядочивания.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="основные-идеи">Основные идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%D0%BE%D1%81%D0%BD%D0%BE%D0%B2%D0%BD%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Основные идеи" title="Прямая ссылка на заголовок Основные идеи" translate="no">​</a></h2>
<ul>
<li class="">Порядок столбцов — это нетривиальное индуктивное смещение для авторегрессионных LLM: размещение столбца-причины перед столбцом-следствием позволяет модели опираться на правильный контекст при присвоении правдоподобия следствию.</li>
<li class="">Каузальное обнаружение на уровне факторов (а не на уровне исходных столбцов) позволяет методу обрабатывать таблицы смешанного типа, где прямое каузальное обнаружение между разнородными столбцами затруднено из-за шума.</li>
<li class="">На 6 бенчмарках со смешанными типами данных CausalTAD с использованием SmolLM-135M достигает среднего AUC-ROC 0,834 против 0,803 у AnoLLM — абсолютное улучшение на 3,1 пункта при использовании той же базовой модели.</li>
<li class="">В частности, на датасете Fake Job Posts CausalTAD показывает результат 0,873 против 0,800 у AnoLLM — относительный прирост 9,1%, что достаточно существенно для реальных систем сортировки данных.</li>
<li class="">В 30 числовых бенчмарках ODDS CausalTAD достигает лучшего среднего AUC-ROC, стабильно превосходя классические базовые решения (Isolation Forest, ECOD, KNN) и глубокие методы (DeepSVDD, SLAD).</li>
<li class="">Все три алгоритма каузального обнаружения превзошли случайное упорядочивание в абляционном исследовании; LiNGAM незначительно опередил PC и FCI на наборах данных смешанного типа.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что--нет">Что подтверждается, а что — нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE--%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что — нет" title="Прямая ссылка на заголовок Что подтверждается, а что — нет" translate="no">​</a></h2>
<p>Основное утверждение — о том, что каузальный порядок столбцов помогает — хорошо обосновано. Абляционное исследование проведено чисто: замена случайного порядка любым из трех методов каузального обнаружения улучшает результаты в бенчмарке Fake Job Posts (с 0,832 до 0,870–0,873), а перевзвешивание по количеству факторов дает дополнительный прирост в каждой конфигурации. Это выглядит убедительно.</p>
<p>Менее убедительным мне кажется предположение о самозагрузке (bootstrapping). Каузальный граф строится с использованием LLM для извлечения семантических факторов из тех самых данных, которые система должна анализировать. Если LLM неверно поймет предметную область — скажем, специфическую систему учета с нестандартными именами столбцов — извлечение факторов будет ошибочным, а плохой каузальный граф, пожалуй, хуже случайного порядка, так как вносит систематическую ошибку. Авторы признают этот риск («зависит от способности LLM извлекать факторы»), но не тестируют точность извлечения факторов отдельно.</p>
<p>Также существует проблема вычислительных затрат, которая серьезнее, чем представлено в статье. Запуск трех алгоритмов каузального обнаружения, решение задачи линейного программирования, выборка K вариантов порядка и последующий инференс на K сериализованных версиях каждой тестовой точки умножает стоимость инференса на K. Для бухгалтерской книги с миллионами записей это критично. В статье отмечается, что «будущая работа может быть сосредоточена на повышении эффективности», но конкретных профилей производительности не приводится.</p>
<p>Наконец, 30 числовых датасетов ODDS хорошо изучены и, возможно, уже исчерпаны для подобных методов. Более значимый сигнал дают 6 датасетов смешанного типа — они более реалистичны для финансов — и улучшения там, хотя и реальные, в абсолютном выражении выглядят умеренными.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-ии-в-финансах">Почему это важно для ИИ в финансах<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D0%B8%D0%B8-%D0%B2-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%B0%D1%85" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для ИИ в финансах" title="Прямая ссылка на заголовок Почему это важно для ИИ в финансах" translate="no">​</a></h2>
<p>Транзакции Beancount обладают подлинной каузальной структурой: сумма проводки каузально определяет выбор счета, счет определяет ожидания по контрагенту, а текст примечания каузально зависит от всех трех факторов. Случайная сериализация столбцов игнорирует это, а значит, модель типа AnoLLM видит вариант «memo: groceries | account: Expenses<!-- -->:Food<!-- --> | amount: $4200» так же часто, как и правильно упорядоченную версию.</p>
<p>CausalTAD предлагает принципиальный способ кодирования правила «сумма и счет идут первыми» без жесткого прописывания его в коде. Для аудиторских агентов Bean Labs это предполагает практический архитектурный выбор: перед оценкой пакета транзакций на наличие аномалий выполнить один проход для поиска каузального графа по схеме столбцов книги, а затем использовать этот фиксированный порядок для всех последующих выводов. Затраты на вычисления оплачиваются один раз на уровне схемы, а не за каждую транзакцию.</p>
<p>Пример обнаружения мошенничества с кредитными картами в статье по структуре задачи идентичен поиску аномалий в бухгалтерских книгах: разнородные признаки, редкие метки и каузальный порядок, который эксперты в предметной области знают интуитивно, но который LLM без подсказки могут проигнорировать.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-почитать-дальше">Что почитать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что почитать дальше" title="Прямая сс�ылка на заголовок Что почитать дальше" translate="no">​</a></h2>
<ul>
<li class=""><strong>AD-LLM: Benchmarking Large Language Models for Anomaly Detection</strong> (arXiv:2412.11142, ACL Findings 2025) — систематический бенчмарк по трем парадигмам обнаружения аномалий с помощью LLM, в который вписывается CausalTAD; дает полную картину вместо сравнения только AnoLLM и CausalTAD.</li>
<li class=""><strong>COAT: Boosting Large Language Model-Based In-Context Learning for Tabular Data</strong> (Liu et al., 2024) — фреймворк извлечения факторов, адаптированный в CausalTAD; понимание его работы проясняет, в каких моментах качество каузального графа может пострадать.</li>
<li class=""><strong>Causal discovery in heterogeneous data: a survey</strong> — для понимания относительных преимуществ PC, LiNGAM и FCI при работе с табличными данными смешанного типа, поскольку в статье они рассматриваются как взаимозаменяемые, хотя делают разные предположения о независимости.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Fraud Detection</category>
            <category>Data Science</category>
            <category>Anomaly Detection</category>
            <category>Beancount</category>
        </item>
        <item>
            <title><![CDATA[AnoLLM: Дообучение LLM для обнаружения аномалий в табличных финансовых данных]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection</guid>
            <pubDate>Wed, 24 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[AnoLLM (ICLR 2025) переосмысляет обнаружение аномалий в таблицах как оценку плотности вероятности LLM — дообучение на нормальных строках и оценка по отрицательному логарифмическому правдоподобию. Метод превосходит классические подходы на смешанных наборах данных о мошенничестве, но не дает преимуществ на чисто числовых данных, что имеет реальное значение для поиска аномалий в записях Beancount.]]></description>
            <content:encoded><![CDATA[<p>Статья об обнаружении аномалий с помощью LLM без предварительного обучения (zero-shot), которую я прочитал два дня назад (arXiv:2406.16308), показала, что GPT-4 может выявлять табличные выбросы без всякой подготовки, не уступая классическим базовым методам, таким как ECOD, на бенчмарке ODDS. Но у этого подхода была очевидная слабость: просьба к модели вывести список индексов аномальных строк ненадежна — опенсорсные модели регулярно галлюцинируют индексами, выходят за пределы диапазона или помечают каждую строку как подозрительную. AnoLLM, представленная на ICLR 2025 Че-Пин Цаем, Ганью Тенгом, Филлипом Уоллисом и Вэй Дином из Amazon, устраняет эту проблему, одновременно показывая отличные результаты на наборах данных смешанного типа, где чисто числовые базовые модели начинают давать сбои.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="статья">Статья<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%D1%81%D1%82%D0%B0%D1%82%D1%8C%D1%8F" class="hash-link" aria-label="Прямая ссылка на заголовок Статья" title="Прямая ссылка на заголовок Статья" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=AnoLLM%3A%20%D0%94%D0%BE%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5%20LLM%20%D0%B4%D0%BB%D1%8F%20%D0%BE%D0%B1%D0%BD%D0%B0%D1%80%D1%83%D0%B6%D0%B5%D0%BD%D0%B8%D1%8F%20%D0%B0%D0%BD%D0%BE%D0%BC%D0%B0%D0%BB%D0%B8%D0%B9%20%D0%B2%20%D1%82%D0%B0%D0%B1%D0%BB%D0%B8%D1%87%D0%BD%D1%8B%D1%85%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D1%8B%D1%85%20%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85" alt="2026-06-24-anollm-llm-fine-tuning-tabular-anomaly-detection" class="img_ev3q"></p>
<p>AnoLLM переосмысляет обнаружение аномалий в таблицах как оценку плотности вероятности языковой моделью, а не как классификацию через промпты. Вместо того чтобы просить LLM назвать подозрительные строки, авторы дообучают (fine-tune) предобученную языковую модель на сериализованных тренировочных строках из основного распределения (нормальных), а затем оценивают каждую тестовую строку по ее отрицательному логарифмическому правдоподобию (NLL) в рамках изученного распределения. Строка, которая совсем не похожа на тренировочное распределение, получает высокий показатель NLL — это и есть оценка аномальности. Никаких форматов индексов, никакого парсинга вывода, никакой хрупкой экстракции через регулярные выражения.</p>
<p>Сериализация преобразует каждую строку таблицы в строку на естественном языке с именами признаков и их значениями. Для текстовых столбцов NLL нормализуется по столбцам, чтобы избежать смещения из-за длины, иначе более длинные описания механически накапливали бы более высокие штрафы вероятности. Для числовых и категориальных столбцов сырой NLL на уровне токенов суммируется по всему полю. Модель дообучается в полуавтоматическом режиме (semi-supervised) — в обучение попадают только строки с меткой «нормально» — до 2000 шагов с использованием распределенного обучения на GPU.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class="">Проблема формата вывода: предыдущие подходы с предсказанием индексов требуют от LLM надежного вывода индексов аномальных строк из пакета данных. Модели семейства Llama часто привязывают неверные индексы к значениям, генерируют индексы за пределами размера пакета или просто перечисляют все подряд как аномалию. NLL полностью обходит эту проблему.</li>
<li class="">AnoLLM достигает наилучшей производительности на шести эталонных наборах данных со смешанными типами признаков, включая обнаружение мошенничества в автостраховании и наборы данных о мошенничестве в электронной коммерции с Kaggle.</li>
<li class="">На 30 преимущественно числовых наборах данных бенчмарка ODDS AnoLLM работает на уровне лучших классических базовых моделей — не явно лучше, а просто конкурентоспособно.</li>
<li class="">Нормализация NLL по столбцам для текстовых признаков — это небольшое, но критически важное инженерное решение: без него описание транзакции из тридцати токенов доминировало бы в оценке над двузначной суммой, что является неверным индуктивным смещением.</li>
<li class="">Контекст базового обучения: zero-shot подход GPT-4 (arXiv:2406.16308) достигает среднего AUROC 74.1 на ODDS, что сопоставимо с ECOD (75.5) и KNN (70.7). Преимущество AnoLLM проявляется именно на наборах данных, где текстовые и категориальные признаки несут значимый сигнал об аномалии.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что--нет">Что подтверждается, а что — нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE--%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на загол�овок Что подтверждается, а что — нет" title="Прямая ссылка на заголовок Что подтверждается, а что — нет" translate="no">​</a></h2>
<p>Основная идея NLL здравая. Использование дообученной языковой модели в качестве оценщика плотности над сериализованными строками принципиально верно, и оно естественным образом обрабатывает совместное распределение всех столбцов одновременно — то, что классические детекторы без учителя, применяемые столбец за столбцом, не могут сделать чисто. Исправление проблемы с предсказанием индексов действительно полезно, а сравнение с zero-shot базой выглядит честным.</p>
<p>Меня беспокоит разрыв между затратами и выгодой, о котором в статье сообщается недостаточно подробно. AnoLLM требует дообучения и обслуживания LLM для инференса — это существенные инфраструктурные обязательства по сравнению с запуском ECOD или IsolationForest на CPU за считанные секунды. На бенчмарке ODDS (чисто числовом) AnoLLM лишь «на уровне», но не лучше. Таким образом, аргументы в пользу AnoLLM лежат исключительно в плоскости смешанных типов данных, где шесть оцененных наборов данных взяты из задач по обнаружению мошенничества на Kaggle. Шесть датасетов — это тонкий эмпирический фундамент для сильной рекомендации, особенно учитывая, что наборы данных с Kaggle, как правило, имеют чистые схемы, фиксированную семантику столбцов и известную истину (ground truth) — все то, чего часто не хватает реальным данным из журналов учета (ledger data).</p>
<p>Проблема порядка столбцов также остается открытой. CausalTAD (arXiv:2602.07798) немедленно выявила этот пробел: AnoLLM сериализует столбцы в произвольном порядке, игнорируя причинно-следственные связи между полями. Для структурированных данных с известными причинно-следственными цепочками — например, тип счета влияет на допустимые диапазоны транзакций, которые влияют на ожидаемого контрагента — это реальное ограничение. CausalTAD формулирует переупорядочивание как задачу линейного упорядочивания и сообщает о стабильном улучшении по сравнению с AnoLLM на более чем 30 наборах данных. То, что этот пробел существовал и был так быстро обнаружен, наводит на мысль, что дизайн сериализации в AnoLLM не был до конца продуман.</p>
<p>Существует также вопрос масштабируемости, который в статье не рассматривается: при каком объеме нормальных обучающих примеров дообучение LLM становится выгоднее, чем, скажем, табличная модель глубокого обучения, обученная непосредственно на числовых признаках? Для личных журналов Beancount с несколькими тысячами записей стоимость вычислений может легко перекрыть любой выигрыш в точности.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-финансового-ии">Почему это важно для финансового ИИ<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%BE%D0%B3%D0%BE-%D0%B8%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для финансового ИИ" title="Прямая ссылка на заголовок Почему это важно для финансового ИИ" translate="no">​</a></h2>
<p>Записи в журнале Beancount — это именно тот тип смешанных данных, на который нацелена AnoLLM: суммы (числовые), названия счетов (структурированный текст), получатель/описание (произвольный текст), теги (категориальные), даты (структурированные). Одна строка вида <code>2024-03-15 * "AWS" "Cloud invoice" Assets:Checking -$2,400</code> кодирует информацию по всем этим типам одновременно. Классические детекторы аномалий здесь пасуют, потому что им нужна отдельная обработка для каждого типа столбцов, и они теряют корреляции между ними — совместный паттерн того, что счета от "AWS" должны быть в определенном диапазоне и списываться с конкретного счета.</p>
<p>Подход NLL в AnoLLM, в принципе, должен выучить эти совместные паттерны из обычных исторических записей и помечать отклонения в любой комбинации столбцов. Это потенциально полезнее, чем проверки на основе правил (JETs) или статистические тесты одного столбца.</p>
<p>Тем не менее, ограничение двойной записи — это структурное знание, которое AnoLLM не может выучить только из сериализованных строк: дебет должен быть равен кредиту, иерархия счетов должна соблюдаться. Эти доменные инварианты являются жесткими ограничениями, а не статистическими закономерностями, и никакое дообучение LLM на исторических строках не заставит модель соблюдать их надежно, если в обучающих данных есть исключения или артефакты округления. Правильная архитектура, вероятно, должна сочетать оценку NLL от AnoLLM для семантических аномалий с явными проверками правил для структурных отклонений.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-почитать-дальше">Что почитать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что почитать дальше" title="Прямая ссылка на заголовок Что почитать дальше" translate="no">​</a></h2>
<ul>
<li class="">CausalTAD (arXiv:2602.07798) — напрямую улучшает AnoLLM, внедряя причинно-следственный порядок столбцов; самое актуальное продолжение темы.</li>
<li class="">AD-LLM: Benchmarking Large Language Models for Anomaly Detection (arXiv:2412.11142, ACL Findings 2025) — предоставляет систематическую многопарадигмальную оценку, которой не хватает в статьях по отдельным методам.</li>
<li class="">"Language Models are Realistic Tabular Data Generators" (Borisov et al., arXiv:2210.06280, ICLR 2023) — модель BE-GREAT, которую AnoLLM использует в качестве базы; ее понимание проясняет, что именно AnoLLM улучшает помимо предсказания индексов.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Fraud Detection</category>
            <category>Data Science</category>
            <category>Beancount</category>
            <category>Finance</category>
        </item>
        <item>
            <title><![CDATA[LLM набирают 2,3% при генерации Beancount DSL: бенчмарк LLMFinLiteracy]]></title>
            <link>https://beancount.io/ru/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark</link>
            <guid>https://beancount.io/ru/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark</guid>
            <pubDate>Tue, 23 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[Бенчмарк LLMFinLiteracy показывает, что пять моделей с открытыми весами (~7B) генерируют полностью корректные транзакции Beancount лишь в 2,3% случаев. Ошибки сосредоточены в области бухгалтерской логики, а не синтаксиса, что указывает на необходимость использования обратной связи от компилятора как критического компонента для создания надежных агентов записи.]]></description>
            <content:encoded><![CDATA[<p>Эту статью я ждал с самого LOG-001: прямую эмпирическую проверку того, могут ли LLM генерировать валидные транзакции в формате Beancount DSL на основе финансовых сценариев на естественном языке. Фигероа и др. из Берлинского университета прикладных наук представили то, что они по праву называют первой опубликованной оценкой LLM в генерации финансовых транзакций для plain-text бухгалтерии. Краткий ответ: не могут, по крайней мере, надежно, даже при использовании промптинга «цепочка рассуждений» (chain-of-thought) и предоставлении реального балансового отчета Beancount в качестве контекста.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="статья">Статья<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%D1%81%D1%82%D0%B0%D1%82%D1%8C%D1%8F" class="hash-link" aria-label="Прямая ссылка на заголовок Статья" title="Прямая ссылка на заголовок Статья" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=LLM%20%D0%BD%D0%B0%D0%B1%D0%B8%D1%80%D0%B0%D1%8E%D1%82%202%2C3%25%20%D0%BF%D1%80%D0%B8%20%D0%B3%D0%B5%D0%BD%D0%B5%D1%80%D0%B0%D1%86%D0%B8%D0%B8%20Beancount%20DSL%3A%20%D0%B1%D0%B5%D0%BD%D1%87%D0%BC%D0%B0%D1%80%D0%BA%20LLMFinLiteracy" alt="2026-06-23-llm-beancount-dsl-financial-literacy-benchmark" class="img_ev3q"></p>
<p>Фигероа, Грундманн, Фрейданк, Лёзер и Недль оценивают пять моделей с открытыми весами (~7B) на бенчмарке из двух задач под названием LLMFinLiteracy. Задача 1 просит модели создать текстовые сценарии, которые повлияли бы на заданный коэффициент ликвидности (текущей, быстрой или абсолютной) на основе реального квартального баланса одной из пяти компаний индекса DAX (Airbus, Bayer, Deutsche Telekom, Mercedes-Benz, SAP). Задача 2 требует перевести эти сценарии в компилируемые транзакции Beancount. Компилятор Beancount служит инструментом проверки синтаксиса; эксперты в предметной области оценивают семантическую корректность. В статье вводится таксономия ошибок из 12 классов для двух задач и используется 9-шаговый промпт «цепочка рассуждений», включающий правила двойной записи, пример ввода/вывода и реальный баланс компании в формате Beancount. Оцениваемые модели — Llama-3-8B, Qwen-2-7B, Mistral-7B, CodeLlama-7B и CodeQwen-1.5-7B — запускались локально из-за конфиденциальности финансовых данных. Корпус включает 1500 сгенерированных образцов, из которых 300 стратифицированных записей были проверены людьми-экспертами.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключевые-идеи">Ключевые идеи<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%B2%D1%8B%D0%B5-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Прямая ссылка на заголовок Ключевые идеи" title="Прямая ссылка на заголовок Ключевые идеи" translate="no">​</a></h2>
<ul>
<li class="">Только 7 из 300 оцененных пар «сценарий-транзакция» (2,3%) были полностью верными от начала до конца; даже ограничение выборки тремя моделями общего назначения поднимает этот показатель лишь до 3,8%.</li>
<li class="">Две лучшие модели, Qwen-2-7B и Mistral-7B, создают правильные сценарии только в 21,67% и 20,00% случаев, а корректно компилируемые транзакции — лишь в 16,67% и 10,00% случаев.</li>
<li class="">Специализированные на коде модели (CodeLlama, CodeQwen) набрали 0% в обеих задачах; они ответили на шаблон промпта буквальной строкой «Processed — Waiting for next input», полностью проигнорировав задание.</li>
<li class="">Синтаксис не является узким местом: ни одна модель не допустила ни одной синтаксической ошибки. Ошибки лежат исключительно в плоскости бухгалтерской <em>логики</em> — ошибки баланса доминируют у Qwen-2 (61,67%) и Llama-3 (38,33%), в то время как Mistral чаще ссылается на счета, которых нет в предоставленном балансе (45% ошибок неизвестных счетов).</li>
<li class="">Значительная часть транзакций, которые успешно компилируются, семантически неверны — излюбленный трюк моделей заключается в том, чтобы назвать уменьшение обязательства «продажей долга», что увеличивает наличность, но по неверной причине.</li>
<li class="">GPT-4o, использованная в качестве автоматического судьи, не смогла выявить несоответствия во всех 10 абсурдных сценариях, которые ей показали, подтверждая, что самопроверка LLM не является надежным фильтром качества для бухгалтерских данных.</li>
<li class="">Модели в основном копируют пример ввода/вывода из промпта вместо обобщения: 7 верных пар очень похожи на структуру предоставленного примера транзакции.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-подтверждается-а-что-нет">Что подтверждается, а что нет<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D0%B4%D1%82%D0%B2%D0%B5%D1%80%D0%B6%D0%B4%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D0%B0-%D1%87%D1%82%D0%BE-%D0%BD%D0%B5%D1%82" class="hash-link" aria-label="Прямая ссылка на заголовок Что подтверждается, а что нет" title="Прямая ссылка на заголовок Что подтверждается, а что нет" translate="no">​</a></h2>
<p>Основной эмпирический вклад статьи солиден. Компилятор Beancount — это объективный, воспроизводимый критерий правильности, а использование реальных балансов компаний вместо игрушечных данных добавляет экологической валидности. Иерархическая таксономия ошибок продумана — прекращение оценки на первой же ошибке позволяет избежать начисления «частичных баллов» за мусорные выходы.</p>
<p>Тем не менее, есть очевидные ограничения, которые авторы в основном признают. Пять моделей с открытыми весами ~7B образца 2023–2024 годов — это лишь узкий срез возможностей современных ИИ; GPT-4o и Claude были исключены из соображений конфиденциальности, что объяснимо, но означает, что общая цифра (2,3% успеха) занижает показатели передовых моделей. Формулы финансовых коэффициентов намеренно не включались в промпты для проверки внутренних знаний предметной области — методологически интересный выбор, но он делает результаты несопоставимыми с любой реальной системой, где документация по формулам была бы доступна. Кроме того, 300 проверенных экспертами образцов на пять моделей, три коэффициента и пять компаний — это скромно; выборки на уровне «модель-коэффициент» слишком малы (12 образцов) для серьезных выводов о дисперсии.</p>
<p>Самый интересный методологический пробел — отсутствие итеративного протокола или протокола на основе обратной связи. Ни вызова инструментов, ни самокоррекции, ни цикла обратной связи с компилятором — только генерация в один проход. Учитывая, что CRITIC (LOG-012) и связанные работы показывают, что итеративное уточнение с инструментами существенно повышает точность в задачах с проверяемым результатом, эксперимент с «компилятором Beancount в цикле» дал бы гораздо больше информации о возможности практического применения.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="почему-это-важно-для-finance-ai">Почему это важно для Finance AI<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%8D%D1%82%D0%BE-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B4%D0%BB%D1%8F-finance-ai" class="hash-link" aria-label="Прямая ссылка на заголовок Почему это важно для Finance AI" title="Прямая ссылка на заголовок Почему это важно для Finance AI" translate="no">​</a></h2>
<p>Каждое проектное решение для агента записи Bean Labs опирается на предположения о том, что LLM могут делать с Beancount DSL. Эта статья — первая эмпирическая точка опоры. Основные выводы отрезвляют, но они также поддаются полезной интерпретации.</p>
<p>Во-первых, типы ошибок специфичны, а не случайны. Ошибки баланса и неизвестные счета — две доминирующие проблемы, и обе решаемы с помощью цикла обратной связи с компилятором: компилятор Beancount точно говорит, какой счет неизвестен и сбалансирована ли транзакция. Архитектура агента, которая итерирует на основе вывода компилятора, а не генерирует один раз и останавливается, должна существенно превзойти результаты прогона в один этап. Во-вторых, синтаксис дается «бесплатно». Модели явно усвоили поверхностную грамматику Beancount; они просто не могут надежно перевести финансовое намерение в правильное движение по счетам. Это различие важно для того, во что инвестировать: в промптинг или в дообучение (fine-tuning). В-третьих, вывод о том, что GPT-4o не может автоматически оценивать качество бухгалтерского учета, повышает планку для любых систем автоматической верификации: вам нужен компилятор плюс выборочные проверки экспертами, а не критик-LLM.</p>
<p>Статья также подтверждает то, что я подозревал в работе по обнаружению аномалий (LOG-049): LLM, работающие с финансовыми транзакциями, слишком охотно компилируют и отправляют данные. Категория «Неверно | Компилируется» — транзакции, которые проходят проверку синтаксиса, но семантически ошибочны — это именно тот сценарий отказа, который должен ловить защитный барьер агента записи. Транзакция может идеально сходиться по балансу и при этом записывать выручку как уменьшение обязательств, что не будет обнаружено никакой чисто синтаксической проверкой.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="что-почитать-дальше">Что почитать дальше<a href="https://beancount.io/ru/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%D1%87%D1%82%D0%BE-%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C-%D0%B4%D0%B0%D0%BB%D1%8C%D1%88%D0%B5" class="hash-link" aria-label="Прямая ссылка на заголовок Что почитать дальше" title="Прямая ссылка на заголовок Что почитать дальше" translate="no">​</a></h2>
<ul>
<li class="">AnoLLM: Large Language Models for Tabular Anomaly Detection (OpenReview:7VkHffT5X2, ICLR 2025) — оценка аномалий на основе правдоподобия как альтернатива пакетному обнаружению; естественно сочетается с сигналом компилятора Beancount для выявления структурно валидных, но статистически аномальных записей.</li>
<li class="">ReDAct: Uncertainty-Aware Deferral for LLM Agents (arXiv:2604.07036) — перенаправляет решения с низкой уверенностью на более крупную модель или человеку; напрямую касается вопроса о том, когда агент записи Beancount должен передать задачу на проверку человеку вместо продолжения цикла обратной связи с компилятором.</li>
<li class="">CRITIC: Large Language Models Can Self-Correct with Tool-Interactive Critiquing (arXiv:2305.11738, ICLR 2024) — наиболее релевантная работа для создания агента коррекции с компилятором в цикле поверх архитектуры, оцениваемой в данной статье.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>Beancount</category>
            <category>Plain-Text Accounting</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Financial Literacy</category>
            <category>Double-Entry</category>
            <category>Transaction Validation</category>
        </item>
    </channel>
</rss>