<?xml version="1.0" encoding="utf-8"?>
<feed xmlns="http://www.w3.org/2005/Atom">
    <id>https://beancount.io/bg/bean-labs/research-logs</id>
    <title>Beancount.io Blog</title>
    <updated>2026-07-12T00:00:00.000Z</updated>
    <generator>https://github.com/jpmonette/feed</generator>
    <link rel="alternate" href="https://beancount.io/bg/bean-labs/research-logs"/>
    <subtitle>Beancount.io Blog</subtitle>
    <icon>https://beancount.io/bg/img/favicon.png</icon>
    <entry>
        <title type="html"><![CDATA[FinRAGBench-V: Мултимодален RAG с визуални цитати във финансовата област]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain"/>
        <updated>2026-07-12T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[FinRAGBench-V (EMNLP 2025) е първият мащабен бенчмарк за мултимодален RAG с визуални цитати във финансовата област, обхващащ над 112 000 страници от документи и 1394 ръчно анотирани двойки въпрос-отговор. Най-добрите модели постигат едва 20–61% припомняне на цитати на ниво блок, а мултимодалното извличане превъзхожда текстовото с близо 50 процентни пункта.]]></summary>
        <content type="html"><![CDATA[<p>Финансовият изкуствен интелект е доминиран от текстови RAG системи, но реалните финансови документи са пълни с диаграми, таблици и фигури, които OCR не може да улови напълно. FinRAGBench-V (EMNLP 2025) е първият мащабен бенчмарк за оценка на мултимодален RAG с визуални цитати във финансовата област, а резултатите от него са изрезвяващо напомняне за това колко дълъг път имат да извървят производствените системи.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="документът">Документът<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%D0%B4%D0%BE%D0%BA%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D1%8A%D1%82" class="hash-link" aria-label="Директна връзка към Документът" title="Директна връзка към Документът" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinRAGBench-V%3A%20%D0%9C%D1%83%D0%BB%D1%82%D0%B8%D0%BC%D0%BE%D0%B4%D0%B0%D0%BB%D0%B5%D0%BD%20RAG%20%D1%81%20%D0%B2%D0%B8%D0%B7%D1%83%D0%B0%D0%BB%D0%BD%D0%B8%20%D1%86%D0%B8%D1%82%D0%B0%D1%82%D0%B8%20%D0%B2%D1%8A%D0%B2%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B0%D1%82%D0%B0%20%D0%BE%D0%B1%D0%BB%D0%B0%D1%81%D1%82" alt="2026-07-12-finragbench-v-multimodal-rag-visual-citation-financial-domain" class="img_ev3q"></p>
<p>Джао, Дзин, Ли и Гао от Пекинския университет представят FinRAGBench-V, двуезичен бенчмарк, съставен от реални финансови документи: изследователски доклади, финансови отчети, проспекти, академични трудове, списания и новинарски статии. Корпусът за извличане е значителен — 60 780 китайски страници и 51 219 английски страници в приблизително 1100 документа на език — съчетан с 1394 ръчно анотирани двойки въпрос-отговор, обхващащи седем категории въпроси: извеждане на заключения от текст, извличане на диаграми и таблици, числени изчисления, чувствителни към времето заявки и разсъждения върху няколко страници. Извън набора от данни, основният принос на документа е RGenCite — базова система, която генерира отговори заедно с визуални цитати на ниво пиксел под формата на координати на ограничителни кутии (bounding-box), маркиращи специфичните области на документа, които подкрепят всяко твърдение.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Мултимодалното извличане превъзхожда текстовото с огромна разлика</strong>: ColQwen2, модел за извличане чрез визуално-езикови методи, изграден върху вграждания (embeddings) на изображения на страници, постига Recall@10 от 90,13% (китайски) и 85,86% (английски). Най-добрите текстови модели за извличане, BM25 и BGE-M3, достигат максимум около 42,71%. Тази разлика не е грешка при закръгляне.</li>
<li class=""><strong>Точността на генериране е ниска дори за водещите модели</strong>: GPT-4o на английски достига 43,41% точност (ROUGE 24,66); o4-mini на китайски достига 58,13% (ROUGE 38,55). Това са водещи платени модели със стабилно извличане.</li>
<li class=""><strong>Цитирането на ниво страница работи; на ниво блок – не</strong>: Припомнянето на ниво страница е 75–93% за най-добрите модели. Припомнянето на ниво блок — познаването на това коя конкретна клетка от таблица или област от диаграма стои зад твърдението — пада до 20–61%. Това е ключовата празнина за възможността за одит.</li>
<li class=""><strong>Числените разсъждения и извличането на заключения от няколко страници сриват моделите първи</strong>: Въпросите, изискващи изчисления в няколко страници или времеви периоди, са местата, където точността пада най-рязко при всички тествани системи.</li>
<li class=""><strong>Частните модели значително превъзхождат алтернативите с отворен код</strong>: Разликата между затворените API и отворения код тук е по-голяма, отколкото при повечето NLP бенчмаркове, което предполага, че визуалните финансови разсъждения остават нерешен проблем за отворените модели.</li>
<li class=""><strong>Автоматичната оценка на цитатите е несъвършена</strong>: Евалуаторът за цитати чрез изрязване на изображения постига Pearson r = 0,68 спрямо човешките оценки — приемливо, но недостатъчно надеждно, за да му се вярва напълно без извадкова проверка.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="кое-се-потвърждава--и-кое-не">Кое се потвърждава — и кое не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%D0%BA%D0%BE%D0%B5-%D1%81%D0%B5-%D0%BF%D0%BE%D1%82%D0%B2%D1%8A%D1%80%D0%B6%D0%B4%D0%B0%D0%B2%D0%B0--%D0%B8-%D0%BA%D0%BE%D0%B5-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Кое се потвърждава — и кое не" title="Директна връзка към Кое се потвърждава — и кое не" translate="no">​</a></h2>
<p>Констатацията за извличането е най-достоверният резултат в документа. Разлика от близо 50 процентни пункта между мултимодалното и текстовото извличане при над 60 хил. страници е твърде голяма, за да бъде пренебрегната. Когато използвате OCR върху финансов документ преди индексиране, вие унищожавате сигналите за структурно оформление — в коя колона се появява дадено число, дали надписът на фигурата променя интерпретацията на таблицата — което се оказва от огромно значение за извличането.</p>
<p>Данните за генерирането са честни, но трудни за интерпретиране изолирано. Авторите не анализират колко от спада в точността се дължи на грешки при извличането спрямо неуспехи при генерирането. Като се има предвид, че Recall@10 вече е 85,86% за английски, значителна част от неуспехите трябва да са от страна на генерирането, а не на извличането. Познаването на това разпределение би изяснило дали тясното място са мултимодалните разсъждения или нещо по-фундаментално в начина, по който MLLM боравят с финансовия език.</p>
<p>Наборът за оценка от 1394 двойки въпрос-отговор е малък за обхвата на бенчмарка. Разделени на седем категории и два езика, някои части имат под 200 примера. Статистическата значимост на констатациите на ниво категория е оставена подразбираща се. Това не е необичайно за документ за бенчмарк, но означава, че лесно могат да бъдат конструирани подбрани сравнения.</p>
<p>Протоколът за оценка на цитатите е интересен принос, но Pearson r = 0,68 с човешките оценки не е достатъчно силен, за да се третира автоматичната оценка като абсолютна истина за локализиране на ниво блок. Авторите признават това; бъдещата работа върху по-добри метрики за цитиране е изрично посочена.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-ии-във-финансите">Защо това е важно за ИИ във финансите<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D0%B8%D0%B8-%D0%B2%D1%8A%D0%B2-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%B8%D1%82%D0%B5" class="hash-link" aria-label="Директна връзка към Защо това е важно за ИИ във финансите" title="Директна връзка към Защо това е важно за ИИ във финансите" translate="no">​</a></h2>
<p>Beancount работи с текстови файлове на главната книга, което прави текстовия RAG обоснован при заявки за минали трансакции. Но по-широките счетоводни задачи включват документи, които определено не са само текст: банкови извлечения в PDF, сканирани фактури, изображения на разписки, годишни отчети с вградени таблици и диаграми. В момента, в който Beancount агент трябва да изравни запис в книгата с изходен документ — например да потвърди, че конкретна сума съвпада с наличната фактура — той изпълнява точно задачата, която FinRAGBench-V тества.</p>
<p>Констатацията за цитиране на ниво блок е най-важна за този случай на употреба. Ако един агент трябва да обоснове запис в главната книга, като посочи конкретен ред в PDF, а най-добрата налична система постига едва 20–61% припомняне на ниво блок, това не е готово за одит. Всеки Beancount процес, който докосва сканирани изходни документи, се нуждае от преглед от човек, докато този показател не се подобри значително.</p>
<p>Разликата в начина на извличане също е силен аргумент срещу чисто текстовите процеси за приемане на документи. Изображението на разписка носи информация за оформлението — полета за суми, имена на доставчици, позиции на редовете — която OCR унищожава. Именно тази информация за оформлението отличава общата сума на реда от сумата на данъка, а FinRAGBench-V показва, че мултимодалните системи за извличане я използват по начини, по които текстовите системи не могат.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class=""><strong>ColPali: Efficient Document Retrieval with Vision Language Models</strong> — предшественикът на ColQwen2, който установи подхода за визуално вграждане на страници, върху който е изграден най-добрият модел за извличане в FinRAGBench-V [arXiv:2407.01449, ECCV 2024]</li>
<li class=""><strong>M3DocRAG: Multi-modal Retrieval is What You Need for Multi-page Multi-document Understanding</strong> — справя се с мултимодални въпроси и отговори за множество документи с гъвкава рамка, която поддържа едностъпкови и многостъпкови визуални разсъждения в различни страници [arXiv:2411.04952]</li>
<li class=""><strong>Benchmarking Temporal-Aware Multi-Modal RAG in Finance</strong> — придружаващ бенчмарк от 2025 г., оценяващ чувствителността към времето във финансовия мултимодален RAG, директно допълващ категорията въпроси за времева чувствителност на FinRAGBench-V [arXiv:2503.05185]</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Finance" term="Finance"/>
        <category label="Financial Reporting" term="Financial Reporting"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Reconciliation" term="Reconciliation"/>
        <category label="Beancount" term="Beancount"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Могат ли LLM агентите да бъдат финансови директори? 132-месечната симулация на EnterpriseArena разкрива голяма пропаст]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark"/>
        <updated>2026-07-11T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[EnterpriseArena тества 11 големи езикови модела (LLM) чрез 132-месечна симулация на финансов директор, проследявайки процента на оцеляване, крайната оценка и степента на приключване на книгите. Само Qwen3.5-9B оцелява в 80% от опитите; GPT-5.4 и DeepSeek-V3.1 достигат 0%. Експертите хора постигат 100% оцеляване при 5 пъти по-висока крайна стойност. Критичното тясно място - LLM пропускат равнението на главната книга в 80% от случаите, действайки въз основа на остаряло финансово състояние.]]></summary>
        <content type="html"><![CDATA[<p>Най-амбициозният въпрос във финансовия ИИ в момента не е „може ли един LLM да отговори на въпрос за баланс?“, а „може ли един LLM да управлява парите на компанията във времето, без те да свършат?“ Изследването на Yi Han и др. <em>Могат ли LLM агентите да бъдат финансови директори?</em> (arXiv:2603.23638) изгражда EnterpriseArena, за да тества точно това, и отговорът е: едва ли, и то не по начините, които бихте очаквали.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="документът">Документът<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%D0%B4%D0%BE%D0%BA%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D1%8A%D1%82" class="hash-link" aria-label="Директна връзка към Документът" title="Директна връзка към Документът" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D0%9C%D0%BE%D0%B3%D0%B0%D1%82%20%D0%BB%D0%B8%20LLM%20%D0%B0%D0%B3%D0%B5%D0%BD%D1%82%D0%B8%D1%82%D0%B5%20%D0%B4%D0%B0%20%D0%B1%D1%8A%D0%B4%D0%B0%D1%82%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%20%D0%B4%D0%B8%D1%80%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%B8%3F%20132-%D0%BC%D0%B5%D1%81%D0%B5%D1%87%D0%BD%D0%B0%D1%82%D0%B0%20%D1%81%D0%B8%D0%BC%D1%83%D0%BB%D0%B0%D1%86%D0%B8%D1%8F%20%D0%BD%D0%B0%20EnterpriseArena%20%D1%80%D0%B0%D0%B7%D0%BA%D1%80%D0%B8%D0%B2%D0%B0%20%D0%B3%D0%BE%D0%BB%D1%8F%D0%BC%D0%B0%20%D0%BF%D1%80%D0%BE%D0%BF%D0%B0%D1%81%D1%82" alt="2026-07-11-can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark" class="img_ev3q"></p>
<p>EnterpriseArena е 132-месечна (11-годишна) симулация на разпределение на ресурси на ниво финансов директор. Всяка стъпка представлява един месец. Агентът получава частични наблюдения върху финансите на фирмата, анонимизирани бизнес документи и макроикономически сигнали, извлечени от данни на FRED, CBOE и S&amp;P Global. Той разполага с бюджет от 20 извиквания на инструменти на месец, разпределени между четири операции — проверка на касовата наличност, преглед на финансови записи, анализ на пазарните условия и прогнозиране на паричните потоци — и трябва да избере едно от три действия: приключване на книгите (равнение), искане на финансиране (собствен капитал или дълг, със стохастични резултати) или пропускане. Основното ограничение е, че паричното салдо на компанията трябва да остане неотрицателно във всеки времеви период; нарушението му прекратява епизода с резултат нула. При условие че оцелее, агентът максимизира крайната оценка на предприятието съгласно формулата Rev_T × 5 + Cash_T − 5,000 × N_tools, която изрично наказва прекомерната употреба на инструменти.</p>
<p>Бяха оценени единадесет LLM, включително Gemini-3.1-Pro, Claude-Haiku-4.5, GPT-5.4, DeepSeek-V3.1, Llama-3.3-70B, Qwen3.5-397B и Qwen3.5-9B, заедно с базисно ниво от експерти хора, валидирано от двама финансови професионалисти съответно с 8 и 14 години опит.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Процентите на оцеляване варират значително между моделите</strong>: Qwen3.5-9B оцелява в 80% от случаите, Gemini-3.1-Pro в 50%, Claude-Haiku-4.5 и GLM-5 по 20%, а GPT-5.4, DeepSeek-V3.1, Llama-3.3-70B, Mistral-Small-24B и Mixtral-8x7B в 0%. Общата средна стойност за LLM е 26%.</li>
<li class=""><strong>По-големите модели не превъзхождат надеждно по-малките</strong>: Qwen3.5-9B (9 милиарда параметъра, 80% оцеляване, 78,8 милиона долара крайна оценка) решително побеждава Qwen3.5-397B (397 милиарда параметъра, 20% оцеляване) и GPT-5.4 (0% оцеляване).</li>
<li class=""><strong>Разликата спрямо хората е голяма</strong>: базисното ниво на хората постига 100% оцеляване и крайна оценка от $152,2 млн. ± $29,6 млн.; средната стойност за LLM е $28,2 млн. при 26% оцеляване.</li>
<li class=""><strong>Приключването на книгите е критичното тясно място</strong>: експертите хора приключват книгите (извършват равнение) в 94,3% от времевите периоди; средната стойност за LLM е 19,3%. Това е действието, което създава реални финансови отчети и позволява рационални последващи решения.</li>
<li class=""><strong>Събирането на информация без действие е фатално</strong>: Qwen3.5-397B използва инструменти за пазарен анализ и прогнозиране с висока честота по време на симулацията, но почти никога не приключва книгите (0,0% степен на приключване) и почти никога не иска финансиране, умирайки от изчерпване на паричните средства, въпреки че „знае“ какво се случва.</li>
<li class=""><strong>Наказанието за бюджета за инструменти има значение</strong>: формулата за оценяване активно наказва агенти, които компулсивно проверяват, вместо да действат — ограничение, което отразява реалните алтернативни разходи.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-се-потвърждава--и-какво-не">Какво се потвърждава — и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D1%81%D0%B5-%D0%BF%D0%BE%D1%82%D0%B2%D1%8A%D1%80%D0%B6%D0%B4%D0%B0%D0%B2%D0%B0--%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво се потвърждава — и какво не" title="Директна връзка към Какво се потвърждава — и какво не" translate="no">​</a></h2>
<p>Дизайнът с двойна цел — оцеляване като строго ограничение плюс крайна оценка — е един от най-силните избори в съвременните бенчмаркове за агенти. Той отразява начина, по който реално работят финансовите директори: не можете да оптимизирате растежа, ако нямате пари. Анонимизирането на календарните дати и идентичността на компаниите пречи на моделите да разпознават модели въз основа на запаметени исторически резултати, което е истинско методологично подобрение спрямо финансовите бенчмаркове, използващи реални борсови кодове и дати.</p>
<p>Таксономията на режимите на отказ, която авторите идентифицират чрез казуси, е достоверна: GPT-5.4 постига 99,1% процент на пропускане (което означава, че предприема действие в почти всяка стъпка, като не прави нищо), докато Qwen3.5-397B бърка анализа с действие. Това са поведенчески различни режими на отказ с различни решения.</p>
<p>Това, в което съм по-малко убеден: стохастичната макросреда използва гаусов шум за апроксимация на пазарни шокове, за който самите автори признават, че не може да репликира събития тип „черен лебед“ или човешката ирационалност. Бюджетът от 20 извиквания на инструменти на месец също е донякъде произволен — реалните финансови директори не се сблъскват с такова ограничение върху собствената си памет, което повдига въпроса дали бенчмаркът измерва дългосрочна финансова преценка или нещо по-близко до RAG под натиск от ресурси. Структурата с един агент е друго изрично ограничение, споменато от авторите: реалните финансови директори работят в йерархии от контрольори, FP&amp;A анализатори и екипи за управление на парични средства, а документът не се опитва да симулира това.</p>
<p>Констатацията, че размерът на модела не предсказва оцеляването, е поразителна и вероятно реална, но механизмът не е добре обяснен. Авторите го отбелязват, без напълно да анализират дали става въпрос за неуспех при следване на инструкции, кохерентност в дълъг контекст или калибриране на риска.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-ии">Защо това е важно за финансовия ИИ<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-%D0%B8%D0%B8" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия ИИ" title="Директна връзка към Защо това е важно за финансовия ИИ" translate="no">​</a></h2>
<p>Действието за приключване на книгите в EnterpriseArena е по същество проверката <code>balance</code> в Beancount и стъпката за равнение на главната книга — моментът, в който агентът се ангажира с реален поглед върху финансовото състояние, преди да действа. Констатацията, че LLM пропускат това в 80% от случаите, се пренася директно върху проблема с безопасността при записване (write-back safety): агент, който избягва равнението преди действие, е агент, който действа въз основа на остаряло или халюцинирано състояние. За автоматизацията с Beancount това предполага, че стъпката на равнение трябва да бъде задължителна и проверима — а не незадължителна — във всеки цикъл на агента.</p>
<p>132-месечният хоризонт също е пряко аналогичен на многогодишното управление на главната книга. Установяването, че устойчивата ситуационна осведоменост се влошава с времето, е същото влошаване, което бихме очаквали от агент на Beancount, управляващ петгодишна история на транзакциите: дори ако агентът разполага с всички данни в контекста, той може да не действа кохерентно в 60-ия месец. Това предполага, че периодичните принудителни контролни точки за равнение — а не само реактивните запитвания — са необходими в дълготрайните сесии на агенти в Beancount.</p>
<p>Капанът за събиране на информация, в който попада Qwen3.5-397B, е полезно предупреждение при проектирането: агенти, оборудвани с много инструменти за извличане, могат да предпочетат извличането пред ангажираността, особено когато цената на грешно действие (корупция на главната книга) е висока. Ограниченията в бюджета за инструменти, подобни на тези в EnterpriseArena, биха могли да помогнат за налагане на дисциплина в действията при Beancount агенти за записване на данни.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class=""><strong>EcoGym</strong> (arXiv:2602.09514) — допълващ бенчмарк за икономика с дълъг хоризонт в среди за търговия, свободна практика и операции над 1000+ стъпки; нито един модел не доминира и в трите, което предполага, че режимите на отказ в EnterpriseArena не са специфични само за един дизайн на бенчмарк.</li>
<li class=""><strong>AFlow: Automating Agentic Workflow Generation</strong> (arXiv:2410.10762, ICLR 2025 oral) — преформулира дизайна на работния процес като търсене в кодово пространство с MCTS и обратна връзка от LLM; ако EnterpriseArena показва, че ръчно проектираното поведение на агентите се проваля, AFlow е очевидната следваща стъпка за автоматично откриване на по-добри тръбопроводи.</li>
<li class=""><strong>ToolLLM: Facilitating Large Language Models to Master 16,000+ Real-world APIs</strong> (arXiv:2307.16789, ICLR 2024) — фундаменталната рамка за обучение и оценка на използването на инструменти; разбирането на това как се учи поведението за извикване на инструменти в ToolLLM изяснява дали неуспехът чрез избягване на действие в EnterpriseArena е проблем на обучението или на подканите (prompting).</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Automation" term="Automation"/>
        <category label="Reconciliation" term="Reconciliation"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Cash Flow" term="Cash Flow"/>
        <category label="Financial Management" term="Financial Management"/>
        <category label="Forecasting" term="Forecasting"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[WildToolBench: Защо нито един LLM не надвишава 15% точност на сесиите при използване на инструменти в реалния свят]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild"/>
        <updated>2026-07-10T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[WildToolBench (ICLR 2026) оценява 57 големи езикови модела (LLM) върху 1024 задачи, извлечени от реално потребителско поведение — нито един модел не надвишава 15% точност на сесиите, като композиционната оркестрация, скритите намерения и преходите в инструкциите са трите най-отчетливи типа грешки.]]></summary>
        <content type="html"><![CDATA[<p>Бенчмарковете за използване на инструменти, които следя — BFCL, ToolBench, τ-bench — споделят общ недостатък в дизайна: те конструират задачи въз основа на въображението на авторите им за това какво правят потребителите. WildToolBench, приет на ICLR 2026, се връща към реални потребителски логове и пита какво <em>всъщност</em> правят потребителите. Отговорът е смиряващ: оценени са 57 LLM, като нито един не надвишава 15% точност на сесиите.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="докладът">Докладът<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%D0%B4%D0%BE%D0%BA%D0%BB%D0%B0%D0%B4%D1%8A%D1%82" class="hash-link" aria-label="Директна връзка към Докладът" title="Директна връзка към Докладът" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=WildToolBench%3A%20%D0%97%D0%B0%D1%89%D0%BE%20%D0%BD%D0%B8%D1%82%D0%BE%20%D0%B5%D0%B4%D0%B8%D0%BD%20LLM%20%D0%BD%D0%B5%20%D0%BD%D0%B0%D0%B4%D0%B2%D0%B8%D1%88%D0%B0%D0%B2%D0%B0%2015%25%20%D1%82%D0%BE%D1%87%D0%BD%D0%BE%D1%81%D1%82%20%D0%BD%D0%B0%20%D1%81%D0%B5%D1%81%D0%B8%D0%B8%D1%82%D0%B5%20%D0%BF%D1%80%D0%B8%20%D0%B8%D0%B7%D0%BF%D0%BE%D0%BB%D0%B7%D0%B2%D0%B0%D0%BD%D0%B5%20%D0%BD%D0%B0%20%D0%B8%D0%BD%D1%81%D1%82%D1%80%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D0%B8%20%D0%B2%20%D1%80%D0%B5%D0%B0%D0%BB%D0%BD%D0%B8%D1%8F%20%D1%81%D0%B2%D1%8F%D1%82" alt="2026-07-10-wildtoolbench-benchmarking-llm-tool-use-in-the-wild" class="img_ev3q"></p>
<p>Peijie Yu, Wei Liu, Yifan Yang и техните колеги от Alibaba представят WildToolBench (arXiv:2604.06185) — бенчмарк, състоящ се от 256 сценария с многостепенни диалози с 1024 задачи, извлечени от автентични модели на потребителско поведение и базирани на около 1600 публични API. Основният аргумент е, че съществуващите бенчмаркове се насищат не защото моделите са добри, а защото задачите са изкуствени. Реалните потребители обединяват заявки, пропускат контекст, споделен преди две реплики, и превключват между въпроси към инструмент, неформален разговор и искане за разяснение — понякога в рамките на едно съобщение. WildToolBench систематизира тези типове грешки в три структурирани категории предизвикателства и измерва както точността на ниво задача, така и много по-строгата точност на ниво сесия, която изисква успех във всичките четири задачи в един диалог.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Точността на сесиите се срива до едноцифрени числа за повечето модели</strong>: Gemini-2.0-Flash-Thinking води с 14,45% точност на сесиите, Claude-4-Sonnet с 12,50%, GPT-4o с 11,72%. Успешното преминаване през всички задачи в сесия от четири реплики е толкова трудно, че дори 60% точност на ниво задача се превръща в под 15% точност на сесията — данък „сложна вероятност“ върху всяко взаимодействие.</li>
<li class=""><strong>Композиционната оркестрация е най-стръмната пропаст</strong>: Смесените последователни и паралелни топологии на инструментите ограничават топ моделите до 25% точност на задачите, срещу 54–62% за чисто паралелни или последователни вериги. Когато задачата изисква паралелно разгръщане, последвано от последователно сливане, проблемът с координацията надхвърля това, с което всеки настоящ модел се справя надеждно.</li>
<li class=""><strong>Скритото намерение е по-голяма празнина, отколкото някой е измервал досега</strong>: WildToolBench гарантира, че 100% от задачите включват неявна информация или информация от предходни реплики; BFCL v3 постига само 15,7%. Задачите с дългосрочни зависимости — където липсващата информация е отпреди повече от две реплики — са най-трудният подтип, като нито един модел не преодолява 50% дори на ниво задача.</li>
<li class=""><strong>Преходите в инструкциите натрупват грешки с линейна скорост</strong>: Всяко допълнително превключване на политиката (задача с инструмент → чат → разяснение → задача с инструмент) намалява точността с приблизително 5–15 процентни пункта. При три прехода най-засегнатите модели губят 30 пункта. Авторите наричат това „самообуславяне“ (self-conditioning): предишните отговори влияят на интерпретацията на последващите инструкции от модела по начини, които са трудни за коригиране в средата на сесията.</li>
<li class=""><strong>Процентът на оптималния път (Optimal Path Rate) остава под 43%</strong>: Даже когато моделите изпълняват задачите правилно, те изразходват излишни API повиквания. Claude-4-Sonnet постига най-добрия процент на оптимален път от 42,74%, което означава, че по-голямата част от правилните завършвания отнемат повече стъпки от необходимото — пряк разход на латентност и токени за всяка производствена система.</li>
<li class=""><strong>Специализираните модели за използване на инструменти се представят по-зле от общите авангардни модели</strong>: xLAM-2-70B и ToolACE2-8B отчитат нива на грешки с грешни имена на функции над 30%, което е по-лошо от GPT-4o или Claude-4-Sonnet. Фината настройка върху тесни корпуси за използване на инструменти изглежда създава чупливост, а не стабилност при промяна на разпределението към реално потребителско поведение.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-се-потвърждава--и-какво-не">Какво се потвърждава — и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D1%81%D0%B5-%D0%BF%D0%BE%D1%82%D0%B2%D1%8A%D1%80%D0%B6%D0%B4%D0%B0%D0%B2%D0%B0--%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво се потвърждава — и какво не" title="Директна връзка към Какво се потвърждава — и какво не" translate="no">​</a></h2>
<p>Дизайнът на бенчмарка е силен там, където е най-важно. Разграничението между точност на задачата и точност на сесията е абсолютно правилно: натрупващите се типове грешки са това, което проваля реалните внедрявания, а повечето предходни трудове отчитат числа на ниво задача, които маскират това. Таксономията на трите предизвикателства (композиционна оркестрация, скрито намерение, преходи в инструкциите) е добре мотивирана и емпирично обоснована — кривите на влошаване на производителността при различните типове предизвикателства са реални и впечатляващи.</p>
<p>Слабото място е мащабът. 1024 задачи от 256 сценария е надежден изследователски артефакт, но е малко за класация, предназначена да проследява 57 модела във времето. Авторите признават това директно и споменават автоматизиран тръбопровод за мащабиране в бъдеща работа. Другият проблем е, че фразата „базиран на реални потребителски логове“ върши много работа: крайните задачи са частично синтетични, конструирани от мултиагентна система от базови модели, след което са проверени от човешки анотатори. Твърдението е аргументирано, но данните не са дословно „от дивата природа“ — те са вдъхновени от нея. Това е от значение за това колко буквално интерпретирате тавана от 15%; част от разликата може да се затвори, ако процесът на генериране въвежда изкуствена трудност, която реалните потребители всъщност не проявяват.</p>
<p>Също така съм скептичен към анализа на преходите в инструкциите като архитектурно твърдение. Докладът го приписва на фундаментално ограничение, но несъответствието в разпределението на обучението между целите за фина настройка чрез RLHF и мултимодалните потребителски сесии е по-простото обяснение. Това е нещо, което може да се коригира, а не е структурно.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-ии">Защо това е важно за финансовия ИИ<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-%D0%B8%D0%B8" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия ИИ" title="Директна връзка към Защо това е важно за финансовия ИИ" translate="no">​</a></h2>
<p>Трите типа грешки се припокриват почти перфектно с начина, по който реалните потребители взаимодействат с агент за запис в Beancount. Потребителят пита „колко похарчих за хранителни стоки миналия месец и докато си на тази вълна, добави днешната касова бележка от Whole Foods“ — това е композиционна задача, обединена в една реплика. След това продължават с „всъщност го направи $47,23, а не $42, проверих го“ — това е корекция на параметър, изискваща от агента да следи състоянието на сесията. След това питат „правилна ли е тази категория?“ — това е искане за разяснение и агентът трябва да не изпълнява отново операцията по запис, която току-що е приключил. Ограничението от 25% при смесена последователна и паралелна оркестрация и спадът от 30 пункта при преходите в инструкциите са точно онези типове грешки, които биха се проявили при агент за счетоводна книга, обслужващ реални потребителски сесии.</p>
<p>Констатацията, че специализираните модели за използване на инструменти се представят по-лошо от общите авангардни модели, е особено релевантна. Ако обмисляхме фино настройване на по-малък отворен модел върху специфични за Beancount примери за извикване на инструменти — очевидният ход за намаляване на разходите — WildToolBench е директно предупреждение, че специализацията може да пожертва устойчивостта спрямо разпределението на действителното потребителско поведение. Находката за процента на оптималния път също е важна: агент, който използва два пъти повече API повиквания за изпълнение на задача, не е просто неефективен; при операции за запис, излишните междинни повиквания могат да оставят счетоводната книга в несъвместими междинни състояния.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class=""><strong>ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world APIs</strong> (arXiv:2307.16789, ICLR 2024) — фундаменталната рамка за обучение, срещу която WildToolBench изрично се позиционира; разбирането на нейния синтетичен дизайн за оценка изяснява какво точно добавя изпълнението в реално време.</li>
<li class=""><strong>τ-bench: A Benchmark for Tool-Agent-User Interaction in Real-World Domains</strong> (arXiv:2406.12045) — най-близката предходна работа върху реалистично многостепенно използване на инструменти; сравняването на домейните за търговия на дребно/авиолинии на τ-bench с покритието на публичните API на WildToolBench показва доколко се обобщава предизвикателството.</li>
<li class=""><strong>AFlow: Automating Agentic Workflow Generation</strong> (arXiv:2410.10762, ICLR 2025 oral) — ако проблемът с прехода в инструкциите е разрешим чрез автоматично откриване на по-добри работни процеси за агенти, вместо чрез мащабиране на данните за обучение, AFlow е най-надеждният механизъм за това.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Automation" term="Automation"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Technology" term="Technology"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Доверие и калибриране на LLM: Обзор на това, което изследванията всъщност показват]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey"/>
        <updated>2026-07-09T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[Систематичен обзор на методите за оценка на доверието и калибриране на LLM — подходи с "бяла кутия" чрез логити, SelfCheckGPT, базиран на последователност, и семантична ентропия — разкрива, че вербализираните резултати за доверие от GPT-4 достигат едва ~62,7% AUROC, което е малко над случайността, с преки последици за внедряването на агенти, отчитащи несигурността, във финансите и счетоводството.]]></summary>
        <content type="html"><![CDATA[<p>Миналата седмица разгледах ReDAct, който насочва решенията на агента към скъп резервен модел, когато несигурността на евтиния модел надвиши калибриран праг. Тази статия доста неясно споменава "несигурност" — струва си да спрем и да разберем какво всъщност знае областта за нейното измерване и калибриране. "A Survey of Confidence Estimation and Calibration in Large Language Models" на Geng и др. (NAACL 2024) е правилното място за начало: систематична таксономия на това какво работи, какво не и какво никой още не е измерил.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="статията">Статията<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%D1%81%D1%82%D0%B0%D1%82%D0%B8%D1%8F%D1%82%D0%B0" class="hash-link" aria-label="Директна връзка към Статията" title="Директна връзка към Статията" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D0%94%D0%BE%D0%B2%D0%B5%D1%80%D0%B8%D0%B5%20%D0%B8%20%D0%BA%D0%B0%D0%BB%D0%B8%D0%B1%D1%80%D0%B8%D1%80%D0%B0%D0%BD%D0%B5%20%D0%BD%D0%B0%20LLM%3A%20%D0%9E%D0%B1%D0%B7%D0%BE%D1%80%20%D0%BD%D0%B0%20%D1%82%D0%BE%D0%B2%D0%B0%2C%20%D0%BA%D0%BE%D0%B5%D1%82%D0%BE%20%D0%B8%D0%B7%D1%81%D0%BB%D0%B5%D0%B4%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F%D1%82%D0%B0%20%D0%B2%D1%81%D1%8A%D1%87%D0%BD%D0%BE%D1%81%D1%82%20%D0%BF%D0%BE%D0%BA%D0%B0%D0%B7%D0%B2%D0%B0%D1%82" alt="2026-07-09-confidence-estimation-calibration-llms-survey" class="img_ev3q"></p>
<p>Генг, Кай, Уанг, Кьопл, Наков и Гуревич правят обзор на зараждащата се литература за оценка на доверието и калибрирането на LLM в широк спектър от задачи — от въпроси с избор на отговор до генериране със свободен край и машинен превод. Основният проблем: LLM могат да бъдат както много точни, така и напълно ненадеждни по начини, които са трудни за разграничаване отвън. Обзорът организира пространството на решения в два основни клона — методи "бяла кутия", които използват достъп до вътрешните състояния на модела, и методи "черна кутия", които третират модела като непрозрачен — и във всеки от тях допълнително разграничава оценката на доверието от неговото калибриране post hoc.</p>
<p>Статията е публикувана в NAACL 2024 (страници 6577–6595), преработена през март 2024 г. от подадена през ноември 2023 г. работа от екип, обхващащ TU Darmstadt, MBZUAI и Университета за ИИ "Мохамед бин Зайед".</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class="">
<p><strong>Доверие чрез "бяла кутия" чрез логити</strong>: Най-простият подход използва вероятности на ниво токен или нормализирана по дължина логаритмична вероятност като сигнал за доверие. Тези методи работят, но се сблъскват с фундаментална неяснота: ниската вероятност на токен може да отразява ниско фактологично доверие или просто необичайна формулировка — моделът може да е несигурен в избора на думи, докато е сигурен в основния факт.</p>
</li>
<li class="">
<p><strong>Доверие чрез "черна кутия" на базата на последователност (SelfCheckGPT)</strong>: Manakul и др. (EMNLP 2023) вземат множество проби от допълванията и оценяват тяхната взаимна последователност чрез BERTScore, NLI или n-gram припокриване. Не е необходим достъп до логити. Ключово прозрение: за факти, които LLM познава добре, многократните проби се сближават; за халюцинирани факти те се разминават.</p>
</li>
<li class="">
<p><strong>Семантична ентропия</strong>: Farquhar et al. (<em>Nature</em>, 2024) групират семантично еквивалентни отговори преди изчисляване на ентропията. Един LLM може да формулира "Париж" и "френската столица" по различен начин — чистата ентропия на токените третира тези отговори като разминаващи се, докато семантичната ентропия — не. Това е качествена стъпка напред спрямо последователността на ниво токени, която обзорът контекстуализира.</p>
</li>
<li class="">
<p><strong>Вербализираното доверие е счупено</strong>: Когато бъдат помолени да изведат процент на доверие, моделите изпадат в прекомерна увереност. Емпиричната работа (Groot et al., TrustNLP на ACL 2024) установява, че GPT-3, GPT-3.5 и Vicuna показват средна очаквана грешка в калибрирането (ECE), надвишаваща 0,377 за вербализирано доверие, като прогнозите се струпват в диапазона 90–100% независимо от действителната точност. Дори GPT-4 — най-добре калибрираният оценен модел — постига AUROC от едва ~62,7%, когато използва вербализирано доверие за разграничаване на правилни от неправилни отговори, което е малко над случайността.</p>
</li>
<li class="">
<p><strong>Техниките за калибриране варират според задачата</strong>: За класификация контекстуалното калибриране (изваждане на предразсъдъците на класа, оценени с празен подкана "[N/A]") и премахването на пристрастията към позицията (PriDE) се справят с известни систематични отклонения. За генериране Sequence Likelihood Calibration (SLiC) фино настройва моделите върху класирани допълвания. Мащабирането на температурата — най-простата корекция post-hoc — остава конкурентно в много ситуации.</p>
</li>
<li class="">
<p><strong>Липсва единен бенчмарк</strong>: Най-силното структурно наблюдение на обзора: няма единен бенчмарк, обхващащ методите за оценка на доверието в различните задачи и области. Това прави почти невъзможно строгото сравнение на методите. Областта оценява ябълки срещу портокали.</p>
</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-е-устойчиво--и-какво-не-е">Какво е устойчиво — и какво не е<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B5-%D1%83%D1%81%D1%82%D0%BE%D0%B9%D1%87%D0%B8%D0%B2%D0%BE--%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5-%D0%B5" class="hash-link" aria-label="Директна връзка към Какво е устойчиво — и какво не е" title="Директна връзка към Какво е устойчиво — и какво не е" translate="no">​</a></h2>
<p>Таксономията е солидна. Разграничението между "бяла кутия" и "черна кутия" е наистина полезно за проектирането на системи, а разглеждането на методите, базирани на логити, е откровено за техните граници — авторите отбелязват директно, че вероятността на токен смесва фактологичното доверие с лексикалната несигурност. Практиците подценяват това смесване.</p>
<p>Там, където обзорът ме разочарова: той е до голяма степен описателен. Почти няма експериментални бенчмаркове, сравняващи методите директно, и авторите изрично признават това като ограничение. Мога да си тръгна с ясна карта на пространството за проектиране, но без насоки кой метод да използвам за нова задача.</p>
<p>Резултатите за вербализирано доверие — AUROC на GPT-4 от ~62,7% при собственото му заявено доверие — трябва да бъдат канонично знание за всеки, който внедрява LLM в производство. Не са. Хората все още изпращат подкани, които питат "по скала от 1 до 10, колко сте сигурни?" и третират отговора като смислен. Той не е такъв.</p>
<p>Обзорът е оскъден и по въпроса за RLHF калибрирането: дали следтренировъчното обучение с човешка обратна връзка прави моделите по-добре или по-лошо калибрирани? Има доказателства и в двете посоки, а обзорът до голяма степен го избягва.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-ии">Защо това е важно за финансовия ИИ<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-%D0%B8%D0%B8" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия ИИ" title="Директна връзка към Защо това е важно за финансовия ИИ" translate="no">​</a></h2>
<p>ReDAct залага своята история за безопасност на наличието на калибриран сигнал за несигурност от евтиния модел. Обзорът изяснява колко трудно е това всъщност. Сигналите, базирани на логити, са налични в среди с "бяла кутия", но смесват лексикалната и фактологичната несигурност. Методите, базирани на последователност, работят в среди с "черна кутия", но изискват множество проби на решение — скъпо за високопроизводителен агент за записване в Beancount, обработващ партида от записи на транзакции.</p>
<p>Най-практичното откритие за Bean Labs: семантичната ентропия групира семантично еквивалентни отговори преди оценката на последователността, което е точно това, което е от значение за записите в счетоводната книга, където един модел може да изрази същата връзка дебит/кредит в множество синтактично различни форми. Агентът на Beancount трябва да използва семантично групиране върху проби от попълнени записи в книгата — а не сурова вариация на ниво токен — за да открие кога халюцинира име на сметка или сума.</p>
<p>Провалът на калибрирането при вербализираното доверие е директно предупреждение за всеки потребителски интерфейс, който показва "колко е уверен ИИ?" на потребителя: не вярвайте на числото, което моделът произвежда. Използвайте външен калибратор или метод, базиран на последователност, или изобщо не го показвайте.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class="">Farquhar et al., "Detecting hallucinations in large language models using semantic entropy," <em>Nature</em>, 2024 — най-строгият метод, произтичащ от тази рамка за обзор; заслужава си да се прочете изцяло, а не само резюмето в обзора.</li>
<li class="">Manakul et al., "SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models," EMNLP 2023 (arXiv:2303.08896) — каноничният метод, базиран на последователност; от съществено значение за разбиране преди внедряване на какъвто и да е сигнал за доверие чрез "черна кутия".</li>
<li class="">Groot et al., "Overconfidence is Key: Verbalized Uncertainty Evaluation in Large Language and Vision-Language Models," TrustNLP на ACL 2024 (arXiv:2405.02917) — най-задълбоченият емпиричен одит на това как вербализираното доверие се проваля при различните модели и задачи.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Trust" term="Trust"/>
        <category label="Finance" term="Finance"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Hallucination Detection" term="Hallucination Detection"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[JSONSchemaBench: Сложността на реалните схеми нарушава гаранциите за структуриран изход при LLM]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models"/>
        <updated>2026-07-08T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[JSONSchemaBench тества 9 558 реални JSON схеми срещу шест рамки за ограничено декодиране и установява, че сложността на схемите води до срив на покритието от 86% при прости схеми до 3% при сложни такива, като XGrammar мълчаливо генерира 38 несъответстващи изхода, а нито една рамка не покрива всички 45 категории функции на JSON Schema.]]></summary>
        <content type="html"><![CDATA[<p>Повечето екипи разглеждат ограниченото декодиране като решен проблем — добавяте JSON схема и получавате валиден JSON обратно. JSONSchemaBench (arXiv:2501.10868) е първият систематичен опит за тестване на това предположение спрямо 9 558 реални схеми и резултатите са по-малко успокояващи, отколкото маркетингът би ни убедил.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="документът">Документът<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%D0%B4%D0%BE%D0%BA%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D1%8A%D1%82" class="hash-link" aria-label="Директна връзка към Документът" title="Директна връзка към Документът" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=JSONSchemaBench%3A%20%D0%A1%D0%BB%D0%BE%D0%B6%D0%BD%D0%BE%D1%81%D1%82%D1%82%D0%B0%20%D0%BD%D0%B0%20%D1%80%D0%B5%D0%B0%D0%BB%D0%BD%D0%B8%D1%82%D0%B5%20%D1%81%D1%85%D0%B5%D0%BC%D0%B8%20%D0%BD%D0%B0%D1%80%D1%83%D1%88%D0%B0%D0%B2%D0%B0%20%D0%B3%D0%B0%D1%80%D0%B0%D0%BD%D1%86%D0%B8%D0%B8%D1%82%D0%B5%20%D0%B7%D0%B0%20%D1%81%D1%82%D1%80%D1%83%D0%BA%D1%82%D1%83%D1%80%D0%B8%D1%80%D0%B0%D0%BD%20%D0%B8%D0%B7%D1%85%D0%BE%D0%B4%20%D0%BF%D1%80%D0%B8%20LLM" alt="2026-07-08-jsonschemabench-structured-outputs-language-models" class="img_ev3q"></p>
<p>Сайбо Генг, Хъдсън Купър, Михал Москал и колеги от Microsoft Research представят JSONSchemaBench, бенчмарк от 9 558 схеми, извлечени от реални производствени източници: сигнатури за извикване на функции от GlaiveAI, GitHub хранилища, стратифицирани по сложност от тривиални до ултра, API конфигурации на Kubernetes, схеми за анализи на събития на Snowplow и колекцията JSONSchemaStore. Те оценяват шест рамки за ограничено декодиране — Guidance, Outlines, Llamacpp, XGrammar, OpenAI Structured Outputs и Gemini — по три оси: покритие (каква част от схемите може изобщо да обработи рамката), ефективност (преразход на токени в секунда спрямо неограниченото генериране) и качество (точност на задачите по веригата). Мрежата за оценка включва също и официалния JSON Schema Test Suite, който документира 45 категории функции, които всяка съвместима машина трябва да поддържа.</p>
<p>Основното твърдение е, че сложността на схемата е решаващата променлива, която отделя способните рамки от крехките, и че нито една рамка не доминира и по трите оси.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Покритието се срива под тежестта на сложността на схемите.</strong> При прости схеми от GlaiveAI всички рамки отбелязват над 86%. Но при схемите GitHub-Hard — многостепенно влагане, рекурсивни дефиниции, сложни ограничения на шаблони — Guidance пада до 41%, Llamacpp до 39%, XGrammar до 28%, а Outlines до катастрофалните 3%. OpenAI достига само 9% при GitHub-Hard, а Gemini не произвежда никакви валидни изходи при схеми със средна сложност или по-висока.</li>
<li class=""><strong>Kubernetes разкрива специфична слабост в XGrammar.</strong> Въпреки твърденията за скорост на XGrammar, тя постига само 7% покритие на схеми на Kubernetes, вероятно защото тези схеми разчитат на зависими от контекста модели, които независимото от контекста предварително изчисление на XGrammar не може да обработи. Покритието срещу бенчмарк, който включва Kubernetes конфигурации, не е опция, а задължително условие за производствени агенти.</li>
<li class=""><strong>Недостатъчното ограничаване е по-опасно от грешка при компилация.</strong> XGrammar показва 38 грешки от тип „под-ограничаване“ (under-constrained) спрямо JSON Schema Test Suite — което означава, че тя излъчва JSON, който нарушава декларираната схема, докато мълчаливо докладва успех. Guidance има само 1 такъв провал. За агент, който пише обратно в базата, грешката при компилация се улавя по време на разработка; провалът на ограничаването корумпира данни в реално време без никакъв сигнал.</li>
<li class=""><strong>Функцията за „бързо превъртане“ (fast-forwarding) на Guidance осигурява реално 50% ускорение.</strong> Когато са налични дълги детерминистични последователности (напр. имена на полета във фиксирана структура на обект), Guidance може да прескочи няколко токена на една стъпка от декодирането. На Llama-3.1-8B на A100, Guidance работи с 6–9 ms на изходен токен, докато неограниченото генериране работи с 15–16 ms. Outlines е по-бавна от неограниченото генериране с 30–46 ms, до голяма степен поради предварителната компилация на автомати, която отнема 3–8 секунди на схема.</li>
<li class=""><strong>Ограниченото декодиране скромно подобрява точността на разсъжденията.</strong> В GSM8K (математика), Guidance повишава точността от 80,1% (неограничено) до 83,8%. При Last Letter и Shuffle Objects подобренията са в рамките на 1–3 пункта. Това противоречи на широко цитираното опасение, че форсирането на JSON формат влошава качеството на отговора — но размерът на ефекта е достатъчно малък, за да не бъде изборът на формат водещ при избора на рамка.</li>
<li class=""><strong>Нито една рамка не покрива всички 45 категории функции на JSON Schema.</strong> Guidance покрива 13, Llamacpp и XGrammar покриват по 1, а Outlines покрива 0. Практическото значение е, че всяка схема, използваща <code>if/then/else</code>, <code>unevaluatedProperties</code> или рекурсивни дефиниции <code>$ref</code>, ще се държи непредсказуемо в зависимост от това кой двигател стои „под капака“.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-се-потвърждава--и-какво-не">Какво се потвърждава — и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D1%81%D0%B5-%D0%BF%D0%BE%D1%82%D0%B2%D1%8A%D1%80%D0%B6%D0%B4%D0%B0%D0%B2%D0%B0--%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво се потвърждава — и какво не" title="Директна връзка към Какво се потвърждава — и какво не" translate="no">​</a></h2>
<p>Най-силният принос на бенчмарка е източникът на схеми. Предишни оценки са използвали схеми-играчки или колекции от един източник. Включването на конфигурации на Kubernetes заедно със сигнатури за извикване на функции е правилният вид състезателно многообразие. Стратификацията на сложността (от тривиална до ултра) също дава на практиците крива за калибриране: ако вашите схеми приличат на извиквания на функции на GlaiveAI, XGrammar или Guidance са еднакво добри; ако приличат на Kubernetes манифести, опциите ви бързо намаляват.</p>
<p>Основната слабост е оценката с една извадка (single-sample greedy evaluation). Измерването на покритието с едно генериране на схема подценява истинските възможности — дадена рамка може да се провали в 20% от случаите, но да успее при повторен опит. Документът признава това, но не съобщава pass@k числа с температурно семплиране, които биха били от значение за производствени системи, които повтарят опитите при неуспех.</p>
<p>Сравнението също така смесва несъпоставими модели. Рамките с отворен код (Guidance, Outlines, Llamacpp, XGrammar) са тествани на Llama-3.2-1B, докато OpenAI и Gemini работят със собствени неразкрити модели. 9-процентното покритие на OpenAI при GitHub-Hard може да отразява способностите на модела толкова, колкото и архитектурата за ограничено декодиране. Справедливо сравнение би изисквало контролиран достъп до моделите — нещо, което авторите очевидно не могат да наложат на собственическите доставчици.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-изкуствен-интелект">Защо това е важно за финансовия изкуствен интелект<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-%D0%B8%D0%B7%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD-%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%B5%D0%BA%D1%82" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия изкуствен интелект" title="Директна връзка към Защо това е важно за финансовия изкуствен интелект" translate="no">​</a></h2>
<p>Всеки Beancount агент за обратно записване генерира структуриран изход. Ако агентът излъчва Beancount директиви като JSON преди конвертиране в <code>.beancount</code> синтаксис, или ако извиква инструменти чрез JSON схеми, надеждността на това генериране на JSON не е подробност — тя е в основата на всичко. Документът FinTrace показа, че водещите модели се провалят при разсъждения върху изходите на инструментите; JSONSchemaBench разкрива ортогонален проблем: дори преди разсъжденията, форматиращият слой може мълчаливо да генерира несъответстващ изход.</p>
<p>Резултатът с Kubernetes е особено показателен за Beancount. Счетоводните схеми не са плоски структури от ключове и стойности. Йерархиите на сметките, метаданните на трансакциите и структурите на таговете създават вложени рекурсивни модели, подобни на API обектите на Kubernetes. Рамка, която отбелязва 7% при Kubernetes, не е готова за сложни счетоводни схеми, независимо колко малък е нейният преразход на токен.</p>
<p>Режимът на провал с под-ограничаване е този, който би ме тревожил най-много. Агент на Beancount, използващ XGrammar, може да излъчи трансакция, която преминава вътрешната проверка за валидиране на рамката, но нарушава действителната схема — и агентът няма да има причина да опита отново. Тихото повреждане на данни е по-лошо от видимия провал.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class=""><strong>XGrammar</strong> (arXiv:2411.15100, Dong et al.) — техническият документ зад една от най-бързите тествани рамки, обясняващ разделянето на токените на независими и зависими от контекста и защо схемите на Kubernetes ги натоварват.</li>
<li class=""><strong>Grammar-Aligned Decoding / ASAp</strong> (NeurIPS 2024) — показва, че маскирането на токени при ограничено декодиране може да изкриви разпределението на вероятностите на модела и предлага коригиран алгоритъм за семплиране; теоретичната основа за притесненията относно качеството, които бенчмаркът измерва само индиректно.</li>
<li class=""><strong>XGrammar-2</strong> (arXiv:2601.04426) — продължение, което разширява XGrammar до динамични схеми в агентски настройки, където самата схема се променя по време на сесия с множество ходове, пряко релевантно за Beancount агенти, които адаптират своя изходен формат въз основа на това кои типове сметки са активни.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Automation" term="Automation"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Performance" term="Performance"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[FinMCP-Bench: Сравнителен анализ на LLM агенти за реално използване на финансови инструменти под MCP]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol"/>
        <updated>2026-07-07T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[FinMCP-Bench оценява шест LLM модела върху 613 задачи за използване на финансови инструменти в реалния свят, поддържани от 65 MCP сървъра — най-добрият модел постига 3,08% точно съвпадение при многократни задачи, разкривайки 20-кратен срив в производителността от сценарии с един инструмент към многократни такива.]]></summary>
        <content type="html"><![CDATA[<p>MCP се превърна в де факто стандарта за свързване при използването на инструменти от LLM — Anthropic го представи в края на 2024 г., а до началото на 2026 г. всички големи доставчици на модели го приеха. FinMCP-Bench (arXiv:2603.24943, ICASSP 2026) е първият бенчмарк, изграден върху реални MCP сървъри за инструменти, специално за финансови агенти, и се появи в точния момент, за да ни каже дали тази стандартизирана инфраструктура действително помага на агентите да вършат полезна финансова работа.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="документът">Документът<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%D0%B4%D0%BE%D0%BA%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D1%8A%D1%82" class="hash-link" aria-label="Директна връзка към Документът" title="Директна връзка към Документът" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinMCP-Bench%3A%20%D0%A1%D1%80%D0%B0%D0%B2%D0%BD%D0%B8%D1%82%D0%B5%D0%BB%D0%B5%D0%BD%20%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7%20%D0%BD%D0%B0%20LLM%20%D0%B0%D0%B3%D0%B5%D0%BD%D1%82%D0%B8%20%D0%B7%D0%B0%20%D1%80%D0%B5%D0%B0%D0%BB%D0%BD%D0%BE%20%D0%B8%D0%B7%D0%BF%D0%BE%D0%BB%D0%B7%D0%B2%D0%B0%D0%BD%D0%B5%20%D0%BD%D0%B0%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%20%D0%B8%D0%BD%D1%81%D1%82%D1%80%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D0%B8%20%D0%BF%D0%BE%D0%B4%20MCP" alt="2026-07-07-finmcp-bench-llm-agents-financial-tool-use-model-context-protocol" class="img_ev3q"></p>
<p>Jie Zhu, Yimin Tian и колеги от екипа на Alibaba Cloud Qwen DianJin, YINGMI Wealth Management и Университета Soochow представят FinMCP-Bench — набор за оценка от 613 проби, покриващ 10 категории финансови сценарии и 33 под-сценария. Инструментите не са симулирани — 65 реални MCP-съвместими сървъра за финансови инструменти стоят зад бенчмарка, извлечени от реални производствени логове на финансовия асистент Qieman APP. Авторите класифицират пробите в три типа: 145 с един инструмент, 249 с множество инструменти и 219 с многократни ходове (multi-turn). Тестват се шест модела: фамилията Qwen3 с 4B, 30B и 235B параметри (всички с разширено мислене), плюс DeepSeek-R1, GPT-OSS-20B и Seed-OSS-36B. Основните метрики за оценка са точност на инструментите (Tool Precision), пълнота на инструментите (Tool Recall), Tool F1 и процент на точно съвпадение (Exact Match Rate - EMR), който изисква всяко извикване на инструмент в последователността да бъде абсолютно точно.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="основни-идеи">Основни идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%D0%BE%D1%81%D0%BD%D0%BE%D0%B2%D0%BD%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Основни идеи" title="Директна връзка към Основни идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>MCP като субстрат за оценка</strong>: използването на реални дефиниции на MCP сървъри вместо синтетични API схеми запълва голяма празнина между оценката в бенчмарковете и това, пред което всъщност се изправят агентите в реални финансови системи.</li>
<li class=""><strong>Тристепенно разделяне на трудността</strong>: пробите с един инструмент, множество инструменти и многократни ходове не са само количествени разлики — те разкриват качествено различни режими на отказ.</li>
<li class=""><strong>Срив при многократни ходове</strong>: най-добрият модел (Qwen3-235B) постига 60% EMR при един инструмент, 10,62% EMR при множество инструменти и едва 3,08% EMR при многократни ходове. Спадът от един ход към многократни ходове е 20-кратен.</li>
<li class=""><strong>Tool F1 е по-снизходителен</strong>: същият модел постига 66,85%, 69,42% и 41,56% TF1 в трите настройки — показвайки, че моделите често избират правилните инструменти, но грешат при подредбата, параметризацията или проследяването на разговора.</li>
<li class=""><strong>Пълнотата бие точността при един инструмент</strong>: моделите са склонни да извикват повече инструменти при несигурност, вместо по-малко, което е по-безопасният режим на отказ за финансови задачи, но все пак означава излишни API повиквания и шум в логическата следа.</li>
<li class=""><strong>Немонотонно мащабиране спрямо размера</strong>: Qwen3-30B не превъзхожда последователно Qwen3-4B във всички под-сценарии, което нарушава предположението, че по-големият модел винаги печели при многостъпково използване на инструменти.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-е-устойчиво-и-какво-не">Какво е устойчиво и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B5-%D1%83%D1%81%D1%82%D0%BE%D0%B9%D1%87%D0%B8%D0%B2%D0%BE-%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво е устойчиво и какво не" title="Директна връзка към Какво е устойчиво и какво не" translate="no">​</a></h2>
<p>Използването на реални производствени логове като източник за примерите с един инструмент е най-силното методологично решение тук. То заземява бенчмарка в действителното поведение на потребителите, а не в сценарии, измислени от изследователи, което е рядкост в литературата за финансов ИИ. Пробите с множество инструменти и многократни ходове са синтетично разширени с помощта на графи на зависимости и подкани за ролеви игри, което е разумно предвид цената на етикетирането, но въвежда риск: процесът на синтез е склонен да произвежда по-чисти и по-ясни заявки, отколкото пишат реалните потребители. Резултатът от 3,08% EMR при многократни ходове е тревожен, но трябва да се интерпретира внимателно — EMR изисква пълната последователност да бъде точно правилна, така че едно грешно междинно извикване на инструмент проваля цялата задача. Това е строг и вероятно нереалистичен производствен стандарт; метриките за частично признание като TF1 разказват по-нюансирана история.</p>
<p>Това, на което статията не обръща внимание: липсва анализ дали разликата в производителността е основно проблем с разбирането на входа (моделът интерпретира погрешно какво иска потребителят), проблем с форматирането на изхода (правилно намерение, но лошо формирано извикване на инструмент) или логически проблем (грешни междинни заключения). Без това разчленяване е трудно да се знае къде да се насочат инженерните усилия. Документът също така оценява моделите изолирано; няма тест дали добавянето на стъпка за проверка или рефлексия променя картината при многократните ходове.</p>
<p>Бенчмаркът е тясно свързан със специфичните 65 инструмента на Qieman, което ограничава преносимостта на резултатите към други финансови платформи с различен инвентар от инструменти.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-ai">Защо това е важно за финансовия AI<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-ai" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия AI" title="Директна връзка към Защо това е важно за финансовия AI" translate="no">​</a></h2>
<p>FinMCP-Bench е най-близката публикувана оценка до това, което един Beancount агент за запис (write-back agent) всъщност би правил: получаване на потребителска заявка, идентифициране на подходящия инструмент (или верига от инструменти), извикването им в съответния ред и управление на последващи ходове. Резултатът от 3,08% EMR при многократни ходове е отрезвяваща проверка на реалността. Beancount агент, който управлява многостъпкова корекция на главната книга — например прекласифициране на набор от транзакции между сметки за определен период, след това равняване и генериране на отчет — е точно типа задача с многократни ходове и инструменти, при която текущите модели се провалят почти универсално според стандартите за точно съвпадение.</p>
<p>Рамката на MCP е директно релевантна: Python API на Beancount, интерфейсът beanquery и REST слоят на fava могат да бъдат обвити като MCP сървъри. FinMCP-Bench ни казва, че протоколът не е тясното място — проблемът е логическото мислене върху последователностите от извиквания на инструменти.</p>
<p>Констатацията, че пълнотата на инструментите надвишава точността (моделите прекаляват с извикванията), също е важна за безопасността при запис: агент, който извиква инструмента за промяна на главната книга, когато е било необходимо само четене, може да повреди данните безшумно. Метриките, фокусирани върху точността (precision), а не върху пълнотата (recall), трябва да бъдат основният сигнал за безопасност за агентите с право на запис.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class=""><strong>JSONSchemaBench</strong> (arXiv:2501.10868) — оценява надеждността на структурирания изход в 10 000 JSON схеми; директно разглежда дали повредите във форматирането на извикванията на инструменти във FinMCP-Bench са проблем на ограниченото декодиране.</li>
<li class=""><strong>ToolLLM</strong> (arXiv:2307.16789, ICLR 2024) — фундаменталната рамка за обучение за използване на инструменти, спрямо която се позиционира FinMCP-Bench; разбирането на нейното изследване на дървета за търсене в дълбочина изяснява какво добавя методологията с производствени логове на FinMCP-Bench.</li>
<li class=""><strong>WildToolBench</strong> (arXiv:2604.06185) — оценява използването на инструменти върху реални потребителски заявки "в дивата природа"; неговото откритие, че нито един модел не надвишава 15% точност при реално потребителско поведение, допълва подхода на FinMCP-Bench с производствени логове.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Automation" term="Automation"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Fintech" term="Fintech"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Reconciliation" term="Reconciliation"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[FinTrace: Оценка на ниво траектория при извикване на инструменти от LLM за финансови задачи]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks"/>
        <updated>2026-07-06T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[FinTrace тества 13 големи езикови модела (LLM) върху 800 експертно анотирани траектории на финансови задачи по 9 метрики, установявайки, че водещите модели постигат силен подбор на инструменти (F1 ~0.9), но получават само 3.23/5 за използване на информация — етапът, в който агентите разсъждават върху върнатите от инструментите резултати.]]></summary>
        <content type="html"><![CDATA[<p>FinTrace (arXiv:2604.10015) пристига една седмица след FinToolBench, който отразих миналия път, и двете публикации са в директен диалог помежду си. Докато FinToolBench измерва дали агентът извиква правилните инструменти, FinTrace задава по-трудния въпрос: дори когато агентът извиква правилните инструменти, разсъждава ли той в действителност върху резултатите? Тази разлика е същината на статията и, според мен, същината на целия проблем с Beancount агента за обратно записване (write-back).</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="статията">Статията<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%D1%81%D1%82%D0%B0%D1%82%D0%B8%D1%8F%D1%82%D0%B0" class="hash-link" aria-label="Директна връзка към Статията" title="Директна връзка към Статията" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinTrace%3A%20%D0%9E%D1%86%D0%B5%D0%BD%D0%BA%D0%B0%20%D0%BD%D0%B0%20%D0%BD%D0%B8%D0%B2%D0%BE%20%D1%82%D1%80%D0%B0%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%B8%D1%8F%20%D0%BF%D1%80%D0%B8%20%D0%B8%D0%B7%D0%B2%D0%B8%D0%BA%D0%B2%D0%B0%D0%BD%D0%B5%20%D0%BD%D0%B0%20%D0%B8%D0%BD%D1%81%D1%82%D1%80%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D0%B8%20%D0%BE%D1%82%20LLM%20%D0%B7%D0%B0%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%20%D0%B7%D0%B0%D0%B4%D0%B0%D1%87%D0%B8" alt="2026-07-06-fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks" class="img_ev3q"></p>
<p>Cao и др. представят FinTrace, бенчмарк от 800 експертно анотирани траектории, обхващащи 34 категории финансови задачи от реалния свят в нива на трудност: лесно, средно и трудно. Авторите изграждат своята оценка около рубрика от девет метрики, организирани по четири оси: <strong>коректност на действието</strong> (tool-calling F1, релевантност към задачата), <strong>ефективност на изпълнението</strong> (ефективност на стъпките, резултат за излишък), <strong>качество на процеса</strong> (логическа прогресия, използване на информация, резултат за напредък) и <strong>качество на резултата</strong> (степен на преминаване на задачата, качество на крайния отговор). Те оценяват 13 LLM модела и също така пускат FinTrace-Training, набор от данни от 8196 подбрани траектории на предпочитания за фина настройка.</p>
<p>Основното твърдение е, че водещите модели са усвоили подбора на инструменти, но системно се провалят на по-трудната стъпка: използването на това, което инструментите връщат. Бенчмаркът изследва това с 5-степенна скала за използване на информация, логическа прогресия и резултат за напредък, плюс алгоритмични метрики за tool F1 и ефективност на стъпките.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class="">Най-добре представящият се модел, Claude-Opus-4.6, постига Tool-Calling F1 от 0.896 — силен подбор — но получава само 3.23/5 за използване на информация (Information Utilization), най-слабата от четирите метрики, ориентирани към изхода.</li>
<li class="">Степента на преминаване на задачите (Task Pass Rate) на Claude-Opus-4.6 е 2.65/5, а качеството на крайния отговор (Final Answer Quality) е 3.34/5; дори топ моделът не произвежда последователно правилни и пълни отговори.</li>
<li class="">Qwen-3.5-9B показва дегенериращ модел: почти перфектна ефективност на стъпките (1.000) и излишък (1.000), защото почти не извиква никакви инструменти, което се отразява в Tool-Calling F1 от 0.109. Ефективен, но безполезен.</li>
<li class="">Обучението върху FinTrace-Training подобрява метриките на междинния процес (логическата прогресия се покачва от 2.29 на 2.56 с DPO; резултатът за напредък от 2.00 на 2.30), но качеството на крайния отговор остава в застой — нито един вариант не надвишава значително средното ниво от 1.21 по скалата от 1 до 5 за малки модели.</li>
<li class="">DPO превъзхожда SFT при потискане на катастрофални режими на отказ: делът на резултатите за логическа прогресия от 1 пада от 11.9% (SFT) на 9.5% (DPO).</li>
<li class="">Универсално най-лошата подкатегория за всички 13 модела е Reasoning QA (Въпроси и отговори с разсъждение), където Claude-Opus-4.6 постига едва 0.62 общо — твърд таван, споделян дори от най-силния водещ модел.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-издържа-проверката--и-какво-не">Какво издържа проверката — и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B8%D0%B7%D0%B4%D1%8A%D1%80%D0%B6%D0%B0-%D0%BF%D1%80%D0%BE%D0%B2%D0%B5%D1%80%D0%BA%D0%B0%D1%82%D0%B0--%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво издържа проверката — и какво не" title="Директна връзка към Какво издържа проверката — и какво не" translate="no">​</a></h2>
<p>Основното откритие — че подборът на инструменти и разсъждението върху тях са разграничими — е добре обосновано и рубриката с четири оси е реален принос. Предишни бенчмаркове като FinToolBench спират до траекториите на изпълнение; FinTrace добавя метрики за качество на процеса, съдени от LLM, които разкриват какво се случва между стъпките. Коефициентът на съгласие между оценителите (Cohen's κ) от 0.89 върху 100-пробна валидация е окуражаващ за бенчмарк, изграден частично върху LLM съдии.</p>
<p>Въпреки това, няколко методологични избора ограничават доверието в числата. 34-те категории задачи не са изброени в основната статия — те са оставени за Приложение Б — така че не мога да кажа колко представителни са те за реалната финансова практика. Нивата на трудност са дефинирани чрез процентилни рангове в рамките на собствения пул от заявки на бенчмарка, което е кръгов измерител: „трудно“ просто означава необичайно спрямо останалите 800 траектории, а не трудно в някакъв абсолютен смисъл.</p>
<p>Анализът на фината настройка е фрустриращ. Обучението на 9B модел върху FinTrace-Training подобрява междинните разсъждения, но качеството на крайния отговор остава ниско. Статията приписва това на „прекъсване на връзката“ между процеса и резултата, но не обяснява защо. Най-вероятното обяснение — че на 9B модел му липсва способността за извикване на факти и аритметичните умения, необходими за финансови задачи, независимо от качеството на траекторията — остава неразгледано. Показването на DPO резултати само за Qwen-3.5-9B също прави невъзможно да се разбере дали по-големите модели се възползват повече.</p>
<p>Скептичен съм и към общото агрегиране на резултатите. Комбинирането на алгоритмични метрики (F1 ∈ [0,1]) с оценки от LLM съдии по 5-степенни скали на Ликерт чрез нормализиране към [0,1] и усредняване смесва много различни типове откази. Модел, който извиква напълно погрешни инструменти, не е същият тип „повреден“ като модел, който извиква правилните инструменти и след това игнорира изхода.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-ии">Защо това е важно за финансовия ИИ<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-%D0%B8%D0%B8" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия ИИ" title="Директна връзка към Защо това е важно за финансовия ИИ" translate="no">​</a></h2>
<p>Основното откритие се проектира директно върху проблема с обратното записване (write-back) в Beancount. Агент, който надеждно извиква правилните инструменти на Beancount CLI, но след това интерпретира погрешно изхода — например разчитайки отговора за баланса и публикувайки в грешна сметка — е по-лош от липсата на автоматизация: той произвежда уверено грешни записи в главната книга, които изглеждат правилни за случаен проверяващ.</p>
<p>Метриката за използване на информация (Information Utilization) е тази, която бих следил най-внимателно за всеки Beancount агент. Фактът, че най-добрият наличен модел постига 3.23/5 по този показател в контролиран финансов бенчмарк, трябва да бъде ограничаващ фактор за всяко внедряване в реална среда. Това е аргумент за задължителен човешки преглед на всяка операция по записване, поне докато не видим този резултат стабилно над 4.0.</p>
<p>FinTrace също така потвърждава това, което ReDAct подсказа миналата седмица: правилната архитектура не е разсъждение на LLM от край до край (end-to-end), а конвейер (pipeline), който екстернализира проверката. Агент, който подбира инструментите добре (Tool F1 ~0.9) и след това предава резултатите на отделна стъпка за валидация преди действие, е по-защитим от такъв, който се опитва да разсъждава върху необработения изход на инструмента в един ход.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class="">FinMCP-Bench (arXiv:2603.24943): придружаващата статия, използваща MCP като стандарт за интерфейс на инструменти, следваща в списъка за четене — директно сравнима с FinTrace, но изградена върху различен протоколен слой.</li>
<li class="">„Benchmarking LLM Tool-Use in the Wild“ (arXiv:2604.06185): появи се едновременно и оценява извикването на инструменти извън финансите; би изяснила дали пропастта в използването на информация е специфична за домейна или обща.</li>
<li class="">„Data-Driven Function Calling Improvements in Large Language Model for Online Financial QA“ (arXiv:2604.05387): насочена към същите режими на отказ при извикване на функции от гледна точка на данните за обучение и може да обясни какво липсва на DPO на FinTrace-Training.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="AI" term="AI"/>
        <category label="Finance" term="Finance"/>
        <category label="Fintech" term="Fintech"/>
        <category label="Automation" term="Automation"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Machine Learning" term="Machine Learning"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[FinToolBench: Оценяване на LLM агенти при използване на финансови инструменти в реалния свят]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use"/>
        <updated>2026-07-05T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[FinToolBench съчетава 760 реални финансови API инструмента с 295 изпълними заявки за тестване на LLM агенти върху финансови задачи от реалния свят – установявайки, че консервативният процент на извикване от 22,7% на GPT-4o води до по-високо качество на отговорите (CSS 0,670) спрямо агресивния TIR от 87,1% на Qwen3-8B, докато несъответствието в намеренията надвишава 50% при всички тествани модели.]]></summary>
        <content type="html"><![CDATA[<p>Повечето бенчмаркове за финансово AI тестват дали един модел може да прочете документ. FinToolBench тества дали моделът може да <em>направи</em> нещо — да извика API в реално време, да получи текущи пазарни данни и да върне правилен отговор. Това е разликата, която е от значение за всяка система, опитваща се да автоматизира реална финансова работа, и е празнината, която чаках някой да запълни стриктно.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="докладът">Докладът<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%D0%B4%D0%BE%D0%BA%D0%BB%D0%B0%D0%B4%D1%8A%D1%82" class="hash-link" aria-label="Директна връзка към Докладът" title="Директна връзка към Докладът" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinToolBench%3A%20%D0%9E%D1%86%D0%B5%D0%BD%D1%8F%D0%B2%D0%B0%D0%BD%D0%B5%20%D0%BD%D0%B0%20LLM%20%D0%B0%D0%B3%D0%B5%D0%BD%D1%82%D0%B8%20%D0%BF%D1%80%D0%B8%20%D0%B8%D0%B7%D0%BF%D0%BE%D0%BB%D0%B7%D0%B2%D0%B0%D0%BD%D0%B5%20%D0%BD%D0%B0%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%20%D0%B8%D0%BD%D1%81%D1%82%D1%80%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D0%B8%20%D0%B2%20%D1%80%D0%B5%D0%B0%D0%BB%D0%BD%D0%B8%D1%8F%20%D1%81%D0%B2%D1%8F%D1%82" alt="2026-07-05-fintoolbench-оценяване-на-llm-агенти-при-използване-на-финансови-инструменти-в-реалния-свят" class="img_ev3q"></p>
<p>Цзясюан Лу и колеги представят FinToolBench (arXiv:2603.08262, март 2026 г.) като това, което те твърдят, че е първият изпълним бенчмарк в реалния свят за оценка на финансови агенти, обучаващи се на инструменти. Поставянето на темата е директно: съществуващите финансови AI оценки се фокусират върху статични въпроси и отговори върху документи, докато общите бенчмаркове за използване на инструменти като ToolLLM третират финансите просто като поредната категория API без специфични за домейна ограничения за съответствие. FinToolBench се опитва да запълни пространството между тези два режима на неуспех.</p>
<p>Бенчмаркът съчетава 760 изпълними финансови инструмента — 261 крайни точки (endpoints) в реално време от RapidAPI и 499 интерфейса от AkShare — с 295 стриктно подбрани заявки за оценка, разделени на 166 случая с един инструмент и 129 случая с няколко инструмента. Инструментите обхващат домейни като акции, облигации, фондове, форекс, деривати, макроикономика и криптовалути. От решаващо значение е, че това са реални, призовими API, а не имитации (mocked stubs). Авторите също така въвеждат FATR (Finance-Aware Tool Routing), базов агент, използващ BGE-M3 извличане (топ-20 кандидати), карти с инструменти, анотирани с финансови атрибути, и ReAct планьор, съобразен с ограниченията, лимитиран до пет стъпки.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Изпълнението не е тясното място — разсъждаването върху резултатите е.</strong> GPT-4o има най-висок Conditional Soft Score (CSS = 0,670), което означава, че дава правилни отговори, когато успешно извика инструмент, но извиква инструменти само в 22,7% от времето (TIR = 0,227). Qwen3-8B извиква инструменти в 87,1% от времето, но получава правилния отговор само в 40,4% от случаите, когато успява.</li>
<li class=""><strong>Несъответствието на намерението е доминиращият провал в съответствието.</strong> IMR (Intent Mismatch Rate) надвишава 50% при повечето модели, което означава, че агентите рутинно извършват трансакционни повиквания, когато заявката изисква само информационно търсене. Това е сериозен проблем в регулираните финансови контексти.</li>
<li class=""><strong>Инжектирането на финансови атрибути помага за съответствието, без да вреди на способностите.</strong> Картите с инструменти на базовия FATR — анотиращи всеки инструмент с актуалност, тип намерение и регулаторен домейн — намаляват повикванията на остарели данни (TMR) и нарушенията на домейна (DMR), без да влошават значително процента на извикване.</li>
<li class=""><strong>Заявките с множество инструменти излагат на показ празнината в надеждността.</strong> 129-те заявки с множество инструменти изискват верижни повиквания и предаване на резултати между стъпките; производителността спада значително в сравнение със случаите с един инструмент, което съответства на констатациите от FinTrace и TheAgentCompany.</li>
<li class=""><strong>Малките модели могат да превъзхождат големите по извикване, но не и по разсъждение.</strong> TIR на Qwen3-8B от 0,871 срещу 0,227 за GPT-4o показва, че по-малките модели са по-склонни към често извикване, но CER (Conditional Execution Rate, т.е. TESR/TIR) от 0,339 за Qwen3-8B срещу 0,618 за GPT-4o разкрива, че GPT-4o е далеч по-прецизен, когато реши да извика инструмент.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-издържа-проверката--и-какво-не">Какво издържа проверката — и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B8%D0%B7%D0%B4%D1%8A%D1%80%D0%B6%D0%B0-%D0%BF%D1%80%D0%BE%D0%B2%D0%B5%D1%80%D0%BA%D0%B0%D1%82%D0%B0--%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво издържа проверката — и какво не" title="Директна връзка към Какво издържа проверката — и какво не" translate="no">​</a></h2>
<p>Изборът на бенчмарка да използва истински работещи, изпълними API е неговият основен принос. Имитираните API са били публичната тайна на бенчмарковете за използване на инструменти: 16 000 API на ToolLLM звучат впечатляващо, докато не осъзнаете, че оценката използва LLM като съдия за това дали едно повикване „би работило“. FinToolBench избягва това.</p>
<p>Метриките за съответствие (TMR, IMR, DMR) са концептуално правилни — финансовите агенти трябва да знаят разликата между извличане на вчерашната цена на затваряне и иницииране на сделка — но описанието в доклада за това как се налагат тези класификации е оскъдно. Не е ясно дали етикетите за тип намерение (информационно срещу трансакционно) са били проверени от правни експерти или експерти по съответствието, или просто са присвоени от авторите на набора от данни. Това е от голямо значение на практика.</p>
<p>Списъкът с модели също е странно тесен: Doubao-Seed-1.6, Qwen3-8B, GLM-4.7-Flash и GPT-4o. Липсват Claude Sonnet или Gemini 2.5, които биха били естествени за сравнение. Таблицата с резултати показва, че GPT-4o е изключение с висока прецизност, но ниско покритие; бих искал да знам дали поведението при използване на инструменти на Claude е по-близо до консервативния модел на GPT-4o или до агресивния на Qwen3-8B.</p>
<p>Оценъчният набор от 295 заявки е малък според съвременните стандарти за бенчмарк. Със 760 инструмента, процент на покритие от 295 заявки означава, че повечето инструменти никога не се тестват. Докладът не съобщава статистики за покритие по домейни, което означава, че водещите числа могат да се движат от подмножество добре покрити домейни като акции и макроикономика.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-ai">Защо това е важно за финансовия AI<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-ai" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия AI" title="Директна връзка към Защо това е важно за финансовия AI" translate="no">​</a></h2>
<p>Beancount агентите за обратно записване — всеки агент, който извиква <code>bean-add</code>, коригира файл на главната книга (ledger file) или прави заявка към <code>beanquery</code> — са изправени пред точно тези режими на отказ, които FinToolBench разкрива. Проблемът с несъответствието на намерението се превежда директно: Beancount агент, който извършва повикване за запис, когато потребителят е задал въпрос за четене, има същия признак за отказ като нарушение на IMR. Измерението на актуалността се отнася до проблема с извикване на остаряло кеширано състояние на главната книга, когато потребителят очаква текущия баланс.</p>
<p>Напрежението между прецизност и покритие (GPT-4o срещу Qwen3-8B) също е пряко релевантно. За обратно записване в Beancount бих предпочел консервативното поведение на GPT-4o — нисък TIR, но висок CER и CSS — пред модел с високо ниво на извикване, който често изпълнява грешния инструмент. Погрешните записи са много по-скъпи от липсата на действие.</p>
<p>Подходът на FATR за анотиране на инструменти с атрибути за съответствие, вместо да се разчита на модела да ги изведе, е модел на проектиране, който си струва да бъде възприет. Обвиването на CLI инструментите на Beancount с изрични метаданни за това дали едно повикване е само за четене или е модифициращо, и дали се отнася до текущо или архивирано състояние на главната книга, е същата идея, приложена в по-малък мащаб.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class=""><strong>FinTrace</strong> (arXiv:2604.10015) — оценка на ниво траектория в 34 категории финансови задачи с 9 метрики; директно разширява оценката с едно повикване на FinToolBench до многостъпкови последователности и фино настройва Qwen-3.5-9B с DPO за подобряване на междинните разсъждения.</li>
<li class=""><strong>FinMCP-Bench</strong> (arXiv:2603.24943) — 613 проби върху 65 базирани на MCP финансови инструмента, тестващи извикване с един инструмент, множество инструменти и в няколко стъпки; рамката на MCP е пряко релевантна към интерфейсите на инструментите за Beancount.</li>
<li class=""><strong>ToolLLM</strong> (arXiv:2307.16789, ICLR 2024) — докладът за ToolBench, срещу който FinToolBench изрично се позиционира; разбирането на това какво базовият модел с имитирани API може и не може да измери, изяснява колко реално допринася възможността за изпълнение на FinToolBench.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Automation" term="Automation"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Fintech" term="Fintech"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Compliance" term="Compliance"/>
        <category label="Data Science" term="Data Science"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[OmniEval: Всепосочен бенчмарк за оценка на RAG във финансовата сфера]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain"/>
        <updated>2026-07-04T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[OmniEval (EMNLP 2025) сравнява RAG системи чрез 5 вида задачи × 16 финансови теми, използвайки 11,4 хиляди автоматично генерирани тестови случая. Най-добрите системи достигат едва 36% числова точност — конкретно доказателство, че RAG конвейерите се нуждаят от слоеве за валидация, преди да пишат в структурирани финансови книги.]]></summary>
        <content type="html"><![CDATA[<p>Повечето RAG бенчмаркове във финансите питат дали една система може да извлича и отговаря — и толкоз. OmniEval (EMNLP 2025, arXiv:2412.13018) от Шутинг Уанг и колеги от RUC задава по-труден въпрос: запазва ли се производителността в пълната матрица от типове задачи и финансови теми? Чета го сега, защото това е най-структурираният опит за картографиране на провалите на RAG във финансите, преди да се опитаме да изградим надеждни Beancount агенти за счетоводни книги върху RAG конвейери.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="документът">Документът<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%D0%B4%D0%BE%D0%BA%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D1%8A%D1%82" class="hash-link" aria-label="Директна връзка към Документът" title="Директна връзка към Документът" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=OmniEval%3A%20%D0%92%D1%81%D0%B5%D0%BF%D0%BE%D1%81%D0%BE%D1%87%D0%B5%D0%BD%20%D0%B1%D0%B5%D0%BD%D1%87%D0%BC%D0%B0%D1%80%D0%BA%20%D0%B7%D0%B0%20%D0%BE%D1%86%D0%B5%D0%BD%D0%BA%D0%B0%20%D0%BD%D0%B0%20%D0%A0%D0%90%D0%93%20%D0%B2%D1%8A%D0%B2%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B0%D1%82%D0%B0%20%D1%81%D1%84%D0%B5%D1%80%D0%B0" alt="2026-07-04-omnieval-omnidirectional-automatic-rag-evaluation-financial-domain" class="img_ev3q"></p>
<p>OmniEval конструира двуизмерна решетка за оценка: пет класа задачи (екстрактивни QA, многостъпково разсъждение, контрастно QA, QA с дълга форма и разговорно QA), пресечени с 16 финансови теми (фондови пазари, инвестиционно банкиране, фондове, имуществено застраховане и други). Резултатът е структуриран бенчмарк с 11,4 хил. автоматично генерирани тестови примера, 1,7 хил. примера с човешка анотация и корпус за извличане от 362 хил. документа, събран от шест китайски източника на финансови данни (BSCF-DB със 193 хил. документа, FinGLM с 55 хил., BAAI-Fin с 48 хил., официални уеб страници, PDF файлове и финансово съдържание от Wikipedia). Бенчмаркът включва също и фино настроен LLM оценител — Qwen2.5-7B-Instruct, обучен върху 910 случая с човешки етикети — който оценява качеството на генериране чрез показатели за точност, халюцинации, пълнота, използване и числова точност. Документът е публикуван в EMNLP 2025.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class="">Автоматично генерираните тестови случаи преминаха проверка за приемане от хора с резултат 87,47%, което означава, че приблизително 1 на всеки 8 генерирани случая е бил отхвърлен — това не е тривиален процент шум за бенчмарк.</li>
<li class="">Най-добрият модул за извличане (retriever) (GTE-Qwen2-1.5B) постигна MAP от 0,4370 и MRR от 0,4491 върху автоматично генерирания набор, което означава, че най-високо класираният пасаж е правилен в по-малко от половината случаи, дори с най-силния тестван модел за извличане.</li>
<li class="">Точността на генериране (ACC) при всички комбинации от извличащ модул и LLM варира от 0,3238 до 0,4476 — най-добрата конфигурация дава правилен отговор на по-малко от половината въпроси.</li>
<li class="">Числовата точност (NAC) е най-фрапиращото откритие: от 0,0659 до 0,3595. Най-добрата система познава финансовите числа в около 36% от случаите; най-лошата е близо до нулата.</li>
<li class="">Фино настроеният оценител достигна 74,4% съответствие с човешката анотация (κ = 0,6486), което значително превъзхожда базовите модели само с промпт (55–71%) — но все пак оставя една от четири оценки в разрез с човешката преценка.</li>
<li class="">Многостъпковото разсъждение и разговорното QA бяха постоянно най-трудните класове задачи.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-издържа-проверката--и-какво-не">Какво издържа проверката — и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B8%D0%B7%D0%B4%D1%8A%D1%80%D0%B6%D0%B0-%D0%BF%D1%80%D0%BE%D0%B2%D0%B5%D1%80%D0%BA%D0%B0%D1%82%D0%B0--%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво издържа проверката — и какво не" title="Директна връзка към Какво издържа проверката — и какво не" translate="no">​</a></h2>
<p>Дизайнът на матричната оценка е наистина полезен. Предишните финансови бенчмаркове (FinanceBench, FinQA, DocFinQA) разглеждат оценката по една ос — обикновено точност на отговора — и пропускат структурните вариации в това как RAG се проваля. Да знаеш, че една система се справя добре с екстрактивно QA, но зле с многостъпково разсъждение, е приложимо в практиката; да знаеш само усреднения общ резултат — не е. Решетката на OmniEval прави тази вариация видима, а откритието, че производителността е непоследователна в различните теми, е точно вида резултат, който практиците трябва да видят преди внедряване.</p>
<p>Въпреки това, има реални ограничения, за които искам да бъда директен. Корпусът е преобладаващо китайски: пет от шестте източника на данни са китайски финансови данни (BSCF, FinGLM, BAAI-Fin), а шестият е китайската Wikipedia. Документът не отчита резултати, разбити по езици — той докладва само обобщени числа. Това прави всеки резултат в документа подозрителен като твърдение за финансовия RAG по принцип, за разлика от финансовия RAG върху китайски текст с китайски специализирани извличащи модули и LLM (GTE-Qwen2-1.5B, Qwen2.5-72B, Yi15-34B). Англоезичните финансови потребители не могат директно да използват тези числа.</p>
<p>LLM оценителят е обучен върху 910 анотирани случая. Това е малко. Съответствието от 74,4% с хората при κ = 0,6486 е защитимо като отправна точка, но означава, че самата рамка за оценка внася значителен шум. Ако бенчмаркът се използва за сравнение на системи, които се различават с няколко процентни пункта, отклонението на оценителя ще заглуши реалния сигнал.</p>
<p>Конвейерът за автоматично генериране — GPT-4 създава тестовите въпроси, хората ги филтрират при 87,47% приемане — също повдига въпроса за „замърсяване“, който документът не разглежда: въпросите, генерирани от GPT-4, могат да облагодетелстват моделите от класа на GPT-4 по начин, който систематично ощетява по-старите или по-малките модели.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-ии">Защо това е важно за финансовия ИИ<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-%D0%B8%D0%B8" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия ИИ" title="Директна връзка към Защо това е важно за финансовия ИИ" translate="no">​</a></h2>
<p>Показателите за числова точност са цифрите, към които се връщам постоянно: 0,0659–0,3595. Ако най-добрата тествана RAG система познава финансовите числа само в 36% от случаите в бенчмарк оценка, всеки Beancount агент за обратен запис, изграден върху наивен RAG конвейер, ще повреди данните в счетоводната книга. Форматът на Beancount е безпощаден — неправилна сума, дата или име на сметка води или до грешка при разбора (parse error), или до скрита счетоводна грешка, която може да се разпространи през фискалните години. Този бенчмарк ни дава конкретни доказателства, че извличането чрез RAG и генерирането чрез LLM все още не са достатъчно надеждни за директен обратен запис в книгата без слой за валидация.</p>
<p>Структурата на класовете задачи също се съпоставя точно с случаите на употреба на Beancount. Екстрактивното QA съответства на прости проверки на баланса. Многостъпковото разсъждение съответства на въпроси като „какъв е нетният ми доход след данъци за периода от Q1 до Q3?“. Разговорното QA съответства на потребител, който итеративно прецизира заявка за равняване по време на сесия. Констатацията на OmniEval, че многостъпковите и разговорните задачи са най-трудни, е точно лошата новина за дизайна на Beancount агентите: лесните случаи са почти наред; реалистичните случаи са тези, при които системата се разпада.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class="">ARES: An Automated Evaluation Framework for Retrieval-Augmented Generation (arXiv:2311.09476, NAACL 2025) — най-близкият аналог в общата област на подхода на OmniEval за фино настройване на оценител; сравняването на методологията на ARES с тази на OmniEval би изяснило дали дизайнерските избори за LLM оценителя са принципни или ad hoc.</li>
<li class="">RAGEval: Scenario-Specific RAG Evaluation Dataset Generation Framework (ACL 2025, aclanthology.org/2025.acl-long.418) — автоматизирано генериране на сценарии за оценка на RAG; разширява методологията за автоматично генериране, която OmniEval използва, и може да адресира загрижеността относно замърсяването на данните.</li>
<li class="">FinRAGBench-V: A Benchmark for Multimodal RAG with Visual Citation in the Financial Domain (arXiv:2505.17471) — разширява оценката на RAG към мултимодални финансови документи (таблици, диаграми); уместно, тъй като потребителите на Beancount все по-често разполагат с изображения на касови бележки и PDF извлечения заедно с текстовите си счетоводни книги.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="LLM" term="LLM"/>
        <category label="Finance" term="Finance"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Automation" term="Automation"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Обзор на откриването на аномалии с LLM (NAACL 2025): Силна таксономия, липса на обхват при табличните данни]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey"/>
        <updated>2026-07-03T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[Критичен прочит на обзора на Сю и Динг за NAACL 2025 относно откриването на аномалии и OOD чрез LLM: таксономията „откриване срещу генериране“ е устойчива, но почти пълната липса на табличен обхват означава, че финансовите AI специалисти трябва сами да синтезират прозрения от визуални модели.]]></summary>
        <content type="html"><![CDATA[<p>Предишните три публикации в тази тема разгледаха AnoLLM, CausalTAD и AD-LLM — всяка от тях насочена конкретно към откриване на аномалии в таблични данни. Този обзор на Руйяо Сю и Кайзе Динг, приет във Findings на NAACL 2025, би трябвало да свърже тези нишки в единна карта на ландшафта. Очаквах таксономия, която да изясни пространството за проектиране; това, което получих, е предимно обзор на откриването на аномалии в изображения и видео с тънък слой общост.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="документът">Документът<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%D0%B4%D0%BE%D0%BA%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D1%8A%D1%82" class="hash-link" aria-label="Директна връзка към Документът" title="Директна връзка към Документът" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D0%9E%D0%B1%D0%B7%D0%BE%D1%80%20%D0%BD%D0%B0%20%D0%BE%D1%82%D0%BA%D1%80%D0%B8%D0%B2%D0%B0%D0%BD%D0%B5%D1%82%D0%BE%20%D0%BD%D0%B0%20%D0%B0%D0%BD%D0%BE%D0%BC%D0%B0%D0%BB%D0%B8%D0%B8%20%D1%81%20LLM%20%28NAACL%202025%29%3A%20%D0%A1%D0%B8%D0%BB%D0%BD%D0%B0%20%D1%82%D0%B0%D0%BA%D1%81%D0%BE%D0%BD%D0%BE%D0%BC%D0%B8%D1%8F%2C%20%D0%BB%D0%B8%D0%BF%D1%81%D0%B0%20%D0%BD%D0%B0%20%D0%BE%D0%B1%D1%85%D0%B2%D0%B0%D1%82%20%D0%BF%D1%80%D0%B8%20%D1%82%D0%B0%D0%B1%D0%BB%D0%B8%D1%87%D0%BD%D0%B8%D1%82%D0%B5%20%D0%B4%D0%B0%D0%BD%D0%BD%D0%B8" alt="2026-07-03-llm-anomaly-ood-detection-survey" class="img_ev3q"></p>
<p>Обзорът на Сю и Динг (arXiv:2409.01980) предлага организиране на откриването на аномалии и извъндистрибуционни данни (OOD) чрез LLM в два класа на високо ниво: <strong>LLM за откриване</strong>, където моделът директно идентифицира аномалии, и <strong>LLM за генериране</strong>, където моделът допълва данните за обучение или създава обяснения на естествен език, които захранват последващ детектор. Всеки клас се подразделя допълнително. Откриването се разделя на методи, базирани на подкани (frozen или tuned LLM, запитвани с подкани на естествен език) и методи, базирани на контрастиране (модели от фамилията CLIP, които оценяват аномалността чрез сравняване на части от изображения с текстови описания). Генерирането се разделя на методи, фокусирани върху допълване (генериране на псевдо-OOD етикети или синтетични малцинствени проби) и методи, фокусирани върху обяснението (създаване на обосновки на естествен език за маркирани събития).</p>
<p>Придружаващият списък за четене в GitHub обхваща приблизително 39 документа: 24 за откриване, 10 за допълване и 5 за обяснение.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Методите, базирани на контрастиране, доминират при откриването на аномалии в изображения.</strong> WinCLIP постига 91,8% и 85,1% AUROC при zero-shot класификация и сегментация на аномалии върху MVTec-AD без никаква специфична настройка на набора от данни, което е конкурентно на контролираните методи, обучени върху този набор.</li>
<li class=""><strong>Замразените (frozen) LLM се сблъскват с модална пропаст при нетекстови данни.</strong> Обзорът изрично отбелязва, че „директното подаване на подкани към замразени LLM за откриване на аномалии или OOD при различни типове данни често води до субоптимална производителност поради присъщата модална пропаст между текста и другите модалности на данните“.</li>
<li class=""><strong>LoRA и настройката на адаптери преодоляват голяма част от тази разлика.</strong> Методи като AnomalyGPT и AnomalyCLIP се донастройват с техники за ефективно използване на параметрите и значително превъзхождат своите замразени аналози.</li>
<li class=""><strong>Генерирането като допълване (augmentation) е слабо използвано.</strong> Генерираните от BLIP-2 псевдо-OOD етикети на ниво заглавие превъзхождат алтернативите на ниво дума и описание при откриването на OOD, което предполага, че по-богатият текстов надзор е от значение дори за визуални задачи.</li>
<li class=""><strong>Генерирането, фокусирано върху обяснението, е най-новата подкатегория.</strong> Системи като Holmes-VAD и VAD-LLaMA надхвърлят бинарните флагове, за да генерират обосновки на естествен език за аномални събития, предимно във видео за наблюдение.</li>
<li class=""><strong>Табличните данни почти отсъстват.</strong> Обзорът цитира един метод — „Tabular“ на Ли и др. (2024) — който преобразува таблични редове в текстови подкани и ги донастройва с LoRA, но не предоставя сравнителни данни.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="кое-е-устойчиво-и-кое-не">Кое е устойчиво и кое не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%D0%BA%D0%BE%D0%B5-%D0%B5-%D1%83%D1%81%D1%82%D0%BE%D0%B9%D1%87%D0%B8%D0%B2%D0%BE-%D0%B8-%D0%BA%D0%BE%D0%B5-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Кое е устойчиво и кое не" title="Директна връзка към Кое е устойчиво и кое не" translate="no">​</a></h2>
<p>Таксономията от два класа е наистина чиста и вероятно ще я използвам, за да организирам собственото си мислене. Разграничението между откриване и генериране улавя реално архитектурно разклонение: или искате от LLM да класифицира директно, или го използвате, за да изградите по-добър тренировъчен сигнал за традиционен детектор.</p>
<p>Това, което не мога да приема, е рамкирането на документа като обзор на откриването на аномалии в широк смисъл. Обхватът е преобладаващо концентриран върху изображения на индустриални дефекти (MVTec-AD, VisA) и видеонаблюдение (UCF-Crime, XD-Violence). От приблизително 39 каталогизирани статии, почти нито една не се занимава с таблични или финансови данни. Времевите редове получават няколко цитирания. Табличните данни получават едно изречение. Това не е карта на ландшафта за Bean Labs — това е карта на ландшафта за изследователи в областта на компютърното зрение, които искат да използват CLIP за откриване на дефекти.</p>
<p>Авторите признават, че „ограниченията в пространството предотвратяват подробни обобщения на метриките“, което е учтив начин да се каже, че липсват сравнителни таблици. За обзорна статия липсата на количествен синтез е значителен пропуск. Читателите не могат да използват този документ, за да решат коя парадигма е по-добра за техния случай на употреба, без да проследяват всяка цитирана статия поотделно.</p>
<p>Предизвикателството на халюцинациите е посочено като отворен проблем, но третирането му е повърхностно — то назовава риска, без да анализира кои парадигми за откриване са повече или по-малко податливи, или как генерирането, фокусирано върху обяснението, може да направи халюцинациите по-лесно откриваеми чрез човешки преглед.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-ai">Защо това е важно за финансовия AI<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-ai" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия AI" title="Директна връзка към Защо това е важно за финансовия AI" translate="no">​</a></h2>
<p>Две подкатегории са подходящи въпреки фокуса върху изображенията. Първо, подкатегорията <strong>генериране, фокусирано върху обяснението</strong>, е точно това, от което се нуждаят одитните агенти на Beancount: не просто флаг, че даден счетоводен запис е аномален, а изречение на естествен език, обясняващо защо. Финансовите одитори не могат да действат въз основа на бинарен изход. Второ, почти пълното мълчание на обзора относно откриването на аномалии в таблични данни е само по себе си информативно — то потвърждава, че нишката AnoLLM, CausalTAD и AD-LLM, която следя, е гранична област, а не добре утъпкан път, и че проектирането на одитни инструменти, базирани на LLM за регистрите на Beancount, изисква синтезиране на прозрения от откриването на аномалии във визията, които все още не са пренесени в таблични настройки.</p>
<p>Компромисът между подкани (prompting) и настройка (tuning) е най-практичната находка: zero-shot подканите работят като първо приближение, но страдат от модалната пропаст; донастройката на базата на LoRA върху представителни етикетирани примери затваря тази разлика. За внедряване на Beancount с етикетирани примери за аномалии от исторически регистри, пътят на донастройката изглежда по-надежден от чистото използване на подкани.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class="">„Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs“ (arXiv:2406.03614) — използва LLM вграждания (embeddings) от sentence-transformer върху реални записи в главната книга; директен мост от рамката на този обзор към случая с таблични данни в Beancount.</li>
<li class="">„Enhancing Anomaly Detection in Financial Markets with an LLM-based Multi-Agent Framework“ (arXiv:2403.19735) — мултиагентен тръбопровод за откриване на аномалии в пазарни данни; моделът на мултиагентна координация може да бъде пренесен към одита на регистрите.</li>
<li class="">AnomalyGPT (arXiv:2308.15366) — донастроен LVLM за откриване на индустриални аномалии с локализация на ниво пиксел; четенето на това изяснява какво всъщност означава архитектурно „LLM настройка за откриване“, което обзорът описва, но не обяснява.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Fraud Detection" term="Fraud Detection"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Analytics" term="Analytics"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Открити в средата: Калибрирането на позиционното отклонение на вниманието подобрява RAG с дълъг контекст]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias"/>
        <updated>2026-07-02T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[Калибриране по време на извеждане без необходимост от обучение изважда позиционното отклонение от теглата на вниманието на LLM, възстановявайки до 15 процентни пункта точност на RAG, когато извлечените документи са скрити в средата на контекста — и какво означава това за финансово-специфичните агентни конвейери.]]></summary>
        <content type="html"><![CDATA[<p>Мислех за проблема „изгубени в средата“ още откакто написах бележката за оригиналното откритие на Liu et al.: подайте дълъг контекст на LLM и той надеждно ще игнорира доказателствата, скрити в средата. „Открити в средата: Калибрирането на позиционното отклонение на вниманието подобрява използването на дълъг контекст“ (Hsieh et al., ACL Findings 2024, arXiv:2406.16008) предлага най-директното и практично решение, което съм виждал: калибриране по време на извеждане без обучение, което изважда позиционното отклонение на модела от теглата му на внимание, възстановявайки до 15 процентни пункта точност на RAG.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="документът">Документът<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%D0%B4%D0%BE%D0%BA%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D1%8A%D1%82" class="hash-link" aria-label="Директна връзка към Документът" title="Директна връзка към Документът" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D0%9E%D1%82%D0%BA%D1%80%D0%B8%D1%82%D0%B8%20%D0%B2%20%D1%81%D1%80%D0%B5%D0%B4%D0%B0%D1%82%D0%B0%3A%20%D0%9A%D0%B0%D0%BB%D0%B8%D0%B1%D1%80%D0%B8%D1%80%D0%B0%D0%BD%D0%B5%D1%82%D0%BE%20%D0%BD%D0%B0%20%D0%BF%D0%BE%D0%B7%D0%B8%D1%86%D0%B8%D0%BE%D0%BD%D0%BD%D0%BE%D1%82%D0%BE%20%D0%BE%D1%82%D0%BA%D0%BB%D0%BE%D0%BD%D0%B5%D0%BD%D0%B8%D0%B5%20%D0%BD%D0%B0%20%D0%B2%D0%BD%D0%B8%D0%BC%D0%B0%D0%BD%D0%B8%D0%B5%D1%82%D0%BE%20%D0%BF%D0%BE%D0%B4%D0%BE%D0%B1%D1%80%D1%8F%D0%B2%D0%B0%20RAG%20%D1%81%20%D0%B4%D1%8A%D0%BB%D1%8A%D0%B3%20%D0%BA%D0%BE%D0%BD%D1%82%D0%B5%D0%BA%D1%81%D1%82" alt="2026-07-02-found-in-the-middle-calibrating-positional-attention-bias" class="img_ev3q"></p>
<p>Hsieh et al. започват от диагностично наблюдение: LLM — дори тези, обучени на дълги контексти — показват постоянен U-образен модел на вниманието. Токените в началото и в края на входните данни получават непропорционално голямо внимание, независимо дали са уместни, докато токените в средата систематично се подценяват. Авторите свързват това емпирично със спада в точността „изгубени в средата“, вместо да го разглеждат като отделно явление.</p>
<p>Тяхното решение е елегантно като концепция. Те разлагат вниманието на два адитивни компонента: уместност (това, което искаме) и позиционно отклонение (това, което не искаме). За да изолират члена за отклонението, те прекарват „фиктивен“ документ — неинформативно запълващо съдържание — през същия контекст на всяка позиция и записват полученото разпределение на вниманието. Вниманието към този фиктивен документ апроксимира чистия позиционен приоритет (prior). Изваждането му от реалните резултати за внимание оставя остатък, който по-добре отразява истинската уместност:</p>
<p><strong>Calibrated attention = Attn(document, k) − Attn(dummy, k)</strong></p>
<p>След това мащабираните резултати се използват за прекласиране или претегляне на извлечените документи преди последната стъпка на генериране на отговор. От решаващо значение е, че не се изисква обучение. Калибрирането се прилага по време на извеждане към последните 16 слоя на декодера и всички глави на вниманието. Цената е O(K) допълнителни преминавания напред (forward passes), където K е броят на извлечените документи — не е незначително, но е предвидимо.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class="">U-образното позиционно отклонение е присъщо на архитектурата на модела и продължава да съществува дори в модели, изрично обучени с цели за дълъг контекст.</li>
<li class="">Прекарването на фиктивен (празен/шумен) документ през същия контекст на извличане изолира позиционния приоритет; изваждането му премахва отклонението без никаква фина настройка (finetuning).</li>
<li class="">Recall@3 на NaturalQuestion (K=20, златният документ е поставен в средата) скача от 20,52% на 68,32% с калибриране; при K=10, от 36,38% на 74,27%.</li>
<li class="">Точността на QA от край до край се подобрява с 6–15 процентни пункта, когато златният документ е в средата на контекста; подобренията се запазват в 22 от 24 експериментални конфигурации.</li>
<li class="">Методът превъзхожда шест базови модела за сравнение: стандартно (vanilla) внимание, ранжиране чрез генериране на заявки, подтикване за генериране на уместност, сортиране на вниманието (Peysakhovich &amp; Lerer 2023), пренареждане на подканите и LongLLMLingua-rk.</li>
<li class="">Методът е оценен върху NaturalQuestion (2 655 реални заявки в Wikipedia) и SynthWiki (990 синтетични записа, генерирани от GPT-4).</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-е-валидно-и-какво-не">Какво е валидно и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B5-%D0%B2%D0%B0%D0%BB%D0%B8%D0%B4%D0%BD%D0%BE-%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво е валидно и какво не" title="Директна връзка към Какво е валидно и какво не" translate="no">​</a></h2>
<p>Основният резултат е поразителен и аз му вярвам. Разлика в Recall@3 от 20,52% → 68,32% за златни документи в средата на контекста не е число, което изчезва при внимателна проверка — то измерва нещо реално за това как се разпределя вниманието. Дизайнът без обучение е истинско практическо предимство: можете да добавите това върху всеки съществуващ RAG конвейер, без да докосвате теглата на модела.</p>
<p>Въпреки това имам някои резерви. Първо, подходът с „фиктивен документ“ предполага, че позиционното отклонение е грубо позиционно отделимо и адитивно — линейно разлагане, което самите автори отбелязват като потенциално прекалено опростено. Реалното отклонение на вниманието може да взаимодейства със съдържанието по нелинейни начини. Второ, O(K) допълнителните преминавания напред са оценени като „приемливи“, но никога не са тествани за латентност или цена. В производствена система с K=20 извличания, вие изпълнявате 21 преминавания напред вместо 1 за заявка. За Beancount агент, обработващ стотици транзакции, този множител е от значение.</p>
<p>Трето — и това е най-интересното ограничение — авторите отбелязват, че позиционното отклонение всъщност може да бъде полезно за определени задачи. Отклонението в полза на актуалността (recency bias), например, може да е това, което кара модела да претегля правилно последните записи в счетоводната книга спрямо по-старите. Премахването на отклонението безразборно може да навреди на задачи, където позицията е валиден сигнал. Това е признато, но не е проучено.</p>
<p>И накрая, експериментите използват NaturalQuestion и синтетичен набор от данни. Финансово-специфичните документи — плътни таблици, многогодишни отчети, записи в счетоводни книги с повтаряща се структура — са много различни от пасажите в Wikipedia с отворен домейн. Калибрирането ще трябва да бъде валидирано върху тези разпределения, преди да се твърди, че ще работи за финансов RAG.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-ии">Защо това е важно за финансовия ИИ<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-%D0%B8%D0%B8" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия ИИ" title="Директна връзка към Защо това е важно за финансовия ИИ" translate="no">​</a></h2>
<p>Директната връзка е ясна: всяка бележка след DocFinQA се върти около същия проблем. Когато един Beancount агент извлече 20 подходящи записа в счетоводната книга, за да отговори на въпрос като „равни март спрямо банковото извлечение“, записите от средата на извлечения прозорец ще получат систематично по-малко внимание в сравнение със записите в началото и в края на контекста. Това не е провал на извличането — това е провал на страната на генерирането, който никакво подобрение в ранжирането при извличане няма да коригира.</p>
<p>Калибрирането „открити в средата“ е реалистично смекчаване на проблема, което не изисква преобучение на базовия модел и може да бъде приложено директно в стъпката на генериране на всеки QA конвейер за счетоводни книги. Притеснението за цената O(K) е реално, но управляемо — прозорец за извличане от 20 документа с модел с умерен размер все още е в практическите граници. Това, което бих искал да видя преди внедряването му, е валидация специално върху структурирани данни на Beancount: помага ли позиционната корекция равномерно или неволно потиска сигнала за актуалност, който прави последните транзакции по-достоверни от старите?</p>
<p>По-широкият принцип — че механизмите на вниманието кодират позиционни приоритети независимо от уместността на съдържанието и че тези приоритети могат да бъдат калибрирани без преобучение — си струва да се запомни. Това отваря вратата за подобни калибрирания за други отклонения: отклонение според честотата на токените, нормализиране на дължината на входа, отклонение към многословност при генериране.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class="">„Mitigate Position Bias in LLMs via Scaling a Single Hidden States Channel“ (arXiv:2406.02536, ACL Findings 2025) — предлага мащабиране на едно измерение на скритото състояние вместо изваждане на резултатите за внимание; заслужава си да се сравни директно с подхода на „found-in-the-middle“.</li>
<li class="">„Large Language Models for Anomaly and Out-of-Distribution Detection: A Survey“ (arXiv:2409.01980, NAACL 2025) — следващ в списъка за четене; свързва нишките на AnoLLM, CausalTAD и AD-LLM в единна таксономия.</li>
<li class="">Liu et al., „Lost in the Middle: How Language Models Use Long Contexts“ (arXiv:2307.03172, TACL 2023) — оригиналната диагноза, на която „found-in-the-middle“ отговаря; основно четиво за контекст.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Automation" term="Automation"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Reconciliation" term="Reconciliation"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Отлагане с отчитане на неопределеността за LLM агенти: Кога да се ескалира от малки към големи модели]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents"/>
        <updated>2026-07-01T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[ReDAct изпълнява малък модел по подразбиране и ескалира към скъп модел само когато перплексията на ниво токен сигнализира за неопределеност, постигайки 64% спестяване на разходи спрямо използването само на GPT-5.2, като същевременно съответства на неговата точност или я надвишава — модел, директно приложим за агенти за категоризиране на трансакции в Beancount.]]></summary>
        <content type="html"><![CDATA[<p>Натискът върху автономните агенти да бъдат едновременно евтини и надеждни ги тегли в противоположни посоки: водещите модели (frontier models) са надеждни, но скъпи, докато малките модели са евтини, но склонни към грешки. Докладът ReDAct на Пятрашин и др. (arXiv:2604.07036) предлага среден път — изпълнение на малък модел по подразбиране и отлагане (defer) към голям модел само когато малкият модел е несигурен. Чета това, защото същото напрежение дефинира всеки агент за автоматично вписване в Beancount: искате системата да обработва рутинното категоризиране евтино и да ескалира неочевидните случаи, преди те да корумпират счетоводната книга (ledger).</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="докладът">Докладът<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%D0%B4%D0%BE%D0%BA%D0%BB%D0%B0%D0%B4%D1%8A%D1%82" class="hash-link" aria-label="Директна връзка към Докладът" title="Директна връзка към Докладът" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D0%9E%D1%82%D0%BB%D0%B0%D0%B3%D0%B0%D0%BD%D0%B5%20%D1%81%20%D0%BE%D1%82%D1%87%D0%B8%D1%82%D0%B0%D0%BD%D0%B5%20%D0%BD%D0%B0%20%D0%BD%D0%B5%D0%BE%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%BE%D1%81%D1%82%D1%82%D0%B0%20%D0%B7%D0%B0%20LLM%20%D0%B0%D0%B3%D0%B5%D0%BD%D1%82%D0%B8%3A%20%D0%9A%D0%BE%D0%B3%D0%B0%20%D0%B4%D0%B0%20%D1%81%D0%B5%20%D0%B5%D1%81%D0%BA%D0%B0%D0%BB%D0%B8%D1%80%D0%B0%20%D0%BE%D1%82%20%D0%BC%D0%B0%D0%BB%D0%BA%D0%B8%20%D0%BA%D1%8A%D0%BC%20%D0%B3%D0%BE%D0%BB%D0%B5%D0%BC%D0%B8%20%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8" alt="2026-07-01-redact-uncertainty-aware-deferral-llm-agents" class="img_ev3q"></p>
<p>ReDAct (Reason-Defer-Act) се основава на парадигмата ReAct и въвежда архитектура на агент с два модела. Малък евтин модел — Qwen3-80B, Llama3.3-70B или Llama4-Maverick — обработва всяка стъпка по подразбиране. На всяка стъпка той генерира следа от разсъждения (reasoning trace), след което генерира действие. Системата измерва неопределеността на ниво токен <em>само върху стъпката на генериране на действие</em> и я сравнява с калибриран праг. Ако неопределеността надвиши този праг, стъпката се изпълнява повторно от голям скъп модел (GPT-5.2, Qwen3-235B или Qwen3-480B); в противен случай се изпълнява действието на малкия модел.</p>
<p>Измерванията на неопределеността са информационно-теоретични и изискват само логаритмични вероятности на ниво токен: Вероятност на последователността (сумирана отрицателна логаритмична вероятност), Перплексия (нормализирана по дължина) и Средна ентропия на токените (средна ентропия в позициите на токените). Прагът се калибрира от отделен набор от изпълнения на малкия модел, като се избира стойността, която произвежда целевия брой повиквания на големия модел на епизод K.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Измервайте неопределеността при стъпката на действие, а не при стъпката на разсъждение.</strong> Помощен експеримент върху 2411 стъпки в ALFWorld установи, че неопределеността на ниво разсъждение има слаба дискриминативна способност между правилни и неправилни стъпки; перплексията на ниво действие има измеримо по-високи ROC-AUC и PRR като предсказател за коректност.</li>
<li class=""><strong>Отлагането чрез перплексия (PPL) с Qwen3-80B + GPT-5.2 постига 80.8% ± 1.1% на ALFWorld</strong>, надминавайки самостоятелния GPT-5.2 (78.3% ± 1.9%), докато струва $16.25 срещу $45.21 — приблизително 64% по-евтино.</li>
<li class=""><strong>~15% от стъпките се отлагат</strong> на практика, за да съответстват на калибрационна цел от около 10%; разликата възниква, защото неуспешните (по-къси) траектории допринасят непропорционално за бюджета за отлагане.</li>
<li class=""><strong>Случайното отлагане при същата честота постига 77.0%</strong> — все още по-добре от използването само на малък модел (68.3%), но по-лошо от отлагането, ръководено от количествено определяне на неопределеността (UQ). Сигналът за неопределеност наистина има значение, а не само фактът на по-честото извикване на големия модел.</li>
<li class=""><strong>MiniGrid показва по-малко място за подобрение.</strong> Qwen3-80B + GPT-5.2 с PPL отлагане достига 95.0% срещу 99.0% само за GPT-5.2. По-малкият речник на задачите създава по-труден таван за подхода с отлагане, когато малкият модел е структурно неадекватен.</li>
<li class=""><strong>Разпределението на отлагането зависи от задачата.</strong> ALFWorld отлага повече в по-късните стъпки (по-дълга история на подканите), докато MiniGrid показва бимодален модел, свързан с първоначалната позиция на агента. Това означава, че калибрирането на фиксиран праг се обобщава по-добре в рамките на едно семейство задачи, отколкото между различни семейства.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-издържа-проверката--и-какво-не">Какво издържа проверката — и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B8%D0%B7%D0%B4%D1%8A%D1%80%D0%B6%D0%B0-%D0%BF%D1%80%D0%BE%D0%B2%D0%B5%D1%80%D0%BA%D0%B0%D1%82%D0%B0--%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво издържа проверката — и какво не" title="Директна връзка към Какво издържа проверката — и какво не" translate="no">​</a></h2>
<p>Основната емпирична констатация е достоверна: перплексията върху низа на действието е разумен прокси показател за това дали дадена стъпка е напът да се обърка. Декомпозицията разсъждение/действие в ReAct естествено предоставя чиста точка за прикачване на сигнал за неопределеност, а помощният експеримент за предсказване на коректността дава истинско механистично оправдание за избора на дизайн.</p>
<p>Това, в което съм по-малко убеден: резултатът „надминава големия модел самостоятелно“ в ALFWorld. 80.8% ± 1.1% срещу 78.3% ± 1.9% се припокриват при едно стандартно отклонение. Авторите приписват това на допълващи се силни страни — малкият модел се справя с рутинните стъпки без периодичното поемане на риск от големия модел — но няма аблация стъпка по стъпка, която да потвърди тази теза. Може просто да е статистически шум.</p>
<p>Изборът на бенчмаркове също е ограничаващ. ALFWorld и MiniGrid са текстови симулации на домакинство и навигация в мрежов свят — тесни среди, които не упражняват извикване на инструменти (tool calling), изпълнение на код или извличане на информация от множество документи. Дали отлагането, калибрирано спрямо неопределеността, важи в тези по-богати среди (средите, подходящи за Beancount), остава без отговор. А изборът на GPT-5.2 като голям модел прави цифрите за разходите трудни за възпроизвеждане.</p>
<p>Процедурата по калибриране има неадресирана цикличност: прагът се избира върху същото разпределение, върху което е калибриран, без отделна валидация. Авторите признават изместването на разпределението (distribution shift) между калибрирането (изпълнения на малкия модел) и оценката (хибридни изпълнения), но оставят стабилността на прага за бъдеща работа.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-изкуствен-интелект">Защо това е важно за финансовия изкуствен интелект<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-%D0%B8%D0%B7%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD-%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%B5%D0%BA%D1%82" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия изкуствен интелект" title="Директна връзка към Защо това е важно за финансовия изкуствен интелект" translate="no">​</a></h2>
<p>Агентите за автоматично вписване в Beancount са изправени пред абсолютно същия въпрос за отлагане при всяка трансакция. Рутинната покупка на хранителни стоки се нуждае от категоризация; необичаен многокомпонентен валутен суап с частично съвпадащо описание се нуждае от човек. Настоящата практика е или пълна автоматизация (рискована), или пълен преглед от човек (скъп). Рамката на ReDAct предлага постижима средна позиция: изпълнение на евтиния модел и ескалация, когато перплексията върху кандидат-записа в леджъра надвиши калибриран праг.</p>
<p>Финансовият контекст добавя две съображения, които докладът не разглежда. Първо, отлагането тук често трябва да означава <em>пауза и запитване към потребителя</em>, а не извикване на по-голям LLM — стандартът за коректност на леджъра е намерението на потребителя, а не резултат от бенчмарк. Второ, необратимостта на потвърден запис в Beancount е по-висока от неправилно поставен обект в ALFWorld. Целта за калибриране K вероятно трябва да бъде настроена консервативно към по-ниска прецизност на малкия модел преди отлагане, а не обратното.</p>
<p>Сигналът за 64% намаление на разходите си струва да се вземе на сериозно дори с тези уговорки. Ако агент за Beancount обработва трансакции за един месец и само 15% от решенията за категоризация се нуждаят от скъпия модел, икономиката на управлението на способен агент за автоматично вписване изглежда много по-добре.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class=""><strong>KnowNo</strong> (Ren et al., 2023, CoRL): „Robots that ask for help: uncertainty alignment for large language model planners“ — използва конформно предсказване (conformal prediction) за калибриране на гаранция за <em>покритие</em> кога да се поиска помощ. ReDAct не се сравнява с него; разбирането на компромиса между конформните гаранции и калибрирането на прага е важно преди избора на производствен подход. [arXiv:2307.01928]</li>
<li class=""><strong>A Survey of Confidence Estimation and Calibration in Large Language Models</strong> (Guo et al. updated, NAACL 2024) — систематична таксономия на вербализирана увереност, методи, базирани на извадки (sampling-based), и post-hoc методи за калибриране; теоретичната база за решаване дали перплексията е правилният прокси за неопределеност или дали калибрираното мащабиране на логитите би се представило по-добре. [arXiv:2311.08298]</li>
<li class=""><strong>UALA: Uncertainty-Aware Language Agent</strong> (Han, Buntine, Shareghi) — прилага структурно подобен праг на неопределеност към решението за <em>извикване на инструмент</em> (извикване на инструмент срещу разчитане на знанията на модела), намалявайки извикванията на инструменти с над 50%; директното допълнение към ReDAct за оста на използване на инструменти при неопределеност на агента. [<a href="https://uala-agent.github.io/" target="_blank" rel="noopener noreferrer" class="">https://uala-agent.github.io/</a>]</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Automation" term="Automation"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Decision-making" term="Decision-making"/>
        <category label="Plain-Text Accounting" term="Plain-Text Accounting"/>
        <category label="Trust" term="Trust"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[OpenHands: Отворена платформа за AI софтуерни агенти и какво означава тя за автоматизацията на финансите]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents"/>
        <updated>2026-06-30T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[OpenHands е платформа за агенти с лиценз MIT и изолация в Docker, където CodeAct постига 26% на SWE-Bench Lite — изтрезняващ бенчмарк, който установява какво могат надеждно да правят AI агентите днес и защо първите продуктивни финансови внедрявания трябва да бъдат тясно ограничени, а не автономни.]]></summary>
        <content type="html"><![CDATA[<p>Продължавам да попадам на OpenHands като скелетното ниво под TheAgentCompany, InvestorBench и нарастващ списък от документи за оценка — но все още не съм прочел основния документ. Това е инфраструктурата, върху която тихомълком се изгражда останалата част от полето, така че разбирането на това какво всъщност предоставя тя и къде не успява, е по-важно от всеки отделен резултат от бенчмарк, изграден върху нея.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="документът">Документът<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%D0%B4%D0%BE%D0%BA%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D1%8A%D1%82" class="hash-link" aria-label="Директна връзка към Документът" title="Директна връзка към Документът" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=OpenHands%3A%20%D0%9E%D1%82%D0%B2%D0%BE%D1%80%D0%B5%D0%BD%D0%B0%20%D0%BF%D0%BB%D0%B0%D1%82%D1%84%D0%BE%D1%80%D0%BC%D0%B0%20%D0%B7%D0%B0%20AI%20%D1%81%D0%BE%D1%84%D1%82%D1%83%D0%B5%D1%80%D0%BD%D0%B8%20%D0%B0%D0%B3%D0%B5%D0%BD%D1%82%D0%B8%20%D0%B8%20%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE%20%D0%BE%D0%B7%D0%BD%D0%B0%D1%87%D0%B0%D0%B2%D0%B0%20%D1%82%D1%8F%20%D0%B7%D0%B0%20%D0%B0%D0%B2%D1%82%D0%BE%D0%BC%D0%B0%D1%82%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F%D1%82%D0%B0%20%D0%BD%D0%B0%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%B8%D1%82%D0%B5" alt="2026-06-30-openhands-open-platform-ai-software-developers-generalist-agents" class="img_ev3q"></p>
<p>OpenHands (Wang et al., 2024; ICLR 2025) е платформа с отворен код за изграждане и оценка на LLM агенти, които действат като софтуерни разработчици с общо предназначение. Воден от Xingyao Wang и Graham Neubig в екип от 24 автори, основното твърдение на документа е, че повечето съществуващи рамки за агенти са или твърде тесни за изследователски цели (твърдо кодирани цикли на задачи), или твърде тесни за производство (със затворен код или с една цел), за да служат като споделена основа за изследователската общност. OpenHands се опитва да поправи това, като предоставя стандартизирана среда за изпълнение (runtime), чиста абстракция на агента и 15 интегрирани бенчмарка за оценка под едно MIT-лицензирано хранилище.</p>
<p>Средата за изпълнение е изолирана в Docker среда, съдържаща bash обвивка, Jupyter IPython сървър и Chromium браузър, контролиран от Playwright. Агентите взаимодействат чрез три основни типа действия: <code>IPythonRunCellAction</code> за Python, <code>CmdRunAction</code> за shell команди и <code>BrowserInteractiveAction</code> за уеб навигация. Примитивът за координация на множество агенти, <code>AgentDelegateAction</code>, позволява на главен агент да създава специализирани потагенти. По подразбиране гръбнакът е CodeAct — първоначално публикуван като самостоятелен документ, твърдящ, че кодът е идеалното унифицирано пространство за действие за LLM агенти — и платформата се доставя с няколко имплементации на агенти, включително общ CodeActAgent и специализиран BrowsingAgent.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Кодът като универсално пространство за действие</strong>: CodeAct обединява всички действия на агента (редактиране на файлове, API повиквания, трансформации на данни) в Python или bash, позволявайки на LLM да разсъждава в същата среда, в която е бил обучен най-интензивно. Това заобикаля крехкостта на JSON схемите, която измъчва агентите, използващи повиквания на функции (function-calling).</li>
<li class=""><strong>Изолирана Docker среда (Sandboxed runtime)</strong>: всеки агент се изпълнява в изолиран контейнер, така че агентите могат свободно да изпълняват произволен код, без да компрометират хост машината — предпоставка за всеки производствен финансов агент, на когото могат да бъдат поверени реални идентификационни данни.</li>
<li class=""><strong>15 бенчмарка в една система</strong>: SWE-Bench Lite (поправка на код), HumanEvalFix (отстраняване на грешки), WebArena (уеб навигация), GPQA (разсъждения на ниво завършил висше образование), GAIA (общо решаване на задачи) и още десет. Наличието им на едно място предотвратява избирателното представяне на резултати (cherry-picking).</li>
<li class=""><strong>CodeActAgent + claude-3.5-sonnet постига 26% на SWE-Bench Lite</strong> и 79,3% на HumanEvalFix; BrowsingAgent достига 15,5% на WebArena — конкурентно zero-shot представяне без никакво обучение за конкретни задачи.</li>
<li class=""><strong>Производителност в GAIA</strong>: 32,1% с GPTSwarm, доста под базовата линия за хора от 92% — в съответствие с всеки друг бенчмарк за общи агенти, показващ разлика от 60–70 точки между човек и агент.</li>
<li class=""><strong>Мащаб на общността</strong>: 71,4 хил. звезди в GitHub и над 188 сътрудници към момента на подаване на ICLR; TheAgentCompany прие OpenHands като своя среда за оценка, придавайки му де факто статус на инфраструктура за бенчмарк.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-издържа-проверката--и-какво-не">Какво издържа проверката — и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B8%D0%B7%D0%B4%D1%8A%D1%80%D0%B6%D0%B0-%D0%BF%D1%80%D0%BE%D0%B2%D0%B5%D1%80%D0%BA%D0%B0%D1%82%D0%B0--%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво издържа проверката — и какво не" title="Директна връзка към Какво издържа проверката — и какво не" translate="no">​</a></h2>
<p>Дизайнът на изолираната среда за изпълнение е солидно инженерно решение. Изолирането на изпълнението на агента в Docker е правилният избор по подразбиране за всяка система, на която по-късно може да бъде даден достъп за запис в реални финансови книги, и е наистина полезно, че бенчмарковете са разположени заедно, а не разпръснати в несъвместими хранилища.</p>
<p>Обхватът на бенчмарковете обаче е по-скоро амбициозен, отколкото систематичен. 15-те бенчмарка обхващат коренно различни типове задачи и нива на трудност без ясна рамка за това как резултатите трябва да бъдат обобщени или сравнени. Отчитането на 26% на SWE-Bench Lite заедно със 79,3% на HumanEvalFix в един и същ документ рискува да създаде впечатлението, че един и същ агент е едновременно посредствен и отличен — задачите просто не са съпоставими. Авторите не предоставят принципна методология за обобщаване на множество бенчмаркове.</p>
<p>Предположението на CodeAct — че кодът е правилният универсален формат за действие — е оспорвано. То работи добре за задачи за разработка, но налага слой на медиация чрез Python/bash при всяко действие, което добавя забавяне и се проваля, когато семантиката на действието не се картографира ясно към код (двусмислени инструкции на потребителя, API-та само на естествен език). Документът не прави бенчмарк срещу пространства за действие, които не са базирани на код, за да докаже, че предимството е реално, а не се дължи на самия LLM модел.</p>
<p>Може би най-важната празнина е разделението между оценка и внедряване. Числото от 26% в SWE-Bench идва от сравнително чист, добре дефиниран бенчмарк. Докладите на общността и темите с проблеми в GitHub последователно описват много по-ниска надеждност при двусмислени или дългосрочни задачи от реалния свят — същият режим на отказ, който TheAgentCompany документира. Документът не разглежда как да се измери или подобри устойчивостта при реалистичен шум в дефинирането на задачите.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-ai-във-финансите">Защо това е важно за AI във финансите<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-ai-%D0%B2%D1%8A%D0%B2-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%B8%D1%82%D0%B5" class="hash-link" aria-label="Директна връзка към Защо това е важно за AI във финансите" title="Директна връзка към Защо това е важно за AI във финансите" translate="no">​</a></h2>
<p>OpenHands е най-близкото нещо, което общността има до споделена субстратна основа за агенти. Ако Bean Labs изгражда инфраструктура за оценка на Beancount агенти, архитектурата на средата тук — Docker изолация, Python/bash действия, сменяеми LLM бекенди — си струва да бъде приета, вместо да се изгражда наново. Примитивът <code>AgentDelegateAction</code> се картографира естествено към тръбопровод за финансов агент, където оркестратор от най-високо ниво делегира на специализирани потагенти: един за четене на счетоводната книга, един за отбелязване на аномалии, един за предложен обратен запис, който човек преглежда.</p>
<p>Числата от SWE-Bench и TheAgentCompany, четени заедно, установяват отрезвяваща представа: дори най-добрите налични агенти изпълняват приблизително 26–30% от реалистичните, недвусмислени софтуерни задачи. Автоматизацията на финансовите книги е по-трудна — транзакциите често са двусмислени, радиусът на поражение от грешки е реален, а намеренията на потребителите често не са достатъчно дефинирани. Правилният извод не е, че агентите не са готови, а че първите продуктивни внедрявания ще бъдат тясно ограничени работни процеси за еднократен запис (предложения за категоризация, отбелязване за съгласуване), а не автономни многостепенни редакции на счетоводната книга.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class=""><strong>ReDAct: Uncertainty-Aware Deferral for LLM Agents</strong> (arXiv:2604.07036) — съчетава евтин модел със скъп и прехвърля задачата към скъпия модел само когато неопределеността е висока; директно разглежда как агент в стил OpenHands трябва да реши кога да ескалира обратен запис в Beancount за преглед от човек.</li>
<li class=""><strong>FinTrace: Holistic Trajectory-Level Evaluation of LLM Tool Calling for Long-Horizon Financial Tasks</strong> (arXiv:2604.10015) — 800 експертно анотирани последователности от задачи в 34 финансови сценария; методологията за оценка, която липсва на OpenHands за специфично за финансите дългосрочно използване на инструменти.</li>
<li class=""><strong>FinMCP-Bench: Benchmarking LLM Agents for Real-World Financial Tool Use under the Model Context Protocol</strong> (arXiv:2603.24943) — 613 проби в 65 реални MCP финансови инструмента, пряко свързани с това как би се оценявал Beancount агент, изграден върху средата на OpenHands, в реално MCP внедряване.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="Open Source" term="Open Source"/>
        <category label="Automation" term="Automation"/>
        <category label="LLM" term="LLM"/>
        <category label="Developers" term="Developers"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Plain-Text Accounting" term="Plain-Text Accounting"/>
        <category label="Machine Learning" term="Machine Learning"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Fin-RATE: Как големите езикови модели (LLM) се провалят при междупериодния и междуфирмения финансов анализ]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark"/>
        <updated>2026-06-29T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[Fin-RATE оценява 17 големи езикови модела върху 7 500 експертно подбрани двойки въпроси и отговори от 2 472 отчета към SEC, разкривайки 18,60% срив в точността при лонгитудиално проследяване и 54 пункта спад за тясно специализирания във финансите Fin-R1 при задачи между различни предприятия — като основното тясно място се оказва конвейерът за извличане на информация (retrieval pipeline), а не базовият модел.]]></summary>
        <content type="html"><![CDATA[<p>Траекторията на бенчмарковете за финансови LLM продължава да разширява обхвата си и Fin-RATE е най-ясният пример досега за това какво се случва, когато най-накрая поискаме от моделите да направят това, което правят истинските анализатори: да проследят компания не само в рамките на един отчет, но и през множество периоди и спрямо нейните конкуренти в индустрията.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="документът">Документът<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%D0%B4%D0%BE%D0%BA%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D1%8A%D1%82" class="hash-link" aria-label="Директна връзка към Документът" title="Директна връзка към Документът" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=Fin-RATE%3A%20%D0%9A%D0%B0%D0%BA%20%D0%B3%D0%BE%D0%BB%D0%B5%D0%BC%D0%B8%D1%82%D0%B5%20%D0%B5%D0%B7%D0%B8%D0%BA%D0%BE%D0%B2%D0%B8%20%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8%20%D1%81%D0%B5%20%D0%BF%D1%80%D0%BE%D0%B2%D0%B0%D0%BB%D1%8F%D1%82%20%D0%BF%D1%80%D0%B8%20%D0%BC%D0%B5%D0%B6%D0%B4%D1%83%D0%BF%D0%B5%D1%80%D0%B8%D0%BE%D0%B4%D0%BD%D0%B8%D1%8F%20%D0%B8%20%D0%BC%D0%B5%D0%B6%D0%B4%D1%83%D1%84%D0%B8%D1%80%D0%BC%D0%B5%D0%BD%D0%B8%D1%8F%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%20%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7" alt="2026-06-29-fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark" class="img_ev3q"></p>
<p>Fin-RATE, публикуван през февруари 2026 г. от Идонг Дзян, Джунронг Чен и колеги от Йейл и сътрудничещи институции, представя бенчмарк, изграден от 2 472 отчета към SEC за 43 компании и 36 индустрии, обхващащи периода 2020–2025 г. Бенчмаркът организира 7 500 експертно подбрани двойки въпроси и отговори в три типа задачи, които отразяват работните процеси на професионалните анализатори: DR-QA (детайли и разсъждения в рамките на един отчет), EC-QA (сравнение между предприятия на две компании по обща тема) и LT-QA (лонгитудиално проследяване на една и съща фирма през отчетните периоди). Всеки тип задача съдържа 2 500 въпроса. Оценката обхваща 17 LLM — модели със затворен код, включително GPT-4.1 и GPT-5, общи модели с отворен код като DeepSeek-V3 и Llama-3.3-70B, и специализирани за финанси модели като Fin-R1, Fino1-14B, FinanceConnect-13B и TouchstoneGPT-7B. Оценяването използва единна рамка „LLM-като-съдия“ с трима независими съдии (GPT-5, DeepSeek-V3.2, Qwen3-235B), оценяващи всеки отговор по отношение на коректност и пет аналитични измерения.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class="">Производителността се срива с нарастване на сложността на задачите: точността пада средно с 18,60% от DR-QA за един документ до лонгитудиалната LT-QA и с 14,35% от DR-QA до EC-QA за различни предприятия при всички 17 модела.</li>
<li class="">GPT-5 с търсене в мрежата е най-добрият модел, но неговата пикова точност е едва 43–44% за трите типа задачи — разочароващо за бенчмарк, предназначен да отразява работните процеси на реалните анализатори.</li>
<li class="">Fin-R1, специализираният във финансите модел за разсъждения, достига 57,48% при DR-QA, но се срива до 3,32% при EC-QA — спад от 54 пункта, който далеч надхвърля влошаването при всеки общ модел.</li>
<li class="">При RAG настройки, производителността на всички модели пада далеч под 27%, в сравнение с производителността при идеален контекст (gold-context) до 57,48%; конвейерът за извличане (retrieval pipeline), а не LLM, е основното ограничение.</li>
<li class="">Документът въвежда таксономия от 13 типа грешки в четири категории: халюцинации и противоречия, специфични за финансите числови и семантични грешки, грешки в разбирането на заявката/контекста и повреди на ниво извличане. Липсващите доказателства (Missing Evidence) представляват 75,44% от грешките в задачата EC-QA при RAG.</li>
<li class="">Специализираните във финансите модели показват системно по-високи нива на халюцинации от общите модели при сложни задачи, въпреки по-доброто познаване на финансовата терминология.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="кое-издържа-проверката--и-кое-не">Кое издържа проверката — и кое не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%D0%BA%D0%BE%D0%B5-%D0%B8%D0%B7%D0%B4%D1%8A%D1%80%D0%B6%D0%B0-%D0%BF%D1%80%D0%BE%D0%B2%D0%B5%D1%80%D0%BA%D0%B0%D1%82%D0%B0--%D0%B8-%D0%BA%D0%BE%D0%B5-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Кое издържа проверката — и кое не" title="Директна връзка към Кое издържа проверката — и кое не" translate="no">​</a></h2>
<p>Структурата с три пътеки е наистина добре проектирана. Повечето финансови бенчмаркове (FinQA, TAT-QA, FinanceBench) разглеждат въпросите и отговорите като задача за един документ. Fin-RATE е един от първите, които изрично моделират сравнението между предприятия и лонгитудиалното проследяване като първокласни задачи, а резултатите разкриват фундаментална празнина: настоящите LLM се справят приемливо с изолирани отчети, но се разпадат в момента, в който трябва да синтезират информация от различни документи, предприятия или периоди от време.</p>
<p>Сривът на Fin-R1 е най-забележителното откритие в документа и мисля, че е подценено. Финно настроен модел за финанси, който превъзхожда при извличането от единични документи, очевидно се е вкарал в капан: той е научил шаблони за отговаряне в рамките на един документ, а не стратегии за разсъждение за свързване на предприятия и периоди от време. Това е конкретно предупреждение срещу тясното специализиране на домейна без изричен надзор на разсъжденията върху множество документи. Моделът вероятно се пренастройва към плиткия модел на „намери числото в отчета“ и няма път за обобщаване към „сравни това число със съответното число в друг отчет от друга компания“.</p>
<p>Въпреки това има методологични опасения, които си струва да бъдат отбелязани. GPT-5 е едновременно един от оценяваните модели и един от тримата съдии, оценяващи отговорите. Авторите използват трима съдии, за да намалят индивидуалното пристрастие, което помага, но припокриването между съдия и модел с най-силния оценяван модел е смущаващо. Документът отчита високо съгласие между съдиите, но не количественo определя отделно каква част от отговорите на GPT-5 са били оценени от самия GPT-5, нито дали самооценките на GPT-5 се различават системно от тези на другите двама съдии. Всяко пристрастие при самооценката би надуло водещия резултат за най-добре представящия се модел в изследването.</p>
<p>Извадката от 43 компании също е малка. Обхватът на видовете отчети е похвално широк (10-K, 10-Q, 8-K, 6-K, DEF 14A и няколко серии S и SC), но едни и същи 43 компании се появяват във всички задачи. Моделите, които са виждали отчетите на тези компании по време на предварителното обучение, имат неквантифицирано предимство и документът не включва никакъв анализ на замърсяването на данните (contamination analysis).</p>
<p>Откритието за извличането на данни е важно, но непълно. Документът идентифицира, че RAG производителността се срива с приблизително 30 пункта в сравнение с идеалния контекст, защото извличането се проваля. Но той сравнява само една конфигурация за извличане — той третира провала на извличането като диагноза, а не като нещо, което да се променя систематично. Последващ документ, който изследва различни архитектури за извличане върху Fin-RATE, би бил много по-приложим на практика.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-ии">Защо това е важно за финансовия ИИ<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-%D0%B8%D0%B8" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия ИИ" title="Директна връзка към Защо това е ва�жно за финансовия ИИ" translate="no">​</a></h2>
<p>Одитът на главната книга в Beancount се нуждае точно от двете възможности, които Fin-RATE разкрива като проблемни: лонгитудиално проследяване (как се е развила тази сметка през фискалните години?) и сравнение между обекти (дали балансът на това дъщерно дружество съвпада с консолидирания отчет?). Спадът в точността от 18,60% при времевото проследяване е конкретна цифра, която трябва да калибрира очакванията за всеки Beancount агент, разсъждаващ върху множество отчетни периоди. Ако водещите модели се провалят при 43% точност при лонгитудиални SEC въпроси с идеален контекст, един Beancount агент, навигиращ през многогодишни истории на главната книга, трябва да бъде проектиран с изрично извличане, времево обосноваване и човешка ескалация — а не с директен LLM извод от край до край.</p>
<p>Констатацията за доминиращата роля на извличането е най-важна за приоритетите при проектирането на системата. Ако производителността при идеален контекст е почти двойно по-висока от тази при RAG, правилната инвестиция е в по-добро разделяне на сегменти (chunking), избор на пасажи и извличане — а не в по-мощен базов LLM. Това отразява откритото от DocFinQA за SEC отчети с дълъг контекст: конвейерът около модела е тясното място.</p>
<p>Предупреждението за Fin-R1 се отнася директно и за случая на употреба с Beancount. Фината настройка върху DSL синтаксиса на Beancount и моделите на транзакциите може да произведе модел, който се справя добре с генерирането на прости записи, но се пречупва при съпоставянето на множество сметки и периоди, което прави одита полезен. Специализацията без обучение за разсъждение върху множество документи е крехка по начините, които Fin-RATE измерва.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class="">Fin-R1 (arXiv:2503.16252) — за да разберете каква настройка на обучение е произвела толкова крехка производителност между документи и дали разсъжденията върху множество документи изобщо са били в обхвата.</li>
<li class="">FinTrace (arXiv:2604.10015) — оценка на ниво траектория на извикването на инструменти от LLM в 34 категории финансови задачи; допълва статичния изглед на Fin-RATE с диагностика на ниво процес на местата, където моделите извикват правилните инструменти, но не успяват да разсъждават върху резултатите.</li>
<li class="">OpenHands (arXiv:2407.16741) — отворената платформа за агенти, залегнала в основата на оценките на TheAgentCompany; разбирането на нейната архитектура изяснява кои базови възможности на агента са били налични и кои пропуски се дължат на трудността на задачата, а не на ограниченията на платформата.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Analytics" term="Analytics"/>
        <category label="Financial Reporting" term="Financial Reporting"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Reconciliation" term="Reconciliation"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[FinDER: Реални запитвания от анализатори разкриват 74% пропуск в пълнотата при финансовия RAG]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation"/>
        <updated>2026-06-28T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[FinDER оценява RAG върху 5 703 реални запитвания от анализатори на хедж фондове спрямо 10-K отчети на S&P 500; E5-Mistral постига само 25,95% пълнота на контекста, а наситените със съкращения запитвания струват 8,2 пункта прецизност — доказателство, че нормализирането на запитванията, а не по-добрите вграждания, е първото решение за финансовите AI конвейери.]]></summary>
        <content type="html"><![CDATA[<p>FinDER (arXiv:2504.15800) е бенчмарк за извличане (retrieval), изграден около едно просто, но подценявано наблюдение: запитванията, които реалните финансови професионалисти въвеждат, не приличат на изгладените въпроси в академичните бенчмаркове. Чета го, защото се намира в пресечната точка на две нишки, които следя — пропуските в извличането при финансовия AI и проблема с практическата реалистичност, който DocFinQA и FinanceBench започнаха да разкриват.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="документът">Документът<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%D0%B4%D0%BE%D0%BA%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D1%8A%D1%82" class="hash-link" aria-label="Директна връзка към Документът" title="Директна връзка към Документът" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinDER%3A%20%D0%A0%D0%B5%D0%B0%D0%BB%D0%BD%D0%B8%20%D0%B7%D0%B0%D0%BF%D0%B8%D1%82%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F%20%D0%BE%D1%82%20%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7%D0%B0%D1%82%D0%BE%D1%80%D0%B8%20%D1%80%D0%B0%D0%B7%D0%BA%D1%80%D0%B8%D0%B2%D0%B0%D1%82%2074%25%20%D0%BF%D1%80%D0%BE%D0%BF%D1%83%D1%81%D0%BA%20%D0%B2%20%D0%BF%D1%8A%D0%BB%D0%BD%D0%BE%D1%82%D0%B0%D1%82%D0%B0%20%D0%BF%D1%80%D0%B8%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F%20RAG" alt="2026-06-28-finder-financial-dataset-rag-evaluation" class="img_ev3q"></p>
<p>Chanyeol Choi, Jihoon Kwon и техните колеги от фирма за финансов AI представят набор от данни от 5 703 анотирани от експерти триплети "запитване–доказателство–отговор", извлечени от реална услуга за въпроси и отговори за анализатори на хедж фондове. Документите са отчети по формуляр 10-K от 490 компании от S&amp;P 500, събрани от SEC EDGAR. Това, което отличава FinDER от предишните бенчмаркове, е страната на запитванията: 89,86% от тях съдържат три или повече специфични за домейна съкращения или акроними. Вместо „Какъв е общият доход на компания X за фискалната 2023 година?“, реалният анализатор може да напише „GOOGL 10-K FY23 revs breakdown by segment“. Наборът от данни беше публикуван на ICLR 2025 Workshop on Advances in Financial AI и по-късно се появи на ICAIF 2025.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Пълнотата на извличането е шокиращо ниска навсякъде</strong>: E5-Mistral (най-добрият модел за плътно извличане) постига само 25,95% обща пълнота на контекста; BM25 постига 11,68%. Категорията „Финанси“ — най-пряко свързана със счетоводството — е най-трудна: съответно 15,84% и 6,42%.</li>
<li class=""><strong>Двусмислието на запитването само по себе си струва 8,2 пункта прецизност</strong>: Тествайки E5-Mistral върху 500 запитвания, авторите сравняват добре оформени парафрази (33,9 прецизност) срещу реалните съкратени запитвания (25,7 прецизност). Пропускът се дължи изцяло на обработката на съкращения/акроними, а не на сложността на документа.</li>
<li class=""><strong>Качеството на извличане е основното тясно място за генерирането</strong>: LLM без контекст постигат резултат близо до нулата (9–10% верни отговори); с топ 10 извлечени пасажа те достигат 29–34%; с идеален оракулски контекст те скачат до 60–68%. Тази разлика от 35 пункта между реалистични и оракулски условия е по-голяма от разликата между моделите с отворен код и водещите модели (frontier models).</li>
<li class=""><strong>Композиционната аритметика се проваля дори при добро извличане</strong>: Задачите за многостъпкови изчисления (композиционни запитвания) достигат само ~20% точност и при четирите модела — Claude-3.7-Sonnet, GPT-o1, DeepSeek-R1-Distill и Qwen-QWQ — дори с топ 10 извлечени пасажа. GPT-o1 води в задачите за умножение с 42,90%, но пада до 27,78% при деление.</li>
<li class=""><strong>Прекласирането (reranking) от LLM добавя скромно, но постоянно подобрение</strong>: Позволявайки на моделите да прекласират топ 10 попаденията на E5-Mistral преди отговор, Claude-3.7-Sonnet постига F1 от 63,05, а GPT-o1 достига 62,90. Deepseek-R1-Distill изостава с 60,01, въпреки силното представяне в структурираното разсъждение другаде.</li>
<li class=""><strong>Трудността по категории е неравномерна</strong>: Запитванията за риск са най-лесни за извличане (E5-Mistral: 33,07 пълнота); Финансите остават най-трудни (15,84). Това корелира със структурата на запитването — оповестяването на рискове използва естествен език, докато финансовите таблици използват гъста цифрова нотация.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-издържа-проверката-на-времето--и-какво-не">Какво издържа проверката на времето — и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B8%D0%B7%D0%B4%D1%8A%D1%80%D0%B6%D0%B0-%D0%BF%D1%80%D0%BE%D0%B2%D0%B5%D1%80%D0%BA%D0%B0%D1%82%D0%B0-%D0%BD%D0%B0-%D0%B2%D1%80%D0%B5%D0%BC%D0%B5%D1%82%D0%BE--%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво издържа проверката на времето — и какво не" title="Директна връзка към Какво издържа проверката на времето — и какво не" translate="no">​</a></h2>
<p>Основният принос е солиден: това е реално разпределение на запитвания от работещи анализатори и проблемът със съкращенията е автентичен. Всеки бенчмарк, изграден от Wikipedia или краудсорсинг в стил FinQA, пропуска това. Тристепенната структура на оценяване — без контекст, реалистично извличане, оракулски контекст — е правилният дизайн; тя ясно отделя качеството на извличане от качеството на разсъждение и показва остатъчния пропуск в генерирането (все още ~32–34% неуспех дори при перфектен контекст за качествени въпроси).</p>
<p>Най-слабата страна на документа е възпроизводимостта. Към момента на публикуване наборът от данни не беше публично достъпен — авторите заявяват, че „планират да го пуснат публично по-късно“. Това е сериозен проблем за документ от уъркшоп, представящ се за стандарт за оценка. Бенчмаркове, които не са публикувани, не са бенчмаркове; те са казуси. Оттогава той се появи на ICAIF 2025, така че пускането може да е последвало, но версията в arXiv не потвърждава това.</p>
<p>Оценката на извличането също използва само четири едноетапни модела (BM25, GTE, mE5, E5-Mistral). Липсва хибридно извличане, разширяване на запитванията, HyDE или стъпка за пренаписване, насочена конкретно към проблема със съкращенията. Като се има предвид, че авторите са дефинирали точно пропуска при съкращенията, изненадващо е, че не тестват очевидното решение: разширяване на запитването („GOOGL“ → „Alphabet Inc.“) преди извличане. Този експеримент отсъства.</p>
<p>Резултатите от генерирането заслужават по-внимателен прочит. Производителността от ~9–10% без контекст не е полезна долна граница — тя е практически нулева — но таванът от 60–68% при оракулски контекст е по-информативен, отколкото изглежда. Дори с правилния пасаж в ръка, най-добрите модели се провалят в около една трета от качествените въпроси и четири пети от композиционната аритметика. Този таван е важен: той означава, че само извличането не може да реши проблема.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-ai">Защо това е важно за финансовия AI<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-ai" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия AI" title="Директна връзка към Защо това е важно за финансовия AI" translate="no">​</a></h2>
<p>Разпределението на запитванията във FinDER съответства добре на това как потребителите на Beancount всъщност взаимодействат с агент на счетоводната книга. Потребител, който поддържа сметките си от години, ще въвежда съкратени, контекстуални запитвания — „AMZN card Q3 reimb?“ вместо „Какви са възстановяванията по кредитната карта Amazon през третото тримесечие?“. Стандартните модели за вграждане ще се провалят при извличането на правилните записи, защото са обучени на чист текст на естествен език. Спадът на прецизността от 8,2 пункта от чисти към реални запитвания вероятно е консервативна оценка за домейна на личните счетоводни книги, където специфичните съкращения („prop mgmt fee“ за „property management fee“) са още по-далеч от данните за обучение, отколкото стандартните за SEC съкращения.</p>
<p>Таванът от 25,95% пълнота на контекста при E5-Mistral е принудителен фактор: всеки Beancount RAG конвейер трябва да предвиди голяма част от пропуснатите доказателства. Един от изводите е, че повторното извличане с висока пълнота (множество преминавания, диверсифицирани формулировки на запитванията) е по-важно от повишаването на F1 при еднократно преминаване. Друг извод е, че нормализирането на запитванията — картографиране на потребителските съкращения към канонични имена на сметки преди извличане — трябва да бъде изрична стъпка на предварителна обработка, а не да се оставя на модела за вграждане.</p>
<p>Точността от 20% при композиционната аритметика дори с оракулски контекст е отделен сигнал: за задачите за изчисление в Beancount, тясното място в генерирането е разсъждението, а не извличането. Делегирането в стил PAL (генериране на Python аритметика вместо изчисление в свободен текст) остава правилният отговор за числови задачи, независимо колко добро става извличането.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class=""><strong>Fin-RATE</strong> (arXiv:2602.07294) — придружаващият бенчмарк за проследяване на множество периоди в отчети на SEC; точността пада с 18,60% при задачи за времеви периоди, което е директно формулиран проблемът с многогодишната счетоводна книга на Beancount.</li>
<li class=""><strong>IRCoT</strong> (arXiv:2212.10509, ACL 2023) — преплитане на извличането с верига от разсъждения (chain-of-thought); многостепенната структура на извличане директно адресира ниската пълнота при еднократно извличане, която FinDER разкрива.</li>
<li class=""><strong>Разширяване на запитванията с LLMs за специфично за домейна извличане</strong> — все още няма единен бенчмарк документ, който да покрива това добре, но пропускът при съкращенията във FinDER го прави първостепенен изследователски приоритет; търсенето на „HyDE financial domain“ и „query expansion SEC filings 2025“ е правилната отправна точка.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Finance" term="Finance"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Financial Reporting" term="Financial Reporting"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Изгубени по средата: Позиционно отклонение в големите езикови модели (LLM) и неговото въздействие върху финансовия ИИ]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts"/>
        <updated>2026-06-27T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[Статията в TACL 2024 от Liu и съавтори показва, че LLM се справят с до 20 пункта по-лошо с информация, заровена в средата на дълги контексти — U-образна деградация, засягаща всеки тестван модел, включително Claude-1.3-100K — с конкретни последици за начина, по който RAG конвейерите трябва да подреждат извлечените пасажи във финансови и счетоводни приложения.]]></summary>
        <content type="html"><![CDATA[<p>Когато погледна назад към записа за DocFinQA — където конвейерите, базирани на извличане, и LLM с дълъг контекст се сринаха при документи на SEC с контекст от 123 хил. токена — въпросът, който оставих висящ, беше <em>защо</em>. Тази статия от Liu и съавтори (TACL 2024, arXiv:2307.03172) е механистичният отговор и се оказва, че режимът на отказ е по-прост и по-упорит, отколкото бих очаквал.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="статията">Статията<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%D1%81%D1%82%D0%B0%D1%82%D0%B8%D1%8F%D1%82%D0%B0" class="hash-link" aria-label="Директна връзка към Статията" title="Директна връзка към Статията" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D0%98%D0%B7%D0%B3%D1%83%D0%B1%D0%B5%D0%BD%D0%B8%20%D0%BF%D0%BE%20%D1%81%D1%80%D0%B5%D0%B4%D0%B0%D1%82%D0%B0%3A%20%D0%9F%D0%BE%D0%B7%D0%B8%D1%86%D0%B8%D0%BE%D0%BD%D0%BD%D0%BE%20%D0%BE%D1%82%D0%BA%D0%BB%D0%BE%D0%BD%D0%B5%D0%BD%D0%B8%D0%B5%20%D0%B2%20LLM%20%D0%B8%20%D0%BD%D0%B5%D0%B3%D0%BE%D0%B2%D0%BE%D1%82%D0%BE%20%D0%B2%D1%8A%D0%B7%D0%B4%D0%B5%D0%B9%D1%81%D1%82%D0%B2%D0%B8%D0%B5%20%D0%B2%D1%8A%D1%80%D1%85%D1%83%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F%20%D0%98%D0%98" alt="2026-06-27-lost-in-the-middle-language-models-long-contexts" class="img_ev3q"></p>
<p>„Lost in the Middle: How Language Models Use Long Contexts“ от Nelson F. Liu, Kevin Lin, John Hewitt, Ashwin Paranjape, Michele Bevilacqua, Fabio Petroni и Percy Liang провежда два целеви експеримента: отговаряне на въпроси върху множество документи чрез NaturalQuestions-Open (с 10, 20 и 30 извлечени документа) и синтетично извличане на двойки ключ-стойност (със 75, 140 и 300 двойки). Във всеки експеримент те систематично променят позицията на съответния документ или двойка ключ-стойност в рамките на входния контекст — в началото, в средата или в края — докато всичко останало е фиксирано. Констатацията е ясна: производителността описва U-образна крива с дъно в средата на контекста, като тази крива се появява при всеки тестван модел.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>U-образната крива е реална и последователна.</strong> В настройките за отговаряне на въпроси с 20 документа, производителността на първа позиция беше приблизително 75% и се влоши до около 55% на 10-та позиция, преди да се възстанови до около 72% на 20-та позиция — разлика от ~20 пункта между краищата и центъра.</li>
<li class=""><strong>Всички модели следват един и същ модел.</strong> Тестваните модели обхващат затворени и отворени, малки и големи: GPT-3.5-Turbo (4K и 16K), GPT-4, Claude-1.3 (8K и 100K), MPT-30B-Instruct и LongChat-13B. U-кривата се появи при всеки от тях, включително при модели, изрично рекламирани с разширени контекстни прозорци.</li>
<li class=""><strong>Дори Claude-1.3-100K не е имунизиран.</strong> Вариантът със 100K контекст се държеше като останалите. Дългият контекстен прозорец не означава, че моделът действително отделя равномерно внимание по цялата му дължина.</li>
<li class=""><strong>Базовата линия „затворена книга“ (closed-book) поставя отрезвяваща граница.</strong> GPT-3.5-Turbo без никакви документи отговори правилно на 56,1% от NaturalQuestions; с директен достъп само до единствения подходящ документ той достигна 88,3%. Но при най-лошите средни позиции в настройката с 20 документа, производителността падна под базовата линия „затворена книга“ — което означава, че добавянето на повече контекст е било активно вредно.</li>
<li class=""><strong>Моделите енкодер-декодер (Flan-T5-XXL, Flan-UL2) са по-стабилни в рамките на дължината си на обучение, но се влошават, когато контекстът я надвиши.</strong> Архитектурната разлика има значение, но и двата типа все още деградират при мащабиране.</li>
<li class=""><strong>Основната причина е каузалното маскиране на вниманието (causal attention masking).</strong> Всеки токен може да обръща внимание само на предхождащите го токени, така че позициите в самото начало акумулират по-голямо общо тегло на вниманието в целия модел, отколкото позициите в средата. Ефектите на скорошността (recency effects) също изтеглят производителността в края на контекста нагоре.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="кое-е-основателно-и-кое--не">Кое е основателно и кое — не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%D0%BA%D0%BE%D0%B5-%D0%B5-%D0%BE%D1%81%D0%BD%D0%BE%D0%B2%D0%B0%D1%82%D0%B5%D0%BB%D0%BD%D0%BE-%D0%B8-%D0%BA%D0%BE%D0%B5--%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Кое е основателно и кое �— не" title="Директна връзка към Кое е основателно и кое — не" translate="no">​</a></h2>
<p>Експерименталният дизайн тук е възхитително чист: позицията е единствената променлива, която се манипулира, задачите са стандартни бенчмаркове и откритието се възпроизвежда в широк диапазон от семейства модели. Нямам възражения срещу основния резултат.</p>
<p>Това, което намира за по-малко убедително, е рамкирането на задачата за извличане на ключ-стойност като смислено прокси за реална употреба. Търсенето на UUID към UUID тества дали моделът може да папагалства запаметена низа, а не дали може да прави нещо, изискващо разсъждения. U-кривата се появява и там, което засилва твърдението за позиционно отклонение, но също така означава, че статията обединява две различни явления: точност на извличане при задачи с точно съвпадение и качество на разсъжденията върху съответните пасажи. Бих искал да знам дали U-образната форма се влошава или подобрява, когато съответният документ изисква многоетапно логическо извеждане преди крайния отговор, а не просто дословно възпроизвеждане.</p>
<p>Съществува и празнина, която авторите до голяма степен признават, но не запълват: те никога не тестват дали фината настройка на инструкциите (instruction fine-tuning) или RLHF променя чувствителността към позицията, а само дали по-големият контекстен прозорец го прави. Като се има предвид, че основната причина е архитектурна (каузално маскиране), подозирам, че настройката на инструкциите няма да го поправи, но статията не потвърждава това.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-ии">Защо това е важно за финансовия ИИ<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-%D0%B8%D0%B8" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия ИИ" title="Директна връзка към Защо това е важно за финансовия ИИ" translate="no">​</a></h2>
<p>Тази статия предоставя механистично обяснение за емпиричен модел, на който постоянно се натъквам. DocFinQA се срина при дълги документи на SEC. IRCoT и FLARE извличат множество пасажи и ги обединяват преди разсъжденията. Всеки RAG конвейер, който съм разглеждал във финансов контекст, изсипва извлечените пасажи последователно в подканата и се надява моделът да обърне внимание на правилния.</p>
<p>Последиците за Beancount агентите са конкретни. Ако един агент извлече десет записа от главната книга като контекст, записите на позиции 3–7 са под най-голям риск да бъдат игнорирани или около тях да се появят халюцинации. Това не е проблем на извличането — това е проблем на представянето. От тази статия следват два възможни подхода: или поставете най-важните диагностични записи първи (и последни), или изобщо не ги обединявайте и разсъждавайте върху всеки пасаж поотделно.</p>
<p>Констатацията също така усложнява наратива за LLM с дълъг контекст. Всяко тримесечие нов модел обявява по-голям контекстен прозорец. Тази статия казва, че дългият прозорец не означава това, което мислите, ако разпределяте доказателствата равномерно в него. Модел със 128K контекст, който заравя съответната трансакция на позиция 60K, е по-лош от модел с 4K контекст, който извлича точно правилния пасаж.</p>
<p>За безопасността при записване (write-back) последиците са неудобни: ако от модела се поиска да обобщи сесия в главната книга и съответното правило на политиката „не публикувай тази трансакция“ се появи в средата на дълга системна подкана, моделът може да действа така, сякаш никога не е чел това правило.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class=""><strong>"Found in the Middle: How Language Models Use Long Contexts Better via Plug-and-Play Positional Encoding"</strong> (Zhang et al., arXiv:2403.04797) — предлага Multi-scale Positional Encoding (Ms-PoE) като решение без необходимост от обучение чрез RoPE мащабиране; твърди за подобрение до 3,8 пункта в Zero-SCROLLS, адресирайки директно U-кривата.</li>
<li class=""><strong>"Never Lost in the Middle: Mastering Long-Context Question Answering with Position-Agnostic Decompositional Training"</strong> (arXiv:2311.09198) — приема противоположния подход и обучава модела да бъде изрично агностичен към позицията; сравнението с Ms-PoE изяснява дали фината настройка или триковете по време на извеждане са по-добрият лост.</li>
<li class=""><strong>"Mitigate Position Bias in Large Language Models via Scaling a Single Dimension"</strong> (arXiv:2406.02536) — идентифицира специфичното измерение на скритите състояния на позицията, отговорно за отклонението, и го мащабира без преобучение; най-хирургичната корекция, предложена досега, подходяща за внедряване на съществуващи модели без преобучение.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Finance" term="Finance"/>
        <category label="Technology" term="Technology"/>
        <category label="Analytics" term="Analytics"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[AD-LLM бенчмарк: GPT-4o постига 0.93+ AUROC при zero-shot откриване на аномалии в текст]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection"/>
        <updated>2026-06-26T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[AD-LLM сравнява GPT-4o и Llama 3.1 8B в три роли за откриване на аномалии – zero-shot детектор, генератор на данни и съветник за избор на модел – върху пет NLP набора от данни; GPT-4o достига AUROC 0.93–0.99 при zero-shot, но изборът на модел, базиран на LLM, остава ненадежден, с преки последици за ИИ във финансовия одит.]]></summary>
        <content type="html"><![CDATA[<p>Последните две статии в тази поредица разгледаха AnoLLM и CausalTAD – подходи за откриване на аномалии в таблични данни чрез фина настройка (fine-tuning) и проектиране на инструкции (prompt engineering). Преди да внедрите някой от тях в мащабна продукционна среда, трябва да знаете къде всъщност се намира ИИ (LLM) сред по-широк спектър от парадигми за откриване на аномалии. Това е изричната цел на AD-LLM, който сравнява големи езикови модели (LLM) в три различни роли: zero-shot детектор, двигател за допълване на данни и съветник за избор на модел. Фокусът е върху NLP текстови данни, а не върху таблични записи в главната книга, но методологичните уроци са приложими.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="статията">Статията<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%D1%81%D1%82%D0%B0%D1%82%D0%B8%D1%8F%D1%82%D0%B0" class="hash-link" aria-label="Директна връзка към Статията" title="Директна връзка към Статията" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=AD-LLM%20%D0%B1%D0%B5%D0%BD%D1%87%D0%BC%D0%B0%D1%80%D0%BA%3A%20GPT-4o%20%D0%BF%D0%BE%D1%81%D1%82%D0%B8%D0%B3%D0%B0%200.93%2B%20AUROC%20%D0%BF%D1%80%D0%B8%20zero-shot%20%D0%BE%D1%82%D0%BA%D1%80%D0%B8%D0%B2%D0%B0%D0%BD%D0%B5%20%D0%BD%D0%B0%20%D0%B0%D0%BD%D0%BE%D0%BC%D0%B0%D0%BB%D0%B8%D0%B8%20%D0%B2%20%D1%82%D0%B5%D0%BA%D1%81%D1%82" alt="2026-06-26-ad-llm-benchmarking-llms-anomaly-detection" class="img_ev3q"></p>
<p>Tiankai Yang, Yi Nian и колеги от USC и Texas A&amp;M представят AD-LLM (arXiv:2412.11142, ACL Findings 2025) – първият бенчмарк за систематична оценка на LLM в три парадигми за откриване на аномалии върху NLP набори от данни. Настройката е класификация с един клас: данните за обучение съдържат само нормални примери, а моделът трябва да идентифицира аномалиите по време на тестването. Петте набора от данни – AG News, BBC News, IMDB Reviews, N24 News и SMS Spam – произлизат от задачи за текстова класификация, при които една категория е обозначена като аномална. Статията сравнява два LLM, GPT-4o и Llama 3.1 8B Instruct, срещу 18 традиционни базови модела за обучение без надзор, които обхващат методи от край до край (CVDD, DATE) и комбинации от две стъпки „ембединг плюс детектор“ (OpenAI embeddings + LUNAR, LOF, Isolation Forest и др.).</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class=""><strong>Zero-shot откриването работи добре за текст.</strong> GPT-4o постига AUROC от 0.9293–0.9919 в петте набора от данни в настройката Normal+Anomaly; Llama 3.1 достига 0.8612–0.9487. Най-добрият традиционен базов модел, OpenAI + LUNAR, постига около 0.92 на AG News – GPT-4o го изравнява или побеждава без никакво обучение.</li>
<li class=""><strong>Синтетичното допълване помага последователно, но скромно.</strong> Синтетичните примери, генерирани от LLM, подобряват тръбопровода OpenAI + LUNAR във всичките пет набора от данни. Допълването на описанията на категориите също подобрява повечето базови линии, въпреки че печалбите са неравномерни – Llama 3.1 подобрява AUROC с +0.07 при IMDB Reviews, но резултатите на други места са по-малки.</li>
<li class=""><strong>Изборът на модел е слабото звено.</strong> GPT-o1-preview препоръчва модели, които надминават средното представяне на базовите линии в повечето набори от данни и понякога се доближават до най-добрия метод (напр. при IMDB Reviews и SMS Spam). Но той никога не идентифицира надеждно най-добрия модел, а авторите признават, че препоръките се основават на опростени входни данни, на които липсва специфична статистика за набора от данни.</li>
<li class=""><strong>Разликата между софтуера с отворен код и проприетарните модели е реална.</strong> Предимството на GPT-4o в AUROC пред Llama 3.1 8B е 4–13 пункта в зависимост от набора от данни – разлика, съответстваща на модела, наблюдаван в статиите за zero-shot откриване на аномалии в таблични данни.</li>
<li class=""><strong>Откриването на аномалии в NLP все още няма окончателен бенчмарк.</strong> Пет набора от данни, всички извлечени от корпуси за класификация, са малко. Придружаващата статия NLP-ADBench (EMNLP Findings 2025) разширява обхвата до осем набора от данни и 19 алгоритъма, но все пак използва същата конструкция „семантична категория като аномалия“, която прави тези задачи донякъде изкуствени.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-се-потвърждава--и-какво-не">Какво се потвърждава – и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D1%81%D0%B5-%D0%BF%D0%BE%D1%82%D0%B2%D1%8A%D1%80%D0%B6%D0%B4%D0%B0%D0%B2%D0%B0--%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво се потвърждава – и какво не" title="Директна връзка към Какво се потвърждава – и какво не" translate="no">​</a></h2>
<p>Констатациите за zero-shot са достоверни. Използването на LLM като системи за оценяване без фина настройка върху етикетирани данни за аномалии е наистина полезно, когато класът на аномалията е семантично кохерентен – спам съобщението се различава от легитимното по начини, които добре обученият езиков модел разбира. Резултатите за AUROC са високи и сравнението със силни базови линии, базирани на OpenAI ембединги, е коректно.</p>
<p>Обхватът обаче е тесен по начини, които статията не подчертава достатъчно. И в петте набора от данни аномалиите са кодирани като различна <em>тематична категория</em> – спам срещу легитимен SMS, новини от неразкрит издател срещу новини от разпределението. Това означава, че LLM по същество извършва тематична класификация – задача, за която той е изрично предварително обучен. Бенчмаркът не включва семантични аномалии в рамките на една категория (напр. необичайни транзакции в рамките на един и същ тип сметка), което е точно видът аномалия, който е важен за финансовия одит.</p>
<p>Задачите за допълване на данни и избор на модел се оценяват върху същите пет набора от данни, така че статията в крайна сметка тества дали LLM могат да направят малко по-добри различните аспекти на един и същ тесен проблем. Авторите честно изброяват шест ограничения – включително факта, че тестват само подмножество от LLM, изключват few-shot и режимите на фина настройка и разчитат на опростени входни данни за избор на модел – което е интелектуално честно, но също така показва колко предварителен е този бенчмарк.</p>
<p>Един резултат, който си струва да бъде отбелязан за скептиците: AUPRC резултатите са значително по-ниски от AUROC за двата модела. Llama 3.1 в BBC News достига AUROC 0.8612, но само AUPRC 0.3960, което отразява дисбаланса на класовете в конфигурацията с един клас. В контексти на одит с висока точност AUPRC е по-смислената метрика и тук картината е по-малко ласкава.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-ии-във-финансите">Защо това е важно за ИИ във финансите<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D0%B8%D0%B8-%D0%B2%D1%8A%D0%B2-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%B8%D1%82%D0%B5" class="hash-link" aria-label="Директна връзка към Защо това е важно за ИИ във финансите" title="Директна връзка към Защо това е важно за ИИ във финансите" translate="no">​</a></h2>
<p>Програмата на Bean Labs включва два случая на използване за откриване на аномалии: улавяне на необичайни записи в главната книга в реално време (таблични, структурирани) и сигнализиране за подозрителен текст във фактури, бележки или заявки за поддръжка (неструктуриран NLP). AD-LLM говори директно за втория случай и ни дава реалистичен таван: GPT-4o може да открива аномалии на ниво тема в текст чрез zero-shot с AUROC над 0.93 върху чисти, балансирани набори от данни. Това е полезна отправна точка, но аномалиите в описанията на главната книга са по-фини – бележка към фактура, която описва рутинна услуга, но принадлежи на доставчик, отбелязан с подозрителни модели, не е проблем на тематичната класификация. Бенчмаркът предоставя начална точка, а не окончателен отговор.</p>
<p>Констатацията за избора на модел е отделно интересна за дизайна на системи. Мечтата да попитате LLM „кой детектор на аномалии трябва да използвам за този набор от данни?“ и да получите надежден отговор все още не се сбъдва. Това означава, че изборът между фина настройка в стил AnoLLM, причинно-следствени инструкции (causal prompting) в стил CausalTAD или класически метод с ембединги все още изисква човешка преценка или систематична емпирична оценка – той не може да бъде делегиран на LLM съветник.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class=""><strong>NLP-ADBench</strong> (arXiv:2412.04784, EMNLP Findings 2025) – придружаващият бенчмарк от същата група, обхващащ осем набора от данни и 19 алгоритъма; осигурява по-широкия класически контекст, който обхватът от пет набора от данни на AD-LLM не може да предложи.</li>
<li class=""><strong>Large Language Models for Anomaly and Out-of-Distribution Detection: A Survey</strong> (arXiv:2409.01980, NAACL Findings 2025) – изследва пълния пейзаж на базираните на LLM подходи за откриване на аномалии в текстови, графични и таблични модалности; попълва контекста за това къде се намира AD-LLM спрямо предходната работа.</li>
<li class=""><strong>AnoLLM: Large Language Models for Tabular Anomaly Detection</strong> (OpenReview:7VkHffT5X2, ICLR 2025) – табличният еквивалент; сравняването на неговия подход, базиран на вероятността, със стратегията на AD-LLM за zero-shot чрез инструкции изяснява коя парадигма е по-подходяща за записи в главната книга на Beancount.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Fraud Detection" term="Fraud Detection"/>
        <category label="Analytics" term="Analytics"/>
        <category label="Anomaly Detection" term="Anomaly Detection"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[CausalTAD: Каузално подреждане на колони за откриване на аномалии в таблични данни чрез LLM]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection"/>
        <updated>2026-06-25T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[CausalTAD подобрява откриването на аномалии в таблични данни чрез LLM, като пренарежда колоните на таблицата според каузалните зависимости преди сериализация, повишавайки средния AUC-ROC от 0.803 на 0.834 спрямо AnoLLM при бенчмаркове със смесен тип данни — с преки последици за откриването на аномалии в структурирани данни от счетоводни книги.]]></summary>
        <content type="html"><![CDATA[<p>Предишният запис обхвана AnoLLM, който прецизира (fine-tune) малък LLM за оценка на аномалии в таблични данни чрез отрицателна логаритмична вероятност (negative log-likelihood). CausalTAD (arXiv:2602.07798) задава важен последващ въпрос: има ли значение редът, в който подавате колоните на този LLM? Отговорът се оказва „да“ — и вграждането на каузална структура в подредбата осигурява стабилно и възпроизводимо подобрение.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="статията">Статията<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%D1%81%D1%82%D0%B0%D1%82%D0%B8%D1%8F%D1%82%D0%B0" class="hash-link" aria-label="Директна връзка към Статията" title="Директна връзка към Статията" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=CausalTAD%3A%20%D0%9A%D0%B0%D1%83%D0%B7%D0%B0%D0%BB%D0%BD%D0%BE%20%D0%BF%D0%BE%D0%B4%D1%80%D0%B5%D0%B6%D0%B4%D0%B0%D0%BD%D0%B5%20%D0%BD%D0%B0%20%D0%BA%D0%BE%D0%BB%D0%BE%D0%BD%D0%B8%20%D0%B7%D0%B0%20%D0%BE%D1%82%D0%BA%D1%80%D0%B8%D0%B2%D0%B0%D0%BD%D0%B5%20%D0%BD%D0%B0%20%D0%B0%D0%BD%D0%BE%D0%BC%D0%B0%D0%BB%D0%B8%D0%B8%20%D0%B2%20%D1%82%D0%B0%D0%B1%D0%BB%D0%B8%D1%87%D0%BD%D0%B8%20%D0%B4%D0%B0%D0%BD%D0%BD%D0%B8%20%D1%87%D1%80%D0%B5%D0%B7%20LLM" alt="2026-06-25-causaltad-causal-knowledge-llm-tabular-anomaly-detection" class="img_ev3q"></p>
<p>Wang и др. предлагат CausalTAD, метод, който надгражда LLM детектори на аномалии от типа на AnoLLM и прави една целенасочена промяна: вместо да сериализира табличните редове в случаен или произволен ред на колоните, той открива каузалните зависимости между тях и ги пренарежда така, че да се спазват тези зависимости, преди LLM да прочете реда.</p>
<p>Статията има две основни части. Първо, модул за подреждане на колони, воден от каузалност. Авторите адаптират рамката за извличане на фактори COAT: един LLM чете метаданните на колоните и примери от данните, за да извлече семантични фактори от високо ниво (например за транзакции с кредитни карти, фактор като „Възмездие“ може да обхваща колоните за сума и търговец). От тези фактори три алгоритъма за откриване на каузалност — PC, LiNGAM и FCI — изграждат насочен каузален граф върху факторите. Проблемът с пренареждането на колоните след това се превръща в Проблем на линейното подреждане (Linear Ordering Problem): намиране на пермутацията π, която максимизира сумата от теглата на насочените ребра, така че колоните-причини да се появяват преди колоните-следствия в сериализирания текст. Тъй като линейното програмиране (LP) има много близко-оптимални решения, те вземат извадка от K ≈ 10 подредби в рамките на 90% от оптимума и изчисляват средната стойност върху тях.</p>
<p>Второ, модул за претегляне, съобразен с каузалността. Не всички колони са еднакво уместни. Колона, която влияе на много фактори, получава по-високо тегло αj = |M⁻¹(cj)|, броят на факторите, за които тя допринася. Крайният резултат за аномалия е среднопретеглената стойност от отрицателните логаритмични вероятности за всяка колона в рамките на K-те подредби.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="основни-идеи">Основни идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%D0%BE%D1%81%D0%BD%D0%BE%D0%B2%D0%BD%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Основни идеи" title="Директна връзка към Основни идеи" translate="no">​</a></h2>
<ul>
<li class="">Подредбата на колоните е нетривиално индуктивно пристрастие (inductive bias) за авторегресивните LLM: поставянето на колоната-причина преди нейната колона-следствие позволява на модела да се обуслови върху правилния контекст, когато приписва вероятност на следствието.</li>
<li class="">Откриването на каузалност на ниво фактори (а не на ниво сурови колони) позволява на метода да се справя с таблици със смесен тип данни, където директното откриване на каузалност между хетерогенни колони е зашумено.</li>
<li class="">При 6 бенчмарк набора от данни със смесен тип, CausalTAD със SmolLM-135M достига среден AUC-ROC 0.834 срещу 0.803 за AnoLLM — абсолютно подобрение от 3.1 пункта със същия модел.</li>
<li class="">По-конкретно при набора от данни Fake Job Posts, CausalTAD постига 0.873 срещу 0.800 за AnoLLM — относителен ръст от 9.1%, което е достатъчно значимо за реална система за триаж.</li>
<li class="">В 30 числови ODDS бенчмарка, CausalTAD постига най-добрия среден AUC-ROC, като последователно превъзхожда класическите базови модели (Isolation Forest, ECOD, KNN) и дълбоките методи (DeepSVDD, SLAD).</li>
<li class="">И трите алгоритъма за откриване на каузалност побеждават случайния ред при аблационния анализ; LiNGAM леко превъзхожда PC и FCI при наборите със смесени данни.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-издържа-проверката--и-какво-не">Какво издържа проверката — и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B8%D0%B7%D0%B4%D1%8A%D1%80%D0%B6%D0%B0-%D0%BF%D1%80%D0%BE%D0%B2%D0%B5%D1%80%D0%BA%D0%B0%D1%82%D0%B0--%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво издържа проверката — и какво не" title="Директна връзка към Какво издържа проверката — и какво не" translate="no">​</a></h2>
<p>Основното твърдение — че каузалният ред на колоните помага — е добре подкрепено. Аблационният анализ е ясен: замяната на случайния ред с който и да е от трите метода за каузално откриване подобрява резултатите в бенчмарка Fake Job Posts (от 0.832 до 0.870–0.873), а претеглянето според броя фактори допълнително помага във всяка конфигурация. Това е убедителна теза.</p>
<p>Това, което намирам за по-малко убедително, е хипотезата за самоорганизация (bootstrapping assumption). Каузалният граф се конструира чрез използване на LLM за извличане на семантични фактори от самите данни, които системата трябва да анализира. Ако LLM не разбере правилно домейна — например за специфична счетоводна система с нестандартни имена на колони — извличането на фактори ще бъде погрешно, а лошият каузален граф вероятно е по-лош от случайния ред, защото внася системно пристрастие. Авторите признават този риск („разчита на способностите на LLM за извличане на фактори“), но не тестват независимо точността на извличане на фактори.</p>
<p>Съществува и проблем с изчислителните разходи, който е по-сериозен, отколкото статията подсказва. Изпълнението на три алгоритъма за откриване на каузалност, решаването на LP, вземането на извадка от K подредби и след това извършването на инференция върху K сериализирани версии на всяка тестова точка умножава разходите за инференция по K. За счетоводна книга с милиони записи това има значение. Статията отбелязва, че „бъдещата работа може да се фокусира върху подобряване на ефективността“, но не предлага конкретен профил на производителността.</p>
<p>И накрая, 30-те числови ODDS набора от данни са добре проучени и вероятно наситени за методи като този. По-значимият сигнал е в 6-те набора със смесен тип данни — които са реалистичните за финансите — и подобренията там, макар и реални, са донякъде скромни в абсолютни изражения.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-изкуствен-интелект">Защо това е важно за финансовия изкуствен интелект<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-%D0%B8%D0%B7%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD-%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%B5%D0%BA%D1%82" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия изкуствен интелект" title="Директна връзка към Защо това е важно за финансовия изкуствен интелект" translate="no">​</a></h2>
<p>Транзакциите в Beancount имат реална каузална структура: сумата на записа каузално определя избора на сметка, сметката определя очакванията за контрагента, а текстът на основанието (мемо) е каузално следствие и от трите. Случайната сериализация на колоните пренебрегва това, което означава, че модел от типа на AnoLLM вижда „memo: groceries | account: Expenses<!-- -->:Food<!-- --> | amount: $4200“ толкова лесно, колкото и правилно подредената версия.</p>
<p>CausalTAD дава принципен начин за кодиране на правилото „сумата и сметката са на първо място“, без това да се задава твърдо като правило. За одит агентите на Bean Labs това предполага практичен архитектурен избор: преди оценяване на пакет от транзакции за аномалии, направете едно преминаване за откриване на каузалния граф върху схемата на колоните в книгата, след което използвайте този фиксиран ред за цялата последваща инференция. Разходите се плащат веднъж на ниво схема, а не за всяка транзакция.</p>
<p>Примерът за откриване на измами с кредитни карти в статията има по същество същата структура на задачата като откриването на аномалии в счетоводни книги: хетерогенни характеристики, редки етикети и каузален ред, който експертите в домейна знаят интуитивно, но който LLM иначе биха пренебрегнали.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете сл�ед това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class=""><strong>AD-LLM: Benchmarking Large Language Models for Anomaly Detection</strong> (arXiv:2412.11142, ACL Findings 2025) — системният бенчмарк в три парадигми на LLM за откриване на аномалии, в който се вписва CausalTAD; четенето му дава пълната картина, а не само сравнението AnoLLM срещу CausalTAD.</li>
<li class=""><strong>COAT: Boosting Large Language Model-Based In-Context Learning for Tabular Data</strong> (Liu et al., 2024) — рамката за извличане на фактори, която CausalTAD адаптира; разбирането на начина ѝ на работа изяснява къде качеството на каузалния граф може да се влоши.</li>
<li class=""><strong>Causal discovery in heterogeneous data: a survey</strong> — за разбиране на относителните предимства на PC срещу LiNGAM срещу FCI върху таблични данни от смесен тип, тъй като статията третира и трите като взаимозаменяеми, но те правят различни предположения за независимост.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Fraud Detection" term="Fraud Detection"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Anomaly Detection" term="Anomaly Detection"/>
        <category label="Beancount" term="Beancount"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[AnoLLM: Фина настройка на LLM за откриване на таблични аномалии във финансови данни]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection"/>
        <updated>2026-06-24T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[AnoLLM (ICLR 2025) преформулира откриването на таблични аномалии като оценка на плътността чрез LLM — фина настройка върху нормални редове и оценяване чрез отрицателна логаритмична вероятност (NLL). Той превъзхожда класическите методи при набори от данни за измами от смесен тип, но не предлага предимство при чисто числови данни, с реални последици за откриването на аномалии в записите на главната книга на Beancount.]]></summary>
        <content type="html"><![CDATA[<p>Статията за zero-shot откриване на аномалии чрез LLM, която прочетох преди два дни (arXiv:2406.16308), показа, че GPT-4 може да идентифицира таблични отклонения без никакво обучение, съвпадайки с класически базови линии като ECOD в бенчмарка ODDS. Но тя имаше очевидна слабост: изискването моделът да изведе списък с индекси на аномални редове е крехко — моделите с отворен код рутинно халюцинират индекси, излизат извън границите или маркират всеки ред като подозрителен. AnoLLM, публикуван на ICLR 2025 от Che-Ping Tsai, Ganyu Teng, Phillip Wallis и Wei Ding от Amazon, коригира тази крехкост, като същевременно навлиза в набори от данни от смесен тип, където чисто числовите базови линии започват да изпитват затруднения.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="статията">Статията<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%D1%81%D1%82%D0%B0%D1%82%D0%B8%D1%8F%D1%82%D0%B0" class="hash-link" aria-label="Директна връзка към Статията" title="Директна връзка към Статията" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=AnoLLM%3A%20%D0%A4%D0%B8%D0%BD%D0%B0%20%D0%BD%D0%B0%D1%81%D1%82%D1%80%D0%BE%D0%B9%D0%BA%D0%B0%20%D0%BD%D0%B0%20LLM%20%D0%B7%D0%B0%20%D0%BE%D1%82%D0%BA%D1%80%D0%B8%D0%B2%D0%B0%D0%BD%D0%B5%20%D0%BD%D0%B0%20%D1%82%D0%B0%D0%B1%D0%BB%D0%B8%D1%87%D0%BD%D0%B8%20%D0%B0%D0%BD%D0%BE%D0%BC%D0%B0%D0%BB%D0%B8%D0%B8%20%D0%B2%D1%8A%D0%B2%20%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%20%D0%B4%D0%B0%D0%BD%D0%BD%D0%B8" alt="2026-06-24-anollm-llm-fine-tuning-tabular-anomaly-detection" class="img_ev3q"></p>
<p>AnoLLM преформулира табличното откриване на аномалии като оценка на плътността чрез езиков модел, а не като класификация чрез подкани. Вместо да искат от LLM да назове кои редове изглеждат подозрителни, авторите извършват фина настройка на предварително обучен езиков модел върху сериализирани тренировъчни редове от разпределението (нормални), след което оценяват всеки тестов ред чрез неговата отрицателна логаритмична вероятност (negative log-likelihood - NLL) спрямо това научено разпределение. Ред, който не прилича на тренировъчното разпределение, получава висока NLL — това е оценката за аномалия. Без формати на индекси, без парсване на изхода, без крехко извличане чрез регулярни изрази.</p>
<p>Сериализацията преобразува всеки ред от таблицата в низ на естествен език с имена и стойности на характеристиките (features). За колони с текстови стойности NLL се нормализира за всяка колона, за да се избегне пристрастие към дължината, където по-дългите описания иначе механично биха натрупали по-високи вероятностни разходи. За числовите и категориалните колони суровата NLL на ниво токен се сумира в полето. Моделът се настройва фино в полуконтролирана среда (semi-supervised) — само редове с етикет „нормални“ влизат в обучението — за до 2000 стъпки, използвайки разпределено GPU обучение.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class="">Проблемът с изходния формат: предишните подходи за предсказване на индекси изискват от LLM надеждно да извеждат индексите на аномалните редове от пакет (batch). Моделите от фамилията Llama често сдвояват грешни индекси със стойности, генерират индекси извън размера на пакета или просто изброяват всичко като аномално. NLL заобикаля това напълно.</li>
<li class="">AnoLLM постига най-добри резултати в шест бенчмарк набора от данни със смесени типове характеристики, включително откриване на измами с автомобилни застраховки и набори от данни за измами в електронната търговия от Kaggle.</li>
<li class="">При 30-те предимно числови набора от данни на ODDS бенчмарка, AnoLLM се представя наравно с най-добрите класически базови линии — не по-добре, а просто конкурентно.</li>
<li class="">Нормализацията на NLL за всяка колона за текстови характеристики е малко, но важно инженерно решение: без него описание на транзакция с тридесет токена би доминирало в резултата над двуцифрена сума, което е грешен индуктивен уклон.</li>
<li class="">Контекст на базовата линия за обучение: подходът zero-shot GPT-4 (arXiv:2406.16308) постига среден AUROC от 74,1 в ODDS, сравним с ECOD (75,5) и KNN (70,7). Предимството на AnoLLM се проявява конкретно при набори от данни, където текстовите и категориалните характеристики носят значим сигнал за аномалия.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-издържа-проверката--и-какво-не">Какво издържа проверката — и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B8%D0%B7%D0%B4%D1%8A%D1%80%D0%B6%D0%B0-%D0%BF%D1%80%D0%BE%D0%B2%D0%B5%D1%80%D0%BA%D0%B0%D1%82%D0%B0--%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво издържа проверката — и какво не" title="Директна връзка към Какво издържа проверката — и какво не" translate="no">​</a></h2>
<p>Основната идея за NLL е солидна. Използването на фино настроен езиков модел като оценител на плътността върху сериализирани редове е принципно и естествено се справя със съвместното разпределение на всички колони едновременно — нещо, което класическите методи за неконтролирано откриване, приложени колона по колона, не могат да направят чисто. Решението за предсказване на индекси е истински полезно и сравнението с zero-shot базовата линия е честно.</p>
<p>Това, което ме притеснява, е разликата в разходите и ползите, която статията не отразява напълно. AnoLLM изисква фина настройка и поддържане на LLM за инференция — значителен инфраструктурен ангажимент в сравнение с пускането на ECOD или IsolationForest на CPU за секунди. В бенчмарка ODDS (чисто числов), AnoLLM е само „наравно“, не по-добър. Така че аргументите в полза на AnoLLM са изцяло в режима на смесените типове, където шестте оценени набора от данни са от откриване на измами в Kaggle. Шест набора от данни са тънка емпирична основа за силна препоръка, особено след като наборите от данни от Kaggle обикновено имат чисти схеми, фиксирана семантика на колоните и известна основна истина (ground truth) — все неща, които производствените данни в главните книги често нямат.</p>
<p>Проблемът с подредбата на колоните също остава отворен. CausalTAD (arXiv:2602.07798) веднага идентифицира този пропуск: AnoLLM сериализира колоните в произволен ред, игнорирайки причинно-следствените връзки между полетата. За структурирани данни с известни причинно-следствени вериги — типът на сметката влияе върху валидните диапазони на транзакциите, които от своя страна влияят върху очакваната контрагентна страна — това е реално ограничение. CausalTAD рамкира пренареждането като проблем на линейната подредба и съобщава за постоянно подобрение спрямо AnoLLM в над 30 набора от данни. Фактът, че този пропуск съществуваше и беше открит толкова бързо, предполага, че дизайнът на сериализацията на AnoLLM не е бил напълно премислен.</p>
<p>Съществува и въпрос за мащаба, който статията не разглежда: при какъв обем от нормални тренировъчни примери фината настройка на LLM си заслужава пред, да речем, табличен модел за дълбоко обучение, обучен директно върху числовите характеристики? За лични Beancount главни книги с няколко хиляди записа, разходите за изчисления лесно могат да надхвърлят всяко повишение на точността.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-финансовия-ai">Защо това е важно за финансовия AI<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D0%B8%D1%8F-ai" class="hash-link" aria-label="Директна връзка към Защо това е важно за финансовия AI" title="Директна връзка към Защо това е важно за финансовия AI" translate="no">​</a></h2>
<p>Записите в главната книга на Beancount са точно онзи тип данни със смесен тип, към които е насочен AnoLLM: суми (числови), имена на сметки (структуриран текст), получател/описание (свободен текст), тагове (категориални), дати (структурирани). Един ред като <code>2024-03-15 * "AWS" "Cloud invoice" Assets:Checking -$2,400</code> кодира информация във всички тези типове едновременно. Класическите детектори на аномалии се затрудняват тук, защото се нуждаят от отделна обработка за всеки тип колона и губят корелациите между тях — общия модел, че фактурите от "AWS" трябва да бъдат в определен диапазон и да засягат конкретна сметка.</p>
<p>Подходът на AnoLLM с NLL би трябвало, по принцип, да научи тези съвместни модели от нормални исторически записи и да маркира отклонения във всяка комбинация от колони. Това е потенциално по-полезно от базираните на правила JET-ове или статистически тестове върху единични колони.</p>
<p>Въпреки това, ограничението на двойното счетоводство е структурно знание, което AnoLLM не може да научи само от сериализирани редове — дебитите трябва да са равни на кредитите, йерархиите на сметките трябва да се спазват. Тези домейнови инварианти са твърди ограничения, а не статистически закономерности, и никаква фина настройка на LLM върху исторически редове няма да ги наложи надеждно, ако тренировъчните данни съдържат изключения или артефакти от закръгляне. Правилната архитектура вероятно комбинира оценяването чрез NLL на AnoLLM за семантични аномалии с изрични проверки на правилата за структурни такива.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class="">CausalTAD (arXiv:2602.07798) — директно подобрява AnoLLM чрез вмъкване на причинно-следствена подредба на колоните; най-непосредственото продължение за оценка.</li>
<li class="">AD-LLM: Benchmarking Large Language Models for Anomaly Detection (arXiv:2412.11142, ACL Findings 2025) — предоставя систематичната мултипарадигмална оценка, която липсва в статиите за отделни методи.</li>
<li class="">"Language Models are Realistic Tabular Data Generators" (Borisov et al., arXiv:2210.06280, ICLR 2023) — моделът BE-GREAT, който AnoLLM използва като базова линия; разбирането му изяснява какво всъщност подобрява AnoLLM извън предсказването на индекси.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Fraud Detection" term="Fraud Detection"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Finance" term="Finance"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[LLM постигат 2,3% при генериране на Beancount DSL: Бенчмаркът LLMFinLiteracy]]></title>
        <id>https://beancount.io/bg/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark</id>
        <link href="https://beancount.io/bg/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark"/>
        <updated>2026-06-23T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[Бенчмаркът LLMFinLiteracy установява, че пет модела с отворени тегла от около 7B генерират напълно коректни Beancount транзакции само в 2,3% от случаите, като неуспехите са съсредоточени в счетоводната логика — не в синтаксиса — което посочва обратната връзка от компилатора в цикъла като критично липсваща съставка за надеждни агенти за обратен запис.]]></summary>
        <content type="html"><![CDATA[<p>Това е научната публикация, която очаквах от LOG-001 насам: директен емпиричен тест на това дали LLM могат да генерират валидни Beancount DSL транзакции от финансови сценарии на естествен език. Фигероа и др. от Берлинския университет за приложни науки представят това, което твърдят — правилно, доколкото ми е известно — че е първата публикувана оценка на LLM за генериране на финансови транзакции в счетоводството в обикновен текст. Краткият отговор е: не могат, поне не надеждно, дори с подтикване чрез верига от мисли (chain-of-thought) и предоставяне на реалния Beancount баланс като контекст.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="докладът">Докладът<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%D0%B4%D0%BE%D0%BA%D0%BB%D0%B0%D0%B4%D1%8A%D1%82" class="hash-link" aria-label="Директна връзка към Докладът" title="Директна връзка към Докладът" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=LLM%20%D0%BF%D0%BE%D1%81%D1%82%D0%B8%D0%B3%D0%B0%D1%82%202%2C3%25%20%D0%BF%D1%80%D0%B8%20%D0%B3%D0%B5%D0%BD%D0%B5%D1%80%D0%B8%D1%80%D0%B0%D0%BD%D0%B5%20%D0%BD%D0%B0%20Beancount%20DSL%3A%20%D0%91%D0%B5%D0%BD%D1%87%D0%BC%D0%B0%D1%80%D0%BA%D1%8A%D1%82%20LLMFinLiteracy" alt="2026-06-23-llm-beancount-dsl-financial-literacy-benchmark" class="img_ev3q"></p>
<p>Фигероа, Грундман, Фрайданк, Льозер и Неждл оценяват пет модела с отворени тегла от около 7B върху бенчмарк от две задачи, наречен LLMFinLiteracy. Задача 1 изисква от моделите да генерират текстови сценарии, които биха повлияли на даден коефициент на ликвидност (коефициент на обща, бърза или абсолютна ликвидност), като се използва реален тримесечен баланс от една от пет компании, листнати на DAX (Airbus, Bayer, Deutsche Telekom, Mercedes-Benz, SAP). Задача 2 изисква от моделите да преведат тези сценарии в компилируеми Beancount транзакции. Компилаторът Beancount служи като еталонен инструмент за проверка на синтаксиса; експерти в областта оценяват семантичната коректност. Докладът въвежда таксономия на грешките от 12 класа за двете задачи и използва подкана с 9 стъпки на верига от мисли, която включва правилата на двойното счетоводство, пример за вход/изход и реалния баланс на компанията във формат Beancount. Оценените модели — Llama-3-8B, Qwen-2-7B, Mistral-7B, CodeLlama-7B и CodeQwen-1.5-7B — бяха пуснати локално (on-premise) поради чувствителността на финансовите данни. Корпусът възлиза на общо 1500 генерирани проби, като 300 стратифицирани записа са оценени от човешки експерти.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ключови-идеи">Ключови идеи<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%B2%D0%B8-%D0%B8%D0%B4%D0%B5%D0%B8" class="hash-link" aria-label="Директна връзка към Ключови идеи" title="Директна връзка към Ключови идеи" translate="no">​</a></h2>
<ul>
<li class="">Само 7 от 300 оценени двойки сценарий-транзакция (2,3%) са били напълно коректни от край до край; дори ограничаването до трите модела с общо предназначение повишава процента само до 3,8%.</li>
<li class="">Двата най-добри модела, Qwen-2-7B и Mistral-7B, генерират коректни сценарии само в 21,67% и 20,00% от случаите, и коректни компилируеми транзакции само в 16,67% и 10,00% от случаите.</li>
<li class="">Моделите, специализирани в програмен код (CodeLlama, CodeQwen), постигат 0% и в двете задачи; те са отговорили на шаблона за подкана с буквалния низ „Processed — Waiting for next input“, напълно игнорирайки задачата.</li>
<li class="">Синтаксисът не е тесното място: нито един модел не е произвел нито една синтактична грешка. Неуспехите са изцяло в счетоводната <em>логика</em> — грешките в балансирането доминират при Qwen-2 (61,67%) и Llama-3 (38,33%), докато Mistral предимно реферира към сметки, които не съществуват в предоставения баланс (45% грешки за непознати сметки).</li>
<li class="">Значителна част от транзакциите, които се компилират успешно, са семантично погрешни — любимият трик на моделите е да наричат намаляването на пасив „продажба на вашия дълг“, което увеличава касовата наличност, но по грешна причина.</li>
<li class="">GPT-4o, използван като автоматизиран съдия, не успя да сигнализира за несъответствия във всички 10 абсурдни сценария, които му бяха показани, потвърждавайки, че самооценката на LLM не е надежден филтър за качество на счетоводните резултати.</li>
<li class="">Моделите до голяма степен копират примера за вход/изход в подканата, вместо да обобщават: 7-те правилни двойки силно наподобяват предоставената примерна структура на транзакцията.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-се-потвърждава--и-какво-не">Какво се потвърждава — и какво не<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D1%81%D0%B5-%D0%BF%D0%BE%D1%82%D0%B2%D1%8A%D1%80%D0%B6%D0%B4%D0%B0%D0%B2%D0%B0--%D0%B8-%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%BD%D0%B5" class="hash-link" aria-label="Директна връзка към Какво се потвърждава — и какво не" title="Директна връзка към Какво се потвърждава — и какво не" translate="no">​</a></h2>
<p>Основният емпиричен принос на доклада е солиден. Компилаторът Beancount е обективен, възпроизводим критерий за коректност, а използването на реални фирмени баланси вместо примерни данни добавя екологична валидност. Йерархичната таксономия на грешките е обмислена внимателно — спирането на оценката при първата грешка избягва изкуственото завишаване на „частичното признание“ за безполезни резултати.</p>
<p>Въпреки това има очевидни ограничения, които авторите до голяма степен признават. Пет модела с отворени тегла от около 7B от 2023–2024 г. са тесен отрязък от ландшафта на възможностите; GPT-4o и Claude бяха изключени поради съображения за поверителност, което е разбираемо, но означава, че водещото число (2,3% коректност) подценява предната линия на технологиите. Формулите за финансовите коефициенти бяха съзнателно изключени от подканите, за да се тестват присъщите знания в областта — методологически интересен избор, но такъв, който прави резултатите несравними с всяка система, която разумно би включила документация на формулите. И 300 оценени от хора проби в пет модела, три коефициента и пет компании са скромно количество; клетките за модел на коефициент са твърде малки (12 проби), за да се направят силни заключения за отклоненията.</p>
<p>Най-интересният методологически пропуск е липсата на какъвто и да е итеративен протокол или такъв, базиран на обратна връзка. Без извикване на инструменти (tool-calling), без самокорекция, без цикъл на обратна връзка от компилатора — само генериране от един опит (one-shot). Като се има предвид, че CRITIC (LOG-012) и свързаните с него трудове показват, че интерактивното прецизиране с инструменти значително подобрява точността при задачи с проверими резултати, експеримент с компилатор Beancount в цикъла би бил далеч по-информативен относно възможностите за внедряване.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="защо-това-е-важно-за-ai-във-финансите">Защо това е важно за AI във финансите<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%D0%B7%D0%B0%D1%89%D0%BE-%D1%82%D0%BE%D0%B2%D0%B0-%D0%B5-%D0%B2%D0%B0%D0%B6%D0%BD%D0%BE-%D0%B7%D0%B0-ai-%D0%B2%D1%8A%D0%B2-%D1%84%D0%B8%D0%BD%D0%B0%D0%BD%D1%81%D0%B8%D1%82%D0%B5" class="hash-link" aria-label="Директна връзка към Защо това е важно за AI във финансите" title="Директна връзка към Защо това е важно за AI във финансите" translate="no">​</a></h2>
<p>Всяко дизайнерско решение за агента за обратен запис на Bean Labs почива на предположения за това какво могат да правят LLM с Beancount DSL. Този доклад е първата емпирична опора. Водещите констатации са отрезвяващи, но също така интерпретируеми по полезен начин.</p>
<p>Първо, режимите на отказ са специфични, а не случайни. Грешките в балансирането и непознатите сметки са двата доминиращи проблема и двата са решими с цикъл на обратна връзка от компилатора: компилаторът Beancount ви казва точно коя сметка е непозната и дали транзакцията е балансирана. Архитектура на агент, която итерира върху изхода на компилатора — вместо да генерира веднъж и да спре — би трябвало значително да превъзхожда резултатите от един опит тук. Второ, синтаксисът е „безплатен“. Моделите ясно са научили повърхностната граматика на Beancount; те просто не могат надеждно да преведат финансовото намерение в правилни движения по сметките. Тази разлика е важна за това къде да се инвестира в подтикване (prompting) и фина настройка (fine-tuning). Трето, констатацията, че GPT-4o не може автоматично да оценява качеството на счетоводството, вдига летвата за всяка автоматизирана система за проверка: необходим ви е компилаторът, плюс проверки на място от експерти в областта, а не LLM критик.</p>
<p>Докладът също така потвърждава нещо, което подозирах от работата по откриване на аномалии (LOG-049): LLM, работещи върху финансови транзакции, компилират и изпращат твърде лесно. Категорията „Неправилно | Компилира се“ — транзакции, които преминават синтактичната проверка, но са семантично погрешни — е точно режимът на отказ, който защитната преграда за обратен запис трябва да улови. Една транзакция може да се балансира перфектно и все пак да осчетоводи приходи като намаление на пасив, което би останало неоткрито от всяка чисто синтактична проверка.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="какво-да-прочетете-след-това">Какво да прочетете след това<a href="https://beancount.io/bg/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%D0%BA%D0%B0%D0%BA%D0%B2%D0%BE-%D0%B4%D0%B0-%D0%BF%D1%80%D0%BE%D1%87%D0%B5%D1%82%D0%B5%D1%82%D0%B5-%D1%81%D0%BB%D0%B5%D0%B4-%D1%82%D0%BE%D0%B2%D0%B0" class="hash-link" aria-label="Директна връзка към Какво да прочетете след това" title="Директна връзка към Какво да прочетете след това" translate="no">​</a></h2>
<ul>
<li class="">AnoLLM: Large Language Models for Tabular Anomaly Detection (OpenReview:7VkHffT5X2, ICLR 2025) — оценяване на аномалии въз основа на вероятност като алтернатива на подхода за групово откриване; съчетава се естествено със сигнал от компилатора Beancount за маркиране на структурно валидни, но статистически аномални записи.</li>
<li class="">ReDAct: Uncertainty-Aware Deferral for LLM Agents (arXiv:2604.07036) — пренасочва решения с ниска степен на увереност към по-голям модел или човек; директно адресира въпроса кога един агент за обратен запис в Beancount трябва да отложи решението за преглед от човек, вместо да продължи след цикъл на обратна връзка от компилатора.</li>
<li class="">CRITIC: Large Language Models Can Self-Correct with Tool-Interactive Critiquing (arXiv:2305.11738, ICLR 2024) — най-релевантният съществуващ труд за изграждане на агент за корекция с компилатор в цикъла върху архитектурата, която този доклад оценява.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Plain-Text Accounting" term="Plain-Text Accounting"/>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Financial Literacy" term="Financial Literacy"/>
        <category label="Double-Entry" term="Double-Entry"/>
        <category label="Transaction Validation" term="Transaction Validation"/>
    </entry>
</feed>