<?xml version="1.0" encoding="utf-8"?>
<feed xmlns="http://www.w3.org/2005/Atom">
    <id>https://beancount.io/sk/bean-labs/research-logs</id>
    <title>Beancount.io Blog</title>
    <updated>2026-07-12T00:00:00.000Z</updated>
    <generator>https://github.com/jpmonette/feed</generator>
    <link rel="alternate" href="https://beancount.io/sk/bean-labs/research-logs"/>
    <subtitle>Beancount.io Blog</subtitle>
    <icon>https://beancount.io/sk/img/favicon.png</icon>
    <entry>
        <title type="html"><![CDATA[FinRAGBench-V: Multimodálny RAG s vizuálnymi citáciami vo finančnej oblasti]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain"/>
        <updated>2026-07-12T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[FinRAGBench-V (EMNLP 2025) je prvý rozsiahly benchmark pre multimodálny RAG s vizuálnymi citáciami vo financiách, pokrývajúci viac ako 112-tisíc strán dokumentov a 1 394 manuálne anotovaných párov otázok a odpovedí. Najlepšie modely dosahujú len 20 – 61 % úspešnosť vyhľadávania citácií na úrovni blokov a multimodálne vyhľadávanie prekonáva čisto textové o takmer 50 percentuálnych bodov.]]></summary>
        <content type="html"><![CDATA[<p>Finančná AI bola doteraz ovládaná čisto textovým RAG, ale skutočné finančné dokumenty sú plné grafov, tabuliek a schém, ktoré OCR nedokáže úplne zachytiť. FinRAGBench-V (EMNLP 2025) je prvý rozsiahly benchmark na vyhodnotenie multimodálneho RAG s vizuálnymi citáciami vo finančnej oblasti a jeho výsledky sú triezvou pripomienkou toho, ako ďaleko majú produkčné systémy ešte pred sebou.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="článok">Článok<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%C4%8Dl%C3%A1nok" class="hash-link" aria-label="Priamy odkaz na Článok" title="Priamy odkaz na Článok" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinRAGBench-V%3A%20Multimod%C3%A1lny%20RAG%20s%20vizu%C3%A1lnymi%20cit%C3%A1ciami%20vo%20finan%C4%8Dnej%20oblasti" alt="2026-07-12-finragbench-v-multimodal-rag-visual-citation-financial-domain" class="img_ev3q"></p>
<p>Zhao, Jin, Li a Gao z Pekinskej univerzity predstavujú FinRAGBench-V, bilingválny benchmark vytvorený zo skutočných finančných dokumentov: výskumných správ, účtovných závierok, prospektov, akademických prác, časopisov a novinových článkov. Korpus na vyhľadávanie je značný – 60 780 čínskych strán a 51 219 anglických strán v približne 1 100 dokumentoch na jazyk – spárovaný s 1 394 manuálne anotovanými pármi QA (otázka-odpoveď) pokrývajúcimi sedem kategórií otázok: textová inferencia, extrakcia z grafov a tabuliek, numerické výpočty, časovo citlivé dopyty a viacstranové uvažovanie. Okrem datasetu je hlavným prínosom článku RGenCite, základný (baseline) systém, ktorý generuje odpovede spolu s vizuálnymi citáciami na úrovni pixelov vo forme súradníc ohraničujúcich boxov (bounding boxes) označujúcich konkrétne oblasti dokumentu, ktoré podporujú každé tvrdenie.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class=""><strong>Multimodálne vyhľadávanie dominuje nad čisto textovým s drvivým náskokom</strong>: ColQwen2, vizuálno-jazykový vyhľadávač postavený na embeddingoch obrázkov stránok, dosahuje Recall@10 90,13 % (čínština) a 85,86 % (angličtina). Najlepšie textové vyhľadávače, BM25 a BGE-M3, dosahujú maximálne okolo 42,71 %. Tento rozdiel nie je len štatistickou chybou.</li>
<li class=""><strong>Presnosť generovania je nízka aj pri špičkových modeloch</strong>: GPT-4o v angličtine dosahuje presnosť 43,41 % (ROUGE 24,66); o4-mini v čínštine dosahuje 58,13 % (ROUGE 38,55). Ide o špičkové proprietárne modely so silným nastavením vyhľadávania.</li>
<li class=""><strong>Citácie na úrovni stránky fungujú; na úrovni blokov nie</strong>: Úspešnosť vyhľadávania (recall) na úrovni stránky sa pri najlepších modeloch pohybuje v rozmedzí 75 – 93 %. Recall na úrovni blokov – teda vedieť, ktorá konkrétna bunka tabuľky alebo oblasť grafu podkladá tvrdenie – klesá na 20 – 61 %. To je kľúčová medzera pre auditovateľnosť.</li>
<li class=""><strong>Numerické uvažovanie a viacstranová inferencia lámu modely ako prvé</strong>: Otázky vyžadujúce výpočty naprieč stránkami alebo časovými obdobiami sú tie, kde presnosť klesá najprudšie vo všetkých testovaných systémoch.</li>
<li class=""><strong>Proprietárne modely výrazne prekonávajú open-source alternatívy</strong>: Rozdiel medzi uzavretými API a open-source riešeniami je tu väčší ako vo väčšine NLP benchmarkov, čo naznačuje, že vizuálne finančné uvažovanie zostáva pre otvorené modely nevyriešené.</li>
<li class=""><strong>Automatické vyhodnocovanie citácií je nedokonalé</strong>: Evaluátor citácií založený na orezávaní obrázkov dosahuje Pearsonovo r = 0,68 v porovnaní s ľudským hodnotením – je to primerané, ale nie dostatočne spoľahlivé na to, aby sa mu dalo plne dôverovať bez dodatočnej kontroly.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Zistenie o vyhľadávaní je najdôveryhodnejším výsledkom článku. Rozdiel takmer 50 percentuálnych bodov medzi multimodálnymi a čisto textovými vyhľadávačmi pri viac ako 60 tisícoch strán je príliš veľký na to, aby sa dal ignorovať. Keď pred indexovaním finančného dokumentu použijete OCR, zničíte signály o štrukturálnom rozložení – v ktorom stĺpci sa číslo nachádza, či popis obrázka upravuje interpretáciu tabuľky – čo sa ukazuje ako nesmierne dôležité pre vyhľadávanie.</p>
<p>Čísla týkajúce sa generovania sú úprimné, ale v izolácii sa ťažko interpretujú. Autori nerozoberajú, aká časť medzery v presnosti je pripísateľná chybám vyhľadávania oproti zlyhaniam generovania. Vzhľadom na to, že Recall@10 je pre angličtinu už 85,86 %, významná časť zlyhaní musí byť na strane generovania, nie vyhľadávania. Poznanie tohto rozdelenia by objasnilo, či je úzkym hrdlom multimodálne uvažovanie alebo niečo zásadnejšie v tom, ako MLLM pracujú s finančným jazykom.</p>
<p>Evaluačný súbor 1 394 párov QA je na rozsah benchmarku malý. Rozdelené do siedmich kategórií a dvoch jazykov majú niektoré časti menej ako 200 príkladov. Štatistická významnosť zistení na úrovni kategórií zostáva implicitná. Pre článok o benchmarku to nie je nezvyčajné, ale znamená to, že by bolo ľahké vytvoriť účelovo vybrané (cherry-picked) porovnania.</p>
<p>Protokol na vyhodnocovanie citácií je zaujímavým prínosom, ale Pearsonovo r = 0,68 v porovnaní s ľudským hodnotením nie je dostatočne silné na to, aby sa automatické vyhodnocovanie považovalo za absolútnu pravdu pre ukotvenie na úrovni blokov. Autori to priznávajú; budúca práca na lepších metrikách citácií je výslovne označená za potrebnú.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-finančnú-ai">Prečo je to dôležité pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre finančnú AI" title="Priamy odkaz na Prečo je to dôležité pre finančnú AI" translate="no">​</a></h2>
<p>Beancount funguje nad čisto textovými súbormi účtovných denníkov (ledgers), vďaka čomu je čisto textový RAG obhájiteľný pri dopytovaní sa na minulé transakcie. Širšia účtovná úloha však zahŕňa dokumenty, ktoré rozhodne nie sú čisto textové: bankové výpisy v PDF, skenované faktúry, obrázky účteniek, výročné správy s vloženými tabuľkami a grafmi. Vo chvíli, keď agent Beancount potrebuje odsúhlasiť (reconcile) záznam v denníku so zdrojovým dokumentom – overiť, či konkrétna platba súhlasí s faktúrou v evidencii – vykonáva presne tú istú úlohu, ktorú testuje FinRAGBench-V.</p>
<p>Zistenie o citáciách na úrovni blokov je pre tento prípad použitia najdôležitejšie. Ak musí agent odôvodniť záznam v účtovnej knihe ukázaním na konkrétnu riadkovú položku v PDF a najlepší dostupný systém dosahuje len 20 – 61 % recallu na úrovni blokov, nie je to pripravené na audit. Akýkoľvek proces v Beancount, ktorý pracuje s naskenovanými zdrojovými dokumentmi, potrebuje kontrolu človekom, kým sa toto číslo výrazne nezlepší.</p>
<p>Rozdiel v modalite vyhľadávania tiež silne hovorí proti čisto textovým procesom pri spracovaní dokumentov. Obrázok účtenky nesie informácie o rozložení – polia s čiastkami, názvy dodávateľov, pozície riadkových položiek – ktoré OCR zničí. Práve tieto informácie o rozložení odlišujú celkovú sumu od sumy dane a FinRAGBench-V ukazuje, že multimodálne vyhľadávače ich využívajú spôsobom, ktorý textové vyhľadávače nedokážu.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class=""><strong>ColPali: Efficient Document Retrieval with Vision Language Models</strong> — predchodca modelu ColQwen2, na ktorom je postavený vizuálny prístup embeddingov stránok najlepšieho vyhľadávača v FinRAGBench-V [arXiv:2407.01449, ECCV 2024]</li>
<li class=""><strong>M3DocRAG: Multi-modal Retrieval is What You Need for Multi-page Multi-document Understanding</strong> — rieši vizuálne QA nad viacerými dokumentmi pomocou flexibilného rámca, ktorý zvláda jedno- aj viacúrovňové vizuálne uvažovanie naprieč stránkami [arXiv:2411.04952]</li>
<li class=""><strong>Benchmarking Temporal-Aware Multi-Modal RAG in Finance</strong> — sprievodný benchmark z roku 2025 hodnotiaci časovú citlivosť vo finančnom multimodálnom RAG, ktorý priamo dopĺňa kategóriu časovo citlivých otázok vo FinRAGBench-V [arXiv:2503.05185]</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Finance" term="Finance"/>
        <category label="Financial Reporting" term="Financial Reporting"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Reconciliation" term="Reconciliation"/>
        <category label="Beancount" term="Beancount"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Môžu byť LLM agenti finančnými riaditeľmi? 132-mesačná simulácia EnterpriseArena odhaľuje veľkú priepasť]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark"/>
        <updated>2026-07-11T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[EnterpriseArena podrobuje 11 modelov LLM 132-mesačnej simulácii finančného riaditeľa (CFO), pričom sleduje mieru prežitia, konečnú hodnotu firmy a mieru uzatvárania účtovných kníh. Iba Qwen3.5-9B prežije v 80 % prípadov; modely GPT-5.4 a DeepSeek-V3.1 dosahujú 0 %. Ľudskí experti dosahujú 100 % prežitie pri 5-násobne vyššej konečnej hodnote. Kritickým úzkym hrdlom je, že LLM v 80 % prípadov vynechávajú odsúhlasenie účtovnej knihy a konajú na základe neaktuálneho finančného stavu.]]></summary>
        <content type="html"><![CDATA[<p>Najambicióznejšou otázkou vo finančnej AI v súčasnosti nie je „dokáže LLM odpovedať na otázku o súvahe?“, ale „dokáže LLM spravovať peniaze spoločnosti v priebehu času bez toho, aby mu došli?“ Štúdia Yi Hana a kol. s názvom <em>Môžu byť LLM agenti finančnými riaditeľmi?</em> (arXiv:2603.23638) vytvára prostredie EnterpriseArena, aby otestovala presne toto, a odpoveď znie: ledva a nie tak, ako by ste čakali.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="štúdia">Štúdia<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%C5%A1t%C3%BAdia" class="hash-link" aria-label="Priamy odkaz na Štúdia" title="Priamy odkaz na Štúdia" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=M%C3%B4%C5%BEu%20by%C5%A5%20LLM%20agenti%20finan%C4%8Dn%C3%BDmi%20riadite%C4%BEm%C3%AD%3F%20132-mesa%C4%8Dn%C3%A1%20simul%C3%A1cia%20EnterpriseArena%20odha%C4%BEuje%20ve%C4%BEk%C3%BA%20priepas%C5%A5" alt="2026-07-11-can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark" class="img_ev3q"></p>
<p>EnterpriseArena je 132-mesačná (11-ročná) simulácia alokácie zdrojov na úrovni finančného riaditeľa (CFO). Každý časový krok predstavuje jeden mesiac. Agent dostáva čiastočné pozorovania o financiách na úrovni firmy, anonymizované obchodné dokumenty a makroekonomické signály čerpané z údajov FRED, CBOE a S&amp;P Global. Má rozpočet 20 volaní nástrojov (tool calls) mesačne rozdelených medzi štyri operácie — overenie hotovostnej pozície, kontrola finančných záznamov, analýza trhových podmienok a prognózovanie hotovostných tokov — a musí si vybrať jednu z troch akcií: uzavrieť účtovné knihy (odsúhlasenie), požiadať o financovanie (vlastné imanie alebo dlh, so stochastickými výsledkami) alebo nič neurobiť (pass). Primárnym obmedzením je, že zostatok hotovosti spoločnosti musí zostať nezáporný v každom časovom kroku; porušenie ukončí epizódu so skóre nula. Pri zachovaní prežitia agent maximalizuje konečnú hodnotu podniku podľa vzorca Rev_T × 5 + Cash_T − 5 000 × N_tools, ktorý explicitne penalizuje nadmerné používanie nástrojov.</p>
<p>Bolo vyhodnotených jedenásť modelov LLM, vrátane Gemini-3.1-Pro, Claude-Haiku-4.5, GPT-5.4, DeepSeek-V3.1, Llama-3.3-70B, Qwen3.5-397B a Qwen3.5-9B, spolu s benchmarkom ľudského experta validovaným dvoma finančnými profesionálmi s 8 a 14-ročnými skúsenosťami.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class=""><strong>Miera prežitia sa u jednotlivých modelov výrazne líši</strong>: Qwen3.5-9B prežije 80 % behov, Gemini-3.1-Pro 50 %, Claude-Haiku-4.5 a GLM-5 každý 20 %, a GPT-5.4, DeepSeek-V3.1, Llama-3.3-70B, Mistral-Small-24B a Mixtral-8x7B zhodne 0 %. Celkový priemer LLM je 26 %.</li>
<li class=""><strong>Väčšie modely spoľahlivo neprekonávajú tie menšie</strong>: Qwen3.5-9B (9 mld. parametrov, 80 % prežitie, konečná hodnota 78,8 mil. USD) rozhodne poráža Qwen3.5-397B (397 mld. parametrov, 20 % prežitie) a GPT-5.4 (0 % prežitie).</li>
<li class=""><strong>Odstup od ľudí je veľký</strong>: ľudský benchmark dosahuje 100 % prežitie a konečnú hodnotu 152,2 mil. USD ± 29,6 mil. USD; priemer LLM je 28,2 mil. USD s 26 % prežitím.</li>
<li class=""><strong>Uzávierka účtovných kníh je kritickým úzkym hrdlom</strong>: ľudskí experti uzatvárajú knihy (reconcile) v 94,3 % časových krokov; priemer LLM je 19,3 %. Toto je akcia, ktorá vytvára pravdivé finančné výkazy a umožňuje racionálne následné rozhodnutia.</li>
<li class=""><strong>Zhromažďovanie informácií bez akcie je fatálne</strong>: Qwen3.5-397B počas simulácie vo vysokej miere využíva nástroje na analýzu trhu a prognózovanie, ale takmer nikdy neuzatvára knihy (0,0 % miera uzávierky) a takmer nikdy nežiada o financovanie, pričom zaniká v dôsledku vyčerpania hotovosti napriek tomu, že „vie“, čo sa deje.</li>
<li class=""><strong>Penalizácia rozpočtu na nástroje je dôležitá</strong>: vzorec bodovania aktívne trestá agentov, ktorí nutkavo kontrolujú namiesto toho, aby konali, čo je obmedzenie, ktoré odráža skutočné náklady príležitosti.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Dvojitý cieľ dizajnu — prežitie ako pevné obmedzenie plus konečná hodnota — je jednou z najsilnejších volieb v nedávnom benchmarkingu agentov. Odráža to, ako skutoční finanční riaditelia v praxi fungujú: nemôžete optimalizovať rast, ak ste bez peňazí. Anonymizácia kalendárnych dátumov a identít spoločností bráni modelom v rozpoznávaní vzorov na základe zapamätaných historických výsledkov, čo je skutočné metodologické zlepšenie oproti finančným benchmarkom, ktoré používajú reálne tickery a dátumy.</p>
<p>Taxonómia zlyhaní, ktorú autori identifikujú prostredníctvom prípadových štúdií, je dôveryhodná: GPT-5.4 dosahuje 99,1 % mieru „pass“ (čo znamená, že v takmer každom časovom kroku vykoná akciu nerobenia ničoho), zatiaľ čo Qwen3.5-397B si mýli analýzu s akciou. Ide o behaviorálne odlišné spôsoby zlyhania s rôznymi riešeniami.</p>
<p>O čom som menej presvedčený: stochastické makroprostredie využíva Gaussov šum na aproximáciu trhových šokov, čo podľa priznania samotných autorov nedokáže replikovať udalosti typu „čierna labuť“ alebo ľudskú iracionalitu. Rozpočet nástrojov vo výške 20 volaní mesačne je tiež mierne ľubovoľný — skutoční finanční riaditelia nečelia takémuto obmedzeniu miery dopytov voči vlastnej pamäti, čo vyvoláva otázku, či benchmark meria dlhodobý finančný úsudok alebo skôr niečo ako RAG pod tlakom zdrojov. Štruktúra s jedným agentom je ďalším explicitným obmedzením, ktoré autori uvádzajú: skutoční finanční riaditelia pracujú v hierarchiách kontrolórov, analytikov FP&amp;A a tímov pokladnice, čo sa táto práca nepokúša simulovať.</p>
<p>Zistenie, že veľkosť modelu nepredpovedá prežitie, je zarážajúce a pravdepodobne pravdivé, ale mechanizmus nie je dobre vysvetlený. Autori to konštatujú bez toho, aby plne rozobrali, či ide o zlyhanie pri dodržiavaní inštrukcií, koherenciu dlhého kontextu alebo kalibráciu rizika.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-finančnú-ai">Prečo je to dôležité pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre finančnú AI" title="Priamy odkaz na Prečo je to dôležité pre finančnú AI" translate="no">​</a></h2>
<p>Akcia uzatvárania kníh v EnterpriseArena je v podstate príkaz <code>balance</code> a krok odsúhlasenia účtovnej knihy v Beancounte — moment, kedy sa agent pred konaním zaviaže k pravdivému pohľadu na finančný stav. Zistenie, že LLM to v 80 % prípadov vynechávajú, priamo súvisí s problémom bezpečnosti spätného zápisu (write-back): agent, ktorý sa pred akciou vyhýba odsúhlaseniu, je agent, ktorý koná na základe zastaraného alebo halucinovaného stavu. Pre automatizáciu Beancountu to naznačuje, že krok odsúhlasenia by mal byť povinný a overiteľný — nie voliteľný — v akomkoľvek cykle agenta.</p>
<p>132-mesačný horizont je tiež priamo analogický s viacročnou správou účtovných kníh. Zistenie, že trvalé situačné povedomie sa časom zhoršuje, je rovnaká degradácia, akú by sme očakávali u agenta Beancount spravujúceho päťročnú históriu transakcií: aj keď má agent všetky dáta v kontexte, nemusí na ne v 60. mesiaci reagovať koherentne. To naznačuje, že v dlhodobých reláciách agentov Beancount sú potrebné periodické vynútené kontrolné body odsúhlasenia, nielen reaktívne dopytovanie.</p>
<p>Pasca zhromažďovania informácií, do ktorej padol Qwen3.5-397B, je užitočným varovaním pre dizajn: agenti vybavení mnohými nástrojmi na vyhľadávanie môžu uprednostňovať vyhľadávanie pred záväzkom, najmä ak sú náklady na nesprávnu akciu (poškodenie účtovnej knihy) vysoké. Obmedzenia rozpočtu nástrojov typu, aký používa EnterpriseArena, by mohli pomôcť vynútiť disciplínu v konaní u agentov pre spätný zápis do Beancountu.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class=""><strong>EcoGym</strong> (arXiv:2602.09514) — doplnkový benchmark pre dlhodobú ekonomiku v prostrediach Vending, Freelance a Operation počas viac ako 1 000 krokov; žiadny model nedominuje vo všetkých troch, čo naznačuje, že spôsoby zlyhania v EnterpriseArena nie sú špecifické len pre jeden dizajn benchmarku.</li>
<li class=""><strong>AFlow: Automating Agentic Workflow Generation</strong> (arXiv:2410.10762, ICLR 2025 oral) — preformulováva dizajn pracovných postupov ako vyhľadávanie v priestore kódu pomocou MCTS a spätnej väzby od LLM; ak EnterpriseArena ukazuje, že manuálne navrhnuté správanie agentov zlyháva, AFlow je zrejmým ďalším krokom k automatickému objavovaniu lepších procesov.</li>
<li class=""><strong>ToolLLM: Facilitating Large Language Models to Master 16,000+ Real-world APIs</strong> (arXiv:2307.16789, ICLR 2024) — základný rámec pre tréning a vyhodnocovanie používania nástrojov; pochopenie toho, ako sa správanie pri volaní nástrojov učí v ToolLLM, objasňuje, či je zlyhanie vo vyhýbaní sa akcii v EnterpriseArena problémom tréningu alebo promptingu.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Automation" term="Automation"/>
        <category label="Reconciliation" term="Reconciliation"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Cash Flow" term="Cash Flow"/>
        <category label="Financial Management" term="Financial Management"/>
        <category label="Forecasting" term="Forecasting"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[WildToolBench: Prečo žiadne LLM neprekračuje 15 % presnosť relácie pri používaní nástrojov v reálnom svete]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild"/>
        <updated>2026-07-10T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[WildToolBench (ICLR 2026) vyhodnocuje 57 LLM na 1 024 úlohách odvodených z reálneho správania používateľov – žiadny model neprekračuje 15 % presnosť relácie, pričom kompozičná orchestrácia, skrytý zámer a prechody v inštrukciách sú tri najvýraznejšie režimy zlyhania.]]></summary>
        <content type="html"><![CDATA[<p>Benchmarky na používanie nástrojov, ktoré som doteraz sledoval – BFCL, ToolBench, τ-bench – majú spoločnú konštrukčnú chybu: vytvárajú úlohy na základe predstáv autorov benchmarkov o tom, čo používatelia robia. WildToolBench, prijatý na ICLR 2026, sa vracia k reálnym logom používateľov a pýta sa, čo používatelia <em>skutočne</em> robia. Odpoveď je pokorujúca: z 57 vyhodnotených LLM ani jeden neprekročil 15 % presnosť relácie.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="odborná-publikácia">Odborná publikácia<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#odborn%C3%A1-publik%C3%A1cia" class="hash-link" aria-label="Priamy odkaz na Odborná publikácia" title="Priamy odkaz na Odborná publikácia" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=WildToolBench%3A%20Pre%C4%8Do%20%C5%BEiadne%20LLM%20neprekra%C4%8Duje%2015%20%25%20presnos%C5%A5%20rel%C3%A1cie%20pri%20pou%C5%BE%C3%ADvan%C3%AD%20n%C3%A1strojov%20v%20re%C3%A1lnom%20svete" alt="2026-07-10-wildtoolbench-benchmarking-llm-tool-use-in-the-wild" class="img_ev3q"></p>
<p>Peijie Yu, Wei Liu, Yifan Yang a kolegovia z Alibaby predstavujú WildToolBench (arXiv:2604.06185), benchmark s 256 scenármi viackolových dialógov s 1 024 úlohami čerpanými z autentických vzorcov správania používateľov a založenými na približne 1 600 verejných API. Hlavným argumentom je, že existujúce benchmarky sa nasýtia nie preto, že by modely boli dobré, ale preto, že úlohy sú umelé. Reálni používatelia spájajú požiadavky dokopy, vynechávajú kontext, ktorý zdieľali pred dvoma kolami, a prepínajú medzi kladením otázok o nástroji, bežnou konverzáciou a žiadosťou o vysvetlenie – niekedy v rámci jednej správy. WildToolBench operacionalizuje tieto režimy zlyhania do troch štruktúrovaných kategórií výziev a meria presnosť na úrovni úloh aj oveľa prísnejšiu presnosť na úrovni relácie, ktorá si vyžaduje úspech vo všetkých štyroch úlohách v dialógu.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class=""><strong>Presnosť relácie klesá u väčšiny modelov na jednociferné čísla</strong>: Gemini-2.0-Flash-Thinking vedie so 14,45 % presnosťou relácie, Claude-4-Sonnet má 12,50 %, GPT-4o 11,72 %. Úspešné zvládnutie všetkých úloh v štvorstupňovej relácii je také náročné, že aj 60 % presnosť na úrovni úloh sa prejaví v menej ako 15 % presnosti relácie – čo je daň za kombinovanú pravdepodobnosť pri každej interakcii.</li>
<li class=""><strong>Kompozičná orchestrácia je najstrmším útesom</strong>: Zmiešané sekvenčné a paralelné topológie nástrojov obmedzujú najlepšie modely na 25 % presnosť úloh v porovnaní s 54 – 62 % pri čisto paralelných alebo sekvenčných reťazcoch. Keď úloha vyžaduje paralelné rozvetvenie (fan-out) nasledované sekvenčným zlúčením (merge), problém koordinácie prevyšuje to, čo súčasné modely dokážu spoľahlivo zvládnuť.</li>
<li class=""><strong>Skrytý zámer je väčšou medzerou, než sa doteraz meralo</strong>: WildToolBench zabezpečuje, že 100 % úloh zahŕňa implicitné informácie alebo informácie z viacerých kôl; BFCL v3 to zvláda len na 15,7 %. Úlohy s dlhodobou závislosťou – kde chýbajúca informácia pochádza spred viac ako dvoch kôl – sú najťažším podtypom, pričom žiadny model neprekoná 50 % ani na úrovni úloh.</li>
<li class=""><strong>Prechody v inštrukciách znásobujú chyby lineárnym tempom</strong>: Každé ďalšie prepnutie politiky (úloha s nástrojom → čet → vysvetlenie → úloha s nástrojom) znižuje presnosť približne o 5 – 15 percentuálnych bodov. Pri troch prechodoch strácajú najviac zasiahnuté modely 30 bodov. Autori to nazývajú „vlastné podmieňovanie“ (self-conditioning): predchádzajúce odpovede ovplyvňujú interpretáciu následných inštrukcií modelom spôsobom, ktorý je ťažké opraviť uprostred relácie.</li>
<li class=""><strong>Miera optimálnej cesty (Optimal Path Rate) zostáva pod 43 %</strong>: Aj keď modely dokončia úlohy správne, spotrebujú nadbytočné volania API. Claude-4-Sonnet dosahuje najlepšiu mieru optimálnej cesty 42,74 %, čo znamená, že väčšina správnych dokončení vyžaduje viac krokov, než je potrebné – čo predstavuje priame náklady na latenciu a tokeny pre akýkoľvek produkčný systém.</li>
<li class=""><strong>Špecializované modely na používanie nástrojov zaostávajú za všeobecnými špičkovými modelmi</strong>: xLAM-2-70B aj ToolACE2-8B vykazujú mieru chýb v názvoch funkcií vyššiu ako 30 %, čo je horšie ako GPT-4o alebo Claude-4-Sonnet. Zdá sa, že jemné doladenie na úzkych korpusoch používania nástrojov vytvára skôr krehkosť než robustnosť pri prechode na distribúciu reálneho správania používateľov.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí – a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí – a čo nie" title="Priamy odkaz na Čo obstojí – a čo nie" translate="no">​</a></h2>
<p>Dizajn benchmarku je silný tam, kde na tom najviac záleží. Rozlíšenie medzi presnosťou úloh a presnosťou relácie je presne správne: hromadenie režimov zlyhania je to, čo zabíja reálne nasadenia, a väčšina predchádzajúcich prác uvádza čísla na úrovni úloh, ktoré to maskujú. Taxonómia troch výziev (kompozičná orchestrácia, skrytý zámer, prechody v inštrukciách) je dobre zdôvodnená a empiricky doložená – krivky degradácie výkonu naprieč typmi výziev sú reálne a markantné.</p>
<p>Slabým miestom je rozsah. 1 024 úloh z 256 scenárov je dôveryhodný výskumný artefakt, ale málo pre rebríček, ktorý má v priebehu času sledovať 57 modelov. Autori to priamo priznávajú a spomínajú automatizovanú škálovaciu líniu v budúcej práci. Ďalším problémom je, že tvrdenie „založené na reálnych logoch používateľov“ nesie veľkú váhu: výsledné úlohy sú čiastočne syntetické, zostavené multi-agentovým systémom z počiatočných vzorov a následne overené ľudskými anotátormi. Tvrdenie je podložené, ale dáta nie sú doslovne „divoké“ (wild) – sú divokým správaním inšpirované. To je dôležité pre to, ako doslovne interpretovať 15 % strop; časť medzery by sa mohla uzavrieť, ak proces generovania vnáša umelú náročnosť, ktorú reálni používatelia v skutočnosti nevykazujú.</p>
<p>Som tiež skeptický voči analýze prechodov v inštrukciách ako architektonickému tvrdeniu. Práca to pripisuje fundamentálnemu obmedzeniu, ale nesúlad v distribúcii tréningových dát medzi cieľmi jemného doladenia RLHF a multimodálnymi reláciami používateľov je úspornejším vysvetlením. To je riešiteľné, nie štrukturálne.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-ai-vo-financiách">Prečo je to dôležité pre AI vo financiách<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-ai-vo-financi%C3%A1ch" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre AI vo financiách" title="Priamy odkaz na Prečo je to dôležité pre AI vo financiách" translate="no">​</a></h2>
<p>Tieto tri režimy zlyhania takmer dokonale zodpovedajú tomu, ako reálni používatelia interagujú s agentom na zápis do Beancountu. Používateľ sa spýta: „Koľko som minul na potraviny minulý mesiac a rovno tam pridaj dnešný blok z Whole Foods“ – to je kompozičná úloha spojená do jedného kola. Nasleduje: „Vlastne to zmeň na 47,23 USD, nie 42, pozrel som si to“ – to je oprava parametra vyžadujúca, aby agent sledoval stav relácie. Potom sa opýtajú: „Je tá kategória správna?“ – to je žiadosť o vysvetlenie a agent nesmie znova vykonať operáciu zápisu, ktorú práve dokončil. 25 % strop na zmiešanú sekvenčnú a paralelnú orchestráciu a 30-bodový pokles pri prechodoch v inštrukciách sú presne tie režimy zlyhania, ktoré by sa prejavili u agenta spravujúceho účtovnú knihu pri vybavovaní reálnych relácií používateľov.</p>
<p>Zistenie, že špecializované modely na používanie nástrojov zaostávajú za všeobecnými špičkovými modelmi, je obzvlášť relevantné. Ak by sme uvažovali o jemnom doladení menšieho otvoreného modelu na príkladoch volania nástrojov špecifických pre Beancount – čo je logický krok na zníženie nákladov – WildToolBench je priamym varovaním, že špecializácia môže obetovať robustnosť voči distribúcii skutočného správania používateľov. Dôležité je aj zistenie o miere optimálnej cesty: agent, ktorý na dokončenie úlohy spotrebuje dvakrát viac volaní API, je nielen neefektívny; pri operáciách spätného zápisu môžu nadbytočné medzikroky zanechať účtovnú knihu v nekonzistentných medzistavoch.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class=""><strong>ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world APIs</strong> (arXiv:2307.16789, ICLR 2024) – základný tréningový rámec, voči ktorému sa WildToolBench explicitne vymedzuje; pochopenie jeho dizajnu syntetického vyhodnocovania objasňuje, čo presne prináša živé vykonávanie úloh.</li>
<li class=""><strong>τ-bench: A Benchmark for Tool-Agent-User Interaction in Real-World Domains</strong> (arXiv:2406.12045) – najbližšia predchádzajúca práca o realistickom viackolovom používaní nástrojov; porovnanie domén maloobchodu/leteckej dopravy v τ-bench s pokrytím verejných API vo WildToolBench ukazuje, nakoľko je táto výzva všeobecná.</li>
<li class=""><strong>AFlow: Automating Agentic Workflow Generation</strong> (arXiv:2410.10762, ICLR 2025 oral) – ak je problém prechodov v inštrukciách riešiteľný automatickým objavovaním lepších pracovných postupov agentov namiesto škálovania tréningových dát, AFlow je najdôveryhodnejším mechanizmom, ako to dosiahnuť.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Automation" term="Automation"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Technology" term="Technology"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Istota a kalibrácia LLM: Prehľad toho, čo výskum v skutočnosti ukazuje]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey"/>
        <updated>2026-07-09T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[Systematický prehľad metód odhadu istoty a kalibrácie LLM – prístupy bielej skrinky cez logity, SelfCheckGPT založený na konzistencii a sémantická entropia – odhaľuje, že skóre verbalizovanej istoty z GPT-4 dosahuje len ~62,7 % AUROC, čo je tesne nad hranicou náhody, s priamymi dôsledkami pre nasadenie agentov citlivých na neistotu vo financiách a účtovníctve.]]></summary>
        <content type="html"><![CDATA[<p>Minulý týždeň som sa venoval nástroju ReDAct, ktorý smeruje rozhodnutia agenta k drahému záložnému modelu, keď neistota lacného modelu prekročí kalibrovanú hranicu. Tento článok veľa hovorí o „neistote“ – oplatí sa zastaviť a pochopiť, čo veda v skutočnosti vie o jej meraní a kalibrácii. Práca Geng a kol. „A Survey of Confidence Estimation and Calibration in Large Language Models“ (NAACL 2024) je tým správnym miestom, kde začať: systematická taxonómia toho, čo funguje, čo nie a čo ešte nikto nemeral.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="o-článku">O článku<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#o-%C4%8Dl%C3%A1nku" class="hash-link" aria-label="Priamy odkaz na O článku" title="Priamy odkaz na O článku" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=Istota%20a%20kalibr%C3%A1cia%20LLM%3A%20Preh%C4%BEad%20toho%2C%20%C4%8Do%20v%C3%BDskum%20v%20skuto%C4%8Dnosti%20ukazuje" alt="2026-07-09-confidence-estimation-calibration-llms-survey" class="img_ev3q"></p>
<p>Geng, Cai, Wang, Koeppl, Nakov a Gurevych skúmajú vznikajúcu literatúru o odhade istoty a kalibrácii LLM v úlohách siahajúcich od QA s výberom odpovedí až po generovanie s otvoreným koncom a strojový preklad. Jadro problému: LLM môžu byť vysoko presné a zároveň úplne nespoľahlivé spôsobmi, ktoré je zvonku ťažké rozlíšiť. Prehľad organizuje priestor riešení do dvoch hlavných vetiev – metódy bielej skrinky (white-box), ktoré využívajú prístup k vnútorným stavom modelu, a metódy čiernej skrinky (black-box), ktoré pristupujú k modelu ako k nepriehľadnému – a v rámci každej ďalej rozlišuje medzi odhadom istoty a jej následnou (post hoc) kalibráciou.</p>
<p>Článok bol publikovaný na NAACL 2024 (strany 6577–6595), revidovaný v marci 2024 z novembrového podania z roku 2023 tímom z TU Darmstadt, MBZUAI a Mohamed bin Zayed University of AI.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class="">
<p><strong>Istota typu biela skrinka cez logity</strong>: Najjednoduchší prístup využíva pravdepodobnosti na úrovni tokenov alebo dĺžkovo normalizovanú log-pravdepodobnosť (log-likelihood) ako signál istoty. Tieto metódy fungujú, ale čelia základnej nejednoznačnosti: nízka pravdepodobnosť tokenu môže odrážať nízku faktickú istotu alebo jednoducho nezvyčajné formulácie – model môže byť neistý vo výbere slov, pričom si je istý podkladovým faktom.</p>
</li>
<li class="">
<p><strong>Istota typu čierna skrinka založená na konzistencii (SelfCheckGPT)</strong>: Manakul a kol. (EMNLP 2023) vzorkujú viacero dokončení a vyhodnocujú ich vzájomnú konzistenciu pomocou BERTScore, NLI alebo n-gramového prekrytia. Nie je potrebný prístup k logitom. Kľúčový poznatok: pri faktoch, ktoré LLM dobre pozná, sa opakované vzorky zhodujú; pri halucinovanných faktoch sa rozchádzajú.</p>
</li>
<li class="">
<p><strong>Sémantická entropia</strong>: Farquhar a kol. (<em>Nature</em>, 2024) zoskupujú sémanticky ekvivalentné odpovede pred výpočtom entropie. LLM môže formulovať „Paríž“ a „hlavné mesto Francúzska“ odlišne – surová entropia tokenov ich považuje za divergentné, sémantická entropia nie. Toto je kvalitatívny krok vpred oproti konzistencii na úrovni tokenov, ktorý tento prehľad uvádza do kontextu.</p>
</li>
<li class="">
<p><strong>Verbalizovaná istota je nepoužiteľná</strong>: Keď sú modely požiadané, aby uviedli percento istoty, skĺzavajú k nadmernej sebaistote. Empirická práca (Groot a kol., TrustNLP na ACL 2024) zisťuje, že GPT-3, GPT-3.5 a Vicuna vykazujú priemernú očakávanú chybu kalibrácie (ECE) presahujúcu 0,377 pre verbalizovanú istotu, pričom predpovede sa zhlukujú v rozsahu 90 – 100 % bez ohľadu na skutočnú presnosť. Dokonca aj GPT-4 – najlepšie kalibrovaný hodnotený model – dosahuje AUROC len ~62,7 % pri použití verbalizovanej istoty na rozlíšenie správnych od nesprávnych odpovedí, čo je len tesne nad úrovňou náhody.</p>
</li>
<li class="">
<p><strong>Techniky kalibrácie sa líšia podľa úlohy</strong>: Pri klasifikácii riešia známe systematické skreslenia kontextová kalibrácia (odčítanie predpätia prioritnej triedy odhadnutého pomocou prázdnej výzvy „[N/A]“) a odstránenie pozičného skreslenia (PriDE). Pri generovaní dolaďuje modely na zoradených dokončeniach metóda Sequence Likelihood Calibration (SLiC). Škálovanie teploty (temperature scaling) – najjednoduchšia post-hoc oprava – zostáva konkurencieschopné v mnohých nastaveniach.</p>
</li>
<li class="">
<p><strong>Neexistuje žiadny zjednotený benchmark</strong>: Najviac usvedčujúce štrukturálne pozorovanie prieskumu: neexistuje jediný benchmark zahŕňajúci metódy odhadu istoty naprieč úlohami a doménami. To znemožňuje prísne porovnanie metód. Odbor v súčasnosti porovnáva jablká s hruškami.</p>
</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí – a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí – a čo nie" title="Priamy odkaz na Čo obstojí – a čo nie" translate="no">​</a></h2>
<p>Taxonómia je solídna. Rozlíšenie medzi bielou a čiernou skrinkou je skutočne užitočné pre návrh systému a spracovanie metód založených na logitoch je úprimné v ich limitoch – autori priamo poznamenávajú, že pravdepodobnosť tokenu spája faktickú istotu s lexikálnou neistotou. Praktici toto spojenie často podceňujú.</p>
<p>V čom ma prieskum frustruje: je prevažne opisný. Neobsahuje takmer žiadne experimentálne benchmarky porovnávajúce metódy priamo medzi sebou a autori to výslovne priznávajú ako obmedzenie. Môžem odísť s jasnou mapou možností návrhu, ale bez návodu, ktorú metódu použiť pre novú úlohu.</p>
<p>Výsledky verbalizovanej istoty – AUROC GPT-4 ~62,7 % pri vlastnej deklarovanej istote – by mali byť kánonom pre každého, kto nasadzuje LLM do produkcie. Nie sú. Ľudia stále používajú prompty, ktoré sa pýtajú „na stupnici od 1 do 10, ako si si istý?“ a považujú odpoveď za zmysluplnú. Nie je.</p>
<p>Prieskum je tiež stručný v otázke kalibrácie RLHF: robí dotrénovanie pomocou ľudskej spätnej väzby modely lepšie alebo horšie kalibrovanými? Existujú dôkazy pre obe tvrdenia a prieskum sa im z veľkej časti vyhýba.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-finančnú-ai">Prečo je to dôležité pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre finančnú AI" title="Priamy odkaz na Prečo je to dôležité pre finančnú AI" translate="no">​</a></h2>
<p>ReDAct stavia svoj príbeh bezpečnosti na kalibrovanom signále neistoty z lacného modelu. Tento prieskum jasne ukazuje, aké ťažké to v skutočnosti je. Signály založené na logitoch sú dostupné v nastaveniach bielej skrinky, ale spájajú lexikálnu a faktickú neistotu. Metódy založené na konzistencii fungujú v nastaveniach čiernej skrinky, ale vyžadujú viacero vzoriek na jedno rozhodnutie – čo je drahé pre agenta pre spätný zápis do Beancountu s vysokou priepustnosťou, ktorý spracováva dávku transakčných položiek.</p>
<p>Najviac využiteľné zistenie pre Bean Labs: sémantická entropia zoskupuje sémanticky ekvivalentné odpovede pred hodnotením konzistencie, čo je presne to, na čom záleží pri zápisoch do účtovnej knihy, kde model môže vyjadriť rovnaký vzťah Má dať/Dal vo viacerých syntakticky odlišných formách. Agent Beancount by mal na detekciu halucinácií názvu účtu alebo sumy používať sémantické zhlukovanie nad vzorkovanými dokončeniami zápisov, nie surový rozptyl na úrovni tokenov.</p>
<p>Zlyhanie kalibrácie verbalizovanej istoty je priamym varovaním pre akékoľvek používateľské rozhranie, ktoré používateľovi zobrazuje „ako si je AI istá?“: nedôverujte číslu, ktoré model vyprodukuje. Namiesto toho použite externý kalibrátor alebo metódu založenú na konzistencii, alebo ho nezobrazujte vôbec.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class="">Farquhar a kol., „Detecting hallucinations in large language models using semantic entropy“, <em>Nature</em>, 2024 – najprísnejšia metóda, ktorá vyplýva z tohto rámca; oplatí sa prečítať celú, nielen cez zhrnutie v prieskume.</li>
<li class="">Manakul a kol., „SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models“, EMNLP 2023 (arXiv:2303.08896) – kánonická metóda založená na konzistencii; nevyhnutná pre pochopenie pred nasadením akéhokoľvek signálu istoty čiernej skrinky.</li>
<li class="">Groot a kol., „Overconfidence is Key: Verbalized Uncertainty Evaluation in Large Language and Vision-Language Models“, TrustNLP na ACL 2024 (arXiv:2405.02917) – najdôkladnejší empirický audit toho, ako verbalizovaná istota zlyháva naprieč modelmi a úlohami.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Trust" term="Trust"/>
        <category label="Finance" term="Finance"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Hallucination Detection" term="Hallucination Detection"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[JSONSchemaBench: Komplexita schém v reálnom svete narúša garancie štruktúrovaného výstupu LLM]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models"/>
        <updated>2026-07-08T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[JSONSchemaBench testuje 9 558 reálnych JSON schém voči šiestim frameworkom pre obmedzené dekódovanie a zisťuje, že komplexita schém spôsobuje kolaps pokrytia z 86 % pri jednoduchých schémach na 3 % pri komplexných, pričom XGrammar ticho vyprodukoval 38 nevyhovujúcich výstupov a žiadny framework nepokrýva všetkých 45 kategórií funkcií JSON schém.]]></summary>
        <content type="html"><![CDATA[<p>Väčšina tímov považuje obmedzené dekódovanie za vyriešený problém – stačí pridať JSON schému a získate platný JSON. JSONSchemaBench (arXiv:2501.10868) je prvým systematickým pokusom o otestovanie tohto predpokladu na 9 558 reálnych schémach a výsledky sú menej upokojujúce, než by naznačoval marketing.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="práca">Práca<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#pr%C3%A1ca" class="hash-link" aria-label="Priamy odkaz na Práca" title="Priamy odkaz na Práca" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=JSONSchemaBench%3A%20Komplexita%20sch%C3%A9m%20v%20re%C3%A1lnom%20svete%20nar%C3%BA%C5%A1a%20garancie%20%C5%A1trukt%C3%BArovan%C3%A9ho%20v%C3%BDstupu%20LLM" alt="2026-07-08-jsonschemabench-structured-outputs-language-models" class="img_ev3q"></p>
<p>Saibo Geng, Hudson Cooper, Michał Moskal a kolegovia z Microsoft Research predstavujú JSONSchemaBench, benchmark 9 558 schém čerpaných z reálnych produkčných zdrojov: signatúr volaní funkcií GlaiveAI, repozitárov GitHub rozvrstvených podľa zložitosti od triviálnych po ultra, konfigurácií Kubernetes API, schém analýzy udalostí Snowplow a kolekcie JSONSchemaStore. Hodnotia šesť frameworkov pre obmedzené dekódovanie – Guidance, Outlines, Llamacpp, XGrammar, OpenAI Structured Outputs a Gemini – v troch osiach: pokrytie (akú časť schém framework vôbec zvládne), efektívnosť (réžia v počte tokenov za sekundu oproti neobmedzenému generovaniu) a kvalita (presnosť následných úloh). Hodnotiaca mriežka zahŕňa aj oficiálnu testovaciu sadu JSON Schema Test Suite, ktorá dokumentuje 45 kategórií funkcií, ktoré by mal podporovať každý vyhovujúci engine.</p>
<p>Hlavným tvrdením je, že komplexita schémy je rozhodujúcou premennou, ktorá oddeľuje schopné frameworky od tých krehkých, a že žiadny framework nedominuje vo všetkých troch osiach.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class=""><strong>Pokrytie kolabuje pod komplexitou schém.</strong> Pri jednoduchých schémach GlaiveAI dosahujú všetky frameworky skóre nad 86 %. Ale pri schémach GitHub-Hard – viacúrovňové vnorenie, rekurzívne definície, komplexné obmedzenia vzorov – Guidance klesá na 41 %, Llamacpp na 39 %, XGrammar na 28 % a Outlines na katastrofálne 3 %. OpenAI dosahuje len 9 % na GitHub-Hard a Gemini neprodukuje žiadne platné výstupy pri schémach strednej alebo vyššej zložitosti.</li>
<li class=""><strong>Kubernetes odhaľuje špecifickú slabinu v XGrammar.</strong> Napriek tvrdeniam o rýchlosti XGrammar dosahuje len 7 % pokrytie pri schémach Kubernetes, pravdepodobne preto, že tieto schémy sa spoliehajú na vzory závislé od kontextu, ktoré nezávislá predbežná kalkulácia kontextu v XGrammar nedokáže spracovať. Pokrytie voči benchmarku, ktorý zahŕňa konfigurácie Kubernetes, nie je pre produkčných agentov voliteľné.</li>
<li class=""><strong>Nedostatočné obmedzenie (under-constrained) je nebezpečnejšie ako zlyhanie kompilácie.</strong> XGrammar vykazuje 38 zlyhaní z dôvodu nedostatočného obmedzenia voči JSON Schema Test Suite – čo znamená, že vygeneruje JSON, ktorý porušuje deklarovanú schému, pričom ticho hlási úspech. Guidance má len 1 takéto zlyhanie. Pre agenta so spätným zápisom je chyba kompilácie zachytená v čase návrhu; zlyhanie z dôvodu nedostatočného obmedzenia poškodí dáta za behu bez akéhokoľvek signálu.</li>
<li class=""><strong>Rýchly posun vpred (fast-forwarding) v Guidance prináša skutočné 50 % zrýchlenie.</strong> Ak sú prítomné dlhé deterministické sekvencie (napr. názvy polí v pevnej štruktúre objektu), Guidance môže postúpiť o viacero tokenov v jednom kroku dekódovania. Na Llama-3.1-8B na A100 beží Guidance rýchlosťou 6–9 ms na výstupný token, zatiaľ čo neobmedzené generovanie trvá 15–16 ms. Outlines je pomalší ako neobmedzené generovanie s 30–46 ms, hlavne kvôli počiatočnej kompilácii automatu, ktorá trvá 3–8 sekúnd na schému.</li>
<li class=""><strong>Obmedzené dekódovanie mierne zlepšuje presnosť uvažovania.</strong> Na GSM8K (matematika) Guidance zvyšuje presnosť z 80,1 % (neobmedzené) na 83,8 %. Pri úlohách Last Letter a Shuffle Objects sú zisky v rozmedzí 1–3 bodov. To odporuje často uvádzanej obave, že vynútenie formátu JSON znižuje kvalitu odpovede – efekt je však dostatočne malý na to, aby výber formátu nebol hlavným kritériom pri voľbe frameworku.</li>
<li class=""><strong>Žiadny framework nepokrýva všetkých 45 kategórií funkcií JSON Schema.</strong> Guidance pokrýva 13, Llamacpp a XGrammar každý po 1 a Outlines pokrýva 0. Praktickým dôsledkom je, že akákoľvek schéma používajúca <code>if/then/else</code>, <code>unevaluatedProperties</code> alebo rekurzívne definície <code>$ref</code>, sa bude správať nepredvídateľne v závislosti od toho, aký engine sa nachádza "pod kapotou".</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Najsilnejším prínosom benchmarku je výber zdrojov schém. Predchádzajúce hodnotenia používali triviálne schémy alebo kolekcie z jedného zdroja. Zahrnutie konfigurácií Kubernetes popri signatúrach volaní funkcií je správnym druhom kontradiktórnej diverzity. Stratifikácia zložitosti (od triviálnej po ultra) tiež poskytuje odborníkom kalibračnú krivku: ak vaše schémy vyzerajú ako volania funkcií GlaiveAI, XGrammar aj Guidance sú v poriadku; ak vyzerajú ako manifesty Kubernetes, vaše možnosti sa rýchlo zužujú.</p>
<p>Hlavnou slabinou je hodnotenie na základe jednej vzorky s využitím greedy dekódovania. Meranie pokrytia jednou generáciou na schému podhodnocuje skutočné schopnosti – framework môže zlyhať v 20 % prípadov, ale uspieť pri opakovanom pokuse. Práca to priznáva, ale neuvádza čísla pass@k pri vzorkovaní s teplotou (temperature sampling), čo by bolo dôležité pre produkčné systémy, ktoré pri zlyhaní vykonávajú opakované pokusy.</p>
<p>Porovnanie tiež mieša neporovnateľné modely. Open-source frameworky (Guidance, Outlines, Llamacpp, XGrammar) sú testované na Llama-3.2-1B, zatiaľ čo OpenAI a Gemini bežia na vlastných nezverejnených modeloch. 9 % pokrytie OpenAI na GitHub-Hard môže odrážať schopnosti modelu rovnako ako architektúru obmedzeného dekódovania. Spravodlivé porovnanie by si vyžadovalo kontrolovaný prístup k modelu – čo autori od proprietárnych poskytovateľov samozrejme nemôžu vynútiť.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-finančnú-ai">Prečo je to dôležité pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre finančnú AI" title="Priamy odkaz na Prečo je to dôležité pre finančnú AI" translate="no">​</a></h2>
<p>Každý agent so spätným zápisom v Beancounte generuje štruktúrovaný výstup. Ak agent generuje direktívy Beancount ako JSON pred ich konverziou na syntax <code>.beancount</code>, alebo ak volá nástroje cez JSON schémy, spoľahlivosť tejto generácie JSON nie je detail – je to základ celého procesu. Práca FinTrace ukázala, že špičkové modely zlyhávajú pri uvažovaní nad výstupmi nástrojov; JSONSchemaBench odhaľuje iný problém: ešte pred samotným uvažovaním môže formátovacia vrstva ticho vyprodukovať nevyhovujúci výstup.</p>
<p>Výsledok s Kubernetes je obzvlášť príznačný pre Beancount. Schémy účtovných kníh nie sú len ploché sady kľúčov a hodnôt. Hierarchie účtov, metadáta transakcií a štruktúry tagov vytvárajú vnorené rekurzívne vzory podobné objektom Kubernetes API. Framework, ktorý dosahuje 7 % v Kubernetes, nie je pripravený na komplexné schémy účtovných kníh bez ohľadu na to, aká nízka je jeho réžia na token.</p>
<p>Režim zlyhania z dôvodu nedostatočného obmedzenia (under-constrained) je to, čo by mi nedalo spať. Beancount agent používajúci XGrammar by mohol vygenerovať transakciu, ktorá prejde internou kontrolou validácie frameworku, ale poruší skutočnú schému – a agent by nemal dôvod na opakovaný pokus. Tiché poškodenie dát je horšie ako viditeľné zlyhanie.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class=""><strong>XGrammar</strong> (arXiv:2411.15100, Dong et al.) – technická práca v pozadí jedného z najrýchlejších testovaných frameworkov, vysvetľujúca rozdelenie tokenov na nezávislé a závislé od kontextu a prečo ho schémy Kubernetes zaťažujú.</li>
<li class=""><strong>Grammar-Aligned Decoding / ASAp</strong> (NeurIPS 2024) – ukazuje, že maskovanie tokenov v obmedzenom dekódovaní môže skresliť pravdepodobnostné rozdelenie modelu a navrhuje opravený algoritmus vzorkovania; teoretický základ pre obavy o kvalitu, ktoré benchmark meria len nepriamo.</li>
<li class=""><strong>XGrammar-2</strong> (arXiv:2601.04426) – nadväzujúca práca, ktorá rozširuje XGrammar na dynamické schémy v agentických prostrediach, kde sa samotná schéma mení počas relácie s viacerými kolami, čo je priamo relevantné pre agentov Beancount, ktorí prispôsobujú formát výstupu podľa toho, ktoré typy účtov sú aktívne.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Automation" term="Automation"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Performance" term="Performance"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[FinMCP-Bench: Benchmarking agentov LLM pre používanie finančných nástrojov v reálnom svete pod protokolom MCP]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol"/>
        <updated>2026-07-07T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[FinMCP-Bench vyhodnocuje šesť modelov LLM na 613 úlohách používania finančných nástrojov v reálnom svete s podporou 65 serverov MCP – najlepší model dosahuje 3,08 % mieru presnej zhody pri viacotáčkových úlohách, čo odhaľuje 20-násobný pokles výkonu pri prechode z jednonástrojových na viacotáčkové scenáre.]]></summary>
        <content type="html"><![CDATA[<p>MCP sa stal de facto štandardom pre prepojenie nástrojov LLM – spoločnosť Anthropic ho predstavila koncom roka 2024 a do začiatku roka 2026 ho prijali všetci hlavní poskytovatelia modelov. FinMCP-Bench (arXiv:2603.24943, ICASSP 2026) je prvý benchmark postavený na skutočných serveroch nástrojov MCP špeciálne pre finančných agentov a prišiel práve v správnom čase, aby nám povedal, či toto štandardizované prepojenie skutočne pomáha agentom vykonávať užitočnú finančnú prácu.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="o-článku">O článku<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#o-%C4%8Dl%C3%A1nku" class="hash-link" aria-label="Priamy odkaz na O článku" title="Priamy odkaz na O článku" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinMCP-Bench%3A%20Benchmarking%20agentov%20LLM%20pre%20pou%C5%BE%C3%ADvanie%20finan%C4%8Dn%C3%BDch%20n%C3%A1strojov%20v%20re%C3%A1lnom%20svete%20pod%20protokolom%20MCP" alt="2026-07-07-finmcp-bench-llm-agents-financial-tool-use-model-context-protocol" class="img_ev3q"></p>
<p>Jie Zhu, Yimin Tian a kolegovia z tímu Alibaba Cloud Qwen DianJin, YINGMI Wealth Management a univerzity Soochow University predstavujú FinMCP-Bench, vyhodnocovaciu sadu so 613 vzorkami, ktorá pokrýva 10 kategórií finančných scenárov a 33 subscenárov. Nástroje nie sú simulované – benchmark podporuje 65 skutočných finančných serverov kompatibilných s MCP, čerpaných zo skutočných produkčných logov finančného asistenta aplikácie Qieman APP. Autori kategorizujú vzorky do troch typov: 145 s jedným nástrojom, 249 s viacerými nástrojmi a 219 viacotáčkových. Testujú šesť modelov: rodinu Qwen3 s počtom parametrov 4B, 30B a 235B (všetky s rozšíreným premýšľaním), plus DeepSeek-R1, GPT-OSS-20B a Seed-OSS-36B. Hlavnými metrikami vyhodnotenia sú presnosť nástroja (Tool Precision), úplnosť nástroja (Tool Recall), Tool F1 a miera presnej zhody (Exact Match Rate – EMR), ktorá vyžaduje, aby každé volanie nástroja v sekvencii bolo úplne správne.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class=""><strong>MCP ako základ pre vyhodnocovanie</strong>: používanie skutočných definícií serverov MCP namiesto syntetických schém API odstraňuje veľkú priepasť medzi vyhodnocovaním benchmarkov a tým, čomu agenti skutočne čelia v nasadených finančných systémoch.</li>
<li class=""><strong>Trojité rozdelenie náročnosti</strong>: vzorky s jedným nástrojom, viacerými nástrojmi a viacotáčkové vzorky nie sú len kvantitatívne rozdiely – odhaľujú kvalitatívne odlišné chybové režimy.</li>
<li class=""><strong>Kolaps pri viacerých otáčkach</strong>: najlepší model (Qwen3-235B) dosahuje 60 % EMR pri jednom nástroji, 10,62 % EMR pri viacerých nástrojoch a 3,08 % EMR pri viacerých otáčkach. Pokles z jednej otáčky na viacotáčkový scenár je 20-násobný.</li>
<li class=""><strong>Tool F1 je zhovievavejší</strong>: ten istý model dosahuje 66,85 %, 69,42 % a 41,56 % TF1 v týchto troch nastaveniach – čo ukazuje, že modely často vyberú správne nástroje, ale zlyhávajú v poradí, parametrizácii alebo sledovaní konverzácie.</li>
<li class=""><strong>Úplnosť (Recall) víťazí nad presnosťou pri jednom nástroji</strong>: modely majú tendenciu volať nástroje nadmerne, keď si nie sú isté, namiesto nedostatočného volania, čo je bezpečnejší chybový režim pre finančné úlohy, ale stále to znamená zbytočné volania API a šum v stope uvažovania.</li>
<li class=""><strong>Nemonotónne škálovanie podľa veľkosti</strong>: Qwen3-30B neprekonáva Qwen3-4B konzistentne vo všetkých subscenároch, čím vyvracia predpoklad, že väčší model pri viacstupňovom používaní nástrojov vždy vyhráva.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Použitie skutočných produkčných logov ako zdroja pre príklady s jedným nástrojom je tu najsilnejším metodologickým rozhodnutím. Uzemňuje to benchmark v skutočnom správaní používateľov namiesto scenárov vymyslených výskumníkmi, čo je v literatúre o finančnej AI zriedkavé. Viacnástrojové a viacotáčkové vzorky sú synteticky rozšírené pomocou grafov závislostí a promptov na hranie rolí, čo je vzhľadom na náklady na označovanie rozumné, ale prináša to riziko: proces syntézy má tendenciu vytvárať čistejšie a priamočiarejšie dopyty, než aké píšu skutoční používatelia. Hodnota 3,08 % EMR pri viacotáčkových úlohách je znepokojujúca, ale mala by sa interpretovať opatrne – EMR vyžaduje, aby celá sekvencia bola úplne správna, takže jedno nesprávne medzipriľahlé volanie nástroja znamená zlyhanie celej úlohy. To je prísny a pravdepodobne nereálny produkčný štandard; metriky s čiastočným kreditom ako TF1 rozprávajú nuansovanejší príbeh.</p>
<p>Čo článok nerieši: chýba analýza toho, či je výkonnostná medzera primárne problémom v pochopení vstupu (model si zle vysvetlí, čo používateľ chce), problémom s formátovaním výstupu (správny zámer, ale zle sformátované volanie nástroja) alebo problémom v uvažovaní (nesprávne priebežné závery). Bez tohto rozkladu je ťažké vedieť, kam investovať inžinierske úsilie. Článok tiež vyhodnocuje modely izolovane; chýba test, či pridanie kroku overenia alebo reflexie mení obraz pri viacotáčkových úlohách.</p>
<p>Benchmark je tiež hlboko spätý so špecifickými 65 nástrojmi spoločnosti Qieman, čo obmedzuje prenos výsledkov na iné finančné platformy s inými sadami nástrojov.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-finančnú-ai">Prečo je to dôležité pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre finančnú AI" title="Priamy odkaz na Prečo je to dôležité pre finančnú AI" translate="no">​</a></h2>
<p>FinMCP-Bench je najbližšie publikované vyhodnotenie toho, čo by skutočne robil agent pre zápis do Beancountu: prijal by požiadavku používateľa, identifikoval, ktorý nástroj (alebo reťazec nástrojov) sa má použiť, vyvolal by ich v poradí a spracoval by následné otázky. Viacotáčkové EMR na úrovni 3,08 % je tvrdým vytriezvením. Beancount agent, ktorý spravuje viacstupňovú opravu účtovnej knihy – povedzme reklasifikáciu sady transakcií medzi účtami v časovom rozsahu, následné odsúhlasenie a vygenerovanie reportu – je presne ten druh viacotáčkovej a viacnástrojovej úlohy, pri ktorej súčasné modely podľa štandardov presnej zhody takmer univerzálne zlyhávajú.</p>
<p>Rámec MCP je priamo relevantný: Python API Beancountu, rozhranie beanquery a REST vrstva favy by sa dali zabaliť ako MCP servery. FinMCP-Bench nám hovorí, že protokol nie je úzkym hrdlom – ním je uvažovanie nad sekvenciami volaní nástrojov.</p>
<p>Zistenie, že úplnosť (recall) nástrojov prevyšuje presnosť (modely volajú nástroje nadmerne), je dôležité aj pre bezpečnosť zápisu: agent, ktorý zavolá nástroj na zmenu účtovnej knihy, keď bolo potrebné iba čítanie, by mohol ticho poškodiť účtovnú knihu. Primárnym bezpečnostným signálom pre agentov so schopnosťou zápisu by mali byť metriky zamerané na presnosť, nie na úplnosť.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class=""><strong>JSONSchemaBench</strong> (arXiv:2501.10868) – vyhodnocuje spoľahlivosť štruktúrovaného výstupu na 10 000 schémach JSON; priamo rieši, či sú zlyhania formátovania volaní nástrojov vo FinMCP-Bench problémom s obmedzeným dekódovaním.</li>
<li class=""><strong>ToolLLM</strong> (arXiv:2307.16789, ICLR 2024) – základný rámec pre trénovanie používania nástrojov, voči ktorému sa FinMCP-Bench vymedzuje; pochopenie jeho prieskumu stromu vyhľadávania do hĺbky objasňuje, čo pridáva metodológia FinMCP-Bench založená na produkčných logoch.</li>
<li class=""><strong>WildToolBench</strong> (arXiv:2604.06185) – vyhodnocuje používanie nástrojov na reálnych dopytoch používateľov v praxi; jeho zistenie, že žiadny model nepresahuje 15 % presnosť pri reálnom správaní používateľov, dopĺňa prístup FinMCP-Bench založený na produkčných logoch.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Automation" term="Automation"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Fintech" term="Fintech"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Reconciliation" term="Reconciliation"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[FinTrace: Hodnotenie volania nástrojov LLM pre finančné úlohy na úrovni trajektórie]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks"/>
        <updated>2026-07-06T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[FinTrace testuje 13 modelov LLM na 800 expertmi anotovaných trajektóriách finančných úloh v 9 metrikách. Zisťuje, že najvýkonnejšie modely dosahujú silný výber nástrojov (F1 ~ 0,9), ale v oblasti využitia informácií – kroku, v ktorom agenti uvažujú nad tým, čo nástroje vrátili – získavajú len 3,23/5.]]></summary>
        <content type="html"><![CDATA[<p>FinTrace (arXiv:2604.10015) prichádza týždeň po FinToolBench, ktorý som zaznamenal minule, a tieto dva články spolu priamo komunikujú. Zatiaľ čo FinToolBench meria, či agent volá správne nástroje, FinTrace kladie ťažšiu otázku: aj keď agent zavolá správne nástroje, skutočne uvažuje nad výsledkami? Tento rozdiel je jadrom celého článku a podľa môjho názoru aj jadrom celého problému agenta pre spätný zápis do Beancountu.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="o-článku">O článku<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#o-%C4%8Dl%C3%A1nku" class="hash-link" aria-label="Priamy odkaz na O článku" title="Priamy odkaz na O článku" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinTrace%3A%20Hodnotenie%20volania%20n%C3%A1strojov%20LLM%20pre%20finan%C4%8Dn%C3%A9%20%C3%BAlohy%20na%20%C3%BArovni%20trajekt%C3%B3rie" alt="2026-07-06-fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks" class="img_ev3q"></p>
<p>Cao a kol. predstavujú FinTrace, benchmark s 800 expertmi anotovanými trajektóriami, ktoré pokrývajú 34 kategórií finančných úloh z reálneho sveta v troch úrovniach náročnosti: ľahkej, strednej a ťažkej. Autori postavili svoje hodnotenie na systéme deviatich metrík usporiadaných do štyroch osí: <strong>správnosť akcií</strong> (F1 skóre volania nástrojov, relevancia úlohy), <strong>efektivita vykonávania</strong> (efektivita krokov, skóre redundancie), <strong>kvalita procesu</strong> (logický postup, využitie informácií, skóre progresu) a <strong>kvalita výstupu</strong> (miera úspešnosti úlohy, kvalita finálnej odpovede). Vyhodnotili 13 modelov LLM a zverejnili aj FinTrace-Training, súbor údajov s 8 196 vybranými preferenčnými trajektóriami na doladenie.</p>
<p>Hlavným tvrdením je, že najvýkonnejšie (frontier) modely zvládli výber nástrojov, ale systematicky zlyhávajú v ťažšom kroku: v používaní toho, čo nástroje vrátia. Benchmark to skúma pomocou 5-bodovej stupnice pre využitie informácií, logický postup a skóre progresu, plus algoritmické metriky pre F1 nástrojov a efektivitu krokov.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class="">Najlepšie fungujúci model, Claude-Opus-4.6, dosahuje F1 skóre volania nástrojov 0,896 — čo je silný výber — ale získava len 3,23/5 vo využití informácií, čo je najslabšia zo štyroch metrík zameraných na výstup.</li>
<li class="">Claude-Opus-4.6 má mieru úspešnosti úloh 2,65/5 a kvalitu konečnej odpovede 3,34/5; ani tie najlepšie modely nekonzistentne produkujú správne a úplné odpovede.</li>
<li class="">Qwen-3.5-9B vykazuje degeneratívny vzorec: takmer dokonalú efektivitu krokov (1,000) a redundanciu (1,000), pretože takmer nevolá žiadne nástroje, čo sa odráža v F1 skóre volania nástrojov 0,109. Efektívne, ale nepoužiteľné.</li>
<li class="">Tréning na FinTrace-Training zlepšuje metriky medziprocesov (Logický postup stúpa z 2,29 na 2,56 pomocou DPO; skóre progresu z 2,00 na 2,30), ale kvalita konečnej odpovede zostáva obmedzená úzkym hrdlom — žiadny variant pri malých modeloch výrazne neprekročil priemernú hodnotu 1,21 na stupnici 1–5.</li>
<li class="">DPO prekonáva SFT v potláčaní režimov katastrofálneho zlyhania: podiel skóre logického postupu na úrovni 1 klesá z 11,9 % (SFT) na 9,5 % (DPO).</li>
<li class="">Univerzálne najhoršou podkategóriou vo všetkých 13 modeloch je Reasoning QA (Uvažovanie pri otázkach a odpovediach), kde Claude-Opus-4.6 dosahuje celkovo iba 0,62 — tvrdý strop, ktorý zdieľajú aj tie najsilnejšie modely.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Hlavné zistenie — že výber nástrojov a uvažovanie nad nástrojmi sú oddeliteľné procesy — je dobre odôvodnené a systém štyroch osí metrík je skutočným prínosom. Predchádzajúce benchmarky ako FinToolBench končia pri stopách vykonávania; FinTrace pridáva metriky kvality procesu posudzované modelmi LLM, ktoré odhaľujú, čo sa deje medzitým. Cohenova kapa (κ) medzi hodnotiteľmi 0,89 na vzorke 100 overení je pre benchmark čiastočne postavený na hodnoteniach LLM povzbudivá.</p>
<p>To znamená, že niekoľko metodologických rozhodnutí obmedzuje to, čo môžem z týchto čísel brať ako bernú mincu. 34 kategórií úloh nie je v hlavnom článku vymenovaných — sú odsunuté do prílohy B — takže neviem posúdiť, nakoľko sú reprezentatívne pre reálnu finančnú prax. Úrovne obtiažnosti sú definované percentilovými poradiami v rámci vlastného fondu dopytov benchmarku, čo je argumentácia v kruhu: „ťažké“ znamená len nezvyčajné v porovnaní s ostatnými 800 trajektóriami, nie ťažké v absolútnom zmysle.</p>
<p>Analýza doladenia (fine-tuning) je frustrujúca. Tréning 9B modelu na FinTrace-Training zlepšuje priebežné uvažovanie, ale kvalita finálnej odpovede zostáva nefunkčná. Článok to pripisuje „odpojeniu“ medzi procesom a výstupom, ale nevysvetľuje prečo. Najpravdepodobnejšie vysvetlenie — že 9B modelu chýba schopnosť vybavovania si faktov a aritmetická kapacita potrebná pre finančné úlohy bez ohľadu na kvalitu trajektórie — zostáva neriešené. Uvádzanie výsledkov DPO len pre Qwen-3.5-9B tiež znemožňuje zistiť, či väčšie modely profitujú viac.</p>
<p>Som skeptický aj voči celkovej agregácii skóre. Spájanie algoritmických metrík (F1 ∈ [0,1]) s hodnoteniami LLM na 1–5 Likertových škálach pomocou normalizácie na [0,1] a spriemerovania spája veľmi odlišné typy zlyhaní. Model, ktorý volá úplne nesprávne nástroje, nie je pokazený rovnakým spôsobom ako model, ktorý volá správne nástroje a potom ignoruje ich výstup.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-finančnú-ai">Prečo je to dôležité pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre finančnú AI" title="Priamy odkaz na Prečo je to dôležité pre finančnú AI" translate="no">​</a></h2>
<p>Hlavné zistenie sa priamo mapuje na problém spätného zápisu do Beancountu. Agent, ktorý spoľahlivo volá správne CLI nástroje Beancountu, ale potom nesprávne interpretuje výstup — povedzme, že analyzuje odpoveď zo súvahy a zaúčtuje ju na nesprávny účet — je horší ako žiadna automatizácia: produkuje sebavedomo nesprávne účtovné zápisy, ktoré sa bežnému kontrolórovi javia ako správne.</p>
<p>Metrika využitia informácií je tá, ktorú by som pri akomkoľvek agentovi pre Beancount sledoval najpozornejšie. Skutočnosť, že najlepší dostupný model dosahuje v kontrolovanom finančnom benchmarku skóre 3,23/5, by mala byť určujúcim obmedzením pre akékoľvek produkčné nasadenie. Hovorí to v prospech povinnej ľudskej kontroly každej operácie spätného zápisu, aspoň kým neuvidíme toto skóre konzistentne nad 4,0.</p>
<p>FinTrace tiež potvrdzuje to, čo naznačil ReDAct minulý týždeň: správna architektúra nie je end-to-end uvažovanie LLM, ale pipeline, ktorá externalizuje overovanie. Agent, ktorý dobre vyberá nástroje (Tool F1 ~ 0,9) a potom odovzdá výsledky samostatnému overovaciemu kroku pred vykonaním akcie, je obhájiteľnejší ako ten, ktorý sa pokúša uvažovať nad nespracovaným výstupom nástroja v jednom priechode.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class="">FinMCP-Bench (arXiv:2603.24943): sprievodný článok využívajúci MCP ako štandard rozhrania nástrojov, ďalší na zozname čítania — priamo porovnateľný s FinTrace, ale postavený na inej protokolovej vrstve.</li>
<li class="">„Benchmarking LLM Tool-Use in the Wild“ (arXiv:2604.06185): objavil sa súčasne a vyhodnocuje volanie nástrojov mimo financií; objasnil by, či je medzera vo využívaní informácií špecifická pre doménu alebo všeobecná.</li>
<li class="">„Data-Driven Function Calling Improvements in Large Language Model for Online Financial QA“ (arXiv:2604.05387): zameriava sa na rovnaké režimy zlyhania volania nástrojov z pohľadu tréningových dát a môže vysvetliť, čo chýba DPO v rámci FinTrace-Training.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="AI" term="AI"/>
        <category label="Finance" term="Finance"/>
        <category label="Fintech" term="Fintech"/>
        <category label="Automation" term="Automation"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Machine Learning" term="Machine Learning"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[FinToolBench: Evaluácia LLM agentov pri používaní reálnych finančných nástrojov]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use"/>
        <updated>2026-07-05T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[FinToolBench spája 760 živých finančných API nástrojov s 295 vykonateľnými dopytmi na benchmarking LLM agentov pri reálnych finančných úlohách — zisťuje, že konzervatívna 22,7 % miera vyvolania modelu GPT-4o prináša vyššiu kvalitu odpovedí (CSS 0,670) než agresívna 87,1 % miera TIR modelu Qwen3-8B, pričom nesúlad zámerov presahuje 50 % u všetkých testovaných modelov.]]></summary>
        <content type="html"><![CDATA[<p>Väčšina AI benchmarkov pre oblasť financií testuje, či model dokáže prečítať dokument. FinToolBench testuje, či model dokáže niečo <em>urobiť</em> — zavolať živé API, získať aktuálne trhové dáta a vrátiť správnu odpoveď. To je rozdiel, na ktorom záleží pri každom systéme snažiacom sa automatizovať reálnu finančnú prácu, a je to medzera, na ktorej dôsledné vyplnenie som čakal.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="odborná-práca">Odborná práca<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#odborn%C3%A1-pr%C3%A1ca" class="hash-link" aria-label="Priamy odkaz na Odborná práca" title="Priamy odkaz na Odborná práca" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinToolBench%3A%20Evalu%C3%A1cia%20LLM%20agentov%20pri%20pou%C5%BE%C3%ADvan%C3%AD%20re%C3%A1lnych%20finan%C4%8Dn%C3%BDch%20n%C3%A1strojov" alt="2026-07-05-fintoolbench-evaluating-llm-agents-real-world-financial-tool-use" class="img_ev3q"></p>
<p>Jiaxuan Lu a kolegovia predstavujú FinToolBench (arXiv:2603.08262, marec 2026) ako podľa ich tvrdenia prvý reálny, vykonateľný benchmark na evaluáciu finančných agentov učiacich sa používať nástroje. Rámcovanie je priame: existujúce finančné AI evaluácie sa zameriavajú na statické QA nad dokumentmi, zatiaľ čo všeobecné benchmarky na používanie nástrojov ako ToolLLM považujú financie len za ďalšiu kategóriu API bez doménovo špecifických obmedzení zhody (compliance). FinToolBench sa snaží vyplniť priestor medzi týmito dvoma režimami zlyhania.</p>
<p>Benchmark spája 760 vykonateľných finančných nástrojov — 261 živých endpointov z RapidAPI a 499 rozhraní z AkShare — s 295 prísne kurátorovanými evaluačnými dopytmi, rozdelenými na 166 prípadov s jedným nástrojom a 129 s viacerými nástrojmi. Nástroje pokrývajú oblasti akcií, dlhopisov, fondov, forexu, derivátov, makroekonómie a kryptomien. Zásadné je, že ide o reálne, volateľné API, nie o simulované makety (stubs). Autori tiež zavádzajú FATR (Finance-Aware Tool Routing), referenčného agenta využívajúceho vyhľadávanie BGE-M3 (top-20 kandidátov), karty nástrojov anotované finančnými atribútmi a plánovač ReAct s vedomím obmedzení, limitovaný na päť krokov.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class=""><strong>Vykonávanie nie je úzkym hrdlom — tým je uvažovanie nad výstupmi.</strong> GPT-4o má najvyššie podmienené soft skóre (CSS = 0,670), čo znamená, že poskytuje správne odpovede, keď úspešne zavolá nástroj, ale nástroje vyvoláva len v 22,7 % prípadov (TIR = 0,227). Qwen3-8B volá nástroje v 87,1 % prípadov, ale správnu odpoveď dosiahne len v 40,4 % prípadov, keď uspeje.</li>
<li class=""><strong>Nesúlad zámeru (intent mismatch) je dominantným zlyhaním v oblasti zhody.</strong> IMR (Intent Mismatch Rate) presahuje 50 % u väčšiny modelov, čo znamená, že agenti bežne vykonávajú transakčné volania, keď dopyt vyžaduje len vyhľadanie informácií. To je v regulovanom finančnom kontexte vážny problém.</li>
<li class=""><strong>Injekcia finančných atribútov pomáha zhode bez poškodenia schopností.</strong> Karty nástrojov referenčného FATR — anotovanie každého nástroja časovou citlivosťou, typom zámeru a regulačnou doménou — znižujú počet volaní zastaraných dát (TMR) a porušení domény (DMR) bez výrazného zhoršenia miery vyvolania.</li>
<li class=""><strong>Dopyty s viacerými nástrojmi odhaľujú medzeru v spoľahlivosti.</strong> 129 dopytov vyžadujúcich viacero nástrojov potrebuje reťazenie volaní a odovzdávanie výstupov medzi krokmi; výkon podstatne klesá v porovnaní s prípadmi s jedným nástrojom, čo je v súlade so zisteniami z FinTrace a TheAgentCompany.</li>
<li class=""><strong>Malé modely môžu v počte volaní prekonať tie veľké, ale nie v logickom uvažovaní.</strong> TIR 0,871 u Qwen3-8B oproti 0,227 u GPT-4o ukazuje, že menšie modely sú „agresívnejšie“, ale CER (podmienená miera vykonania, t. j. TESR/TIR) 0,339 pre Qwen3-8B oproti 0,618 pre GPT-4o odhaľuje, že GPT-4o je oveľa presnejší, keď sa už rozhodne nástroj zavolať.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Voľba benchmarku používať skutočne živé, vykonateľné API je jeho primárnym prínosom, a to veľmi podstatným. Simulované API boli špinavým tajomstvom benchmarkov na používanie nástrojov: 16 000 API v ToolLLM znie pôsobivo, až kým si neuvedomíte, že evaluácia používa LLM ako sudcu toho, či by volanie „bolo“ fungovalo. FinToolBench sa tomu vyhýba.</p>
<p>Metriky zhody (TMR, IMR, DMR) sú konceptuálne správne — finanční agenti potrebujú poznať rozdiel medzi získaním včerajšej uzatváracej ceny a iniciovaním obchodu — ale popis v práci o tom, ako sa tieto klasifikácie vynucujú, je strohý. Nie je jasné, či označenia pre typ zámeru (informačný vs. transakčný) overovali experti na právo alebo compliance, alebo ich jednoducho priradili autori datasetu. V praxi na tom veľmi záleží.</p>
<p>Zoznam modelov je tiež nezvyčajne úzky: Doubao-Seed-1.6, Qwen3-8B, GLM-4.7-Flash a GPT-4o. Chýba Claude Sonnet alebo Gemini 2.5, ktoré by boli prirodzeným porovnaním. Tabuľka výsledkov ukazuje, že GPT-4o je odľahlou hodnotou s vysokou presnosťou, ale nízkym pokrytím; chcel by som vedieť, či sa správanie Clauda pri používaní nástrojov blíži skôr ku konzervatívnemu vzorcu GPT-4o alebo agresívnemu Qwen3-8B.</p>
<p>Evaluačná sada s 295 dopytmi je na pomery moderných benchmarkov malá. Pri 760 nástrojoch znamená miera pokrytia 295 dopytmi, že väčšina nástrojov sa nikdy netestuje. Práca neuvádza štatistiky pokrytia podľa domén, čo znamená, že hlavné čísla môžu byť ovplyvnené podmnožinou dobre pokrytých domén, ako sú akcie a makroekonómia.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-na-tom-záleží-pre-finančnú-ai">Prečo na tom záleží pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#pre%C4%8Do-na-tom-z%C3%A1le%C5%BE%C3%AD-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo na tom záleží pre finančnú AI" title="Priamy odkaz na Prečo na tom záleží pre finančnú AI" translate="no">​</a></h2>
<p>Agenti so spätným zápisom do Beancount — akýkoľvek agent, ktorý volá <code>bean-add</code>, opravuje súbor hlavnej knihy alebo dopytuje <code>beanquery</code> — čelia presne tým režimom zlyhania, ktoré FinToolBench odhaľuje. Problém nesúladu zámeru sa prekladá priamo: agent pre Beancount, ktorý vykoná príkaz na zápis, keď sa používateľ pýtal na čítanie, má rovnaký charakter zlyhania ako porušenie IMR. Dimenzia aktuálnosti (timeliness) mapuje problém volania zastaraného nacacheovaného stavu hlavnej knihy, keď používateľ očakáva aktuálny zostatok.</p>
<p>Napätie medzi presnosťou a pokrytím (GPT-4o vs. Qwen3-8B) je tiež priamo relevantné. Pre spätný zápis do Beancount by som oveľa radšej prijal konzervatívne správanie GPT-4o — nízke TIR, ale vysoké CER a CSS — než model s vysokou mierou vyvolania, ktorý často spustí nesprávny nástroj. Chybné zápisy sú oveľa nákladnejšie ako nevykonanie žiadnej operácie.</p>
<p>Prístup FATR spojený s anotovaním nástrojov atribútmi zhody namiesto spoliehania sa na to, že ich model odvodí, je dizajnový vzor, ktorý stojí za prijatie. Obalenie nástrojov CLI Beancount explicitnými metadátami o tom, či je volanie len na čítanie alebo meniace stav, a či sa dotýka aktuálneho alebo archivovaného stavu knihy, je rovnaká myšlienka aplikovaná na menší rozsah.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class=""><strong>FinTrace</strong> (arXiv:2604.10015) — evaluácia na úrovni trajektórií v 34 finančných kategóriách úloh s 9 metrikami; priamo rozširuje evaluáciu FinToolBench z jedného volania na viacstupňové sekvencie a dolaďuje Qwen-3.5-9B pomocou DPO na zlepšenie priebežného uvažovania.</li>
<li class=""><strong>FinMCP-Bench</strong> (arXiv:2603.24943) — 613 vzoriek nad 65 finančnými nástrojmi založenými na MCP, testujúcich vyvolanie jedného nástroja, viacerých nástrojov a viacúrovňovú konverzáciu; rámcovanie MCP je priamo relevantné pre rozhrania nástrojov Beancount.</li>
<li class=""><strong>ToolLLM</strong> (arXiv:2307.16789, ICLR 2024) — práca ToolBench, voči ktorej sa FinToolBench explicitne vymedzuje; pochopenie toho, čo benchmark so simulovanými API dokáže a nedokáže merať, objasňuje, koľko v skutočnosti prináša vykonateľnosť vo FinToolBench.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Automation" term="Automation"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Fintech" term="Fintech"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Compliance" term="Compliance"/>
        <category label="Data Science" term="Data Science"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[OmniEval: Všesmerový benchmark pre hodnotenie RAG vo finančnej oblasti]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain"/>
        <updated>2026-07-04T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[OmniEval (EMNLP 2025) testuje systémy RAG v rámci 5 typov úloh × 16 finančných tém s použitím 11,4 tisíc automaticky generovaných testovacích prípadov. Najlepšie systémy dosahujú len 36 % numerickú presnosť – konkrétny dôkaz, že RAG procesy potrebujú validačné vrstvy pred zápisom do štruktúrovaných finančných účtovných kníh.]]></summary>
        <content type="html"><![CDATA[<p>Väčšina benchmarkov RAG vo financiách sa pýta, či systém dokáže vyhľadať a odpovedať – bodka. OmniEval (EMNLP 2025, arXiv:2412.13018) od Shuting Wang a kol. z RUC kladie ťažšiu otázku: udrží sa výkon v rámci celej matice typov úloh a finančných tém? Čítam to práve teraz, pretože je to najštruktúrovanejší pokus o zmapovanie zlyhaní RAG vo financiách predtým, než sa pokúsime vybudovať spoľahlivých agentov pre účtovné knihy Beancount nad RAG procesmi.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="odborná-práca">Odborná práca<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#odborn%C3%A1-pr%C3%A1ca" class="hash-link" aria-label="Priamy odkaz na Odborná práca" title="Priamy odkaz na Odborná práca" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=OmniEval%3A%20V%C5%A1esmerov%C3%BD%20benchmark%20pre%20hodnotenie%20RAG%20vo%20finan%C4%8Dnej%20oblasti" alt="2026-07-04-omnieval-omnidirectional-automatic-rag-evaluation-financial-domain" class="img_ev3q"></p>
<p>OmniEval konštruuje dvojrozmernú hodnotiacu mriežku: päť tried úloh (extrakčné QA, viackrokové uvažovanie, kontrastné QA, dlhé QA a konverzačné QA) skrížených so 16 finančnými témami (akciové trhy, investičné bankovníctvo, fondy, poistenie majetku a iné). Výsledkom je štruktúrovaný benchmark s 11,4 tisíc automaticky generovanými testovacími príkladmi, 1,7 tisíc manuálne anotovanými príkladmi a korpusom na vyhľadávanie s 362 tisíc dokumentmi zostaveným zo šiestich čínskych finančných zdrojov údajov (BSCF-DB s 193 tisíc dokumentmi, FinGLM s 55 tisíc, BAAI-Fin s 48 tisíc, oficiálne webové extrakcie, PDF a finančný obsah z Wikipédie). Benchmark zahŕňa aj doladený LLM evaluátor – Qwen2.5-7B-Instruct trénovaný na 910 manuálne označených inštanciách – ktorý hodnotí kvalitu generovania v oblastiach presnosti, halucinácií, úplnosti, využitia a numerickej presnosti. Práca bola publikovaná na EMNLP 2025.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class="">Automaticky generované testovacie prípady prešli kontrolou ľudskej akceptácie na 87,47 %, čo znamená, že približne 1 z 8 generovaných inštancií bola zahodená – čo nie je zanedbateľná miera šumu pre benchmark.</li>
<li class="">Najlepší vyhľadávač (GTE-Qwen2-1.5B) dosiahol MAP 0,4370 a MRR 0,4491 na automaticky generovanej sade, čo znamená, že najvyššie umiestnená pasáž je správna v menej ako polovici prípadov, a to aj s najsilnejším testovaným vyhľadávačom.</li>
<li class="">Presnosť generovania (ACC) naprieč všetkými kombináciami vyhľadávač-LLM sa pohybovala od 0,3238 do 0,4476 – najlepšia konfigurácia odpovedá správne na menej ako polovicu otázok.</li>
<li class="">Numerická presnosť (NAC) je najvýraznejším zistením: 0,0659 až 0,3595. Najlepší systém trafí finančné čísla správne v približne 36 % prípadov; najhorší je blízko nuly.</li>
<li class="">Doladený evaluátor dosiahol 74,4 % zhodu s ľudskou anotáciou (κ = 0,6486), čím výrazne prekonal základné modely založené len na promptovaní (55 – 71 %) – no stále ponecháva jedno zo štyroch hodnotení v nesúlade s ľudským úsudkom.</li>
<li class="">Viackrokové uvažovanie a konverzačné QA boli konzistentne najťažšími triedami úloh.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Návrh maticového hodnotenia je skutočne užitočný. Predchádzajúce finančné benchmarky (FinanceBench, FinQA, DocFinQA) pristupujú k hodnoteniu ako k jednej osi – zvyčajne presnosti odpovedí – a prehliadajú štrukturálne variácie v tom, ako RAG zlyháva. Vedieť, že systém dosahuje dobré výsledky v extrakčnom QA, ale slabé vo viackrokovom uvažovaní, je využiteľná informácia; vedieť, že má nejaké priemerné celkové skóre, nie je. Mriežka OmniEval zviditeľňuje tieto variácie a zistenie, že výkon je nekonzistentný naprieč témami, je presne ten druh výsledku, ktorý odborníci potrebujú vidieť pred nasadením.</p>
<p>To znamená, že existujú skutočné obmedzenia, o ktorých chcem hovoriť priamo. Korpus je prevažne čínsky: päť zo šiestich zdrojov údajov sú čínske finančné dáta (BSCF, FinGLM, BAAI-Fin) a šiestym je čínska Wikipédia. Práca neuvádza výsledky rozdelené podľa jazyka – uvádza len súhrnné čísla. To robí každé skóre v práci podozrivým ako tvrdenie o finančnom RAG všeobecne, na rozdiel od finančného RAG nad čínskym textom s čínsky špecializovanými vyhľadávačmi a LLM (GTE-Qwen2-1.5B, Qwen2.5-72B, Yi15-34B). Anglickí finanční používatelia nemôžu tieto čísla priamo použiť.</p>
<p>LLM evaluátor je trénovaný na 910 označených inštanciách. To je málo. Zhoda s ľuďmi 74,4 % pri κ = 0,6486 je obhájiteľná ako východiskový bod, ale znamená to, že samotný hodnotiaci rámec vnáša značný šum. Ak sa benchmark používa na porovnanie systémov, ktoré sa líšia o niekoľko percentuálnych bodov, rozptyl evaluátora prekryje signál.</p>
<p>Automatický proces generovania – kde GPT-4 vytvára testovacie otázky a ľudia ich filtrujú s 87,47 % úspešnosťou – tiež vyvoláva otázku kontaminácie, ktorou sa práca nezaoberá: otázky generované GPT-4 môžu nahrávať modelom triedy GPT-4 spôsobom, ktorý systematicky znevýhodňuje staršie alebo menšie modely.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-ai-vo-financiách">Prečo je to dôležité pre AI vo financiách<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-ai-vo-financi%C3%A1ch" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre AI vo financiách" title="Priamy odkaz na Prečo je to dôležité pre AI vo financiách" translate="no">​</a></h2>
<p>Čísla numerickej presnosti sú údajom, ku ktorému sa stále vraciam: 0,0659 – 0,3595. Ak najlepší testovaný systém RAG trafí finančné čísla správne len v 36 % prípadov v benchmarkovom hodnotení, akýkoľvek agent na zápis do Beancountu postavený na naivnom RAG procese poškodí údaje v účtovnej knihe. Formát Beancount je neúprosný – nesprávna suma, dátum alebo názov účtu spôsobí buď chybu spracovania, alebo tichú účtovnú chybu, ktorá sa môže šíriť naprieč fiškálnymi rokmi. Tento benchmark nám dáva konkrétny dôkaz, že vyhľadávanie RAG a generovanie LLM ešte nie sú dostatočne spoľahlivé na priamy zápis do účtovnej knihy bez validačnej vrstvy.</p>
<p>Štruktúra tried úloh sa tiež čisto mapuje na prípady použitia Beancountu. Extrakčné QA zodpovedá jednoduchému zisťovaniu zostatkov. Viackrokové uvažovanie zodpovedá otázkam typu „aký je môj čistý príjem po zdanení za Q1 – Q3?“. Konverzačné QA zodpovedá používateľovi, ktorý iteratívne upresňuje požiadavku na párovanie platieb počas relácie. Zistenie OmniEval, že viackrokové a konverzačné úlohy sú najťažšie, je presne tá zlá správa pre návrh agenta Beancount: jednoduché prípady sú takmer v poriadku; realistické prípady sú tie, kde sa systém rozpadá.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class="">ARES: Automatizovaný hodnotiaci rámec pre generovanie rozšírené o vyhľadávanie (arXiv:2311.09476, NAACL 2025) – najbližšia všeobecná obdoba k prístupu doladenia evaluátora v OmniEval; porovnanie metodiky ARES s OmniEval by objasnilo, či sú rozhodnutia o návrhu LLM evaluátora principiálne alebo ad hoc.</li>
<li class="">RAGEval: Rámec na generovanie dátových sád pre hodnotenie RAG špecifické pre daný scenár (ACL 2025, aclanthology.org/2025.acl-long.418) – automatizované generovanie scenárov pre hodnotenie RAG; rozširuje metodiku automatického generovania, ktorú používa OmniEval, a môže riešiť obavy z kontaminácie.</li>
<li class="">FinRAGBench-V: Benchmark pre multimodálny RAG s vizuálnymi citáciami vo finančnej oblasti (arXiv:2505.17471) – rozširuje hodnotenie RAG na multimodálne finančné dokumenty (tabuľky, grafy); relevantné, pretože používatelia Beancountu majú čoraz častejšie obrázky účteniek a PDF výpisy popri textových účtovných knihách.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="LLM" term="LLM"/>
        <category label="Finance" term="Finance"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Automation" term="Automation"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Prehľad detekcie anomálií pomocou LLM (NAACL 2025): Silná taxonómia, chýbajúce pokrytie tabuľkových dát]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey"/>
        <updated>2026-07-03T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[Kritické čítanie prehľadu NAACL 2025 od Xu a Dinga o detekcii anomálií a OOD založenej na LLM: taxonómia detekcie verzus generovania obstojí, ale takmer úplná absencia pokrytia tabuľkových dát znamená, že praktici v oblasti finančnej AI si musia poznatky z vizuálnych modelov syntetizovať sami.]]></summary>
        <content type="html"><![CDATA[<p>Predchádzajúce tri príspevky v tomto vlákne sa zaoberali modelmi AnoLLM, CausalTAD a AD-LLM – každý z nich sa zameriaval konkrétne na detekciu tabuľkových anomálií. Tento prehľad od Ruiyao Xu a Kaize Dinga, prijatý na NAACL 2025 Findings, mal tieto vlákna spojiť do jednotnej mapy prostredia. Očakával som taxonómiu, ktorá objasní dizajnový priestor; to, čo som dostal, je väčšinou prehľad detekcie anomálií v obrázkoch a videách s tenkým nánosom všeobecnosti.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="príspevok">Príspevok<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#pr%C3%ADspevok" class="hash-link" aria-label="Priamy odkaz na Príspevok" title="Priamy odkaz na Príspevok" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=Preh%C4%BEad%20detekcie%20anom%C3%A1li%C3%AD%20pomocou%20LLM%20%28NAACL%202025%29%3A%20Siln%C3%A1%20taxon%C3%B3mia%2C%20ch%C3%BDbaj%C3%BAce%20pokrytie%20tabu%C4%BEkov%C3%BDch%20d%C3%A1t" alt="2026-07-03-llm-anomaly-ood-detection-survey" class="img_ev3q"></p>
<p>Prehľad od Xu a Dinga (arXiv:2409.01980) navrhuje usporiadať detekciu anomálií a out-of-distribution (OOD) založenú na LLM do dvoch tried vysokej úrovne: <strong>LLM pre detekciu</strong>, kde model priamo identifikuje anomálie, a <strong>LLM pre generovanie</strong>, kde model dopĺňa trénovacie dáta alebo vytvára vysvetlenia v prirodzenom jazyku, ktoré slúžia ako vstup pre následný detektor. Každá trieda sa ďalej delí. Detekcia sa delí na metódy založené na promptovaní (zmrazené alebo vyladené LLM dopytované pomocou promptov v prirodzenom jazyku) a metódy založené na kontraste (modely rodiny CLIP, ktoré hodnotia anomálnosť porovnaním výrezov obrázkov s textovými popismi). Generovanie sa delí na metódy zamerané na augmentáciu (generovanie pseudo-OOD štítkov alebo syntetických minoritných vzoriek) a metódy zamerané na vysvetlenie (vytváranie zdôvodnení v prirodzenom jazyku pre označené udalosti).</p>
<p>Sprievodný zoznam literatúry na GitHube obsahuje približne 39 prác: 24 v oblasti detekcie, 10 v oblasti augmentácie a 5 v oblasti vysvetľovania.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class=""><strong>Metódy založené na kontraste dominujú v detekcii anomálií obrázkov.</strong> WinCLIP dosahuje 91,8 % a 85,1 % AUROC pri zero-shot klasifikácii anomálií a segmentácii na MVTec-AD bez akéhokoľvek ladenia špecifického pre daný súbor dát, čo je konkurencieschopné s dohliadanými (supervised) metódami trénovanými na tomto súbore dát.</li>
<li class=""><strong>Zmrazené LLM narážajú na modalitnú medzeru pri netextových dátach.</strong> Prehľad výslovne uvádza, že „priame promptovanie zmrazených LLM pre výsledky detekcie anomálií alebo OOD v rôznych typoch dát často prináša suboptimálny výkon kvôli vrodenej modalitnej medzere medzi textom a inými dátovými modalitami.“</li>
<li class=""><strong>Ladenie pomocou LoRA a adaptérov túto medzeru výrazne vypĺňa.</strong> Metódy ako AnomalyGPT a AnomalyCLIP využívajú techniky efektívne z hľadiska parametrov a podstatne prekonávajú svoje zmrazené náprotivky.</li>
<li class=""><strong>Generovanie ako augmentácia je nevyužívané.</strong> Pseudo-OOD štítky na úrovni popiskov generované modelom BLIP-2 prekonávajú alternatívy na úrovni slov a popisov v detekcii OOD, čo naznačuje, že bohatší textový dohľad je dôležitý aj pre vizuálne úlohy.</li>
<li class=""><strong>Generovanie zamerané na vysvetlenie je najnovšou podkategóriou.</strong> Systémy ako Holmes-VAD a VAD-LLaMA idú nad rámec binárnych príznakov a generujú zdôvodnenia anomálnych udalostí v prirodzenom jazyku, väčšinou v sledovacích videách.</li>
<li class=""><strong>Tabuľkové dáta takmer chýbajú.</strong> Prehľad cituje jednu metódu – „Tabular“ od Li et al. (2024) – ktorá konvertuje tabuľkové riadky na textové prompty a dolaďuje ich pomocou LoRA, ale neposkytuje žiadne porovnávacie čísla.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí – a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí – a čo nie" title="Priamy odkaz na Čo obstojí – a čo nie" translate="no">​</a></h2>
<p>Táto dvojtriedna taxonómia je skutočne prehľadná a pravdepodobne ju budem používať na usporiadanie vlastných úvah. Rozlíšenie detekcia verzus generovanie zachytáva skutočné architektonické rozvetvenie: buď požiadate LLM, aby klasifikovalo priamo, alebo ho použijete na vytvorenie lepšieho trénovacieho signálu pre tradičný detektor.</p>
<p>Čo nemôžem akceptovať, je rámcovanie príspevku ako prehľadu detekcie anomálií v širokom zmysle. Pokrytie je drvivo sústredené na obrázky priemyselných chýb (MVTec-AD, VisA) a videá z bezpečnostných kamier (UCF-Crime, XD-Violence). Z približne 39 katalogizovaných prác sa takmer žiadna nezaoberá tabuľkovými alebo finančnými dátami. Časové rady dostávajú niekoľko citácií. Tabuľkové dáta jednu vetu. Toto nie je mapa prostredia pre Bean Labs – je to mapa prostredia pre výskumníkov v oblasti počítačového videnia, ktorí chcú používať CLIP na detekciu chýb.</p>
<p>Autori priznavajú, že „priestorové obmedzenia bránia podrobným súhrnom metrík,“ čo je zdvorilý spôsob, ako povedať, že v práci chýbajú porovnávacie tabuľky. V prehľadovej práci je absencia kvantitatívnej syntézy významnou medzerou. Čitatelia nemôžu tento príspevok použiť na rozhodnutie, ktorá paradigma je lepšia pre ich prípad použitia, bez toho, aby si museli každú citovanú prácu vyhľadať jednotlivo.</p>
<p>Problém halucinácií je uvedený ako otvorená výzva, ale jeho spracovanie je povrchné – pomenuje riziko bez toho, aby analyzovalo, ktoré paradigmy detekcie sú naň viac či menej náchylné, alebo ako by generovanie zamerané na vysvetlenie mohlo urobiť halucinácie lepšie detegovateľnými prostredníctvom ľudskej kontroly.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-finančnú-ai">Prečo je to dôležité pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre finančnú AI" title="Priamy odkaz na Prečo je to dôležité pre finančnú AI" translate="no">​</a></h2>
<p>Dve podkategórie sú relevantné napriek zameraniu na obrázky. Po prvé, podkategória <strong>generovania zameraného na vysvetlenie</strong> je presne to, čo auditné agenty pre Beancount potrebujú: nielen príznak, že účtovný zápis je anomálny, ale aj veta v prirodzenom jazyku vysvetľujúca prečo. Finanční audítori nemôžu konať na základe binárneho výstupu. Po druhé, takmer úplné mlčanie prehľadu o detekcii tabuľkových anomálií je samo o sebe informatívne – potvrdzuje, že línia modelov AnoLLM, CausalTAD a AD-LLM, ktorú sledujem, je skôr pionierska oblasť než vychodený chodník, a že navrhovanie auditných nástrojov založených na LLM pre účtovné knihy Beancount vyžaduje syntézu poznatkov z detekcie anomálií vo videní, ktoré ešte neboli prenesené do tabuľkového prostredia.</p>
<p>Kompromis medzi promptovaním a ladením je najpraktickejším zistením: zero-shot promptovanie funguje ako prvotná aproximácia, ale trpí modalitnou medzerou; jemné doladenie pomocou LoRA na reprezentatívnych označených príkladoch túto medzeru uzatvára. Pre nasadenie v prostredí Beancount s označenými príkladmi anomálií z historických denníkov sa cesta jemného doladenia javí ako spoľahlivejšia než čisté promptovanie.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class="">„Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs“ (arXiv:2406.03614) – používa LLM sentence-transformer embeddingy na reálnych účtovných zápisoch v hlavnej knihe; priamy most od rámca tohto prehľadu k tabuľkovému využitiu v Beancounte.</li>
<li class="">„Enhancing Anomaly Detection in Financial Markets with an LLM-based Multi-Agent Framework“ (arXiv:2403.19735) – multi-agentová pipeline pre detekciu anomálií v trhových dátach; vzor multi-agentovej koordinácie sa môže preniesť aj do auditu účtovných kníh.</li>
<li class="">AnomalyGPT (arXiv:2308.15366) – vyladený model LVLM pre priemyselnú detekciu anomálií s lokalizáciou na úrovni pixelov; prečítanie tohto príspevku objasňuje, čo v skutočnosti architektonicky znamená „ladenie LLM pre detekciu“, čo prehľad popisuje, ale nevysvetľuje.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Fraud Detection" term="Fraud Detection"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Analytics" term="Analytics"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Nájdené v strede: Kalibrácia predpojatosti pozičnej pozornosti zlepšuje RAG s dlhým kontextom]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias"/>
        <updated>2026-07-02T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[Kalibrácia počas inferencie bez nutnosti trénovania odčítava pozičnú predpojatosť z váh pozornosti LLM, čím obnovuje až 15 percentuálnych bodov presnosti RAG, keď sú vyhľadané dokumenty ukryté uprostred kontextu – a čo to znamená pre finančne špecifické agentúrne procesy.]]></summary>
        <content type="html"><![CDATA[<p>O probléme „stratené v strede“ (lost-in-the-middle) premýšľam odvtedy, čo som písal záznam o pôvodnom zistení Liu et al.: ak LLM poskytnete dlhý kontext, bude spoľahlivo ignorovať dôkazy ukryté v strede. Príspevok „Found in the Middle: Calibrating Positional Attention Bias Improves Long Context Utilization“ (Hsieh et al., ACL Findings 2024, arXiv:2406.16008) ponúka najpriamejšiu a najpraktickejšiu opravu, akú som doteraz videl: kalibráciu počas inferencie bez nutnosti trénovania, ktorá odčítava pozičnú predpojatosť modelu z jeho váh pozornosti, čím získava späť až 15 percentuálnych bodov presnosti RAG.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="o-dokumente">O dokumente<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#o-dokumente" class="hash-link" aria-label="Priamy odkaz na O dokumente" title="Priamy odkaz na O dokumente" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=N%C3%A1jden%C3%A9%20v%20strede%3A%20Kalibr%C3%A1cia%20predpojatosti%20pozi%C4%8Dnej%20pozornosti%20zlep%C5%A1uje%20RAG%20s%20dlh%C3%BDm%20kontextom" alt="2026-07-02-found-in-the-middle-calibrating-positional-attention-bias" class="img_ev3q"></p>
<p>Hsieh et al. začínajú diagnostickým pozorovaním: LLM – dokonca aj tie trénované na dlhých kontextoch – vykazujú pretrvávajúci vzorec pozornosti v tvare písmena U. Tokeny na začiatku a na konci vstupu dostávajú neúmerne vysokú pozornosť bez ohľadu na to, či sú relevantné, zatiaľ čo tokeny v strede sú systematicky podhodnotené. Autori to empiricky spájajú s poklesom presnosti „stratené v strede“, namiesto toho, aby to považovali za samostatný jav.</p>
<p>Ich riešenie je koncepčne elegantné. Rozkladajú pozornosť na dve aditívne zložky: relevanciu (to, čo chceme) a pozičnú predpojatosť (to, čo nechceme). Aby izolovali zložku predpojatosti, preženú cez rovnaký kontext na každej pozícii „dummy“ dokument – neinformatívny výplňový obsah – a zaznamenajú výslednú distribúciu pozornosti. Pozornosť tohto dummy dokumentu aproximuje čisto pozičnú apriórnu pravdepodobnosť. Jej odčítanie od skutočných skóre pozornosti zanecháva zvyšok, ktorý lepšie odráža skutočnú relevanciu:</p>
<p><strong>Kalibrovaná pozornosť = Attn(dokument, k) − Attn(dummy, k)</strong></p>
<p>Preškálované skóre sa potom použijú na zmenu poradia alebo prehodnotenie váhy vyhľadaných dokumentov pred finálnym krokom generovania odpovede. Zásadné je, že nie je potrebné žiadne trénovanie. Kalibrácia sa aplikuje počas inferencie na posledných 16 vrstiev dekodéra a všetky hlavy pozornosti. Náklady predstavujú O(K) dodatočných dopredných prechodov, kde K je počet vyhľadaných dokumentov – čo nie je zanedbateľné, ale je to predvídateľné.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class="">Pozičná predpojatosť v tvare U je vlastná architektúre modelu a pretrváva aj v modeloch explicitne trénovaných s cieľmi pre dlhý kontext.</li>
<li class="">Prechod dummy (prázdneho/šumového) dokumentu cez rovnaký vyhľadávací kontext izoluje pozičnú apriórnu pravdepodobnosť; jej odčítanie odstráni predpojatosť bez akéhokoľvek dolaďovania.</li>
<li class="">Recall@3 na NaturalQuestion (K=20, zlatý dokument umiestnený v strede) stúpa z 20,52 % na 68,32 % s kalibráciou; pri K=10 z 36,38 % na 74,27 %.</li>
<li class="">Presnosť end-to-end QA sa zlepšuje o 6 – 15 percentuálnych bodov, keď je zlatý dokument v strede kontextu; zlepšenia platia v 22 z 24 experimentálnych konfigurácií.</li>
<li class="">Metóda prekonáva šesť porovnávacích základných línií: štandardnú pozornosť (vanilla attention), poradie podľa generovania dotazov, promptovanie podľa generovania relevancie, triedenie podľa pozornosti (Peysakhovich &amp; Lerer 2023), zmenu poradia promptov a LongLLMLingua-rk.</li>
<li class="">Metóda bola vyhodnotená na NaturalQuestion (2 655 reálnych dotazov nad Wikipédiou) a SynthWiki (990 syntetických záznamov generovaných GPT-4).</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Hlavný výsledok je pozoruhodný a verím mu. Rozdiel v Recall@3 pre zlaté dokumenty v strede kontextu z 20,52 % na 68,32 % nie je údaj, ktorý by sa pri bližšom skúmaní rozplynul – meria niečo skutočné o tom, ako je distribuovaná pozornosť. Dizajn bez nutnosti trénovania je skutočnou praktickou výhodou: môžete to nasadiť na akýkoľvek existujúci RAG proces bez zásahu do váh modelu.</p>
<p>Napriek tomu mám určité výhrady. Po prvé, prístup s „dummy dokumentom“ predpokladá, že pozičná predpojatosť je zhruba pozične oddeliteľná a aditívna – ide o lineárny rozklad, ktorý samotní autori označujú za potenciálne príliš zjednodušujúci. Skutočná predpojatosť pozornosti môže s obsahom interagovať nelineárnym spôsobom. Po druhé, O(K) extra dopredných prechodov je označených za „prijateľné“, ale nikdy neboli testované z hľadiska latencie alebo nákladov. V produkčnom systéme s K=20 vyhľadávaniami spúšťate 21 dopredných prechodov namiesto jedného na dotaz. Pre Beancount agenta triediaceho stovky transakcií je tento multiplikátor dôležitý.</p>
<p>Po tretie – a to je najzaujímavejšie obmedzenie – autori uvádzajú, že pozičná predpojatosť môže byť pre určité úlohy v skutočnosti užitočná. Napríklad predpojatosť k aktuálnosti (recency bias) môže byť tým, čo núti model správne pripisovať väčšiu váhu nedávnym záznamom v účtovnej knihe oproti starším. Nerozlišujúce odstránenie predpojatosti by mohlo poškodiť úlohy, kde je pozícia platným signálom. Toto je síce brané na vedomie, ale nebolo to študované.</p>
<p>Nakoniec, experimenty využívajú NaturalQuestion a syntetický dataset. Finančne špecifické dokumenty – husté tabuľky, viacročné výkazy, záznamy v účtovnej knihe s opakujúcou sa štruktúrou – sa veľmi líšia od pasáží z Wikipédie. Kalibráciu by bolo potrebné overiť na týchto distribúciách predtým, než sa vyhlási, že bude fungovať pre finančný RAG.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-finančnú-ai">Prečo je to dôležité pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre finančnú AI" title="Priamy odkaz na Prečo je to dôležité pre finančnú AI" translate="no">​</a></h2>
<p>Priame prepojenie je jasné: každý záznam od DocFinQA krúži okolo rovnakého problému. Keď agent Beancount vyhľadá 20 relevantných záznamov v účtovnej knihe, aby odpovedal na otázku typu „odsúhlasiť marec s bankovým výpisom“, záznamom v strede vyhľadaného okna sa bude venovať systematicky menšia pozornosť v porovnaní so záznamami na začiatku a na konci kontextu. To nie je zlyhanie vyhľadávania – je to zlyhanie na strane generovania, ktoré nespraví žiadne zlepšenie poradia vyhľadávania.</p>
<p>Kalibrácia „nájdené v strede“ je pravdepodobným zmiernením, ktoré nevyžaduje žiadne pretrénovanie základného modelu a mohlo by sa aplikovať priamo v kroku generovania akéhokoľvek QA procesu nad účtovnou knihou. Obava z nákladov O(K) je reálna, ale zvládnuteľná – 20-dokumentové vyhľadávacie okno s modelom strednej veľkosti je stále v praktických medziach. Čo by som chcel vidieť pred nasadením, je overenie konkrétne na údajoch so štruktúrou Beancount: pomáha pozičná korekcia jednotne, alebo neúmyselne potláča signál aktuálnosti, vďaka ktorému sú nedávne transakcie dôveryhodnejšie ako tie staré?</p>
<p>Širší princíp – že mechanizmy pozornosti kódujú pozičné apriórne pravdepodobnosti nezávisle od relevancie obsahu a že tieto pravdepodobnosti možno skalibrovať bez pretrénovania – stojí za zapamätanie. Otvára to dvere podobným kalibráciám pre iné predpojatosti: predpojatosť k frekvencii tokenov, normalizáciu dĺžky vstupu, predpojatosť k rozvláčnosti pri generovaní.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class="">„Mitigate Position Bias in LLMs via Scaling a Single Hidden States Channel“ (arXiv:2406.02536, ACL Findings 2025) – navrhuje škálovanie jednej dimenzie skrytého stavu namiesto odčítania skóre pozornosti; stojí za priame porovnanie s prístupom „nájdené v strede“.</li>
<li class="">„Large Language Models for Anomaly and Out-of-Distribution Detection: A Survey“ (arXiv:2409.01980, NAACL 2025) – ďalšie na zozname čítania; spája vlákna AnoLLM, CausalTAD a AD-LLM do jednotnej taxonómie.</li>
<li class="">Liu et al., „Lost in the Middle: How Language Models Use Long Contexts“ (arXiv:2307.03172, TACL 2023) – pôvodná diagnóza, na ktorú „nájdené v strede“ reaguje; nevyhnutné základné čítanie.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Automation" term="Automation"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Reconciliation" term="Reconciliation"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Odkladanie s vedomím neistoty pre agentov LLM: Kedy prejsť z malých na veľké modely]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents"/>
        <updated>2026-07-01T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[ReDAct predvolene spúšťa malý model a eskaluje na drahý model len vtedy, keď perplexita na úrovni tokenov signalizuje neistotu, čím dosahuje 64 % úsporu nákladov oproti použitiu iba GPT-5.2 pri zachovaní alebo prekonaní jeho presnosti — model priamo aplikovateľný pre agentov kategorizácie transakcií v Beancounte.]]></summary>
        <content type="html"><![CDATA[<p>Tlak na autonómnych agentov, aby boli lacní a zároveň spoľahliví, pôsobí opačnými smermi: špičkové modely sú spoľahlivé, ale drahé, malé modely sú lacné, ale náchylné na chyby. Článok ReDAct od Piatrashyna a kol. (arXiv:2604.07036) navrhuje strednú cestu — predvolene spúšťať malý model a na veľký model sa obrátiť len vtedy, keď si ten malý nie je istý. Čítam ho preto, lebo rovnaké napätie definuje každého produkčného agenta pre spätný zápis do Beancountu: chcete, aby systém lacno zvládal rutinnú kategorizáciu a eskaloval nejasné prípady skôr, než poškodia účtovnú knihu.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="o-článku">O článku<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#o-%C4%8Dl%C3%A1nku" class="hash-link" aria-label="Priamy odkaz na O článku" title="Priamy odkaz na O článku" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=Odkladanie%20s%20vedom%C3%ADm%20neistoty%20pre%20agentov%20LLM%3A%20Kedy%20prejs%C5%A5%20z%20mal%C3%BDch%20na%20ve%C4%BEk%C3%A9%20modely" alt="2026-07-01-redact-uncertainty-aware-deferral-llm-agents" class="img_ev3q"></p>
<p>ReDAct (Reason-Defer-Act) stavia na paradigme promptovania ReAct a zavádza dvojmodelovú architektúru agentov. Malý lacný model — Qwen3-80B, Llama3.3-70B alebo Llama4-Maverick — predvolene spracováva každý krok. V každom kroku vygeneruje stopu uvažovania a následne vygeneruje akciu. Systém meria neistotu na úrovni tokenov <em>iba pri kroku generovania akcie</em> a porovnáva ju s kalibrovaným prahom. Ak neistota tento prah prekročí, krok znovu vykoná veľký drahý model (GPT-5.2, Qwen3-235B alebo Qwen3-480B); v opačnom prípade sa vykoná akcia malého modelu.</p>
<p>Miery neistoty sú informačno-teoretické a vyžadujú len log-pravdepodobnosti na úrovni tokenov: pravdepodobnosť sekvencie (sumárny negatívny log-prob), perplexita (normalizovaná dĺžkou) a priemerná entropia tokenov (priemerná entropia naprieč pozíciami tokenov). Prah sa kalibruje z vyčlenenej sady rolloutov malého modelu výberom hodnoty, ktorá vyprodukuje cieľový počet volaní veľkého modelu na epizódu K.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class=""><strong>Merať neistotu v kroku akcie, nie v kroku uvažovania.</strong> Pomocný experiment na 2 411 krokoch ALFWorld zistil, že neistota na úrovni uvažovania má slabú rozlišovaciu schopnosť medzi správnymi a nesprávnymi krokmi; perplexita na úrovni akcie má merateľne vyššie ROC-AUC a PRR ako prediktor správnosti.</li>
<li class=""><strong>Odkladanie na základe PPL s Qwen3-80B + GPT-5.2 dosahuje na ALFWorld 80,8 % ± 1,1 %</strong>, čím prekonáva samotný GPT-5.2 s 78,3 % ± 1,9 %, pričom stojí 16,25 USD oproti 45,21 USD — o približne 64 % menej.</li>
<li class=""><strong>V praxi sa odkladá ~15 % krokov</strong>, aby sa dosiahol kalibračný cieľ zhruba 10 %; rozdiel vzniká preto, lebo neúspešné (kratšie) trajektórie neúmerne prispievajú k rozpočtu na odkladanie.</li>
<li class=""><strong>Náhodné odkladanie pri rovnakej miere dosahuje skóre 77,0 %</strong> — stále lepšie ako len malý model (68,3 %), ale horšie ako odkladanie riadené kvantifikáciou neistoty (UQ). Signál neistoty skutočne záleží, nie len samotný fakt častejšieho volania veľkého modelu.</li>
<li class=""><strong>MiniGrid ukazuje menej priestoru na zlepšenie.</strong> Qwen3-80B + GPT-5.2 s odkladaním PPL dosahuje 95,0 % oproti 99,0 % pre samotný GPT-5.2. Menšia slovná zásoba úloh vytvára tvrdší strop pre prístup s odkladaním, keď je malý model štrukturálne neadekvátny.</li>
<li class=""><strong>Distribúcia odkladania závisí od úlohy.</strong> ALFWorld odkladá viac v neskorších krokoch (dlhšia história promptu), zatiaľ čo MiniGrid vykazuje bimodálny vzorec spojený s počiatočnou pozíciou agenta. To znamená, že fixná kalibrácia prahu sa lepšie zovšeobecňuje v rámci rodiny úloh než naprieč rôznymi rodinami.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-sedí--a-čo-nie">Čo sedí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%C4%8Do-sed%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo sedí — a čo nie" title="Priamy odkaz na Čo sedí — a čo nie" translate="no">​</a></h2>
<p>Základné empirické zistenie je vierohodné: perplexita nad reťazcom akcie je rozumným ukazovateľom toho, či sa daný krok pokazí. Dekompozícia uvažovanie/konanie v ReAct prirodzene poskytuje čistý bod na pripojenie signálu neistoty a pomocný experiment predikcie správnosti poskytuje skutočné mechanistické odôvodnenie pre túto voľbu dizajnu.</p>
<p>Čím som si menej istý: výsledkom na ALFWorld, kde „prekonáva samotný veľký model“. 80,8 % ± 1,1 % oproti 78,3 % ± 1,9 % sa prekrýva v rámci jednej smerodajnej odchýlky. Autori to pripisujú komplementárnym silným stránkam — malý model zvláda rutinné kroky bez občasného riskovania veľkého modelu — ale neexistuje žiadna ablácia po jednotlivých krokoch, ktorá by tento príbeh overila. Môže to byť pokojne len šum.</p>
<p>Výber benchmarkov je tiež obmedzujúci. ALFWorld a MiniGrid sú textové simulácie domácnosti a navigácia v mriežkovom svete — úzke prostredia, ktoré nevyužívajú volanie nástrojov, vykonávanie kódu ani vyhľadávanie vo viacerých dokumentoch. Či odkladanie kalibrované podľa neistoty funguje aj v týchto bohatších nastaveniach (nastaveniach relevantných pre Beancount), zostáva nezodpovedané. A voľba GPT-5.2 ako veľkého modelu sťažuje reprodukciu nákladov.</p>
<p>Kalibračný postup má neriešenú cyklickosť: prah sa vyberá na rovnakej distribúcii, na ktorej bol kalibrovaný, bez vyčlenenej validácie. Autori priznávajú posun distribúcie medzi kalibráciou (rollouty malého modelu) a vyhodnotením (hybridné rollouty), ale robustnosť prahu nechávajú na budúcu prácu.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-finančnú-ai">Prečo je to dôležité pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre finančnú AI" title="Priamy odkaz na Prečo je to dôležité pre finančnú AI" translate="no">​</a></h2>
<p>Agenti Beancount pre spätný zápis čelia presne tej istej otázke odkladania pri každej transakcii. Bežný nákup potravín potrebuje kategorizáciu; neobvyklý viacstranný swap v cudzej mene s čiastočne zhodujúcim sa popisom potrebuje človeka. Súčasná prax je buď plná automatizácia (riziková), alebo plná ľudská kontrola (drahá). Rámec ReDAct naznačuje realizovateľnú strednú cestu: spustiť lacný model a eskalovať, keď perplexita nad kandidátom na zápis do denníka prekročí kalibrovaný prah.</p>
<p>Finančný kontext pridáva dve úvahy, ktorými sa článok nezaoberá. Po prvé, odkladanie by tu malo často znamenať <em>zastavenie a opýtanie sa používateľa</em>, nie volanie väčšieho LLM — štandardom správnosti účtovnej knihy je zámer používateľa, nie skóre v benchmarku. Po druhé, nezvratnosť potvrdeného zápisu v Beancounte je vyššia ako pri nesprávne umiestnenom objekte v ALFWorld. Kalibračný cieľ K by mal byť pravdepodobne ladený konzervatívne smerom k nižšej precíznosti malého modelu pred odložením, nie naopak.</p>
<p>Signál o 64 % znížení nákladov stojí za vážne zváženie aj s týmito výhradami. Ak agent Beancount spracuje mesačné transakcie a len 15 % rozhodnutí o kategorizácii potrebuje drahý model, ekonomika prevádzky schopného agenta pre spätný zápis vyzerá oveľa lepšie.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class=""><strong>KnowNo</strong> (Ren et al., 2023, CoRL): „Robots that ask for help: uncertainty alignment for large language model planners“ — využíva konformnú predikciu na kalibráciu garancie <em>pokrytia</em> toho, kedy požiadať o pomoc. ReDAct sa s ním neporovnáva; pochopenie kompromisu medzi konformnými garanciami a kalibráciou prahu je dôležité pred výberom produkčného prístupu. [arXiv:2307.01928]</li>
<li class=""><strong>A Survey of Confidence Estimation and Calibration in Large Language Models</strong> (Guo et al. aktualizované, NAACL 2024) — systematická taxonómia verbalizovanej dôvery, metód založených na samplovaní a post-hoc kalibrácii; teoretické pozadie pre rozhodnutie, či je perplexita správnym zástupcom neistoty alebo či by lepšie fungovalo kalibrované škálovanie logitov. [arXiv:2311.08298]</li>
<li class=""><strong>UALA: Uncertainty-Aware Language Agent</strong> (Han, Buntine, Shareghi) — aplikuje štrukturálne podobný prah neistoty na rozhodnutie o <em>vyvolaní nástroja</em> (volať nástroj vs. spoliehať sa na znalosti modelu), čím znižuje volania nástrojov o viac ako 50 %; priamy doplnok k ReDAct pre os neistoty agenta pri používaní nástrojov. [<a href="https://uala-agent.github.io/" target="_blank" rel="noopener noreferrer" class="">https://uala-agent.github.io/</a>]</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Automation" term="Automation"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Decision-making" term="Decision-making"/>
        <category label="Plain-Text Accounting" term="Plain-Text Accounting"/>
        <category label="Trust" term="Trust"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[OpenHands: Otvorená platforma pre AI softvérových agentov a čo to znamená pre automatizáciu financií]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents"/>
        <updated>2026-06-30T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[OpenHands je platforma pre agentov s licenciou MIT a sandboxom v Dockeri, kde CodeAct dosahuje 26 % na SWE-Bench Lite – triezvy benchmark, ktorý stanovuje, čo dnes AI agenti dokážu spoľahlivo urobiť a prečo by prvé produktívne nasadenia vo financiách mali byť úzko špecifikované namiesto autonómnych.]]></summary>
        <content type="html"><![CDATA[<p>Stále častejšie sa stretávam s OpenHands ako podpornou vrstvou pod TheAgentCompany, InvestorBench a rastúcim zoznamom evaluačných prác — napriek tomu som si pôvodný dokument ešte neprečítal. Toto je infraštruktúra, na ktorej potichu stavia zvyšok odvetvia, takže pochopenie toho, čo skutočne poskytuje a kde zlyháva, je dôležitejšie než akýkoľvek jednotlivý výsledok benchmarku postavený na nej.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="odborný-článok">Odborný článok<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#odborn%C3%BD-%C4%8Dl%C3%A1nok" class="hash-link" aria-label="Priamy odkaz na Odborný článok" title="Priamy odkaz na Odborný článok" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=OpenHands%3A%20Otvoren%C3%A1%20platforma%20pre%20AI%20softv%C3%A9rov%C3%BDch%20agentov%20a%20%C4%8Do%20to%20znamen%C3%A1%20pre%20automatiz%C3%A1ciu%20financi%C3%AD" alt="2026-06-30-openhands-open-platform-ai-software-developers-generalist-agents" class="img_ev3q"></p>
<p>OpenHands (Wang et al., 2024; ICLR 2025) je open-source platforma na budovanie a vyhodnocovanie LLM agentov, ktorí fungujú ako generalistickí softvéroví vývojári. Hlavným tvrdením článku, ktorý viedli Xingyao Wang a Graham Neubig s 24-členným tímom, je, že väčšina existujúcich rámcov pre agentov je buď príliš výskumne zameraná (pevne zakódované cykly úloh), alebo príliš produkčne obmedzená (uzavretý kód alebo jednoúčelovosť), aby mohli slúžiť ako spoločný základ pre výskumnú komunitu. OpenHands sa to snaží napraviť poskytnutím štandardizovaného runtime prostredia, čistej abstrakcie agenta a 15 integrovaných benchmarkov v jednom repozitári s licenciou MIT.</p>
<p>Runtime je prostredie so sandboxom v Dockeri, ktoré obsahuje bash shell, Jupyter IPython server a prehliadač Chromium ovládaný cez Playwright. Agenti interagujú prostredníctvom troch primárnych typov akcií: <code>IPythonRunCellAction</code> pre Python, <code>CmdRunAction</code> pre príkazy shellu a <code>BrowserInteractiveAction</code> pre navigáciu na webe. Primitív pre koordináciu viacerých agentov, <code>AgentDelegateAction</code>, umožňuje hlavnému agentovi vytvárať špecializovaných podagentov. Predvoleným jadrom je CodeAct — pôvodne publikovaný ako samostatný článok tvrdiaci, že kód je ideálnym jednotným akčným priestorom pre LLM agentov — a platforma obsahuje niekoľko implementácií agentov vrátane všeobecného CodeActAgenta a špecializovaného BrowsingAgenta.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class=""><strong>Kód ako univerzálny akčný priestor</strong>: CodeAct konsoliduje všetky akcie agenta (úpravy súborov, volania API, transformácie dát) do Pythonu alebo bashu, čo umožňuje LLM uvažovať v rovnakom médiu, na ktorom bolo najviac trénované. Tým sa obchádza krehkosť JSON schém, ktorá trápi agentov využívajúcich volanie funkcií (function-calling).</li>
<li class=""><strong>Sandboxed Docker runtime</strong>: Každý agent beží v izolovanom kontajneri, takže agenti môžu voľne vykonávať ľubovoľný kód bez ohrozenia hostiteľského stroja — čo je nevyhnutný predpoklad pre akéhokoľvek produkčného finančného agenta, ktorému môžu byť zverené reálne prihlasovacie údaje.</li>
<li class=""><strong>15 benchmarkov v jednom systéme</strong>: SWE-Bench Lite (oprava kódu), HumanEvalFix (oprava chýb), WebArena (navigácia na webe), GPQA (uvažovanie na úrovni absolventov), GAIA (všeobecné riešenie úloh) a desať ďalších. Ich spoločné umiestnenie zabraňuje selektívnemu vyhodnocovaniu (cherry-picking).</li>
<li class=""><strong>CodeActAgent + claude-3.5-sonnet dosahuje 26 % na SWE-Bench Lite</strong> a 79,3 % na HumanEvalFix; BrowsingAgent dosahuje 15,5 % na WebArena — čo sú konkurencieschopné zero-shot výsledky bez akéhokoľvek tréningu špecifického pre danú úlohu.</li>
<li class=""><strong>Výkon v GAIA</strong>: 32,1 % s GPTSwarm, čo je hlboko pod 92 % ľudským základom — v súlade s každým iným benchmarkom všeobecných agentov, ktorý ukazuje 60–70 bodovú medzeru medzi človekom a agentom.</li>
<li class=""><strong>Rozsah komunity</strong>: 71,4 tisíc hviezdičiek na GitHub a viac ako 188 prispievateľov v čase podania na ICLR; TheAgentCompany prijala OpenHands ako svoj evaluačný systém, čím mu udelila de facto status benchmarkovej infraštruktúry.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Dizajn runtime prostredia v sandboxe je solidne inžinierske dielo. Izolácia vykonávania agenta v Dockeri je správnym predvoleným nastavením pre akýkoľvek systém, ktorému môže byť neskôr udelený prístup na zápis do reálnych finančných kníh, a je skutočne užitočné, že benchmarky sú umiestnené spolu, a nie roztrúsené v nekompatibilných repozitároch.</p>
<p>Pokrytie benchmarkmi je však skôr ambiciózne než systematické. Týchto 15 benchmarkov pokrýva divoko odlišné typy úloh a úrovne obtiažnosti bez jasného rámca pre to, ako by sa výsledky mali agregovať alebo porovnávať. Uvádzanie 26 % na SWE-Bench Lite popri 79,3 % na HumanEvalFix v tom istom článku riskuje vytvorenie dojmu, že ten istý agent je súčasne priemerný aj vynikajúci — tie úlohy sú jednoducho neporovnateľné. Autori neposkytujú koncepčnú metodológiu pre agregáciu viacerých benchmarkov.</p>
<p>Predpoklad CodeAct — že kód je správny univerzálny formát akcií — je sporný. Dobre funguje pri vývojových úlohách, ale na každú akciu uvaľuje sprostredkovateľskú vrstvu Pythonu/bashu, čo pridáva latenciu a zlyháva, keď sa sémantika akcie nedá čisto mapovať na kód (nejasné inštrukcie používateľa, API čisto v prirodzenom jazyku). Článok neporovnáva CodeAct s nekódovými akčnými priestormi, aby dokázal, že výhoda je skutočná a nie len dôsledkom kvality samotného LLM modelu.</p>
<p>Možno najdôležitejšou medzerou je rozdiel medzi evaluáciou a nasadením. Číslo 26 % v SWE-Bench pochádza z relatívne čistého, dobre špecifikovaného benchmarku. Komunitné správy a diskusie na GitHub konzistentne popisujú oveľa nižšiu spoľahlivosť pri nejednoznačných úlohách v reálnom svete alebo úlohách s dlhým časovým horizontom — rovnaký režim zlyhania, aký zdokumentovala TheAgentCompany. Článok nerieši, ako merať alebo zlepšovať robustnosť pri realistickom šume v špecifikácii úloh.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-finančnú-ai">Prečo je to dôležité pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre finančnú AI" title="Priamy odkaz na Prečo je to dôležité pre finančnú AI" translate="no">​</a></h2>
<p>OpenHands je to najbližšie k spoločnému substrátu pre agentov, čo komunita má. Ak Bean Labs buduje evaluačnú infraštruktúru pre agentov Beancount, architektúra runtime, ktorá je tu použitá — Docker sandbox, Python/bash akcie, vymeniteľné LLM backendy — stojí za prijatie namiesto opätovného budovania. Primitív <code>AgentDelegateAction</code> sa prirodzene mapuje na proces finančného agenta, kde orchestrátor najvyššej úrovne deleguje prácu špecializovaným podagentom: jeden na čítanie z účtovnej knihy, jeden na označovanie anomálií, jeden na navrhovaný spätný zápis, ktorý skontroluje človek.</p>
<p>Čísla zo SWE-Bench a TheAgentCompany spoločne stanovujú triezvy predpoklad: aj tí najlepší dostupní agenti dokončia približne 26–30 % realistických, jednoznačných softvérových úloh. Automatizácia finančných kníh je náročnejšia — transakcie sú často nejednoznačné, rozsah možných škôd pri chybách je reálny a zámery používateľa sú často nedostatočne špecifikované. Správnym záverom nie je to, že agenti nie sú pripravení, ale to, že prvé produktívne nasadenia budú úzko zamerané pracovné postupy typu "zapíš raz" (návrhy kategorizácie, označovanie pri odsúhlasovaní) namiesto autonómnych viacstupňových úprav účtovnej knihy.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class=""><strong>ReDAct: Uncertainty-Aware Deferral for LLM Agents</strong> (arXiv:2604.07036) — páruje lacný model s drahým a deleguje úlohu na drahý model len vtedy, keď je neistota vysoká; priamo rieši, ako by sa mal agent v štýle OpenHands rozhodovať, kedy postúpiť zápis do Beancount na ľudskú kontrolu.</li>
<li class=""><strong>FinTrace: Holistic Trajectory-Level Evaluation of LLM Tool Calling for Long-Horizon Financial Tasks</strong> (arXiv:2604.10015) — 800 expertmi anotovaných sekvencií úloh v 34 finančných scenároch; metodológia evaluácie, ktorá OpenHands chýba pre finančne špecifické používanie nástrojov s dlhým horizontom.</li>
<li class=""><strong>FinMCP-Bench: Benchmarking LLM Agents for Real-World Financial Tool Use under the Model Context Protocol</strong> (arXiv:2603.24943) — 613 vzoriek naprieč 65 reálnymi MCP finančnými nástrojmi, priamo relevantné pre to, ako by sa vyhodnocoval Beancount agent postavený na runtime OpenHands v reálnom nasadení MCP.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="Open Source" term="Open Source"/>
        <category label="Automation" term="Automation"/>
        <category label="LLM" term="LLM"/>
        <category label="Developers" term="Developers"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Plain-Text Accounting" term="Plain-Text Accounting"/>
        <category label="Machine Learning" term="Machine Learning"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Fin-RATE: Ako LLM zlyhávajú pri finančnej analýze medzi obdobiami a entitami]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark"/>
        <updated>2026-06-29T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[Fin-RATE testuje 17 modelov LLM na 7 500 odborne zostavených dvojiciach otázok a odpovedí z 2 472 výkazov SEC, čo odhaľuje prepad presnosti o 18,60 % pri longitudinálnom sledovaní a pokles o 54 bodov u finančne špecializovaného modelu Fin-R1 pri úlohách naprieč entitami – pričom hlavným úzkym hrdlom je proces vyhľadávania (retrieval), nie samotný model.]]></summary>
        <content type="html"><![CDATA[<p>Trajektória benchmarkov finančných LLM sa neustále rozširuje a Fin-RATE je doteraz najjasnejším príkladom toho, čo sa stane, keď od modelov konečne žiadame to, čo robia skutoční analytici: sledovať spoločnosť nielen v rámci jedného výkazu, ale počas viacerých období a v porovnaní s konkurentmi v odvetví.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="o-dokumente">O dokumente<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#o-dokumente" class="hash-link" aria-label="Priamy odkaz na O dokumente" title="Priamy odkaz na O dokumente" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=Fin-RATE%3A%20Ako%20LLM%20zlyh%C3%A1vaj%C3%BA%20pri%20finan%C4%8Dnej%20anal%C3%BDze%20medzi%20obdobiami%20a%20entitami" alt="2026-06-29-fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark" class="img_ev3q"></p>
<p>Fin-RATE, publikovaný vo februári 2026 Yidongom Jiangom, Junrongom Chenom a kolegami z Yale a spolupracujúcich inštitúcií, predstavuje benchmark vytvorený z 2 472 výkazov SEC od 43 spoločností v 36 odvetviach z rokov 2020 – 2025. Benchmark organizuje 7 500 odborne zostavených dvojíc otázok a odpovedí do troch typov úloh, ktoré odzrkadľujú pracovné postupy profesionálnych analytikov: DR-QA (detail a uvažovanie v rámci jedného výkazu), EC-QA (porovnanie dvoch spoločností v rámci spoločnej témy) a LT-QA (longitudinálne sledovanie tej istej firmy naprieč výkaznými obdobiami). Každý typ úlohy obsahuje 2 500 otázok. Hodnotenie zahŕňa 17 modelov LLM – uzavreté modely vrátane GPT-4.1 a GPT-5, open-source všeobecné modely ako DeepSeek-V3 a Llama-3.3-70B a finančne špecializované modely ako Fin-R1, Fino1-14B, FinanceConnect-13B a TouchstoneGPT-7B. Bodovanie využíva zjednotený rámec LLM-as-Judge s tromi nezávislými sudcami (GPT-5, DeepSeek-V3.2, Qwen3-235B), ktorí hodnotia každú odpoveď z hľadiska správnosti a piatich analytických dimenzií.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class="">Výkon klesá so zvyšujúcou sa komplexnosťou úloh: presnosť klesá o 18,60 % pri prechode z DR-QA (jeden dokument) na LT-QA (longitudinálne sledovanie) a o 14,35 % z DR-QA na EC-QA (medzi entitami), v priemere u všetkých 17 modelov.</li>
<li class="">GPT-5 s vyhľadávaním na webe je najlepším modelom, avšak jeho maximálna presnosť sa pohybuje len na úrovni 43 – 44 % vo všetkých troch typoch úloh – čo je žalostné pre benchmark, ktorý má odrážať prácu skutočných analytikov.</li>
<li class="">Fin-R1, finančne špecializovaný model uvažovania, dosahuje 57,48 % v DR-QA, ale prepadá sa na 3,32 % v EC-QA – pokles o 54 bodov, ktorý ďaleko prevyšuje zhoršenie akéhokoľvek všeobecného modelu.</li>
<li class="">V prostredí RAG klesá výkon všetkých modelov hlboko pod 27 % v porovnaní s výkonom pri ideálnom kontexte (gold-context), ktorý dosahuje až 57,48 %; úzkym hrdlom je proces vyhľadávania (retrieval), nie samotný model LLM.</li>
<li class="">Dokument zavádza taxonómiu 13 typov chýb v štyroch kategóriách: halucinácie a rozpory, finančne špecifické numerické a sémantické chyby, chyby v pochopení dopytu/kontextu a zlyhania na úrovni vyhľadávania. Chýbajúce dôkazy (Missing Evidence) predstavujú 75,44 % chýb v úlohe EC-QA v režime RAG.</li>
<li class="">Finančne špecializované modely vykazujú pri zložitých úlohách systematicky vyššiu mieru halucinácií než všeobecné modely, napriek lepšej finančnej terminológii.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Štruktúra troch ciest je skutočne dobre navrhnutá. Väčšina finančných benchmarkov (FinQA, TAT-QA, FinanceBench) považuje QA za úlohu založenú na jednom dokumente. Fin-RATE je jeden z prvých, ktorý explicitne modeluje porovnávanie medzi entitami a longitudinálne sledovanie ako prvoradé úlohy, pričom výsledky odhaľujú zásadnú medzeru: súčasné LLM zvládajú QA pri izolovaných zverejneniach prijateľne, ale rozpadajú sa v momente, keď potrebujú syntetizovať informácie naprieč dokumentmi, entitami alebo časovými obdobiami.</p>
<p>Kolaps Fin-R1 je najvýraznejším zistením dokumentu a myslím si, že sa mu nevenuje dostatočná pozornosť. Finančne vyladený model, ktorý vyniká v extrakcii z jedného dokumentu, sa zjavne naučil pracovať len v úzkom rámci: osvojil si šablóny pre odpovede v rámci jedného dokumentu, nie stratégie uvažovania pre prepájanie entít a časových období. Toto je konkrétne varovanie pred úzkym ladením (fine-tuning) na konkrétnu doménu bez explicitného dohľadu nad uvažovaním s viacerými dokumentmi. Model sa pravdepodobne „preučil“ na plytký vzorec „nájdi číslo vo výkaze“ a nemá žiadnu cestu zovšeobecnenia k úlohe „porovnaj toto číslo s ekvivalentným číslom v inom výkaze od inej spoločnosti“.</p>
<p>Napriek tomu existujú metodologické obavy, ktoré stoja za zmienku. GPT-5 je súčasne jedným z hodnotených modelov aj jedným z troch sudcov bodujúcich odpovede. Autori používajú troch sudcov na zníženie individuálnej predpojatosti, čo pomáha, ale prekrytie sudcu a modelu u najsilnejšieho hodnoteného modelu je znepokojujúce. Dokument uvádza vysokú mieru zhody medzi sudcami, ale samostatne nekvantifikuje, akú časť odpovedí GPT-5 hodnotil samotný model GPT-5, ani či sa jeho sebahodnotenie systematicky líši od ostatných dvoch sudcov. Akákoľvek predpojatosť pri sebahodnotení by umelo nadhodnotila celkový výsledok najlepšieho modelu v štúdii.</p>
<p>Vzorka 43 spoločností je tiež malá. Pokrytie typov výkazov je chvályhodne široké (10-K, 10-Q, 8-K, 6-K, DEF 14A a niekoľko sérií S a SC), ale rovnakých 43 spoločností sa objavuje vo všetkých úlohách. Modely, ktoré videli zverejnenia týchto spoločností počas predtrénovania, majú nekvantifikovanú výhodu a dokument neobsahuje žiadnu analýzu kontaminácie dát.</p>
<p>Zistenie o vyhľadávaní (retrieval) je dôležité, ale neúplné. Dokument identifikuje, že výkon RAG klesá približne o 30 bodov oproti ideálnemu kontextu (gold-context), pretože vyhľadávanie zlyháva. Benchmarkuje však iba jedno nastavenie vyhľadávania – zlyhanie vyhľadávania považuje skôr za diagnózu než za niečo, čo by sa malo systematicky meniť. Nadväzujúci dokument, ktorý by preskúmal rôzne architektúry vyhľadávania na Fin-RATE, by bol oveľa prínosnejší.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-finančnú-ai">Prečo je to dôležité pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre finančnú AI" title="Priamy odkaz na Prečo je to dôležité pre finančnú AI" translate="no">​</a></h2>
<p>Audit účtovnej knihy Beancount potrebuje presne tie dve schopnosti, o ktorých Fin-RATE odhalil, že nefungujú: longitudinálne sledovanie (ako sa tento účet vyvíjal počas fiškálnych rokov?) a porovnávanie medzi entitami (zhoduje sa súvaha tejto dcérskej spoločnosti s konsolidovanou uzávierkou?). Prepad presnosti o 18,60 % pri časovom sledovaní je konkrétne číslo, ktoré by malo korigovať očakávania od akéhokoľvek agenta Beancount uvažujúceho naprieč viacerými výkaznými obdobiami. Ak špičkové modely zlyhávajú na úrovni 43 % pri longitudinálnom QA výkazov SEC aj pri ideálnom kontexte, agent Beancount prechádzajúci viacročnou históriou účtovných kníh by mal byť navrhnutý s explicitným vyhľadávaním, časovým ukotvením a eskaláciou na človeka – nie ako end-to-end LLM inferencia.</p>
<p>Zistenie o dominancii vyhľadávania je kľúčové pre prioritu návrhu systému. Ak je výkon pri ideálnom kontexte takmer dvojnásobný oproti RAG, správnou investíciou je lepšie rozdelenie textu (chunking), výber pasáží a vyhľadávanie – nie schopnejší základný model LLM. Toto zrkadlí zistenia DocFinQA pre dlhé výkazy SEC: úzkym hrdlom je proces okolo modelu.</p>
<p>Varovanie ohľadom Fin-R1 sa priamo vzťahuje aj na prípady použitia Beancount. Jemné ladenie na syntaxi Beancount DSL a vzorcoch transakcií môže vytvoriť model, ktorý dobre zvláda generovanie jednoduchých zápisov, ale zlyháva pri zosúlaďovaní viacerých účtov a období, vďaka čomu je audit užitočný. Špecializácia bez tréningu uvažovania nad viacerými dokumentmi je krehká presne tými spôsobmi, ktoré Fin-RATE meria.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class="">Fin-R1 (arXiv:2503.16252) — pre pochopenie toho, aké tréningové nastavenie viedlo k tak krehkému výkonu naprieč dokumentmi a či uvažovanie nad viacerými dokumentmi bolo vôbec cieľom.</li>
<li class="">FinTrace (arXiv:2604.10015) — hodnotenie trajektórie volania nástrojov LLM v 34 kategóriách finančných úloh; dopĺňa statický QA pohľad Fin-RATE o diagnostiku na úrovni procesov, kde modely vyvolávajú správne nástroje, ale zlyhávajú pri uvažovaní nad výsledkami.</li>
<li class="">OpenHands (arXiv:2407.16741) — otvorená platforma agentov, na ktorej stoja hodnotenia TheAgentCompany; pochopenie jej architektúry objasňuje, ktoré základné schopnosti agentov boli k dispozícii a ktoré nedostatky možno pripísať náročnosti úlohy, a nie obmedzeniam platformy.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Analytics" term="Analytics"/>
        <category label="Financial Reporting" term="Financial Reporting"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Reconciliation" term="Reconciliation"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[FinDER: Skutočné dopyty analytikov odhaľujú 74 % medzeru v návratnosti pri finančnom RAG]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation"/>
        <updated>2026-06-28T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[FinDER benchmarkuje RAG na 5 703 reálnych dopytoch analytikov hedžových fondov voči výkazom 10-K spoločností S&P 500; E5-Mistral dosahuje len 25,95 % návratnosť kontextu a dopyty plné skratiek stoja 8,2 bodu presnosti — dôkaz, že normalizácia dopytov, nie lepšie embeddingy, je prvým riešením pre finančné AI pipeline.]]></summary>
        <content type="html"><![CDATA[<p>FinDER (arXiv:2504.15800) je benchmark pre vyhľadávanie postavený na jednoduchom, ale nedocenenom pozorovaní: dopyty, ktoré píšu skutoční finanční profesionáli, sa vôbec nepodobajú na vyleštené otázky v akademických benchmarkoch. Čítam ho, pretože sa nachádza na priesečníku dvoch tém, ktoré sledujem – medzery vo vyhľadávaní vo finančnej AI a problému praktického realizmu, ktorý začali odhaľovať DocFinQA a FinanceBench.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="práca">Práca<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#pr%C3%A1ca" class="hash-link" aria-label="Priamy odkaz na Práca" title="Priamy odkaz na Práca" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinDER%3A%20Skuto%C4%8Dn%C3%A9%20dopyty%20analytikov%20odha%C4%BEuj%C3%BA%2074%20%25%20medzeru%20v%20n%C3%A1vratnosti%20pri%20finan%C4%8Dnom%20RAG" alt="2026-06-28-finder-financial-dataset-rag-evaluation" class="img_ev3q"></p>
<p>Chanyeol Choi, Jihoon Kwon a kolegovia z firmy zaoberajúcej sa finančnou AI predstavujú dataset 5 703 expertmi anotovaných trojíc dopyt–dôkaz–odpoveď pochádzajúcich z reálnej služby otázok a odpovedí pre analytikov hedžových fondov. Dokumenty sú podania Form 10-K od 490 spoločností z indexu S&amp;P 500, zhromaždené z databázy SEC EDGAR. To, čo odlišuje FinDER od predchádzajúcich benchmarkov, je strana dopytu: 89,86 % dopytov obsahuje tri alebo viac doménovo špecifických skratiek alebo akronymov. Namiesto „Aký je celkový výnos spoločnosti X za fiškálny rok 2023?“ by skutočný analytik mohol napísať „GOOGL 10-K FY23 výnosy rozpis podľa segmentov“. Dataset bol publikovaný na ICLR 2025 Workshop on Advances in Financial AI a neskôr sa objavil na ICAIF 2025.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class=""><strong>Návratnosť vyhľadávania je šokujúco nízka plošne</strong>: E5-Mistral (najlepší hustý retriever) dosahuje celkovú návratnosť kontextu len 25,95 %; BM25 dosahuje 11,68 %. Kategória „Financie“ — tá, ktorá je najviac relevantná pre účtovníctvo — je najťažšia: 15,84 % a 6,42 %.</li>
<li class=""><strong>Samotná nejednoznačnosť dopytov stojí 8,2 bodu presnosti</strong>: Pri testovaní E5-Mistral na 500 dopytoch autori porovnávajú dobre formulované parafrázy (presnosť 33,9) voči skutočným skráteným dopytom (presnosť 25,7). Rozdiel je plne pripísateľný spracovaniu skratiek/akronymov, nie zložitosti dokumentu.</li>
<li class=""><strong>Kvalita vyhľadávania je dominantným úzkym hrdlom pre generovanie</strong>: LLM bez kontextu skórujú blízko nuly (9 – 10 % správne); s 10 najlepšími vyhľadanými pasážami dosahujú 29 – 34 %; s dokonalým „oracle“ kontextom vyskočia na 60 – 68 %. Tento 35-bodový rozdiel medzi realistickými a ideálnymi podmienkami je väčší ako rozdiel medzi open-source a špičkovými modelmi.</li>
<li class=""><strong>Kompozičná aritmetika zlyháva aj pri dobrom vyhľadávaní</strong>: Viackrokové výpočtové úlohy (kompozičné dopyty) dosahujú len ~20 % správnosti vo všetkých štyroch modeloch — Claude-3.7-Sonnet, GPT-o1, DeepSeek-R1-Distill a Qwen-QWQ — dokonca aj s 10 najlepšími vyhľadanými pasážami. GPT-o1 vedie v úlohách na násobenie s 42,90 %, ale pri delení klesá na 27,78 %.</li>
<li class=""><strong>Prehodnocovanie (reranking) pomocou LLM prináša mierne, ale konzistentné zlepšenie</strong>: Ak necháme modely prehodnotiť 10 najlepších výsledkov z E5-Mistral pred odpovedaním, Claude-3.7-Sonnet dosahuje F1 63,05 a GPT-o1 dosahuje 62,90. Deepseek-R1-Distill zaostáva s 60,01, napriek silnému výkonu v štruktúrovanom uvažovaní inde.</li>
<li class=""><strong>Náročnosť kategórií je nerovnomerná</strong>: Dopyty týkajúce sa rizík sa vyhľadávajú najľahšie (E5-Mistral: 33,07 návratnosť); Financie zostávajú najťažšie (15,84). To koreluje so štruktúrou dopytov — zverejnenia rizík používajú prirodzený jazyk (prózu), finančné tabuľky používajú hustú číselnú notáciu.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Základný prínos je solídny: toto je reálna distribúcia dopytov od pracujúcich analytikov a problém so skratkami je skutočný. Akýkoľvek benchmark postavený na Wikipédii alebo crowdsourcingu v štýle FinQA toto prehliada. Trojúrovňová štruktúra hodnotenia — bez kontextu, realistické vyhľadávanie, oracle kontext — je správny dizajn; jasne oddeľuje kvalitu vyhľadávania od kvality uvažovania a ukazuje zvyškovú medzeru v generovaní (stále ~32 – 34 % zlyhanie aj pri perfektnom kontexte pri kvalitatívnych otázkach).</p>
<p>Najslabším miestom práce je reprodukovateľnosť. V čase publikácie nebol dataset verejne dostupný — autori uvádzajú, že ho „plánujú zverejniť neskôr“. To je významný problém pre článok z workshopu, ktorý sa prezentuje ako hodnotiaci štandard. Benchmarky, ktoré nie sú zverejnené, nie sú benchmarkmi; sú to prípadové štúdie. Odvtedy sa objavil na ICAIF 2025, takže zverejnenie mohlo nasledovať, ale verzia na arXiv to nepotvrdzuje.</p>
<p>Hodnotenie vyhľadávania tiež využíva iba štyri jednostupňové modely (BM25, GTE, mE5, E5-Mistral). Chýba hybridné vyhľadávanie, rozširovanie dopytov (query expansion), HyDE alebo krok prepisovania zameraný špecificky na problém skratiek. Vzhľadom na to, že autori presne charakterizovali medzeru spôsobenú skratkami, je prekvapujúce, že netestujú zrejmé riešenie: rozšírenie dopytu („GOOGL“ → „Alphabet Inc.“) pred vyhľadávaním. Tento experiment chýba.</p>
<p>Výsledky generovania si zaslúžia podrobnejšie prečítanie. Výkon ~9 – 10 % bez kontextu nie je užitočná dolná hranica — je to v podstate nula — ale strop 60 – 68 % pri oracle kontexte je informatívnejší, než sa zdá. Aj so správnou pasážou v ruke najlepšie modely zlyhávajú približne v jednej tretine kvalitatívnych otázok a v štyroch pätinách kompozičnej aritmetiky. Na tomto strope záleží: znamená to, že samotné vyhľadávanie problém nevyrieši.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-na-tom-záleží-pre-finančnú-ai">Prečo na tom záleží pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#pre%C4%8Do-na-tom-z%C3%A1le%C5%BE%C3%AD-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo na tom záleží pre finančnú AI" title="Priamy odkaz na Prečo na tom záleží pre finančnú AI" translate="no">​</a></h2>
<p>Distribúcia dopytov vo FinDER dobre mapuje to, ako používatelia Beancountu skutočne komunikujú s agentom nad účtovnou knihou. Používateľ, ktorý si vedie účty roky, bude písať skrátené, kontextuálne dopyty — „AMZN karta Q3 refund?“ namiesto „Aké sú refundácie na kreditnej karte Amazon v treťom štvrťroku?“. Štandardné embedding modely zlyhajú pri vyhľadávaní správnych záznamov, pretože boli trénované na čistom texte v prirodzenom jazyku. 8,2-bodový pokles presnosti od čistých k reálnym dopytom je pravdepodobne konzervatívny pre doménu osobného účtovníctva, kde sú idiosynkratické skratky („prop mgmt popl“ pre „poplatok za správu nehnuteľnosti“) ešte ďalej od trénovacích dát než štandardné skratky SEC.</p>
<p>Strop návratnosti kontextu 25,95 % pri E5-Mistral je hnacou silou: akákoľvek RAG pipeline pre Beancount musí počítať s veľkou časťou chýbajúcich dôkazov. Jedným z dôsledkov je, že opakované vyhľadávanie s vysokou návratnosťou (viacero prechodov, diverzifikované formulácie dopytov) je dôležitejšie ako zvyšovanie F1 pri jednom prechode. Ďalším je, že normalizácia dopytov — mapovanie používateľských skratiek na kánonické názvy účtov pred vyhľadávaním — by mala byť explicitným krokom predbežného spracovania, nie ponechaná na embedding model.</p>
<p>20 % presnosť kompozičnej aritmetiky aj pri oracle kontexte je samostatným signálom: pre výpočtové úlohy v Beancounte je úzkym hrdlom generovania uvažovanie, nie vyhľadávanie. Delegovanie v štýle PAL (generovanie aritmetiky v Pythone namiesto výpočtu v čistom texte) zostáva správnou odpoveďou pre numerické úlohy bez ohľadu na to, aké dobré bude vyhľadávanie.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class=""><strong>Fin-RATE</strong> (arXiv:2602.07294) — sprievodný benchmark pre viacročné sledovanie v podaniach SEC; presnosť klesá o 18,60 % pri časových úlohách, čo je priamo vyjadrený problém viacročnej účtovnej knihy v Beancounte.</li>
<li class=""><strong>IRCoT</strong> (arXiv:2212.10509, ACL 2023) — prekladanie vyhľadávania s uvažovaním pomocou reťazca myšlienok (chain-of-thought); viacprechodová štruktúra vyhľadávania priamo rieši nízku návratnosť pri jednom prechode, ktorú odhaľuje FinDER.</li>
<li class=""><strong>Rozširovanie dopytov pomocou LLM pre doménovo špecifické vyhľadávanie</strong> — žiadna samostatná práca s benchmarkom to zatiaľ nepokrýva dobre, ale medzera v skratkách vo FinDER z toho robí výskumnú prioritu prvého rádu; hľadanie „HyDE financial domain“ a „query expansion SEC filings 2025“ je správnym bodom na začiatok.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Finance" term="Finance"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Financial Reporting" term="Financial Reporting"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Stratení v strede: Pozičná zaujatosť v LLM a jej vplyv na finančnú AI]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts"/>
        <updated>2026-06-27T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[Článok TACL 2024 od Liu a kol. ukazuje, že LLM dosahujú až o 20 bodov horšie výsledky pri informáciách ukrytých v strede dlhých kontextov — degradácia v tvare písmena U ovplyvňujúca každý testovaný model vrátane Claude-1.3-100K — s konkrétnymi dôsledkami na to, ako by mali RAG kanály radiť vyhľadané pasáže v aplikáciách pre financie a účtovníctvo.]]></summary>
        <content type="html"><![CDATA[<p>Keď sa obzriem späť na záznam DocFinQA — kde vyhľadávacie kanály a LLM s dlhým kontextom zlyhali pri podaniach na SEC s kontextom 123 000 tokenov — otázka, ktorú som nechal otvorenú, bola <em>prečo</em>. Tento článok od Liu a kol. (TACL 2024, arXiv:2307.03172) poskytuje mechanistickú odpoveď a ukazuje sa, že tento spôsob zlyhania je jednoduchší a tvrdohlavejší, než by som očakával.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="článok">Článok<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%C4%8Dl%C3%A1nok" class="hash-link" aria-label="Priamy odkaz na Článok" title="Priamy odkaz na Článok" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=Straten%C3%AD%20v%20strede%3A%20Pozi%C4%8Dn%C3%A1%20zaujatos%C5%A5%20v%20LLM%20a%20jej%20vplyv%20na%20finan%C4%8Dn%C3%BA%20AI" alt="2026-06-27-lost-in-the-middle-language-models-long-contexts" class="img_ev3q"></p>
<p>"Lost in the Middle: How Language Models Use Long Contexts" od Nelsona F. Liu, Kevina Lina, Johna Hewitta, Ashwina Paranjapeho, Michela Bevilacqua, Fabia Petroniho a Percyho Lianga realizuje dva cielené experimenty: odpovedanie na otázky na základe viacerých dokumentov nad NaturalQuestions-Open (s 10, 20 a 30 vyhľadanými dokumentmi) a syntetické vyhľadávanie kľúč-hodnota (so 75, 140 a 300 pármi). V každom experimente systematicky menia polohu, kde sa nachádza relevantný dokument alebo pár kľúč-hodnota v rámci vstupného kontextu — začiatok, stred alebo koniec — pričom všetko ostatné zostáva nezmenené. Zistenie je jasné: výkon kopíruje krivku v tvare písmena U s prepadom v strede kontextu a táto krivka sa objavuje pri každom testovanom modeli.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class=""><strong>Tvar písmena U je reálny a konzistentný.</strong> V nastavení QA s 20 dokumentmi bol výkon na prvej pozícii približne 75 % a degradoval na približne 55 % na 10. pozícii, kým sa zotavil na približne 72 % na 20. pozícii — čo predstavuje rozdiel ~20 bodov medzi okrajmi a stredom.</li>
<li class=""><strong>Všetky modely sledujú rovnaký vzorec.</strong> Testované modely zahŕňajú uzavreté aj otvorené, malé aj veľké: GPT-3.5-Turbo (4K a 16K), GPT-4, Claude-1.3 (8K and 100K), MPT-30B-Instruct a LongChat-13B. U-krivka sa prejavila u každého z nich, vrátane modelov explicitne propagovaných pre rozšírené kontextové okná.</li>
<li class=""><strong>Ani Claude-1.3-100K nie je imúnny.</strong> Variant so 100K kontextom sa správal rovnako ako ostatné. Dlhé kontextové okno neznamená, že model mu skutočne venuje pozornosť rovnomerne.</li>
<li class=""><strong>Baseline bez prístupu k dokumentom (closed-book) nastavuje vytriezvejúce dno.</strong> GPT-3.5-Turbo bez akýchkoľvek dokumentov odpovedal správne na 56,1 % otázok NaturalQuestions; s prístupom k práve tomu jednému relevantnému dokumentu dosiahol 88,3 %. Ale pri najhorších stredných pozíciách v nastavení s 20 dokumentmi klesol výkon pod closed-book baseline — čo znamená, že pridanie ďalšieho kontextu bolo aktívne škodlivé.</li>
<li class=""><strong>Modely typu Encoder-decoder (Flan-T5-XXL, Flan-UL2) sú robustnejšie v rámci svojej trénovacej dĺžky, ale pri prekročení kontextu degradujú.</strong> Architektonický rozdiel je dôležitý, ale oba typy pri škálovaní stále degradujú.</li>
<li class=""><strong>Hlavnou príčinou je kauzálne maskovanie pozornosti (causal attention masking).</strong> Každý token môže venovať pozornosť iba predchádzajúcim tokenom, takže pozície na úplnom začiatku akumulujú väčšiu celkovú váhu pozornosti v rámci modelu ako pozície v strede. Efekt nedávnosti (recency effect) zasa vyťahuje koniec kontextu nahor.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Dizajn experimentu je tu obdivuhodne čistý: pozícia je jediná premenná, s ktorou sa manipuluje, úlohy sú štandardné benchmarky a zistenie sa replikuje naprieč širokou škálou rodín modelov. S kľúčovým výsledkom nemám žiadny spor.</p>
<p>Čo považujem za menej presvedčivé, je rámcovanie úlohy vyhľadávania kľúč-hodnota ako zmysluplného zástupcu pre reálne použitie. Vyhľadávanie UUID-to-UUID testuje, či model dokáže zopakovať zapamätaný reťazec, nie či dokáže urobiť niečo, čo vyžaduje logické uvažovanie. U-krivka sa tam objavuje tiež, čo posilňuje tvrdenie o pozičnej zaujatosti, ale zároveň to znamená, že článok spája dva rôzne javy: presnosť vyhľadávania pri úlohách s presnou zhodou a kvalitu uvažovania nad relevantnými pasážami. Chcel by som vedieť, či sa tvar U zhoršuje alebo zlepšuje, keď relevantný dokument vyžaduje viacstupňovú inferenciu pred finálnou odpoveďou, nielen doslovné zopakovanie.</p>
<p>Existuje tu tiež medzera, ktorú autori väčšinou uznávajú, ale neuzatvárajú: nikdy netestujú, či ladenie pomocou inštrukcií (instruction fine-tuning) alebo RLHF mení citlivosť na pozíciu, iba to, či ju mení väčšie kontextové okno. Vzhľadom na to, že hlavná príčina je architektonická (kauzálne maskovanie), mám podozrenie, že ladenie inštrukcií to nevyrieši, ale článok to nepotvrdzuje.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-finančnú-ai">Prečo je to dôležité pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre finančnú AI" title="Priamy odkaz na Prečo je to dôležité pre finančnú AI" translate="no">​</a></h2>
<p>Tento článok poskytuje mechanistické vysvetlenie empirického vzorca, na ktorý neustále narážam. DocFinQA zlyhal na dlhých podaniach na SEC. IRCoT aj FLARE vyhľadávajú viaceré pasáže a pred uvažovaním ich spájajú. Každý RAG kanál, ktorý som vo finančnom kontexte videl, sekvenčne nasype vyhľadané pasáže do promptu a dúfa, že model bude venovať pozornosť tej správnej.</p>
<p>Dôsledok pre agentov Beancount je konkrétny. Ak agent vyhľadá desať záznamov v účtovnej knihe ako kontext, záznamy na pozíciách 3 – 7 sú vystavené najvyššiemu riziku, že budú ignorované alebo že okolo nich dôjde k halucináciám. Toto nie je problém vyhľadávania — je to problém prezentácie. Z tohto článku vyplývajú dve reakcie: buď umiestnite diagnosticky najrelevantnejšie záznamy ako prvé (a posledné), alebo ich nespájajte vôbec a uvažujte nad každou pasážou samostatne.</p>
<p>Zistenie tiež komplikuje naratív o LLM s dlhým kontextom. Každý štvrťrok nový model oznámi väčšie kontextové okno. Tento článok hovorí, že dĺžka okna neznamená to, čo si myslíte, ak v ňom dôkazy distribuujete rovnomerne. Model so 128K kontextom, ktorý pochová relevantnú transakciu na pozícii 60K, je horší ako model so 4K kontextom, ktorý vyhľadá presne tú správnu pasáž.</p>
<p>Pre bezpečnosť spätného zápisu sú dôsledky nepríjemné: ak je model požiadaný o zhrnutie účtovnej relácie a relevantné pravidlo politiky „túto transakciu neúčtovať“ sa objaví v strede dlhého systémového promptu, model sa môže správať, akoby toto pravidlo nikdy nečítal.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class=""><strong>"Found in the Middle: How Language Models Use Long Contexts Better via Plug-and-Play Positional Encoding"</strong> (Zhang et al., arXiv:2403.04797) — navrhuje Multi-scale Positional Encoding (Ms-PoE) ako opravu bez nutnosti trénovania cez škálovanie RoPE; uvádza zlepšenie až o 3,8 bodu na Zero-SCROLLS, čím priamo rieši U-krivku.</li>
<li class=""><strong>"Never Lost in the Middle: Mastering Long-Context Question Answering with Position-Agnostic Decompositional Training"</strong> (arXiv:2311.09198) — volí opačný prístup a trénuje model tak, aby bol explicitne agnostický voči pozícii; porovnanie s Ms-PoE objasňuje, či sú lepším nástrojom jemné doladenie alebo triky pri inferencii.</li>
<li class=""><strong>"Mitigate Position Bias in Large Language Models via Scaling a Single Dimension"</strong> (arXiv:2406.02536) — identifikuje konkrétnu dimenziu pozičných skrytých stavov zodpovednú za zaujatosť a škáluje ju bez opätovného trénovania; doteraz najchirurgickejšia navrhovaná oprava, relevantná pre nasadenie existujúcich modelov bez preškoľovania.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Finance" term="Finance"/>
        <category label="Technology" term="Technology"/>
        <category label="Analytics" term="Analytics"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[Benchmark AD-LLM: GPT-4o dosahuje 0,93+ AUROC Zero-Shot pri detekcii textových anomálií]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection"/>
        <updated>2026-06-26T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[AD-LLM testuje GPT-4o a Llama 3.1 8B v troch úlohách detekcie anomálií – ako zero-shot detektor, nástroj na augmentáciu dát a poradca pri výbere modelu – na piatich NLP datasetoch; GPT-4o dosahuje AUROC 0,93 – 0,99 v režime zero-shot, avšak výber modelu pomocou LLM zostáva nespoľahlivý, čo má priamy vplyv na AI vo finančnom audite.]]></summary>
        <content type="html"><![CDATA[<p>Posledné dva príspevky v tejto sérii sa venovali modelom AnoLLM a CausalTAD – prístupom k tabuľkovej detekcii anomálií založeným na jemnom doladení (fine-tuning) a inžinierstve promptov. Predtým, než ktorýkoľvek z nich nasadíte v produkčnom meradle, musíte vedieť, kde LLM skutočne stoja v širšom spektre paradigiem detekcie anomálií. To je explicitným cieľom AD-LLM, ktorý testuje LLM v troch odlišných úlohách: ako zero-shot detektor, nástroj na augmentáciu dát a poradca pri výbere modelu. Zameriava sa skôr na textové NLP dáta než na tabuľkové záznamy v účtovnej knihe, avšak metodologické ponaučenia sú prenosné.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="štúdia">Štúdia<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%C5%A1t%C3%BAdia" class="hash-link" aria-label="Priamy odkaz na Štúdia" title="Priamy odkaz na Štúdia" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=Benchmark%20AD-LLM%3A%20GPT-4o%20dosahuje%200%2C93%2B%20AUROC%20Zero-Shot%20pri%20detekcii%20textov%C3%BDch%20anom%C3%A1li%C3%AD" alt="2026-06-26-ad-llm-benchmarking-llms-anomaly-detection" class="img_ev3q"></p>
<p>Tiankai Yang, Yi Nian a kolegovia z USC a Texas A&amp;M predstavujú AD-LLM (arXiv:2412.11142, ACL Findings 2025), prvý benchmark na systematické vyhodnotenie LLM v troch paradigmách detekcie anomálií na NLP datasetoch. Nastavenie predstavuje jednotriednu klasifikáciu (one-class classification): trénovacie dáta obsahujú iba normálne vzorky a model musí pri testovaní označiť anomálie. Päť datasetov – AG News, BBC News, IMDB Reviews, N24 News a SMS Spam – je odvodených z úloh klasifikácie textu, kde jedna kategória je určená ako anomálna. Práca stavia dva modely LLM, GPT-4o a Llama 3.1 8B Instruct, proti 18 tradičným neudržiavaným (unsupervised) základným líniám (baselines), ktoré zahŕňajú end-to-end metódy (CVDD, DATE) a dvojkrokové kombinácie embedding+detektor (OpenAI embeddingy + LUNAR, LOF, Isolation Forest atď.).</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class=""><strong>Zero-shot detekcia pri texte funguje dobre.</strong> GPT-4o dosahuje AUROC 0,9293 – 0,9919 v rámci piatich datasetov v nastavení Normálna+Anomália; Llama 3.1 dosahuje 0,8612 – 0,9487. Najlepšia tradičná základná línia, OpenAI + LUNAR, dosahuje na AG News skóre okolo 0,92 – GPT-4o sa jej vyrovnáva alebo ju prekonáva bez akéhokoľvek trénovania.</li>
<li class=""><strong>Syntetická augmentácia pomáha, konzistentne, ale mierne.</strong> Syntetické vzorky generované pomocou LLM zlepšujú pipeline OpenAI + LUNAR na všetkých piatich datasetoch. Augmentácia popisu kategórií tiež zlepšuje väčšinu základných línií, hoci prírastky sú nerovnomerné – Llama 3.1 zlepšuje AUROC o +0,07 pri IMDB Reviews, ale inde sú výsledky menšie.</li>
<li class=""><strong>Výber modelu je slabým článkom.</strong> GPT-o1-preview odporúča modely, ktoré prekonávajú priemerný výkon základných línií na väčšine datasetov a občas sa približujú k najlepšej metóde (napr. pri IMDB Reviews a SMS Spam). Nikdy však spoľahlivo neidentifikuje najlepšie fungujúci model a autori priznávajú, že odporúčania sú založené na zjednodušených vstupoch, ktorým chýbajú štatistiky špecifické pre daný dataset.</li>
<li class=""><strong>Priepasť medzi open-source a proprietárnymi modelmi je reálna.</strong> Náskok GPT-4o v AUROC oproti Llama 3.1 8B je 4 až 13 bodov v závislosti od datasetu, čo je rozdiel konzistentný so vzorcom pozorovaným v prácach o zero-shot detekcii tabuľkových anomálií.</li>
<li class=""><strong>NLP detekcii anomálií stále chýba definitívny benchmark.</strong> Päť datasetov, všetky odvodené z klasifikačných korpusov, je málo. Sprievodná práca NLP-ADBench (EMNLP Findings 2025) rozširuje záber na osem datasetov a 19 algoritmov, ale stále používa rovnakú konštrukciu „sémantická kategória ako anomália“, čo robí tieto úlohy do istej miery umelými.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Zistenia týkajúce sa zero-shot detekcie sú dôveryhodné. Používanie LLM ako hodnotiacich nástrojov (scorers) bez jemného doladenia na označených dátach anomálií je skutočne užitočné, ak je trieda anomálií sémanticky koherentná – spamová správa sa od legitímnej SMS líši spôsobmi, ktorým dobre natrénovaný jazykový model rozumie. Hodnoty AUROC sú vysoké a porovnanie so silnými základnými líniami založenými na OpenAI embeddingoch je spravodlivé.</p>
<p>Rozsah je však úzky spôsobmi, ktoré práca podceňuje. Všetkých päť datasetov kóduje anomálie ako inú <em>tematickú kategóriu</em> – spam verzus legitímne SMS, správy od vyčleneného vydavateľa verzus správy z distribúcie. To znamená, že LLM v podstate vykonáva tematickú klasifikáciu, čo je úloha, na ktorú je explicitne predtrénovaný. Benchmark nezahŕňa sémantické anomálie v rámci jednej kategórie (napr. neobvyklé transakcie v rámci rovnakého typu účtu), čo je presne ten druh anomálie, na ktorom záleží pri finančnom audite.</p>
<p>Úlohy augmentácie dát a výberu modelu sú vyhodnocované na tých istých piatich datasetoch, takže práca nakoniec testuje, či LLM dokážu mierne zlepšiť rôzne aspekty toho istého úzkeho problému. Autori otvorene uvádzajú šesť obmedzení – vrátane toho, že testujú iba podmnožinu LLM, vylučujú režimy few-shot a jemného doladenia a spoliehajú sa na zjednodušené vstupy pre výber modelu – čo je intelektuálne poctivé, ale zároveň to signalizuje, aký predbežný tento benchmark je.</p>
<p>Jeden výsledok stojí za zmienku pre skeptikov: skóre AUPRC sú u oboch modelov podstatne nižšie ako AUROC. Llama 3.1 na BBC News dosahuje AUROC 0,8612, ale AUPRC iba 0,3960, čo odráža nerovnováhu tried v jednotriednom nastavení. V kontextoch auditu s vysokou presnosťou je AUPRC zmysluplnejšou metrikou a tu je obraz menej lichotivý.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-na-tom-záleží-pre-finančnú-ai">Prečo na tom záleží pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#pre%C4%8Do-na-tom-z%C3%A1le%C5%BE%C3%AD-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo na tom záleží pre finančnú AI" title="Priamy odkaz na Prečo na tom záleží pre finančnú AI" translate="no">​</a></h2>
<p>Agenda Bean Labs zahŕňa dva prípady použitia detekcie anomálií: zachytávanie neobvyklých položiek účtovnej knihy v reálnom čase (tabuľkové, štruktúrované) a označovanie podozrivého naratívneho textu vo faktúrach, memách alebo tiketoch podpory (neštruktúrované NLP). AD-LLM hovorí priamo k druhému prípadu a poskytuje nám realistický strop: GPT-4o dokáže zero-shot detegovať anomálie na úrovni tém v texte s AUROC nad 0,93 na čistých, vyvážených datasetoch. To je užitočný základ, ale anomálie v opisoch účtovnej knihy sú jemnejšie – poznámka na faktúre, ktorá popisuje rutinnú službu, ale patrí dodávateľovi označenému pre podozrivé vzorce, nie je problémom tematickej klasifikácie. Benchmark poskytuje východiskový bod, nie odpoveď.</p>
<p>Zistenie o výbere modelu je samostatne zaujímavé pre návrh systému. Sen o tom, že sa spýtame LLM „ktorý detektor anomálií mám použiť na tomto datasete?“ a dostaneme spoľahlivú odpoveď, sa zatiaľ nenapĺňa. To znamená, že výber medzi jemným doladením v štýle AnoLLM, kauzálnym promptovaním v štýle CausalTAD alebo klasickou metódou embeddingov stále vyžaduje ľudský úsudok alebo systematické empirické vyhodnotenie – nemožno to delegovať na LLM poradcu.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class=""><strong>NLP-ADBench</strong> (arXiv:2412.04784, EMNLP Findings 2025) – sprievodný benchmark od rovnakej skupiny, pokrývajúci osem datasetov a 19 algoritmov; poskytuje širší kontext klasických základných línií, ktorý rozsah piatich datasetov AD-LLM nemôže obsiahnuť.</li>
<li class=""><strong>Large Language Models for Anomaly and Out-of-Distribution Detection: A Survey</strong> (arXiv:2409.01980, NAACL Findings 2025) – prehľad celého prostredia prístupov k detekcii anomálií založených na LLM v textových, obrazových a tabuľkových modalitách; dopĺňa kontext o tom, kde sa AD-LLM nachádza v porovnaní s predchádzajúcimi prácami.</li>
<li class=""><strong>AnoLLM: Large Language Models for Tabular Anomaly Detection</strong> (OpenReview:7VkHffT5X2, ICLR 2025) – tabuľkový náprotivok; porovnanie jeho prístupu založeného na pravdepodobnosti (likelihood) so zero-shot stratégiou AD-LLM založenou na promptoch objasňuje, ktorá paradigma je vhodnejšia pre položky účtovnej knihy Beancount.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Fraud Detection" term="Fraud Detection"/>
        <category label="Analytics" term="Analytics"/>
        <category label="Anomaly Detection" term="Anomaly Detection"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[CausalTAD: Kauzálne usporiadanie stĺpcov pre detekciu anomálií v tabuľkových dátach pomocou LLM]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection"/>
        <updated>2026-06-25T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[CausalTAD zlepšuje detekciu anomálií v tabuľkových dátach založenú na LLM preusporiadaním stĺpcov tabuľky tak, aby rešpektovali kauzálne závislosti pred serializáciou, čím zvyšuje priemerné AUC-ROC z 0,803 na 0,834 oproti AnoLLM na benchmarkoch so zmiešanými typmi dát — s priamym dopadom na detekciu anomálií v štruktúrovaných údajoch účtovných kníh.]]></summary>
        <content type="html"><![CDATA[<p>Predchádzajúci záznam sa venoval AnoLLM, ktorý dolaďuje malý model LLM na bodovanie tabuľkových anomálií prostredníctvom negatívnej logaritmickej vierohodnosti. CausalTAD (arXiv:2602.07798) kladie zásadnú doplňujúcu otázku: záleží na poradí, v akom stĺpce do tohto LLM vkladáte? Odpoveď znie áno – a vloženie kauzálnej štruktúry do usporiadania vám prinesie konzistentné a reprodukovateľné zlepšenie.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="odborný-príspevok">Odborný príspevok<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#odborn%C3%BD-pr%C3%ADspevok" class="hash-link" aria-label="Priamy odkaz na Odborný príspevok" title="Priamy odkaz na Odborný príspevok" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=CausalTAD%3A%20Kauz%C3%A1lne%20usporiadanie%20st%C4%BAlpcov%20pre%20detekciu%20anom%C3%A1li%C3%AD%20v%20tabu%C4%BEkov%C3%BDch%20d%C3%A1tach%20pomocou%20LLM" alt="2026-06-25-causaltad-causal-knowledge-llm-tabular-anomaly-detection" class="img_ev3q"></p>
<p>Wang a kol. navrhujú CausalTAD, metódu, ktorá stojí nad detektormi anomálií typu AnoLLM a robí jednu cielenú zmenu: namiesto serializácie tabuľkových riadkov v náhodnom alebo ľubovoľnom poradí stĺpcov zisťuje kauzálne závislosti medzi stĺpcami a preusporiada ich tak, aby tieto závislosti rešpektovali ešte predtým, než LLM riadok prečíta.</p>
<p>Príspevok má dve pohyblivé časti. Po prvé, modul usporiadania stĺpcov riadený kauzalitou. Autori adaptujú rámec na extrakciu faktorov COAT: LLM číta metadáta stĺpcov a vzorky na extrakciu sémantických faktorov na vysokej úrovni (pri transakciách kreditnou kartou môže faktor ako „Kompenzácia“ zahŕňať stĺpce sumy a obchodníka). Z týchto faktorov tri algoritmy na zisťovanie kauzality — PC, LiNGAM a FCI — každý zostaví orientovaný kauzálny graf nad faktormi. Problém preusporiadania stĺpcov sa potom stáva problémom lineárneho usporiadania (Linear Ordering Problem): nájsť permutáciu π, ktorá maximalizuje súčet váh orientovaných hrán tak, aby sa stĺpce príčiny objavili pred stĺpcami následku v serializovanom texte. Keďže lineárne programovanie (LP) má mnoho takmer optimálnych riešení, odoberajú vzorku K ≈ 10 usporiadaní v rámci 90 % optima a vypočítajú z nich priemer.</p>
<p>Po druhé, modul prehodnotenia váh zohľadňujúci kauzalitu. Nie všetky stĺpce sú rovnako relevantné. Stĺpec, ktorý ovplyvňuje mnoho faktorov, získa vyššiu váhu αj = |M⁻¹(cj)|, čo je počet faktorov, ku ktorým prispieva. Konečné skóre anomálie je vážený priemer negatívnych logaritmických vierohodností na stĺpec naprieč K usporiadaniami.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class="">Usporiadanie stĺpcov je netriviálny induktívny bias pre autoregresné modely LLM: umiestnenie stĺpca s príčinou pred stĺpec s následkom umožňuje modelu podmieniť sa správnym kontextom pri priraďovaní vierohodnosti následku.</li>
<li class="">Zisťovanie kauzality na úrovni faktorov (namiesto úrovne surových stĺpcov) umožňuje metóde spracovávať tabuľky so zmiešanými typmi dát, kde je priame zisťovanie kauzality medzi heterogénnymi stĺpcami zašumené.</li>
<li class="">Na 6 benchmarkových súboroch dát so zmiešanými typmi dosahuje CausalTAD s modelom SmolLM-135M priemerné AUC-ROC 0,834 oproti 0,803 pri AnoLLM — čo je absolútne zlepšenie o 3,1 bodu pri rovnakom základnom modeli.</li>
<li class="">Konkrétne na súbore dát Fake Job Posts dosahuje CausalTAD skóre 0,873 oproti 0,800 pri AnoLLM — relatívny zisk 9,1 %, čo je dostatočne významné v reálnom systéme triáže.</li>
<li class="">Naprieč 30 numerickými benchmarkovými súbormi dát ODDS dosahuje CausalTAD najlepšie priemerné AUC-ROC, pričom konzistentne prekonáva klasické základné metódy (Isolation Forest, ECOD, KNN) aj hlboké metódy (DeepSVDD, SLAD).</li>
<li class="">Všetky tri algoritmy na zisťovanie kauzality porazili náhodné usporiadanie v ablačnej štúdii; LiNGAM mierne predstihol PC a FCI na zmiešaných súboroch dát.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Hlavné tvrdenie — že kauzálne poradie stĺpcov pomáha — je dobre podložené. Ablačná štúdia je jasná: výmena náhodného usporiadania za ktorúkoľvek z troch metód zisťovania kauzality zlepšuje výsledky na benchmarku Fake Job Posts (z 0,832 na 0,870–0,873) a prehodnotenie váh na základe počtu faktorov ďalej pomáha v každej konfigurácii. To je dôveryhodný príbeh.</p>
<p>Čo považujem za menej presvedčivé, je predpoklad bootstrappingu. Kauzálny graf je vytvorený pomocou LLM na extrakciu sémantických faktorov práve z tých dát, ktoré má systém analyzovať. Ak LLM nesprávne pochopí doménu — napríklad v prípade účtovného systému na mieru s neštandardnými názvami stĺpcov — extrakcia faktorov bude nesprávna a zlý kauzálny graf je pravdepodobne horší ako náhodné usporiadanie, pretože zavádza systematické skreslenie. Autori priznávajú toto riziko („spolieha sa na schopnosť LLM extrahovať faktory“), ale netestujú presnosť extrakcie faktorov nezávisle.</p>
<p>Existuje tiež problém s výpočtovou réžiou, ktorý je vážnejší, než naznačuje článok. Spustenie troch algoritmov na zisťovanie kauzality, riešenie LP, vzorkovanie K usporiadaní a následné spustenie inferencie na K serializovaných verziách každého testovacieho bodu znásobuje náklady na inferenciu faktorom K. Pre účtovnú knihu s miliónmi záznamov je to dôležité. Článok uvádza, že „budúca práca sa môže zamerať na zlepšenie efektívnosti“, ale neponúka žiadne konkrétne profilovanie.</p>
<p>Napokon, 30 numerických súborov dát ODDS je dobre preštudovaných a pravdepodobne už saturovaných pre metódy tohto typu. Významnejší signál je v 6 súboroch dát so zmiešanými typmi — ktoré sú realistické pre financie — a tamojšie zlepšenia, hoci reálne, sú v absolútnych číslach skôr mierne.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-finančnú-ai">Prečo je to dôležité pre finančnú AI<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-finan%C4%8Dn%C3%BA-ai" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre finančnú AI" title="Priamy odkaz na Prečo je to dôležité pre finančnú AI" translate="no">​</a></h2>
<p>Transakcie v systéme Beancount majú skutočnú kauzálnu štruktúru: suma účtovného zápisu kauzálne ovplyvňuje výber účtu, účet ovplyvňuje očakávanie protistrany a text poznámky je kauzálne závislý od všetkých troch. Náhodná serializácia stĺpcov to ignoruje, čo znamená, že model typu AnoLLM vidí „poznámka: potraviny | účet: Výdavky<!-- -->:Jedlo<!-- --> | suma: 4200 $“ rovnako ľahko ako správne usporiadanú verziu.</p>
<p>CausalTAD poskytuje principiálny spôsob, ako zakódovať, že „suma a účet sú na prvom mieste“, bez toho, aby to bolo natvrdo kódované ako pravidlo. Pre auditných agentov Bean Labs to naznačuje praktickú architektonickú voľbu: pred skórovaním dávky transakcií na anomálie urobte jeden prechod na zistenie kauzálneho grafu nad schémou stĺpcov účtovnej knihy a potom použite toto pevné usporiadanie pre celú následnú inferenciu. Réžia sa zaplatí raz na úrovni schémy, nie pri každej transakcii.</p>
<p>Príklad detekcie podvodov s kreditnými kartami v článku má v podstate rovnakú štruktúru úloh ako detekcia anomálií v účtovnej knihe: heterogénne vlastnosti, vzácne označenia a kauzálne poradie, ktoré doménoví experti poznajú intuitívne, ale ktoré by modely LLM inak ignorovali.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class=""><strong>AD-LLM: Benchmarking Large Language Models for Anomaly Detection</strong> (arXiv:2412.11142, ACL Findings 2025) — systematický benchmark naprieč tromi paradigmami detekcie anomálií pomocou LLM, do ktorého CausalTAD zapadá; jeho prečítanie poskytuje celkový prehľad namiesto jediného porovnania AnoLLM vs CausalTAD.</li>
<li class=""><strong>COAT: Boosting Large Language Model-Based In-Context Learning for Tabular Data</strong> (Liu et al., 2024) — rámec pre extrakciu faktorov, ktorý CausalTAD adaptuje; pochopenie jeho fungovania objasňuje, kde môže kvalita kauzálneho grafu zlyhať.</li>
<li class=""><strong>Causal discovery in heterogeneous data: a survey</strong> — pre pochopenie relatívnych výhod PC vs LiNGAM vs FCI na tabuľkových dátach zmiešaného typu, keďže článok s nimi zaobchádza ako so zameniteľnými, hoci vychádzajú z rôznych predpokladov o nezávislosti.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Fraud Detection" term="Fraud Detection"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Anomaly Detection" term="Anomaly Detection"/>
        <category label="Beancount" term="Beancount"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[AnoLLM: Doladenie LLM pre detekciu anomálií v tabuľkových finančných údajoch]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection"/>
        <updated>2026-06-24T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[AnoLLM (ICLR 2025) preformulováva detekciu anomálií v tabuľkových údajoch ako odhad hustoty pomocou LLM — doladenie na normálnych riadkoch a skórovanie pomocou zápornej logaritmickej vierohodnosti. Prekonáva klasické metódy na súboroch údajov o podvodoch so zmiešanými typmi, ale neponúka výhodu pri čisto numerických údajoch, s reálnymi dôsledkami pre detekciu anomálií v záznamoch účtovnej knihy Beancount.]]></summary>
        <content type="html"><![CDATA[<p>Článok o zero-shot detekcii anomálií pomocou LLM, ktorý som čítal pred dvoma dňami (arXiv:2406.16308), ukázal, že GPT-4 dokáže identifikovať tabuľkové odľahlé hodnoty bez akéhokoľvek trénovania, čím sa vyrovná klasickým základným modelom ako ECOD v benchmarku ODDS. Mal však zjavnú slabinu: žiadať od modelu, aby vypísal zoznam indexov anomálnych riadkov, je nespoľahlivé — open-source modely bežne halucinujú indexy, idú mimo rozsah alebo označujú každý riadok ako podozrivý. AnoLLM, publikovaný na ICLR 2025 autormi Che-Ping Tsai, Ganyu Teng, Phillip Wallis a Wei Ding z Amazonu, túto nespoľahlivosť rieši a zároveň napreduje v súboroch údajov so zmiešanými typmi, kde čisto numerické baseline modely začínajú zaostávať.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="o-čom-je-tento-článok">O čom je tento článok<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#o-%C4%8Dom-je-tento-%C4%8Dl%C3%A1nok" class="hash-link" aria-label="Priamy odkaz na O čom je tento článok" title="Priamy odkaz na O čom je tento článok" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=AnoLLM%3A%20Doladenie%20LLM%20pre%20detekciu%20anom%C3%A1li%C3%AD%20v%20tabu%C4%BEkov%C3%BDch%20finan%C4%8Dn%C3%BDch%20%C3%BAdajoch" alt="2026-06-24-anollm-llm-fine-tuning-tabular-anomaly-detection" class="img_ev3q"></p>
<p>AnoLLM preformulováva detekciu anomálií v tabuľkových údajoch skôr ako odhad hustoty jazykového modelu než ako klasifikáciu pomocou promptov. Namiesto toho, aby autori žiadali LLM o pomenovanie riadkov, ktoré vyzerajú podozrivo, doladia predtrénovaný jazykový model na serializovaných trénovacích riadkoch z normálnej distribúcie a potom ohodnotia každý testovací riadok podľa jeho zápornej logaritmickej vierohodnosti (NLL) v rámci tejto naučenej distribúcie. Riadok, ktorý sa vôbec nepodobá na trénovaciu distribúciu, získa vysoké NLL — to je skóre anomálie. Žiadny formát indexu, žiadne parsovanie výstupu, žiadna krehká extrakcia pomocou regulárnych výrazov.</p>
<p>Serializácia prevádza každý riadok tabuľky na reťazec v prirodzenom jazyku s názvami príznakov a ich hodnotami. Pri stĺpcoch s textovými hodnotami sa NLL normalizuje na stĺpec, aby sa predišlo skresleniu dĺžkou, kde by dlhšie popisy inak mechanicky akumulovali vyššie pravdepodobnostné náklady. Pri numerických a kategorických stĺpcoch sa sčítava surové NLL na úrovni tokenov naprieč polom. Model sa dolaďuje v semi-supervizovanom nastavení — do tréningu vstupujú iba riadky označené ako normálne — až v 2 000 krokoch pomocou distribuovaného tréningu na GPU.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class="">Problém s formátom výstupu: predchádzajúce prístupy k predikcii indexov vyžadujú, aby LLM spoľahlivo vypísali indexy anomálnych riadkov z dávky. Modely z rodiny Llama často priraďujú nesprávne indexy k hodnotám, generujú indexy mimo veľkosti dávky alebo jednoducho uvádzajú všetko ako anomálne. NLL sa tomuto úplne vyhýba.</li>
<li class="">AnoLLM dosahuje najlepší výkon na šiestich benchmarkových súboroch údajov so zmiešanými typmi príznakov, vrátane detekcie podvodov v poistení vozidiel a e-commerce súborov údajov z Kaggle.</li>
<li class="">Na 30 prevažne numerických súboroch údajov benchmarku ODDS dosahuje AnoLLM porovnateľné výsledky s najlepšími klasickými baseline modelmi — nie je jednoznačne lepší, len konkurencieschopný.</li>
<li class="">Normalizácia NLL na stĺpec pre textové príznaky je malé, ale kľúčové inžinierske rozhodnutie: bez neho by popis transakcie s tridsiatimi tokenmi dominoval skóre nad dvojcifernou sumou, čo je nesprávna induktívna predpoveď.</li>
<li class="">Tréningový kontext: zero-shot prístup GPT-4 (arXiv:2406.16308) dosahuje priemerné AUROC 74,1 na ODDS, čo je porovnateľné s ECOD (75,5) a KNN (70,7). Výhoda AnoLLM sa prejavuje konkrétne na súboroch údajov, kde textové a kategorické príznaky nesú významný signál o anomálii.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Hlavná myšlienka NLL je správna. Použitie doladeného jazykového modelu ako odhadu hustoty nad serializovanými riadkami je principiálne a prirodzene spracováva združenú distribúciu všetkých stĺpcov súčasne — čo klasické detektory bez dozoru aplikované stĺpec po stĺpci nedokážu urobiť čisto. Oprava predikcie indexov je skutočne užitočná a porovnanie so zero-shot baseline modelom je férové.</p>
<p>Čo ma zaráža, je rozdiel v nákladoch a prínosoch, o ktorom článok informuje nedostatočne. AnoLLM vyžaduje doladenie a prevádzku LLM pre inferenciu — čo je podstatný infraštruktúrny záväzok v porovnaní s natrénovaním ECOD alebo IsolationForest na CPU v priebehu sekúnd. V benchmarku ODDS (čisto numerickom) je AnoLLM len „na úrovni“, nie lepší. Prípad pre AnoLLM je teda výhradne v režime zmiešaných typov, kde šesť vyhodnotených súborov údajov pochádza z detekcie podvodov na Kaggle. Šesť súborov údajov je tenký empirický základ pre silné odporúčanie, najmä preto, že benchmarkové súbory údajov z Kaggle majú tendenciu mať čisté schémy, pevnú sémantiku stĺpcov a známu skutočnosť (ground truth) — čo sú všetko veci, ktoré produkčným údajom účtovných kníh často chýbajú.</p>
<p>Problém s poradím stĺpcov zostáva tiež otvorený. CausalTAD (arXiv:2602.07798) okamžite identifikoval túto medzeru: AnoLLM serializuje stĺpce v ľubovoľnom poradí, pričom ignoruje kauzálne vzťahy medzi poliami. Pri štruktúrovaných údajoch so známymi kauzálnymi reťazcami — typ účtu ovplyvňuje platné rozsahy transakcií, ktoré ovplyvňujú očakávanú protistranu — je to reálne obmedzenie. CausalTAD definuje zmenu poradia ako problém lineárneho usporiadania a uvádza konzistentné zlepšenie oproti AnoLLM vo viac ako 30 súboroch údajov. Skutočnosť, že táto medzera existovala a dala sa tak rýchlo nájsť, naznačuje, že návrh serializácie AnoLLM nebol úplne domyslený.</p>
<p>Existuje aj otázka rozsahu, ktorou sa článok nezaoberá: pri akom objeme normálnych tréningových príkladov sa doladenie LLM oplatí viac ako napríklad tabuľkový deep learning model trénovaný priamo na numerických príznakoch? Pre osobné účtovné knihy Beancount s niekoľkými tisíckami záznamov môžu náklady na výpočet ľahko prevýšiť akýkoľvek nárast presnosti.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-ai-vo-financiách">Prečo je to dôležité pre AI vo financiách<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-ai-vo-financi%C3%A1ch" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre AI vo financiách" title="Priamy odkaz na Prečo je to dôležité pre AI vo financiách" translate="no">​</a></h2>
<p>Záznamy v účtovnej knihe Beancount sú presne tým druhom údajov so zmiešanými typmi, na ktoré sa AnoLLM zameriava: sumy (numerické), názvy účtov (štruktúrovaný text), príjemca/popis (voľný text), tagy (kategorické), dátumy (štruktúrované). Jeden riadok ako <code>2024-03-15 * "AWS" "Cloud invoice" Assets:Checking -$2,400</code> kóduje informácie naprieč všetkými týmito typmi súčasne. Klasické detektory anomálií tu majú problémy, pretože potrebujú samostatné spracovanie pre každý typ stĺpca a strácajú korelácie medzi nimi — spoločný vzorec, že faktúry „AWS“ by mali byť v určitom rozsahu a mali by smerovať na konkrétny účet.</p>
<p>Prístup NLL v AnoLLM by sa v princípe naučil tieto spoločné vzorce z normálnych historických záznamov a označil by odchýlky v akejkoľvek kombinácii stĺpcov. To je potenciálne užitočnejšie ako JETy založené na pravidlách alebo štatistické testy jedného stĺpca.</p>
<p>Napriek tomu je obmedzenie podvojného účtovníctva štrukturálnou znalosťou, ktorú sa AnoLLM nedokáže naučiť len zo serializovaných riadkov — debet sa musí rovnať kreditu, hierarchie účtov sa musia dodržiavať. Tieto doménové invarianty sú pevné obmedzenia, nie štatistické pravidelnosti, a žiadne množstvo doladenia LLM na historických riadkoch ich nebude spoľahlivo vynucovať, ak tréningové údaje obsahujú akékoľvek výnimky alebo zaokrúhľovacie artefakty. Správna architektúra pravdepodobne kombinuje skórovanie NLL pomocou AnoLLM pre sémantické anomálie s explicitnými kontrolami pravidiel pre tie štrukturálne.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-si-prečítať-ďalej">Čo si prečítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%C4%8Do-si-pre%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo si prečítať ďalej" title="Priamy odkaz na Čo si prečítať ďalej" translate="no">​</a></h2>
<ul>
<li class="">CausalTAD (arXiv:2602.07798) — priamo vylepšuje AnoLLM vložením kauzálneho poradia stĺpcov; najaktuálnejšie nadväzujúce čítanie na vyhodnotenie.</li>
<li class="">AD-LLM: Benchmarking Large Language Models for Anomaly Detection (arXiv:2412.11142, ACL Findings 2025) — poskytuje systematické multiparadigmatické vyhodnotenie, ktoré chýba v článkoch o jednotlivých metódach.</li>
<li class="">„Language Models are Realistic Tabular Data Generators“ (Borisov a kol., arXiv:2210.06280, ICLR 2023) — model BE-GREAT, ktorý AnoLLM používa ako základ; jeho pochopenie objasňuje, čo AnoLLM skutočne vylepšuje okrem predikcie indexov.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="AI" term="AI"/>
        <category label="LLM" term="LLM"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Fraud Detection" term="Fraud Detection"/>
        <category label="Data Science" term="Data Science"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Finance" term="Finance"/>
    </entry>
    <entry>
        <title type="html"><![CDATA[LLM dosahujú 2,3 % v generovaní Beancount DSL: Benchmark LLMFinLiteracy]]></title>
        <id>https://beancount.io/sk/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark</id>
        <link href="https://beancount.io/sk/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark"/>
        <updated>2026-06-23T00:00:00.000Z</updated>
        <summary type="html"><![CDATA[Benchmark LLMFinLiteracy zisťuje, že päť modelov s otvorenými váhami o veľkosti približne 7B generuje plne správne transakcie Beancount len v 2,3 % prípadov, pričom zlyhania sa sústreďujú v účtovnom uvažovaní — nie v syntaxi — čo poukazuje na spätnú väzbu kompilátora v slučke ako na kritický chýbajúci prvok pre spoľahlivých agentov na zápis.]]></summary>
        <content type="html"><![CDATA[<p>Toto je vedecký príspevok, na ktorý som čakal od LOG-001: priamy empirický test toho, či LLM dokážu generovať platné transakcie Beancount DSL z finančných scenárov v prirodzenom jazyku. Figueroa a kol. z Berlínskej univerzity aplikovaných vied predstavujú to, čo – podľa môjho najlepšieho vedomia správne – označujú za prvú publikovanú evalváciu LLM v oblasti generovania finančných transakcií v rámci plain-text účtovníctva. Krátka odpoveď znie: nedokážu to, aspoň nie spoľahlivo, a to ani pri použití promptovania s reťazcom myšlienok (chain-of-thought) a s poskytnutou reálnou súvahou v Beancounte ako kontextom.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="o-príspevku">O príspevku<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#o-pr%C3%ADspevku" class="hash-link" aria-label="Priamy odkaz na O príspevku" title="Priamy odkaz na O príspevku" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=LLM%20dosahuj%C3%BA%202%2C3%20%25%20v%20generovan%C3%AD%20Beancount%20DSL%3A%20Benchmark%20LLMFinLiteracy" alt="2026-06-23-llm-beancount-dsl-financial-literacy-benchmark" class="img_ev3q"></p>
<p>Figueroa, Grundmann, Freidank, Löser a Nejdl hodnotia päť modelov s otvorenými váhami o veľkosti cca 7B na benchmarku s dvoma úlohami, ktorý nazvali LLMFinLiteracy. Úloha 1 vyžaduje od modelov vygenerovať textové scenáre, ktoré by ovplyvnili daný ukazovateľ likvidity (bežnú, pohotovú alebo okamžitú likviditu) na základe reálnej štvrťročnej súvahy jednej z piatich spoločností kótovaných v indexe DAX (Airbus, Bayer, Deutsche Telekom, Mercedes-Benz, SAP). Úloha 2 vyžaduje od modelov preložiť tieto scenáre do skompilovateľných transakcií Beancount. Kompilátor Beancount slúži ako overovateľ syntaktickej správnosti; experti na danú doménu následne hodnotia sémantickú správnosť. Príspevok zavádza taxonómiu chýb s 12 triedami naprieč oboma úlohami a používa 9-krokový prompt s reťazcom myšlienok, ktorý zahŕňa pravidlá podvojného účtovníctva, príklad vstupu/výstupu a reálnu firemnú súvahu vo formáte Beancount. Hodnotené modely — Llama-3-8B, Qwen-2-7B, Mistral-7B, CodeLlama-7B a CodeQwen-1.5-7B — boli všetky spustené lokálne (on-premise) kvôli citlivosti finančných údajov. Korpus celkovo obsahuje 1 500 vygenerovaných vzoriek, pričom 300 stratifikovaných záznamov bolo vyhodnotených ľudskými expertmi.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="kľúčové-myšlienky">Kľúčové myšlienky<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#k%C4%BE%C3%BA%C4%8Dov%C3%A9-my%C5%A1lienky" class="hash-link" aria-label="Priamy odkaz na Kľúčové myšlienky" title="Priamy odkaz na Kľúčové myšlienky" translate="no">​</a></h2>
<ul>
<li class="">Iba 7 z 300 hodnotených párov scenár-transakcia (2,3 %) bolo plne správnych; aj pri obmedzení na tri univerzálne modely sa miera úspešnosti zvýši len na 3,8 %.</li>
<li class="">Dva najlepšie modely, Qwen-2-7B a Mistral-7B, produkujú správne scenáre len v 21,67 % a 20,00 % prípadov a správne skompilovateľné transakcie len v 16,67 % a 10,00 % prípadov.</li>
<li class="">Modely špecializované na kód (CodeLlama, CodeQwen) dosiahli v oboch úlohách 0 %; na šablónu promptu odpovedali doslovným reťazcom „Processed — Waiting for next input“, pričom úlohu úplne ignorovali.</li>
<li class="">Syntax nie je úzkym hrdlom: žiadny model nevyprodukoval ani jednu syntaktickú chybu. Zlyhania spočívajú výhradne v účtovnom <em>uvažovaní</em> — chyby v rovnováhe (balance errors) dominujú u Qwen-2 (61,67 %) a Llama-3 (38,33 %), zatiaľ čo Mistral väčšinou odkazuje na účty, ktoré v poskytnutej súvahe neexistujú (45 % chýb neznámeho účtu).</li>
<li class="">Významná časť transakcií, ktoré sa úspešne skompilujú, je sémanticky nesprávna – obľúbeným trikom modelov je nazývať zníženie záväzku „predajom vášho dlhu“, čo zvyšuje hotovosť, ale z nesprávneho dôvodu.</li>
<li class="">GPT-4o použitý ako automatizovaný hodnotiteľ nedokázal identifikovať nezrovnalosti vo všetkých 10 nezmyselných scenároch, ktoré mu boli predložené, čo potvrdzuje, že sebahodnotenie LLM nie je spoľahlivou bránou kvality pre účtovné výstupy.</li>
<li class="">Modely vo veľkej miere kopírujú príklad vstupu/výstupu v prompte namiesto generalizácie: 7 správnych párov sa úzko podobalo štruktúre poskytnutej ukážkovej transakcie.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-obstojí--a-čo-nie">Čo obstojí — a čo nie<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%C4%8Do-obstoj%C3%AD--a-%C4%8Do-nie" class="hash-link" aria-label="Priamy odkaz na Čo obstojí — a čo nie" title="Priamy odkaz na Čo obstojí — a čo nie" translate="no">​</a></h2>
<p>Hlavný empirický prínos príspevku je solídny. Kompilátor Beancount je objektívne, reprodukovateľné kritérium správnosti a použitie reálnych firemných súvah namiesto umelých dát zvyšuje ekologickú validitu. Hierarchická taxonómia chýb je premyslene navrhnutá — zastavenie hodnotenia pri prvej chybe zabraňuje umelému navyšovaniu „čiastočných bodov“ za nepoužiteľné výstupy.</p>
<p>Napriek tomu existujú zrejmé obmedzenia, ktoré autori väčšinou priznávajú. Päť modelov s otvorenými váhami o veľkosti ~7B z rokov 2023–2024 predstavuje len úzky výsek súčasných schopností; GPT-4o a Claude boli vylúčené z dôvodu ochrany súkromia, čo je pochopiteľné, ale znamená to, že hlavné číslo (2,3 % správne) podhodnocuje možnosti špičkových modelov. Vzorcom finančných ukazovateľov sa v promptoch zámerne vyhli, aby otestovali inherentné znalosti domény — metodologicky zaujímavá voľba, ktorá však robí výsledky neporovnateľnými s akýmkoľvek systémom, ktorý by logicky obsahoval dokumentáciu vzorcov. A 300 ľudsky vyhodnotených vzoriek naprieč piatimi modelmi, tromi ukazovateľmi a piatimi spoločnosťami je skromný počet; skupiny vzoriek pre jednotlivé modely a ukazovatele sú príliš malé (12 vzoriek) na vyvodenie silných záverov o variancii.</p>
<p>Najzaujímavejšou metodologickou medzerou je absencia akéhokoľvek iteratívneho protokolu alebo protokolu založeného na spätnej väzbe. Žiadne volanie nástrojov (tool-calling), žiadna samooprava, žiadna slučka spätnej väzby kompilátora — iba jednorazové generovanie. Vzhľadom na to, že CRITIC (LOG-012) a súvisiace práce ukazujú, že interaktívne vylepšovanie pomocou nástrojov podstatne zvyšuje presnosť pri úlohách s overiteľnými výstupmi, experiment so zapojením kompilátora Beancount do slučky (compiler-in-the-loop) by bol oveľa informatívnejší z hľadiska nasaditeľnosti v praxi.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="prečo-je-to-dôležité-pre-ai-vo-financiách">Prečo je to dôležité pre AI vo financiách<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#pre%C4%8Do-je-to-d%C3%B4le%C5%BEit%C3%A9-pre-ai-vo-financi%C3%A1ch" class="hash-link" aria-label="Priamy odkaz na Prečo je to dôležité pre AI vo financiách" title="Priamy odkaz na Prečo je to dôležité pre AI vo financiách" translate="no">​</a></h2>
<p>Každé konštrukčné rozhodnutie pre agenta na spätný zápis v Bean Labs sa opiera o predpoklady o tom, čo LLM dokážu s Beancount DSL. Tento príspevok je prvou empirickou kotvou. Hlavné zistenia sú triezve, ale zároveň interpretovateľné užitočným spôsobom.</p>
<p>Po prvé, režimy zlyhania sú špecifické, nie náhodné. Chyby v rovnováhe a neznáme účty sú dva dominantné problémy a oba sú riešiteľné pomocou spätnej väzby kompilátora: kompilátor Beancount vám presne povie, ktorý účet je neznámy a či je transakcia vyrovnaná. Architektúra agenta, ktorá iteruje na výstupe kompilátora — namiesto toho, aby raz vygenerovala výstup a skončila — by mala podstatne prekonať tu uvedené jednorazové výsledky. Po druhé, syntax je „zadarmo“. Modely sa jasne naučili povrchovú gramatiku Beancountu; len nedokážu spoľahlivo preložiť finančný zámer do správnych pohybov na účtoch. Tento rozdiel je dôležitý pre určenie toho, kam investovať pri promptovaní a jemnom ladení (fine-tuning). Po tretie, zistenie, že GPT-4o nedokáže automaticky vyhodnotiť kvalitu účtovníctva, zvyšuje nároky na akýkoľvek automatizovaný overovací systém: potrebujete kompilátor plus námatkové kontroly doménovými expertmi, nie LLM kritika.</p>
<p>Príspevok tiež potvrdzuje niečo, čo som tušil pri práci na detekcii anomálií (LOG-049): LLM operujúce nad finančnými transakciami majú tendenciu až príliš ľahko „skompilovať a odoslať“. Kategória „Nesprávne | Skompilovateľné“ – transakcie, ktoré prejdú syntaktickou kontrolou, ale sú sémanticky chybné – je presne ten typ zlyhania, ktorý musí zachytiť bezpečnostná poistka pre spätný zápis. Transakcia môže byť dokonale vyrovnaná a stále účtovať výnosy ako zníženie záväzku, čo by nebolo odhalené žiadnou čisto syntaktickou kontrolou.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="čo-čítať-ďalej">Čo čítať ďalej<a href="https://beancount.io/sk/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%C4%8Do-%C4%8D%C3%ADta%C5%A5-%C4%8Falej" class="hash-link" aria-label="Priamy odkaz na Čo čítať ďalej" title="Priamy odkaz na Čo čítať ďalej" translate="no">​</a></h2>
<ul>
<li class="">AnoLLM: Large Language Models for Tabular Anomaly Detection (OpenReview:7VkHffT5X2, ICLR 2025) — skórovanie anomálií na základe pravdepodobnosti ako alternatíva k prístupu detekcie v dávkach; prirodzene sa kombinuje so signálom z kompilátora Beancount na označenie štrukturálne platných, ale štatisticky anomálnych záznamov.</li>
<li class="">ReDAct: Uncertainty-Aware Deferral for LLM Agents (arXiv:2604.07036) — smeruje rozhodnutia s nízkou istotou na väčší model alebo človeka; priamo rieši otázku, kedy by mal agent na zápis do Beancountu delegovať prácu na ľudskú kontrolu namiesto pokračovania po slučke spätnej väzby kompilátora.</li>
<li class="">CRITIC: Large Language Models Can Self-Correct with Tool-Interactive Critiquing (arXiv:2305.11738, ICLR 2024) — najrelevantnejšia existujúca práca pre budovanie korekčného agenta s kompilátorom v slučke nad architektúrou, ktorú hodnotí tento príspevok.</li>
</ul>]]></content>
        <author>
            <name>Mike Thrift</name>
        </author>
        <category label="LLM" term="LLM"/>
        <category label="Beancount" term="Beancount"/>
        <category label="Plain-Text Accounting" term="Plain-Text Accounting"/>
        <category label="AI" term="AI"/>
        <category label="Machine Learning" term="Machine Learning"/>
        <category label="Financial Literacy" term="Financial Literacy"/>
        <category label="Double-Entry" term="Double-Entry"/>
        <category label="Transaction Validation" term="Transaction Validation"/>
    </entry>
</feed>