Prejsť na hlavný obsah
Queries

Všetko o Queries

8 článkov
Query generation, table reasoning, and structured data retrieval for financial AI

TableMaster: Adaptívne uvažovanie pre porozumenie tabuľkám pomocou LLM

TableMaster je pipeline založená výhradne na promptingu, ktorá dosahuje 78,13 % v benchmarku WikiTQ s modelom GPT-4o-mini – o 13 bodov viac ako Chain-of-Table – kombinovaním extrakcie tabuľky záujmu, sémantickej verbalizácie a adaptívneho prepínania medzi textovým a symbolickým uvažovaním. Tu je význam tejto architektúry pre AI agentov nad finančnými knihami ako Beancount.

TableLlama: Dokáže otvorený model so 7B parametrami konkurovať GPT-4 v porozumení tabuliek?

TableLlama dolaďuje model Llama 2 (7B) na 2,6 milióna príkladoch tabuľkových úloh a prekonáva GPT-4 v štrukturálnych úlohách, ako je anotácia typov stĺpcov (F1 94 vs 32), ale stráca 33 bodov v kompozičnom uvažovaní WikiTQ — kalibrovaný benchmark toho, čo otvorené 7B modely dnes v oblasti finančnej AI dokážu a čo nie.

TAPAS: Slabo dohliadané tabuľkové QA bez SQL a čo to znamená pre Beancount

TAPAS (Google Research, ACL 2020) odpovedá na tabuľkové otázky výberom buniek a aplikovaním skalárnych agregácií – bez generovania SQL. Tento príspevok analyzuje architektúru, jej 12-bodový nárast presnosti SQA a prečo paradigma výberu buniek vyhovuje malým dopytom v Beancount účtovných knihách, ale zlyháva pri väčšom rozsahu.

MAC-SQL: Spolupráca viacerých agentov pri prevode textu na SQL

MAC-SQL (COLING 2025) využíva troch špecializovaných agentov — Selector na redukciu schémy, Decomposer na dekompozíciu otázok a Refiner na opravu SQL riadenú vykonávaním — na dosiahnutie 59,59 % presnosti vykonávania v benchmarku BIRD; ablácia ukazuje, že Refiner prispieva najviac (+4,63 bodu), s priamymi dôsledkami pre generovanie dopytov v účtovných knihách Beancount.

DIN-SQL: Dekomponované učenie v kontexte pre Text-to-SQL

DIN-SQL (NeurIPS 2023) rozkladá proces text-to-SQL na fázy prepájania schém, klasifikácie zložitosti a generovania SQL, čím zvyšuje presnosť vykonávania GPT-4 na benchmarku Spider zo 67,4 % na 85,3 % bez jemného ladenia – a tá istá stratégia dekompozície sa priamo prenáša na rozhrania v prirodzenom jazyku pre dopytovací jazyk BQL nástroja Beancount.

GraphRAG: Od lokálnej po globálnu sumarizáciu zameranú na dopyty

GraphRAG od Microsoftu buduje graf entít rozdelený podľa Leidenského algoritmu nad textovým korpusom a vopred vypočítava súhrny komunít pre zodpovedanie globálnych otázok o zmysle údajov, ktoré štandardný vektorový RAG nezvláda – audit skreslenia z roku 2025 však ukazuje, že jeho 72 – 83 % miera víťazstiev kolabuje po oprave artefaktov pozície a dĺžky pri vyhodnocovaní pomocou LLM ako sudcu.