<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/">
    <channel>
        <title>Beancount.io Blog</title>
        <link>https://beancount.io/fa/bean-labs/research-logs</link>
        <description>Beancount.io Blog</description>
        <lastBuildDate>Sun, 12 Jul 2026 00:00:00 GMT</lastBuildDate>
        <docs>https://validator.w3.org/feed/docs/rss2.html</docs>
        <generator>https://github.com/jpmonette/feed</generator>
        <language>fa</language>
        <item>
            <title><![CDATA[FinRAGBench-V: RAG چندوجهی با استنادهای بصری در حوزه مالی]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain</guid>
            <pubDate>Sun, 12 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[FinRAGBench-V (EMNLP 2025) اولین بنچمارک در مقیاس بزرگ برای RAG چندوجهی با استنادهای بصری در حوزه مالی است که بیش از ۱۱۲ هزار صفحه سند و ۱۳۹۴ جفت سوال و جواب حاشیه‌نویسی شده توسط انسان را پوشش می‌دهد. مدل‌های برتر تنها به ۲۰ تا ۶۱ درصد فراخوانی استناد در سطح بلوک دست می‌یابند و بازیابی چندوجهی تقریباً ۵۰ درصد از بازیابی صرفاً متنی بهتر عمل می‌کند.]]></description>
            <content:encoded><![CDATA[<p>هوش مصنوعی مالی تحت سلطه RAG صرفاً متنی بوده است، اما اسناد مالی واقعی پر از نمودار، جدول و تصویرهایی هستند که OCR نمی‌تواند به طور کامل آن‌ها را ثبت کند. FinRAGBench-V (EMNLP 2025) اولین بنچمارک در مقیاس بزرگ برای ارزیابی RAG چندوجهی با استنادهای بصری در حوزه مالی است و نتایج آن یادآوری هوشیارکننده‌ای است از اینکه سیستم‌های تولیدی هنوز چقدر راه در پیش دارند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinRAGBench-V%3A%20RAG%20%DA%86%D9%86%D8%AF%D9%88%D8%AC%D9%87%DB%8C%20%D8%A8%D8%A7%20%D8%A7%D8%B3%D8%AA%D9%86%D8%A7%D8%AF%D9%87%D8%A7%DB%8C%20%D8%A8%D8%B5%D8%B1%DB%8C%20%D8%AF%D8%B1%20%D8%AD%D9%88%D8%B2%D9%87%20%D9%85%D8%A7%D9%84%DB%8C" alt="2026-07-12-finragbench-v-multimodal-rag-visual-citation-financial-domain" class="img_ev3q"></p>
<p>ژائو، جین، لی و گائو از دانشگاه پکن FinRAGBench-V را معرفی می‌کنند، یک بنچمارک دوزبانه که از اسناد مالی واقعی ساخته شده است: گزارش‌های تحقیقاتی، صورت‌های مالی، امیدنامه‌ها، مقالات آکادمیک، مجلات و اخبار. بدنه بازیابی قابل توجه است—۶۰,۷۸۰ صفحه چینی و ۵۱,۲۱۹ صفحه انگلیسی در تقریباً ۱,۱۰۰ سند برای هر زبان—که با ۱,۳۹۴ جفت سوال و جواب حاشیه‌نویسی شده توسط انسان همراه شده است. این سوالات هفت دسته را پوشش می‌دهند: استنتاج متن، استخراج نمودار و جدول، محاسبات عددی، پرس‌وجوهای حساس به زمان و استدلال چندصفحه‌ای. فراتر از مجموعه داده، دستاورد اصلی مقاله سیستم RGenCite است، یک سیستم پایه که پاسخ‌ها را همراه با استنادهای بصری در سطح پیکسل در قالب مختصات جعبه‌های محصورکننده (bounding-box) تولید می‌کند که مناطق خاصی از سند را که از هر ادعا پشتیبانی می‌کنند، علامت‌گذاری می‌کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class=""><strong>بازیابی چندوجهی با اختلاف فاحشی بر بازیابی صرفاً متنی غلبه می‌کند</strong>: ColQwen2، یک بازیاب بینایی-زبانی که بر اساس تعبیه‌های تصویر-صفحه ساخته شده است، به Recall@10 معادل ۹۰.۱۳٪ (چینی) و ۸۵.۸۶٪ (انگلیسی) دست می‌یابد. بهترین بازیاب‌های مبتنی بر متن، BM25 و BGE-M3، در حدود ۴۲.۷۱٪ متوقف می‌شوند. این شکاف یک خطای گرد کردن نیست.</li>
<li class=""><strong>دقت تولید حتی برای مدل‌های پیشرو پایین است</strong>: GPT-4o در انگلیسی به دقت ۴۳.۴۱٪ (ROUGE 24.66) می‌رسد؛ o4-mini در چینی به ۵۸.۱۳٪ (ROUGE 38.55) دست می‌یابد. این‌ها مدل‌های اختصاصی برتر با سیستم‌های بازیابی قوی هستند.</li>
<li class=""><strong>استناد در سطح صفحه کار می‌کند؛ در سطح بلوک نه</strong>: فراخوانی در سطح صفحه برای بهترین مدل‌ها بین ۷۵ تا ۹۳ درصد است. فراخوانی در سطح بلوک—یعنی دانستن اینکه دقیقاً کدام سلول جدول یا منطقه نمودار پایه یک ادعا است—به ۲۰ تا ۶۱ درصد کاهش می‌یابد. این شکاف اصلی برای قابلیت حسابرسی است.</li>
<li class=""><strong>استدلال عددی و استنتاج چندصفحه‌ای اولین مواردی هستند که باعث شکست مدل‌ها می‌شوند</strong>: سوالاتی که نیاز به محاسبات در صفحات مختلف یا بازه‌های زمانی دارند، جایی هستند که دقت در تمام سیستم‌های آزمایش شده به شدت افت می‌کند.</li>
<li class=""><strong>مدل‌های اختصاصی به طور قابل توجهی از جایگزین‌های متن‌باز بهتر عمل می‌کنند</strong>: شکاف بین APIهای بسته و مدل‌های متن‌باز در اینجا بزرگتر از اکثر بنچمارک‌های NLP است، که نشان می‌دهد استدلال مالی بصری برای مدل‌های باز هنوز حل نشده باقی مانده است.</li>
<li class=""><strong>ارزیابی خودکار برای استنادها ناقص است</strong>: ارزیاب استناد مبتنی بر برش تصویر به همبستگی پیرسون r = 0.68 با قضاوت‌های انسانی دست می‌یابد—که منطقی است اما آنقدر قابل اعتماد نیست که بدون نمونه‌برداری به آن اعتماد کامل کرد.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-درست-است--و-چه-چیزی-نه">چه چیزی درست است — و چه چیزی نه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%AF%D8%B1%D8%B3%D8%AA-%D8%A7%D8%B3%D8%AA--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%D9%87" class="hash-link" aria-label="لینک مستقیم به چه چیزی درست است — و چه چیزی نه" title="لینک مستقیم به چه چیزی درست است — و چه چیزی نه" translate="no">​</a></h2>
<p>یافته مربوط به بازیابی، معتبرترین نتیجه مقاله است. شکاف تقریباً ۵۰ واحد درصدی بین بازیاب‌های چندوجهی و صرفاً متنی در بیش از ۶۰ هزار صفحه، بسیار بزرگتر از آن است که نادیده گرفته شود. وقتی یک سند مالی را قبل از نمایه‌سازی OCR می‌کنید، سیگنال‌های چیدمان ساختاری را از بین می‌برید—اینکه یک عدد در کدام ستون ظاهر می‌شود یا اینکه آیا عنوان یک شکل، تفسیر یک جدول را تغییر می‌دهد یا خیر—که مشخص شده است برای بازیابی اهمیت فوق‌العاده‌ای دارند.</p>
<p>اعداد مربوط به تولید صادقانه هستند اما تفسیر آن‌ها به تنهایی دشوار است. نویسندگان مشخص نکرده‌اند که چه مقدار از شکاف دقت مربوط به خطاهای بازیابی در مقابل شکست‌های تولید است. با توجه به اینکه Recall@10 در حال حاضر برای انگلیسی ۸۵.۸۶٪ است، بخش قابل توجهی از شکست‌ها باید مربوط به بخش تولید باشد تا بازیابی. دانستن این تفکیک مشخص می‌کرد که آیا گلوگاه در استدلال چندوجهی است یا چیزی بنیادی‌تر در مورد نحوه برخورد MLLMها با زبان مالی.</p>
<p>مجموعه ارزیابی شامل ۱,۳۹۴ جفت سوال و جواب برای گستره این بنچمارک کوچک است. با تقسیم بر هفت دسته و دو زبان، برخی بخش‌ها کمتر از ۲۰۰ مثال دارند. معناداری آماری یافته‌های سطح دسته به صورت ضمنی رها شده است. این موضوع برای یک مقاله بنچمارک غیرعادی نیست، اما به این معنی است که ساختن مقایسه‌های دست‌چین شده آسان خواهد بود.</p>
<p>پروتکل ارزیابی استناد یک مشارکت جالب است، اما همبستگی پیرسون r = 0.68 با رتبه‌بندی‌های انسانی آنقدر قوی نیست که بتوان ارزیابی خودکار را به عنوان حقیقت مطلق برای استناد در سطح بلوک در نظر گرفت. نویسندگان به این موضوع اذعان دارند؛ کارهای آینده روی معیارهای استناد بهتر به وضوح مشخص شده است.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-برای-هوش-مصنوعی-مالی-مهم-است">چرا این برای هوش مصنوعی مالی مهم است<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D9%85%D9%87%D9%85-%D8%A7%D8%B3%D8%AA" class="hash-link" aria-label="لینک مستقیم به چرا این برای هوش مصنوعی مالی مهم است" title="لینک مستقیم به چرا این برای هوش مصنوعی مالی مهم است" translate="no">​</a></h2>
<p>Beancount روی فایل‌های دفتر کل متنی ساده اجرا می‌شود، که باعث می‌شود RAG صرفاً متنی برای پرس‌وجوی تراکنش‌های گذشته قابل دفاع باشد. اما وظیفه حسابداری گسترده‌تر شامل اسنادی است که قطعاً متن ساده نیستند: PDFهای صورت‌حساب بانکی، فاکتورهای اسکن شده، تصاویر رسیدها و گزارش‌های سالانه با جداول و نمودارهای تعبیه شده. لحظه‌ای که یک عامل Beancount نیاز پیدا می‌کند تا یک ورودی دفتر کل را با یک سند منبع تطبیق دهد (reconcile)—مثلاً تأیید کند که یک هزینه خاص با فاکتور موجود در پرونده مطابقت دارد—دقیقاً در حال انجام همان وظیفه‌ای است که FinRAGBench-V ارزیابی می‌کند.</p>
<p>یافته‌های مربوط به استناد در سطح بلوک برای این مورد استفاده اهمیت زیادی دارد. اگر یک عامل باید یک ورودی دفتر کل را با اشاره به یک ردیف خاص در یک PDF توجیه کند و بهترین سیستم موجود تنها به ۲۰ تا ۶۱ درصد فراخوانی در سطح بلوک دست می‌یابد، این سیستم آماده حسابرسی (audit-ready) نیست. هر خط لوله Beancount که با اسناد منبع اسکن شده در تماس است، تا زمانی که این عدد به طور قابل توجهی بهبود نیابد، به بازبینی انسانی (human-in-the-loop) نیاز دارد.</p>
<p>شکاف در مدل بازیابی نیز به شدت علیه خط لوله‌های صرفاً متنی برای دریافت اسناد استدلال می‌کند. تصویر یک رسید حاوی اطلاعات چیدمان است—فیلدهای مبلغ، نام فروشنده، موقعیت اقلام— که OCR آن‌ها را نابود می‌کند. آن اطلاعات چیدمان دقیقاً همان چیزی است که جمع کل یک سطر را از مبلغ مالیات متمایز می‌کند و FinRAGBench-V نشان می‌دهد که بازیاب‌های چندوجهی از آن به روش‌هایی استفاده می‌کنند که بازیاب‌های متنی نمی‌توانند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-در-مرحله-بعد-بخوانیم">چه چیزی در مرحله بعد بخوانیم<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/12/finragbench-v-multimodal-rag-visual-citation-financial-domain#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%AF%D8%B1-%D9%85%D8%B1%D8%AD%D9%84%D9%87-%D8%A8%D8%B9%D8%AF-%D8%A8%D8%AE%D9%88%D8%A7%D9%86%DB%8C%D9%85" class="hash-link" aria-label="لینک مستقیم به چه چیزی در مرحله بعد بخوانیم" title="لینک مستقیم به چه چیزی در مرحله بعد بخوانیم" translate="no">​</a></h2>
<ul>
<li class=""><strong>ColPali: Efficient Document Retrieval with Vision Language Models</strong> — پیش‌نیاز ColQwen2 که رویکرد تعبیه تصویری صفحات را پایه‌گذاری کرد و بهترین بازیاب FinRAGBench-V بر اساس آن ساخته شده است [arXiv:2407.01449, ECCV 2024]</li>
<li class=""><strong>M3DocRAG: Multi-modal Retrieval is What You Need for Multi-page Multi-document Understanding</strong> — به پرسش و پاسخ بصری چند سندی با چارچوبی منعطف می‌پردازد که استدلال بصری تک‌مرحله‌ای و چندمرحله‌ای را در صفحات مختلف مدیریت می‌کند [arXiv:2411.04952]</li>
<li class=""><strong>Benchmarking Temporal-Aware Multi-Modal RAG in Finance</strong> — یک بنچمارک مکمل از سال ۲۰۲۵ که حساسیت زمانی را در RAG چندوجهی مالی ارزیابی می‌کند و مستقیماً مکمل دسته سوالات حساس به زمان در FinRAGBench-V است [arXiv:2503.05185]</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Finance</category>
            <category>Financial Reporting</category>
            <category>Data Science</category>
            <category>Reconciliation</category>
            <category>Beancount</category>
        </item>
        <item>
            <title><![CDATA[آیا عامل‌های LLM می‌توانند مدیر مالی باشند؟ شبیه‌سازی ۱۳۲ ماهه EnterpriseArena شکاف بزرگی را فاش می‌کند]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark</guid>
            <pubDate>Sat, 11 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[پلتفرم EnterpriseArena یازده مدل زبانی بزرگ را در یک شبیه‌سازی ۱۳۲ ماهه مدیریت مالی (CFO) قرار می‌دهد تا بقا، ارزش نهایی و نرخ بستن دفاتر آن‌ها را بررسی کند. تنها مدل Qwen3.5-9B در ۸۰٪ موارد جان سالم به در می‌برد؛ GPT-5.4 و DeepSeek-V3.1 به نرخ بقای ۰٪ می‌رسند. خبرگان انسانی به بقای ۱۰۰٪ با ۵ برابر ارزش نهایی دست می‌یابند. گلوگاه اصلی: مدل‌های زبانی در ۸۰٪ مواقع از تطبیق دفتر کل چشم‌پوشی می‌کنند و بر اساس وضعیت مالی منقضی عمل می‌کنند.]]></description>
            <content:encoded><![CDATA[<p>بلندپروازانه‌ترین پرسش در هوش مصنوعی مالی در حال حاضر این نیست که «آیا یک LLM می‌تواند به سوالی درباره ترازنامه پاسخ دهد؟» بلکه این است که «آیا یک LLM می‌تواند سرمایه یک شرکت را در طول زمان مدیریت کند بدون اینکه تمام شود؟» مقاله یی هان و همکاران با عنوان <em>آیا عامل‌های LLM می‌توانند مدیر مالی باشند؟</em> (arXiv:2603.23638) پلتفرم EnterpriseArena را برای آزمایش دقیق همین موضوع ساخته است، و پاسخ این است: به سختی، و نه به روش‌هایی که انتظارش را دارید.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D8%A2%DB%8C%D8%A7%20%D8%B9%D8%A7%D9%85%D9%84%E2%80%8C%D9%87%D8%A7%DB%8C%20LLM%20%D9%85%DB%8C%E2%80%8C%D8%AA%D9%88%D8%A7%D9%86%D9%86%D8%AF%20%D9%85%D8%AF%DB%8C%D8%B1%20%D9%85%D8%A7%D9%84%DB%8C%20%D8%A8%D8%A7%D8%B4%D9%86%D8%AF%D8%9F%20%D8%B4%D8%A8%DB%8C%D9%87%E2%80%8C%D8%B3%D8%A7%D8%B2%DB%8C%20%DB%B1%DB%B3%DB%B2%20%D9%85%D8%A7%D9%87%D9%87%20EnterpriseArena%20%D8%B4%DA%A9%D8%A7%D9%81%20%D8%A8%D8%B2%D8%B1%DA%AF%DB%8C%20%D8%B1%D8%A7%20%D9%81%D8%A7%D8%B4%20%D9%85%DB%8C%E2%80%8C%DA%A9%D9%86%D8%AF" alt="2026-07-11-can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark" class="img_ev3q"></p>
<p>EnterpriseArena یک شبیه‌سازی ۱۳۲ ماهه (۱۱ ساله) از تخصیص منابع در سطح مدیر مالی (CFO) است. هر گام زمانی نشان‌دهنده یک ماه است. عامل مشاهدات جزئی از امور مالی سطح شرکت، اسناد تجاری ناشناس و سیگنال‌های اقتصاد کلان استخراج شده از داده‌های FRED، CBOE و S&amp;P Global را دریافت می‌کند. این عامل بودجه‌ای معادل ۲۰ فراخوانی ابزار در ماه دارد که در چهار عملیات توزیع شده است: تأیید وضعیت نقدینگی، بررسی سوابق مالی، تحلیل شرایط بازار و پیش‌بینی جریان‌های نقدی. عامل باید یکی از سه اقدام را انتخاب کند: بستن دفاتر (تطبیق)، درخواست تأمین مالی (سهام یا بدهی با نتایج تصادفی) یا عبور (Pass). محدودیت اصلی این است که موجودی نقد شرکت باید در هر گام زمانی غیرمنفی بماند؛ تخطی از این قانون باعث پایان قسمت با امتیاز صفر می‌شود. به شرط بقا، عامل ارزش نهایی شرکت را تحت فرمول Rev_T × 5 + Cash_T − 5,000 × N_tools به حداکثر می‌رساند، که صراحتاً استفاده بیش از حد از ابزار را جریمه می‌کند.</p>
<p>یازده LLM مورد ارزیابی قرار گرفتند، از جمله Gemini-3.1-Pro، Claude-Haiku-4.5، GPT-5.4، DeepSeek-V3.1، Llama-3.3-70B، Qwen3.5-397B و Qwen3.5-9B، در کنار یک خط پایه خبره انسانی که توسط دو حرفه‌ای مالی با به ترتیب ۸ و ۱۴ سال تجربه تأیید شده بود.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class=""><strong>نرخ بقا در مدل‌های مختلف به شدت متفاوت است</strong>: Qwen3.5-9B در ۸۰٪ اجراها زنده می‌ماند، Gemini-3.1-Pro در ۵۰٪، Claude-Haiku-4.5 و GLM-5 هر کدام در ۲۰٪، و GPT-5.4، DeepSeek-V3.1، Llama-3.3-70B، Mistral-Small-24B و Mixtral-8x7B هر کدام در ۰٪. میانگین کلی LLMها ۲۶٪ است.</li>
<li class=""><strong>مدل‌های بزرگتر لزوماً از مدل‌های کوچکتر بهتر عمل نمی‌کنند</strong>: Qwen3.5-9B (با ۹ میلیارد پارامتر، ۸۰٪ بقا، ۷۸.۸ میلیون دلار ارزش نهایی) به طور قاطعانه Qwen3.5-397B (با ۳۹۷ میلیارد پارامتر، ۲۰٪ بقا) و GPT-5.4 (با ۰٪ بقا) را شکست می‌دهد.</li>
<li class=""><strong>شکاف با انسان‌ها بسیار زیاد است</strong>: خط پایه انسانی به ۱۰۰٪ بقا و ۱۵۲.۲ میلیون دلار (± ۲۹.۶ میلیون دلار) ارزش نهایی دست می‌یابد؛ میانگین LLMها ۲۸.۲ میلیون دلار با ۲۶٪ بقا است.</li>
<li class=""><strong>بستن دفاتر گلوگاه حیاتی است</strong>: خبرگان انسانی دفاتر را در ۹۴.۳٪ از گام‌های زمانی می‌بندند (تطبیق می‌دهند)؛ میانگین LLMها ۱۹.۳٪ است. این اقدامی است که صورت‌های مالی واقعی را تولید کرده و تصمیمات منطقی بعدی را ممکن می‌سازد.</li>
<li class=""><strong>جمع‌آوری اطلاعات بدون اقدام مرگبار است</strong>: Qwen3.5-397B در طول شبیه‌سازی به میزان بالایی از ابزارهای تحلیل بازار و پیش‌بینی استفاده می‌کند، اما تقریباً هرگز دفاتر را نمی‌بندد (نرخ بستن دفاتر ۰.۰٪) و تقریباً هرگز درخواست تأمین مالی نمی‌کند و با وجود «دانستن» آنچه در حال رخ دادن است، به دلیل اتمام نقدینگی از بین می‌رود.</li>
<li class=""><strong>جریمه بودجه ابزار اهمیت دارد</strong>: فرمول امتیازدهی فعالانه عامل‌هایی را که به جای عمل کردن، به طور وسواسی فقط بررسی می‌کنند جریمه می‌کند، محدودیتی که بازتاب‌دهنده هزینه فرصت واقعی است.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-تایید-میشود--و-چه-چیزی-نه">چه چیزی تایید می‌شود — و چه چیزی نه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%AA%D8%A7%DB%8C%DB%8C%D8%AF-%D9%85%DB%8C%D8%B4%D9%88%D8%AF--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%D9%87" class="hash-link" aria-label="لینک مستقیم به چه چیزی تایید می‌شود — و چه چیزی نه" title="لینک مستقیم به چه چیزی تایید می‌شود — و چه چیزی نه" translate="no">​</a></h2>
<p>طراحی هدف دوگانه — بقا به عنوان یک محدودیت سخت به علاوه ارزش نهایی — یکی از قوی‌ترین انتخاب‌ها در بنچ‌مارک‌های اخیر عامل‌ها است. این نشان‌دهنده نحوه عملکرد واقعی مدیران مالی است: اگر پولتان تمام شود، نمی‌توانید رشد را بهینه کنید. ناشناس‌سازی تاریخ‌های تقویم و هویت شرکت‌ها مانع از این می‌شود که مدل‌ها بر اساس نتایج تاریخی حفظ شده الگوبرداری کنند، که یک بهبود روش‌شناختی واقعی نسبت به بنچ‌مارک‌های مالی است که از نمادها و تاریخ‌های واقعی استفاده می‌کنند.</p>
<p>طبقه‌بندی حالت‌های شکست که نویسندگان از طریق مطالعات موردی شناسایی کرده‌اند معتبر است: GPT-5.4 به نرخ عبور ۹۹.۱٪ دست می‌یابد (به این معنی که تقریباً در هر گام زمانی با انجام ندادن هیچ کاری اقدام می‌کند)، در حالی که Qwen3.5-397B تحلیل را با عمل اشتباه می‌گیرد. این‌ها حالت‌های شکست رفتاری متمایزی هستند که راهکارهای متفاوتی می‌طلبند.</p>
<p>چیزی که من کمتر نسبت به آن متقاعد شده‌ام: محیط اقتصاد کلان تصادفی از نویز گاوسی برای تقریب شوک‌های بازار استفاده می‌کند، که خود نویسندگان اذعان دارند نمی‌تواند رویدادهای «قوی سیاه» یا غیرمنطقی بودن انسان را بازتولید کند. بودجه ابزار ۲۰ فراخوانی در ماه نیز تا حدودی خودسرانه است — مدیران مالی واقعی با این نوع محدودیت نرخ پرس‌وجو در حافظه خود روبرو نیستند، که این سوال را ایجاد می‌کند که آیا بنچ‌مارک در حال اندازه‌گیری قضاوت مالی در افق طولانی است یا چیزی نزدیک به «RAG تحت فشار منابع». ساختار تک‌عاملی محدودیت صریح دیگری است که نویسندگان نام برده‌اند: مدیران مالی واقعی در سلسله مراتب‌های کنترلرها، تحلیل‌گران FP&amp;A و تیم‌های خزانه‌داری فعالیت می‌کنند و مقاله تلاشی برای شبیه‌سازی این موضوع نمی‌کند.</p>
<p>این یافته که اندازه مدل بقا را پیش‌بینی نمی‌کند، جالب و احتمالا واقعی است، اما مکانیسم آن به خوبی توضیح داده نشده است. نویسندگان بدون باز کردن کامل این موضوع که آیا این شکست در پیروی از دستورالعمل‌ها، انسجام در بافت طولانی (long-context) یا کالیبراسیون ریسک است، به آن اشاره کرده‌اند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-برای-هوش-مصنوعی-مالی-اهمیت-دارد">چرا این برای هوش مصنوعی مالی اهمیت دارد<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D8%A7%D9%87%D9%85%DB%8C%D8%AA-%D8%AF%D8%A7%D8%B1%D8%AF" class="hash-link" aria-label="لینک مستقیم به چرا این برای هوش مصنوعی مالی اهمیت دارد" title="لینک مستقیم به چرا این برای هوش مصنوعی مالی اهمیت دارد" translate="no">​</a></h2>
<p>عمل بستن دفاتر در EnterpriseArena اساساً همان مرحله تأیید <code>balance</code> و تطبیق دفتر کل در Beancount است — لحظه‌ای که عامل پیش از اقدام، به یک دیدگاه واقعی از وضعیت مالی متعهد می‌شود. این یافته که LLMها در ۸۰٪ مواقع از این کار چشم‌پوشی می‌کنند، مستقیماً به مشکل ایمنی بازنویسی (write-back safety) مربوط می‌شود: عاملی که قبل از اقدام از تطبیق خودداری می‌کند، عاملی است که بر اساس وضعیتی منقضی یا توهم‌زده عمل می‌کند. برای اتوماسیون Beancount، این نشان می‌دهد که مرحله تطبیق باید در هر حلقه عاملی اجباری و قابل تأیید باشد — نه اختیاری.</p>
<p>افق ۱۳۲ ماهه نیز مستقیماً با مدیریت چندساله دفتر کل قابل مقایسه است. این یافته که آگاهی موقعیتی پایدار در طول زمان کاهش می‌یابد، همان کاهشی است که در یک عامل Beancount که پنج سال سابقه تراکنش را مدیریت می‌کند انتظار داریم: حتی اگر عامل تمام داده‌ها را در بافت خود داشته باشد، ممکن است در ماه ۶۰ به طور منسجم بر اساس آن‌ها عمل نکند. این نشان می‌دهد که نقاط بازرسی تطبیق اجباری دوره‌ای — و نه فقط پرس‌وجوی واکنشی — در جلسات طولانی‌مدت عامل Beancount ضروری هستند.</p>
<p>تله جمع‌آوری اطلاعات که Qwen3.5-397B در آن گرفتار می‌شود، یک هشدار طراحی مفید است: عامل‌های مجهز به ابزارهای بازیابی زیاد ممکن است بازیابی را به تعهد ترجیح دهند، به خصوص زمانی که هزینه یک اقدام اشتباه (خرابی دفتر کل) بالا باشد. محدودیت‌های بودجه ابزار از نوعی که EnterpriseArena استفاده می‌کند، می‌تواند به اجرای انضباط عملیاتی در عامل‌های بازنویسی Beancount کمک کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="پیشنهادات-برای-مطالعه-بیشتر">پیشنهادات برای مطالعه بیشتر<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/11/can-llm-agents-be-cfos-enterprisearena-resource-allocation-benchmark#%D9%BE%DB%8C%D8%B4%D9%86%D9%87%D8%A7%D8%AF%D8%A7%D8%AA-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%85%D8%B7%D8%A7%D9%84%D8%B9%D9%87-%D8%A8%DB%8C%D8%B4%D8%AA%D8%B1" class="hash-link" aria-label="لینک مستقیم به پیشنهادات برای مطالعه بیشتر" title="لینک مستقیم به پیشنهادات برای مطالعه بیشتر" translate="no">​</a></h2>
<ul>
<li class=""><strong>EcoGym</strong> (arXiv:2602.09514) — یک بنچ‌مارک اقتصادی مکمل در افق زمانی طولانی در محیط‌های فروشندگی، فریلنسری و عملیاتی در بیش از ۱۰۰۰ گام؛ هیچ مدلی در هر سه محیط برتری ندارد، که نشان می‌دهد حالت‌های شکست در EnterpriseArena مختص یک طراحی بنچ‌مارک خاص نیستند.</li>
<li class=""><strong>AFlow: Automating Agentic Workflow Generation</strong> (arXiv:2410.10762, ICLR 2025 oral) — طراحی گردش کار را به عنوان جستجوی فضای کد با MCTS و بازخورد LLM بازتعریف می‌کند؛ اگر EnterpriseArena نشان می‌دهد که رفتارهای عاملی طراحی شده به صورت دستی شکست می‌خورند، AFlow گام بعدی بدیهی برای کشف خودکار خط لوله‌های بهتر است.</li>
<li class=""><strong>ToolLLM: Facilitating Large Language Models to Master 16,000+ Real-world APIs</strong> (arXiv:2307.16789, ICLR 2024) — چارچوب بنیادی آموزش و ارزیابی استفاده از ابزار؛ درک نحوه یادگیری رفتار فراخوانی ابزار در ToolLLM روشن می‌کند که آیا شکست در اجتناب از اقدام در EnterpriseArena یک مشکل آموزشی است یا یک مشکل مهندسی پرامپت.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Reconciliation</category>
            <category>Beancount</category>
            <category>Cash Flow</category>
            <category>Financial Management</category>
            <category>Forecasting</category>
        </item>
        <item>
            <title><![CDATA[WildToolBench: چرا هیچ مدل زبانی بزرگی در دقت جلسات استفاده از ابزار در دنیای واقعی از ۱۵٪ فراتر نمی‌رود]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild</guid>
            <pubDate>Fri, 10 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[بنچ‌مارک WildToolBench (ICLR 2026) ۵۷ مدل زبانی بزرگ را بر روی ۱۰۲۴ وظیفه استخراج شده از رفتار واقعی کاربران ارزیابی می‌کند — هیچ مدلی از دقت ۱۵٪ در سطح جلسه فراتر نمی‌رود، و سازمان‌دهی ترکیبی، نیت پنهان و انتقال‌های دستورالعمل سه مورد از جدی‌ترین حالت‌های شکست هستند.]]></description>
            <content:encoded><![CDATA[<p>معیارهای ارزیابی استفاده از ابزار که من دنبال می‌کردم — BFCL، ToolBench، τ-bench — همگی یک نقص طراحی مشترک دارند: آن‌ها وظایف را بر اساس تصور نویسندگان معیار از کارهایی که کاربران انجام می‌دهند، می‌سازند. WildToolBench که در ICLR 2026 پذیرفته شده است، به سراغ گزارش‌های واقعی کاربران می‌رود و می‌پرسد که کاربران <em>واقعاً</em> چه کار می‌کنند. پاسخ تامل‌برانگیز است: ۵۷ مدل زبانی بزرگ (LLM) ارزیابی شدند و هیچ‌کدام از دقت ۱۵ درصدی در سطح جلسه فراتر نرفتند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=WildToolBench%3A%20%DA%86%D8%B1%D8%A7%20%D9%87%DB%8C%DA%86%20%D9%85%D8%AF%D9%84%20%D8%B2%D8%A8%D8%A7%D9%86%DB%8C%20%D8%A8%D8%B2%D8%B1%DA%AF%DB%8C%20%D8%AF%D8%B1%20%D8%AF%D9%82%D8%AA%20%D8%AC%D9%84%D8%B3%D8%A7%D8%AA%20%D8%A7%D8%B3%D8%AA%D9%81%D8%A7%D8%AF%D9%87%20%D8%A7%D8%B2%20%D8%A7%D8%A8%D8%B2%D8%A7%D8%B1%20%D8%AF%D8%B1%20%D8%AF%D9%86%DB%8C%D8%A7%DB%8C%20%D9%88%D8%A7%D9%82%D8%B9%DB%8C%20%D8%A7%D8%B2%20%DB%B1%DB%B5%25%20%D9%81%D8%B1%D8%A7%D8%AA%D8%B1%20%D9%86%D9%85%DB%8C%E2%80%8C%D8%B1%D9%88%D8%AF" alt="2026-07-10-wildtoolbench-benchmarking-llm-tool-use-in-the-wild" class="img_ev3q"></p>
<p>پی‌جی یو (Peijie Yu)، وی لیو (Wei Liu)، ایوان یانگ (Yifan Yang) و همکارانشان در علی‌بابا، WildToolBench (arXiv:2604.06185) را معرفی کردند؛ بنچ‌مارکی شامل ۲۵۶ سناریوی گفتگوی چند مرحله‌ای با ۱۰۲۴ وظیفه که از الگوهای رفتاری واقعی کاربران استخراج شده و بر پایه حدود ۱۶۰۰ API عمومی بنا شده است. استدلال اصلی این است که بنچ‌مارک‌های موجود نه به دلیل خوب بودن مدل‌ها، بلکه به دلیل مصنوعی بودن وظایف در حال اشباع شدن هستند. کاربران واقعی درخواست‌ها را با هم ترکیب می‌کنند، زمینه‌ای (context) را که دو مرحله قبل به اشتراک گذاشته بودند حذف می‌کنند و بین پرسیدن سوال ابزاری، احوال‌پرسی کوتاه و درخواست توضیح جابجا می‌شوند — گاهی اوقات همه این‌ها در یک پیام واحد. WildToolBench این حالت‌های شکست را در سه دسته چالش ساختاریافته عملیاتی می‌کند و هم دقت در سطح وظیفه و هم دقت بسیار سخت‌گیرانه‌تر در سطح جلسه (که مستلزم موفقیت در هر چهار وظیفه یک گفتگو است) را اندازه‌گیری می‌کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class=""><strong>دقت جلسه برای اکثر مدل‌ها به تک‌رقمی سقوط می‌کند</strong>: مدل Gemini-2.0-Flash-Thinking با ۱۴.۴۵٪ دقت جلسه پیشتاز است، Claude-4-Sonnet با ۱۲.۵۰٪ و GPT-4o با ۱۱.۷۲٪ در رتبه‌های بعدی هستند. گذراندن تمام وظایف در یک جلسه چهار مرحله‌ای به قدری دشوار است که حتی دقت ۶۰ درصدی در سطح وظیفه به دقت زیر ۱۵ درصدی در سطح جلسه تبدیل می‌شود — یک جریمه احتمالی تجمعی بر روی هر تعامل.</li>
<li class=""><strong>سازمان‌دهی ترکیبی (Compositional orchestration) جدی‌ترین چالش است</strong>: توپولوژی‌های ابزاری ترکیبی (متوالی به علاوه موازی) سقف دقت مدل‌های برتر را به ۲۵٪ محدود می‌کنند، در حالی که این رقم برای زنجیره‌های صرفاً موازی یا متوالی بین ۵۴ تا ۶۲ درصد است. وقتی یک وظیفه نیازمند یک توزیع موازی (parallel fan-out) و پس از آن یک ادغام متوالی (sequential merge) باشد، مشکل هماهنگی از توانایی فعلی هر مدلی برای مدیریت قابل اطمینان فراتر می‌رود.</li>
<li class=""><strong>نیت پنهان شکافی بزرگتر از آنچه قبلاً تصور می‌شد است</strong>: بنچ‌مارک WildToolBench تضمین می‌کند که ۱۰۰٪ وظایف شامل اطلاعات ضمنی یا بین‌مرحله‌ای باشند؛ در حالی که BFCL v3 تنها ۱۵.۷٪ را پوشش می‌دهد. وظایف با وابستگی دوربرد — جایی که اطلاعات مفقود شده مربوط به بیش از دو مرحله قبل است — دشوارترین نوع فرعی هستند و هیچ مدلی حتی در سطح وظیفه نتوانسته دقت ۵۰٪ را بشکند.</li>
<li class=""><strong>انتقال‌های دستورالعمل خطاها را با نرخ خطی افزایش می‌دهند</strong>: هر سوئیچ سیاستی اضافی (وظیفه ابزار ← چت ← شفاف‌سازی ← وظیفه ابزار) دقت را تقریباً ۵ تا ۱۵ واحد درصد کاهش می‌دهد. در سه انتقال، مدل‌هایی که بیشترین تأثیر را پذیرفته‌اند ۳۰ واحد از دست می‌دهند. نویسندگان این پدیده را «خود-شرطی‌سازی» (self-conditioning) می‌نامند: پاسخ‌های قبلی باعث سوگیری در تفسیر مدل از دستورالعمل‌های بعدی می‌شوند، به گونه‌ای که اصلاح آن در میانه جلسه دشوار است.</li>
<li class=""><strong>نرخ مسیر بهینه (Optimal Path Rate) زیر ۴۳٪ باقی می‌ماند</strong>: حتی زمانی که مدل‌ها وظایف را به درستی انجام می‌دهند، فراخوانی‌های API اضافی مصرف می‌کنند. Claude-4-Sonnet بهترین نرخ مسیر بهینه را با ۴۲.۷۴٪ به دست آورده است، به این معنی که اکثریت تکمیل‌های صحیح، گام‌های بیشتری از حد لازم برمی‌دارند — که هزینه‌ای مستقیم در تاخیر و توکن برای هر سیستم عملیاتی محسوب می‌شود.</li>
<li class=""><strong>مدل‌های تخصصی استفاده از ابزار ضعیف‌تر از مدل‌های عمومی پیشرو عمل می‌کنند</strong>: مدل‌های xLAM-2-70B و ToolACE2-8B هر دو نرخ خطای نام‌گذاری اشتباه تابع بیش از ۳۰٪ را ثبت کرده‌اند که بدتر از GPT-4o یا Claude-4-Sonnet است. به نظر می‌رسد تنظیم دقیق (Fine-tuning) روی مجموعه‌داده‌های محدود استفاده از ابزار، به جای ایجاد استحکام، باعث شکنندگی مدل در هنگام مواجهه با تغییر توزیع به سمت رفتار واقعی کاربران می‌شود.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-تایید-میشود--و-چه-چیزی-نه">چه چیزی تایید می‌شود — و چه چیزی نه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%AA%D8%A7%DB%8C%DB%8C%D8%AF-%D9%85%DB%8C%D8%B4%D9%88%D8%AF--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%D9%87" class="hash-link" aria-label="لینک مستقیم به چه چیزی تایید می‌شود — و چه چیزی نه" title="لینک مستقیم به چه چیزی تایید می‌شود — و چه چیزی نه" translate="no">​</a></h2>
<p>طراحی بنچ‌مارک در مهم‌ترین بخش‌ها قوی است. تمایز بین دقت در سطح وظیفه و دقت در سطح جلسه کاملاً درست است: حالت‌های شکست تجمعی همان چیزی است که استقرارهای واقعی را با شکست مواجه می‌کند، و اکثر کارهای قبلی اعدادی را در سطح وظیفه گزارش می‌دهند که این موضوع را پنهان می‌کند. طبقه‌بندی چالش‌های سه‌گانه (سازمان‌دهی ترکیبی، نیت پنهان، انتقال دستورالعمل) دارای منطق قوی و شواهد تجربی است — منحنی‌های افت عملکرد در انواع چالش‌ها واقعی و چشمگیر هستند.</p>
<p>نقطه ضعف آن مقیاس است. ۱۰۲۴ وظیفه از ۲۵۶ سناریو برای یک اثر پژوهشی معتبر است، اما برای جدول امتیازاتی که قصد ردیابی ۵۷ مدل را در طول زمان دارد، کم به نظر می‌رسد. نویسندگان مستقیماً به این موضوع اذعان کرده و به یک خط لوله مقیاس‌بندی خودکار در کارهای آینده اشاره کرده‌اند. مسئله دیگر این است که عبارت «بر پایه گزارش‌های واقعی کاربران» بار سنگینی را به دوش می‌کشد: وظایف نهایی تا حدودی مصنوعی هستند و توسط یک سیستم چند-عاملی از الگوهای اولیه ساخته شده و سپس توسط ارزیاب‌های انسانی تایید شده‌اند. ادعا ریشه در واقعیت دارد اما داده‌ها دقیقاً همان چیزی نیست که در دنیای واقعی رخ داده — بلکه الهام‌گرفته از آن است. این موضوع در نحوه تفسیر لفظی سقف ۱۵ درصدی اهمیت دارد؛ اگر خط لوله تولید داده دشواری‌های مصنوعی ایجاد کرده باشد که کاربران واقعی عملاً از خود نشان نمی‌دهند، بخشی از این شکاف ممکن است پر شود.</p>
<p>من همچنین نسبت به تحلیل انتقال دستورالعمل به عنوان یک ادعای معماری مشکوک هستم. مقاله آن را به یک محدودیت بنیادی نسبت می‌دهد، اما عدم تطابق توزیع آموزشی بین اهداف تنظیم دقیق RLHF و جلسات چند-وجهی کاربران، توضیح ساده‌تر و محتمل‌تری است. این موضوع قابل حل است و ساختاری نیست.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-موضوع-برای-هوش-مصنوعی-مالی-اهمیت-دارد">چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D9%85%D9%88%D8%B6%D9%88%D8%B9-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D8%A7%D9%87%D9%85%DB%8C%D8%AA-%D8%AF%D8%A7%D8%B1%D8%AF" class="hash-link" aria-label="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" title="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" translate="no">​</a></h2>
<p>سه حالت شکست ذکر شده دقیقاً با نحوه تعامل کاربران واقعی با یک عامل ثبت تراکنش (write-back) در Beancount مطابقت دارد. کاربر می‌پرسد: «ماه گذشته چقدر برای خواربار هزینه کردم، و در ضمن رسید امروز Whole Foods را هم اضافه کن» — این یک وظیفه ترکیبی است که در یک نوبت ارائه شده است. سپس ادامه می‌دهند: «در واقع مبلغ را ۴۷.۲۳ دلار بگذار نه ۴۲ دلار، الان چک کردم» — این یک اصلاح پارامتر است که مستلزم ردیابی وضعیت جلسه توسط عامل است. سپس می‌پرسند: «آیا آن دسته‌بندی درست است؟» — این یک درخواست شفاف‌سازی است و عامل نباید عملیات ثبتی را که همین الان تمام کرده دوباره اجرا کند. سقف ۲۵ درصدی در سازمان‌دهی ترکیبی مختلط و افت ۳۰ واحدی ناشی از انتقال‌های دستورالعمل، دقیقاً همان حالت‌های شکستی هستند که در یک عامل دفتر کل (ledger agent) در مواجهه با جلسات واقعی کاربران ظاهر می‌شوند.</p>
<p>یافته‌ای که نشان می‌دهد مدل‌های تخصصی استفاده از ابزار ضعیف‌تر از مدل‌های عمومی پیشرو عمل می‌کنند، به ویژه مرتبط است. اگر ما به فکر تنظیم دقیق یک مدل متن‌باز کوچک‌تر روی نمونه‌های فراخوانی ابزار خاص Beancount بودیم — که راهکاری بدیهی برای کاهش هزینه است — WildToolBench یک هشدار مستقیم است که تخصص ممکن است استحکام در برابر توزیع رفتارهای واقعی کاربران را قربانی کند. یافته نرخ مسیر بهینه نیز مهم است: عاملی که برای تکمیل یک وظیفه دو برابر بیشتر از API استفاده می‌کند، فقط ناکارآمد نیست؛ برای عملیات‌های ثبت تراکنش، فراخوانی‌های میانی تکراری می‌تواند دفتر کل را در وضعیت‌های میانی ناسازگار رها کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="پیشنهادات-برای-مطالعه-بیشتر">پیشنهادات برای مطالعه بیشتر<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/10/wildtoolbench-benchmarking-llm-tool-use-in-the-wild#%D9%BE%DB%8C%D8%B4%D9%86%D9%87%D8%A7%D8%AF%D8%A7%D8%AA-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%85%D8%B7%D8%A7%D9%84%D8%B9%D9%87-%D8%A8%DB%8C%D8%B4%D8%AA%D8%B1" class="hash-link" aria-label="لینک مستقیم به پیشنهادات برای مطالعه بیشتر" title="لینک مستقیم به پیشنهادات برای مطالعه بیشتر" translate="no">​</a></h2>
<ul>
<li class=""><strong>ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world APIs</strong> (arXiv:2307.16789, ICLR 2024) — چارچوب آموزشی بنیادی که WildToolBench صراحتاً خود را در مقابل آن قرار می‌دهد؛ درک طراحی ارزیابی مصنوعی آن، دقیقاً نشان می‌دهد که اجرای زنده چه ارزشی را اضافه می‌کند.</li>
<li class=""><strong>τ-bench: A Benchmark for Tool-Agent-User Interaction in Real-World Domains</strong> (arXiv:2406.12045) — نزدیک‌ترین کار قبلی در زمینه استفاده واقعی از ابزار در چند مرحله؛ مقایسه دامنه‌های خرده‌فروشی/هواپیمایی در τ-bench با پوشش API عمومی در WildToolBench نشان می‌دهد که این چالش چقدر تعمیم‌پذیر است.</li>
<li class=""><strong>AFlow: Automating Agentic Workflow Generation</strong> (arXiv:2410.10762, ICLR 2025 oral) — اگر مشکل انتقال دستورالعمل از طریق کشف خودکار جریان‌های کاری بهتر برای عامل‌ها (به جای مقیاس‌بندی داده‌های آموزشی) قابل حل باشد، AFlow معتبرترین مکانیسم برای انجام این کار است.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Machine Learning</category>
            <category>Beancount</category>
            <category>Data Science</category>
            <category>Technology</category>
        </item>
        <item>
            <title><![CDATA[اعتماد و کالیبراسیون LLM: مروری بر آنچه تحقیقات واقعاً نشان می‌دهند]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey</guid>
            <pubDate>Thu, 09 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[یک بررسی سیستماتیک از روش‌های تخمین اعتماد و کالیبراسیون در مدل‌های زبانی بزرگ (LLM) — رویکردهای لوجیت جعبه-سفید، SelfCheckGPT مبتنی بر سازگاری و آنتروپی معنایی — نشان می‌دهد که نمرات اعتماد کلامی از GPT-4 تنها به حدود ۶۲.۷٪ AUROC دست می‌یابند، که به سختی بالاتر از شانس است و پیامدهای مستقیمی برای استقرار عامل‌های آگاه به عدم قطعیت در امور مالی و حسابداری دارد.]]></description>
            <content:encoded><![CDATA[<p>هفته گذشته من ReDAct را بررسی کردم، که تصمیمات عامل را به یک مدل جایگزین گران‌قیمت هدایت می‌کند زمانی که عدم قطعیت یک مدل ارزان از یک آستانه کالیبره شده فراتر می‌رود. آن مقاله در مورد "عدم قطعیت" کلی‌گویی‌های زیادی می‌کند — ارزشش را دارد که کمی درنگ کنیم تا بفهمیم حوزه تحقیقاتی واقعاً درباره اندازه‌گیری و کالیبره کردن آن چه می‌داند. مقاله گنگ و همکاران با عنوان "A Survey of Confidence Estimation and Calibration in Large Language Models" (NAACL 2024) بهترین نقطه برای شروع است: یک طبقه‌بندی سیستماتیک از آنچه کار می‌کند، آنچه کار نمی‌کند و آنچه هنوز هیچ‌کس اندازه‌گیری نکرده است.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D8%A7%D8%B9%D8%AA%D9%85%D8%A7%D8%AF%20%D9%88%20%DA%A9%D8%A7%D9%84%DB%8C%D8%A8%D8%B1%D8%A7%D8%B3%DB%8C%D9%88%D9%86%20LLM%3A%20%D9%85%D8%B1%D9%88%D8%B1%DB%8C%20%D8%A8%D8%B1%20%D8%A2%D9%86%DA%86%D9%87%20%D8%AA%D8%AD%D9%82%DB%8C%D9%82%D8%A7%D8%AA%20%D9%88%D8%A7%D9%82%D8%B9%D8%A7%D9%8B%20%D9%86%D8%B4%D8%A7%D9%86%20%D9%85%DB%8C%E2%80%8C%D8%AF%D9%87%D9%86%D8%AF" alt="2026-07-09-confidence-estimation-calibration-llms-survey" class="img_ev3q"></p>
<p>گنگ، کای، وانگ، کوپل، ناکوف و گورویچ ادبیات نوظهور در زمینه تخمین اعتماد و کالیبراسیون LLM را در وظایف مختلف از پرسش و پاسخ چندگزینه‌ای تا تولید متن باز و ترجمه ماشینی بررسی می‌کنند. مشکل اصلی: LLMها می‌توانند هم بسیار دقیق باشند و هم کاملاً غیرقابل اعتماد، به شکلی که تشخیص این دو حالت از بیرون بسیار سخت است. این پیمایش فضای راه‌حل را به دو شاخه اصلی تقسیم می‌کند — روش‌های جعبه-سفید که از دسترسی به وضعیت‌های داخلی مدل بهره می‌برند، و روش‌های جعبه-سیاه که با مدل به عنوان یک ساختار مات برخورد می‌کنند — و در هر کدام، تمایز بیشتری بین تخمین اعتماد و کالیبراسیون پسینی (post hoc) قائل می‌شود.</p>
<p>این مقاله در NAACL 2024 (صفحات ۶۵۷۷–۶۵۹۵) منتشر شد که نسخه اصلاح شده در مارس ۲۰۲۴ از ارسالی در نوامبر ۲۰۲۳ توسط تیمی از دانشگاه TU Darmstadt، MBZUAI و دانشگاه هوش مصنوعی محمد بن زاید است.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class="">
<p><strong>اعتماد جعبه-سفید از طریق لوجیت‌ها</strong>: ساده‌ترین رویکرد از احتمالات در سطح توکن یا لگاریتم احتمال نرمال‌سازی شده بر اساس طول به عنوان سیگنال اعتماد استفاده می‌کند. این روش‌ها کار می‌کنند اما با یک ابهام اساسی روبرو هستند: احتمال پایین توکن می‌تواند بازتاب دهنده اعتماد پایین به واقعیت باشد یا صرفاً یک عبارت‌بندی غیرمعمول — مدل ممکن است در مورد انتخاب کلمات مردد باشد در حالی که نسبت به واقعیت زیربنایی اطمینان دارد.</p>
</li>
<li class="">
<p><strong>اعتماد جعبه-سیاه مبتنی بر سازگاری (SelfCheckGPT)</strong>: ماناکول و همکاران (EMNLP 2023) چندین نمونه خروجی را نمونه‌برداری کرده و سازگاری متقابل آن‌ها را با استفاده از BERTScore، NLI یا همپوشانی n-gram امتیازدهی می‌کنند. در اینجا نیازی به دسترسی به لوجیت نیست. بصیرت کلیدی: برای واقعیت‌هایی که LLM به خوبی می‌داند، نمونه‌های مکرر همگرا می‌شوند؛ برای واقعیت‌های توهمی، آن‌ها واگرا می‌شوند.</p>
</li>
<li class="">
<p><strong>آنتروپی معنایی</strong>: فارکوهار و همکاران (<em>Nature</em>, 2024) پاسخ‌های معادل از نظر معنایی را قبل از محاسبه آنتروپی خوشه‌بندی می‌کنند. یک LLM ممکن است "پاریس" و "پایتخت فرانسه" را متفاوت بیان کند — آنتروپی خام توکن این‌ها را واگرا می‌بیند، اما آنتروپی معنایی خیر. این یک گام کیفی رو به جلو نسبت به سازگاری در سطح توکن است که این پیمایش آن را زمینه‌سازی می‌کند.</p>
</li>
<li class="">
<p><strong>اعتماد کلامی ناکارآمد است</strong>: وقتی از مدل‌ها خواسته می‌شود درصد اعتماد خود را خروجی دهند، آن‌ها دچار بیش‌اطمینانی می‌شوند. کارهای تجربی (گروت و همکاران، TrustNLP در ACL 2024) نشان می‌دهد که GPT-3، GPT-3.5 و Vicuna همگی میانگین خطای کالیبراسیون مورد انتظار (ECE) بیش از ۰.۳۷۷ را برای اعتماد کلامی نشان می‌دهند، و پیش‌بینی‌ها بدون توجه به دقت واقعی در محدوده ۹۰–۱۰۰٪ خوشه‌بندی می‌شوند. حتی GPT-4 — که بهترین مدل کالیبره شده ارزیابی شده است — در هنگام استفاده از اعتماد کلامی برای تمایز بین پاسخ‌های درست و غلط، تنها به AUROC حدود ۶۲.۷٪ دست می‌یابد که به سختی بالاتر از شانس است.</p>
</li>
<li class="">
<p><strong>تکنیک‌های کالیبراسیون بسته به وظیفه متفاوت است</strong>: برای طبقه‌بندی، کالیبراسیون زمینه‌ای (کاهش سوگیری پیشین کلاس تخمین زده شده با یک پرامپت خالی "[N/A]") و رفع سوگیری موقعیتی (PriDE) به سوگیری‌های سیستماتیک شناخته شده می‌پردازند. برای تولید متن، کالیبراسیون احتمال توالی (SLiC) مدل‌ها را روی خروجی‌های رتبه‌بندی شده تنظیم دقیق می‌کند. مقیاس‌بندی دما (Temperature scaling) — ساده‌ترین اصلاح پسینی — در بسیاری از تنظیمات همچنان رقابتی باقی مانده است.</p>
</li>
<li class="">
<p><strong>هیچ بنچمارک واحدی وجود ندارد</strong>: مخرب‌ترین مشاهده ساختاری این پیمایش: هیچ بنچمارک واحدی وجود ندارد که روش‌های تخمین اعتماد را در وظایف و حوزه‌های مختلف پوشش دهد. این موضوع مقایسه دقیق روش‌ها را تقریباً غیرممکن می‌کند. این حوزه در حال مقایسه سیب با پرتقال است.</p>
</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="آنچه-پابرجا-میماند--و-آنچه-نمیماند">آنچه پابرجا می‌ماند — و آنچه نمی‌ماند<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%D8%A2%D9%86%DA%86%D9%87-%D9%BE%D8%A7%D8%A8%D8%B1%D8%AC%D8%A7-%D9%85%DB%8C%D9%85%D8%A7%D9%86%D8%AF--%D9%88-%D8%A2%D9%86%DA%86%D9%87-%D9%86%D9%85%DB%8C%D9%85%D8%A7%D9%86%D8%AF" class="hash-link" aria-label="لینک مستقیم به آنچه پابرجا می‌ماند — و آنچه نمی‌ماند" title="لینک مستقیم به آنچه پابرجا می‌ماند — و آنچه نمی‌ماند" translate="no">​</a></h2>
<p>طبقه‌بندی ارائه شده مستحکم است. تمایز جعبه-سفید در مقابل جعبه-سیاه برای طراحی سیستم واقعاً مفید است، و برخورد با روش‌های مبتنی بر لوجیت در مورد محدودیت‌های آن‌ها صادقانه است — نویسندگان مستقیماً اشاره می‌کنند که احتمال توکن، اعتماد واقعی را با عدم قطعیت واژگانی خلط می‌کند. متخصصان معمولاً این خلط شدن را دست‌کم می‌گیرند.</p>
<p>جایی که پیمایش مرا ناامید می‌کند: این مقاله عمدتاً توصیفی است. تقریباً هیچ بنچمارک آزمایشی برای مقایسه مستقیم روش‌ها وجود ندارد و نویسندگان صراحتاً این موضوع را به عنوان یک محدودیت می‌پذیرند. من می‌توانم با یک نقشه روشن از فضای طراحی خارج شوم اما هیچ راهنمایی در مورد اینکه از کدام روش برای یک وظیفه جدید استفاده کنم ندارم.</p>
<p>نتایج اعتماد کلامی — AUROC حدود ۶۲.۷٪ برای خودِ اعتماد اعلام شده توسط GPT-4 — باید برای هر کسی که LLMها را در محیط عملیاتی مستقر می‌کند، یک دانش پایه و بدیهی باشد. اما اینطور نیست. مردم هنوز پرامپت‌هایی می‌فرستند که می‌پرسد "در مقیاس ۱ تا ۱۰، چقدر مطمئن هستی؟" و با پاسخ آن به عنوان یک مقدار معنادار برخورد می‌کنند. در حالی که اینطور نیست.</p>
<p>این پیمایش همچنین در مورد سوال کالیبراسیون RLHF ضعیف عمل کرده است: آیا آموزش پسینی با بازخورد انسانی کالیبراسیون مدل‌ها را بهتر می‌کند یا بدتر؟ شواهدی برای هر دو طرف وجود دارد و این پیمایش تا حد زیادی از آن عبور می‌کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-موضوع-برای-هوش-مصنوعی-مالی-اهمیت-دارد">چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D9%85%D9%88%D8%B6%D9%88%D8%B9-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D8%A7%D9%87%D9%85%DB%8C%D8%AA-%D8%AF%D8%A7%D8%B1%D8%AF" class="hash-link" aria-label="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" title="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" translate="no">​</a></h2>
<p>داستان ایمنی ReDAct بر داشتن یک سیگنال عدم قطعیت کالیبره شده از مدل ارزان بنا شده است. این پیمایش روشن می‌کند که این کار در واقع چقدر دشوار است. سیگنال‌های مبتنی بر لوجیت در تنظیمات جعبه-سفید در دسترس هستند اما عدم قطعیت واژگانی و واقعی را با هم ترکیب می‌کنند. روش‌های مبتنی بر سازگاری در تنظیمات جعبه-سیاه کار می‌کنند اما به چندین نمونه به ازای هر تصمیم نیاز دارند — که برای یک عامل بازنویسی Beancount با توان عملیاتی بالا که دسته‌ای از ردیف‌های تراکنش را پردازش می‌کند، گران تمام می‌شود.</p>
<p>عملیاتی‌ترین یافته برای Bean Labs: آنتروپی معنایی، پاسخ‌های معادل از نظر معنایی را قبل از امتیازدهی سازگاری خوشه‌بندی می‌کند، که دقیقاً همان چیزی است که برای ردیف‌های دفتر کل اهمیت دارد؛ جایی که یک مدل ممکن است همان رابطه بدهکار/بستانکار را در چندین فرم نحوی متمایز بیان کند. یک عامل Beancount باید از خوشه‌بندی معنایی روی خروجی‌های نمونه‌برداری شده تراکنش‌ها استفاده کند — نه واریانس خام در سطح توکن — تا متوجه شود چه زمانی در حال توهم زدن نام یک حساب یا یک مبلغ است.</p>
<p>شکست کالیبراسیون در اعتماد کلامی یک هشدار مستقیم برای هر رابط کاربری است که سوال "هوش مصنوعی چقدر مطمئن است؟" را به کاربر نشان می‌دهد: به عددی که مدل تولید می‌کند اعتماد نکنید. به جای آن از یک کالیبراتور خارجی یا روش مبتنی بر سازگاری استفاده کنید، یا اصلاً آن را نمایش ندهید.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مطالعه-بیشتر">مطالعه بیشتر<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/09/confidence-estimation-calibration-llms-survey#%EF%BF%BD%D9%85%D8%B7%D8%A7%D9%84%D8%B9%D9%87-%D8%A8%DB%8C%D8%B4%D8%AA%D8%B1" class="hash-link" aria-label="لینک مستقیم به مطالعه بیشتر" title="لینک مستقیم به مطالعه بیشتر" translate="no">​</a></h2>
<ul>
<li class="">Farquhar et al., "Detecting hallucinations in large language models using semantic entropy," <em>Nature</em>, 2024 — دقیق‌ترین روشی که از این چارچوب پیمایش بیرون می‌آید؛ ارزشش را دارد که به جای خلاصه پیمایش، متن کامل آن خوانده شود.</li>
<li class="">Manakul et al., "SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models," EMNLP 2023 (arXiv:2303.08896) — روش مرجع مبتنی بر سازگاری؛ درک آن قبل از استقرار هرگونه سیگنال اعتماد جعبه-سیاه ضروری است.</li>
<li class="">Groot et al., "Overconfidence is Key: Verbalized Uncertainty Evaluation in Large Language and Vision-Language Models," TrustNLP at ACL 2024 (arXiv:2405.02917) — کامل‌ترین بازرسی تجربی از اینکه چگونه اعتماد کلامی در مدل‌ها و وظایف مختلف از کار می‌افتد.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Trust</category>
            <category>Finance</category>
            <category>Data Science</category>
            <category>Hallucination Detection</category>
        </item>
        <item>
            <title><![CDATA[JSONSchemaBench: پیچیدگی شمای دنیای واقعی، تضمین‌های خروجی ساختاریافته LLM را می‌شکند]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models</guid>
            <pubDate>Wed, 08 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[بنچمارک JSONSchemaBench تعداد ۹,۵۵۸ شمای JSON واقعی را در برابر شش چارچوب رمزگشایی محدود شده آزمایش می‌کند و درمی‌یابد که پیچیدگی شِما باعث فروپاشی پوشش از ۸۶٪ در شماهای ساده به ۳٪ در شماهای پیچیده می‌شود؛ در حالی که XGrammar ۳۸ خروجی غیرمنطبق را بدون اطلاع صادر می‌کند و هیچ چارچوبی تمام ۴۵ دسته‌بندی ویژگی JSON Schema را پوشش نمی‌دهد.]]></description>
            <content:encoded><![CDATA[<p>بیشتر تیم‌ها با رمزگشایی محدود شده (constrained decoding) به عنوان یک مسئله حل شده برخورد می‌کنند — یک شمای JSON اضافه کنید و JSON معتبر دریافت کنید. JSONSchemaBench (arXiv:2501.10868) اولین تلاش سیستماتیک برای آزمایش این فرض در برابر ۹,۵۵۸ شمای دنیای واقعی است، و نتایج آن کمتر از آنچه تبلیغات نشان می‌دهند، اطمینان‌بخش است.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=JSONSchemaBench%3A%20%D9%BE%DB%8C%DA%86%DB%8C%D8%AF%DA%AF%DB%8C%20%D8%B4%D9%85%D8%A7%DB%8C%20%D8%AF%D9%86%DB%8C%D8%A7%DB%8C%20%D9%88%D8%A7%D9%82%D8%B1%DB%8C%20%D8%AA%D8%B6%D9%85%DB%8C%D9%86%E2%80%8C%D9%87%D8%A7%DB%8C%20%D8%AE%D8%B1%D9%88%D8%AC%DB%8C%20%D8%B3%D8%A7%D8%AE%D8%AA%D8%A7%D8%B1%DB%8C%D8%A7%D9%81%D8%AA%D9%87%20%D8%B1%D8%A7%20%D9%85%DB%8C%E2%80%8C%D8%B4%DA%A9%D9%86%D8%AF" alt="2026-07-08-jsonschemabench-structured-outputs-language-models" class="img_ev3q"></p>
<p>سایبو گنگ، هادسون کوپر، میخال موسکال و همکارانشان در بخش تحقیقات مایکروسافت، JSONSchemaBench را معرفی کردند؛ بنچمارکی شامل ۹,۵۵۸ شما که از منابع واقعی تولیدی استخراج شده‌اند: امضاهای فراخوانی تابع GlaiveAI، مخازن گیت‌هاب که بر اساس پیچیدگی از ساده تا بسیار پیچیده دسته‌بندی شده‌اند، پیکربندی‌های API کوبرنتیز، شماهای تحلیل رویداد Snowplow و مجموعه JSONSchemaStore. آن‌ها شش چارچوب رمزگشایی محدود شده — Guidance، Outlines، Llamacpp، XGrammar، OpenAI Structured Outputs و Gemini — را در سه محور ارزیابی کردند: پوشش (چه بخشی از شماها توسط چارچوب قابل مدیریت است)، کارایی (سربار توکن در ثانیه در مقایسه با تولید نامحدود)، و کیفیت (دقت وظایف پایین‌دستی). جدول ارزیابی همچنین شامل مجموعه تست رسمی JSON Schema است که ۴۵ دسته‌بندی ویژگی را که هر موتور منطبقی باید از آن‌ها پشتیبانی کند، مستند می‌کند.</p>
<p>ادعای اصلی این است که پیچیدگی شِما، متغیر تعیین‌کننده‌ای است که چارچوب‌های توانمند را از چارچوب‌های شکننده جدا می‌کند و هیچ چارچوب واحدی در هر سه محور برتری ندارد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class=""><strong>فروپاشی پوشش تحت پیچیدگی شِما.</strong> در شماهای ساده GlaiveAI، تمام چارچوب‌ها امتیازی بالای ۸۶٪ کسب کردند. اما در شماهای پیچیده گیت‌هاب (GitHub-Hard) — که شامل تودرتویی چندسطحی، تعاریف بازگشتی و محدودیت‌های الگوی پیچیده هستند — پوشش Guidance به ۴۱٪، Llamacpp به ۳۹٪، XGrammar به ۲۸٪ و Outlines به مقدار فاجعه‌بار ۳٪ سقوط کرد. OpenAI تنها به ۹٪ در GitHub-Hard رسید و Gemini در شماهای با پیچیدگی متوسط یا بالاتر، هیچ خروجی معتبری تولید نکرد.</li>
<li class=""><strong>کوبرنتیز ضعف خاصی را در XGrammar آشکار می‌کند.</strong> علی‌رغم ادعاهای سرعت XGrammar، این چارچوب تنها به ۷٪ پوشش در شماهای کوبرنتیز دست یافت؛ احتمالاً به این دلیل که این شماها به الگوهای وابسته به متن متکی هستند که پیش‌محاسبات مستقل از متن XGrammar نمی‌تواند آن‌ها را مدیریت کند. پوشش در برابر بنچمارکی که شامل پیکربندی‌های کوبرنتیز است، برای عوامل تولیدی (production agents) اختیاری نیست.</li>
<li class=""><strong>محدودیت ناقص خطرناک‌تر از خطای کامپایل است.</strong> XGrammar در برابر مجموعه تست JSON Schema، دچار ۳۸ مورد شکست در اعمال محدودیت شد — به این معنی که خروجی JSON تولید کرد که شِمای اعلام شده را نقض می‌کرد، اما وضعیت موفقیت را گزارش داد. Guidance تنها ۱ مورد از این شکست‌ها را داشت. برای یک عامل بازنویسی (write-back agent)، خطای کامپایل در زمان طراحی شناسایی می‌شود؛ اما شکست در اعمال محدودیت باعث فاسد شدن داده‌ها در زمان اجرا بدون هیچ سیگنالی می‌شود.</li>
<li class=""><strong>قابلیت fast-forwarding در Guidance بهبود واقعی ۵۰ درصدی سرعت را به همراه دارد.</strong> زمانی که توالی‌های قطعی طولانی وجود داشته باشند (مثلاً نام فیلدها در یک ساختار ثابت شیء)، Guidance می‌تواند چندین توکن را در هر مرحله رمزگشایی به جلو ببرد. در مدل Llama-3.1-8B روی کارت A100، اجرای Guidance حدود ۶ تا ۹ میلی‌ثانیه به ازای هر توکن خروجی طول می‌کشد، در حالی که تولید نامحدود ۱۵ تا ۱۶ میلی‌ثانیه زمان می‌برد. Outlines با ۳۰ تا ۴۶ میلی‌ثانیه از تولید نامحدود کندتر است که عمدتاً به دلیل کامپایل اولیه خودکار (automaton compilation) است که ۳ تا ۸ ثانیه برای هر شِما زمان می‌برد.</li>
<li class=""><strong>رمزگشایی محدود شده به میزان کمی دقت استدلال را بهبود می‌بخشد.</strong> در بنچمارک GSM8K (ریاضی)، Guidance دقت را از ۸۰.۱٪ (نامحدود) به ۸۳.۸٪ افزایش داد. در وظایف Last Letter و Shuffle Objects، بهبودها در محدوده ۱ تا ۳ واحد بود. این موضوع با نگرانی‌های گسترده مبنی بر اینکه اجبار به فرمت JSON کیفیت پاسخ را کاهش می‌دهد، در تضاد است — اما اندازه اثر به قدری کوچک است که انتخاب فرمت نباید عامل اصلی در انتخاب چارچوب باشد.</li>
<li class=""><strong>هیچ چارچوبی تمام ۴۵ دسته‌بندی ویژگی JSON Schema را پوشش نمی‌دهد.</strong> Guidance تعداد ۱۳ دسته، Llamacpp و XGrammar هر کدام ۱ دسته و Outlines صفر دسته را پوشش می‌دهند. پیامد عملی این است که هر شمایی که از <code>if/then/else</code> ،<code>unevaluatedProperties</code> یا تعاریف بازگشتی <code>$ref</code> استفاده می‌کند، بسته به اینکه چه موتوری در پس‌زمینه است، رفتاری غیرقابل پیش‌بینی خواهد داشت.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-درست-است-و-چه-چیزی-نیست">چه چیزی درست است و چه چیزی نیست<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%AF%D8%B1%D8%B3%D8%AA-%D8%A7%D8%B3%D8%AA-%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%DB%8C%D8%B3%D8%AA" class="hash-link" aria-label="لینک مستقیم به چه چیزی درست است و چه چیزی نیست" title="لینک مستقیم به چه چیزی درست است و چه چیزی نیست" translate="no">​</a></h2>
<p>قوی‌ترین سهم این بنچمارک، تامین منابع شِما است. ارزیابی‌های قبلی از شماهای اسباب‌بازی یا مجموعه‌های تک‌منبعی استفاده می‌کردند. گنجاندن پیکربندی‌های کوبرنتیز در کنار امضاهای فراخوانی تابع، نوع درستی از تنوع تقابلی است. دسته‌بندی پیچیدگی (از بدیهی تا فوق‌پیچیده) همچنین به متخصصان یک منحنی کالیبراسیون می‌دهد: اگر شماهای شما شبیه فراخوانی‌های تابع GlaiveAI هستند، XGrammar یا Guidance هر دو مناسب هستند؛ اما اگر شبیه مانیفست‌های کوبرنتیز هستند، گزینه‌های شما به سرعت محدود می‌شوند.</p>
<p>نقطه ضعف اصلی، ارزیابی حریصانه (greedy) تک‌نمونه‌ای است. اندازه‌گیری پوشش با تنها یک بار تولید به ازای هر شِما، توانایی واقعی را کمتر از حد نشان می‌دهد — یک چارچوب ممکن است ۲۰٪ مواقع شکست بخورد اما در تلاش مجدد موفق شود. مقاله به این موضوع اذعان دارد اما اعداد pass@k نمونه‌برداری شده با دما (temperature-sampled) را گزارش نمی‌دهد، که برای سیستم‌های تولیدی که در صورت شکست دوباره تلاش می‌کنند، اهمیت دارد.</p>
<p>همچنین این مقایسه مدل‌های غیرقابل مقایسه را با هم ترکیب می‌کند. چارچوب‌های متن‌باز (Guidance, Outlines, Llamacpp, XGrammar) روی Llama-3.2-1B تست شده‌اند، در حالی که OpenAI و Gemini مدل‌های افشا نشده خود را اجرا می‌کنند. پوشش ۹ درصدی OpenAI در GitHub-Hard ممکن است به اندازه معماری رمزگشایی محدود شده، بازتاب‌دهنده توانایی مدل باشد. یک مقایسه منصفانه مستلزم دسترسی کنترل‌شده به مدل است — که نویسندگان بدیهی است نمی‌توانند ارائه‌دهندگان انحصاری را به آن مجبور کنند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-موضوع-برای-هو�ش-مصنوعی-مالی-اهمیت-دارد">چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D9%85%D9%88%D8%B6%D9%88%D8%B9-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D8%A7%D9%87%D9%85%DB%8C%D8%AA-%D8%AF%D8%A7%D8%B1%D8%AF" class="hash-link" aria-label="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" title="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" translate="no">​</a></h2>
<p>هر عامل بازنویسی Beancount خروجی ساختاریافته تولید می‌کند. اگر عامل، دستورالعمل‌های Beancount را قبل از تبدیل به نحو <code>.beancount</code> به صورت JSON تولید کند، یا اگر ابزارها را از طریق شماهای JSON فراخوانی کند، قابلیت اطمینان آن تولید JSON یک جزئیات نیست — بلکه تمام ماجراست. مقاله FinTrace نشان داد که مدل‌های پیشرو در استدلال بر روی خروجی ابزارها شکست می‌خورند؛ JSONSchemaBench مشکلی موازی را آشکار می‌کند: حتی قبل از استدلال، لایه قالب‌بندی ممکن است بی‌صدا خروجی غیرمنطبق صادر کند.</p>
<p>نتیجه کوبرنتیز به ویژه برای Beancount گویا است. شِماهای دفتر کل (Ledger schemas) صرفاً مجموعه‌ای از جفت‌کلید-مقدارهای مسطح نیستند. سلسله مراتب حساب‌ها، متادیتای تراکنش‌ها و ساختارهای برچسب، الگوهای بازگشتی تودرتویی ایجاد می‌کنند که مشابه اشیاء API کوبرنتیز هستند. چارچوبی که در کوبرنتیز امتیاز ۷٪ می‌گیرد، برای شماهای پیچیده دفتر کل آماده نیست، صرف‌نظر از اینکه سربار هر توکن آن چقدر سریع باشد.</p>
<p>حالت شکستِ محدودیت ناقص (under-constrained failure) چیزی است که خواب را از چشمان من می‌رباید. یک عامل Beancount که از XGrammar استفاده می‌کند، می‌تواند تراکنشی صادر کند که بررسی اعتبارسنجی داخلی چارچوب را پشت سر بگذارد اما شِمای واقعی را نقض کند — و عامل هیچ دلیلی برای تلاش مجدد نخواهد داشت. فساد بی‌صدا بدتر از شکست آشکار است.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="موارد-بعدی-برای-مطالعه">موارد بعدی برای مطالعه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/08/jsonschemabench-structured-outputs-language-models#%D9%85%D9%88%D8%A7%D8%B1%D8%AF-%D8%A8%D8%B9%D8%AF%DB%8C-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%85%D8%B7%D8%A7%D9%84%D8%B9%D9%87" class="hash-link" aria-label="لینک مستقیم به موارد بعدی برای مطالعه" title="لینک مستقیم به موارد بعدی برای مطالعه" translate="no">​</a></h2>
<ul>
<li class=""><strong>XGrammar</strong> (arXiv:2411.15100, Dong et al.) — مقاله فنی پشت یکی از سریع‌ترین چارچوب‌های تست شده، که تقسیم توکن‌های مستقل/وابسته به متن و علت فشار شماهای کوبرنتیز بر آن را توضیح می‌دهد.</li>
<li class=""><strong>Grammar-Aligned Decoding / ASAp</strong> (NeurIPS 2024) — نشان می‌دهد که ماسک کردن توکن در رمزگشایی محدود شده می‌تواند توزیع احتمال مدل را تغییر دهد و یک الگوریتم نمونه‌برداری اصلاح‌شده پیشنهاد می‌کند؛ مبنای تئوریک برای نگرانی‌های کیفی که بنچمارک تنها به طور غیرمستقیم اندازه‌گیری می‌کند.</li>
<li class=""><strong>XGrammar-2</strong> (arXiv:2601.04426) — دنباله‌ای که XGrammar را به شماهای پویا در محیط‌های عاملی (agentic) گسترش می‌دهد، جایی که خودِ شِما در طول یک جلسه چندمرحله‌ای تغییر می‌کند؛ موضوعی که مستقیماً برای عوامل Beancount که فرمت خروجی خود را بر اساس نوع حساب‌های فعال تطبیق می‌دهند، مرتبط است.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Automation</category>
            <category>Beancount</category>
            <category>Performance</category>
        </item>
        <item>
            <title><![CDATA[FinMCP-Bench: معیار سنجش عامل‌های LLM برای استفاده از ابزارهای مالی واقعی تحت MCP]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol</guid>
            <pubDate>Tue, 07 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[FinMCP-Bench شش مدل LLM را در ۶۱۳ وظیفه واقعی استفاده از ابزار مالی که توسط ۶۵ سرور MCP پشتیبانی می‌شوند، ارزیابی می‌کند — بهترین مدل در وظایف چند نوبتی امتیاز ۳.۰۸٪ تطبیق دقیق را کسب کرد که نشان‌دهنده فروپاشی عملکرد ۲۰ برابری از سناریوهای تک‌ابزاری به چند نوبتی است.]]></description>
            <content:encoded><![CDATA[<p>MCP به استاندارد دوفاکتوی سیم‌کشی برای استفاده از ابزارهای LLM تبدیل شده است — Anthropic آن را در اواخر سال ۲۰۲۴ معرفی کرد و تا اوایل سال ۲۰۲۶ تمام ارائه‌دهندگان مدل‌های بزرگ آن را پذیرفتند. FinMCP-Bench (arXiv:2603.24943, ICASSP 2026) اولین معیار سنجشی است که بر پایه سرورهای ابزار واقعی MCP مخصوص عامل‌های مالی ساخته شده است و درست در زمانی ارائه شد که به ما بگوید آیا این لوله‌کشی استاندارد واقعاً به عامل‌ها در انجام کارهای مالی مفید کمک می‌کند یا خیر.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقالهی-علمی">مقاله‌ی علمی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%D9%85%D9%82%D8%A7%D9%84%D9%87%DB%8C-%D8%B9%D9%84%D9%85%DB%8C" class="hash-link" aria-label="لینک مستقیم به مقاله‌ی علمی" title="لینک مستقیم به مقاله‌ی علمی" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinMCP-Bench%3A%20%D9%85%D8%B9%DB%8C%D8%A7%D8%B1%20%D8%B3%D9%86%D8%AC%D8%B4%20%D8%B9%D8%A7%D9%85%D9%84%E2%80%8C%D9%87%D8%A7%DB%8C%20LLM%20%D8%A8%D8%B1%D8%A7%DB%8C%20%D8%A7%D8%B3%D8%AA%D9%81%D8%A7%D8%AF%D9%87%20%D8%A7%D8%B2%20%D8%A7%D8%A8%D8%B2%D8%A7%D8%B1%D9%87%D8%A7%DB%8C%20%D9%85%D8%A7%D9%84%DB%8C%20%D9%88%D8%A7%D9%82%D8%B9%DB%8C%20%D8%AA%D8%AD%D8%AA%20MCP" alt="2026-07-07-finmcp-bench-llm-agents-financial-tool-use-model-context-protocol" class="img_ev3q"></p>
<p>جی ژو، ییمین تیان و همکارانشان از تیم Qwen DianJin در Alibaba Cloud، مدیریت ثروت YINGMI و دانشگاه سوچو، FinMCP-Bench را معرفی می‌کنند؛ یک مجموعه ارزیابی با ۶۱۳ نمونه که ۱۰ دسته سناریوی مالی و ۳۳ زیرسناریو را پوشش می‌دهد. ابزارها شبیه‌سازی شده نیستند — ۶۵ سرور ابزار مالی واقعی و سازگار با MCP پشتوانه‌ی این معیار سنجش هستند که از لاگ‌های تولیدی واقعی دستیار مالی Qieman APP استخراج شده‌اند. نویسندگان نمونه‌ها را به سه نوع دسته‌بندی می‌کنند: ۱۴۵ مورد تک‌ابزاری، ۲۴۹ مورد چندابزاری و ۲۱۹ مورد چند نوبتی. آن‌ها شش مدل را آزمایش می‌کنند: خانواده Qwen3 با تعداد پارامترهای ۴ میلیارد، ۳۰ میلیارد و ۲۳۵ میلیارد (همگی با تفکر گسترده)، به علاوه DeepSeek-R1، GPT-OSS-20B و Seed-OSS-36B. معیارهای اصلی ارزیابی عبارتند از: دقت ابزار (Tool Precision)، بازیابی ابزار (Tool Recall)، امتیاز F1 ابزار و نرخ تطبیق دقیق (EMR) که مستلزم آن است که هر فراخوانی ابزار در یک توالی دقیقاً درست باشد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class=""><strong>MCP به عنوان بستر ارزیابی</strong>: استفاده از تعاریف واقعی سرور MCP به جای طرح‌های API مصنوعی، شکاف بزرگ بین ارزیابی معیار سنجش و آنچه عامل‌ها واقعاً در سیستم‌های مالی مستقر شده با آن روبرو هستند را پر می‌کند.</li>
<li class=""><strong>تقسیم‌بندی دشواری سه‌گانه</strong>: نمونه‌های تک‌ابزاری، چندابزاری و چند نوبتی صرفاً تفاوت کمی ندارند — آن‌ها حالت‌های شکست متفاوتی را از نظر کیفی آشکار می‌کنند.</li>
<li class=""><strong>فروپاشی چند نوبتی</strong>: بهترین مدل (Qwen3-235B) به ۶۰٪ EMR در تک‌ابزاری، ۱۰.۶۲٪ EMR در چندابزاری و ۳.۰۸٪ EMR در چند نوبتی دست می‌یابد. افت از تک‌ابزاری به چند نوبتی ۲۰ برابر است.</li>
<li class=""><strong>Tool F1 بخشنده‌تر است</strong>: همان مدل در این سه تنظیمات به ترتیب امتیازهای ۶۶.۸۵٪، ۶۹.۴۲٪ و ۴۱.۵۶٪ TF1 را کسب می‌کند — که نشان می‌دهد مدل‌ها اغلب ابزارهای درست را انتخاب می‌کنند اما در ترتیب‌بندی، پارامترگذاری یا پیگیری گفتگو دچار اشتباه می‌شوند.</li>
<li class=""><strong>برتری بازیابی نسبت به دقت در تک‌ابزاری</strong>: مدل‌ها تمایل دارند در صورت عدم اطمینان، ابزارها را بیش از حد فراخوانی کنند تا کمتر از حد، که حالت شکست ایمن‌تری برای وظایف مالی است اما همچنان به معنای فراخوانی‌های API هدر رفته و نویز در مسیر استدلال است.</li>
<li class=""><strong>مقیاس‌پذیری غیریکنواخت اندازه</strong>: Qwen3-30B به طور مداوم در تمام زیرسناریوها از Qwen3-4B بهتر عمل نمی‌کند و این فرض را که مدل‌های بزرگتر همیشه در استفاده از ابزارهای چند مرحله‌ای پیروز می‌شوند، می‌شکند.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-پابرجا-میماند-و-چه-چیزی-نه">چه چیزی پابرجا می‌ماند و چه چیزی نه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%BE%D8%A7%D8%A8%D8%B1%D8%AC%D8%A7-%D9%85%DB%8C%D9%85%D8%A7%D9%86%D8%AF-%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%D9%87" class="hash-link" aria-label="لینک مستقیم به چه چیزی پابرجا می‌ماند و چه چیزی نه" title="لینک مستقیم به چه چیزی پابرجا می‌ماند و چه چیزی نه" translate="no">​</a></h2>
<p>استفاده از لاگ‌های تولیدی واقعی به عنوان منبع برای مثال‌های تک‌ابزاری، قوی‌ترین انتخاب روش‌شناختی در اینجا است. این کار معیار سنجش را به رفتار واقعی کاربر متصل می‌کند تا سناریوهای ابداع شده توسط پژوهشگران، که در ادبیات هوش مصنوعی مالی نادر است. نمونه‌های چندابزاری و چند نوبتی با استفاده از گراف‌های وابستگی و پرامپت‌های نقش‌آفرینی به صورت مصنوعی گسترش یافته‌اند، که با توجه به هزینه برچسب‌گذاری معقول است، اما ریسکی را به همراه دارد: فرآیند ترکیب تمایل دارد پرس‌وجوهای تمیزتر و واضح‌تری نسبت به آنچه کاربران واقعی می‌نویسند تولید کند. EMR ۳.۰۸ درصدی در چند نوبتی نگران‌کننده است اما باید با دقت تفسیر شود — EMR مستلزم آن است که کل توالی دقیقاً درست باشد، بنابراین یک فراخوانی اشتباه ابزار میانی باعث شکست کل وظیفه می‌شود. این یک استاندارد تولید سخت‌گیرانه و مسلماً غیرواقعی است؛ معیارهای امتیازدهی جزئی مانند TF1 داستان دقیق‌تری را بیان می‌کنند.</p>
<p>آنچه مقاله به آن نمی‌پردازد: تحلیلی وجود ندارد که آیا شکاف عملکرد در درجه اول یک مشکل درک ورودی است (مدل آنچه را که کاربر می‌خواهد اشتباه تفسیر می‌کند)، یک مشکل قالب‌بندی خروجی (قصد درست اما فراخوانی ابزار بدشکل)، یا یک مشکل استدلال (نتایج میانی اشتباه). بدون این تجزیه و تحلیل، سخت است بدانیم تلاش مهندسی را باید کجا سرمایه‌گذاری کرد. مقاله همچنین مدل‌ها را به صورت ایزوله ارزیابی می‌کند؛ هیچ آزمونی وجود ندارد که آیا افزودن یک مرحله تأیید یا تامل (reflection) تصویر چند نوبتی را تغییر می‌دهد یا خیر.</p>
<p>این معیار سنجش همچنین عمیقاً به ۶۵ ابزار خاص Qieman وابسته است، که انتقال نتایج به سایر پلتفرم‌های مالی با موجودی ابزارهای متفاوت را محدود می‌کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-برای-هوش-مصنوعی-مالی-مهم-است">چرا این برای هوش مصنوعی مالی مهم است<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D9%85%D9%87%D9%85-%D8%A7%D8%B3%D8%AA" class="hash-link" aria-label="لینک مستقیم به چرا این برای هوش مصنوعی مالی مهم است" title="لینک مستقیم به چرا این برای هوش مصنوعی مالی مهم است" translate="no">​</a></h2>
<p>FinMCP-Bench نزدیک‌ترین ارزیابی منتشر شده به کاری است که یک عامل نوشتن (write-back) در Beancount واقعاً انجام می‌دهد: دریافت درخواست کاربر، شناسایی اینکه کدام ابزار (یا زنجیره‌ای از ابزارها) کاربرد دارد، فراخوانی آن‌ها به ترتیب و مدیریت نوبت‌های بعدی. EMR ۳.۰۸ درصدی در چند نوبتی، یک واقعیت تلخ است. یک عامل Beancount که اصلاح دفترکل چند مرحله‌ای را مدیریت می‌کند — مثلاً طبقه‌بندی مجدد مجموعه‌ای از تراکنش‌ها بین حساب‌ها در یک بازه زمانی، سپس مطابقت (reconciliation) و سپس تولید گزارش — دقیقاً همان نوع وظیفه چند نوبتی و چندابزاری است که مدل‌های فعلی تقریباً به طور کامل بر اساس استانداردهای تطبیق دقیق در آن شکست می‌خورند.</p>
<p>چارچوب MCP مستقیماً مرتبط است: API پایتون Beancount، رابط beanquery و لایه REST نرم‌افزار fava همگی می‌توانند به عنوان سرورهای MCP بسته‌بندی شوند. FinMCP-Bench به ما می‌گوید که پروتکل گلوگاه نیست — بلکه استدلال روی توالی‌های فراخوانی ابزار گلوگاه است.</p>
<p>یافته‌ای که نشان می‌دهد بازیابی ابزار از دقت فراتر می‌رود (مدل‌ها بیش از حد فراخوانی می‌کنند) برای ایمنی عملیات نوشتن نیز مهم است: عاملی که ابزار تغییر دفترکل را زمانی فراخوانی می‌کند که فقط خواندن لازم بوده، می‌تواند دفترکل را بی‌صدا فاسد کند. معیارهای ارزیابی با سوگیری به سمت دقت (precision-biased)، و نه سوگیری به سمت بازیابی، باید سیگنال ایمنی اولیه برای عامل‌های نوشتن باشند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مطالب-پیشنهادی-برای-مطالعه">مطالب پیشنهادی برای مطالعه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/07/finmcp-bench-llm-agents-financial-tool-use-model-context-protocol#%D9%85%D8%B7%D8%A7%D9%84%D8%A8-%D9%BE%DB%8C%D8%B4%D9%86%D9%87%D8%A7%D8%AF%DB%8C-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%85%D8%B7%D8%A7%D9%84%D8%B9%D9%87" class="hash-link" aria-label="لینک مستقیم به مطالب پیشنهادی برای مطالعه" title="لینک مستقیم به مطالب پیشنهادی برای مطالعه" translate="no">​</a></h2>
<ul>
<li class=""><strong>JSONSchemaBench</strong> (arXiv:2501.10868) — قابلیت اطمینان خروجی ساختاریافته را در ۱۰ هزار طرح‌واره JSON ارزیابی می‌کند؛ مستقیماً به این موضوع می‌پردازد که آیا شکست‌های قالب‌بندی فراخوانی ابزار در FinMCP-Bench یک مشکل رمزگشایی محدود شده است یا خیر.</li>
<li class=""><strong>ToolLLM</strong> (arXiv:2307.16789, ICLR 2024) — چارچوب آموزشی بنیادی استفاده از ابزار که FinMCP-Bench خود را در برابر آن قرار می‌دهد؛ درک کاوش درخت جستجوی اول‌عمق آن روشن می‌کند که روش‌شناسی لاگ تولیدی FinMCP-Bench چه چیزی به آن اضافه می‌کند.</li>
<li class=""><strong>WildToolBench</strong> (arXiv:2604.06185) — استفاده از ابزار را در پرس‌وجوهای واقعی کاربران در دنیای واقعی ارزیابی می‌کند؛ یافته‌ی آن مبنی بر اینکه هیچ مدلی در رفتار کاربران واقعی از دقت ۱۵٪ فراتر نمی‌رود، مکمل رویکرد لاگ تولیدی FinMCP-Bench است.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Beancount</category>
            <category>Fintech</category>
            <category>Machine Learning</category>
            <category>Reconciliation</category>
        </item>
        <item>
            <title><![CDATA[FinTrace: ارزیابی در سطح مسیر فراخوانی ابزار توسط مدل‌های زبانی بزرگ برای وظایف مالی]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks</guid>
            <pubDate>Mon, 06 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[بنچمارک FinTrace، ۱۳ مدل زبانی بزرگ را در ۸۰۰ مسیر وظایف مالی با حاشیه‌نویسی متخصص بر اساس ۹ معیار ارزیابی می‌کند و دریافت که مدل‌های پیشرو در انتخاب ابزار به نتایج قوی (F1 ~0.9) می‌رسند، اما در بهره‌وری اطلاعات — مرحله‌ای که عوامل بر روی نتایج ابزارها استدلال می‌کنند — تنها امتیاز ۳.۲۳ از ۵ را کسب می‌کنند.]]></description>
            <content:encoded><![CDATA[<p>مقاله FinTrace (arXiv:2604.10015) یک هفته پس از FinToolBench که دفعه قبل ثبت کردم، منتشر شد و این دو مقاله در گفتگوی مستقیم با یکدیگر هستند. در حالی که FinToolBench اندازه‌گیری می‌کند که آیا یک عامل ابزارهای درستی را فراخوانی می‌کند یا خیر، FinTrace سوال دشوارتری را مطرح می‌کند: حتی زمانی که یک عامل ابزارهای درستی را فراخوانی می‌کند، آیا واقعاً روی نتایج استدلال می‌کند؟ این تمایز نقطه قوت مقاله و به نظر من، ریشه کل مشکل عامل بازنویسی (write-back) در Beancount است.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinTrace%3A%20%D8%A7%D8%B1%D8%B2%DB%8C%D8%A7%D8%A8%DB%8C%20%D8%AF%D8%B1%20%D8%B3%D8%B7%D8%AD%20%D9%85%D8%B3%DB%8C%D8%B1%20%D9%81%D8%B1%D8%A7%D8%AE%D9%88%D8%A7%D9%86%DB%8C%20%D8%A7%D8%A8%D8%B2%D8%A7%D8%B1%20%D8%AA%D9%88%D8%B3%D8%B7%20%D9%85%D8%AF%D9%84%E2%80%8C%D9%87%D8%A7%DB%8C%20%D8%B2%D8%A8%D8%A7%D9%86%DB%8C%20%D8%A8%D8%B2%D8%B1%DA%AF%20%D8%A8%D8%B1%D8%A7%DB%8C%20%D9%88%D8%B8%D8%A7%DB%8C%D9%81%20%D9%85%D8%A7%D9%84%DB%8C" alt="2026-07-06-fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks" class="img_ev3q"></p>
<p>کائو و همکاران، FinTrace را معرفی می‌کنند؛ بنچمارکی شامل ۸۰۰ مسیر (trajectory) با حاشیه‌نویسی متخصص که ۳۴ دسته از وظایف مالی دنیای واقعی را در سطوح دشواری آسان، متوسط و سخت در بر می‌گیرد. نویسندگان ارزیابی خود را حول مجموعه‌ای از ۹ معیار سازماندهی شده در چهار محور بنا می‌کنند: <strong>صحت عمل</strong> (F1 فراخوانی ابزار، ارتباط با وظیفه)، <strong>کارایی اجرا</strong> (کارایی گام‌ها، نمره افزونگی)، <strong>کیفیت فرآیند</strong> (پیشرفت منطقی، بهره‌وری اطلاعات، نمره پیشرفت) و <strong>کیفیت خروجی</strong> (نرخ موفقیت وظیفه، کیفیت پاسخ نهایی). آن‌ها ۱۳ مدل زبانی بزرگ را ارزیابی کرده و همچنین FinTrace-Training را منتشر می‌کنند که مجموعه‌ای از ۸,۱۹۶ مسیر ترجیحی انتخاب شده برای تنظیم دقیق (fine-tuning) است.</p>
<p>ادعای مرکزی این است که مدل‌های پیشرو در انتخاب ابزار مهارت یافته‌اند اما به طور سیستماتیک در مرحله دشوارتر شکست می‌خورند: استفاده از آنچه ابزارها برمی‌گردانند. این بنچمارک این موضوع را با یک مقیاس ۵ امتیازی برای بهره‌وری اطلاعات، پیشرفت منطقی و نمره پیشرفت، به اضافه معیارهای الگوریتمی برای F1 ابزار و کارایی گام‌ها بررسی می‌کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class="">بهترین مدل، Claude-Opus-4.6، به امتیاز F1 فراخوانی ابزار ۰.۸۹۶ دست می‌یابد — که انتخاب قدرتمندی است — اما در بهره‌وری اطلاعات، که ضعیف‌ترین معیار در بین چهار معیار مربوط به خروجی است، تنها امتیاز ۳.۲۳ از ۵ را کسب می‌کند.</li>
<li class="">نرخ موفقیت وظیفه Claude-Opus-4.6 برابر ۲.۶۵ از ۵ و کیفیت پاسخ نهایی آن ۳.۳۴ از ۵ است؛ حتی برترین مدل نیز به طور مداوم پاسخ‌های صحیح و کامل تولید نمی‌کند.</li>
<li class="">مدل Qwen-3.5-9B الگوی ناقصی را نشان می‌دهد: کارایی گام (۱.۰۰۰) و افزونگی (۱.۰۰۰) نزدیک به کامل، زیرا تقریباً هیچ ابزاری را فراخوانی نمی‌کند که در F1 فراخوانی ابزار ۰.۱۰۹ منعکس شده است. کارآمد اما بی‌استفاده.</li>
<li class="">آموزش بر روی FinTrace-Training معیارهای فرآیند میانی را بهبود می‌بخشد (پیشرفت منطقی با DPO از ۲.۲۹ به ۲.۵۶ و نمره پیشرفت از ۲.۰۰ به ۲.۳۰ افزایش می‌یابد)، اما کیفیت پاسخ نهایی همچنان محدود باقی می‌ماند — هیچ نسخه‌ای در مدل‌های کوچک به طور قابل توجهی از میانگین ۱.۲۱ در مقیاس ۱ تا ۵ فراتر نمی‌رود.</li>
<li class="">روش DPO در سرکوب حالت‌های شکست فاجعه‌بار از SFT بهتر عمل می‌کند: سهم نمرات پیشرفت منطقی با امتیاز ۱، از ۱۱.۹٪ (SFT) به ۹.۵٪ (DPO) کاهش می‌یابد.</li>
<li class="">بدترین زیردسته در تمام ۱۳ مدل، «پرسش و پاسخ استدلالی» (Reasoning QA) است که در آن Claude-Opus-4.6 تنها به امتیاز کلی ۰.۶۲ دست می‌یابد — یک سقف سخت که حتی توسط قوی‌ترین مدل پیشرو نیز لمس می‌شود.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-تایید-میشود--و-چه-چیزی-نه">چه چیزی تایید می‌شود — و چه چیزی نه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%AA%D8%A7%DB%8C%DB%8C%D8%AF-%D9%85%DB%8C%D8%B4%D9%88%D8%AF--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%D9%87" class="hash-link" aria-label="لینک مستقیم به چه چیزی تایید می‌شود — و چه چیزی نه" title="لینک مستقیم به چه چیزی تایید می‌شود — و چه چیزی نه" translate="no">​</a></h2>
<p>یافته اصلی — اینکه انتخاب ابزار و استدلال بر روی ابزار قابل تفکیک هستند — انگیزه خوبی دارد و معیار چهار محوری یک مشارکت واقعی است. بنچمارک‌های قبلی مانند FinToolBench در ردیابی اجرا متوقف می‌شوند؛ FinTrace معیارهای کیفیت فرآیند قضاوت شده توسط LLM را اضافه می‌کند که نشان می‌دهد در این بین چه اتفاقی می‌افتد. ضریب کاپای کوهن ۰.۸۹ بین ارزیابان در اعتبارسنجی ۱۰۰ نمونه، برای بنچمارکی که بخشی از آن بر پایه داوران LLM است، امیدوارکننده است.</p>
<p>با این حال، چندین انتخاب روش‌شناختی، اعتبار اعداد را محدود می‌کند. ۳۴ دسته وظیفه در مقاله اصلی فهرست نشده‌اند — آن‌ها به ضمیمه B ارجاع داده شده‌اند — بنابراین نمی‌توانم بگویم چقدر نماینده عملکردهای مالی واقعی هستند. سطوح دشواری بر اساس رتبه‌های صدکی در میان مجموعه پرس‌وجوهای خود بنچمارک تعریف شده‌اند، که یک معیار دوری است: سخت فقط به معنای غیرمعمول نسبت به ۸۰۰ مسیر دیگر است، نه سخت به معنای مطلق.</p>
<p>تحلیل تنظیم دقیق ناامیدکننده است. آموزش یک مدل 9B بر روی FinTrace-Training استدلال میانی را بهبود می‌بخشد اما کیفیت پاسخ نهایی همچنان خراب باقی می‌ماند. مقاله این موضوع را به "قطع ارتباط" بین فرآیند و خروجی نسبت می‌دهد، اما علت آن را توضیح نمی‌دهد. محتمل‌ترین توضیح — اینکه یک مدل 9B فاقد یادآوری واقعیت‌ها و توانایی محاسباتی لازم برای وظایف مالی صرف نظر از کیفیت مسیر است — بی‌پاسخ مانده است. نمایش نتایج DPO فقط برای Qwen-3.5-9B نیز تشخیص اینکه آیا مدل‌های بزرگتر بهره بیشتری می‌برند یا خیر را غیرممکن می‌کند.</p>
<p>من همچنین نسبت به تجمیع نمرات کلی مشکوک هستم. ترکیب معیارهای الگوریتمی (F1 بین ۰ و ۱) با نمرات قضاوت شده توسط LLM در مقیاس‌های لیکرت ۱ تا ۵ از طریق نرمال‌سازی به [۰,۱] و میانگین‌گیری، انواع مختلف شکست را با هم در می‌آمیزد. مدلی که ابزارهای کاملاً اشتباه را فراخوانی می‌کند، از همان نوع خرابی مدلی نیست که ابزارهای درست را فراخوانی کرده و سپس خروجی را نادیده می‌گیرد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-موضوع-برای-هوش-مصنوعی-مالی-اهمیت-دارد">چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D9%85%D9%88%D8%B6%D9%88%D8%B9-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D8%A7%D9%87%D9%85%DB%8C%D8%AA-%D8%AF%D8%A7%D8%B1%D8%AF" class="hash-link" aria-label="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" title="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" translate="no">​</a></h2>
<p>یافته اصلی مستقیماً با مشکل بازنویسی (write-back) در Beancount مرتبط است. عاملی که به طور قابل اعتماد ابزارهای رابط خط فرمان (CLI) درست Beancount را فراخوانی می‌کند اما سپس خروجی را اشتباه تفسیر می‌کند — مثلاً پاسخ ترازنامه را اشتباه تجزیه کرده و در حساب اشتباهی ثبت می‌کند — بدتر از عدم اتوماسیون است: این کار ثبتی‌های دفتری (ledger entries) با اطمینان کاذب تولید می‌کند که برای یک بازبین معمولی درست به نظر می‌رسند.</p>
<p>معیار بهره‌وری اطلاعات موردی است که من برای هر عامل Beancount با دقت زیر نظر می‌گیرم. این واقعیت که بهترین مدل موجود در یک بنچمارک مالی کنترل‌شده، امتیاز ۳.۲۳ از ۵ را در این زمینه کسب می‌کند، باید یک محدودیت اجباری برای هرگونه استقرار عملیاتی باشد. این موضوع بر لزوم بازبینی انسانی اجباری برای هر عملیات بازنویسی تأکید می‌کند، حداقل تا زمانی که ببینیم این نمره به طور مداوم بالای ۴.۰ می‌رود.</p>
<p>FinTrace همچنین آنچه ReDAct هفته گذشته پیشنهاد داد را تایید می‌کند: معماری درست، استدلال LLM به صورت سرتاسری (end-to-end) نیست، بلکه خط لوله‌ای است که تاییدیه را برون‌سپاری می‌کند. عاملی که ابزارها را به خوبی انتخاب می‌کند (F1 ابزار ~0.9) و سپس نتایج را قبل از اقدام به یک مرحله اعتبارسنجی جداگانه می‌سپارد، دفاع‌پذیرتر از عاملی است که سعی می‌کند در یک مرحله روی خروجی خام ابزار استدلال کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="منابعی-برای-مطالعه-بیشتر">منابعی برای مطالعه بیشتر<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/06/fintrace-trajectory-level-evaluation-llm-tool-calling-financial-tasks#%D9%85%D9%86%D8%A7%D8%A8%D8%B9%DB%8C-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%85%D8%B7%D8%A7%D9%84%D8%B9%D9%87-%D8%A8%DB%8C%D8%B4%D8%AA%D8%B1" class="hash-link" aria-label="لینک مستقیم به منابعی برای مطالعه بیشتر" title="لینک مستقیم به منابعی برای مطالعه بیشتر" translate="no">​</a></h2>
<ul>
<li class="">FinMCP-Bench (arXiv:2603.24943): مقاله مکمل که از MCP به عنوان استاندارد رابط ابزار استفاده می‌کند و نفر بعدی در لیست مطالعه است — مستقیماً با FinTrace قابل مقایسه است اما بر روی لایه پروتکل متفاوتی ساخته شده است.</li>
<li class="">"Benchmarking LLM Tool-Use in the Wild" (arXiv:2604.06185): همزمان منتشر شده و فراخوانی ابزار را خارج از حوزه مالی ارزیابی می‌کند؛ مشخص می‌کند که آیا شکاف بهره‌وری اطلاعات مختص دامنه مالی است یا عمومی.</li>
<li class="">"Data-Driven Function Calling Improvements in Large Language Model for Online Financial QA" (arXiv:2604.05387): همان حالت‌های شکست فراخوانی ابزار را از منظر داده‌های آموزشی هدف قرار می‌دهد و ممکن است توضیح دهد که DPO در FinTrace-Training چه چیزی را نادیده گرفته است.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Finance</category>
            <category>Fintech</category>
            <category>Automation</category>
            <category>Beancount</category>
            <category>Machine Learning</category>
        </item>
        <item>
            <title><![CDATA[FinToolBench: ارزیابی عوامل LLM در استفاده از ابزارهای مالی واقعی]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use</guid>
            <pubDate>Sun, 05 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[FinToolBench با جفت کردن ۷۶۰ ابزار API مالی زنده با ۲۹۵ پرس‌وجوی اجرایی، عوامل LLM را در وظایف مالی واقعی محک می‌زند — و به این نتیجه می‌رسد که نرخ فراخوانی محافظه‌کارانه ۲۲.۷ درصدی GPT-4o کیفیت پاسخ بالاتری (CSS 0.670) نسبت به TIR تهاجمی ۸۷.۱ درصدی Qwen3-8B ارائه می‌دهد، در حالی که عدم تطابق قصد در تمام مدل‌های آزمایش‌شده بیش از ۵۰٪ است.]]></description>
            <content:encoded><![CDATA[<p>اکثر بنچمارک‌های هوش مصنوعی مالی آزمایش می‌کنند که آیا یک مدل می‌تواند سندی را بخواند یا خیر. FinToolBench آزمایش می‌کند که آیا یک مدل می‌تواند کاری <em>انجام دهد</em> — یک API زنده را فراخوانی کند، داده‌های فعلی بازار را دریافت کند و پاسخ صحیحی ارائه دهد. این همان شکافی است که برای هر سیستمی که به دنبال اتوماسیون کارهای مالی واقعی است اهمیت دارد، و شکافی است که منتظر بودم کسی آن را به طور جدی پر کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinToolBench%3A%20%D8%A7%D8%B1%D8%B2%DB%8C%D8%A7%D8%A8%DB%8C%20%D8%B9%D9%88%D8%A7%D9%85%D9%84%20LLM%20%D8%AF%D8%B1%20%D8%A7%D8%B3%D8%AA%D9%81%D8%A7%D8%AF%D9%87%20%D8%A7%D8%B2%20%D8%A7%D8%A8%D8%B2%D8%A7%D8%B1%D9%87%D8%A7%DB%8C%20%D9%85%D8%A7%D9%84%DB%8C%20%D9%88%D8%A7%D9%82%D8%B9%DB%8C" alt="2026-07-05-fintoolbench-evaluating-llm-agents-real-world-financial-tool-use" class="img_ev3q"></p>
<p>Jiaxuan Lu و همکارانش FinToolBench (arXiv:2603.08262، مارس ۲۰۲۶) را معرفی کردند که به ادعای آن‌ها اولین بنچمارک اجرایی و واقعی برای ارزیابی عوامل یادگیرنده ابزار مالی است. چارچوب‌بندی آن‌ها صریح است: ارزیابی‌های فعلی هوش مصنوعی مالی بر پرسش و پاسخ استاتیک روی اسناد متمرکز هستند، در حالی که بنچمارک‌های عمومی استفاده از ابزار مانند ToolLLM با امور مالی صرفاً به عنوان یک دسته API دیگر بدون محدودیت‌های انطباق خاص دامنه برخورد می‌کنند. FinToolBench سعی می‌کند فضای بین این دو حالت شکست را پر کند.</p>
<p>این بنچمارک ۷۶۰ ابزار مالی اجرایی — شامل ۲۶۱ نقطه پایانی زنده از RapidAPI و ۴۹۹ رابط کاربری از AkShare — را با ۲۹۵ پرس‌وجوی ارزیابی که به دقت انتخاب شده‌اند، جفت می‌کند که به ۱۶۶ مورد تک‌ابزاری و ۱۲۹ مورد چندابزاری تقسیم می‌شوند. ابزارها دامنه‌های سهام، اوراق قرضه، صندوق‌ها، فارکس، مشتقات، اقتصاد کلان و رمزارز را پوشش می‌دهند. نکته مهم این است که این‌ها APIهای واقعی و قابل فراخوانی هستند، نه کدهای شبیه‌سازی شده (stubs). نویسندگان همچنین FATR (Finance-Aware Tool Routing) را معرفی می‌کنند، یک عامل پایه که از بازیابی BGE-M3 (۲۰ کاندیدای برتر)، کارت‌های ابزار حاشیه‌نویسی شده با ویژگی‌های مالی و یک برنامه‌ریز ReAct آگاه از محدودیت‌ها که به پنج مرحله محدود شده است، استفاده می‌کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class=""><strong>اجرا گلوگاه نیست — استدلال روی خروجی‌ها گلوگاه است.</strong> GPT-4o دارای بالاترین امتیاز نرم شرطی (CSS = 0.670) است، به این معنی که وقتی با موفقیت ابزاری را فراخوانی می‌کند، پاسخ‌های درستی می‌دهد، اما تنها در ۲۲.۷٪ مواقع ابزارها را فراخوانی می‌کند (TIR = 0.227). در مقابل، Qwen3-8B در ۸۷.۱٪ مواقع ابزارها را فراخوانی می‌کند اما تنها در ۴۰.۴٪ از موارد موفقیت، به پاسخ درست می‌رسد.</li>
<li class=""><strong>عدم تطابق قصد، شکست اصلی در انطباق (Compliance) است.</strong> نرخ عدم تطابق قصد (IMR) در اکثر مدل‌ها از ۵۰٪ فراتر می‌رود، به این معنی که عوامل به طور معمول فراخوانی‌هایی با قصد تراکنشی انجام می‌دهند در حالی که پرس‌وجو فقط نیاز به جستجوی اطلاعاتی دارد. این یک مشکل جدی در زمینه‌های مالی تحت نظارت است.</li>
<li class=""><strong>تزریق ویژگی‌های مالی به انطباق کمک می‌کند بدون اینکه به توانایی‌ها آسیب بزند.</strong> کارت‌های ابزار در سیستم پایه FATR — که هر ابزار را با ویژگی‌هایی نظیر به‌روز بودن، نوع قصد و دامنه نظارتی حاشیه‌نویسی می‌کند — فراخوانی داده‌های قدیمی (TMR) و تخلفات دامنه‌ای (DMR) را بدون کاهش قابل توجه نرخ فراخوانی کاهش می‌دهند.</li>
<li class=""><strong>پرس‌وجوهای چندابزاری شکاف قابلیت اطمینان را آشکار می‌کنند.</strong> ۱۲۹ پرس‌وجوی چندابزاری نیازمند زنجیره‌ای از فراخوانی‌ها و انتقال خروجی‌ها بین مراحل هستند؛ عملکرد در مقایسه با موارد تک‌ابزاری به شدت افت می‌کند، که با یافته‌های FinTrace و TheAgentCompany همخوانی دارد.</li>
<li class=""><strong>مدل‌های کوچک می‌توانند در فراخوانی از مدل‌های بزرگ پیشی بگیرند اما در استدلال نه.</strong> TIR مدل Qwen3-8B که ۰.۸۷۱ است در مقابل ۰.۲۲۷ مدل GPT-4o نشان می‌دهد که مدل‌های کوچک‌تر در فراخوانی "شتاب‌زده‌تر" هستند، اما CER (نرخ اجرای شرطی) ۰.۳۳۹ برای Qwen3-8B در مقابل ۰.۶۱۸ برای GPT-4o نشان می‌دهد که GPT-4o زمانی که تصمیم به فراخوانی ابزار می‌گیرد، بسیار دقیق‌تر عمل می‌کند.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-پابرجا-میماند--و-چه-چیزی-نه">چه چیزی پابرجا می‌ماند — و چه چیزی نه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%BE%D8%A7%D8%A8%D8%B1%D8%AC%D8%A7-%D9%85%DB%8C%D9%85%D8%A7%D9%86%D8%AF--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%D9%87" class="hash-link" aria-label="لینک مستقیم به چه چیزی پابرجا می‌ماند — و چه چیزی نه" title="لینک مستقیم به چه چیزی پابرجا می‌ماند — و چه چیزی نه" translate="no">​</a></h2>
<p>انتخاب بنچمارک برای استفاده از APIهای واقعاً زنده و اجرایی، مشارکت اصلی و واقعی آن است. APIهای شبیه‌سازی شده (Mocked) راز کثیف بنچمارک‌های استفاده از ابزار بوده‌اند: ۱۶,۰۰۰ API در ToolLLM تأثیرگذار به نظر می‌رسند تا زمانی که متوجه شوید ارزیابی از یک LLM به عنوان قاضی استفاده می‌کند تا حدس بزند آیا یک فراخوانی کار "می‌کرد" یا نه. FinToolBench از این موضوع اجتناب می‌کند.</p>
<p>معیارهای انطباق (TMR، IMR، DMR) از نظر مفهومی درست هستند — عوامل مالی باید تفاوت بین دریافت قیمت بسته شدن دیروز و شروع یک معامله را بدانند — اما توضیحات مقاله در مورد چگونگی اجرای این طبقه‌بندی‌ها ضعیف است. مشخص نیست که آیا برچسب‌های واقعیت پایه (ground-truth) برای نوع قصد (اطلاعاتی در مقابل تراکنشی) توسط کارشناسان حقوقی یا انطباق تأیید شده‌اند یا صرفاً توسط نویسندگان مجموعه داده اختصاص یافته‌اند. این موضوع در عمل بسیار حائز اهمیت است.</p>
<p>فهرست مدل‌ها نیز به طور عجیبی محدود است: Doubao-Seed-1.6، Qwen3-8B، GLM-4.7-Flash و GPT-4o. هیچ خبری از Claude Sonnet یا Gemini 2.5 نیست که مقایسه‌های طبیعی محسوب می‌شدند. جدول نتایج نشان می‌دهد که GPT-4o یک داده پرت با دقت بالا اما پوشش کم است؛ من مشتاقم بدانم آیا رفتار استفاده از ابزار Claude به الگوی محافظه‌کارانه GPT-4o نزدیک‌تر است یا الگوی تهاجمی Qwen3-8B.</p>
<p>مجموعه ارزیابی ۲۹۵ پرس‌وجویی طبق استانداردهای بنچمارک‌های مدرن کوچک است. با ۷۶۰ ابزار، نرخ پوشش ۲۹۵ پرس‌وجو به این معنی است که اکثر ابزارها هرگز آزمایش نمی‌شوند. مقاله آمار پوشش به ازای هر دامنه را گزارش نمی‌دهد، که به این معنی است که اعداد اصلی می‌توانند تحت تأثیر زیرمجموعه‌ای از دامنه‌های با پوشش خوب مانند سهام و اقتصاد کلان باشند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-موضوع-برای-هوش-مصنوعی-مالی-اهمیت-دارد">چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D9%85%D9%88%D8%B6%D9%88%D8%B9-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D8%A7%D9%87%D9%85%DB%8C%D8%AA-%D8%AF%D8%A7%D8%B1%D8%AF" class="hash-link" aria-label="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" title="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" translate="no">​</a></h2>
<p>عوامل بازنویسی Beancount — هر عاملی که <code>bean-add</code> را فراخوانی می‌کند، یک فایل دفتر کل (ledger) را اصلاح می‌کند یا <code>beanquery</code> را اجرا می‌کند — دقیقاً با حالت‌های شکستی روبرو هستند که FinToolBench آشکار می‌کند. مشکل عدم تطابق قصد مستقیماً ترجمه می‌شود: یک عامل Beancount که وقتی کاربر یک سوال خواندنی می‌پرسد، دستور نوشتن صادر می‌کند، همان امضای شکست IMR را دارد. بُعد به‌روز بودن داده‌ها نیز به مشکل فراخوانی وضعیت دفتر کل کش‌شده و قدیمی مربوط می‌شود، در حالی که کاربر انتظار موجودی فعلی را دارد.</p>
<p>تنش بین دقت و پوشش (GPT-4o در مقابل Qwen3-8B) نیز مستقیماً مرتبط است. برای بازنویسی Beancount، من رفتار فراخوانی محافظه‌کارانه GPT-4o را ترجیح می‌دهم — TIR پایین اما CER و CSS بالا — تا یک مدل با فراخوانی بالا که مکرراً ابزار اشتباه را اجرا می‌کند. هزینه‌ی نوشتن‌های اشتباه بسیار بیشتر از انجام ندادن هیچ عملیاتی (no-ops) است.</p>
<p>رویکرد FATR در حاشیه‌نویسی ابزارها با ویژگی‌های انطباق به جای تکیه بر مدل برای استنتاج آن‌ها، یک الگوی طراحی ارزشمند برای پذیرش است. بسته‌بندی ابزارهای CLI در Beancount با متادیتای صریح درباره اینکه آیا یک فراخوانی فقط‌خواندنی است یا تغییردهنده، و اینکه آیا به وضعیت فعلی دفتر کل دسترسی دارد یا بایگانی‌شده، همان ایده‌ای است که در مقیاسی کوچک‌تر اعمال می‌شود.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-را-بعداً-بخوانیم">چه چیزی را بعداً بخوانیم<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/05/fintoolbench-evaluating-llm-agents-real-world-financial-tool-use#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%B1%D8%A7-%D8%A8%D8%B9%D8%AF%D8%A7%D9%8B-%D8%A8%D8%AE%D9%88%D8%A7%D9%86%DB%8C%D9%85" class="hash-link" aria-label="لینک مستقیم به چه چیزی را بعداً بخوانیم" title="لینک مستقیم به چه چیزی را بعداً بخوانیم" translate="no">​</a></h2>
<ul>
<li class=""><strong>FinTrace</strong> (arXiv:2604.10015) — ارزیابی در سطح مسیر در ۳۴ دسته وظایف مالی با ۹ معیار؛ مستقیماً ارزیابی تک‌فراخوانی FinToolBench را به توالی‌های چند مرحله‌ای گسترش می‌دهد و Qwen-3.5-9B را با DPO برای بهبود استدلال میانی تنظیم دقیق می‌کند.</li>
<li class=""><strong>FinMCP-Bench</strong> (arXiv:2603.24943) — ۶۱۳ نمونه روی ۶۵ ابزار مالی مبتنی بر MCP که فراخوانی‌های تک‌ابزاری، چندابزاری و چند نوبتی را آزمایش می‌کند؛ چارچوب MCP مستقیماً با رابط‌های ابزار Beancount مرتبط است.</li>
<li class=""><strong>ToolLLM</strong> (arXiv:2307.16789, ICLR 2024) — مقاله ToolBench که FinToolBench صراحتاً خود را در مقابل آن قرار می‌دهد؛ درک آنچه بنچمارک‌های مبتنی بر API شبیه‌سازی شده می‌توانند و نمی‌توانند اندازه‌گیری کنند، روشن می‌کند که اجرایی بودن FinToolBench واقعاً چه ارزشی افزوده است.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Machine Learning</category>
            <category>Fintech</category>
            <category>Beancount</category>
            <category>Compliance</category>
            <category>Data Science</category>
        </item>
        <item>
            <title><![CDATA[OmniEval: بنچمارک ارزیابی همه‌جانبه RAG برای حوزه مالی]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain</guid>
            <pubDate>Sat, 04 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[OmniEval (EMNLP 2025) سیستم‌های RAG را در ۵ نوع تسک × ۱۶ موضوع مالی با استفاده از ۱۱.۴ هزار مورد تست تولیدشده خودکار بنچمارک می‌کند. بهترین سیستم‌ها تنها به ۳۶٪ دقت عددی دست می‌یابند — مدرکی عینی مبنی بر اینکه خط لوله‌های RAG پیش از نوشتن در دفترکل‌های مالی ساختاریافته، به لایه‌های اعتبارسنجی نیاز دارند.]]></description>
            <content:encoded><![CDATA[<p>بیشتر بنچمارک‌های RAG در امور مالی می‌پرسند که آیا یک سیستم می‌تواند بازیابی کند و پاسخ دهد یا خیر — تمام. OmniEval (EMNLP 2025, arXiv:2412.13018) از شوتینگ وانگ و همکاران در RUC سوال سخت‌تری می‌پرسد: آیا عملکرد در تمام ماتریس انواع وظایف و موضوعات مالی ثابت می‌ماند؟ من در حال خواندن آن هستم زیرا این ساختارمندترین تلاش برای نقشه‌برداری از شکل شکست RAG در امور مالی است، پیش از آنکه سعی کنیم عوامل دفترکل Beancount قابل اعتمادی را بر روی خط لوله‌های RAG بسازیم.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=OmniEval%3A%20%D8%A8%D9%86%DA%86%D9%85%D8%A7%D8%B1%DA%A9%20%D8%A7%D8%B1%D8%B2%DB%8C%D8%A7%D8%A8%DB%8C%20%D9%87%D9%85%D9%87%E2%80%8C%D8%AC%D8%A7%D9%86%D8%A8%D9%87%20RAG%20%D8%A8%D8%B1%D8%A7%DB%8C%20%D8%AD%D9%88%D8%B2%D9%87%20%D9%85%D8%A7%D9%84%DB%8C" alt="2026-07-04-omnieval-omnidirectional-automatic-rag-evaluation-financial-domain" class="img_ev3q"></p>
<p>OmniEval یک شبکه ارزیابی دو بعدی ایجاد می‌کند: پنج کلاس وظیفه (پرسش و پاسخ استخراجی، استدلال چند مرحله‌ای، پرسش و پاسخ مقایسه‌ای، پرسش و پاسخ طولانی و پرسش و پاسخ گفتگویی) که با ۱۶ موضوع مالی (بازارهای سهام، بانکداری سرمایه‌گذاری، صندوق‌ها، بیمه اموال و غیره) تلاقی دارند. نتیجه یک بنچمارک ساختاریافته با ۱۱.۴ هزار نمونه تست تولیدشده خودکار، ۱.۷ هزار نمونه برچسب‌گذاری شده توسط انسان و یک پیکره بازیابی با ۳۶۲ هزار سند است که از شش منبع داده مالی چینی گردآوری شده است (BSCF-DB با ۱۹۳ هزار سند، FinGLM با ۵۵ هزار، BAAI-Fin با ۴۸ هزار، خزش‌های وب رسمی، فایل‌های PDF و محتوای مالی ویکی‌پدیا). این بنچمارک همچنین شامل یک ارزیاب LLM تنظیم‌شده (fine-tuned) است — مدل Qwen2.5-7B-Instruct که بر روی ۹۱۰ نمونه برچسب‌گذاری شده توسط انسان آموزش دیده است — که کیفیت تولید را در شاخص‌های دقت، توهم، کامل بودن، بهره‌وری و دقت عددی امتیازدهی می‌کند. این مقاله در EMNLP 2025 منتشر شد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class="">مواردی که به صورت خودکار تولید شده بودند، در بررسی پذیرش انسانی نرخ ۸۷.۴۷٪ را کسب کردند، به این معنی که تقریباً ۱ مورد از هر ۸ مورد تولید شده کنار گذاشته شده است — که نرخ نویز ناچیزی برای یک بنچمارک نیست.</li>
<li class="">بهترین بازیاب (GTE-Qwen2-1.5B) به MAP معادل ۰.۴۳۷۰ و MRR معادل ۰.۴۴۹۱ در مجموعه خودکار دست یافت، به این معنی که حتی با قوی‌ترین بازیاب آزمایش‌شده، متن رتبه اول کمتر از نیمی از مواقع صحیح است.</li>
<li class="">دقت تولید (ACC) در تمامی ترکیبات بازیاب-LLM از ۰.۳۲۳۸ تا ۰.۴۴۷۶ متغیر بود — بهترین پیکربندی به کمتر از نیمی از سوالات پاسخ درست می‌دهد.</li>
<li class="">دقت عددی (NAC) تامل‌برانگیزترین یافته است: ۰.۰۶۵۹ تا ۰.۳۵۹۵. بهترین سیستم اعداد مالی را در حدود ۳۶٪ مواقع درست تشخیص می‌دهد؛ بدترین سیستم نزدیک به صفر است.</li>
<li class="">ارزیاب تنظیم‌شده به ۷۴.۴٪ توافق با برچسب‌گذاری انسانی (κ = ۰.۶۴۸۶) دست یافت که به طور قابل توجهی بهتر از خط‌بست‌های مبتنی بر پرامپت (۵۵-۷۱٪) عمل کرد — اما همچنان یک ارزیابی از هر چهار ارزیابی با قضاوت انسانی همخوانی ندارد.</li>
<li class="">استدلال چند مرحله‌ای و پرسش و پاسخ گفتگویی به طور مداوم سخت‌ترین کلاس‌های وظیفه بودند.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-پابرجاست--و-چه-چیزی-نه">چه چیزی پابرجاست — و چه چیزی نه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%BE%D8%A7%D8%A8%D8%B1%D8%AC%D8%A7%D8%B3%D8%AA--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%D9%87" class="hash-link" aria-label="لینک مستقیم به چه چیزی پابرجاست — و چه چیزی نه" title="لینک مستقیم به چه چیزی پابرجاست — و چه چیزی نه" translate="no">​</a></h2>
<p>طراحی ارزیابی ماتریسی واقعاً مفید است. بنچمارک‌های قبلی مالی (FinanceBench، FinQA، DocFinQA) ارزیابی را به عنوان یک محور واحد — معمولاً دقت پاسخ — در نظر می‌گیرند و تنوع ساختاری در نحوه شکست RAG را نادیده می‌گیرند. دانستن اینکه یک سیستم در پرسش و پاسخ استخراجی خوب عمل می‌کند اما در استدلال چند مرحله‌ای ضعیف است، قابل بهره‌برداری است؛ اما دانستن میانگین کل امتیازات اینطور نیست. شبکه OmniEval این تنوع را مرئی می‌کند و این یافته که عملکرد در موضوعات مختلف ناهماهنگ است، دقیقاً همان نتیجه‌ای است که متخصصان باید قبل از استقرار سیستم ببینند.</p>
<p>با این حال، محدودیت‌های واقعی وجود دارد که می‌خواهم صریحاً به آن‌ها اشاره کنم. پیکره متنی به شدت چینی است: پنج منبع داده از شش منبع، داده‌های مالی چینی هستند (BSCF، FinGLM، BAAI-Fin) و ششمین مورد ویکی‌پدیای چینی است. مقاله نتایج را به تفکیک زبان گزارش نمی‌دهد — فقط اعداد کلی را ارائه می‌دهد. این موضوع باعث می‌شود هر امتیازی در مقاله به عنوان ادعایی درباره RAG مالی به طور کلی، در مقابل RAG مالی روی متن چینی با بازیاب‌ها و LLMهای تخصصی چینی (GTE-Qwen2-1.5B، Qwen2.5-72B، Yi15-34B) مورد تردید باشد. کاربران مالی انگلیسی‌زبان نمی‌توانند مستقیماً از این اعداد استفاده کنند.</p>
<p>ارزیاب LLM بر روی ۹۱۰ نمونه برچسب‌دار آموزش دیده است. این مقدار کمی است. توافق ۷۴.۴٪ انسانی در κ = ۰.۶۴۸۶ به عنوان نقطه شروع قابل دفاع است، اما به این معنی است که خود چارچوب ارزیابی نویز قابل توجهی وارد می‌کند. اگر بنچمارک برای مقایسه سیستم‌هایی استفاده شود که تفاوت چند درصدی دارند، واریانس ارزیاب سیگنال اصلی را از بین می‌برد.</p>
<p>خط لوله تولید خودکار — که در آن GPT-4 سوالات تست را تولید می‌کند و انسان‌ها با نرخ پذیرش ۸۷.۴۷٪ فیلتر می‌کنند — همچنین سوالی درباره آلودگی (contamination) ایجاد می‌کند که مقاله به آن نمی‌پردازد: سوالات تولید شده توسط GPT-4 ممکن است به گونه‌ای با نقاط قوت مدل‌های کلاس GPT-4 همسو باشد که مدل‌های قدیمی‌تر یا کوچک‌تر را به صورت سیستماتیک در وضعیت نامساعدی قرار دهد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-موضوع-برای-هوش-مصنوعی-مالی-اهمیت-دارد">چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D9%85%D9%88%D8%B6%D9%88%D8%B9-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D8%A7%D9%87%D9%85%DB%8C%D8%AA-%D8%AF%D8%A7%D8%B1%D8%AF" class="hash-link" aria-label="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" title="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" translate="no">​</a></h2>
<p>امتیازات دقت عددی اعدادی هستند که من مدام به آن‌ها باز می‌گردم: ۰.۰۶۵۹–۰.۳۵۹۵. اگر بهترین سیستم RAG آزمایش‌شده در یک ارزیابی بنچمارک شده، اعداد مالی را فقط ۳۶٪ مواقع درست تشخیص دهد، هر عامل بازنویسی Beancount که بر روی یک خط لوله RAG ساده ساخته شده باشد، داده‌های دفترکل را خراب می‌کند. فرمت Beancount سخت‌گیرانه است — یک مبلغ، تاریخ یا نام حساب اشتباه منجر به خطای تجزیه یا یک خطای حسابداری پنهان می‌شود که می‌تواند در طول سال‌های مالی منتشر شود. این بنچمارک شواهد عینی به ما می‌دهد که بازیابی RAG و تولید LLM هنوز برای بازنویسی مستقیم در دفترکل بدون یک لایه اعتبارسنجی، به اندازه کافی قابل اعتماد نیستند.</p>
<p>ساختار کلاس‌های وظیفه نیز به خوبی با موارد استفاده Beancount مطابقت دارد. پرسش و پاسخ استخراجی معادل جستجوهای ساده موجودی است. استدلال چند مرحله‌ای معادل سوالاتی مانند «سود خالص من پس از مالیات در بازه Q1-Q3 چقدر است؟» می‌باشد. پرسش و پاسخ گفتگویی معادل کاربری است که در طول یک جلسه به طور مکرر یک درخواست مغایرت‌گیری را اصلاح می‌کند. یافته OmniEval مبنی بر اینکه وظایف چند مرحله‌ای و گفتگویی سخت‌ترین هستند، دقیقاً خبر بدی برای طراحی عامل Beancount است: موارد ساده تقریباً خوب هستند؛ اما موارد واقعی جایی هستند که سیستم از هم می‌پاشد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-را-در-ادامه-بخوانیم">چه چیزی را در ادامه بخوانیم<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/04/omnieval-omnidirectional-automatic-rag-evaluation-financial-domain#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%B1%D8%A7-%D8%AF%D8%B1-%D8%A7%D8%AF%D8%A7%D9%85%D9%87-%D8%A8%D8%AE%D9%88%D8%A7%D9%86%DB%8C%D9%85" class="hash-link" aria-label="لینک مستقیم به چه چیزی را در ادامه بخوانیم" title="لینک مستقیم به چه چیزی را در ادامه بخوانیم" translate="no">​</a></h2>
<ul>
<li class="">ARES: چارچوب ارزیابی خودکار برای تولید تقویت‌شده با بازیابی (arXiv:2311.09476، NAACL 2025) — نزدیک‌ترین آنالوگ حوزه عمومی به رویکرد تنظیم دقیق ارزیاب OmniEval؛ مقایسه متدولوژی ARES با OmniEval روشن می‌کند که آیا انتخاب‌های طراحی ارزیاب LLM اصولی هستند یا موردی.</li>
<li class="">RAGEval: چارچوب تولید مجموعه داده ارزیابی RAG سناریو-محور (ACL 2025, aclanthology.org/2025.acl-long.418) — تولید سناریوی خودکار برای ارزیابی RAG؛ متدولوژی تولید خودکاری را که OmniEval استفاده می‌کند گسترش می‌دهد و ممکن است به نگرانی‌های مربوط به آلودگی پاسخ دهد.</li>
<li class="">FinRAGBench-V: بنچمارکی برای RAG چندوجهی با ارجاع بصری در حوزه مالی (arXiv:2505.17471) — ارزیابی RAG را به اسناد مالی چندوجهی (جداول، نمودارها) گسترش می‌دهد؛ از آنجا که کاربران Beancount به طور فزاینده‌ای تصاویر رسید و صورت‌حساب‌های PDF را در کنار دفترکل‌های متنی ساده دارند، مرتبط است.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>LLM</category>
            <category>Finance</category>
            <category>Data Science</category>
            <category>Beancount</category>
            <category>Automation</category>
        </item>
        <item>
            <title><![CDATA[بررسی جامع تشخیص ناهنجاری با مدل‌های زبانی بزرگ (NAACL 2025): طبقه‌بندی قوی، غیبت پوشش داده‌های جدولی]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey</guid>
            <pubDate>Fri, 03 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[خوانشی نقادانه از بررسی جامع شو و دینگ در NAACL 2025 درباره تشخیص ناهنجاری و OOD مبتنی بر LLM؛ در حالی که طبقه‌بندی تشخیص در برابر تولید پابرجاست، اما غیبت تقریباً کامل پوشش داده‌های جدولی به این معناست که متخصصان هوش مصنوعی مالی باید خودشان بینش‌ها را از مدل‌های بینایی استخراج کنند.]]></description>
            <content:encoded><![CDATA[<p>سه مطلب قبلی در این رشته، به AnoLLM، CausalTAD و AD-LLM اختصاص داشت که هر کدام به‌طور خاص تشخیص ناهنجاری در داده‌های جدولی را هدف قرار داده بودند. این بررسی جامع توسط روئی‌یاو شو و کایزه دینگ که در یافته‌های NAACL 2025 پذیرفته شده است، قرار بود این رشته‌ها را در یک نقشه چشم‌انداز واحد به هم متصل کند. من انتظار طبقه‌بندی‌ای را داشتم که فضای طراحی را شفاف کند؛ اما آنچه به دست آوردم عمدتاً بررسی تشخیص ناهنجاری در تصاویر و ویدئوها با لایه‌ای نازک از کلی‌گویی بود.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D8%A8%D8%B1%D8%B1%D8%B3%DB%8C%20%D8%AC%D8%A7%D9%85%D8%B9%20%D8%AA%D8%B4%D8%AE%DB%8C%D8%B5%20%D9%86%D8%A7%D9%87%D9%86%D8%AC%D8%A7%D8%B1%DB%8C%20%D8%A8%D8%A7%20%D9%85%D8%AF%D9%84%E2%80%8C%D9%87%D8%A7%DB%8C%20%D8%B2%D8%A8%D8%A7%D9%86%DB%8C%20%D8%A8%D8%B2%D8%B1%DA%AF%20(NAACL%202025)%3A%20%D8%B7%D8%A8%D9%82%D9%87%E2%80%8C%D8%A8%D9%86%D8%AF%DB%8C%20%D9%82%D9%88%DB%8C%D8%8C%20%D8%BA%DB%8C%D8%A8%D8%AA%20%D9%BE%D9%88%D8%B4%D8%B4%20%D8%AF%D8%A7%D8%AF%D9%87%E2%80%8C%D9%87%D8%A7%DB%8C%20%D8%AC%D8%AF%D9%88%D9%84%DB%8C" alt="2026-07-03-llm-anomaly-ood-detection-survey" class="img_ev3q"></p>
<p>بررسی شو و دینگ (arXiv:2409.01980) پیشنهاد می‌کند که تشخیص ناهنجاری و تشخیص داده‌های خارج از توزیع (OOD) مبتنی بر LLM به دو کلاس سطح بالا سازماندهی شوند: <strong>LLMها برای تشخیص (Detection)</strong>، که در آن مدل مستقیماً ناهنجاری‌ها را شناسایی می‌کند، و <strong>LLMها برای تولید (Generation)</strong>، که در آن مدل داده‌های آموزشی را تقویت می‌کند یا توضیحات به زبان طبیعی ارائه می‌دهد که به یک تشخیص‌دهنده در پایین‌دست خوراک می‌دهد. هر کلاس بیشتر تقسیم می‌شود. تشخیص به روش‌های مبتنی بر پرامپت (LLMهای منجمد یا تنظیم‌شده که با پرامپت‌های زبان طبیعی فراخوانی می‌شوند) و روش‌های مبتنی بر تضاد (مدل‌های خانواده CLIP که با مقایسه قطعات تصویر با توضیحات متنی، ناهنجاری را امتیازدهی می‌کنند) تقسیم می‌شود. تولید به روش‌های مبتنی بر تقویت داده (تولید برچسب‌های شبه-OOD یا نمونه‌های اقلیت مصنوعی) و روش‌های مبتنی بر توضیح (تولید منطق‌های زبان طبیعی برای رویدادهای علامت‌گذاری شده) تقسیم می‌شود.</p>
<p>لیست مطالعه همراه در گیت‌هاب حدود ۳۹ مقاله را پوشش می‌دهد: ۲۴ مقاله در تشخیص، ۱۰ مقاله در تقویت داده و ۵ مقاله در توضیح.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-�کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class=""><strong>روش‌های مبتنی بر تضاد در تشخیص ناهنجاری تصویر غالب هستند.</strong> WinCLIP به AUROC ۹۱.۸٪ و ۸۵.۱٪ در طبقه‌بندی و بخش‌بندی ناهنجاری صفر-شات (Zero-shot) روی MVTec-AD بدون هیچ‌گونه تنظیم خاصِ مجموعه داده دست می‌یابد که با روش‌های نظارت‌شده آموزش‌دیده روی آن مجموعه داده رقابت می‌کند.</li>
<li class=""><strong>LLMهای منجمد در داده‌های غیرمتنی با شکاف مدالیته مواجه می‌شوند.</strong> این بررسی صراحتاً خاطرنشان می‌کند که «فراخوانی مستقیم LLMهای منجمد برای نتایج تشخیص ناهنجاری یا OOD در انواع مختلف داده‌ها، به دلیل شکاف ذاتی مدالیته بین متن و سایر مدالیته‌های داده، اغلب منجر به عملکرد پایین‌تر از حد بهینه می‌شود.»</li>
<li class=""><strong>تنظیم LoRA و آداپتور بخش زیادی از این شکاف را جبران می‌کند.</strong> روش‌هایی مانند AnomalyGPT و AnomalyCLIP با تکنیک‌های کارآمد از نظر پارامتر (Parameter-efficient) تنظیم دقیق می‌شوند و به‌طور قابل‌توجهی از همتایان منجمد خود بهتر عمل می‌کنند.</li>
<li class=""><strong>تولید به عنوان ابزار تقویت داده کمتر از حد مورد استفاده قرار گرفته است.</strong> برچسب‌های شبه-OOD در سطح کپشن تولید شده توسط BLIP-2 در تشخیص OOD بهتر از جایگزین‌های در سطح کلمه و توضیحات عمل می‌کنند، که نشان می‌دهد نظارت متنی غنی‌تر حتی برای وظایف بصری نیز اهمیت دارد.</li>
<li class=""><strong>تولید مبتنی بر توضیح، جدیدترین زیرمجموعه است.</strong> سیستم‌هایی مانند Holmes-VAD و VAD-LLaMA فراتر از پرچم‌های باینری عمل کرده و منطق‌های زبان طبیعی برای رویدادهای ناهنجار، عمدتاً در ویدئوهای نظارتی، تولید می‌کنند.</li>
<li class=""><strong>داده‌های جدولی تقریباً غایب هستند.</strong> این بررسی تنها به یک روش — "Tabular" توسط لی و همکاران (۲۰۲۴) — اشاره می‌کند که ردیف‌های جدولی را به پرامپت‌های متنی تبدیل کرده و با LoRA تنظیم دقیق می‌کند، اما هیچ آمار مقایسه‌ای ارائه نمی‌دهد.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-پابرجاست-و-چه-چیزی-نه">چه چیزی پابرجاست و چه چیزی نه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%BE%D8%A7%D8%A8%D8%B1%D8%AC%D8%A7%D8%B3%D8%AA-%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%D9%87" class="hash-link" aria-label="لینک مستقیم به چه چیزی پابرجاست و چه چیزی نه" title="لینک مستقیم به چه چیزی پابرجاست و چه چیزی نه" translate="no">​</a></h2>
<p>طبقه‌بندی دوکلاسی واقعاً تمیز است و احتمالاً از آن برای سازماندهی تفکر خودم استفاده خواهم کرد. تمایز تشخیص در برابر تولید، یک دوشاخه معماری واقعی را نشان می‌دهد: یا از LLM می‌خواهید مستقیماً طبقه‌بندی کند یا از آن برای ساخت سیگنال آموزشی بهتر برای یک تشخیص‌دهنده سنتی استفاده می‌کنید.</p>
<p>آنچه نمی‌توانم بپذیرم، قاب‌بندی مقاله به عنوان بررسی جامع تشخیص ناهنجاری به‌طور کلی است. پوشش مطالب به‌طور مفرط بر تصاویر نقص‌های صنعتی (MVTec-AD, VisA) و ویدئوهای نظارتی (UCF-Crime, XD-Violence) متمرکز است. از حدود ۳۹ مقاله فهرست شده، تقریباً هیچ‌کدام به داده‌های جدولی یا مالی نمی‌پردازند. سری‌های زمانی چند ارجاع دارند. داده‌های جدولی تنها یک جمله سهم برده‌اند. این یک نقشه چشم‌انداز برای Bean Labs نیست — این نقشه‌ای برای محققان بینایی ماشین است که می‌خواهند از CLIP برای تشخیص نقص استفاده کنند.</p>
<p>نویسندگان اذعان می‌کنند که «محدودیت فضا مانع از خلاصه‌های دقیق معیارها شده است»، که راهی مودبانه برای گفتن این است که هیچ جدول مقایسه‌ای وجود ندارد. برای یک مقاله مروری، نبود ترکیب کمی (Quantitative Synthesis) یک شکاف بزرگ است. خوانندگان نمی‌توانند بدون پیگیری جداگانه تک‌تک مقالات ارجاع شده، تصمیم بگیرند کدام پارادایم برای مورد استفاده آن‌ها بهتر است.</p>
<p>چالش توهم (Hallucination) به عنوان یک مسئله باز فهرست شده است، اما پرداختن به آن سطحی است — ریسک را نام می‌برد بدون اینکه تحلیل کند کدام پارادایم‌های تشخیص بیشتر یا کمتر مستعد هستند، یا اینکه چگونه تولید مبتنی بر توضیح ممکن است توهمات را از طریق بررسی انسانی قابل تشخیص‌تر کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-برای-هوش-مصنوعی-مالی-مهم-است">چرا این برای هوش مصنوعی مالی مهم است<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D9%85%D9%87%D9%85-%D8%A7%D8%B3%D8%AA" class="hash-link" aria-label="لینک مستقیم به چرا این برای هوش مصنوعی مالی مهم است" title="لینک مستقیم به چرا این برای هوش مصنوعی مالی مهم است" translate="no">​</a></h2>
<p>دو زیرمجموعه علی‌رغم پوشش سنگین تصویری، مرتبط هستند. اول، زیرمجموعه <strong>تولید مبتنی بر توضیح</strong> دقیقاً همان چیزی است که عوامل حسابرسی Beancount به آن نیاز دارند: نه فقط یک پرچم که نشان دهد یک ورودی دفتر کل ناهنجار است، بلکه یک جمله به زبان طبیعی که دلیل آن را توضیح دهد. حسابرسان مالی نمی‌توانند بر اساس یک خروجی باینری عمل کنند. دوم، سکوت تقریباً کامل بررسی درباره تشخیص ناهنجاری جدولی خود آموزنده است — این تایید می‌کند که رشته مطالب AnoLLM، CausalTAD و AD-LLM که من دنبال کرده‌ام، یک حوزه پیشرو است نه یک مسیر پرتردد، و طراحی ابزارهای حسابرسی مبتنی بر LLM برای دفاتر کل Beancount مستلزم ترکیب بینش‌هایی از تشخیص ناهنجاری بینایی است که هنوز به محیط‌های جدولی منتقل نشده‌اند.</p>
<p>توازن بین پرامپت‌نویسی و تنظیم دقیق (Prompting-vs-tuning) کاربردی‌ترین یافته است: پرامپت‌نویسی صفر-شات به عنوان یک تخمین اولیه کار می‌کند اما از شکاف مدالیته رنج می‌برد؛ تنظیم دقیق مبتنی بر LoRA روی مثال‌های برچسب‌دار معرف، این شکاف را می‌بندد. برای استقرار Beancount با مثال‌های ناهنجاری برچسب‌دار از دفاتر کل تاریخی، مسیر تنظیم دقیق قابل‌اعتمادتر از پرامپت‌نویسی محض به نظر می‌رسد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-را-بعداً-بخوانیم">چه چیزی را بعداً بخوانیم<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/03/llm-anomaly-ood-detection-survey#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%B1%D8%A7-%D8%A8%D8%B9%D8%AF%D8%A7%D9%8B-%D8%A8%D8%AE%D9%88%D8%A7%D9%86%DB%8C%D9%85" class="hash-link" aria-label="لینک مستقیم به چه چیزی را بعداً بخوانیم" title="لینک مستقیم به چه چیزی را بعداً بخوانیم" translate="no">​</a></h2>
<ul>
<li class="">"Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs" (arXiv:2406.03614) — از جاسازی‌های Sentence-transformer مدل زبانی روی ورودی‌های واقعی دفتر کل استفاده می‌کند؛ پلی مستقیم از چارچوب این بررسی به مورد استفاده جدولی Beancount.</li>
<li class="">"Enhancing Anomaly Detection in Financial Markets with an LLM-based Multi-Agent Framework" (arXiv:2403.19735) — خط لوله چند‌عاملی برای تشخیص ناهنجاری داده‌های بازار؛ الگوی هماهنگی چند‌عاملی ممکن است به حسابرسی دفتر کل نیز منتقل شود.</li>
<li class="">AnomalyGPT (arXiv:2308.15366) — یک LVLM تنظیم‌شده برای تشخیص ناهنجاری صنعتی با مکان‌یابی در سطح پیکسل؛ خواندن این مقاله روشن می‌کند که «تنظیم LLM برای تشخیص» از نظر معماری واقعاً به چه معناست، چیزی که بررسی حاضر توصیف کرده اما توضیح نمی‌دهد.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Fraud Detection</category>
            <category>Data Science</category>
            <category>Beancount</category>
            <category>Analytics</category>
        </item>
        <item>
            <title><![CDATA[یافتن در میان: کالیبره کردن سوگیری توجه مکانی، RAG با بافت طولانی را بهبود می‌بخشد]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias</guid>
            <pubDate>Thu, 02 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[یک کالیبراسیون زمان استنتاج بدون نیاز به آموزش، سوگیری مکانی را از وزن‌های توجه مدل زبانی بزرگ کسر می‌کند و تا ۱۵ واحد درصد از دقت RAG را در زمانی که اسناد بازیابی شده در میانه بافت مدفون شده‌اند، بازیابی می‌کند — و این موضوع چه معنایی برای خط لوله‌های عامل‌های تخصصی مالی دارد.]]></description>
            <content:encoded><![CDATA[<p>من از زمان نوشتن یادداشتی درباره یافته‌های اصلی لیو و همکاران، به مشکل «گم شدن در میان» فکر می‌کردم: یک بافت طولانی را به یک LLM بدهید، و او به طور قابل اعتمادی شواهدی را که در میانه پنهان شده‌اند نادیده می‌گیرد. مقاله «یافتن در میان: کالیبره کردن سوگیری توجه مکانی، بهره‌وری از بافت طولانی را بهبود می‌بخشد» (Hsieh et al., ACL Findings 2024, arXiv:2406.16008) مستقیم‌ترین و کاربردی‌ترین راه حلی را که تا به حال دیده‌ام ارائه می‌دهد: یک کالیبراسیون زمان استنتاج بدون نیاز به آموزش که سوگیری مکانی مدل را از وزن‌های توجه آن کسر می‌کند و تا ۱۵ واحد درصد از دقت RAG را بازیابی می‌کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%DB%8C%D8%A7%D9%81%D8%AA%D9%86%20%D8%AF%D8%B1%20%D9%85%DB%8C%D8%A7%D9%86%3A%20%DA%A9%D8%A7%D9%84%DB%8C%D8%A8%D8%B1%D9%87%20%DA%A9%D8%B1%D8%AF%D9%86%20%D8%B3%D9%88%DA%AF%DB%8C%D8%B1%DB%8C%20%D8%AA%D9%88%D8%AC%D9%87%20%D9%85%DA%A9%D8%A7%D9%86%DB%8C%20RAG%20%D8%A8%D8%A7%20%D8%A8%D8%A7%D9%81%D8%AA%20%D8%B7%D9%88%D9%84%D8%A7%D9%86%DB%8C%20%D8%B1%D8%A7%20%D8%A8%D9%87%D8%A8%D9%88%D8%AF%20%D9%85%DB%8C%E2%80%8C%D8%A8%D8%AE%D8%B4%D8%AF" alt="2026-07-02-found-in-the-middle-calibrating-positional-attention-bias" class="img_ev3q"></p>
<p>سیه و همکاران با یک مشاهده تشخیصی شروع می‌کنند: مدل‌های زبانی بزرگ — حتی آن‌هایی که روی بافت‌های طولانی آموزش دیده‌اند — یک الگوی توجه U-شکل مداوم از خود نشان می‌دهند. توکن‌ها در ابتدا و انتهای ورودی، بدون توجه به مرتبط بودن یا نبودنشان، توجه بسیار بالایی دریافت می‌کنند، در حالی که توکن‌های میانی به طور سیستماتیک وزن کمتری می‌گیرند. نویسندگان این موضوع را به صورت تجربی به افت دقت «گم شدن در میان» مرتبط می‌دانند، نه اینکه آن را به عنوان یک پدیده مجزا در نظر بگیرند.</p>
<p>راه حل آن‌ها در مفهوم بسیار ظریف است. آن‌ها توجه را به دو مؤلفه جمع‌شونده تجزیه می‌کنند: مرتبط بودن (آنچه ما می‌خواهیم) و سوگیری مکانی (آنچه نمی‌خواهیم). برای جداسازی عبارت سوگیری، آن‌ها یک «سند ساختگی» — محتوای پرکننده غیر اطلاعاتی — را در هر موقعیت از همان بافت عبور می‌دهند و توزیع توجه حاصل را ثبت می‌کنند. توجه به آن سند ساختگی، تقریبی از پیشین مکانی خالص است. کسر کردن آن از امتیازات توجه واقعی، باقیمانده‌ای را به جا می‌گذارد که بهتر نشان‌دهنده مرتبط بودن واقعی است:</p>
<p><strong>توجه کالیبره شده = Attn(document, k) − Attn(dummy, k)</strong></p>
<p>سپس از امتیازات بازقیاس شده برای رتبه‌بندی مجدد یا وزن‌دهی مجدد به اسناد بازیابی شده قبل از مرحله نهایی تولید پاسخ استفاده می‌شود. نکته حیاتی این است که هیچ آموزشی لازم نیست. کالیبراسیون در زمان استنتاج روی ۱۶ لایه آخر رمزگشا و تمام سرهای توجه اعمال می‌شود. هزینه آن O(K) پاس پیشروی اضافی است که K تعداد اسناد بازیابی شده است — غیرچشمگیر اما قابل پیش‌بینی.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class="">سوگیری توجه U-شکل ذاتی معماری مدل است و حتی در مدل‌هایی که صراحتاً با اهداف بافت طولانی آموزش دیده‌اند نیز باقی می‌ماند.</li>
<li class="">عبور دادن یک سند ساختگی (خالی/نویز) از همان بافت بازیابی، پیشین مکانی را ایزوله می‌کند؛ کسر کردن آن سوگیری را بدون هیچ‌گونه تنظیم دقیق (finetuning) حذف می‌کند.</li>
<li class="">معیار Recall@3 در مجموعه داده NaturalQuestion (با K=20 و قرار دادن سند اصلی در میانه) با کالیبراسیون از ۲۰.۵۲٪ به ۶۸.۳۲٪ جهش می‌کند؛ در K=10، از ۳۶.۳۸٪ به ۷۴.۲۷٪ می‌رسد.</li>
<li class="">دقت پاسخگویی به سوالات (End-to-end QA) زمانی که سند اصلی در میانه بافت باشد، ۶ تا ۱۵ واحد درصد بهبود می‌یابد؛ این بهبودها در ۲۲ مورد از ۲۴ پیکربندی آزمایشی صادق است.</li>
<li class="">این روش از شش خط پایه مقایسه‌ای عملکرد بهتری دارد: توجه وانیلا (vanilla attention)، رتبه‌بندی تولید پرس‌وجو، پرامپتینگ تولید مرتبط بودن، مرتب‌سازی توجه (Peysakhovich &amp; Lerer 2023)، بازآرایی پرامپت و LongLLMLingua-rk.</li>
<li class="">این روش بر روی NaturalQuestion (۲۶۵۵ پرس‌وجوی واقعی روی ویکی‌پدیا) و SynthWiki (۹۹۰ ورودی مصنوعی تولید شده توسط GPT-4) ارزیابی شد.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-پابرجاست--و-چه-چیزی-نه">چه چیزی پابرجاست — و چه چیزی نه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%BE%D8%A7%D8%A8%D8%B1%D8%AC%D8%A7%D8%B3%D8%AA--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%D9%87" class="hash-link" aria-label="لینک مستقیم به چه چیزی پابرجاست — و چه چیزی نه" title="لینک مستقیم به چه چیزی پابرجاست — و چه چیزی نه" translate="no">​</a></h2>
<p>نتیجه اصلی خیره‌کننده است و من آن را باور دارم. شکاف Recall@3 از ۲۰.۵۲٪ به ۶۸.۳۲٪ برای اسناد اصلی در میانه بافت، عددی نیست که با بررسی دقیق از بین برود — این نشان‌دهنده چیزی واقعی درباره نحوه توزیع توجه است. طراحی بدون نیاز به آموزش یک مزیت کاربردی واقعی است: می‌توانید این را بدون دست زدن به وزن‌های مدل، روی هر خط لوله RAG موجود قرار دهید.</p>
<p>با این حال، من ملاحظاتی دارم. اول، رویکرد «سند ساختگی» فرض می‌کند که سوگیری مکانی تقریباً از نظر موقعیت تفکیک‌پذیر و جمع‌شونده است — یک تجزیه خطی که خود نویسندگان اشاره کرده‌اند ممکن است بیش از حد ساده‌انگاری باشد. سوگیری توجه واقعی ممکن است به روش‌های غیرخطی با محتوا در تعامل باشد. دوم، پاس‌های پیشروی اضافی O(K) به عنوان هزینه «قابل قبول» معرفی شده‌اند اما هرگز از نظر تأخیر یا هزینه بنچ‌مارک نشده‌اند. در یک سیستم تولیدی با ۲۰ مورد بازیابی، شما به جای یک پاس، ۲۱ پاس پیشرو برای هر پرس‌وجو اجرا می‌کنید. برای یک عامل Beancount که صدها تراکنش را تریاژ می‌کند، این ضریب اهمیت دارد.</p>
<p>سوم — و این جالب‌ترین محدودیت است — نویسندگان اشاره می‌کنند که سوگیری مکانی ممکن است در واقع برای وظایف خاصی مفید باشد. برای مثال، سوگیری تازگی (Recency bias) ممکن است همان چیزی باشد که باعث می‌شود مدل به ورودی‌های اخیر دفتر کل نسبت به ورودی‌های قدیمی‌تر وزن درستی بدهد. حذف بدون تبعیض سوگیری می‌تواند به وظایفی که در آن‌ها موقعیت یک سیگنال معتبر است، آسیب برساند. این موضوع تایید شده اما مطالعه نشده است.</p>
<p>در نهایت، آزمایش‌ها از NaturalQuestion و یک مجموعه داده مصنوعی استفاده می‌کنند. اسناد تخصصی مالی — جداول متراکم، پرونده‌های چندساله، ورودی‌های دفتر کل با ساختار تکراری — با متون ویکی‌پدیا در حوزه عمومی بسیار متفاوت هستند. این کالیبراسیون قبل از ادعای کارایی برای RAG مالی، باید روی آن توزیع‌ها اعتبارسنجی شود.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-برای-هوش-مصنوعی-مالی-مهم-است">چرا این برای هوش مصنوعی مالی مهم است<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D9%85%D9%87%D9%85-%D8%A7%D8%B3%D8%AA" class="hash-link" aria-label="لینک مستقیم به چرا این برای هوش مصنوعی مالی مهم است" title="لینک مستقیم به چرا این برای هوش مصنوعی مالی مهم است" translate="no">​</a></h2>
<p>ارتباط مستقیم واضح است: تمام گزارش‌های ما از زمان DocFinQA حول همین مشکل می‌چرخیدند. وقتی یک عامل Beancount برای پاسخ به سوالی مانند «تطبیق ماه مارس با صورت‌حساب بانکی»، ۲۰ ورودی مرتبط دفتر کل را بازیابی می‌کند، به ورودی‌های میانه پنجره بازیابی شده به طور سیستماتیک نسبت به ورودی‌های ابتدا و انتهای بافت، توجه کمتری می‌شود. این یک شکست در بازیابی نیست — این یک شکست در بخش تولید (generation) است که هیچ مقدار بهبودی در رتبه‌بندی بازیابی آن را حل نخواهد کرد.</p>
<p>کالیبراسیون «یافتن در میان» یک راهکار کاهش ریسک محتمل است که نیازی به بازآموزی مدل زیربنایی ندارد و می‌تواند مستقیماً در مرحله تولید هر خط لوله پاسخگویی به سوالات دفتر کل اعمال شود. نگرانی هزینه O(K) واقعی است اما قابل مدیریت است — یک پنجره بازیابی ۲۰ سندی با یک مدل با اندازه متوسط هنوز در محدوده عملی قرار دارد. چیزی که من دوست دارم قبل از استقرار آن ببینم، اعتبارسنجی روی داده‌های با ساختار Beancount است: آیا اصلاح مکانی به طور یکنواخت کمک می‌کند، یا ناخواسته سیگنال تازگی را که باعث می‌شود تراکنش‌های اخیر قابل اعتمادتر از تراکنش‌های قدیمی باشند، سرکوب می‌کند؟</p>
<p>اصل گسترده‌تر — اینکه مکانیسم‌های توجه، پیشین‌های مکانی را مستقل از مرتبط بودن محتوا کدگذاری می‌کنند و این پیشین‌ها را می‌توان بدون بازآموزی کالیبره کرد — ارزش نگه داشتن دارد. این امر راه را برای کالیبراسیون‌های مشابه برای سایر سوگیری‌ها باز می‌کند: سوگیری فراوانی توکن، نرمال‌سازی طول ورودی، و سوگیری پرحرفی در تولید.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مطالب-پیشنهادی-برای-مطالعه">مطالب پیشنهادی برای مطالعه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/02/found-in-the-middle-calibrating-positional-attention-bias#%D9%85%D8%B7%D8%A7%D9%84%D8%A8-%D9%BE%DB%8C%D8%B4%D9%86%D9%87%D8%A7%D8%AF%DB%8C-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%85%D8%B7%D8%A7%D9%84%D8%B9%D9%87" class="hash-link" aria-label="لینک مستقیم به مطالب پیشنهادی برای مطالعه" title="لینک مستقیم به مطالب پیشنهادی برای مطالعه" translate="no">​</a></h2>
<ul>
<li class="">"Mitigate Position Bias in LLMs via Scaling a Single Hidden States Channel" (arXiv:2406.02536, ACL Findings 2025) — پیشنهاد مقیاس‌بندی یک بعد از حالت پنهان به جای کسر امتیازات توجه؛ ارزش مقایسه مستقیم با رویکرد «یافتن در میان» را دارد.</li>
<li class="">"Large Language Models for Anomaly and Out-of-Distribution Detection: A Survey" (arXiv:2409.01980, NAACL 2025) — مورد بعدی در لیست مطالعه؛ رشته‌های AnoLLM، CausalTAD و AD-LLM را در یک طبقه‌بندی واحد به هم پیوند می‌دهد.</li>
<li class="">Liu et al., "Lost in the Middle: How Language Models Use Long Contexts" (arXiv:2307.03172, TACL 2023) — تشخیص اصلی که «یافتن در میان» به آن پاسخ می‌دهد؛ مطالعه آن برای درک پیش‌زمینه ضروری است.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Data Science</category>
            <category>Automation</category>
            <category>Beancount</category>
            <category>Reconciliation</category>
        </item>
        <item>
            <title><![CDATA[تعویق آگاه از عدم قطعیت برای عامل‌های LLM: چه زمانی از مدل‌های کوچک به بزرگ ارجاع دهیم]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents</guid>
            <pubDate>Wed, 01 Jul 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[سیستم ReDAct به‌طور پیش‌فرض یک مدل کوچک را اجرا می‌کند و تنها زمانی به یک مدل گران‌قیمت ارجاع می‌دهد که پرپلکسیتی در سطح توکن نشان‌دهنده عدم قطعیت باشد. این روش ضمن حفظ یا فراتر رفتن از دقت GPT-5.2، باعث ۶۴٪ صرفه‌جویی در هزینه‌ها می‌شود؛ الگویی که مستقیماً برای عامل‌های دسته‌بندی تراکنش در Beancount قابل استفاده است.]]></description>
            <content:encoded><![CDATA[<p>فشار بر عامل‌های خودمختار برای ارزان و قابل‌اطمینان بودن، آن‌ها را در دو جهت مخالف می‌کشد: مدل‌های پیشرو (frontier) قابل‌اطمینان اما گران هستند، در حالی که مدل‌های کوچک ارزان اما مستعد خطا هستند. مقاله ReDAct اثر پیاتراشین و همکاران (arXiv:2604.07036) راه میانی را پیشنهاد می‌دهد — اجرای پیش‌فرض یک مدل کوچک و ارجاع به یک مدل بزرگ تنها زمانی که مدل کوچک دچار عدم قطعیت است. من این مقاله را می‌خوانم زیرا همین تنش در هر عامل ثبت بازگشت (write-back) برای Beancount در محیط عملیاتی وجود دارد: شما می‌خواهید سیستم دسته‌بندی‌های روتین را به‌طور ارزان انجام دهد و موارد غیرواضح را پیش از آنکه دفتر کل (ledger) را خراب کنند، ارجاع دهد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D8%AA%D8%B9%D9%88%DB%8C%D9%82%20%D8%A2%DA%AF%D8%A7%D9%87%20%D8%A7%D8%B2%20%D8%B9%D8%AF%D9%85%20%D9%82%D8%B7%D8%B9%DB%8C%D8%AA%20%D8%A8%D8%B1%D8%A7%DB%8C%20%D8%B9%D8%A7%D9%85%D9%84%E2%80%8C%D9%87%D8%A7%DB%8C%20LLM%3A%20%DA%86%D9%87%20%D8%B2%D9%85%D8%A7%D9%86%DB%8C%20%D8%A7%D8%B2%20%D9%85%D8%AF%D9%84%E2%80%8C%D9%87%D8%A7%DB%8C%20%DA%A9%D9%88%DA%86%DA%A9%20%D8%A8%D9%87%20%D8%A8%D8%B1%D8%B2%DA%AF%20%D8%A7%D8%B1%D8%AC%D8%A7%D8%B9%20%D8%AF%D9%87%DB%8C%D9%85" alt="2026-07-01-redact-uncertainty-aware-deferral-llm-agents" class="img_ev3q"></p>
<p>سیستم ReDAct (Reason-Defer-Act) بر اساس پارادایم پرامپت‌نویسی ReAct ساخته شده و یک معماری عامل دومدلی را معرفی می‌کند. یک مدل کوچک ارزان — مانند Qwen3-80B، Llama3.3-70B یا Llama4-Maverick — تمام مراحل را به‌طور پیش‌فرض مدیریت می‌کند. در هر مرحله، این مدل یک ردپای استدلال (reasoning trace) و سپس یک اقدام (action) تولید می‌کند. سیستم عدم قطعیت در سطح توکن را <em>فقط برای مرحله تولید اقدام</em> اندازه‌گیری کرده و آن را با یک آستانه کالیبره‌شده مقایسه می‌کند. اگر عدم قطعیت از آن آستانه فراتر رود، مرحله توسط یک مدل بزرگ گران‌قیمت (GPT-5.2، Qwen3-235B یا Qwen3-480B) دوباره اجرا می‌شود؛ در غیر این صورت، اقدام مدل کوچک اجرا می‌گردد.</p>
<p>معیارهای عدم قطعیت مبتنی بر نظریه اطلاعات هستند و تنها به احتمالات لگاریتمی (log-probabilities) در سطح توکن نیاز دارند: احتمال توالی (مجموع لگاریتم احتمال منفی)، پرپلکسیتی (نرمال‌شده بر اساس طول) و میانگین آنتروپی توکن (میانگین آنتروپی در موقعیت‌های مختلف توکن). آستانه از طریق مجموعه‌ای از خروجی‌های مدل کوچک با انتخاب مقداری که تعداد هدف برای فراخوانی مدل بزرگ در هر اپیزود (K) را ایجاد کند، کالیبره می‌شود.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class=""><strong>اندازه‌گیری عدم قطعیت در مرحله اقدام، نه مرحله استدلال.</strong> یک آزمایش کمکی بر روی ۲,۴۱۱ مرحله ALFWorld نشان داد که عدم قطعیت در سطح استدلال قدرت تشخیص ضعیفی بین مراحل صحیح و غلط دارد؛ در حالی که پرپلکسیتی در سطح اقدام به عنوان پیش‌بینی‌کننده صحت، ROC-AUC و PRR به‌مراتب بالاتری دارد.</li>
<li class=""><strong>تعویق بر اساس PPL با ترکیب Qwen3-80B + GPT-5.2 به دقت ۸۰.۸٪ ± ۱.۱٪ در ALFWorld می‌رسد</strong> که از GPT-5.2 به تنهایی (۷۸.۳٪ ± ۱.۹٪) فراتر می‌رود، در حالی که هزینه‌ آن ۱۶.۲۵ دلار در مقابل ۴۵.۲۱ دلار است — یعنی تقریباً ۶۴٪ ارزان‌تر.</li>
<li class=""><strong>حدود ۱۵٪ از مراحل در عمل به تعویق می‌افتند</strong> تا با هدف کالیبراسیون تقریباً ۱۰٪ مطابقت داشته باشند؛ این شکاف به این دلیل به وجود می‌آید که مسیرهای شکست‌خورده (کوتاه‌تر) سهم نامتناسبی در بودجه تعویق دارند.</li>
<li class=""><strong>تعویق تصادفی با همان نرخ، امتیاز ۷۷.۰٪ را کسب می‌کند</strong> — که هنوز بهتر از حالت فقط مدل کوچک (۶۸.۳٪) است، اما بدتر از تعویق هدایت‌شده توسط سنجش عدم قطعیت (UQ). سیگنال عدم قطعیت واقعاً اهمیت دارد، نه فقط عمل فراخوانی بیشتر مدل بزرگ.</li>
<li class=""><strong>MiniGrid فضای بهبود کمتری نشان می‌دهد.</strong> Qwen3-80B + GPT-5.2 با تعویق PPL به ۹۵.۰٪ می‌رسد در حالی که GPT-5.2 به تنهایی ۹۹.۰٪ است. دایره لغات محدودتر وظایف در اینجا باعث می‌شود وقتی مدل کوچک از نظر ساختاری ناتوان است، سقف سخت‌تری برای رویکرد تعویق ایجاد شود.</li>
<li class=""><strong>توزیع تعویق وابسته به وظیفه است.</strong> ALFWorld در مراحل بعدی (تاریخچه پرامپت طولانی‌تر) بیشتر تعویق می‌دهد، در حالی که MiniGrid الگویی دو‌وجهی وابسته به موقعیت اولیه عامل نشان می‌دهد. این بدان معناست که کالیبراسیون آستانه ثابت در یک خانواده وظیفه بهتر از بین خانواده‌های مختلف تعمیم می‌یابد.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-تایید-میشود--و-چه-چیزی-نه">چه چیزی تایید می‌شود — و چه چیزی نه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%AA%D8%A7%DB%8C%DB%8C%D8%AF-%D9%85%DB%8C%D8%B4%D9%88%D8%AF--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%D9%87" class="hash-link" aria-label="لینک مستقیم به چه چیزی تایید می‌شود — و چه چیزی نه" title="لینک مستقیم به چه چیزی تایید می‌شود — و چه چیزی نه" translate="no">​</a></h2>
<p>یافته تجربی اصلی معتبر است: پرپلکسیتی روی رشته اقدام، جایگزین مناسبی برای تشخیص احتمال خطای یک مرحله است. تجزیه استدلال/اقدام در ReAct طبیعتاً نقطه تمیزی را برای پیوست کردن سیگنال عدم قطعیت فراهم می‌کند و آزمایش کمکی پیش‌بینی صحت، توجیه مکانیکی واقعی برای این انتخاب طراحی ارائه می‌دهد.</p>
<p>آنچه من کمتر نسبت به آن متقاعد شده‌ام: نتیجه "فراتر رفتن از مدل بزرگ به تنهایی" در ALFWorld است. ۸۰.۸٪ ± ۱.۱٪ در مقابل ۷۸.۳٪ ± ۱.۹٪ در یک انحراف معیار همپوشانی دارند. نویسندگان این موضوع را به نقاط قوت مکمل نسبت می‌دهند — مدل کوچک مراحل روتین را بدون ریسک‌پذیری‌های گاه‌به‌گاه مدل بزرگ انجام می‌دهد — اما هیچ تحلیل جزئی‌تری (ablation) برای تایید این روایت وجود ندارد. این نتیجه می‌تواند به سادگی ناشی از نویز باشد.</p>
<p>انتخاب بنچمارک نیز محدودکننده است. ALFWorld و MiniGrid شبیه‌سازی‌های خانگی متنی و مسیریابی در جهان شبکه‌ای هستند — محیط‌های محدودی که فراخوانی ابزار، اجرای کد یا بازیابی اسناد چندگانه را به چالش نمی‌کشند. اینکه آیا تعویق کالیبره‌شده با عدم قطعیت در آن تنظیمات غنی‌تر (تنظیماتی که برای Beancount مرتبط هستند) پابرجا می‌ماند یا خیر، بی‌پاسخ مانده است. همچنین انتخاب GPT-5.2 به عنوان مدل بزرگ، بازتولید اعداد هزینه را دشوار می‌کند.</p>
<p>فرآیند کالیبراسیون دارای یک چرخش حل‌نشده است: آستانه روی همان توزیعی انتخاب می‌شود که روی آن کالیبره شده است، بدون اعتبارسنجی جداگانه. نویسندگان تغییر توزیع بین کالیبراسیون (خروجی‌های مدل کوچک) و ارزیابی (خروجی‌های ترکیبی) را می‌پذیرند، اما پایداری آستانه را به کارهای آینده واگذار می‌کنند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-موضوع-برای-هوش-مصنوعی-در-امور-مالی-مهم-است">چرا این موضوع برای هوش مصنوعی در امور مالی مهم است<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D9%85%D9%88%D8%B6%D9%88%D8%B9-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D8%AF%D8%B1-%D8%A7%D9%85%D9%88%D8%B1-%D9%85%D8%A7%D9%84%DB%8C-%D9%85%D9%87%D9%85-%D8%A7%D8%B3%D8%AA" class="hash-link" aria-label="لینک مستقیم به چرا این موضوع برای هوش مصنوعی در امور مالی مهم است" title="لینک مستقیم به چرا این موضوع برای هوش مصنوعی در امور مالی مهم است" translate="no">​</a></h2>
<p>عامل‌های ثبت بازگشت Beancount در هر تراکنش دقیقاً با همین پرسش تعویق مواجه هستند. یک خرید خواربار روتین نیاز به دسته‌بندی دارد؛ اما یک معامله ارزی چندمرحله‌ای غیرمعمول با یادداشت‌های نیمه‌منطبق، نیاز به بازبینی انسانی دارد. روش فعلی یا اتوماسیون کامل (پرخطر) است یا بازبینی کامل انسانی (گران). چارچوب ReDAct یک راه میانی عملی را پیشنهاد می‌دهد: مدل ارزان را اجرا کنید و زمانی که پرپلکسیتی روی ورودی پیشنهادی در دفتر روزنامه (journal) از آستانه کالیبره‌شده فراتر رفت، آن را ارجاع دهید.</p>
<p>بستر مالی دو ملاحظه را اضافه می‌کند که در مقاله به آن‌ها پرداخته نشده است. اول، تعویق در اینجا اغلب باید به معنای <em>توقف و پرسش از کاربر</em> باشد، نه فراخوانی یک LLM بزرگتر — معیار صحت دفتر کل، نیت کاربر است، نه امتیاز یک بنچمارک. دوم، بازگشت‌ناپذیری یک ورودی ثبت‌شده در Beancount بالاتر از یک شیء اشتباه قرار داده شده در ALFWorld است. هدف کالیبراسیون K احتمالاً باید به جای اولویت دادن به دقت مدل کوچک، به سمت محافظه‌کاری در ارجاع تنظیم شود.</p>
<p>سیگنال کاهش ۶۴ درصدی هزینه، حتی با این ملاحظات، ارزش جدی گرفتن را دارد. اگر یک عامل Beancount تراکنش‌های یک ماه را پردازش کند و تنها ۱۵٪ از تصمیمات دسته‌بندی به مدل گران‌قیمت نیاز داشته باشند، اقتصاد اجرای یک عامل ثبت بازگشت توانمند بسیار بهتر به نظر می‌رسد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="پیشنهادهای-مطالعه-بعدی">پیشنهادهای مطالعه بعدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/07/01/redact-uncertainty-aware-deferral-llm-agents#%D9%BE%DB%8C%D8%B4%D9%86%D9%87%D8%A7%D8%AF%D9%87%D8%A7%DB%8C-%D9%85%D8%B7%D8%A7%D9%84%D8%B9%D9%87-%D8%A8%D8%B9%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به پیشنهادهای مطالعه بعدی" title="لینک مستقیم به پیشنهادهای مطالعه بعدی" translate="no">​</a></h2>
<ul>
<li class=""><strong>KnowNo</strong> (Ren et al., 2023, CoRL): "روبات‌هایی که کمک می‌خواهند: هم‌ترازی عدم قطعیت برای برنامه‌ریزهای مدل زبانی بزرگ" — از پیش‌بینی منسجم (conformal prediction) برای کالیبره کردن یک ضمانت <em>پوشش</em> در مورد زمان درخواست کمک استفاده می‌کند. ReDAct با آن مقایسه نشده است؛ درک توازن بین ضمانت‌های منسجم و کالیبراسیون آستانه پیش از انتخاب رویکرد نهایی مهم است. [arXiv:2307.01928]</li>
<li class=""><strong>بررسی تخمین اعتماد و کالیبراسیون در مدل‌های زبانی بزرگ</strong> (Guo et al. updated, NAACL 2024) — طبقه‌بندی سیستماتیک اعتماد لفظی، روش‌های مبتنی بر نمونه‌برداری و کالیبراسیون پس از واقعه؛ پیش‌زمینه تئوری برای تصمیم‌گیری در مورد اینکه آیا پرپلکسیتی جایگزین درستی برای عدم قطعیت است یا اینکه مقیاس‌بندی لوجیت کالیبره‌شده عملکرد بهتری خواهد داشت. [arXiv:2311.08298]</li>
<li class=""><strong>UALA: عامل زبانی آگاه از عدم قطعیت</strong> (Han, Buntine, Shareghi) — یک آستانه عدم قطعیت ساختاری مشابه را برای تصمیم‌گیری در مورد <em>فراخوانی ابزار</em> (فراخوانی ابزار در مقابل تکیه بر دانش مدل) اعمال می‌کند و فراخوانی‌های ابزار را بیش از ۵۰٪ کاهش می‌دهد؛ مکمل مستقیم ReDAct برای محور استفاده از ابزار در عدم قطعیت عامل. [<a href="https://uala-agent.github.io/" target="_blank" rel="noopener noreferrer" class="">https://uala-agent.github.io/</a>]</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Automation</category>
            <category>Machine Learning</category>
            <category>Beancount</category>
            <category>Decision-making</category>
            <category>Plain-Text Accounting</category>
            <category>Trust</category>
        </item>
        <item>
            <title><![CDATA[OpenHands: پلتفرم باز برای عامل‌های نرم‌افزاری هوش مصنوعی و معنای آن برای اتوماسیون مالی]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents</guid>
            <pubDate>Tue, 30 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[OpenHands یک پلتفرم عامل با لایسنس MIT و محیط ایزوله Docker است که در آن CodeAct به امتیاز ۲۶٪ در SWE-Bench Lite دست یافته است؛ بنچمارکی تأمل‌برانگیز که نشان می‌دهد عامل‌های هوش مصنوعی امروزه چه کارهایی را می‌توانند با اطمینان انجام دهند و چرا اولین استقرارهای مالی مولد باید به جای خودمختاری، دارای محدوده‌ی دقیق باشند.]]></description>
            <content:encoded><![CDATA[<p>من بارها با OpenHands به عنوان لایه زیرساختی زیر مجموعه‌هایی مانند TheAgentCompany، InvestorBench و لیست در حال رشدی از مقالات ارزیابی روبرو شده‌ام — با این حال هنوز مقاله اصلی را نخوانده بودم. این همان زیرساختی است که بقیه فعالان این حوزه در سکوت بر روی آن بنا می‌کنند، بنابراین درک آنچه واقعاً ارائه می‌دهد و نقاط ضعف آن، فراتر از هر نتیجه بنچمارک واحدی که روی آن ساخته شده، اهمیت دارد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=OpenHands%3A%20%D9%BE%D9%84%D8%AA%D9%81%D8%B1%D9%85%20%D8%A8%D8%A7%D8%B2%20%D8%A8%D8%B1%D8%A7%DB%8C%20%D8%B9%D8%A7%D9%85%D9%84%E2%80%8C%D9%87%D8%A7%DB%8C%20%D9%86%D8%B1%D9%85%E2%80%8C%D8%A7%D9%81%D8%B2%D8%A7%D8%B1%DB%8C%20%D9%87%D9%88%D8%B4%20%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C%20%D9%88%20%D9%85%D8%B9%D9%86%D8%A7%DB%8C%20%D8%A2%D9%86%20%D8%A8%D8%B1%D8%A7%DB%8C%20%D8%A7%D8%AA%D9%88%D9%85%D8%A7%D8%B3%DB%8C%D9%88%D9%86%20%D9%85%D8%A7%D9%84%DB%8C" alt="2026-06-30-openhands-open-platform-ai-software-developers-generalist-agents" class="img_ev3q"></p>
<p>OpenHands (Wang et al., 2024; ICLR 2025) یک پلتفرم متن‌باز برای ساخت و ارزیابی عامل‌های LLM است که به عنوان توسعه‌دهندگان نرم‌افزار عمومی عمل می‌کنند. این مقاله که توسط Xingyao Wang و Graham Neubig در یک تیم ۲۴ نفره رهبری شده است، ادعا می‌کند که اکثر فریم‌ورک‌های عامل فعلی یا برای کارهای تحقیقاتی بیش از حد محدود هستند (حلقه‌های وظیفه سخت‌کد شده) یا برای تولید بیش از حد محدودند (متن‌بسته یا تک‌منظوره) و نمی‌توانند به عنوان یک پایه مشترک برای جامعه تحقیقاتی خدمت کنند. OpenHands سعی می‌کند این مشکل را با ارائه یک زمان‌اجرای استاندارد، یک انتزاع تمیز از عامل و ۱۵ بنچمارک ارزیابی یکپارچه تحت یک مخزن با لایسنس MIT حل کند.</p>
<p>زمان‌اجرا (Runtime) یک محیط ایزوله Docker شامل یک Bash Shell، یک سرور Jupyter IPython و یک مرورگر Chromium تحت کنترل Playwright است. عامل‌ها از طریق سه نوع اکشن اصلی تعامل دارند: <code>IPythonRunCellAction</code> برای پایتون، <code>CmdRunAction</code> برای دستورات شل، و <code>BrowserInteractiveAction</code> برای پیمایش وب. یک ابتدایه‌ی هماهنگی چند-عاملی به نام <code>AgentDelegateAction</code> به یک عامل اصلی اجازه می‌دهد تا عامل‌های فرعی تخصصی ایجاد کند. ستون فقرات پیش‌فرض CodeAct است — که در ابتدا به عنوان یک مقاله مستقل منتشر شد و استدلال می‌کرد که کد بهترین فضای اکشن یکپارچه برای عامل‌های LLM است — و پلتفرم چندین پیاده‌سازی عامل از جمله یک CodeActAgent عمومی و یک BrowsingAgent تخصصی را ارائه می‌دهد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class=""><strong>کد به عنوان فضای اکشن جهانی</strong>: CodeAct تمام اکشن‌های عامل (ویرایش فایل، فراخوانی API، تبدیل داده‌ها) را در پایتون یا Bash تجمیع می‌کند و به LLM اجازه می‌دهد در همان رسانه‌ای که به شدت روی آن آموزش دیده، استدلال کند. این کار باعث دور زدن شکنندگی طرحواره‌های JSON می‌شود که عامل‌های فراخوان تابع (Function-calling) را دچار مشکل می‌کند.</li>
<li class=""><strong>زمان‌اجرای ایزوله Docker</strong>: هر عامل در یک کانتینر مجزا اجرا می‌شود، بنابراین عامل‌ها می‌توانند آزادانه کد دلخواه را بدون به خطر انداختن ماشین میزبان اجرا کنند؛ این یک پیش‌نیاز برای هر عامل مالی در محیط تولید است که ممکن است اعتبارنامه‌های واقعی به آن سپرده شود.</li>
<li class=""><strong>۱۵ بنچمارک در یک مهار</strong>: SWE-Bench Lite (ترمیم کد)، HumanEvalFix (رفع باگ)، WebArena (پیمایش وب)، GPQA (استدلال سطح فارغ‌التحصیلی)، GAIA (حل وظایف عمومی) و ده مورد دیگر. تجمیع این‌ها در یک مکان از ارزیابی‌های گزینشی (Cherry-picked) جلوگیری می‌کند.</li>
<li class=""><strong>CodeActAgent + claude-3.5-sonnet به امتیاز ۲۶٪ در SWE-Bench Lite</strong> و ۷۹.۳٪ در HumanEvalFix دست می‌یابد؛ BrowsingAgent به ۱۵.۵٪ در WebArena می‌رسد — رقابت در سطح Zero-shot بدون هیچ آموزش خاصِ وظیفه.</li>
<li class=""><strong>عملکرد GAIA</strong>: ۳۲.۱٪ با GPTSwarm، که بسیار پایین‌تر از خط پایه ۹۲ درصدی انسانی است — همسو با هر بنچمارک عامل عمومی دیگر که شکاف ۶۰ تا ۷۰ امتیازی بین انسان و عامل را نشان می‌دهد.</li>
<li class=""><strong>مقیاس جامعه</strong>: ۷۱.۴ هزار ستاره در گیت‌هاب و بیش از ۱۸۸ مشارکت‌کننده در زمان ارسال به ICLR؛ TheAgentCompany از OpenHands به عنوان مهار ارزیابی خود استفاده کرد و به آن جایگاه دوفاکتوی زیرساخت بنچمارک را بخشید.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-پابرجا-میماند--و-چه-چیزی-نه">چه چیزی پابرجا می‌ماند — و چه چیزی نه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%BE%D8%A7%D8%A8%D8%B1%D8%AC%D8%A7-%D9%85%DB%8C%D9%85%D8%A7%D9%86%D8%AF--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%D9%87" class="hash-link" aria-label="لینک مستقیم به چه چیزی پابرجا می‌ماند — و چه چیزی نه" title="لینک مستقیم به چه چیزی پابرجا می‌ماند — و چه چیزی نه" translate="no">​</a></h2>
<p>طراحی زمان‌اجرای ایزوله یک مهندسی مستحکم است. جداسازی اجرای عامل در Docker یک پیش‌فرض صحیح برای هر سیستمی است که ممکن است بعداً دسترسی نوشتن در دفتر کل‌های مالی واقعی را پیدا کند، و واقعاً مفید است که بنچمارک‌ها به جای پراکنده بودن در مخازن ناسازگار، در یک جا جمع شده‌اند.</p>
<p>با این حال، پوشش بنچمارک‌ها بیشتر آرمانی است تا سیستماتیک. این ۱۵ بنچمارک انواع وظایف و سطوح دشواری بسیار متفاوتی را بدون یک چارچوب مشخص برای نحوه تجمیع یا مقایسه نتایج در بر می‌گیرند. گزارش ۲۶٪ در SWE-Bench Lite در کنار ۷۹.۳٪ در HumanEvalFix در همان مقاله، این خطر را دارد که این تصور را ایجاد کند که یک عامل به طور همزمان متوسط و عالی است — در حالی که وظایف به سادگی قابل مقایسه نیستند. نویسندگان روش‌شناسی اصولی برای تجمیع بنچمارک‌های چندگانه ارائه نمی‌دهند.</p>
<p>فرض CodeAct — مبنی بر اینکه کد قالب اکشن جهانیِ درستی است — مورد مناقشه است. این روش برای وظایف توسعه خوب عمل می‌کند، اما یک لایه میانجی پایتون/Bash را بر هر اکشنی تحمیل می‌کند که باعث افزایش تأخیر می‌شود و زمانی که معنای اکشن به وضوح به کد نگاشت نمی‌شود (دستورات مبهم کاربر، APIهای صرفاً مبتنی بر زبان طبیعی) با شکست مواجه می‌شود. مقاله در برابر فضاهای اکشن غیر-کد بنچمارک نمی‌گیرد تا ثابت کند این مزیت واقعی است و نه صرفاً ناشی از قدرت مدل LLM زیربنایی.</p>
<p>شاید مهم‌ترین شکاف، شکاف بین ارزیابی و استقرار (Deployment) باشد. عدد ۲۶٪ در SWE-Bench از یک بنچمارک نسبتاً تمیز و با مشخصات دقیق به دست آمده است. گزارش‌های جامعه و رشته‌های مسائل گیت‌هاب به طور مداوم قابلیت اطمینان بسیار پایین‌تری را در وظایف دنیای واقعی مبهم یا طولانی‌مدت توصیف می‌کنند — همان حالت شکستی که TheAgentCompany مستند کرده بود. مقاله به چگونگی اندازه‌گیری یا بهبود استحکام تحت نویزِ مشخصات وظایف واقع‌گرایانه نمی‌پردازد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-برای-هوش-مصنوعی-مالی-مهم-است">چرا این برای هوش مصنوعی مالی مهم است<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D9%85%D9%87%D9%85-%D8%A7%D8%B3%D8%AA" class="hash-link" aria-label="لینک مستقیم به چرا این برای هوش مصنوعی مالی مهم است" title="لینک مستقیم به چرا این برای هوش مصنوعی مالی مهم است" translate="no">​</a></h2>
<p>OpenHands نزدیک‌ترین چیز به یک زیربستر عامل مشترک است که جامعه در اختیار دارد. اگر Bean Labs زیرساخت ارزیابی برای عامل‌های Beancount بسازد، معماری زمان‌اجرا در اینجا — سندباکس Docker، اکشن‌های پایتون/Bash، بک‌اندهای LLM قابل تعویض — به جای بازسازی، ارزش پذیرش دارد. ابتدایه‌ی <code>AgentDelegateAction</code> به طور طبیعی با یک خط لوله عامل مالی نگاشت می‌شود که در آن یک هماهنگ‌کننده سطح بالا وظایف را به عامل‌های فرعی تخصصی واگذار می‌کند: یکی برای خواندن دفتر کل، یکی برای نشانه‌گذاری موارد غیرعادی، و یکی برای پیشنهاد ثبت در دفتر کل (write-back) که یک انسان آن را بازبینی می‌کند.</p>
<p>اعداد SWE-Bench و TheAgentCompany با هم یک پیش‌فرض تأمل‌برانگیز را ایجاد می‌کنند: حتی بهترین عامل‌های موجود، تقریباً ۲۶ تا ۳۰ درصد از وظایف نرم‌افزاری واقع‌گرایانه و بدون ابهام را کامل می‌کنند. اتوماسیون دفتر کل مالی سخت‌تر است — تراکنش‌ها اغلب مبهم هستند، شعاع تخریب خطاها واقعی است و قصد کاربر مکرراً به طور ناقص مشخص می‌شود. استنتاج درست این نیست که عامل‌ها آماده نیستند، بلکه این است که اولین استقرارهای مولد باید گردش‌کارهای «یک‌بار نوشتن» با محدوده دقیق (پیشنهادات دسته‌بندی، نشانه‌گذاری مغایرت‌ها) باشند، نه ویرایش‌های چندمرحله‌ای و خودمختار دفتر کل.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-را-در-ادامه-بخوانیم">چه چیزی را در ادامه بخوانیم<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/30/openhands-open-platform-ai-software-developers-generalist-agents#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%B1%D8%A7-%D8%AF%D8%B1-%D8%A7%D8%AF%D8%A7%D9%85%D9%87-%D8%A8%D8%AE%D9%88%D8%A7%D9%86%DB%8C%D9%85" class="hash-link" aria-label="لینک مستقیم به چه چیزی را در ادامه بخوانیم" title="لینک مستقیم به چه چیزی را در ادامه بخوانیم" translate="no">​</a></h2>
<ul>
<li class=""><strong>ReDAct: Uncertainty-Aware Deferral for LLM Agents</strong> (arXiv:2604.07036) — یک مدل ارزان را با یک مدل گران جفت می‌کند و تنها زمانی که عدم قطعیت بالا باشد به مدل گران ارجاع می‌دهد؛ مستقیماً به این موضوع می‌پردازد که یک عامل به سبک OpenHands چگونه باید تصمیم بگیرد که چه زمانی یک ثبت در Beancount را برای بازبینی به انسان ارجاع دهد.</li>
<li class=""><strong>FinTrace: Holistic Trajectory-Level Evaluation of LLM Tool Calling for Long-Horizon Financial Tasks</strong> (arXiv:2604.10015) — شامل ۸۰۰ توالی وظیفه با برچسب‌گذاری کارشناسی در ۳۴ سناریوی مالی؛ روش ارزیابی که OpenHands برای استفاده از ابزارهای طولانی‌مدت خاصِ حوزه مالی فاقد آن است.</li>
<li class=""><strong>FinMCP-Bench: Benchmarking LLM Agents for Real-World Financial Tool Use under the Model Context Protocol</strong> (arXiv:2603.24943) — ۶۱۳ نمونه در ۶۵ ابزار مالی واقعی MCP؛ مستقیماً با نحوه ارزیابی یک عامل Beancount ساخته شده بر روی زمان‌اجرای OpenHands در یک استقرار واقعی MCP مرتبط است.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>Open Source</category>
            <category>Automation</category>
            <category>LLM</category>
            <category>Developers</category>
            <category>Beancount</category>
            <category>Plain-Text Accounting</category>
            <category>Machine Learning</category>
        </item>
        <item>
            <title><![CDATA[Fin-RATE: شکست مدل‌های زبانی بزرگ در تحلیل مالی دوره‌ای و بین-موجودیتی]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark</guid>
            <pubDate>Mon, 29 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[بنچ‌مارک Fin-RATE عملکرد ۱۷ مدل زبانی بزرگ را روی ۷۵۰۰ جفت پرسش و پاسخ تخصصی از ۲۴۷۲ سند SEC ارزیابی می‌کند. نتایج نشان‌دهنده سقوط ۱۸.۶۰ درصدی دقت در ردیابی طولی و افت ۵۴ امتیازی مدل Fin-R1 در وظایف بین-موجودیتی است؛ در حالی که گلوگاه اصلی نه مدل پایه، بلکه خط لوله بازیابی اطلاعات است.]]></description>
            <content:encoded><![CDATA[<p>روند بنچ‌مارک‌های مدل‌های زبانی بزرگ (LLM) مالی مدام در حال گسترش است و Fin-RATE واضح‌ترین مثالی است که نشان می‌دهد وقتی از مدل‌ها می‌خواهیم کاری را انجام دهند که تحلیل‌گران واقعی انجام می‌دهند - یعنی ردیابی یک شرکت نه فقط در یک سند واحد، بلکه در چندین دوره زمانی و در مقایسه با همتایان صنعتی‌اش - چه اتفاقی می‌افتد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=Fin-RATE%3A%20%D8%B4%DA%A9%D8%B3%D8%AA%20%D9%85%D8%AF%D9%84%E2%80%8C%D9%87%D8%A7%DB%8C%20%D8%B2%D8%A8%D8%A7%D9%86%DB%8C%20%D8%AF%D8%B1%20%D8%AA%D8%AD%D9%84%DB%8C%D9%84%20%D9%85%D8%A7%D9%84%DB%8C%20%D8%AF%D9%88%D8%B1%D9%87%E2%80%8C%D8%A7%DB%8C%20%D9%88%20%D8%A8%DB%8C%D9%86-%D9%85%D9%88%D8%AC%D9%88%D8%AF%DB%8C%D8%AA%DB%8C" alt="2026-06-29-fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark" class="img_ev3q"></p>
<p>مقاله Fin-RATE که در فوریه ۲۰۲۶ توسط یدونگ جیانگ، جونرونگ چن و همکارانشان در دانشگاه ییل و موسسات همکار منتشر شد، بنچ‌مارکی را معرفی می‌کند که از ۲۴۷۲ سند SEC مربوط به ۴۳ شرکت در ۳۶ صنعت بین سال‌های ۲۰۲۰ تا ۲۰۲۵ ساخته شده است. این بنچ‌مارک ۷۵۰۰ جفت پرسش و پاسخ منتخب کارشناسان را در سه نوع وظیفه سازماندهی می‌کند که منعکس‌کننده جریان کار تحلیل‌گران حرفه‌ای است: DR-QA (جزئیات و استدلال در یک سند واحد)، EC-QA (مقایسه بین-موجودیتی دو شرکت در یک موضوع مشترک) و LT-QA (ردیابی طولی یک شرکت در دوره‌های گزارش‌دهی مختلف). هر نوع وظیفه شامل ۲۵۰۰ سوال است. ارزیابی روی ۱۷ مدل زبانی بزرگ انجام شده است - از مدل‌های منبع‌بسته شامل GPT-4.1 و GPT-5 گرفته تا مدل‌های عمومی منبع‌باز مانند DeepSeek-V3 و Llama-3.3-70B، و مدل‌های تخصصی مالی مانند Fin-R1، Fino1-14B، FinanceConnect-13B و TouchstoneGPT-7B. امتیازدهی از یک چارچوب یکپارچه "LLM-به‌عنوان-داور" با سه داور مستقل (GPT-5، DeepSeek-V3.2، Qwen3-235B) استفاده می‌کند که هر پاسخ را بر اساس صحت و پنج بعد تحلیلی رتبه‌بندی می‌کنند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class="">با افزایش پیچیدگی وظایف، عملکرد کاهش می‌یابد: دقت از DR-QA (تک‌سندی) به LT-QA (طولی) ۱۸.۶۰ درصد و از DR-QA به EC-QA (بین-موجودیتی) ۱۴.۳۵ درصد کاهش می‌یابد (میانگین تمام ۱۷ مدل).</li>
<li class="">مدل GPT-5 با جستجوی وب بهترین عملکرد را دارد، اما اوج دقت آن در هر سه نوع وظیفه تنها حدود ۴۳ تا ۴۴ درصد است؛ رقمی ناامیدکننده برای بنچ‌مارکی که قرار است بازتاب‌دهنده جریان کار تحلیل‌گران واقعی باشد.</li>
<li class="">مدل Fin-R1 که یک مدل استدلالی تخصصی در امور مالی است، در DR-QA به ۵۷.۴۸ درصد می‌رسد اما در EC-QA به ۳.۳۲ درصد سقوط می‌کند؛ افتی ۵۴ امتیازی که بسیار فراتر از کاهش عملکرد در مدل‌های عمومی است.</li>
<li class="">در تنظیمات RAG، عملکرد تمام مدل‌ها به زیر ۲۷ درصد می‌رسد، در حالی که در حالت "زمینه طلایی" عملکرد تا ۵۷.۴۸ درصد است؛ این نشان می‌دهد که گلوگاه اصلی نه خود مدل، بلکه خط لوله بازیابی (retrieval pipeline) است.</li>
<li class="">مقاله یک طبقه‌بندی ۱۳ نوعی از خطاها را در چهار دسته معرفی می‌کند: توهم و تضاد، خطاهای عددی و معنایی خاصِ مالی، خطاهای درک پرس‌وجو/زمینه و شکست‌های سطح بازیابی. "فقدان شواهد" مسئول ۷۵.۴۴ درصد خطاها در وظیفه EC-QA تحت سیستم RAG است.</li>
<li class="">مدل‌های تخصصی مالی علیرغم تسلط بهتر بر واژگان مالی، نرخ توهم سیستماتیک بالاتری نسبت به مدل‌های عمومی در وظایف پیچیده نشان می‌دهند.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-تایید-میشود--و-چه-چیزی-نه">چه چیزی تایید می‌شود — و چه چیزی نه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%AA%D8%A7%DB%8C%DB%8C%D8%AF-%D9%85%DB%8C%D8%B4%D9%88%D8%AF--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%D9%87" class="hash-link" aria-label="لینک مستقیم به چه چیزی تایید می‌شود — و چه چیزی نه" title="لینک مستقیم به چه چیزی تایید می‌شود — و چه چیزی نه" translate="no">​</a></h2>
<p>ساختار سه مسیری این بنچ‌مارک واقعاً خوب طراحی شده است. اکثر بنچ‌مارک‌های مالی (مانند FinQA، TAT-QA، FinanceBench) پرسش و پاسخ را به عنوان یک وظیفه تک‌سندی در نظر می‌گیرند. Fin-RATE یکی از اولین مواردی است که صراحتاً مقایسه بین-موجودیتی و ردیابی طولی را به عنوان وظایف درجه اول مدل‌سازی می‌کند و نتایج نشان‌دهنده یک شکاف اساسی است: مدل‌های زبانی فعلی پرسش و پاسخ‌های افشای مالی منفرد را به شکل قابل قبولی مدیریت می‌کنند، اما به محض اینکه نیاز به سنتز اطلاعات از میان اسناد، موجودیت‌ها یا دوره‌های زمانی مختلف باشد، از هم می‌پاشند.</p>
<p>سقوط Fin-R1 خیره‌کننده‌ترین یافته مقاله است و فکر می‌کنم به آن کم‌توجهی شده است. یک مدل بهینه‌سازی شده برای امور مالی که در استخراج تک‌سندی برتری دارد، ظاهراً خود را در یک بن‌بست آموزش داده است: این مدل الگوهای پاسخگویی در یک سند را یاد گرفته، نه استراتژی‌های استدلالی برای مرتبط کردن موجودیت‌ها و دوره‌های زمانی. این یک هشدار جدی علیه تنظیم دقیق (fine-tuning) محدود به دامنه بدون نظارت صریح بر استدلال چندسندی است. مدل احتمالاً روی الگوی سطحی "عدد را در سند پیدا کن" بیش‌برازش (overfit) شده و هیچ مسیر تعمیم‌دهی برای "مقایسه این عدد با عدد معادل در سند دیگری از یک شرکت دیگر" ندارد.</p>
<p>با این حال، نگرانی‌های متدولوژیکی وجود دارد که باید به آن‌ها اشاره کرد. GPT-5 همزمان یکی از مدل‌های مورد ارزیابی و یکی از سه داوری است که به پاسخ‌ها امتیاز می‌دهد. نویسندگان برای کاهش سوگیری فردی از سه داور استفاده کرده‌اند که کمک‌کننده است، اما همپوشانی داور-مدل با قوی‌ترین مدل مورد ارزیابی نگران‌کننده است. مقاله توافق بالای بین داوران را گزارش می‌کند اما به طور جداگانه مشخص نمی‌کند که چه بخشی از پاسخ‌های GPT-5 توسط خود GPT-5 امتیازدهی شده و آیا امتیازهای خودارزیابی GPT-5 به طور سیستماتیک با دو داور دیگر تفاوت دارد یا خیر. هرگونه سوگیری در خودارزیابی می‌تواند نتیجه نهایی بهترین مدل مطالعه را بیش از حد نشان دهد.</p>
<p>نمونه ۴۳ شرکتی نیز اندک است. پوشش انواع اسناد ستودنی است (10-K, 10-Q, 8-K, 6-K, DEF 14A و چندین سری S و SC)، اما همان ۴۳ شرکت در تمام وظایف تکرار می‌شوند. مدل‌هایی که افشاهای این شرکت‌ها را در مرحله پیش‌آموزش دیده‌اند، مزیتی غیرقابل اندازه‌گیری دارند و مقاله شامل هیچ‌گونه تحلیل آلودگی داده‌ها نیست.</p>
<p>یافته‌های مربوط به بازیابی مهم اما ناقص هستند. مقاله شناسایی می‌کند که عملکرد RAG به دلیل شکست در بازیابی، حدود ۳۰ امتیاز نسبت به زمینه طلایی سقوط می‌کند. اما تنها یک تنظیمات بازیابی واحد را بنچ‌مارک می‌کند؛ یعنی با شکست بازیابی به عنوان یک تشخیص برخورد می‌کند تا چیزی که بخواهد آن را به طور سیستماتیک تغییر دهد. یک مقاله تکمیلی که معماری‌های مختلف بازیابی را روی Fin-RATE بررسی کند، بسیار کاربردی‌تر خواهد بود.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-موضوع-برای-هوش-مصنوعی-مالی-مهم-است">چرا این موضوع برای هوش مصنوعی مالی مهم است<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D9%85%D9%88%D8%B6%D9%88%D8%B9-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D9%85%D9%87%D9%85-%D8%A7%D8%B3%D8%AA" class="hash-link" aria-label="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی مهم است" title="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی مهم است" translate="no">​</a></h2>
<p>حسابرس دفترکل Beancount دقیقاً به همان دو قابلیتی نیاز دارد که Fin-RATE نشان داد دچار مشکل هستند: ردیابی طولی (این حساب در طول سال‌های مالی چگونه تغییر کرد؟) و مقایسه بین-موجودیتی (آیا ترازنامه این شرکت فرعی با صورت مالی تلفیقی مطابقت دارد؟). افت دقت ۱۸.۶۰ درصدی در ردیابی زمانی، عدد ملموسی است که باید انتظارات ما را از هر عامل Beancount که در چندین دوره گزارش‌دهی استدلال می‌کند، تنظیم کند. اگر مدل‌های پیشرو در پرسش و پاسخ طولی SEC با "زمینه طلایی" در ۴۳ درصد شکست می‌خورند، یک عامل Beancount که در تاریخچه‌های چندساله دفترکل پیمایش می‌کند باید با بازیابی صریح، ارجاع زمانی و امکان ارجاع به انسان طراحی شود - نه فقط با استنتاج مستقیم مدل زبانی.</p>
<p>یافته‌ی مربوط به غلبه بازیابی، بیش از همه برای اولویت‌بندی طراحی سیستم اهمیت دارد. اگر عملکرد در حالت زمینه طلایی تقریباً دو برابر عملکرد RAG است، سرمایه‌گذاری درست روی خرد کردن بهتر متن (chunking)، انتخاب قطعات و بازیابی است - نه یک مدل زبانی پایه قدرتمندتر. این مشابه همان چیزی است که DocFinQA برای اسناد طولانی SEC پیدا کرد: گلوگاه اصلی، خط لوله اطراف مدل است.</p>
<p>هشدار مربوط به Fin-R1 نیز مستقیماً در مورد Beancount صدق می‌کند. تنظیم دقیق روی نحو DSL زبان Beancount و الگوهای تراکنش ممکن است مدلی تولید کند که تولید ورودی‌های ساده را به خوبی انجام دهد، اما در فرآیند تطبیق چند-حسابی و چند-دوره‌ای که حسابرسی را مفید می‌کند، با شکست مواجه شود. تخصص‌گرایی بدون آموزش استدلال چندسندی دقیقاً به همان روش‌هایی که Fin-RATE اندازه‌گیری می‌کند، شکننده است.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-را-بعداً-بخوانیم">چه چیزی را بعداً بخوانیم<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/29/fin-rate-real-world-financial-analytics-tracking-evaluation-benchmark#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%B1%D8%A7-%D8%A8%D8%B9%D8%AF%D8%A7%D9%8B-%D8%A8%D8%AE%D9%88%D8%A7%D9%86%DB%8C%D9%85" class="hash-link" aria-label="لینک مستقیم به چه چیزی را بعداً بخوانیم" title="لینک مستقیم به چه چیزی را بعداً بخوانیم" translate="no">​</a></h2>
<ul>
<li class="">Fin-R1 (arXiv:2503.16252) — برای درک اینکه چه تنظیمات آموزشی چنین عملکرد ضعیفی را در اسناد چندگانه ایجاد کرده و آیا استدلال چندسندی اصلاً جزو اهداف بوده است یا خیر.</li>
<li class="">FinTrace (arXiv:2604.10015) — ارزیابی در سطح مسیرِ فراخوانی ابزار توسط مدل‌های زبانی در ۳۴ دسته وظایف مالی؛ این مطالعه دیدگاه پرسش و پاسخ ایستا در Fin-RATE را با تشخیص سطح فرآیند (جایی که مدل‌ها ابزارهای درست را فراخوانی می‌کنند اما در استدلال روی نتایج شکست می‌خورند) تکمیل می‌کند.</li>
<li class="">OpenHands (arXiv:2407.16741) — پلتفرم عامل باز که زیربنای ارزیابی‌های TheAgentCompany است؛ درک معماری آن روشن می‌کند که کدام قابلیت‌های پایه عامل‌ها در دسترس بوده و کدام شکاف‌ها ناشی از دشواری وظیفه است نه محدودیت‌های پلتفرم.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Analytics</category>
            <category>Financial Reporting</category>
            <category>Data Science</category>
            <category>Reconciliation</category>
        </item>
        <item>
            <title><![CDATA[FinDER: پرس‌وجوهای واقعی تحلیل‌گران شکاف بازخوانی ۷۴ درصدی را در RAG مالی فاش می‌کنند]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation</guid>
            <pubDate>Sun, 28 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[بنچمارک FinDER سیستم RAG را بر روی ۵,۷۰۳ پرس‌وجوی واقعی تحلیل‌گران صندوق‌های پوشش ریسک در برابر پرونده‌های 10-K شاخص S&P 500 محک می‌زند؛ E5-Mistral تنها ۲۵.۹۵٪ بازخوانی بافتار را به دست می‌آورد و پرس‌وجوهای پر از اختصار باعث کاهش ۸.۲ واحدی در دقت می‌شوند — شواهدی بر اینکه عادی‌سازی پرس‌وجو، و نه جاسازی‌های بهتر، اولین راه حل برای خط لوله‌های هوش مصنوعی مالی است.]]></description>
            <content:encoded><![CDATA[<p>FinDER (arXiv:2504.15800) یک بنچمارک بازیابی است که حول یک مشاهده ساده اما کمتر قدردانی شده ساخته شده است: پرس‌وجوهایی که متخصصان مالی واقعی تایپ می‌کنند هیچ شباهتی به سوالات صیقل‌خورده در بنچمارک‌های آکادمیک ندارند. من آن را می‌خوانم زیرا در نقطه تلاقی دو موضوعی است که دنبال می‌کردم — شکاف بازیابی در هوش مصنوعی مالی و مشکل واقع‌گرایی عملی که DocFinQA و FinanceBench شروع به افشای آن کردند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=FinDER:%20%D9%BE%D8%B1%D8%B3%E2%80%8C%D9%88%D8%AC%D9%88%D9%87%D8%A7%DB%8C%20%D9%88%D8%A7%D9%82%D8%B9%DB%8C%20%D8%AA%D8%AD%D9%84%DB%8C%D9%84%E2%80%8C%DA%AF%D8%B1%D8%A7%D9%86%20%D8%B4%DA%A9%D8%A7%D9%BE%20%D8%A8%D8%A7%D8%B2%D8%AE%D9%88%D8%A7%D9%86%DB%8C%20%DB%B7%DB%B4%20%D8%AF%D8%B1%D8%B5%D8%AF%DB%8C%20%D8%B1%D8%A7%20%D8%AF%D8%B1%20RAG%20%D9%85%D8%A7%D9%84%DB%8C%20%D9%81%D8%A7%D8%B4%20%D9%85%DB%8C%E2%80%8C%DA%A9%D9%86%D9%86%D8%AF" alt="2026-06-28-finder-financial-dataset-rag-evaluation" class="img_ev3q"></p>
<p>چانیول چوی، جیهون کوون و همکاران در یک شرکت هوش مصنوعی مالی، مجموعه‌ای از داده‌ها شامل ۵,۷۰۳ سه‌تایی پرس‌وجو-شواهد-پاسخ که توسط کارشناسان حاشیه‌نویسی شده و از یک سرویس پرسش و پاسخ تحلیل‌گر صندوق پوشش ریسک واقعی تهیه شده است، ارائه می‌دهند. اسناد شامل پرونده‌های فرم 10-K از ۴۹۰ شرکت شاخص S&amp;P 500 هستند که از SEC EDGAR جمع‌آوری شده‌اند. آنچه FinDER را از بنچمارک‌های قبلی متمایز می‌کند، بخش پرس‌وجو است: ۸۹.۸۶٪ از پرس‌وجوها شامل سه یا چند اختصار یا کوته‌نوشت تخصصی حوزه هستند. به جای "درآمد کل شرکت X برای سال مالی ۲۰۲۳ چقدر است؟"، یک تحلیل‌گر واقعی ممکن است تایپ کند "GOOGL 10-K FY23 revs breakdown by segment". این دیتاست در کارگاه ICLR 2025 در مورد پیشرفت‌های هوش مصنوعی مالی منتشر شد و بعداً در ICAIF 2025 ظاهر گردید.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class=""><strong>بازخوانی بازیابی در تمام سطوح به طور تکان‌دهنده‌ای پایین است</strong>: E5-Mistral (بهترین بازیاب متراکم) در مجموع تنها ۲۵.۹۵٪ بازخوانی بافتار را به دست می‌آورد؛ BM25 به ۱۱.۶۸٪ می‌رسد. دسته "مالی" (Financials) — که مستقیم‌ترین ارتباط را با حسابداری دارد — سخت‌ترین دسته است: به ترتیب ۱۵.۸۴٪ و ۶.۴۲٪.</li>
<li class=""><strong>ابهام در پرس‌وجو به تنهایی ۸.۲ واحد از دقت می‌کاهد</strong>: نویسندگان با آزمایش E5-Mistral بر روی ۵۰۰ پرس‌وجو، جملات بازنویسی شده با ساختار مناسب (دقت ۳۳.۹) را با پرس‌وجوهای مختصر واقعی (دقت ۲۵.۷) مقایسه می‌کنند. این شکاف کاملاً مربوط به مدیریت اختصارات/کوته‌نوشت‌هاست و نه پیچیدگی سند.</li>
<li class=""><strong>کیفیت بازیابی گلوگاه اصلی برای تولید (Generation) است</strong>: مدل‌های زبانی بزرگ (LLM) بدون بافتار امتیازی نزدیک به صفر (۹-۱۰٪ پاسخ صحیح) می‌گیرند؛ با ۱۰ پاراگراف برتر بازیابی شده به ۲۹-۳۴٪ می‌رسند؛ و با بافتار ایده‌آل (اوراکل) به ۶۰-۶۸٪ جهش می‌کنند. این شکاف ۳۵ واحدی بین شرایط واقع‌بینانه و شرایط ایده‌آل، بزرگتر از شکاف بین مدل‌های متن‌باز و مدل‌های پیشرو (Frontier) است.</li>
<li class=""><strong>محاسبات ترکیبی حتی با بازیابی خوب هم شکست می‌خورند</strong>: وظایف محاسباتی چند مرحله‌ای (پرس‌وجوهای ترکیبی) تنها به حدود ۲۰٪ صحت در هر چهار مدل — Claude-3.7-Sonnet، GPT-o1، DeepSeek-R1-Distill و Qwen-QWQ — حتی با ۱۰ پاراگراف برتر بازیابی شده می‌رسند. GPT-o1 در وظایف ضرب با ۴۲.۹۰٪ پیشتاز است اما در تقسیم به ۲۷.۷۸٪ سقوط می‌کند.</li>
<li class=""><strong>رتبه‌بندی مجدد توسط LLM بهبود متوسط اما ثابتی ایجاد می‌کند</strong>: با اجازه دادن به مدل‌ها برای رتبه‌بندی مجدد ۱۰ نتیجه برتر E5-Mistral قبل از پاسخگویی، Claude-3.7-Sonnet به F1 معادل ۶۳.۰۵ و GPT-o1 به ۶۲.۹۰ می‌رسد. Deepseek-R1-Distill با ۶۰.۰۱ عقب می‌ماند، علی‌رغم عملکرد قوی در استدلال‌های ساختاریافته در جاهای دیگر.</li>
<li class=""><strong>دشواری دسته‌بندی‌ها نابرابر است</strong>: بازیابی پرس‌وجوهای مربوط به ریسک آسان‌ترین است (E5-Mistral: بازخوانی ۳۳.۰۷)؛ امور مالی همچنان سخت‌ترین باقی می‌ماند (۱۵.۸۴). این موضوع با ساختار پرس‌وجو همبستگی دارد — افشای ریسک از نثر زبان طبیعی استفاده می‌کند، در حالی که جداول مالی از نمادگذاری عددی متراکم بهره می‌برند.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="آنچه-پابرجاست--و-آنچه-نیست">آنچه پابرجاست — و آنچه نیست<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%D8%A2%D9%86%DA%86%D9%87-%D9%BE%D8%A7%D8%A8%D8%B1%D8%AC%D8%A7%D8%B3%D8%AA--%D9%88-%D8%A2%D9%86%DA%86%D9%87-%D9%86%DB%8C%D8%B3%D8%AA" class="hash-link" aria-label="لینک مستقیم به آنچه پاب�رجاست — و آنچه نیست" title="لینک مستقیم به آنچه پابرجاست — و آنچه نیست" translate="no">​</a></h2>
<p>مشارکت اصلی این مقاله مستحکم است: این یک توزیع پرس‌وجوی واقعی از تحلیل‌گران شاغل است و مشکل اختصارات واقعی است. هر بنچمارکی که از ویکی‌پدیا یا جمع‌سپاری به سبک FinQA ساخته شده باشد، این نکته را از دست می‌دهد. ساختار ارزیابی سه سطحی — بدون بافتار، بازیابی واقع‌بینانه، بافتار ایده‌آل — طراحی درستی است؛ این ساختار به وضوح کیفیت بازیابی را از کیفیت استدلال جدا می‌کند و شکاف باقی‌مانده در تولید را نشان می‌دهد (هنوز حدود ۳۲-۳۴٪ شکست حتی با بافتار کامل در سوالات کیفی وجود دارد).</p>
<p>جایی که مقاله ضعیف‌ترین عملکرد را دارد، در بازتولیدپذیری (Reproducibility) است. در زمان انتشار، دیتاست به صورت عمومی در دسترس نبود — نویسندگان بیان کردند که "قصد دارند آن را بعداً به صورت عمومی منتشر کنند". این یک مشکل بزرگ برای یک مقاله کارگاهی است که خود را به عنوان یک استاندارد ارزیابی معرفی می‌کند. بنچمارک‌هایی که منتشر نمی‌شوند، بنچمارک نیستند؛ آن‌ها مطالعه موردی هستند. از آنجایی که این مقاله در ICAIF 2025 ظاهر شده، ممکن است انتشار آن دنبال شده باشد، اما نسخه arXiv این موضوع را تأیید نمی‌کند.</p>
<p>ارزیابی بازیابی نیز تنها از چهار مدل تک‌مرحله‌ای (BM25, GTE, mE5, E5-Mistral) استفاده می‌کند. هیچ بازیابی ترکیبی، هیچ گسترش پرس‌وجویی، هیچ HyDE یا مرحله بازنویسی که به طور خاص مشکل اختصارات را هدف قرار دهد، وجود ندارد. با توجه به اینکه نویسندگان شکاف ناشی از اختصارات را دقیقاً مشخص کرده‌اند، تعجب‌آور است که راه حل بدیهی را آزمایش نمی‌کنند: گسترش پرس‌وجو (مثلاً تبدیل "GOOGL" به "Alphabet Inc.") قبل از بازیابی. این آزمایش غایب است.</p>
<p>نتایج تولید مستحق خواندن دقیق‌تری است. عملکرد ۹-۱۰ درصدی بدون بافتار یک حد پایین مفید نیست — عملاً صفر است — اما سقف ۶۰-۶۸ درصدی اوراکل آموزنده‌تر از آن چیزی است که به نظر می‌رسد. حتی با داشتن پاراگراف صحیح در دست، بهترین مدل‌ها در تقریباً یک‌سوم سوالات کیفی و چهارپنجم محاسبات ترکیبی شکست می‌خورند. این سقف مهم است: به این معنی است که بازیابی به تنهایی نمی‌تواند مشکل را حل کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-موضوع-برای-هوش-مصنوعی-مالی-اهمیت-دارد">چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D9%85%D9%88%D8%B6%D9%88%D8%B9-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D8%A7%D9%87%D9%85%DB%8C%D8%AA-%D8%AF%D8%A7%D8%B1%D8%AF" class="hash-link" aria-label="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" title="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" translate="no">​</a></h2>
<p>توزیع پرس‌وجوها در FinDER به خوبی با نحوه تعامل کاربران Beancount با یک عامل دفتر کل (Ledger Agent) مطابقت دارد. کاربری که سال‌ها حساب‌های خود را نگه داشته است، پرس‌وجوهای مختصر و بافت‌محور تایپ می‌کند — "AMZN card Q3 reimb؟" به جای "بازپرداخت‌های کارت اعتباری آمازون در سه ماهه سوم چقدر است؟". مدل‌های جاسازی استاندارد در بازیابی ورودی‌های صحیح شکست خواهند خورد زیرا آن‌ها بر روی متن‌های تمیز زبان طبیعی آموزش دیده‌اند. افت دقت ۸.۲ واحدی از پرس‌وجوهای تمیز به واقعی احتمالاً برای حوزه دفتر کل شخصی محافظه‌کارانه است، جایی که علائم اختصاری خاصِ فرد ("prop mgmt fee" برای "property management fee") حتی از اختصارات استاندارد SEC هم از داده‌های آموزشی دورتر هستند.</p>
<p>سقف بازخوانی بافتار ۲۵.۹۵ درصدی در E5-Mistral یک تابع اجباری است: هر خط لوله RAG در Beancount باید برای کسر بزرگی از شواهد از دست رفته بودجه‌بندی کند. یک نتیجه این است که بازیابی مجدد با بازخوانی بالا (چندین گذر، فرمولاسیون‌های پرس‌وجوی متنوع) مهم‌تر از فشار آوردن برای بهبود F1 در یک گذر واحد است. نتیجه دیگر این است که عادی‌سازی پرس‌وجو — نگاشت کوته‌نوشت‌های کاربر به نام‌های متعارف حساب‌ها قبل از بازیابی — باید یک مرحله پیش‌پردازش صریح باشد و به مدل جاسازی واگذار نشود.</p>
<p>دقت ۲۰ درصدی محاسبات ترکیبی حتی با بافتار ایده‌آل، سیگنال جداگانه‌ای است: برای وظایف محاسباتی Beancount، گلوگاه تولید، استدلال است و نه بازیابی. برون‌سپاری به سبک PAL (تولید کدهای محاسباتی پایتون به جای محاسبات متنی آزاد) همچنان پاسخ درستی برای وظایف عددی است، صرف نظر از اینکه بازیابی چقدر خوب شود.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="برای-مطالعه-بیشتر">برای مطالعه بیشتر<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/28/finder-financial-dataset-rag-evaluation#%D8%A8%D8%B1%D8%A7%DB%8C-%D9%85%D8%B7%D8%A7%D9%84%D8%B9%D9%87-%D8%A8%DB%8C%D8%B4%D8%AA%D8%B1" class="hash-link" aria-label="لینک مستقیم به برای مطالعه بیشتر" title="لینک مستقیم به برای مطالعه بیشتر" translate="no">​</a></h2>
<ul>
<li class=""><strong>Fin-RATE</strong> (arXiv:2602.07294) — بنچمارک مکمل برای ردیابی چنددوره‌ای در پرونده‌های SEC؛ دقت در وظایف زمانی ۱۸.۶۰٪ کاهش می‌یابد، که مستقیماً همان مشکل دفتر کل چندساله Beancount است.</li>
<li class=""><strong>IRCoT</strong> (arXiv:2212.10509, ACL 2023) — درهم‌تنیدگی بازیابی با استدلال زنجیره افکار (CoT)؛ ساختار بازیابی چندگذر مستقیماً به بازخوانی پایین تک‌گذر که FinDER افشا می‌کند، می‌پردازد.</li>
<li class=""><strong>گسترش پرس‌وجو با LLMها برای بازیابی تخصصی دامنه</strong> — هنوز هیچ مقاله بنچمارک واحدی این موضوع را به خوبی پوشش نمی‌دهد، اما شکاف اختصارات در FinDER آن را به یک اولویت تحقیقاتی درجه اول تبدیل می‌کند؛ جستجو برای "HyDE financial domain" و "query expansion SEC filings 2025" نقطه شروع مناسبی است.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Finance</category>
            <category>Beancount</category>
            <category>Data Science</category>
            <category>Financial Reporting</category>
        </item>
        <item>
            <title><![CDATA[گمشده در میان: سوگیری موقعیتی در مدل‌های زبانی بزرگ و تأثیر آن بر هوش مصنوعی مالی]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts</guid>
            <pubDate>Sat, 27 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[مقاله TACL 2024 توسط لیو و همکاران نشان می‌دهد که مدل‌های زبانی بزرگ در اطلاعاتی که در میان زمینه‌های طولانی پنهان شده‌اند، تا ۲۰ امتیاز ضعیف‌تر عمل می‌کنند — یک افت عملکرد U-شکل که بر تمام مدل‌های آزمایش‌شده از جمله Claude-1.3-100K تأثیر می‌گذارد — با پیامدهای ملموس برای نحوه ترتیب‌بندی قطعات بازیابی شده در خط لوله‌های RAG در کاربردهای مالی و حسابداری.]]></description>
            <content:encoded><![CDATA[<p>وقتی به ورودی DocFinQA نگاه می‌کنم — جایی که هم خط لوله‌های مبتنی بر بازیابی و هم مدل‌های زبانی بزرگ (LLM) با زمینه طولانی در اسناد SEC با ۱۲۳ هزار توکن شکست خوردند — سوالی که بی‌پاسخ گذاشتم این بود که <em>چرا</em>. این مقاله توسط لیو و همکاران (TACL 2024, arXiv:2307.03172) پاسخی ساختاری است و مشخص شد که حالت شکست ساده‌تر و سرسخت‌تر از آن چیزی است که انتظار داشتم.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%DA%AF%D9%85%D8%B4%D8%AF%D9%87%20%D8%AF%20%D9%85%DB%8C%D8%A7%D9%86%3A%20%D8%B3%D9%88%DA%AF%DB%8C%D8%B1%DB%8C%20%D9%85%D9%88%D9%82%D8%B1%DB%8C%D8%AA%DB%8C%20%D8%AF%D8%B1%20%D9%85%D8%AF%D9%84%E2%80%8C%D9%87%D8%A7%DB%8C%20%D8%B2%D8%A8%D8%A7%D9%86%DB%8C%20%D8%A8%D8%B2%D8%B1%DA%AF%20%D9%88%20%D8%AA%D8%A3%D8%AB%DB%8C%D8%B1%20%D8%A2%D9%86%20%D8%A8%D8%B1%20%D9%87%D9%88%D8%B4%20%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C%20%D9%85%D8%A7%D9%84%DB%8C" alt="2026-06-27-lost-in-the-middle-language-models-long-contexts" class="img_ev3q"></p>
<p>مقاله «گمشده در میان: چگونه مدل‌های زبانی از زمینه‌های طولانی استفاده می‌کنند» توسط نلسون اف. لیو، کوین لین، جان هویت، اشوین پارانجپه، میشل بویلاکوا، فابیو پترونی و پرسی لیانگ، دو آزمایش هدفمند را اجرا می‌کند: پاسخ‌گویی به سوالات چند سندی در NaturalQuestions-Open (با ۱۰، ۲۰ و ۳۰ سند بازیابی شده) و بازیابی مصنوعی کلید-مقدار (با ۷۵، ۱۴۰ و ۳۰۰ جفت). در هر آزمایش، آن‌ها به طور سیستماتیک مکان قرارگیری سند مرتبط یا جفت کلید-مقدار را در زمینه ورودی — ابتدا، میانه یا انتها — تغییر می‌دهند در حالی که بقیه موارد ثابت است. یافته شفاف است: عملکرد یک منحنی U-شکل را با پایین‌ترین نقطه در میان زمینه دنبال می‌کند و این منحنی در تمام مدل‌های آزمایش‌شده ظاهر می‌شود.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class=""><strong>منحنی U-شکل واقعی و ثابت است.</strong> در تنظیمات پرسش و پاسخ با ۲۰ سند، عملکرد در موقعیت اول تقریباً ۷۵٪ بود و در موقعیت ۱۰ به حدود ۵۵٪ کاهش یافت، پیش از آنکه در موقعیت ۲۰ به حدود ۷۲٪ بازگردد — شکافی حدوداً ۲۰ امتیازی بین لبه‌ها و مرکز.</li>
<li class=""><strong>تمام مدل‌ها از الگوی مشابهی پیروی می‌کنند.</strong> مدل‌های آزمایش‌شده شامل مدل‌های بسته و متن‌باز، کوچک و بزرگ هستند: GPT-3.5-Turbo (4K و 16K)، GPT-4، Claude-1.3 (8K و 100K)، MPT-30B-Instruct و LongChat-13B. منحنی U-شکل در تک‌تک آن‌ها ظاهر شد، از جمله مدل‌هایی که صراحتاً برای پنجره‌های زمینه گسترده بازاریابی شده بودند.</li>
<li class=""><strong>حتی Claude-1.3-100K نیز مصون نیست.</strong> نسخه ۱۰۰ هزار توکنی مشابه سایرین عمل کرد. داشتن یک پنجره زمینه طولانی به این معنا نیست که مدل واقعاً به طور یکنواخت به تمام بخش‌های آن توجه می‌کند.</li>
<li class=""><strong>خط پایه کتاب-بسته کفِ دلسردکننده‌ای را تعیین می‌کند.</strong> GPT-3.5-Turbo بدون هیچ سندی ۵۶.۱٪ از سوالات NaturalQuestions را به درستی پاسخ داد؛ با دسترسی مستقیم (oracle) به تنها یک سند مرتبط، این رقم به ۸۸.۳٪ رسید. اما در بدترین موقعیت‌های میانی در تنظیمات ۲۰ سندی، عملکرد به زیر خط پایه کتاب-بسته سقوط کرد — به این معنی که افزودن زمینه بیشتر عملاً مضر بوده است.</li>
<li class=""><strong>مدل‌های رمزگذار-رمزگشا (Flan-T5-XXL, Flan-UL2) در طول آموزش خود قوی‌تر هستند اما وقتی زمینه‌ها از آن فراتر می‌روند، دچار افت می‌شوند.</strong> تفاوت معماری اهمیت دارد، اما هر دو هنوز در مقیاس بزرگ افت عملکرد نشان می‌دهند.</li>
<li class=""><strong>علت ریشه‌ای، ماسک کردن توجه علی (Causal Attention Masking) است.</strong> هر توکن فقط می‌تواند به توکن‌های قبلی توجه کند، بنابراین موقعیت‌های ابتدایی وزن توجه کل بیشتری را در سراسر مدل نسبت به موقعیت‌های میانی جمع‌آوری می‌کنند. اثرات تازگی (Recency effects) نیز انتهای زمینه را به بالا می‌کشد.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-معتبر-است--و-چه-چیزی-نیست">چه چیزی معتبر است — و چه چیزی نیست<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%85%D8%B9%D8%AA%D8%A8%D8%B1-%D8%A7%D8%B3%D8%AA--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%DB%8C%D8%B3%D8%AA" class="hash-link" aria-label="لینک مستقیم به چه چیزی معتبر است — و چه چیزی نیست" title="لینک مستقیم به چه چیزی معتبر است — و چه چیزی نیست" translate="no">​</a></h2>
<p>طراحی آزمایش در اینجا به طرز تحسین‌برانگیزی تمیز است: موقعیت تنها متغیری است که دستکاری می‌شود، وظایف استانداردهای محک زنی هستند و یافته‌ها در طیف گسترده‌ای از خانواده‌های مدل تکرار می‌شوند. من هیچ ایرادی به نتیجه اصلی وارد نمی‌دانم.</p>
<p>آنچه برای من کمتر متقاعدکننده است، قاب‌بندی وظیفه بازیابی کلید-مقدار به عنوان یک پروکسی معنادار برای استفاده واقعی است. جستجوهای UUID به UUID آزمایش می‌کنند که آیا یک مدل می‌تواند رشته‌ای حفظ شده را طوطی‌وار تکرار کند یا خیر، نه اینکه آیا می‌تواند کاری که نیاز به استدلال دارد انجام دهد. منحنی U-شکل در آنجا هم ظاهر می‌شود که ادعای سوگیری موقعیتی را تقویت می‌کند، اما به این معناست که مقاله دو پدیده متفاوت را با هم درآمیخته است: دقت بازیابی در وظایف انطباق دقیق و کیفیت استدلال بر روی قطعات مرتبط. من می‌خواهم بدانم وقتی سند مرتبط قبل از پاسخ نهایی نیاز به استنتاج چند مرحله‌ای دارد، آیا منحنی U-شکل بدتر می‌شود یا بهتر، نه فقط تکرار کلمه به کلمه.</p>
<p>همچنین شکافی وجود دارد که نویسندگان عمدتاً به آن اذعان می‌کنند اما آن را پر نمی‌کنند: آن‌ها هرگز آزمایش نمی‌کنند که آیا تنظیم دقیق دستورالعمل (instruction fine-tuning) یا RLHF حساسیت موقعیتی را تغییر می‌دهد یا خیر، بلکه فقط تأثیر پنجره زمینه بزرگتر را بررسی می‌کنند. با توجه به اینکه علت ریشه‌ای معماری است (ماسک کردن علی)، گمان می‌کنم تنظیم دستورالعمل آن را حل نکند، اما مقاله این موضوع را تأیید نمی‌کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-موضوع-برای-هوش-مصنوعی-مالی-اهمیت-دارد">چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D9%85%D9%88%D8%B6%D9%88%D8%B9-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D8%A7%D9%87%D9%85%DB%8C%D8%AA-%D8%AF%D8%A7%D8%B1%D8%AF" class="hash-link" aria-label="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" title="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" translate="no">​</a></h2>
<p>این مقاله توضیح ساختاری را برای الگوی تجربی که مدام با آن برخورد می‌کنم ارائه می‌دهد. DocFinQA در پرونده‌های طولانی SEC شکست خورد. IRCoT و FLARE هر دو چندین قطعه را بازیابی کرده و قبل از استدلال آن‌ها را به هم متصل می‌کنند. هر خط لوله RAG که در زمینه مالی دیده‌ام، قطعات بازیابی شده را به صورت متوالی در پرامپت می‌ریزد و امیدوار است که مدل به مورد درست توجه کند.</p>
<p>پیامد این موضوع برای ایجنت‌های Beancount ملموس است. اگر یک ایجنت ده ورودی دفتر کل را به عنوان زمینه بازیابی کند، ورودی‌های موقعیت‌های ۳ تا ۷ در بالاترین خطر نادیده گرفته شدن یا ایجاد توهم (hallucination) هستند. این یک مشکل بازیابی نیست — یک مشکل ارائه (presentation) است. دو پاسخ از این مقاله حاصل می‌شود: یا مرتبط‌ترین ورودی‌ها را در ابتدا (و انتها) قرار دهید، یا اصلاً آن‌ها را به هم متصل نکنید و هر بار روی یک قطعه استدلال کنید.</p>
<p>این یافته همچنین روایت «مدل‌های زبانی با زمینه طولانی» را پیچیده می‌کند. هر فصل یک مدل جدید پنجره زمینه بزرگتری را اعلام می‌کند. این مقاله می‌گوید طولانی بودن پنجره به این معنا نیست که اگر شواهد را به طور یکنواخت در آن توزیع کنید، همان‌طور که فکر می‌کنید عمل خواهد کرد. یک مدل با زمینه ۱۲۸ هزار توکنی که تراکنش مرتبط را در موقعیت ۶۰ هزار دفن می‌کند، بدتر از یک مدل با زمینه ۴ هزار توکنی است که دقیقاً قطعه درست را بازیابی می‌کند.</p>
<p>برای ایمنی بازنویسی (write-back safety)، پیامدها نگران‌کننده است: اگر از مدل خواسته شود یک جلسه دفتر کل را خلاصه کند و قانون سیاستی مربوط به «این تراکنش را ثبت نکن» در میان یک پرامپت سیستم طولانی ظاهر شود، مدل ممکن است طوری رفتار کند که انگار هرگز آن قانون را نخوانده است.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="آنچه-در-ادامه-باید-خواند">آنچه در ادامه باید خواند<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/27/lost-in-the-middle-language-models-long-contexts#%D8%A2%D9%86%DA%86%D9%87-%D8%AF%D8%B1-%D8%A7%D8%AF%D8%A7%D9%85%D9%87-%D8%A8%D8%A7%DB%8C%D8%AF-%D8%AE%D9%88%D8%A7%D9%86%D8%AF" class="hash-link" aria-label="لینک مستقیم به آنچه در ادامه باید خواند" title="لینک مستقیم به آنچه در ادامه باید خواند" translate="no">​</a></h2>
<ul>
<li class=""><strong>«پیدا شده در میان: چگونه مدل‌های زبانی با استفاده از رمزگذاری موقعیتی Plug-and-Play از زمینه‌های طولانی بهتر استفاده می‌کنند»</strong> (Zhang et al., arXiv:2403.04797) — رمزگذاری موقعیتی چند مقیاسی (Ms-PoE) را به عنوان یک اصلاح بدون نیاز به آموزش از طریق مقیاس‌بندی RoPE پیشنهاد می‌کند؛ ادعای بهبود تا ۳.۸ امتیاز در Zero-SCROLLS را دارد که مستقیماً به منحنی U-شکل می‌پردازد.</li>
<li class=""><strong>«هرگز در میان گم نشوید: تسلط بر پاسخ‌گویی به سوالات در زمینه طولانی با آموزش تجزیه‌محور مستقل از موقعیت»</strong> (arXiv:2311.09198) — رویکردی مخالف را در پیش می‌گیرد و مدل را آموزش می‌دهد تا صراحتاً نسبت به موقعیت بی‌تفاوت باشد؛ مقایسه با Ms-PoE مشخص می‌کند که آیا تنظیم دقیق یا ترفندهای زمان استنتاج اهرم بهتری هستند.</li>
<li class=""><strong>«کاهش سوگیری موقعیتی در مدل‌های زبانی بزرگ از طریق مقیاس‌بندی یک بعد واحد»</strong> (arXiv:2406.02536) — بعد خاص حالت‌های مخفی موقعیتی را که مسئول سوگیری است شناسایی کرده و بدون نیاز به آموزش مجدد آن را مقیاس‌بندی می‌کند؛ جراحی‌ترین اصلاح پیشنهادی تا به امروز، مرتبط با استقرار مدل‌های موجود بدون آموزش مجدد.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Data Science</category>
            <category>Finance</category>
            <category>Technology</category>
            <category>Analytics</category>
        </item>
        <item>
            <title><![CDATA[بنچ‌مارک AD-LLM: مدل GPT-4o به امتیاز AUROC بالای ۰.۹۳ در تشخیص ناهنجاری متنی بدون آموزش (Zero-Shot) دست یافت]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection</guid>
            <pubDate>Fri, 26 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[بنچ‌مارک AD-LLM مدل‌های GPT-4o و Llama 3.1 8B را در سه نقشِ تشخیص‌دهنده بدون آموزش، تقویت‌کننده داده و مشاور انتخاب مدل روی پنج مجموعه داده NLP ارزیابی می‌کند؛ GPT-4o به امتیاز AUROC بین ۰.۹۳ تا ۰.۹۹ دست می‌یابد، اما انتخاب مدل مبتنی بر LLM همچنان غیرقابل اعتماد است که پیامدهای مستقیمی برای هوش مصنوعی در حسابرسی مالی دارد.]]></description>
            <content:encoded><![CDATA[<p>دو نوشته آخر در این مجموعه به AnoLLM و CausalTAD اختصاص داشت؛ رویکردهایی مبتنی بر تنظیم دقیق (Fine-tuning) و مهندسی پرامپت برای تشخیص ناهنجاری در داده‌های جدولی. پیش از پیاده‌سازی هر یک از این‌ها در مقیاس عملیاتی، لازم است بدانید که مدل‌های زبانی بزرگ (LLM) در طیف وسیع‌تری از پارادایم‌های تشخیص ناهنجاری در چه جایگاهی قرار دارند. این هدف صریح AD-LLM است که LLMها را در سه نقش متمایز محک می‌زند: تشخیص‌دهنده بدون آموزش (Zero-shot)، موتور تقویت داده و مشاور انتخاب مدل. تمرکز اینجا بر داده‌های متنی NLP است تا اقلام دفتر کل جدولی، اما درس‌های متدولوژیک آن قابل انتقال هستند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D8%A8%D9%86%DA%86%E2%80%8C%D9%85%D8%A7%D8%B1%DA%A9%20AD-LLM%3A%20%D9%85%D8%AF%D9%84%20GPT-4o%20%D8%A8%D9%87%20%D8%A7%D9%85%D8%AA%DB%8C%D8%A7%D8%B2%20AUROC%20%D8%A8%D8%A7%D9%84%D8%A7%DB%8C%20%DB%B0.%DB%B9%DB%B3%20%D8%AF%D8%B1%20%D8%AA%D8%B4%D8%AE%DB%8C%D8%B5%20%D9%86%D8%A7%D9%87%D9%86%D8%AC%D8%A7%D8%B1%DB%8C%20%D9%85%D8%AA%D9%86%DB%8C%20%D8%A8%D8%AF%D9%88%D9%86%20%D8%A2%D9%85%D9%88%D8%B2%D8%B4%20(Zero-Shot)%20%D8%AF%D8%B3%D8%AA%20%DB%8C%D8%A7%D9%81%D8%AA" alt="2026-06-26-ad-llm-benchmarking-llms-anomaly-detection" class="img_ev3q"></p>
<p>تیان‌کای یانگ، یی نیان و همکارانشان در USC و Texas A&amp;M، بنچ‌مارک AD-LLM را معرفی کردند (arXiv:2412.11142, ACL Findings 2025). این نخستین بنچ‌مارکی است که LLMها را به‌طور سیستماتیک در سه پارادایم تشخیص ناهنجاری روی مجموعه‌داده‌های NLP ارزیابی می‌کند. محیط آزمایش، طبقه‌بندی تک‌کلاسه (One-class classification) است: داده‌های آموزشی فقط شامل نمونه‌های نرمال هستند و مدل باید ناهنجاری‌ها را در زمان آزمایش شناسایی کند. پنج مجموعه‌داده — شامل AG News، BBC News، IMDB Reviews، N24 News و SMS Spam — همگی از وظایف طبقه‌بندی متن مشتق شده‌اند که در آن‌ها یک دسته به عنوان «ناهنجار» تعیین شده است. این مقاله دو مدل GPT-4o و Llama 3.1 8B Instruct را در برابر ۱۸ مدل پایه بدون نظارت سنتی قرار می‌دهد که شامل روش‌های سرتاسری (CVDD, DATE) و ترکیبات دو مرحله‌ایِ جاسازی‌ بعلاوه تشخیص‌دهنده (OpenAI embeddings + LUNAR, LOF, Isolation Forest و غیره) می‌شوند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class=""><strong>تشخیص بدون آموزش (Zero-shot) برای متن به‌خوبی کار می‌کند.</strong> GPT-4o امتیاز AUROC بین ۰.۹۲۹۳ تا ۰.۹۹۱۹ را در پنج مجموعه‌داده در تنظیمات نرمال+ناهنجار کسب کرد؛ Llama 3.1 به امتیاز ۰.۸۶۱۲ تا ۰.۹۴۸۷ رسید. بهترین خط پایه سنتی، یعنی OpenAI + LUNAR، در AG News امتیازی حدود ۰.۹۲ گرفت که GPT-4o بدون هیچ آموزشی با آن برابری کرده یا از آن پیشی گرفت.</li>
<li class=""><strong>تقویت مصنوعی داده‌ها به‌طور مستمر اما اندک کمک می‌کند.</strong> نمونه‌های مصنوعی تولید شده توسط LLM باعث بهبود خط لوله OpenAI + LUNAR در هر پنج مجموعه‌داده شد. تقویت از طریق توصیف دسته‌ها نیز اکثر خطوط پایه را بهبود بخشید، اگرچه دستاوردها نابرابر بود؛ برای مثال Llama 3.1 امتیاز AUROC را در IMDB Reviews تا ۰.۰۷+ افزایش داد، اما نتایج در جاهای دیگر کوچک‌تر بود.</li>
<li class=""><strong>انتخاب مدل حلقه ضعیف زنجیره است.</strong> GPT-o1-preview مدل‌هایی را توصیه می‌کند که در اکثر مجموعه‌داده‌ها از میانگین عملکرد خط پایه فراتر می‌روند و گاهی به بهترین روش نزدیک می‌شوند (مثلاً در IMDB Reviews و SMS Spam). اما هرگز به‌طور قابل‌اطمینانی بهترین عملکرد را شناسایی نمی‌کند و نویسندگان اذعان دارند که توصیه‌ها بر اساس ورودی‌های ساده‌ای است که فاقد آمارهای اختصاصی مجموعه‌داده هستند.</li>
<li class=""><strong>شکاف میان مدل‌های متن‌باز و تجاری واقعی است.</strong> برتری AUROC مدل GPT-4o نسبت به Llama 3.1 8B بسته به مجموعه‌داده بین ۴ تا ۱۳ واحد است؛ شکافی که با الگوی مشاهده شده در مقالات تشخیص ناهنجاری جدولی بدون آموزش همخوانی دارد.</li>
<li class=""><strong>تشخیص ناهنجاری NLP هنوز فاقد یک بنچ‌مارک قطعی است.</strong> پنج مجموعه‌داده که همگی از بدنه طبقه‌بندی مشتق شده‌اند، کم است. مقاله همراه NLP-ADBench (EMNLP Findings 2025) این دامنه را به هشت مجموعه‌داده و ۱۹ الگوریتم گسترش می‌دهد، اما همچنان از همان ساختار «دسته معنایی به عنوان ناهنجاری» استفاده می‌کند که این وظایف را تا حدی مصنوعی جلوه می‌دهد.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-تایید-میشود--و-چه-چیزی-نه">چه چیزی تایید می‌شود — و چه چیزی نه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%AA%D8%A7%DB%8C%DB%8C%D8%AF-%D9%85%DB%8C%D8%B4%D9%88%D8%AF--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%D9%87" class="hash-link" aria-label="لینک مستقیم به چه چیزی تایید می‌شود — و چه چیزی نه" title="لینک مستقیم به چه چیزی تایید می‌شود — و چه چیزی نه" translate="no">​</a></h2>
<p>یافته‌های مربوط به تشخیص بدون آموزش معتبر هستند. استفاده از LLMها به عنوان امتیازدهنده بدون تنظیم دقیق روی داده‌های ناهنجاری برچسب‌دار، زمانی که کلاس ناهنجاری از نظر معنایی منسجم باشد، واقعاً مفید است — یک پیام اسپم به روش‌هایی از یک پیام معمولی متمایز می‌شود که یک مدل زبانیِ خوب‌آموزش‌دیده آن را درک می‌کند. اعداد AUROC بالا هستند و مقایسه با خطوط پایه قویِ مبتنی بر جاسازی‌های OpenAI منصفانه است.</p>
<p>با این حال، دامنه تحقیق به شکلی محدود است که مقاله آن را کمتر از حد واقعی جلوه می‌دهد. در هر پنج مجموعه‌داده، ناهنجاری‌ها به عنوان یک <em>دسته موضوعی</em> متفاوت کدگذاری شده‌اند — اسپم در مقابل پیامک قانونی، اخبار یک ناشر خاص در مقابل خروجی‌های توزیع‌شده. این بدان معناست که LLM در اصل در حال انجام طبقه‌بندی موضوعی است؛ وظیفه‌ای که صراحتاً برای آن پیش‌آموزش دیده است. این بنچ‌مارک شامل ناهنجاری‌های معنایی در یک دسته واحد نمی‌شود (مثلاً تراکنش‌های غیرعادی در یک نوع حساب یکسان)، که دقیقاً همان نوع ناهنجاری است که برای حسابرسی مالی اهمیت دارد.</p>
<p>وظایف تقویت داده و انتخاب مدل نیز روی همان پنج مجموعه‌داده ارزیابی شده‌اند، بنابراین مقاله در نهایت بنچ‌مارک می‌کند که آیا LLMها می‌توانند برش‌های کمی متفاوت از همان مشکل محدود را به مقدار ناچیزی بهتر کنند یا خیر. نویسندگان آزادانه شش محدودیت را فهرست کرده‌اند — از جمله اینکه آن‌ها فقط زیرمجموعه‌ای از LLMها را آزمایش کرده‌اند، رژیم‌های آموزشی Few-shot و تنظیم دقیق را حذف کرده‌اند و برای انتخاب مدل به ورودی‌های ساده تکیه کرده‌اند — که از نظر علمی صادقانه است اما نشان می‌دهد این بنچ‌مارک چقدر مقدماتی است.</p>
<p>یک نتیجه که شکاکان باید به آن توجه کنند: امتیازهای AUPRC برای هر دو مدل به‌طور قابل‌توجهی پایین‌تر از AUROC است. مدل Llama 3.1 در BBC News به AUROC ۰.۸۶۱۲ می‌رسد اما AUPRC آن تنها ۰.۳۹۶۰ است که بازتاب‌دهنده عدم تعادل کلاس‌ها در ساختار تک‌کلاسه است. در بافت‌های حسابرسی با دقت بالا، AUPRC معیار معنادارتری است و در اینجا تصویر کمتر خوشایند است.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-موضوع-برای-هوش-مصنوعی-مالی-مهم-است">چرا این موضوع برای هوش مصنوعی مالی مهم است<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D9%85%D9%88%D8%B6%D9%88%D8%B9-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D9%85%D9%87%D9%85-%D8%A7%D8%B3%D8%AA" class="hash-link" aria-label="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی مهم است" title="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی مهم است" translate="no">​</a></h2>
<p>برنامه Bean Labs شامل دو مورد استفاده برای تشخیص ناهنجاری است: شناسایی اقلام غیرعادی دفتر کل در زمان واقعی (جدولی، ساختاریافته) و پرچم‌گذاری متن‌های روایی مشکوک در فاکتورها، یادداشت‌ها یا تیکت‌های پشتیبانی (NLP غیرساختاریافته). AD-LLM مستقیماً به مورد دوم می‌پردازد و سقف واقع‌بینانه‌ای به ما می‌دهد: GPT-4o می‌تواند ناهنجاری‌های سطح موضوعی را در متن با AUROC بالای ۰.۹۳ در مجموعه‌داده‌های تمیز و متعادل به‌صورت بدون آموزش تشخیص دهد. این یک دانش پیشین مفید است، اما ناهنجاری‌های شرح دفتر کل ظریف‌تر هستند — یادداشت فاکتوری که یک سرویس روتین را توصیف می‌کند اما متعلق به فروشنده‌ای است که برای الگوهای مشکوک پرچم‌گذاری شده، یک مسئله طبقه‌بندی موضوعی نیست. این بنچ‌مارک یک نقطه شروع فراهم می‌کند، نه یک پاسخ نهایی.</p>
<p>یافته‌های مربوط به انتخاب مدل نیز برای طراحی سیستم جالب است. این رویا که از یک LLM بپرسیم «از کدام تشخیص‌دهنده ناهنجاری برای این مجموعه‌داده استفاده کنم؟» و پاسخی قابل‌اعتماد بگیریم، هنوز محقق نشده است. این بدان معناست که انتخاب بین تنظیم دقیق به سبک AnoLLM، پرامپت‌نویسی علی به سبک CausalTAD، یا یک روش جاسازی کلاسیک، همچنان نیازمند قضاوت انسانی یا ارزیابی تجربی سیستماتیک است و نمی‌توان آن را به یک مشاور LLM واگذار کرد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="آنچه-باید-در-ادامه-بخوانید">آنچه باید در ادامه بخوانید<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/26/ad-llm-benchmarking-llms-anomaly-detection#%D8%A2%D9%86%DA%86%D9%87-%D8%A8%D8%A7%DB%8C%D8%AF-%D8%AF%D8%B1-%D8%A7%D8%AF%D8%A7%D9%85%D9%87-%D8%A8%D8%AE%D9%88%D8%A7%D9%86%DB%8C%D8%AF" class="hash-link" aria-label="لینک مستقیم به آنچه باید در ادامه بخوانید" title="لینک مستقیم به آنچه باید در ادامه بخوانید" translate="no">​</a></h2>
<ul>
<li class=""><strong>NLP-ADBench</strong> (arXiv:2412.04784, EMNLP Findings 2025) — بنچ‌مارک مکمل از همان گروه، شامل هشت مجموعه‌داده و ۱۹ الگوریتم؛ بافت وسیع‌تری از خطوط پایه کلاسیک را ارائه می‌دهد که دامنه پنج مجموعه‌داده‌ای AD-LLM قادر به پوشش آن نیست.</li>
<li class=""><strong>Large Language Models for Anomaly and Out-of-Distribution Detection: A Survey</strong> (arXiv:2409.01980, NAACL Findings 2025) — بررسی کامل چشم‌انداز رویکردهای تشخیص ناهنجاری مبتنی بر LLM در قالب‌های متنی، تصویری و جدولی؛ جایگاه AD-LLM را نسبت به کارهای قبلی مشخص می‌کند.</li>
<li class=""><strong>AnoLLM: Large Language Models for Tabular Anomaly Detection</strong> (OpenReview:7VkHffT5X2, ICLR 2025) — همتای جدولی؛ مقایسه رویکرد مبتنی بر احتمال (Likelihood) آن با استراتژی بدون آموزشِ مبتنی بر پرامپت در AD-LLM، روشن می‌کند که کدام پارادایم برای اقلام دفتر کل Beancount مناسب‌تر است.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Data Science</category>
            <category>Fraud Detection</category>
            <category>Analytics</category>
            <category>Anomaly Detection</category>
        </item>
        <item>
            <title><![CDATA[CausalTAD: ترتیب‌بندی علّی ستون‌ها برای تشخیص ناهنجاری جدولی در مدل‌های زبانی بزرگ]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection</guid>
            <pubDate>Thu, 25 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[CausalTAD تشخیص ناهنجاری جدولی مبتنی بر مدل‌های زبانی بزرگ را با مرتب‌سازی مجدد ستون‌های جدول برای رعایت وابستگی‌های علّی قبل از سریال‌سازی بهبود می‌بخشد و میانگین AUC-ROC را در معیارهای نوع مختلط نسبت به AnoLLM از ۰.۸۰۳ به ۰.۸۳۴ می‌رساند — که پیامدهای مستقیمی برای شناسایی ناهنجاری‌ها در داده‌های ساختاریافته دفتر کل دارد.]]></description>
            <content:encoded><![CDATA[<p>در گزارش قبلی به AnoLLM پرداختیم که یک مدل زبانی بزرگ (LLM) کوچک را برای امتیازدهی به ناهنجاری‌های جدولی از طریق احتمال لگاریتمی منفی تنظیم دقیق می‌کند. CausalTAD (arXiv:2602.07798) یک سؤال پیگیرانه دقیق می‌پرسد: آیا ترتیبی که ستون‌ها را به آن LLM می‌دهید اهمیت دارد؟ پاسخ مشخص شد که بله است — و تزریق ساختار علّی به ترتیب‌بندی، به شما یک بهبود مداوم و قابل تکرار می‌دهد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=CausalTAD%3A%20%D8%AA%D8%B1%D8%AA%DB%8C%D8%A8%E2%80%8C%D8%A8%D9%86%D8%AF%DB%8C%20%D8%B9%D9%84%D9%91%DB%8C%20%D8%B3%D8%AA%D9%88%D9%86%E2%80%8C%D9%87%D8%A7%20%D8%A8%D8%B1%D8%A7%DB%8C%20%D8%AA%D8%B4%D8%AE%DB%8C%D8%B5%20%D9%86%D8%A7%D9%87%D9%86%D8%AC%D8%A7%D8%B1%DB%8C%20%D8%AC%D8%AF%D9%88%D9%84%DB%8C%20%D8%AF%D8%B1%20%D9%85%D8%AF%D9%84%E2%80%8C%D9%87%D8%A7%DB%8C%20%D8%B2%D8%A8%D8%A7%D9%86%DB%8C%20%D8%A8%D8%B2%D8%B1%DA%AF" alt="2026-06-25-causaltad-causal-knowledge-llm-tabular-anomaly-detection" class="img_ev3q"></p>
<p>وانگ و همکاران CausalTAD را پیشنهاد می‌کنند، روشی که بر روی تشخیص‌دهنده‌های ناهنجاری LLM به سبک AnoLLM قرار می‌گیرد و یک تغییر هدفمند ایجاد می‌کند: به جای سریال‌سازی ردیف‌های جدولی با ترتیب ستونی تصادفی یا دلخواه، وابستگی‌های علّی بین ستون‌ها را کشف کرده و قبل از اینکه LLM ردیف را بخواند، آن‌ها را برای رعایت آن وابستگی‌ها بازآرایی می‌کند.</p>
<p>این مقاله دارای دو بخش متحرک است. اول، یک ماژول ترتیب‌بندی ستون مبتنی بر علّیت. نویسندگان چارچوب استخراج عامل COAT را تطبیق می‌دهند: یک LLM متادیتای ستون‌ها و نمونه‌ها را می‌خواند تا عامل‌های معنایی سطح بالا را استخراج کند (برای تراکنش‌های کارت اعتباری، عاملی مانند "جبران خدمات" ممکن است ستون‌های مبلغ و پذیرنده را در بر بگیرد). از این عوامل، سه الگوریتم کشف علّی — PC، LiNGAM و FCI — هر کدام یک گراف علّی جهت‌دار روی عوامل می‌سازند. سپس مسئله بازآرایی ستون‌ها به یک "مسئله ترتیب‌بندی خطی" (Linear Ordering Problem) تبدیل می‌شود: یافتن جایگشت π که مجموع وزن‌های لبه‌های جهت‌دار را به حداکثر برساند، به طوری که ستون‌های "علت" قبل از ستون‌های "معلول" در متن سریال‌سازی شده ظاهر شوند. از آنجایی که LP دارای بسیاری از راه حل‌های نزدیک به بهینه است، آن‌ها K ≈ ۱۰ ترتیب را در محدوده ۹۰٪ بهینه نمونه‌برداری کرده و میانگین آن‌ها را محاسبه می‌کنند.</p>
<p>دوم، یک ماژول وزن‌دهی مجدد آگاه از علّیت. همه ستون‌ها به یک اندازه مرتبط نیستند. ستونی که بر بسیاری از عوامل تأثیر می‌گذارد، وزن بالاتری دریافت می‌کند: αj = |M⁻¹(cj)|، یعنی تعداد عواملی که در آن‌ها مشارکت دارد. امتیاز نهایی ناهنجاری، میانگین وزنی احتمالات لگاریتمی منفی به ازای هر ستون در K ترتیب است.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class="">ترتیب ستون‌ها یک تورش استقرایی (inductive bias) غیرقابل چشم‌پوشی برای LLMهای خودرگرسیونی است: قرار دادن ستون "علت" قبل از ستون "معلول" به مدل اجازه می‌دهد هنگام تخصیص احتمال به معلول، روی زمینه (context) صحیح شرط‌بندی کند.</li>
<li class="">کشف علّی در سطح عامل (به جای سطح ستون خام) به متد اجازه می‌دهد تا جداول با انواع مختلط را مدیریت کند، جایی که کشف علّی مستقیم بین ستون‌های ناهمگون نویز زیادی دارد.</li>
<li class="">در ۶ مجموعه داده معیار با نوع مختلط، CausalTAD با SmolLM-135M به میانگین AUC-ROC ۰.۸۳۴ در مقابل ۰.۸۰۳ در AnoLLM می‌رسد — یک بهبود مطلق ۳.۱ واحدی با همان مدل پایه.</li>
<li class="">به طور خاص در مجموعه داده Fake Job Posts، امتیاز CausalTAD برابر ۰.۸۷۳ در مقابل ۰.۸۰۰ در AnoLLM است — یک افزایش نسبی ۹.۱ درصدی که به اندازه کافی بزرگ است تا در یک سیستم غربالگری واقعی اهمیت داشته باشد.</li>
<li class="">در ۳۰ مجموعه داده معیار عددی ODDS، مدل CausalTAD به بهترین میانگین AUC-ROC دست می‌یابد و به طور مداوم از خط‌های پایه کلاسیک (Isolation Forest، ECOD، KNN) و روش‌های عمیق (DeepSVDD، SLAD) پیشی می‌گیرد.</li>
<li class="">هر سه الگوریتم کشف علّی در مطالعه حذفی (ablation) بر ترتیب‌بندی تصادفی غلبه کردند؛ LiNGAM در مجموعه‌های داده مختلط کمی بهتر از PC و FCI عمل کرد.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-منطقی-است--و-چه-چیزی-نیست">چه چیزی منطقی است — و چه چیزی نیست<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%85%D9%86%D8%B7%D9%82%DB%8C-%D8%A7%D8%B3%D8%AA--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%DB%8C%D8%B3%D8%AA" class="hash-link" aria-label="لینک مستقیم به چه چیزی منطقی است — و چه چیزی نیست" title="لینک مستقیم به چه چیزی منطقی است — و چه چیزی نیست" translate="no">​</a></h2>
<p>ادعای اصلی — که ترتیب علّی ستون‌ها کمک می‌کند — به خوبی پشتیبانی می‌شود. مطالعه حذفی شفاف است: جایگزینی ترتیب تصادفی با هر یک از سه روش کشف علّی، نتایج را در معیار Fake Job Posts بهبود می‌بخشد (از ۰.۸۳۲ به ۰.۸۷۰–۰.۸۷۳)، و وزن‌دهی مجدد بر اساس تعداد عوامل در هر پیکربندی کمک بیشتری می‌کند. این یک روایت معتبر است.</p>
<p>چیزی که من کمتر متقاعدکننده می‌دانم، فرض بوت‌استرپینگ است. گراف علّی با استفاده از یک LLM برای استخراج عوامل معنایی از همان داده‌هایی ساخته می‌شود که سیستم قرار است تحلیل کند. اگر LLM دامنه را اشتباه درک کند — مثلاً برای یک سیستم حسابداری سفارشی با نام ستون‌های غیر استاندارد — استخراج عامل اشتباه خواهد بود، و یک گراف علّی بد مسلماً بدتر از ترتیب‌بندی تصادفی است زیرا یک تورش سیستماتیک ایجاد می‌کند. نویسندگان به این ریسک اعتراف می‌کنند ("به توانایی LLMها برای استخراج عوامل بستگی دارد") اما دقت استخراج عامل را به طور مستقل ارزیابی نمی‌کنند.</p>
<p>همچنین یک مسئله سربار محاسباتی وجود دارد که جدی‌تر از آن چیزی است که مقاله نشان می‌دهد. اجرای سه الگوریتم کشف علّی، حل یک LP، نمونه‌برداری از K ترتیب و سپس اجرای استنتاج روی K نسخه سریال‌سازی شده از هر نقطه تست، هزینه استنتاج را در K ضرب می‌کند. برای یک دفتر کل با میلیون‌ها ورودی، این موضوع اهمیت دارد. مقاله خاطرنشان می‌کند که "کارهای آینده ممکن است بر بهبود کارایی متمرکز شوند" اما هیچ پروفایل‌بندی بتنی ارائه نمی‌دهد.</p>
<p>در نهایت، ۳۰ مجموعه داده عددی ODDS به خوبی مطالعه شده‌اند و مسلماً برای روش‌هایی مانند این اشباع شده‌اند. سیگنال معنی‌دارتر در ۶ مجموعه داده نوع مختلط است — که برای امور مالی واقع‌گرایانه هستند — و بهبودها در آنجا، هرچند واقعی، از نظر مطلق تا حدودی متوسط هستند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-برای-هوش-مصنوعی-مالی-اهمیت-دارد">چرا این برای هوش مصنوعی مالی اهمیت دارد<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D8%A7%D9%87%D9%85%DB%8C%D8%AA-%D8%AF%D8%A7%D8%B1%D8%AF" class="hash-link" aria-label="لینک مستقیم به چرا این برای هوش مصنوعی مالی اهمیت دارد" title="لینک مستقیم به چرا این برای هوش مصنوعی مالی اهمیت دارد" translate="no">​</a></h2>
<p>تراکنش‌های Beancount دارای ساختار علّی واقعی هستند: مبلغ ثبت (posting amount) به طور علّی باعث انتخاب حساب می‌شود، حساب باعث انتظار طرف مقابل می‌شود و متن یادداشت (memo) از نظر علّی پایین‌دست هر سه قرار دارد. سریال‌سازی تصادفی ستون‌ها این را نادیده می‌گیرد، به این معنی که مدلی به سبک AnoLLM عبارت "یادداشت: خواربار | حساب: هزینه‌ها:غذا | مبلغ: ۴۲۰۰ دلار" را به همان راحتی نسخه با ترتیب صحیح می‌بیند.</p>
<p>CausalTAD راهی اصولی برای رمزگذاری "مبلغ و حساب اول می‌آیند" بدون کدنویسی سخت آن به عنوان یک قاعده ارائه می‌دهد. برای عوامل حسابرسی Bean Labs، این یک انتخاب معماری عملی را پیشنهاد می‌کند: قبل از امتیازدهی به دسته‌ای از تراکنش‌ها برای ناهنجاری، یک بار گراف علّی را روی شمای ستون‌های دفتر کل کشف کنید، سپس از آن ترتیب ثابت برای تمام استنتاج‌های بعدی استفاده کنید. سربار فقط یک بار در سطح شما پرداخت می‌شود، نه به ازای هر تراکنش.</p>
<p>مثال تشخیص تقلب کارت اعتباری در مقاله اساساً دارای همان ساختار وظیفه تشخیص ناهنجاری دفتر کل است: ویژگی‌های ناهمگون، برچسب‌های کمیاب و یک ترتیب علّی که متخصصان دامنه به طور شهودی می‌دانند اما LLMها در غیر این صورت آن را نادیده می‌گیرند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مطالب-پیشنهادی-برای-مطالعه">مطالب پیشنهادی برای مطالعه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/25/causaltad-causal-knowledge-llm-tabular-anomaly-detection#%D9%85%D8%B7%D8%A7%D9%84%D8%A8-%D9%BE%DB%8C%D8%B4%D9%86%D9%87%D8%A7%D8%AF%DB%8C-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%85%D8%B7%D8%A7%D9%84%D8%B9%D9%87" class="hash-link" aria-label="لینک مستقیم به مطالب پیشنهادی برای مطالعه" title="لینک مستقیم به مطالب پیشنهادی برای مطالعه" translate="no">​</a></h2>
<ul>
<li class=""><strong>AD-LLM: Benchmarking Large Language Models for Anomaly Detection</strong> (arXiv:2412.11142, ACL Findings 2025) — معیار سیستماتیک در سه پارادایم تشخیص ناهنجاری LLM که CausalTAD در آن جای می‌گیرد؛ خواندن آن به جای مقایسه تک‌بعدی AnoLLM و CausalTAD، چشم‌انداز کاملی را ارائه می‌دهد.</li>
<li class=""><strong>COAT: Boosting Large Language Model-Based In-Context Learning for Tabular Data</strong> (Liu et al., 2024) — چارچوب استخراج عاملی که CausalTAD از آن اقتباس کرده است؛ درک نحوه عملکرد آن روشن می‌کند که کیفیت گراف علّی کجا می‌تواند با شکست مواجه شود.</li>
<li class=""><strong>Causal discovery in heterogeneous data: a survey</strong> — برای درک مزایای نسبی PC در مقابل LiNGAM در مقابل FCI روی داده‌های جدولی نوع مختلط، زیرا مقاله با هر سه به عنوان موارد قابل تعویض برخورد می‌کند اما آن‌ها فرض‌های استقلال متفاوتی دارند.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Fraud Detection</category>
            <category>Data Science</category>
            <category>Anomaly Detection</category>
            <category>Beancount</category>
        </item>
        <item>
            <title><![CDATA[AnoLLM: تنظیم دقیق مدل‌های زبانی بزرگ (LLM) برای شناسایی ناهنجاری‌های جدولی در داده‌های مالی]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection</guid>
            <pubDate>Wed, 24 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[AnoLLM (ICLR 2025) شناسایی ناهنجاری‌های جدولی را به عنوان تخمین چگالی مدل زبانی بازتعریف می‌کند — تنظیم دقیق روی ردیف‌های نرمال و امتیازدهی بر اساس لگاریتم احتمال منفی. این روش در مجموعه‌داده‌های تقلب با انواع ترکیبی از روش‌های کلاسیک بهتر عمل می‌کند، اما در داده‌های صرفاً عددی برتری خاصی ندارد؛ موضوعی که پیامدهای واقعی برای شناسایی ناهنجاری‌ها در ورودی‌های دفترکل Beancount دارد.]]></description>
            <content:encoded><![CDATA[<p>مقاله‌ی شناسایی ناهنجاری LLM به صورت صفر-شات (zero-shot) که دو روز پیش خواندم (arXiv:2406.16308) نشان داد که GPT-4 می‌تواند بدون هیچ آموزشی، موارد پرت جدولی را شناسایی کرده و با معیارهای کلاسیک مانند ECOD در بنچمارک ODDS رقابت کند. اما این روش یک ضعف آشکار داشت: درخواست از مدل برای خروجی دادن لیستی از شاخص‌های ردیف‌های ناهنجار بسیار شکننده است — مدل‌های متن‌باز معمولاً در تولید شاخص‌ها دچار توهم می‌شوند، از محدوده خارج می‌شوند یا هر ردیف را مشکوک اعلام می‌کنند. AnoLLM که در ICLR 2025 توسط چه‌پینگ تسای، گانیو تنگ، فیلیپ والیس و وی دینگ از آمازون منتشر شده، این شکنندگی را برطرف کرده و در عین حال در مجموعه‌داده‌های با نوع ترکیبی (mixed-type)، جایی که روش‌های عددی خالص دچار چالش می‌شوند، پیشرفت ایجاد می‌کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=AnoLLM%3A%20%D8%AA%D9%86%D8%B8%DB%8C%D9%85%20%D8%AF%D9%82%DB%8C%D9%82%20LLM%20%D8%A8%D8%B1%D8%A7%DB%8C%20%D8%B4%D9%86%D8%A7%D8%B3%D8%A7%DB%8C%DB%8C%20%D9%86%D8%A7%D9%87%D9%86%D8%AC%D8%A7%D8%B1%DB%8C%E2%80%8C%D9%87%D8%A7%DB%8C%20%D8%AC%D8%AF%D9%88%D9%84%DB%8C%20%D8%AF%D8%B1%20%D8%AF%D8%A7%D8%AF%D9%87%E2%80%8C%D9%87%D8%A7%DB%8C%20%D9%85%D8%A7%D9%84%DB%8C" alt="2026-06-24-anollm-llm-fine-tuning-tabular-anomaly-detection" class="img_ev3q"></p>
<p>AnoLLM شناسایی ناهنجاری‌های جدولی را به جای یک مسئله طبقه‌بندی مبتنی بر پرامپت، به عنوان تخمین چگالی مدل زبانی بازتعریف می‌کند. به جای اینکه از LLM خواسته شود نام ردیف‌های مشکوک را بگوید، نویسندگان یک مدل زبانی پیش‌آموزش‌دیده را روی ردیف‌های آموزشی سریالی‌سازی شده‌ی درون-توزیعی (نرمال) تنظیم دقیق (fine-tune) می‌کنند، سپس به هر ردیف آزمایشی بر اساس لگاریتم احتمال منفی (Negative Log-Likelihood یا NLL) تحت آن توزیع آموخته شده، امتیاز می‌دهند. ردیفی که اصلاً شبیه توزیع آموزشی نباشد، NLL بالایی دریافت می‌کند — که همان امتیاز ناهنجاری است. دیگر خبری از فرمت شاخص، پارس کردن خروجی یا استخراج شکننده‌ی Regex نیست.</p>
<p>سریالی‌سازی، هر ردیف جدول را به یک رشته زبان طبیعی شامل نام ویژگی‌ها و مقادیر آن‌ها تبدیل می‌کند. برای ستون‌های با مقدار متنی، NLL به ازای هر ستون نرمال‌سازی می‌شود تا از سوگیری طول جلوگیری شود، چرا که در غیر این صورت توضیحات طولانی‌تر به طور مکانیکی هزینه‌های احتمال بالاتری را انباشته می‌کردند. برای ستون‌های عددی و طبقه‌بندی‌شده، NLL خام در سطح توکن در کل فیلد جمع زده می‌شود. مدل در یک محیط نیمه‌نظارتی — که فقط ردیف‌های با برچسب نرمال وارد آموزش می‌شوند — تا ۲۰۰۰ مرحله با استفاده از آموزش توزیع‌شده روی GPU تنظیم دقیق می‌شود.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class=""><strong>مشکل قالب خروجی:</strong> رویکردهای قبلی پیش‌بینی شاخص، از LLM می‌خواستند که شاخص‌های ردیف‌های ناهنجار را از یک دسته (batch) به طور قابل اعتماد خروجی دهد. مدل‌های خانواده Llama مکرراً شاخص‌های اشتباه را با مقادیر جفت می‌کنند، شاخص‌هایی فراتر از اندازه دسته تولید می‌کنند یا صرفاً همه چیز را به عنوان ناهنجار لیست می‌کنند. NLL این مشکل را کاملاً دور می‌زند.</li>
<li class="">AnoLLM بهترین عملکرد را در شش مجموعه‌داده بنچمارک با انواع ویژگی‌های ترکیبی، از جمله شناسایی تقلب در بیمه خودرو و مجموعه‌داده‌های تقلب تجارت الکترونیک از Kaggle به دست می‌آورد.</li>
<li class="">در ۳۰ مجموعه‌داده بنچمارک ODDS که عمدتاً عددی هستند، AnoLLM هم‌تراز با بهترین روش‌های کلاسیک عمل می‌کند — نه لزوماً بهتر، بلکه صرفاً رقابتی.</li>
<li class="">نرمال‌سازی NLL به ازای هر ستون برای ویژگی‌های متنی، یک تصمیم مهندسی کوچک اما حیاتی است: بدون آن، توضیحات یک تراکنش با سی توکن، امتیاز را نسبت به یک مبلغ دو رقمی تحت‌الشعاع قرار می‌دهد که یک سوگیری استقرایی اشتباه است.</li>
<li class=""><strong>زمینه مبنای آموزش:</strong> رویکرد صفر-شات GPT-4 (arXiv:2406.16308) به متوسط AUROC معادل ۷۴.۱ در ODDS دست می‌یابد که با ECOD (۷۵.۵) و KNN (۷۰.۷) قابل مقایسه است. مزیت AnoLLM به طور خاص در مجموعه‌داده‌هایی ظاهر می‌شود که ویژگی‌های متنی و طبقه‌بندی‌شده حامل سیگنال‌های ناهنجاری معناداری هستند.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-منطقی-است--و-چه-چیزی-نیست">چه چیزی منطقی است — و چه چیزی نیست<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%85%D9%86%D8%B7%D9%82%DB%8C-%D8%A7%D8%B3%D8%AA--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%DB%8C%D8%B3%D8%AA" class="hash-link" aria-label="لینک مستقیم به چه چیزی منطقی است — و چه چیزی نیست" title="لینک مستقیم به چه چیزی منطقی است — و چه چیزی نیست" translate="no">​</a></h2>
<p>ایده اصلی NLL درست است. استفاده از یک مدل زبانی تنظیم‌دقیق شده به عنوان تخمین‌گر چگالی روی ردیف‌های سریالی‌سازی شده، اصولی است و به طور طبیعی توزیع مشترک همه ستون‌ها را به طور همزمان مدیریت می‌کند — کاری که تشخیص‌دهنده‌های بدون نظارت کلاسیک که ستون به ستون اعمال می‌شوند، نمی‌توانند به درستی انجام دهند. رفع مشکل پیش‌بینی شاخص واقعاً مفید است و مقایسه با مبنای صفر-شات منصفانه است.</p>
<p>آنچه مرا نگران می‌کند، شکاف هزینه-فایده است که مقاله کمتر به آن پرداخته است. AnoLLM به تنظیم دقیق و سرویس‌دهی یک LLM برای استنتاج نیاز دارد — یک تعهد زیرساختی قابل توجه در مقایسه با اجرای ECOD یا IsolationForest روی یک CPU در عرض چند ثانیه. در بنچمارک ODDS (صرفاً عددی)، AnoLLM فقط "هم‌تراز" است و نه بهتر. بنابراین توجیه استفاده از AnoLLM کاملاً در رژیم داده‌های ترکیبی است، جایی که شش مجموعه‌داده ارزیابی شده از شناسایی تقلب در Kaggle هستند. شش مجموعه‌داده، پایه تجربی ضعیفی برای یک توصیه قوی است، به ویژه از آنجا که مجموعه‌داده‌های بنچمارک Kaggle تمایل دارند طرح‌واره‌های تمیز، معنای ستون ثابت و حقایق زمینی مشخص داشته باشند — تمام چیزهایی که داده‌های دفترکل واقعی اغلب فاقد آن هستند.</p>
<p>مشکل ترتیب ستون‌ها نیز باز باقی مانده است. CausalTAD (arXiv:2602.07798) بلافاصله این شکاف را شناسایی کرد: AnoLLM ستون‌ها را با ترتیب دلخواه سریالی‌سازی می‌کند و روابط علی بین فیلدها را نادیده می‌گیرد. برای داده‌های ساختاریافته با زنجیره‌های علی شناخته شده — مثلاً نوع حساب بر محدوده‌های مجاز تراکنش تأثیر می‌گذارد، که خود بر طرف حساب مورد انتظار تأثیر می‌گذارد — این یک محدودیت واقعی است. CausalTAD مرتب‌سازی مجدد را به عنوان یک مسئله ترتیب‌بندی خطی مطرح می‌کند و بهبود مستمری را نسبت به AnoLLM در بیش از ۳۰ مجموعه‌داده گزارش می‌دهد. اینکه این شکاف وجود داشت و به این سرعت پیدا شد، نشان می‌دهد که طراحی سریالی‌سازی AnoLLM کاملاً سنجیده نبوده است.</p>
<p>همچنین یک سوال مقیاس وجود دارد که مقاله به آن پاسخ نمی‌دهد: در چه حجمی از نمونه‌های آموزشی نرمال، تنظیم دقیق یک LLM نسبت به، مثلاً، یک مدل یادگیری عمیق جدولی که مستقیماً روی ویژگی‌های عددی آموزش دیده، ارزشش را پیدا می‌کند؟ برای دفترکل‌های شخصی Beancount با چند هزار ورودی، هزینه محاسباتی ممکن است به راحتی هرگونه افزایش دقت را بی‌اثر کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-موضوع-برای-هوش-مصنوعی-مالی-اهمیت-دارد">چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D9%85%D9%88%D8%B6%D9%88%D8%B9-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D8%A7%D9%87%D9%85%DB%8C%D8%AA-%D8%AF%D8%A7%D8%B1%D8%AF" class="hash-link" aria-label="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" title="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی اهمیت دارد" translate="no">​</a></h2>
<p>ورودی‌های دفترکل Beancount دقیقاً همان نوع داده‌های با نوع ترکیبی هستند که AnoLLM هدف قرار می‌دهد: مبالغ (عددی)، نام حساب‌ها (متن ساختاریافته)، ذینفع/توضیحات (متن آزاد)، برچسب‌ها (طبقه‌بندی‌شده) و تاریخ‌ها (ساختاریافته). یک ردیف واحد مانند <code>2024-03-15 * "AWS" "Cloud invoice" Assets:Checking -$2,400</code> اطلاعات را در تمام این انواع به طور همزمان کدگذاری می‌کند. تشخیص‌دهنده‌های ناهنجاری کلاسیک در اینجا دچار مشکل می‌شوند زیرا به مدیریت جداگانه برای هر نوع ستون نیاز دارند و همبستگی بین آن‌ها را از دست می‌دهند — الگوی مشترکی که می‌گوید فاکتورهای "AWS" باید در محدوده خاصی باشند و به حساب مشخصی برخورد کنند.</p>
<p>رویکرد NLL در AnoLLM، در اصل، این الگوهای مشترک را از ورودی‌های تاریخی نرمال یاد می‌گیرد و انحرافات را در هر ترکیبی از ستون‌ها علامت‌گذاری می‌کند. این پتانسیل وجود دارد که این روش از JETهای مبتنی بر قانون یا آزمون‌های آماری تک‌ستونی مفیدتر باشد.</p>
<p>با این حال، محدودیت حسابداری دوطرفه یک دانش ساختاری است که AnoLLM نمی‌تواند صرفاً از ردیف‌های سریالی‌سازی شده یاد بگیرد — بدهکار باید با بستانکار برابر باشد، سلسله مراتب حساب‌ها باید رعایت شود. این تغییرناپذیرهای دامنه، محدودیت‌های سخت هستند، نه نظم‌های آماری، و هیچ مقداری از تنظیم دقیق LLM روی ردیف‌های تاریخی، اگر داده‌های آموزشی حاوی استثنائات یا خطاهای گرد کردن باشند، نمی‌تواند آن‌ها را به طور قابل اعتماد اعمال کند. معماری درست احتمالاً امتیازدهی NLL مدل AnoLLM را برای ناهنجاری‌های معنایی با بررسی‌های صریح قوانین برای ناهنجاری‌های ساختاری ترکیب می‌کند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-را-در-ادامه-بخوانیم">چه چیزی را در ادامه بخوانیم<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/24/anollm-llm-fine-tuning-tabular-anomaly-detection#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%B1%D8%A7-%D8%AF%D8%B1-%D8%A7%D8%AF%D8%A7%D9%85%D9%87-%D8%A8%D8%AE%D9%88%D8%A7%D9%86%DB%8C%D9%85" class="hash-link" aria-label="لینک مستقیم به چه چیزی را در ادامه بخوانیم" title="لینک مستقیم به چه چیزی را در ادامه بخوانیم" translate="no">​</a></h2>
<ul>
<li class=""><strong>CausalTAD (arXiv:2602.07798)</strong> — مستقیماً AnoLLM را با تزریق ترتیب علی ستون‌ها بهبود می‌بخشد؛ فوری‌ترین پیگیری برای ارزیابی.</li>
<li class=""><strong>AD-LLM: Benchmarking Large Language Models for Anomaly Detection (arXiv:2412.11142, ACL Findings 2025)</strong> — ارزیابی سیستماتیک چندپارادایمی را ارائه می‌دهد که در مقالات روش‌های فردی جای آن خالی است.</li>
<li class=""><strong>"Language Models are Realistic Tabular Data Generators" (Borisov et al., arXiv:2210.06280, ICLR 2023)</strong> — مدل BE-GREAT که AnoLLM از آن به عنوان مبنا استفاده می‌کند؛ درک آن روشن می‌کند که AnoLLM در واقع فراتر از پیش‌بینی شاخص چه چیزی را بهبود بخشیده است.</li>
</ul>]]></content:encoded>
            <category>AI</category>
            <category>LLM</category>
            <category>Machine Learning</category>
            <category>Fraud Detection</category>
            <category>Data Science</category>
            <category>Beancount</category>
            <category>Finance</category>
        </item>
        <item>
            <title><![CDATA[امتیاز ۲.۳ درصدی مدل‌های زبانی بزرگ در تولید DSL بین‌کنت: بنچمارک LLMFinLiteracy]]></title>
            <link>https://beancount.io/fa/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark</link>
            <guid>https://beancount.io/fa/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark</guid>
            <pubDate>Tue, 23 Jun 2026 00:00:00 GMT</pubDate>
            <description><![CDATA[بنچمارک LLMFinLiteracy نشان می‌دهد که پنج مدل وزن-باز با حدود ۷ میلیارد پارامتر، تنها در ۲.۳٪ مواقع تراکنش‌های Beancount کاملاً صحیح تولید می‌کنند؛ شکست‌هایی که عمدتاً در استدلال حسابداری — و نه نحو — ریشه دارند و به بازخورد کامپایلر در حلقه به عنوان عنصر حیاتی مفقوده برای عامل‌های نوشتاری قابل اعتماد اشاره می‌کنند.]]></description>
            <content:encoded><![CDATA[<p>این همان مقاله‌ای است که از زمان LOG-001 منتظرش بودم: یک تست تجربی مستقیم برای اینکه آیا مدل‌های زبانی بزرگ (LLMها) می‌توانند تراکنش‌های معتبر به زبان DSL بین‌کنت (Beancount) را از سناریوهای مالی به زبان طبیعی تولید کنند یا خیر. فیگوئرا و همکاران از دانشگاه علوم کاربردی برلین، چیزی را ارائه می‌دهند که تا جایی که من می‌دانم، اولین ارزیابی منتشر شده از LLMها در تولید تراکنش‌های مالی در حسابداری متن-ساده است. پاسخ کوتاه این است: آن‌ها نمی‌توانند، حداقل نه به طور قابل اعتماد، حتی با پرامپت‌نویسی «زنجیره افکار» (chain-of-thought) و در حالی که ترازنامه واقعی Beancount به عنوان کانتکست در اختیارشان قرار گرفته است.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="مقاله">مقاله<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%D9%85%D9%82%D8%A7%D9%84%D9%87" class="hash-link" aria-label="لینک مستقیم به مقاله" title="لینک مستقیم به مقاله" translate="no">​</a></h2>
<p><img decoding="async" loading="lazy" src="https://opengraph-image.blockeden.xyz/api/og-beancount-io?title=%D8%A7%D9%85%D8%AA%DB%8C%D8%A7%D8%B2%20%DB%B2.%DB%B3%20%D8%AF%D8%B1%D8%B5%D8%AF%DB%8C%20%D9%85%D8%AF%D9%84%E2%80%8C%D9%87%D8%A7%DB%8C%20%D8%B2%D8%A8%D8%A7%D9%86%DB%8C%20%D8%A8%D8%B2%D8%B1%DA%AF%20%D8%AF%D8%B1%20%D8%AA%D9%88%D9%84%DB%8C%D8%AF%20DSL%20%D8%A8%DB%8C%D9%86%E2%80%8C%DA%A9%D9%86%D8%AA%3A%20%D8%A8%D9%86%DA%87%D9%85%D8%A7%D8%B1%DA%A9%20LLMFinLiteracy" alt="2026-06-23-llm-beancount-dsl-financial-literacy-benchmark" class="img_ev3q"></p>
<p>فیگوئرا، گروندمن، فریدانک، لوزر و نجدل، پنج مدل وزن-باز با حدود ۷ میلیارد پارامتر را در یک بنچمارک دو مرحله‌ای به نام LLMFinLiteracy ارزیابی می‌کنند. وظیفه ۱ از مدل‌ها می‌خواهد سناریوهای متنی ایجاد کنند که بر یک نسبت نقدینگی خاص (نسبت جاری، آنی یا نقدی) تأثیر بگذارد، با استفاده از ترازنامه واقعی فصلی یکی از پنج شرکت لیست شده در شاخص DAX (ایرباس، بایر، دویچه تلکام، مرسدس بنز، اس‌اپ). وظیفه ۲ از مدل‌ها می‌خواهد آن سناریوها را به تراکنش‌های قابل کامپایل Beancount ترجمه کنند. کامپایلر Beancount به عنوان بررسی‌کننده نهایی صحت نحو (syntax) عمل می‌کند و متخصصان انسانی صحت معنایی را ارزیابی می‌کنند. مقاله یک طبقه‌بندی خطای ۱۲گانه در دو وظیفه معرفی می‌کند و از یک پرامپت ۹ مرحله‌ای زنجیره افکار استفاده می‌کند که شامل قوانین حسابداری دوطرفه، یک مثال ورودی/خروجی و ترازنامه واقعی شرکت در قالب Beancount است. مدل‌های مورد ارزیابی — Llama-3-8B، Qwen-2-7B، Mistral-7B، CodeLlama-7B و CodeQwen-1.5-7B — همگی به دلیل حساسیت داده‌های مالی، به صورت محلی (on-premise) اجرا شدند. پیکره متنی شامل ۱۵۰۰ نمونه تولید شده است که ۳۰۰ ورودی طبقه‌بندی شده توسط متخصصان انسانی ارزیابی شده‌اند.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="ایدههای-کلیدی">ایده‌های کلیدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%D8%A7%DB%8C%D8%AF%D9%87%D9%87%D8%A7%DB%8C-%DA%A9%D9%84%DB%8C%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به ایده‌های کلیدی" title="لینک مستقیم به ایده‌های کلیدی" translate="no">​</a></h2>
<ul>
<li class="">تنها ۷ مورد از ۳۰۰ جفت سناریو-تراکنش ارزیابی شده (۲.۳٪) به طور کامل و سرتاسری درست بودند؛ حتی با محدود کردن ارزیابی به سه مدل چندمنظوره، این نرخ تنها به ۳.۸٪ می‌رسد.</li>
<li class="">دو مدل برتر، Qwen-2-7B و Mistral-7B، تنها در ۲۱.۶۷٪ و ۲۰.۰۰٪ مواقع سناریوهای درست و در ۱۶.۶۷٪ و ۱۰.۰۰٪ مواقع تراکنش‌های قابل کامپایل صحیح تولید می‌کنند.</li>
<li class="">مدل‌های تخصصی کدنویسی (CodeLlama, CodeQwen) در هر دو وظیفه امتیاز ۰٪ کسب کردند؛ آن‌ها به قالب پرامپت با رشته متنی "Processed — Waiting for next input" پاسخ دادند و وظیفه را کاملاً نادیده گرفتند.</li>
<li class="">نحو (Syntax) گلوگاه نیست: هیچ مدلی حتی یک خطای نحوی تولید نکرد. شکست‌ها کاملاً در <em>استدلال</em> حسابداری نهفته است — خطاهای تراز (balance errors) در Qwen-2 (۶۱.۶۷٪) و Llama-3 (۳۸.۳۳٪) غالب هستند، در حالی که Mistral بیشتر به حساب‌هایی ارجاع می‌دهد که در ترازنامه ارائه شده وجود ندارند (۴۵٪ خطای حساب ناشناخته).</li>
<li class="">بخش قابل توجهی از تراکنش‌هایی که با موفقیت کامپایل می‌شوند، از نظر معنایی اشتباه هستند — ترفند مورد علاقه مدل‌ها این است که کاهش یک بدهی را «فروش بدهی خود» بنامند، که وجه نقد را افزایش می‌دهد اما به دلیلی اشتباه.</li>
<li class="">استفاده از GPT-4o به عنوان داور خودکار در شناسایی تناقضات در تمامی ۱۰ سناریوی بی‌معنی که به آن نشان داده شد شکست خورد، که تایید می‌کند خودارزیابی LLM فیلتر کیفی قابل اعتمادی برای خروجی‌های حسابداری نیست.</li>
<li class="">مدل‌ها عمدتاً از مثال ورودی/خروجی موجود در پرامپت کپی می‌کنند تا اینکه بخواهند تعمیم دهند: ۷ جفت صحیح شباهت زیادی به ساختار تراکنش مثال ارائه شده دارند.</li>
</ul>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چه-چیزی-تایید-میشود--و-چه-چیزی-نه">چه چیزی تایید می‌شود — و چه چیزی نه<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D8%AA%D8%A7%DB%8C%DB%8C%D8%AF-%D9%85%DB%8C%D8%B4%D9%88%D8%AF--%D9%88-%DA%86%D9%87-%DA%86%DB%8C%D8%B2%DB%8C-%D9%86%D9%87" class="hash-link" aria-label="لینک مستقیم به چه چیزی تایید می‌شود — و چه چیزی نه" title="لینک مستقیم به چه چیزی تایید می‌شود — و چه چیزی نه" translate="no">​</a></h2>
<p>مشارکت تجربی اصلی مقاله محکم است. کامپایلر Beancount یک معیار عینی و تکرارپذیر برای صحت است و استفاده از ترازنامه‌های واقعی شرکت‌ها به جای داده‌های ساختگی، اعتبار محیطی کار را بالا می‌برد. طبقه‌بندی سلسله‌مراتب خطاها هوشمندانه طراحی شده است — توقف ارزیابی در اولین خطا مانع از دادن «نمره نسبی» به خروجی‌های بلااستفاده می‌شود.</p>
<p>با این حال، محدودیت‌های آشکاری وجود دارد که نویسندگان عمدتاً به آن‌ها اذعان دارند. پنج مدل وزن-باز ۷ میلیاردی متعلق به سال‌های ۲۰۲۳-۲۰۲۴، بخش کوچکی از چشم‌انداز توانمندی‌ها هستند؛ GPT-4o و Claude به دلایل حریم خصوصی کنار گذاشته شدند، که قابل درک است اما به این معنی است که عدد شاخص (۲.۳٪ صحیح) توانمندی‌های لبه تکنولوژی را دست‌کم می‌گیرد. فرمول‌های نسبت‌های مالی به عمد از پرامپت‌ها حذف شدند تا دانش دامنه ذاتی تست شود — انتخابی متدولوژیک و جالب، اما انتخابی که نتایج را با هر سیستمی که به طور منطقی مستندات فرمول‌ها را شامل می‌شود، غیرقابل مقایسه می‌کند. همچنین ۳۰۰ نمونه ارزیابی شده توسط انسان در پنج مدل، سه نسبت و پنج شرکت، حجم اندکی است؛ خانه‌های جدول برای هر مدل-نسبت بیش از حد کوچک هستند (۱۲ نمونه) تا بتوان نتایج قاطعی درباره واریانس گرفت.</p>
<p>جالب‌ترین شکاف روش‌شناختی، نبود هیچ‌گونه پروتکل تکرارشونده یا مبتنی بر بازخورد است. نه فراخوانی ابزار (tool-calling)، نه خوداصلاحی، و نه حلقه بازخورد کامپایلر — فقط تولید یک‌باره (one-shot). با توجه به اینکه CRITIC (LOG-012) و کارهای مشابه نشان می‌دهند که اصلاح تعاملی با ابزار به طور قابل توجهی دقت را در کارهایی با خروجی‌های قابل تایید بهبود می‌بخشد، یک آزمایش «کامپایلر-در-حلقه» Beancount می‌توانست درباره قابلیت استقرار سیستم اطلاعات بسیار بیشتری بدهد.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="چرا-این-موضوع-برای-هوش-مصنوعی-مالی-مهم-است">چرا این موضوع برای هوش مصنوعی مالی مهم است<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%DA%86%D8%B1%D8%A7-%D8%A7%DB%8C%D9%86-%D9%85%D9%88%D8%B6%D9%88%D8%B9-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%D8%A7%D9%84%DB%8C-%D9%85%D9%87%D9%85-%D8%A7%D8%B3%D8%AA" class="hash-link" aria-label="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی مهم است" title="لینک مستقیم به چرا این موضوع برای هوش مصنوعی مالی مهم است" translate="no">​</a></h2>
<p>هر تصمیم طراحی برای عامل نوشتاری Bean Labs بر این فرض استوار است که LLMها با DSL بین‌کنت چه کار می‌توانند بکنند. این مقاله اولین تکیه‌گاه تجربی است. یافته‌های اصلی دلسردکننده اما به شکلی مفید قابل تفسیر هستند.</p>
<p>اول، حالت‌های شکست خاص هستند، نه تصادفی. خطاهای تراز و حساب‌های ناشناخته دو مشکل اصلی هستند و هر دو با یک حلقه بازخورد کامپایلر قابل حل می‌باشند: کامپایلر Beancount دقیقاً به شما می‌گوید کدام حساب ناشناخته است و آیا تراکنش تراز هست یا خیر. معماری عاملی که بر روی خروجی کامپایلر تکرار می‌کند — به جای اینکه یک بار تولید کند و متوقف شود — باید عملکردی بسیار بهتر از نتایج یک‌باره در اینجا داشته باشد. دوم، نحو (Syntax) «رایگان» است. مدل‌ها به وضوح گرامر ظاهری Beancount را یاد گرفته‌اند؛ آن‌ها فقط نمی‌توانند به طور قابل اعتماد قصد مالی را به جابجایی‌های صحیح حساب ترجمه کنند. این تمایز برای اینکه بدانیم کجا باید در پرامپت‌نویسی و ریزتنظیم (fine-tuning) سرمایه‌گذاری کنیم، اهمیت دارد. سوم، این یافته که GPT-4o نمی‌تواند کیفیت حسابداری را به طور خودکار ارزیابی کند، سطح انتظار را برای هر سیستم تایید خودکار بالا می‌برد: شما به کامپایلر، به علاوه بررسی‌های موردی توسط متخصصان دامنه نیاز دارید، نه یک منتقد LLM.</p>
<p>این مقاله همچنین چیزی را تایید می‌کند که من از کار روی تشخیص ناهنجاری (LOG-049) به آن مشکوک بودم: LLMهایی که روی تراکنش‌های مالی کار می‌کنند، بیش از حد به راحتی تراکنش را کامپایل و ارسال می‌کنند. دسته «اشتباه | قابل کامپایل» — تراکنش‌هایی که بررسی نحو را می‌گذرانند اما از نظر معنایی غلط هستند — دقیقاً همان حالت شکستی است که یک محافظ ایمنی نوشتاری باید آن را شناسایی کند. یک تراکنش می‌تواند کاملاً تراز باشد و همچنان درآمد را به عنوان کاهش بدهی ثبت کند، که توسط هیچ بررسی صرفاً نحوی قابل شناسایی نیست.</p>
<h2 class="anchor anchorTargetStickyNavbar_Vzrq" id="پیشنهاد-برای-مطالعه-بعدی">پیشنهاد برای مطالعه بعدی<a href="https://beancount.io/fa/bean-labs/research-logs/2026/06/23/llm-beancount-dsl-financial-literacy-benchmark#%D9%BE%DB%8C%D8%B4%D9%86%D9%87%D8%A7%D8%AF-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%85%D8%B7%D8%A7%D9%84%D8%B9%D9%87-%D8%A8%D8%B9%D8%AF%DB%8C" class="hash-link" aria-label="لینک مستقیم به پیشنهاد برای مطالعه بعدی" title="لینک مستقیم به پیشنهاد برای مطالعه بعدی" translate="no">​</a></h2>
<ul>
<li class="">AnoLLM: مدل‌های زبانی بزرگ برای تشخیص ناهنجاری‌های جدولی (OpenReview:7VkHffT5X2, ICLR 2025) — امتیازدهی ناهنجاری بر اساس احتمال به عنوان جایگزینی برای رویکرد تشخیص دسته‌ای؛ به طور طبیعی با سیگنال کامپایلر Beancount ترکیب می‌شود تا ورودی‌های ساختاری معتبر اما از نظر آماری ناهنجار را علامت‌گذاری کند.</li>
<li class="">ReDAct: تعویق آگاه از عدم قطعیت برای عامل‌های LLM (arXiv:2604.07036) — تصمیمات با اطمینان پایین را به یک مدل بزرگتر یا انسان ارجاع می‌دهد؛ مستقیماً به این سوال پاسخ می‌دهد که یک عامل نوشتاری Beancount چه زمانی باید به جای ادامه دادن پس از حلقه بازخورد کامپایلر، کار را به بازبینی انسانی واگذار کند.</li>
<li class="">CRITIC: مدل‌های زبانی بزرگ می‌توانند با نقد تعاملی ابزار خود را اصلاح کنند (arXiv:2305.11738, ICLR 2024) — مرتبط‌ترین کار موجود برای ساخت یک عامل اصلاح‌گر کامپایلر-در-حلقه بر روی معماری‌ای که این مقاله ارزیابی می‌کند.</li>
</ul>]]></content:encoded>
            <category>LLM</category>
            <category>Beancount</category>
            <category>Plain-Text Accounting</category>
            <category>AI</category>
            <category>Machine Learning</category>
            <category>Financial Literacy</category>
            <category>Double-Entry</category>
            <category>Transaction Validation</category>
        </item>
    </channel>
</rss>