آنچه در این مقاله میخوانید
استدلال و استنتاج در مدلهای زبانی بزرگ، (پیشرفتها و چالشها)
۲۹ مرداد ۱۴۰۴
بر اساس دیدگاههای چندین پژوهشگر برجسته (مانند واسون و جانسون aird در 1972، استدلال را میتوان به عنوان فرآیندی منطقی و منظم برای تفکر درباره یک موضوع تعریف کرد که هدف آن رسیدن به نتیجهگیری یا اتخاذ تصمیم است. این مفهوم شامل عناصری مانند استنتاج، ارزیابی استدلالها، و استخراج نتیجهگیریهای منطقی میشود. واژه استدلال در ادبیات علمی و گفتگوی روزمره بسیار رایج است، اما مفهومی مبهم به شمار میرود که بسته به زمینه میتواند معانی متفاوتی داشته باشد. برای کمک به درک بهتر شما، در ادامه خلاصهای از انواع رایج استدلال ارائه خواهیم داد. بنابراین با لیارا همراه باشید.
با هوش مصنوعی لیارا، دسترسی سریع و پایدار به API هوش مصنوعی داشته باشید.
✅ ارائه API هوش مصنوعی✅ ادغام آسان با سرویسها و اپلیکیشنها✅ مقیاسپذیری و امنیت بالا
خرید و راهاندازی سرویس هوش مصنوعی
همچنین، لیارا از جمله نخستین سرویسهای میزبانی ابری ایرانی است که در زمینه ارائه خدمات مرتبط با هوش مصنوعی پیشتاز محسوب میشود. برای اطلاعات بیشتر، مستندات سرویس هوش مصنوعی لیارا را مشاهده کنید.
آنچه در ادامه خواهید خواند:
- پیش نیازها
- انواع مختلف استدلال
- استدلال رسمی در مقابل استدلال غیررسمی
- استدلال در مدلهای زبانی
- حرکت به سوی استدلال در مدلهای زبانی بزرگ
- بوتاسترپینگ و خودبهبودی
- اندازهگیری استدلال در مدلهای زبانی بزرگ
- جمع بندی
پیش نیازها
- درک پایهای از یادگیری ماشین (ML) و پردازش زبان طبیعی (NLP)
- دانش مدلهای زبانی بزرگ (LLMs)
- آشنایی با مفاهیم استدلال و منطق
- درک یادگیری در زمینه و یادگیری با چند نمونه: آشنایی با نحوه پردازش پرامپتها

انواع مختلف استدلال
در ادامه بیشتر به این موضوع خواهیم پرداخت.
استدلال قیاسی:
در این نوع استدلال، نتیجهگیری بر اساس فرض صحت مقدمات انجام میشود. از آنجایی که نتیجه در استدلال قیاسی همیشه به طور منطقی از مقدمات ناشی میشود، اگر مقدمات درست باشند، نتیجه نیز الزاماً درست خواهد بود.
استدلال استقرایی:
نتیجهگیری در استدلال استقرایی بر پایه شواهد پشتیبانکننده شکل میگیرد. بر اساس اطلاعات موجود، احتمال صحت نتیجه بالا است، اما تضمینی برای قطعیت آن وجود ندارد.
مثال:
- مشاهده: هر بار که موجودی با بال میبینیم، پرنده است.
- مشاهده: موجودی با بال میبینیم.
- نتیجهگیری: احتمالاً این موجود پرنده است.
استدلال ابداعی:
در این رویکرد، بهترین توضیح ممکن برای مجموعهای از مشاهدات جستجو میشود تا به نتیجهگیری برسد. این نتیجه بر پایه بهترین اطلاعات در دسترس استوار است و محتملترین توضیح را ارائه میدهد، اما نباید آن را به عنوان حقیقتی مطلق در نظر گرفت.
مثال:
- مشاهده: ماشین روشن نمیشود و زیر موتور، حوضچهای از مایع دیده میشود.
- نتیجهگیری: محتملترین توضیح، نشتی از رادیاتور است.
استدلال رسمی در مقابل استدلال غیررسمی
در ریاضیات و منطق، استدلال رسمی به نوعی از تفکر منظم و منطقی اشاره دارد که بر پایه قوانین دقیق استوار است. در زندگی روزمره، اغلب از استدلال غیررسمی استفاده میکنیم که روشی کمتر ساختیافته است و بر شهود، تجربه، و حس مشترک تکیه دارد تا به نتیجهگیری و حل مسائل برسد. استدلال غیررسمی انعطافپذیرتر و بازتر است، اما به دلیل ساختار، ممکن است کمتر قابل اعتماد باشد نسبت به استدلال رسمی.
استدلال در مدلهای زبانی
مفهوم استدلال در مدلهای زبانی موضوع جدیدی نیست، اما تعریف دقیقی از آن وجود ندارد. در ادبیات، کلمه استدلال اغلب برای اشاره به چنین فرآیندی استفاده میشود، هرچند همیشه مشخص نیست که آیا این استدلال غیررسمی است.
حرکت به سوی استدلال در مدلهای زبانی بزرگ
با پیشرفت مدلهای زبانی بزرگ مانند GPT-4، Claude، و Gemini، تمرکز پژوهشگران و توسعهدهندگان بر تقویت قابلیتهای استدلالی آنها افزایش یافته است فراتر از تولید متن ساده، به سمت تفکری پیچیدهتر و شبیه به انسان.
مدلهای زبانی سنتی در تشخیص الگوها و تقلید بر پایه دادههای عظیم عالی عمل میکنند، اما استدلال واقعی یعنی اتصال منطقی اطلاعات، استنتاج حقایق نادیده، و حل مسائل نوین همچنان چالشی بزرگ است. تلاشها برای ادغام استدلال در LLMs را میتوان به چند استراتژی اصلی تقسیم کرد:
پرامپتینگ زنجیرهای تفکر
به جای درخواست مستقیم پاسخ، پرامپتینگ زنجیرهای تفکر (CoT) مدل را تشویق میکند تا مسائل را به مراحل میانی تقسیم کند. این رویکرد شبیه به استدلال انسانی است که در آن رسیدن به نتیجه اغلب شامل چندین مرحله تفکر میشود. با هدایت مدل به تفکر بلند، CoT دقت را افزایش میدهد، به ویژه در وظایفی که شامل منطق، ریاضیات، و تصمیمگیری پیچیده است.
نمونهبرداری خودسازگار
هنگام استدلال درباره سؤالات دشوار، انسانها اغلب چندین امکان را بررسی میکنند قبل از انتخاب پاسخ نهایی. به طور مشابه، LLMs میتوانند چندین مسیر استدلالی تولید کنند و سپس سازگارترین یا پرتکرارترین راهحل را انتخاب نمایند. این روش، که خودسازگاری نامیده میشود، اغلب به نتایج بهتری نسبت به تکیه بر یک پاسخ تولیدشده منجر میشود.
RAG یا Fine-tuning؟ انتخاب مناسب برای مدل های هوش مصنوعی
مدل های هوش مصنوعی
استدلال تقویتشده با ابزار
مدلهای زبانی بزرگ با ابزارهای خارجی مانند ماشینحسابها، موتورهای جستجو، مفسران کد، و گرافهای دانش ترکیب میشوند تا استدلال تقویت شود. وقتی LLM محدودیتهای خود را تشخیص میدهد، میتواند بخشی از مسئله را به ابزار تخصصی واگذار کند و نتیجه را در پاسخ کلی ادغام نماید شبیه به نحوهای که انسانها کمک خارجی میگیرند.
حافظه و استدلال زمینهای
ادغام حافظه در LLMs یعنی توانایی یادآوری تعاملات گذشته یا حقایق در طول گفتگو قابلیت استدلال بر زمینههای طولانیتر را تقویت میکند. معماریهای نوظهور در تلاشند تا حافظه اپیزودیک (کوتاهمدت) و معنایی (بلندمدت) را برای بهبود استدلال چندنوبت و آگاه از زمینه فراهم کنند.
تنظیم دقیق کاملاً نظارتشده
تنظیم دقیق کاملاً نظارتشده تکنیکی کلیدی در آموزش مدلهای زبانی بزرگ و سایر سیستمهای هوش مصنوعی است تا وظایف خاص را با دقت و قابلیت اعتماد بیشتر انجام دهند. این روش شامل آموزش یک مدل موجود بر روی دادهست برچسبدار است که جفتهای ورودی-خروجی به طور صریح ارائه میشوند و مدل را هدایت میکند تا نگاشتهای دقیق از پرسشهای ورودی به پاسخهای صحیح بیاموزد.
بر خلاف یادگیری بدون نظارت که مدلها الگوها را بدون برچسبهای صریح کشف میکنند، تنظیم دقیق نظارتشده رفتار مدل را به سمت خروجیهای مورد نظر لنگر میاندازد با مقایسه مداوم پیشبینیها با حقایق شناختهشده و تنظیم.
با این حال، تنظیم دقیق کاملاً نظارتشده دو نقص جدی دارد. اول، نیاز به دادهستی دارد که استدلال صریح را شامل شود، که تولید آن میتواند چالشبرانگیز و زمانبر باشد. دوم، مدل به یک دادهست واحد محدود میشود، که کاربرد آن را به یک حوزه خاص محدود میکند و احتمال وابستگی به مصنوعات دادههای آموزشی را افزایش میدهد به جای استدلال واقعی.
پرامپتینگ و یادگیری در زمینه
مدلهای زبانی بزرگ مانند GPT-3 از طریق یادگیری در زمینه، عملکرد شگفتانگیزی در وظایف چندنمونهای نشان دادهاند. این مدلها تنها با ارائه یک پرسش و چند مثال ورودی، خروجی میتوانند به طور ضمنی یا صریح استدلال کنند که چگونه به مسئله نزدیک شوند و آن را حل نمایند. با وجود پیشرفتها، این مدلها همچنان در مسائل نیازمند چندین مرحله استدلال ضعیف عمل میکنند. تحقیقات اخیر نشان میدهد که این ممکن است به دلیل عدم بهرهبرداری کامل از پتانسیل این مدلها باشد.

زنجیره تفکر و واریانتهای آن
با دستور دادن به LLMs برای انجام استدلال صریح، میتوان احتمال استدلال واقعی را افزایش داد به جای ارائه مستقیم پاسخ. پرامپتینگ زنجیره تفکر را پیشنهاد میکنند. در این روش، مثالهای زنجیره تفکر (CoT) مراحل میانی تفکر را با زبان طبیعی نشان میدهند. به طور خاص، در پرامپتینگ CoT، نمایشهای ⟨ورودی، خروجی⟩ با سهتاییهای ⟨ورودی، زنجیره تفکر، خروجی⟩ جایگزین میشوند.
مثال:
- ورودی: علی پنج توپ تنیس دارد. او دو قوطی دیگر توپ تنیس میخرد. هر قوطی سه توپ تنیس دارد. اکنون چند توپ تنیس دارد؟
- زنجیره تفکر: علی با پنج توپ شروع کرد. دو قوطی با سه توپ هر کدام شش توپ است. ۵ + ۶ = ۱۱.
- خروجی: پاسخ ۱۱ است.
در نتیجه، وقتی با سؤال هدف مواجه میشود، مدل یاد میگیرد تا توضیحات واضحی تولید کند قبل از پاسخ نهایی. در ادبیات، انواع مختلفی از پرامپتینگ زنجیره تفکر توسعه یافتهاند، هر کدام در فرمی متفاوت یا برای حل مسئله خاصی.
Open WebUI چیست و چرا کار با مدلهای زبانی را آسانتر میکند؟
Open WebUI
روشهای ترکیبی
در حالی که تکنیکهای پرامپتینگ میتوانند به استخراج یا استفاده بهتر از استدلال در مدلهای زبانی بزرگ کمک کنند تا مسائل استدلالی حل شوند، آنها واقعاً مهارتهای استدلالی LLMs را نشان نمیدهند زیرا پارامترهای مدل تغییر نمیکنند. در مقابل، رویکرد ترکیبی تلاش میکند تا قدرتهای استدلالی LLMs را افزایش دهد و همزمان از این مدلها برای حل مسائل پیچیده بهره بیشتری ببرد. این استراتژی شامل بهبود قابلیت استدلالی LLMs و استفاده از تکنیکهایی مانند پرامپتینگ برای حداکثرسازی این قابلیتها است.
بوتاسترپینگ و خودبهبودی
برخی تحقیقات به جای تنظیم دقیق بر دادهستهای از پیش ساختهشده شامل استدلال، امکان اجازه دادن به LLMs برای توسعه مهارتهای استدلالی خود از طریق فرآیندی به نام بوتاسترپینگ را بررسی کردهاند.
اندازهگیری استدلال در مدلهای زبانی بزرگ
یکی از راهها برای ارزیابی قابلیت استدلالی LLMs، گزارش عملکرد آنها (مانند دقت) در وظایف نهایی شامل استدلال است. در ادامه برخی معیارهای استاندارد صنعت آورده شدهاند:
استدلال ریاضیاتی
استدلال ریاضیاتی ظرفیت درک و استفاده از مفاهیم و اصول ریاضی برای حل مسائل نیازمند عملیات حسابی است. این شامل اعمال استدلال منطقی و اصول ریاضی برای تعیین بهترین رویکرد در حل مسائل ریاضی میشود.
استدلال حس مشترک
استدلال حس مشترک استفاده از دانش روزمره و درک برای قضاوت و پیشبینی درباره موقعیتهای جدید است. این جنبه اساسی هوش انسانی است که به ما اجازه میدهد محیط را پیمایش کنیم، دیگران را درک نماییم، و با اطلاعات ناقص تصمیمگیری کنیم.
استدلال نمادین
استدلال نمادین نوعی استدلال است که در آن نمادها بر اساس قوانین رسمی دستکاری میشوند. این شامل استنتاج یا حل مسئله با دستکاری نمادهای انتزاعی نماینده مفاهیم و روابط بر اساس قوانین دقیق است. دو معیار استدلال نمادین ارائه شدهاند، شامل اتصال آخرین حرف و تلنگر سکه.
جمع بندی
در حالی که مدلهای زبانی بزرگ (LLMs) نتایج چشمگیری در وظایف زبان طبیعی به دست آوردهاند، بحث مداوم وجود دارد که آیا آنها واقعاً قابلیت استدلال دارند یا صرفاً بر تشخیص الگوهای آماری و هیوریستیکها تکیه میکنند. درک و تقویت قابلیتهای استدلالی LLMs همچنان چالشی کلیدی در تحقیقات است. کاوش مداوم در این حوزه نه تنها درک ما از رفتار LLM را عمیقتر میکند، بلکه توسعه سیستمهای هوش مصنوعی قابل اعتمادتر و هوشمندتر را هدایت خواهد کرد.