تغییرات اخیر

در اینجا اطلاعیه‌ها، نسخه‌ها و تغییرات جدید لیارا فهرست می‌شوند.

جادوی پرامپت نویسی در هوش مصنوعی + مثال های کاربردی


۲۶ شهریور ۱۴۰۴

پرامپتینگ چندشاتی به یکی از موضوعات داغ در حوزه پردازش زبان طبیعی تبدیل شده است. این تکنیک‌ها به توسعه‌دهندگان، پژوهشگران و کسب‌وکارها اجازه می‌دهند تا پاسخ‌های باکیفیت و متناسب با زمینه را بدون نیاز به تنظیم دقیق مدل‌ها به دست آورند. اما پرامپتینگ چندشاتی دقیقاً چیست و چرا تا این حد اهمیت دارد؟

در این مقاله، به بررسی این سؤالات و جنبه‌های بیشتر می‌پردازیم. مواردی که پوشش خواهیم داد عبارتند از:

  • اصول پایه پرامپتینگ چندشاتی و یادگیری چندشاتی.
  • نقش یادگیری در زمینه و مهندسی پرامپت در این فرآیند.
  • تفاوت‌های میان پرامپتینگ صفرشاتی، تک‌شاتی و چندشاتی.
  • مثال‌های عملی پرامپتینگ چندشاتی با کدهای پایتون از طریق API OpenAI و چارچوب‌هایی مانند LangChain.
  • بهترین شیوه‌ها، از جمله مدیریت توکن‌ها، ترکیب انواع وظایف مختلف و ساخت پرامپت‌های باکیفیت.
  • کاربردهای واقعی مانند طبقه‌بندی، خلاصه‌سازی و تولید کد.
  • اشتباهات رایج و راهکارهایی برای جلوگیری از آن‌ها.

پیش‌نیازها

  • درک اولیه از مدل‌های زبانی بزرگ و نحوه پردازش ورودی و تولید خروجی توسط آن‌ها.
  • آشنایی خوب با برنامه‌نویسی پایتون، به ویژه در کار با APIها و کتابخانه‌هایی مانند OpenAI یا LangChain.
  • حساب فعال OpenAI با کلید API معتبر و دسترسی به مدل‌های چت مانند gpt-3.5-turbo، gpt-4 یا مشابه.
  • نصب وابستگی‌ها مانند OpenAI و LangChain از طریق pip.
  • توانایی ایجاد مثال‌های ورودی-خروجی واضح برای وظایفی مانند طبقه‌بندی متن، خلاصه‌سازی و تبدیل کد.

درک پرامپت چندشاتی

پرامپتینگ چندشاتی روشی است که در آن، به مدل زبانی چند مثال ورودی-خروجی (یا “شات”) در داخل پرامپت ارائه می‌شود. به جای تغییر تنظیمات داخلی مدل مانند آنچه در تنظیم دقیق رخ می‌دهد، پرامپتی طراحی‌شده با دقت ارائه می‌دهید که چند نمونه از وظیفه را نشان می‌دهد.

با این کار، مدل می‌تواند الگو یا زمینه این مثال‌ها را تشخیص دهد. در اصل، مدل از مثال‌های داده‌شده برای استنتاج نحوه برخورد با پرسش‌های جدید و ناشناخته‌ای که ساختار یا منطق مشابهی دارند، استفاده می‌کند.

یادگیری در زمینه چگونه کار می‌کند؟

مکانیسم یادگیری در زمینه، پرامپتینگ چندشاتی را به طور مؤثر عملی می‌سازد. این فرآیند به شرح زیر عمل می‌کند:

  • مدل‌سازی توالی: مدل کل پرامپت، شامل مثال‌ها و پرسش‌های ورودی جدید، را به عنوان یک توالی پیوسته از توکن‌ها تفسیر می‌کند.
  • استخراج الگو: مدل الگوهایی را از ورودی‌ها و خروجی‌های مثال‌ها تحلیل می‌کند تا پاسخ به پرسش جدید را هدایت کند.
  • پیش‌بینی: با بهره‌گیری از درک زبانی پیش‌آموخته‌شده و الگوهای استخراج‌شده از مثال‌های محدود، مدل محتمل‌ترین توکن‌های بعدی را برای وظیفه جدید پیش‌بینی می‌کند.

مدل نیازی به به‌روزرسانی گرادیان یا تغییر پارامترها ندارد، زیرا همه عملیات از طریق دستورالعمل‌های پرامپت انجام می‌شود.

یادگیری چندشاتی در مقابل پرامپت صفرشاتی و تک‌شاتی

هنگام بحث در مورد پرامپت چندشاتی، مفید است که تفاوت‌های میان چندشاتی، صفرشاتی و تک‌شاتی را درک کنیم. جدول زیر تکنیک‌های مختلف پرامپت در مدل‌های زبانی را خلاصه می‌کند:

نوع پرامپتتعریفمثالزمان استفاده
پرامپت صفرشاتیاین روش شامل ارائه دستور مستقیم به مدل بدون مثال‌های خاص برای وظیفه است.“جمله زیر را از فرانسه به انگلیسی ترجمه کن: ‘Bonjour le monde’.”مناسب برای وظایف سریع که مطمئن هستید مدل بدون مثال‌های قبلی می‌تواند آن‌ها را مدیریت کند.
پرامپت تک‌شاتیمدل با یک مثال ورودی-خروجی قبل از پرداختن به درخواست واقعی روبرو می‌شود.“جمله زیر را ترجمه کن. مثال: ‘Salut’ → ‘Hello’. حالا ترجمه کن: ‘Bonjour’ → ؟”ایده‌آل وقتی مدل از یک فرمت یا زمینه خاص سود می‌برد، اما وظیفه نسبتاً ساده است.
پرامپت چندشاتیمدل چند مثال جفت ورودی-خروجی برای یادگیری الگو نشان داده می‌شود.چند ترجمه کوتاه ارائه می‌دهید، سپس مدل الگو را تشخیص می‌دهد و جمله جدیدی را ترجمه می‌کند.مفید برای وظایف کمی پیچیده‌تر که مدل از چندین نمونه سود می‌برد.

هر استراتژی پرامپتینگ تعادلی بین پیچیدگی وظیفه و میزان زمینه مورد نیاز مدل برای عملکرد مؤثر ارائه می‌دهد.

مثال‌های پرامپت چندشاتی

در ادامه، برخی کاربردهای عملی که پرامپت چندشاتی می‌تواند اعمال شود، همراه با نمونه‌هایی از ظاهر پرامپت آورده شده است.

طبقه‌بندی متن (مثال تحلیل احساسات)

می‌توانید مدل زبانی را برای طبقه‌بندی احساسات متن، موضوع، اسپم یا غیراسپم هدایت کنید با ارائه چند مثال برچسب‌دار. بیایید مثالی را در نظر بگیریم که می‌خواهیم تعیین کنیم آیا نقد فیلم مثبت یا منفی است:

تعیین کنید که هر نقد فیلم مثبت یا منفی است.

نقد: در تمام فیلم نتوانستم جلوی خنده‌ام را بگیرم!
احساسات: مثبت

نقد: داستان کاملاً آشفته و خیلی خسته‌کننده بود.
احساسات: منفی

نقد: تصویربرداری خیره‌کننده بود و داستان قلبم را لمس کرد.
احساسات:

در این مورد، دو مثال نقد با احساسات‌شان ارائه می‌دهیم. این مثال‌های چندشاتی به مدل کمک می‌کنند تا فرمت (نقد: … احساسات: …) را بیاموزد و بین زبان مثبت و منفی تمایز قائل شود. با تشخیص الگو، مدل تعمیم می‌دهد و تعیین می‌کند که نقد سوم مثبت است، زیرا کلماتی مانند “خیره‌کننده” و “لمس کرد قلبم” نشان‌دهنده احساسات مثبت هستند.

خلاصه‌سازی متن

سبک خلاصه‌سازی را می‌توان با چند مثال کنترل کرد. در این زمینه، دو جفت مقاله-خلاصه ارائه می‌دهیم. سپس، مقاله سوم را معرفی می‌کنیم و از مدل می‌خواهیم خلاصه‌ای یک‌جمله‌ای تولید کند.

مقاله: ستاره‌شناسان سیاره خارجی‌ای را شناسایی کردند که ممکن است آب داشته باشد.
خلاصه: کشف اخیر سیاره خارجی امیدواری به وجود آب و امکان حیات در آن را افزایش می‌دهد.

مقاله: گزارش‌های درآمد شرکت‌های فناوری باعث افزایش قابل توجه در بازار سهام شد.
خلاصه: سرمایه‌گذاران به گزارش‌های درآمد فناوری واکنش مثبت نشان دادند و منجر به افزایش قوی بازار سهام شد.

مقاله: حمایت جامعه به شورای شهر کمک کرد تا برنامه توسعه پارک جدید را تصویب کند.
خلاصه:

تولید کد

این پرامپت دو مثال از شبه‌کد و ترجمه‌شان به پایتون ارائه می‌دهد. سپس، مدل وظیفه دارد کد پایتون برای شبه‌کد سوم تولید کند. این مثال‌ها مدل را با جزئیات نحوی مهم، مانند استفاده از تابع print پایتون و ساختار حلقه‌ها، هدایت می‌کنند.

شبه‌کد:

x = 20 if x > 0: print “Positive” else: print “Non-positive”

پایتون:

x = 20
if x > 0:
print(“Positive”)
else:
print(“Non-positive”)

شبه‌کد:

for each number i in range 1 to 20:
print i

پایتون:

for i in range(1, 20):
print(i)

شبه‌کد:

set total to 0
for each item price in list:
add price to total
print total

کاربرد عملی در GPT-4، ChatGPT، Claude و بیشتر

پرامپت چندشاتی به طور مشابه در بسیاری از پلتفرم‌های LLM مدرن کار می‌کند:

  • GPT-4 / ChatGPT: مدل را می‌توان با پیام‌های سیستم یا پرامپت‌های کاربر که شامل چند مثال هستند، هدایت کرد. مدل GPT-4 قابلیت‌های درک زبان پیچیده‌ای دارد که برای وظایف یادگیری در زمینه طراحی شده است.
  • Claude (Anthropic): Claude از تکنیک مشابه OpenAI استفاده می‌کند و با ارائه گفتگو یا زمینه با مثال‌های چندشاتی، سبک و فرمت پاسخ را هدایت می‌کند.

پیاده‌سازی پرامپت چندشاتی با API OpenAI و LangChain

با درک پرامپت چندشاتی و مثال‌های illustrativ، بیایید به تکنیک‌های پیاده‌سازی عملی بپردازیم. دو رویکرد را بررسی می‌کنیم.

پرامپت چندشاتی از طریق API OpenAI

اسکریپت زیر از SDK پایتون OpenAI برای تبدیل سلسیوس به فارنهایت با پرامپت کوتاه استفاده می‌کند. چند مثال تبدیل ارائه می‌دهد تا مدل را هدایت کند قبل از ارسال درخواست جدید: “تبدیل 37 سلسیوس به فارنهایت.”

پیش‌نیاز برای تبدیل سلسیوس به فارنهایت:

  • نصب بسته‌های مورد نیاز با دستور pip install openai.
  • در حالی که می‌توانید کلید API را به عنوان آرگومان کلیدی عبور دهید، توصیه می‌شود از python-dotenv استفاده کنید و کلید را در فایل .env ذخیره کنید، مانند: OPENAI_API_KEY=”کلید API من”.
  • کلید API را از حساب OpenAI خود دریافت کنید.
  • اطمینان حاصل کنید که حساب OpenAI به مدل “gpt-4o” دسترسی دارد. اگر ندارد، ممکن است به جایگزینی مانند “gpt-3.5-turbo” تغییر دهید.

ابتدا، کد کلاینت OpenAI را با کلید API از متغیر محیطی راه‌اندازی می‌کند. همچنین، سناریوی یادگیری چندشاتی با مثال‌های تبدیل دما را تنظیم می‌کند.

سپس، پیام سیستم، مثال‌های چندشاتی و پرسش کاربر را در لیستی ترکیب می‌کند که برای هدایت رفتار مدل طراحی شده است.

در نهایت، متد chat.completions.create را فراخوانی می‌کند تا پیام‌ها را به مدل gpt-4o ارسال کند و پاسخ دستیار را چاپ می‌کند.

پرامپت چندشاتی با LangChain

LangChain کتابخانه‌ای کاربرپسند است که کار با مدل‌های زبانی بزرگ را ساده می‌کند. به شما اجازه می‌دهد زنجیره‌ها بسازید، پرامپت‌ها را مدیریت کنید، حافظه را کنترل کنید و بیشتر. یکی از ویژگی‌های قدرتمند آن FewShotPromptTemplate است که پرامپت چندشاتی را بدون نیاز به آموزش مجدد مدل پیاده می‌کند.

نصب LangChain:

ابتدا، LangChain را با دستور pip install langchain-openai نصب کنید.

تنظیم پرامپت چندشاتی برای تعاریف دیکشنری: فرض کنید می‌خواهید پرامپتی بسازید که مدل را برای تولید تعریف دیکشنری‌مانند برای یک کلمه خاص هدایت کند. چند مثال ارائه می‌دهید و سپس تعریف برای کلمه جدید درخواست می‌کنید.

خروجی:

یک تعریف یک‌جمله‌ای برای کلمه زیر ارائه دهید.

کلمه: هوش مصنوعی
تعریف: ماشین‌هایی که برای تقلید از فرآیندهای فکری و تصمیم‌گیری انسانی برنامه‌ریزی شده‌اند.

کلمه: سرخوشی
تعریف: احساسی قدرتمند از شادی و هیجان همزمان.

LangChain مثال‌های ما را به فرمت سازگاری ادغام کرده است.

گذراندن پرامپت به LLM با LangChain: حالا می‌توانید full_prompt را به LLM ارسال کنید تا تعریف کلمه “گذرا” را دریافت کنید.

import os
from langchain_openai import ChatOpenAI
os.environ["OPENAI_API_KEY"] = "کلید-api-شما-اینجا"
llm = ChatOpenAI(model="gpt-4")
response = llm.invoke(full_prompt)
print("\nپاسخ تولیدشده:")
print(response)

توجه: اطمینان حاصل کنید که کلید API OpenAI شما به مدل مشخص‌شده دسترسی دارد.

بهترین شیوه‌ها برای پرامپت چندشاتی مؤثر

هرچند پرامپت چندشاتی می‌تواند خروجی مدل زبانی بزرگ را بهبود بخشد، اما دستیابی به نتیجه درست می‌تواند چالش‌برانگیز باشد. در ادامه، برخی تکنیک‌های مهندسی پرامپت مؤثر و بهترین شیوه‌ها برای بهینه‌سازی تنظیمات چندشاتی آورده شده است.

مدیریت تعداد توکن‌ها

چرا مهم است: پرامپت‌های بزرگ می‌توانند محدودیت پنجره زمینه مدل را превыده کنند.

نکته: از مثال‌های کوتاه‌تر استفاده کنید. اگر چندین مثال با الگوی مشابه دارید، بهتر است آن‌ها را خلاصه کنید به جای تکرار هر کدام.

مدیریت تعداد توکن: عبور از حد توکن می‌تواند باعث از دست رفتن زمینه از مثال‌های اولیه شود و منجر به پاسخ‌های ناسازگار گردد.

حفظ وضوح و ثبات پرامپت

تعریف وظیفه واضح: دقیقاً بیان کنید که می‌خواهید مدل چه چیزی انجام دهد.

فرمتینگ سازگار: اگر مثال‌های شما سبک سؤال-پاسخ خاصی دارند، پرسش جدید را در همان سبک نگه دارید.

اجتناب از مهندسی بیش از حد: افزودن متن غیرضروری زیاد می‌تواند درک مدل را گیج کند.

انتخاب تعداد شات مناسب

پیچیدگی وظیفه: وظایف پیچیده‌تر معمولاً به مثال‌های بیشتری نیاز دارند.

بودجه توکن: هر مثال اضافی توکن‌های بیشتری مصرف می‌کند که می‌تواند هزینه را افزایش دهد یا به محدودیت برسد.

آزمایش تجربی: با 2-5 مثال آزمایش کنید تا ببینید کدام بهتر کار می‌کند—گاهی 3 یا 4 نقطه شیرین است.

هم‌راستا کردن مثال‌ها با وظیفه

سناریوهای مرتبط: مثال‌هایی ارائه دهید که نزدیک به نوع ورودی مورد انتظار باشند.

شامل مثال‌های چالش‌برانگیز: اگر ممکن است، برخی مثال‌های سخت اضافه کنید تا مدل یاد بگیرد چگونه ورودی‌های دشوار را مدیریت کند.

اشتباهات رایج و نحوه جلوگیری از آن‌ها

جدول زیر خلاصه‌ای از اشتباهات متداول و راه‌حل‌های‌شان در اعمال پرامپت چندشاتی ارائه می‌دهد.

اشتباهمسئلهراه‌حل
استفاده از شات‌های بیش از حد یا خیلی کمخطر رسیدن به محدودیت توکن با پرامپت‌های شلوغ. شات‌های کم ممکن است عملکرد ضعیفی داشته باشد.با آزمایش طول‌های مختلف پرامپت تعادل پیدا کنید.
ترکیب انواع وظایف در یک پرامپتادغام مثال‌های طبقه‌بندی و خلاصه‌سازی می‌تواند مدل را در مورد وظیفه گیج کند.پرامپت‌ها را خاص وظیفه نگه دارید یا وظایف را به وضوح جدا کنید.
سوءتفاهم در حفظ زمینه مدلبرخی کاربران فرض می‌کنند مدل همه جزئیات گفتگوی قبلی را “یاد می‌آورد”. وقتی پنجره زمینه превыده شود، بخش‌های قدیمی‌تر کوتاه می‌شوند.زمینه ضروری را در پنجره پرامپت فعلی ارائه دهید، به ویژه اگر گفتگو طولانی باشد.
ناسازگاری‌های فرمتینگاگر مثال‌های چندشاتی سبک‌ها یا فرمت‌های متفاوتی داشته باشند، مدل ممکن است خروجی‌های غیرقابل پیش‌بینی تولید کند.مثال‌ها را در ساختار و سبک یکنواخت نگه دارید.
نادیده گرفتن محدودیت توکنمدل‌های زبانی بزرگ محدودیت حداکثر توکن دارند. اگر پرامپت خیلی بزرگ باشد، زمینه ارزشمندی از دست می‌رود یا پاسخی تولید نمی‌شود.مثال‌ها را مختصر و مستقیم نگه دارید.

حل این مسائل به شما کمک می‌کند پرامپت‌های قابل اعتمادتری برای کاربردهای چندشاتی بسازید.

بخش پرسش‌های متداول

پرامپت چندشاتی در NLP چیست؟
پرامپت چندشاتی تکنیکی است که در آن چند مثال (معمولاً 2 تا 5) در یک پرسش واحد ارائه می‌دهید، که به مدل زبانی بزرگ اجازه می‌دهد وظیفه جدیدی را درک کند. به جای آموزش جداگانه مدل، وظیفه را در زمینه آموزش می‌دهید.

پرامپت چندشاتی در ChatGPT یا GPT-4 چگونه کار می‌کند؟
مثال‌ها و پرسش جدید را در همان پرامپت ارائه می‌دهید. مدل کل پرامپت را پردازش می‌کند و از آن مثال‌ها برای پاسخ به پرسش جدید استفاده می‌کند.

تفاوت بین پرامپت صفرشاتی و چندشاتی چیست؟

  • پرامپت صفرشاتی: توصیف وظیفه یا دستور بدون هیچ مثالی ارائه می‌شود.
  • پرامپت چندشاتی: چندین مثال علاوه بر دستور اضافه می‌شود. این معمولاً به دقت و ثبات بیشتری منجر می‌شود.

کی باید از پرامپت چندشاتی به جای تنظیم دقیق استفاده کنم؟
وقتی مجموعه داده برچسب‌دار بزرگی ندارید، نیاز به نتایج سریع بدون دردسر آموزش دارید، یا می‌خواهید چندین وظیفه کوچک را به طور کارآمد مدیریت کنید، از پرامپت چندشاتی استفاده کنید. تنظیم دقیق برای وقتی مناسب است که مجموعه داده بزرگی دارید و به عملکرد قابل اعتماد در طیف وسیعی از پرسش‌ها نیاز دارید.

آیا بهترین شیوه‌هایی برای طراحی پرامپت‌های چندشاتی وجود دارد؟

  • مثال‌های واضح و نماینده انتخاب کنید.
  • فرمتینگ سازگار حفظ کنید.
  • از ترکیب وظایف مختلف اجتناب کنید.
  • به محدودیت توکن توجه کنید.

جمع بندی

هدایت مدل‌های زبانی بزرگ با پرامپت چندشاتی نیاز به مجموعه کوچکی از مثال‌های خوب طراحی‌شده دارد تا نتایج عملی و کارآمد به دست آید. این روش تنظیم دقیق را غیرضروری می‌کند اما مدل‌ها را قادر به عملکرد بالا می‌سازد.

پرامپت چندشاتی در موقعیت‌هایی که داده محدود است یا نیاز به انتقال سریع بین وظایف وجود دارد، ارزشمند است.

بهترین شیوه‌ها مانند استفاده از دستورالعمل‌های واضح، حفظ فرمتینگ سازگار و رعایت محدودیت‌های توکن، اثربخشی را به حداکثر می‌رسانند. API OpenAI و LangChain پرامپت چندشاتی را آسان برای پیاده‌سازی و مقیاس‌پذیری می‌کنند.

نسخه‌های آینده LLMها نیازمند تسلط توسعه‌دهندگان بر این تکنیک برای ساخت راه‌حل‌های AI قابل اعتماد و آگاه از زمینه خواهند بود.

به اشتراک بگذارید

برچسب‌ها: