Qwen: Qwen3 235B A22B Thinking 2507
Qwen3-235B-A22B-Thinking-2507 یک مدل زبانی Mixture-of-Experts (MoE) با وزنهای باز (open-weight) و عملکرد بالا است که برای وظایف پیچیدهی reasoning بهینهسازی شده است. این مدل در هر forward pass تعداد 22 میلیارد پارامتر از مجموع 235 میلیارد پارامتر خود را فعال میکند و بهصورت بومی از context تا 262,144 توکن پشتیبانی میکند. نسخهی "thinking-only" آن توانایی استدلال منطقی ساختاریافته، ریاضیات، علوم و تولید متون بلند را بهبود میبخشد و در بنچمارکهایی مانند AIME، SuperGPQA، LiveCodeBench و MMLU-Redux عملکرد قدرتمندی نشان میدهد.این مدل یک حالت استدلال ویژه (</think>) را اعمال میکند و برای خروجیهای پرتوکن (تا 81,920 توکن) در حوزههای چالشبرانگیز طراحی شده است. Qwen3-235B-A22B-Thinking-2507 که بهصورت instruction-tuned آموزش داده شده، در استدلال گامبهگام، استفاده از ابزارها، agentic workflows و وظایف چندزبانه توانمند است. این نسخه پیشرفتهترین مدل open-source در سری Qwen3-235B به شمار میآید و در زمینهی structured reasoning از بسیاری از مدلهای بسته نیز عملکرد بهتری دارد.

دسترسی API، ساختهشده برای برنامهنویسها
مشخصات اصلی مدل هوش مصنوعی
نام مدل | qwen/qwen3-235b-a22b-thinking-2507 |
تاریخ ساخت | ۱۴۰۴/۵/۲۶ |
تاریخ آخرین بهروزرسانی دادهها | ۱۴۰۴/۵/۱۰ |
حداکثر ورودی | 262144 |
سرعت مدل | 3.22 / 5 |
Tokenizer | Qwen3 |
Reasoning | فعال |
هزینه ورودی متن | $0.31202496 به ازای هر یک میلیون توکن |
Qwen: Qwen3 235B A22B Thinking 2507
هر ماه مدلهای هوش مصنوعی متنوعی از شرکتهای مختلف ارائه میشود. ثبت نام، راهاندازی و مدیریت اکانتها و مدیریت مالی مدلهای مختلف کار دشواریست. هوش مصنوعی لیارا، مدلهای برتر دنیا را از طریق یک اکانت و یک کلید دسترسی در اختیار شما قرار میدهد.
مانیتورینگ پیشرفته
تعداد درخواستها، توکنهای مصرفی و هزینههای خود را بهتر مدیریت کنید.
توکن رایگان روزانه
با استفاده از توکنهای رایگان، هزینههای هوشمندسازی نرمافزار خود را کاهش دهید.
مدلهای متنوع
ما به سرعت در حال اضافهکردن مدلهای برتر دنیا هستیم. از OpenAI و DeepSeek گرفته تا Grok و Meta.
معماری مدل
ورودیها | text |
خروجی | text |
Structured Outputs | فعال |
Function Calling | فعال |
Tuning | غیرفعال |
Streaming | فعال |
پارامترهای قابل تنظیم | frequency_penaltyinclude_reasoninglogit_biaslogprobsmax_tokensmin_ppresence_penaltyreasoningrepetition_penaltyresponse_formatseedstoptemperaturetool_choicetoolstop_ktop_logprobstop_p |
ما سعی میکنیم قابلیتهایی که بهطور مشترک در اکثر مدلها وجود دارد را در قالب OpenAI API پیادهسازی کنیم تا نیازی نباشد برای جابهجایی بین مدلهای مختلف، کدهای خود را تغییر دهید.