Text Models (LLM)alibaba-cloud
معرفی و مستندات مدل هوش مصنوعی qwen3-next-80b-a3b-thinking
مستندات مدل qwen3-next-80b-a3b-thinking ارائه شده توسط ای ای کار (AI-KAR).
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند.
مدل qwen3-next-80b-a3b-thinking یک مدل زبان بزرگ (LLM) پیشرفته است که توسط Alibaba Cloud توسعه داده شده است. این مدل برای انجام وظایف پیچیده استدلال طراحی شده و میتواند در زمینههای مختلفی مانند پاسخ به سوالات، تولید متن، ترجمه زبان و خلاصهسازی متن مورد استفاده قرار گیرد. این مدل به طور خاص برای وظایفی که نیاز به استدلال عمیق دارند، توصیه میشود و ممکن است زمان بیشتری برای تولید محتوای استدلالی نسبت به مدلهای قبلی نیاز داشته باشد. این مدل با استفاده از معماری ترانسفورمر آموزش داده شده و دارای 80 میلیارد پارامتر است که آن را قادر میسازد تا الگوهای پیچیده را در دادهها یاد بگیرد و متنهای منسجم و مرتبط تولید کند. این مدل میتواند متن را به زبانهای مختلف تولید کند و همچنین میتواند متن را از یک زبان به زبان دیگر ترجمه کند. این مدل میتواند خلاصههای دقیقی از متون طولانی تولید کند و همچنین میتواند به سوالات پیچیده پاسخ دهد. این مدل میتواند برای تولید محتوای خلاقانه مانند شعر، داستان و فیلمنامه مورد استفاده قرار گیرد. این مدل میتواند برای تولید کد کامپیوتری به زبانهای مختلف برنامهنویسی مورد استفاده قرار گیرد. این مدل میتواند برای تولید پاسخهای شخصیسازی شده به سوالات کاربران مورد استفاده قرار گیرد. این مدل میتواند برای تولید محتوای آموزشی و یادگیری مورد استفاده قرار گیرد. برای استفاده از این مدل، ابتدا باید یک حساب کاربری در وبسایت ای آی کار (AI-KAR) ایجاد کنید و یک کلید API تولید کنید. سپس میتوانید از طریق API به مدل دسترسی پیدا کنید و درخواستهای خود را ارسال کنید. پارامترهای مختلفی برای کنترل رفتار مدل وجود دارد که میتوانید آنها را تنظیم کنید تا نتایج بهتری به دست آورید. این مدل یک ابزار قدرتمند برای انجام وظایف مختلف پردازش زبان طبیعی است و میتواند به شما در حل مشکلات پیچیده کمک کند. تیم ای ای کار (AI-KAR) این مدل را به شما پیشنهاد می کند.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | مدل مورد استفاده برای تولید پاسخ. مقدار این پارامتر باید 'alibaba/qwen3-next-80b-a3b-thinking' باشد. مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا به اینجا تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلف پیامها (modalities) مانند متن، اسناد (txt, pdf)، تصاویر و صدا پشتیبانی میشوند. |
max_completion_tokens | integer | حد بالایی برای تعداد توکنهایی که میتوان برای تکمیل تولید کرد، از جمله توکنهای خروجی قابل مشاهده و توکنهای استدلال. |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینههای متن تولید شده از طریق API استفاده شود. |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل با استفاده از رویدادهای ارسال شده توسط سرور به صورت جریانی به کلاینت ارسال میشوند. |
stream_options | object | تنظیمات مربوط به جریان داده. |
tools | object[] | لیستی از ابزارهایی که مدل میتواند فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی میشوند. از این برای ارائه لیستی از توابعی که مدل ممکن است ورودیهای JSON را برای آنها تولید کند، استفاده کنید. حداکثر 128 تابع پشتیبانی میشود. |
tool_choice | any of | کنترل میکند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمیکند و در عوض یک پیام تولید میکند. auto به این معنی است که مدل میتواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور میکند که آن ابزار را فراخوانی کند. مقادیر مجاز (کلیک برای کپی): |
parallel_tool_calls | boolean | اینکه آیا فراخوانی تابع موازی در طول استفاده از ابزار فعال شود یا خیر. |
temperature | number | از چه دمای نمونهبرداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 آن را متمرکزتر و قطعیتر میکنند. ما به طور کلی توصیه میکنیم این یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته میشوند. |
stop | any of | حداکثر 4 دنباله که API تولید توکنهای بیشتر را متوقف میکند. متن بازگشتی شامل دنباله توقف نخواهد بود. |
frequency_penalty | number | عددی بین -2.0 و 2.0. مقادیر مثبت، توکنهای جدید را بر اساس فراوانی موجود آنها در متن تا کنون جریمه میکنند، و احتمال تکرار همان خط را به صورت عینی کاهش میدهند. |
prediction | object | پیکربندی برای یک خروجی پیشبینیشده، که میتواند زمان پاسخ را در زمانی که بخشهای بزرگی از پاسخ مدل از قبل مشخص هستند، تا حد زیادی بهبود بخشد. |
presence_penalty | number | مقادیر مثبت، توکنهای جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شدهاند یا خیر، جریمه میکنند، و احتمال صحبت در مورد موضوعات جدید را افزایش میدهند. |
seed | integer | این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را میکند تا به طور قطعی نمونهبرداری کند، به طوری که درخواستهای مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند. |
response_format | one of | شیئی که فرمتی را مشخص میکند که مدل باید خروجی دهد. |
repetition_penalty | number | عددی که تنوع متن تولید شده را با کاهش احتمال تکرار توالی ها کنترل می کند. مقادیر بالاتر تکرار را کاهش می دهند. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"alibaba/qwen3-next-80b-a3b-thinking",
"messages":[
{
"role":"user",
"content":"Hello" # insert your prompt here, instead of Hello
}
],
"enable_thinking": False
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "text",
"object": "text",
"created": 1,
"choices": [
{
"index": 1,
"message": {
"role": "text",
"content": "text",
"refusal": null,
"annotations": [
{
"type": "text",
"url_citation": {
"end_index": 1,
"start_index": 1,
"title": "text",
"url": "text"
}
}
],
"audio": {
"id": "text",
"data": "text",
"transcript": "text",
"expires_at": 1
},
"tool_calls": [
{
"id": "text",
"type": "text",
"function": {
"arguments": "text",
"name": "text"
}
}
]
},
"finish_reason": "stop",
"logprobs": {
"content": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text",
"top_logprobs": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text"
}
]
}
],
"refusal": []
}
}
],
"model": "text",
"usage": {
"prompt_tokens": 1,
"completion_tokens": 1,
"total_tokens": 1,
"completion_tokens_details": {
"accepted_prediction_tokens": 1,
"audio_tokens": 1,
"reasoning_tokens": 1,
"rejected_prediction_tokens": 1
},
"prompt_tokens_details": {
"audio_tokens": 1,
"cached_tokens": 1
}
}
}