Text Models (LLM)alibaba-cloud
معرفی و مستندات مدل هوش مصنوعی qwen-max
مستندات مدل qwen-max از Alibaba Cloud، ارائه شده توسط ای آی کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند. درک و تولید متن فارسی توسط این مدل قابل قبول است، اما ممکن است در برخی موارد نیاز به اصلاح داشته باشد.
مدل qwen-max یک مدل زبانی بزرگ (LLM) مبتنی بر معماری Mixture-of-Experts (MoE) است که توسط Alibaba Cloud توسعه داده شده است. این مدل در درک زبان و انجام وظایف مختلف عملکرد بسیار خوبی دارد. qwen-max از 29 زبان مختلف از جمله چینی، انگلیسی و عربی پشتیبانی میکند و برای طیف گستردهای از کاربردها مناسب است. این مدل به طور خاص برای تولید متن، ترجمه زبان، پاسخ به سوالات، خلاصه سازی متون و تولید کد طراحی شده است. معماری MoE به qwen-max اجازه میدهد تا با استفاده از ترکیب چندین مدل متخصص، به دقت و کارایی بالاتری در پردازش زبان دست یابد. این مدل قادر است حجم زیادی از دادهها را پردازش کند و پاسخهای دقیق و مرتبطی را در زمان کوتاهی ارائه دهد. qwen-max برای استفاده در برنامههای مختلفی مانند چتباتها، دستیارهای مجازی، سیستمهای ترجمه ماشینی و ابزارهای تولید محتوا مناسب است. این مدل با ارائه APIهای ساده و قابل دسترس، به توسعهدهندگان امکان میدهد تا به راحتی از قابلیتهای آن در برنامههای خود استفاده کنند. همچنین، qwen-max به طور مداوم در حال بهبود و توسعه است تا بتواند نیازهای کاربران را در زمینههای مختلف برآورده کند. با استفاده از qwen-max، کاربران میتوانند به طور قابل توجهی بهرهوری خود را افزایش داده و به نتایج بهتری در پروژههای خود دست یابند. این مدل با ارائه قابلیتهای پیشرفته و پشتیبانی از زبانهای مختلف، یک ابزار قدرتمند برای پردازش زبان طبیعی است. ای آی کار (AI-KAR) این مدل را به عنوان یکی از بهترین گزینهها برای توسعه برنامههای هوش مصنوعی پیشنهاد میکند. این مدل با قابلیتهای گسترده و عملکرد قوی، میتواند به شما در دستیابی به اهدافتان کمک کند.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | مدل مورد استفاده برای تکمیل چت. مقادیر ممکن: `alibaba/qwen-max`، `qwen-max`، `qwen-max-2025-01-25` مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا کنون تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلف پیام ( modalities ) مانند متن، اسناد (txt، pdf)، تصاویر و صدا پشتیبانی میشوند. |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینههای متن تولید شده از طریق API استفاده شود. |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل به صورت جریانی (stream) به کلاینت ارسال میشوند، زیرا با استفاده از رویدادهای ارسال شده از سرور (server-sent events) تولید میشود. |
stream_options | object | تنظیمات مربوط به استریم کردن. |
tools | object[] | لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی میشوند. از این برای ارائه لیستی از توابعی استفاده کنید که مدل ممکن است ورودیهای JSON را برای آنها تولید کند. حداکثر 128 تابع پشتیبانی میشود. |
tool_choice | any of | کنترل میکند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. `none` به این معنی است که مدل هیچ ابزاری را فراخوانی نمیکند و در عوض یک پیام تولید میکند. `auto` به این معنی است که مدل میتواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. `required` به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق `{"type": "function", "function": {"name": "my_function"}}` مدل را مجبور میکند تا آن ابزار را فراخوانی کند. `none` مقدار پیشفرض است وقتی هیچ ابزاری وجود نداشته باشد. `auto` مقدار پیشفرض است اگر ابزارها وجود داشته باشند. مقادیر مجاز (کلیک برای کپی): |
parallel_tool_calls | boolean | اینکه آیا فراخوانی موازی تابع در طول استفاده از ابزار فعال شود یا خیر. |
temperature | number | از چه دمای نمونهبرداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 آن را متمرکزتر و قطعیتر میکنند. ما به طور کلی توصیه میکنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای (nucleus sampling)، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته میشوند. ما به طور کلی توصیه میکنیم این مقدار یا دما را تغییر دهید، اما نه هر دو را. |
stop | any of | حداکثر 4 دنباله که API تولید توکنهای بیشتر را متوقف میکند. متن بازگشتی شامل دنباله توقف نخواهد بود. |
frequency_penalty | number | عدد بین -2.0 و 2.0. مقادیر مثبت، توکنهای جدید را بر اساس فراوانی موجود آنها در متن تا کنون جریمه میکنند، و احتمال تکرار عین به عین همان خط توسط مدل را کاهش میدهند. |
prediction | object | پیکربندی برای یک خروجی پیشبینیشده، که میتواند زمان پاسخ را تا حد زیادی بهبود بخشد زمانی که بخشهای بزرگی از پاسخ مدل از قبل مشخص باشند. |
presence_penalty | number | مقادیر مثبت، توکنهای جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شدهاند یا خیر جریمه میکنند، و احتمال صحبت کردن مدل در مورد موضوعات جدید را افزایش میدهند. |
seed | integer | این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را میکند تا به طور قطعی نمونهبرداری کند، به طوری که درخواستهای مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند. |
response_format | one of | شیئی که فرمتی را مشخص میکند که مدل باید خروجی دهد. |
logprobs | boolean | اینکه آیا احتمال ورود به سیستم توکن های خروجی را برگردانیم یا نه. اگر درست است، احتمال ورود به سیستم هر توکن خروجی را که در محتوای پیام برگردانده شده است، برمی گرداند. |
top_logprobs | number | یک عدد صحیح بین 0 و 20 که تعداد محتمل ترین توکن ها را برای بازگشت در هر موقعیت توکن مشخص می کند، هر کدام با یک احتمال ورود به سیستم مرتبط. اگر این پارامتر استفاده شود، logprobs باید روی True تنظیم شود. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"qwen-max",
"messages":[
{
"role":"user",
"content":"Hello" # insert your prompt here, instead of Hello
}
]
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "chatcmpl-62aa6045-cee9-995a-bbf5-e3b7e7f3d683",
"system_fingerprint": null,
"object": "chat.completion",
"choices": [
{
"index": 0,
"finish_reason": "stop",
"logprobs": null,
"message": {
"role": "assistant",
"content": "Hello! How can I assist you today? 😊"
}
}
],
"created": 1756983980,
"model": "qwen-max",
"usage": {
"prompt_tokens": 30,
"completion_tokens": 148,
"total_tokens": 178,
"prompt_tokens_details": {
"cached_tokens": 0
}
}
}