Text Models (LLM)alibaba-cloud
معرفی و مستندات مدل هوش مصنوعی qwen3-235b-a22b
مستندات مدل qwen3-235b-a22b ارائه شده توسط ای ای کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند و برای دریافت نتایج بهتر، استفاده از دستورالعملهای دقیق و واضح توصیه میشود.
مدل qwen3-235b-a22b یک مدل هوش مصنوعی ترکیبی است که برای انجام وظایف مختلفی از جمله درک و تولید متن، پاسخ به سوالات، تولید محتوا، ترجمه زبان، و استدلال طراحی شده است. این مدل توسط Alibaba Cloud توسعه یافته و به عنوان یک مدل بزرگ زبانی (LLM) با قابلیتهای پیشرفته شناخته میشود. این مدل قادر است با دریافت دستورالعملها و سوالات، پاسخهای دقیق و مرتبطی را ارائه دهد. یکی از ویژگیهای برجسته این مدل، توانایی آن در انجام استدلالهای پیچیده است که آن را برای حل مسائل و ارائه راهکارهای منطقی مناسب میسازد. این مدل میتواند در زمینههای مختلفی از جمله خدمات مشتری، تولید محتوای خلاقانه، تحلیل دادهها، و آموزش مورد استفاده قرار گیرد. با توجه به حجم بالای پارامترها و معماری پیچیده، qwen3-235b-a22b قادر است الگوهای زبانی را به خوبی درک کرده و متونی با کیفیت بالا تولید کند. این مدل از طریق API قابل دسترسی است و توسعهدهندگان میتوانند از آن در برنامههای خود استفاده کنند. برای استفاده از این مدل، ابتدا باید یک حساب کاربری در پلتفرم ای آی کار (AI-KAR) ایجاد کرده و یک کلید API دریافت کنید. سپس میتوانید با استفاده از کد نمونه ارائه شده، درخواستهای خود را به مدل ارسال کنید. این مدل از پارامترهای مختلفی برای کنترل رفتار خود پشتیبانی میکند که در بخش API Schema به تفصیل توضیح داده شدهاند. با تنظیم این پارامترها، میتوانید خروجی مدل را بهینه کرده و نتایج دلخواه خود را بدست آورید. مدل qwen3-235b-a22b به عنوان یک ابزار قدرتمند در اختیار توسعهدهندگان و محققان قرار دارد تا بتوانند از آن در پروژههای مختلف هوش مصنوعی بهره ببرند. این مدل با ارائه قابلیتهای متنوع و عملکرد بالا، میتواند به بهبود کارایی و دقت در بسیاری از کاربردها کمک کند. همچنین، این مدل به طور مداوم در حال توسعه و بهبود است تا بتواند نیازهای روزافزون کاربران را برآورده سازد. استفاده از این مدل نیازمند درک کافی از پارامترها و تنظیمات آن است تا بتوان بهترین نتیجه را از آن گرفت.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | مدل مورد استفاده برای تولید پاسخ. مقدار این پارامتر باید 'Qwen/Qwen3-235B-A22B-fp8-tput' باشد. مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا به اینجا تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلفی از پیامها (modalities) مانند متن، اسناد (txt, pdf)، تصاویر و صدا پشتیبانی میشوند. |
max_completion_tokens | integer | حد بالایی برای تعداد توکنهایی که میتوان برای تکمیل تولید کرد، از جمله توکنهای خروجی قابل مشاهده و توکنهای استدلال. حداقل مقدار: 1 |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینههای متن تولید شده از طریق API استفاده شود. حداقل مقدار: 1 |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل به صورت جریانی با استفاده از رویدادهای ارسال شده توسط سرور به کلاینت ارسال میشوند. مقدار پیشفرض: false |
stream_options | object | تنظیمات مربوط به جریان داده. |
tools | object[] | لیستی از ابزارهایی که مدل میتواند فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی میشوند. از این برای ارائه لیستی از توابعی استفاده کنید که مدل میتواند ورودیهای JSON را برای آنها تولید کند. حداکثر 128 تابع پشتیبانی میشود. |
tool_choice | any of | کنترل میکند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمیکند و به جای آن یک پیام تولید میکند. auto به این معنی است که مدل میتواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور میکند که آن ابزار را فراخوانی کند. none مقدار پیشفرض زمانی است که هیچ ابزاری وجود ندارد. auto مقدار پیشفرض در صورت وجود ابزار است. مقادیر مجاز (کلیک برای کپی): |
parallel_tool_calls | boolean | تعیین اینکه آیا فراخوانی موازی تابع در حین استفاده از ابزار فعال شود یا خیر. |
response_format | one of | یک شیء که فرمتی را مشخص میکند که مدل باید خروجی دهد. |
temperature | number | چه دمای نمونهبرداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 آن را متمرکزتر و قطعیتر میکنند. ما عموماً توصیه میکنیم این یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته میشوند. ما عموماً توصیه میکنیم این یا دما را تغییر دهید، اما نه هر دو را. حداقل مقدار: 0.01، حداکثر مقدار: 1 |
n | integer | چند انتخاب تکمیل چت برای هر پیام ورودی تولید شود. توجه داشته باشید که هزینه شما بر اساس تعداد توکنهای تولید شده در تمام انتخابها محاسبه میشود. n را به عنوان 1 نگه دارید تا هزینهها به حداقل برسد. |
stop | any of | حداکثر 4 دنباله که API تولید توکنهای بیشتر را متوقف میکند. متن بازگشتی شامل دنباله توقف نخواهد بود. |
logprobs | boolean | اینکه آیا احتمال ورود به سیستم توکن های خروجی را برگردانیم یا نه. اگر درست باشد، احتمال ورود به سیستم هر توکن خروجی را که در محتوای پیام برگردانده شده است، برمی گرداند. |
top_logprobs | number | یک عدد صحیح بین 0 و 20 که تعداد توکن های احتمالی را برای بازگشت در هر موقعیت توکن، هر کدام با یک احتمال ورود به سیستم مرتبط، مشخص می کند. اگر از این پارامتر استفاده شود، logprobs باید روی True تنظیم شود. |
logit_bias | object | احتمال ظاهر شدن توکن های مشخص شده در تکمیل را تغییر دهید. یک شی JSON را می پذیرد که توکن ها (مشخص شده توسط شناسه توکن آنها در توکنایزر) را به یک مقدار بایاس مرتبط از -100 تا 100 نگاشت می کند. از نظر ریاضی، بایاس به logits تولید شده توسط مدل قبل از نمونه برداری اضافه می شود. اثر دقیق برای هر مدل متفاوت خواهد بود، اما مقادیر بین -1 و 1 باید احتمال انتخاب را کاهش یا افزایش دهد. مقادیری مانند -100 یا 100 باید منجر به ممنوعیت یا انتخاب انحصاری توکن مربوطه شود. |
frequency_penalty | number | عدد بین -2.0 و 2.0. مقادیر مثبت، توکنهای جدید را بر اساس فراوانی موجودشان در متن تا کنون جریمه میکنند، و احتمال تکرار عین به عین همان خط را کاهش میدهند. |
prediction | object | پیکربندی برای یک خروجی پیش بینی شده، که می تواند زمان پاسخ را تا حد زیادی بهبود بخشد زمانی که بخش های بزرگی از پاسخ مدل از قبل شناخته شده باشد. |
presence_penalty | number | مقادیر مثبت، توکنهای جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شدهاند یا خیر، جریمه میکنند، و احتمال صحبت کردن مدل در مورد موضوعات جدید را افزایش میدهند. |
seed | integer | این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را می کند تا به طور قطعی نمونه برداری کند، به طوری که درخواست های مکرر با همان دانه و پارامترها باید همان نتیجه را برگردانند. حداقل مقدار: 1 |
min_p | number | عددی بین 0.001 و 0.999 که می تواند به عنوان جایگزینی برای top_p و top_k استفاده شود. |
top_k | number | فقط از K گزینه برتر برای هر توکن بعدی نمونه برداری کنید. برای حذف پاسخ های کم احتمال "دم بلند" استفاده می شود. فقط برای موارد استفاده پیشرفته توصیه می شود. معمولاً فقط باید از دما استفاده کنید. |
repetition_penalty | number | عددی که تنوع متن تولید شده را با کاهش احتمال توالی های تکراری کنترل می کند. مقادیر بالاتر تکرار را کاهش می دهند. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"Qwen/Qwen3-235B-A22B-fp8-tput",
"messages":[
{
"role":"user",
"content":"Hello" # insert your prompt here, instead of Hello
}
]
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "text",
"object": "text",
"created": 1,
"choices": [
{
"index": 1,
"message": {
"role": "text",
"content": "text",
"refusal": null,
"annotations": [
{
"type": "text",
"url_citation": {
"end_index": 1,
"start_index": 1,
"title": "text",
"url": "text"
}
}
],
"audio": {
"id": "text",
"data": "text",
"transcript": "text",
"expires_at": 1
},
"tool_calls": [
{
"id": "text",
"type": "text",
"function": {
"arguments": "text",
"name": "text"
}
}
]
},
"finish_reason": "stop",
"logprobs": {
"content": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text",
"top_logprobs": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text"
}
]
}
],
"refusal": []
}
}
],
"model": "text",
"usage": {
"prompt_tokens": 1,
"completion_tokens": 1,
"total_tokens": 1,
"completion_tokens_details": {
"accepted_prediction_tokens": 1,
"audio_tokens": 1,
"reasoning_tokens": 1,
"rejected_prediction_tokens": 1
},
"prompt_tokens_details": {
"audio_tokens": 1,
"cached_tokens": 1
}
}
}