Text Models (LLM)alibaba-cloud
معرفی و مستندات مدل هوش مصنوعی qwen3-32b
مستندات مدل qwen3-32b ارائه شده توسط Alibaba Cloud، به همراه راهنمای استفاده از طریق ای آی کار (AI-KAR).
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند و برای دریافت نتایج بهتر، استفاده از دستورات واضح و ساده توصیه میشود.
مدل qwen3-32b یک مدل زبان بزرگ (LLM) است که توسط Alibaba Cloud توسعه داده شده است. این مدل با هدف ارائه کیفیت قابل مقایسه با DeepSeek R1 و عملکرد بهتر از GPT-4.1 و Claude Sonnet 3.7 طراحی شده است. qwen3-32b برای استدلال پیچیده و گفتگوی کارآمد بهینه شده است. این مدل میتواند در طیف گستردهای از وظایف پردازش زبان طبیعی (NLP) مانند تولید متن، ترجمه زبان، خلاصهسازی متن، پاسخ به سوالات و تولید کد مورد استفاده قرار گیرد.
برای استفاده از این مدل از طریق API، ابتدا باید یک حساب کاربری در وبسایت ای آی کار (AI-KAR) ایجاد کنید و یک کلید API تولید کنید. سپس، میتوانید از قطعه کد ارائه شده در این مستندات در زبان برنامهنویسی مورد نظر خود استفاده کنید و کلید API خود را جایگزین کنید. همچنین میتوانید سوال یا درخواست خود را در قسمت content وارد کنید. پارامترهای اختیاری دیگری نیز وجود دارند که میتوانید برای تنظیم رفتار مدل از آنها استفاده کنید.
مدل qwen3-32b از معماری ترانسفورمر استفاده میکند و با استفاده از مجموعه دادههای عظیمی از متن و کد آموزش داده شده است. این مدل دارای 32 میلیارد پارامتر است که به آن امکان میدهد تا الگوهای پیچیده را در دادهها یاد بگیرد و متن با کیفیت بالا تولید کند. qwen3-32b یک مدل چند زبانه است و از زبانهای مختلفی از جمله انگلیسی، چینی و سایر زبانها پشتیبانی میکند.
این مدل برای استفاده در برنامههای مختلف از جمله چتباتها، دستیارهای مجازی، سیستمهای پاسخ به سوالات و ابزارهای تولید محتوا مناسب است. با استفاده از qwen3-32b، میتوانید برنامههای هوش مصنوعی قدرتمندی ایجاد کنید که قادر به درک و تولید زبان طبیعی هستند. این مدل به دلیل توانایی بالا در استدلال و تولید پاسخهای دقیق، یک انتخاب عالی برای توسعهدهندگانی است که به دنبال یک مدل زبان بزرگ با عملکرد بالا هستند. همچنین، بهینهسازی این مدل برای گفتگوی کارآمد، آن را برای استفاده در برنامههای تعاملی بسیار مناسب میسازد.
برای استفاده از این مدل از طریق API، ابتدا باید یک حساب کاربری در وبسایت ای آی کار (AI-KAR) ایجاد کنید و یک کلید API تولید کنید. سپس، میتوانید از قطعه کد ارائه شده در این مستندات در زبان برنامهنویسی مورد نظر خود استفاده کنید و کلید API خود را جایگزین کنید. همچنین میتوانید سوال یا درخواست خود را در قسمت content وارد کنید. پارامترهای اختیاری دیگری نیز وجود دارند که میتوانید برای تنظیم رفتار مدل از آنها استفاده کنید.
مدل qwen3-32b از معماری ترانسفورمر استفاده میکند و با استفاده از مجموعه دادههای عظیمی از متن و کد آموزش داده شده است. این مدل دارای 32 میلیارد پارامتر است که به آن امکان میدهد تا الگوهای پیچیده را در دادهها یاد بگیرد و متن با کیفیت بالا تولید کند. qwen3-32b یک مدل چند زبانه است و از زبانهای مختلفی از جمله انگلیسی، چینی و سایر زبانها پشتیبانی میکند.
این مدل برای استفاده در برنامههای مختلف از جمله چتباتها، دستیارهای مجازی، سیستمهای پاسخ به سوالات و ابزارهای تولید محتوا مناسب است. با استفاده از qwen3-32b، میتوانید برنامههای هوش مصنوعی قدرتمندی ایجاد کنید که قادر به درک و تولید زبان طبیعی هستند. این مدل به دلیل توانایی بالا در استدلال و تولید پاسخهای دقیق، یک انتخاب عالی برای توسعهدهندگانی است که به دنبال یک مدل زبان بزرگ با عملکرد بالا هستند. همچنین، بهینهسازی این مدل برای گفتگوی کارآمد، آن را برای استفاده در برنامههای تعاملی بسیار مناسب میسازد.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | نام مدلی که میخواهید استفاده کنید. مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا به اینجا تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلف پیام ( modalities ) مانند متن، اسناد ( txt, pdf )، تصاویر و صدا پشتیبانی میشوند. |
max_completion_tokens | integer | حد بالایی برای تعداد توکنهایی که میتوان برای تکمیل تولید کرد، از جمله توکنهای خروجی قابل مشاهده و توکنهای استدلال. |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینهها برای متن تولید شده از طریق API استفاده شود. |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل به صورت جریانی با استفاده از رویدادهای ارسال شده توسط سرور به کلاینت ارسال میشوند. |
stream_options | object | تنظیمات مربوط به جریان داده. |
tools | object[] | لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی میشوند. از این برای ارائه لیستی از توابعی که مدل ممکن است ورودیهای JSON را برای آنها تولید کند، استفاده کنید. حداکثر 128 تابع پشتیبانی میشود. |
tool_choice | any of | کنترل میکند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمیکند و در عوض یک پیام تولید میکند. auto به این معنی است که مدل میتواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور میکند تا آن ابزار را فراخوانی کند. مقادیر مجاز (کلیک برای کپی): |
parallel_tool_calls | boolean | اینکه آیا فراخوانی تابع موازی در حین استفاده از ابزار فعال شود یا خیر. |
temperature | number | از چه دمای نمونهبرداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 آن را متمرکزتر و قطعیتر میکنند. ما به طور کلی توصیه میکنیم این یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته میشوند. |
stop | any of | حداکثر 4 دنباله که API تولید توکنهای بیشتر را متوقف میکند. متن برگشتی شامل دنباله توقف نخواهد بود. |
frequency_penalty | number | عددی بین -2.0 و 2.0. مقادیر مثبت، توکنهای جدید را بر اساس فراوانی موجود آنها در متن تا کنون جریمه میکنند، و احتمال تکرار همان خط را به صورت کلمه به کلمه کاهش میدهند. |
prediction | object | پیکربندی برای خروجی پیشبینیشده، که میتواند زمان پاسخ را در زمانی که بخشهای بزرگی از پاسخ مدل از قبل مشخص هستند، تا حد زیادی بهبود بخشد. |
presence_penalty | number | مقادیر مثبت، توکنهای جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شدهاند یا خیر، جریمه میکنند، و احتمال صحبت کردن در مورد موضوعات جدید را افزایش میدهند. |
seed | integer | این ویژگی در بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را میکند تا به طور قطعی نمونهبرداری کند، به طوری که درخواستهای مکرر با همان seed و پارامترها باید همان نتیجه را برگردانند. |
response_format | one of | شیئی که فرمتی را مشخص میکند که مدل باید خروجی دهد. |
logprobs | boolean | اینکه آیا احتمال ورود به سیستم توکنهای خروجی را برگردانیم یا خیر. اگر True باشد، احتمال ورود به سیستم هر توکن خروجی برگشتی در محتوای پیام را برمیگرداند. |
top_logprobs | number | یک عدد صحیح بین 0 و 20 که تعداد محتملترین توکنها را برای بازگشت در هر موقعیت توکن مشخص میکند، که هر کدام دارای احتمال ورود به سیستم مرتبط هستند. اگر این پارامتر استفاده شود، logprobs باید روی True تنظیم شود. |
repetition_penalty | number | عددی که تنوع متن تولید شده را با کاهش احتمال دنبالههای تکراری کنترل میکند. مقادیر بالاتر تکرار را کاهش میدهند. |
enable_thinking | boolean | مشخص میکند که آیا از حالت تفکر استفاده شود یا خیر. |
thinking_budget | integer | حداکثر طول استدلال، فقط زمانی مؤثر است که enable_thinking روی true تنظیم شده باشد. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"alibaba/qwen3-32b",
"messages":[
{
"role":"user",
"content":"Hello" # insert your prompt here, instead of Hello
}
],
"enable_thinking": False
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "text",
"object": "text",
"created": 1,
"choices": [
{
"index": 1,
"message": {
"role": "text",
"content": "text",
"refusal": null,
"annotations": [
{
"type": "text",
"url_citation": {
"end_index": 1,
"start_index": 1,
"title": "text",
"url": "text"
}
}
],
"audio": {
"id": "text",
"data": "text",
"transcript": "text",
"expires_at": 1
},
"tool_calls": [
{
"id": "text",
"type": "text",
"function": {
"arguments": "text",
"name": "text"
}
}
]
},
"finish_reason": "stop",
"logprobs": {
"content": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text",
"top_logprobs": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text"
}
]
}
],
"refusal": []
}
}
],
"model": "text",
"usage": {
"prompt_tokens": 1,
"completion_tokens": 1,
"total_tokens": 1,
"completion_tokens_details": {
"accepted_prediction_tokens": 1,
"audio_tokens": 1,
"reasoning_tokens": 1,
"rejected_prediction_tokens": 1
},
"prompt_tokens_details": {
"audio_tokens": 1,
"cached_tokens": 1
}
}
}