Text Models (LLM)alibaba-cloud

معرفی و مستندات مدل هوش مصنوعی qwen3-32b

مستندات مدل qwen3-32b ارائه شده توسط Alibaba Cloud، به همراه راهنمای استفاده از طریق ای آی کار (AI-KAR).

معرفی و بررسی فنی

⚡ وضعیت پشتیبانی از زبان فارسی

این مدل از زبان فارسی به صورت متوسط پشتیبانی می‌کند و برای دریافت نتایج بهتر، استفاده از دستورات واضح و ساده توصیه می‌شود.

مدل qwen3-32b یک مدل زبان بزرگ (LLM) است که توسط Alibaba Cloud توسعه داده شده است. این مدل با هدف ارائه کیفیت قابل مقایسه با DeepSeek R1 و عملکرد بهتر از GPT-4.1 و Claude Sonnet 3.7 طراحی شده است. qwen3-32b برای استدلال پیچیده و گفتگوی کارآمد بهینه شده است. این مدل می‌تواند در طیف گسترده‌ای از وظایف پردازش زبان طبیعی (NLP) مانند تولید متن، ترجمه زبان، خلاصه‌سازی متن، پاسخ به سوالات و تولید کد مورد استفاده قرار گیرد.

برای استفاده از این مدل از طریق API، ابتدا باید یک حساب کاربری در وب‌سایت ای آی کار (AI-KAR) ایجاد کنید و یک کلید API تولید کنید. سپس، می‌توانید از قطعه کد ارائه شده در این مستندات در زبان برنامه‌نویسی مورد نظر خود استفاده کنید و کلید API خود را جایگزین کنید. همچنین می‌توانید سوال یا درخواست خود را در قسمت content وارد کنید. پارامترهای اختیاری دیگری نیز وجود دارند که می‌توانید برای تنظیم رفتار مدل از آن‌ها استفاده کنید.

مدل qwen3-32b از معماری ترانسفورمر استفاده می‌کند و با استفاده از مجموعه داده‌های عظیمی از متن و کد آموزش داده شده است. این مدل دارای 32 میلیارد پارامتر است که به آن امکان می‌دهد تا الگوهای پیچیده را در داده‌ها یاد بگیرد و متن با کیفیت بالا تولید کند. qwen3-32b یک مدل چند زبانه است و از زبان‌های مختلفی از جمله انگلیسی، چینی و سایر زبان‌ها پشتیبانی می‌کند.

این مدل برای استفاده در برنامه‌های مختلف از جمله چت‌بات‌ها، دستیارهای مجازی، سیستم‌های پاسخ به سوالات و ابزارهای تولید محتوا مناسب است. با استفاده از qwen3-32b، می‌توانید برنامه‌های هوش مصنوعی قدرتمندی ایجاد کنید که قادر به درک و تولید زبان طبیعی هستند. این مدل به دلیل توانایی بالا در استدلال و تولید پاسخ‌های دقیق، یک انتخاب عالی برای توسعه‌دهندگانی است که به دنبال یک مدل زبان بزرگ با عملکرد بالا هستند. همچنین، بهینه‌سازی این مدل برای گفتگوی کارآمد، آن را برای استفاده در برنامه‌های تعاملی بسیار مناسب می‌سازد.

مشخصات فنی (API References)

پارامترنوعتوضیحات و مقادیر
model
stringRequired
نام مدلی که می‌خواهید استفاده کنید.
مقادیر مجاز (کلیک برای کپی):
messages
one of[]Required
لیستی از پیام‌ها که مکالمه را تا به اینجا تشکیل می‌دهند. بسته به مدلی که استفاده می‌کنید، انواع مختلف پیام ( modalities ) مانند متن، اسناد ( txt, pdf )، تصاویر و صدا پشتیبانی می‌شوند.
max_completion_tokens
integer
حد بالایی برای تعداد توکن‌هایی که می‌توان برای تکمیل تولید کرد، از جمله توکن‌های خروجی قابل مشاهده و توکن‌های استدلال.
max_tokens
number
حداکثر تعداد توکن‌هایی که می‌توان در تکمیل چت تولید کرد. این مقدار می‌تواند برای کنترل هزینه‌ها برای متن تولید شده از طریق API استفاده شود.
stream
boolean
اگر روی True تنظیم شود، داده‌های پاسخ مدل به صورت جریانی با استفاده از رویدادهای ارسال شده توسط سرور به کلاینت ارسال می‌شوند.
stream_options
object
تنظیمات مربوط به جریان داده.
tools
object[]
لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی می‌شوند. از این برای ارائه لیستی از توابعی که مدل ممکن است ورودی‌های JSON را برای آنها تولید کند، استفاده کنید. حداکثر 128 تابع پشتیبانی می‌شود.
tool_choice
any of
کنترل می‌کند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمی‌کند و در عوض یک پیام تولید می‌کند. auto به این معنی است که مدل می‌تواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور می‌کند تا آن ابزار را فراخوانی کند.
مقادیر مجاز (کلیک برای کپی):
parallel_tool_calls
boolean
اینکه آیا فراخوانی تابع موازی در حین استفاده از ابزار فعال شود یا خیر.
temperature
number
از چه دمای نمونه‌برداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفی‌تر می‌کنند، در حالی که مقادیر پایین‌تر مانند 0.2 آن را متمرکزتر و قطعی‌تر می‌کنند. ما به طور کلی توصیه می‌کنیم این یا top_p را تغییر دهید، اما نه هر دو را.
top_p
number
جایگزینی برای نمونه‌برداری با دما، به نام نمونه‌برداری هسته‌ای، که در آن مدل نتایج توکن‌ها را با جرم احتمال top_p در نظر می‌گیرد. بنابراین 0.1 به این معنی است که فقط توکن‌هایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته می‌شوند.
stop
any of
حداکثر 4 دنباله که API تولید توکن‌های بیشتر را متوقف می‌کند. متن برگشتی شامل دنباله توقف نخواهد بود.
frequency_penalty
number
عددی بین -2.0 و 2.0. مقادیر مثبت، توکن‌های جدید را بر اساس فراوانی موجود آنها در متن تا کنون جریمه می‌کنند، و احتمال تکرار همان خط را به صورت کلمه به کلمه کاهش می‌دهند.
prediction
object
پیکربندی برای خروجی پیش‌بینی‌شده، که می‌تواند زمان پاسخ را در زمانی که بخش‌های بزرگی از پاسخ مدل از قبل مشخص هستند، تا حد زیادی بهبود بخشد.
presence_penalty
number
مقادیر مثبت، توکن‌های جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شده‌اند یا خیر، جریمه می‌کنند، و احتمال صحبت کردن در مورد موضوعات جدید را افزایش می‌دهند.
seed
integer
این ویژگی در بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را می‌کند تا به طور قطعی نمونه‌برداری کند، به طوری که درخواست‌های مکرر با همان seed و پارامترها باید همان نتیجه را برگردانند.
response_format
one of
شیئی که فرمتی را مشخص می‌کند که مدل باید خروجی دهد.
logprobs
boolean
اینکه آیا احتمال ورود به سیستم توکن‌های خروجی را برگردانیم یا خیر. اگر True باشد، احتمال ورود به سیستم هر توکن خروجی برگشتی در محتوای پیام را برمی‌گرداند.
top_logprobs
number
یک عدد صحیح بین 0 و 20 که تعداد محتمل‌ترین توکن‌ها را برای بازگشت در هر موقعیت توکن مشخص می‌کند، که هر کدام دارای احتمال ورود به سیستم مرتبط هستند. اگر این پارامتر استفاده شود، logprobs باید روی True تنظیم شود.
repetition_penalty
number
عددی که تنوع متن تولید شده را با کاهش احتمال دنباله‌های تکراری کنترل می‌کند. مقادیر بالاتر تکرار را کاهش می‌دهند.
enable_thinking
boolean
مشخص می‌کند که آیا از حالت تفکر استفاده شود یا خیر.
thinking_budget
integer
حداکثر طول استدلال، فقط زمانی مؤثر است که enable_thinking روی true تنظیم شده باشد.

نمونه کدهای درخواست

نکته مهم برای توسعه‌دهندگان:

برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.

import requests
import json  # for getting a structured output with indentation
response = requests.post(
    "https://api.ai-kar.com/v1/chat/completions",
    headers={
        # Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
        "Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
        "Content-Type":"application/json"
    },
    json={
        "model":"alibaba/qwen3-32b",
        "messages":[
            {
                "role":"user",
                "content":"Hello"  # insert your prompt here, instead of Hello
            }
        ],
        "enable_thinking": False
    }
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))

نمونه پاسخ موفق (JSON)

RESPONSE (200 OK)
{
  "id": "text",
  "object": "text",
  "created": 1,
  "choices": [
    {
      "index": 1,
      "message": {
        "role": "text",
        "content": "text",
        "refusal": null,
        "annotations": [
          {
            "type": "text",
            "url_citation": {
              "end_index": 1,
              "start_index": 1,
              "title": "text",
              "url": "text"
            }
          }
        ],
        "audio": {
          "id": "text",
          "data": "text",
          "transcript": "text",
          "expires_at": 1
        },
        "tool_calls": [
          {
            "id": "text",
            "type": "text",
            "function": {
              "arguments": "text",
              "name": "text"
            }
          }
        ]
      },
      "finish_reason": "stop",
      "logprobs": {
        "content": [
          {
            "bytes": [
              1
            ],
            "logprob": 1,
            "token": "text",
            "top_logprobs": [
              {
                "bytes": [
                  1
                ],
                "logprob": 1,
                "token": "text"
              }
            ]
          }
        ],
        "refusal": []
      }
    }
  ],
  "model": "text",
  "usage": {
    "prompt_tokens": 1,
    "completion_tokens": 1,
    "total_tokens": 1,
    "completion_tokens_details": {
      "accepted_prediction_tokens": 1,
      "audio_tokens": 1,
      "reasoning_tokens": 1,
      "rejected_prediction_tokens": 1
    },
    "prompt_tokens_details": {
      "audio_tokens": 1,
      "cached_tokens": 1
    }
  }
}