Text Models (LLM)alibaba-cloud

معرفی و مستندات مدل هوش مصنوعی qwen-max

مستندات مدل qwen-max از Alibaba Cloud، ارائه شده توسط ای آی کار (AI-KAR)

معرفی و بررسی فنی

⚡ وضعیت پشتیبانی از زبان فارسی

این مدل از زبان فارسی به صورت متوسط پشتیبانی می‌کند. درک و تولید متن فارسی توسط این مدل قابل قبول است، اما ممکن است در برخی موارد نیاز به اصلاح داشته باشد.

مدل qwen-max یک مدل زبانی بزرگ (LLM) مبتنی بر معماری Mixture-of-Experts (MoE) است که توسط Alibaba Cloud توسعه داده شده است. این مدل در درک زبان و انجام وظایف مختلف عملکرد بسیار خوبی دارد. qwen-max از 29 زبان مختلف از جمله چینی، انگلیسی و عربی پشتیبانی می‌کند و برای طیف گسترده‌ای از کاربردها مناسب است. این مدل به طور خاص برای تولید متن، ترجمه زبان، پاسخ به سوالات، خلاصه سازی متون و تولید کد طراحی شده است. معماری MoE به qwen-max اجازه می‌دهد تا با استفاده از ترکیب چندین مدل متخصص، به دقت و کارایی بالاتری در پردازش زبان دست یابد. این مدل قادر است حجم زیادی از داده‌ها را پردازش کند و پاسخ‌های دقیق و مرتبطی را در زمان کوتاهی ارائه دهد. qwen-max برای استفاده در برنامه‌های مختلفی مانند چت‌بات‌ها، دستیارهای مجازی، سیستم‌های ترجمه ماشینی و ابزارهای تولید محتوا مناسب است. این مدل با ارائه APIهای ساده و قابل دسترس، به توسعه‌دهندگان امکان می‌دهد تا به راحتی از قابلیت‌های آن در برنامه‌های خود استفاده کنند. همچنین، qwen-max به طور مداوم در حال بهبود و توسعه است تا بتواند نیازهای کاربران را در زمینه‌های مختلف برآورده کند. با استفاده از qwen-max، کاربران می‌توانند به طور قابل توجهی بهره‌وری خود را افزایش داده و به نتایج بهتری در پروژه‌های خود دست یابند. این مدل با ارائه قابلیت‌های پیشرفته و پشتیبانی از زبان‌های مختلف، یک ابزار قدرتمند برای پردازش زبان طبیعی است. ای آی کار (AI-KAR) این مدل را به عنوان یکی از بهترین گزینه‌ها برای توسعه برنامه‌های هوش مصنوعی پیشنهاد می‌کند. این مدل با قابلیت‌های گسترده و عملکرد قوی، می‌تواند به شما در دستیابی به اهدافتان کمک کند.

مشخصات فنی (API References)

پارامترنوعتوضیحات و مقادیر
model
stringRequired
مدل مورد استفاده برای تکمیل چت. مقادیر ممکن: `alibaba/qwen-max`، `qwen-max`، `qwen-max-2025-01-25`
مقادیر مجاز (کلیک برای کپی):
messages
one of[]Required
لیستی از پیام‌ها که مکالمه را تا کنون تشکیل می‌دهند. بسته به مدلی که استفاده می‌کنید، انواع مختلف پیام ( modalities ) مانند متن، اسناد (txt، pdf)، تصاویر و صدا پشتیبانی می‌شوند.
max_tokens
number
حداکثر تعداد توکن‌هایی که می‌توان در تکمیل چت تولید کرد. این مقدار می‌تواند برای کنترل هزینه‌های متن تولید شده از طریق API استفاده شود.
stream
boolean
اگر روی True تنظیم شود، داده‌های پاسخ مدل به صورت جریانی (stream) به کلاینت ارسال می‌شوند، زیرا با استفاده از رویدادهای ارسال شده از سرور (server-sent events) تولید می‌شود.
stream_options
object
تنظیمات مربوط به استریم کردن.
tools
object[]
لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی می‌شوند. از این برای ارائه لیستی از توابعی استفاده کنید که مدل ممکن است ورودی‌های JSON را برای آنها تولید کند. حداکثر 128 تابع پشتیبانی می‌شود.
tool_choice
any of
کنترل می‌کند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. `none` به این معنی است که مدل هیچ ابزاری را فراخوانی نمی‌کند و در عوض یک پیام تولید می‌کند. `auto` به این معنی است که مدل می‌تواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. `required` به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق `{"type": "function", "function": {"name": "my_function"}}` مدل را مجبور می‌کند تا آن ابزار را فراخوانی کند. `none` مقدار پیش‌فرض است وقتی هیچ ابزاری وجود نداشته باشد. `auto` مقدار پیش‌فرض است اگر ابزارها وجود داشته باشند.
مقادیر مجاز (کلیک برای کپی):
parallel_tool_calls
boolean
اینکه آیا فراخوانی موازی تابع در طول استفاده از ابزار فعال شود یا خیر.
temperature
number
از چه دمای نمونه‌برداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفی‌تر می‌کنند، در حالی که مقادیر پایین‌تر مانند 0.2 آن را متمرکزتر و قطعی‌تر می‌کنند. ما به طور کلی توصیه می‌کنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را.
top_p
number
جایگزینی برای نمونه‌برداری با دما، به نام نمونه‌برداری هسته‌ای (nucleus sampling)، که در آن مدل نتایج توکن‌ها را با جرم احتمال top_p در نظر می‌گیرد. بنابراین 0.1 به این معنی است که فقط توکن‌هایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته می‌شوند. ما به طور کلی توصیه می‌کنیم این مقدار یا دما را تغییر دهید، اما نه هر دو را.
stop
any of
حداکثر 4 دنباله که API تولید توکن‌های بیشتر را متوقف می‌کند. متن بازگشتی شامل دنباله توقف نخواهد بود.
frequency_penalty
number
عدد بین -2.0 و 2.0. مقادیر مثبت، توکن‌های جدید را بر اساس فراوانی موجود آنها در متن تا کنون جریمه می‌کنند، و احتمال تکرار عین به عین همان خط توسط مدل را کاهش می‌دهند.
prediction
object
پیکربندی برای یک خروجی پیش‌بینی‌شده، که می‌تواند زمان پاسخ را تا حد زیادی بهبود بخشد زمانی که بخش‌های بزرگی از پاسخ مدل از قبل مشخص باشند.
presence_penalty
number
مقادیر مثبت، توکن‌های جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شده‌اند یا خیر جریمه می‌کنند، و احتمال صحبت کردن مدل در مورد موضوعات جدید را افزایش می‌دهند.
seed
integer
این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را می‌کند تا به طور قطعی نمونه‌برداری کند، به طوری که درخواست‌های مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند.
response_format
one of
شیئی که فرمتی را مشخص می‌کند که مدل باید خروجی دهد.
logprobs
boolean
اینکه آیا احتمال ورود به سیستم توکن های خروجی را برگردانیم یا نه. اگر درست است، احتمال ورود به سیستم هر توکن خروجی را که در محتوای پیام برگردانده شده است، برمی گرداند.
top_logprobs
number
یک عدد صحیح بین 0 و 20 که تعداد محتمل ترین توکن ها را برای بازگشت در هر موقعیت توکن مشخص می کند، هر کدام با یک احتمال ورود به سیستم مرتبط. اگر این پارامتر استفاده شود، logprobs باید روی True تنظیم شود.

نمونه کدهای درخواست

نکته مهم برای توسعه‌دهندگان:

برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.

import requests
import json  # for getting a structured output with indentation
response = requests.post(
    "https://api.ai-kar.com/v1/chat/completions",
    headers={
        # Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
        "Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
        "Content-Type":"application/json"
    },
    json={
        "model":"qwen-max",
        "messages":[
            {
                "role":"user",
                "content":"Hello"  # insert your prompt here, instead of Hello
            }
        ]
    }
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))

نمونه پاسخ موفق (JSON)

RESPONSE (200 OK)
{
  "id": "chatcmpl-62aa6045-cee9-995a-bbf5-e3b7e7f3d683",
  "system_fingerprint": null,
  "object": "chat.completion",
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "logprobs": null,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I assist you today? 😊"
      }
    }
  ],
  "created": 1756983980,
  "model": "qwen-max",
  "usage": {
    "prompt_tokens": 30,
    "completion_tokens": 148,
    "total_tokens": 178,
    "prompt_tokens_details": {
      "cached_tokens": 0
    }
  }
}