Text Models (LLM)minimax
معرفی و مستندات مدل هوش مصنوعی m1
مستندات مدل m1 از ای آی کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند.
مدل m1 از minimax، اولین مدل استدلالی هیبریدی-توجه در مقیاس بزرگ با وزن باز در جهان است. این مدل به منظور ارائه پاسخهای دقیق و مرتبط در طیف گستردهای از وظایف طراحی شده است. مدل m1 با بهرهگیری از معماری پیشرفته خود، قادر به درک و پردازش اطلاعات پیچیده از منابع مختلف است. این مدل میتواند در زمینههای گوناگونی از جمله پاسخ به سوالات، تولید متن، خلاصهسازی، ترجمه و تولید کد به کار رود. یکی از ویژگیهای برجسته این مدل، توانایی آن در استدلال و نتیجهگیری است که به آن امکان میدهد تا پاسخهایی فراتر از بازتولید اطلاعات موجود ارائه دهد. مدل m1 با استفاده از مکانیسمهای توجه، قادر است تا بر روی مهمترین بخشهای ورودی تمرکز کرده و اطلاعات غیرضروری را نادیده بگیرد. این امر باعث افزایش دقت و کارایی مدل در پردازش اطلاعات میشود. همچنین، مدل m1 از یک رویکرد هیبریدی برای ترکیب مزایای روشهای مختلف یادگیری ماشین استفاده میکند. این رویکرد به مدل امکان میدهد تا به طور موثرتری با دادههای مختلف سازگار شده و عملکرد بهتری در وظایف مختلف ارائه دهد. برای استفاده از مدل m1، ابتدا باید یک حساب کاربری در وبسایت ای آی کار (AI-KAR) ایجاد کرده و یک کلید API تولید کنید. سپس، میتوانید با استفاده از کد نمونه ارائه شده در این مستندات، درخواستهای خود را به مدل ارسال کنید. پارامترهای مختلفی برای کنترل رفتار مدل در دسترس هستند که میتوانید با توجه به نیازهای خود آنها را تنظیم کنید. به عنوان مثال، میتوانید با استفاده از پارامتر max_tokens، حداکثر تعداد توکنهای تولید شده توسط مدل را محدود کنید. همچنین، میتوانید با استفاده از پارامتر temperature، میزان تصادفی بودن خروجی مدل را کنترل کنید. مدل m1 به طور مداوم در حال توسعه و بهبود است و ما همواره در تلاش هستیم تا قابلیتهای جدیدی به آن اضافه کنیم.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | مدل مورد استفاده. مقدار باید minimax/m1 باشد. مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا کنون تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلف پیام (modalities) مانند متن، اسناد (txt، pdf)، تصاویر و صدا پشتیبانی میشوند. |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینههای متن تولید شده از طریق API استفاده شود. |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل با استفاده از رویدادهای ارسال شده از سرور به صورت جریانی به کلاینت ارسال میشوند. |
stream_options | object | تنظیمات مربوط به استریم کردن. |
tools | object[] | لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی میشوند. از این برای ارائه لیستی از توابعی استفاده کنید که مدل ممکن است ورودیهای JSON را برای آنها تولید کند. حداکثر 128 تابع پشتیبانی میشود. |
tool_choice | any of | کنترل میکند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمیکند و در عوض یک پیام تولید میکند. auto به این معنی است که مدل میتواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور میکند که آن ابزار را فراخوانی کند. مقادیر مجاز (کلیک برای کپی): |
parallel_tool_calls | boolean | اینکه آیا فراخوانی تابع موازی در طول استفاده از ابزار فعال شود یا خیر. |
temperature | number | دمای نمونهبرداری که باید استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 آن را متمرکزتر و قطعیتر میکنند. ما به طور کلی توصیه میکنیم این یا top_p را تغییر دهید، اما نه هر دو. |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته میشوند. |
prediction | object | پیکربندی برای یک خروجی پیشبینیشده، که میتواند زمان پاسخ را در زمانی که بخشهای بزرگی از پاسخ مدل از قبل مشخص هستند، تا حد زیادی بهبود بخشد. |
presence_penalty | number | مقادیر مثبت، توکنهای جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شدهاند یا خیر، جریمه میکنند و احتمال صحبت مدل در مورد موضوعات جدید را افزایش میدهند. |
seed | integer | این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را میکند تا به طور قطعی نمونهبرداری کند، به طوری که درخواستهای مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند. |
response_format | one of | یک شیء که فرمتی را مشخص میکند که مدل باید خروجی دهد. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"minimax/m1",
"messages":[
{
"role":"user",
"content":"Hello" # insert your prompt here, instead of Hello
}
]
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "04a9be008b12ad5eec78791d8aebe36f",
"object": "chat.completion",
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Hello! How can I assist you today?"
}
}
],
"created": 1750764288,
"model": "MiniMax-M1",
"usage": {
"prompt_tokens": 389,
"completion_tokens": 910,
"total_tokens": 1299
}
}