Text Models (LLM)minimax
معرفی و مستندات مدل هوش مصنوعی text-01
مستندات مدل text-01 از ای آی کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند.
مدل text-01 یک مدل زبانی قدرتمند است که توسط MiniMax AI توسعه داده شده و برای انجام وظایفی که نیازمند پردازش گسترده متن و قابلیتهای استدلالی هستند، طراحی شده است. این مدل با مجموع 456 میلیارد پارامتر، که 45.9 میلیارد آن در هر توکن فعال میشوند، از یک معماری ترکیبی استفاده میکند که مکانیسمهای توجه مختلف را برای بهینهسازی عملکرد در طیف گستردهای از برنامهها ترکیب میکند. این مدل قادر است متن را درک کرده، به سوالات پاسخ دهد، خلاصهسازی انجام دهد، ترجمه کند و محتوای جدید تولید کند. همچنین، این مدل میتواند در تولید کد، تحلیل احساسات، و شناسایی موجودیتهای نامگذاری شده نیز به کار رود. مدل text-01 با بهرهگیری از تکنیکهای پیشرفته یادگیری عمیق، قادر است الگوهای پیچیده در دادهها را شناسایی کرده و پاسخهای دقیق و مرتبطی ارائه دهد. این مدل به طور خاص برای کاربردهایی که نیاز به درک عمیق متن و تولید پاسخهای با کیفیت بالا دارند، مناسب است. از جمله این کاربردها میتوان به چتباتها، سیستمهای پاسخگویی خودکار، و ابزارهای تولید محتوا اشاره کرد. مدل text-01 به طور مداوم در حال بهبود است و با استفاده از دادههای جدید و تکنیکهای نوین، عملکرد آن به مرور زمان ارتقا مییابد. این مدل به عنوان یک ابزار قدرتمند در اختیار توسعهدهندگان و محققان قرار دارد تا بتوانند برنامههای هوشمندتر و کارآمدتری را ایجاد کنند. ای آی کار (AI-KAR) مفتخر است که این مدل پیشرفته را به جامعه فارسیزبان ارائه میدهد و امیدوار است که بتواند نقش موثری در توسعه هوش مصنوعی در ایران ایفا کند. این مدل با پشتیبانی از زبان فارسی، امکان پردازش و تولید محتوای فارسی را فراهم میکند و به کاربران این امکان را میدهد تا از قابلیتهای هوش مصنوعی در زبان مادری خود بهرهمند شوند. برای استفاده از این مدل، کافی است یک حساب کاربری در وبسایت ای آی کار ایجاد کرده و کلید API خود را دریافت کنید. سپس میتوانید با استفاده از کد نمونههای ارائه شده، درخواستهای خود را به مدل ارسال کرده و پاسخهای مورد نظر را دریافت کنید.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | نام مدلی که میخواهید استفاده کنید. مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا به اینجا تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلف پیام (modalities) مانند متن، اسناد (txt, pdf)، تصاویر و صدا پشتیبانی میشوند. |
max_tokens | number | حداکثر تعداد توکنهایی که میتوانند در تکمیل چت تولید شوند. این مقدار میتواند برای کنترل هزینههای متن تولید شده از طریق API استفاده شود. |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل به صورت جریانی (stream) به کلاینت ارسال میشوند، به این صورت که با استفاده از رویدادهای ارسال شده از سرور (server-sent events) تولید میشوند. |
stream_options | object | تنظیمات مربوط به جریان داده (streaming). |
tools | object[] | لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی میشوند. از این برای ارائه لیستی از توابعی استفاده کنید که مدل ممکن است ورودیهای JSON را برای آنها تولید کند. حداکثر 128 تابع پشتیبانی میشود. |
tool_choice | any of | کنترل میکند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمیکند و در عوض یک پیام تولید میکند. auto به این معنی است که مدل میتواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور میکند تا آن ابزار را فراخوانی کند. مقادیر مجاز (کلیک برای کپی): |
parallel_tool_calls | boolean | تعیین اینکه آیا فراخوانی موازی توابع در هنگام استفاده از ابزار فعال شود یا خیر. |
temperature | number | از چه دمای نمونهبرداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 آن را متمرکزتر و قطعیتر میکنند. ما معمولاً توصیه میکنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای (nucleus sampling)، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته میشوند. |
prediction | object | پیکربندی برای یک خروجی پیشبینیشده، که میتواند زمانهای پاسخ را در زمانی که بخشهای بزرگی از پاسخ مدل از قبل مشخص هستند، تا حد زیادی بهبود بخشد. |
presence_penalty | number | مقادیر مثبت، توکنهای جدید را بر اساس اینکه آیا در متن تا به حال ظاهر شدهاند یا خیر، جریمه میکنند و احتمال صحبت مدل در مورد موضوعات جدید را افزایش میدهند. |
seed | integer | این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را میکند تا به طور قطعی نمونهبرداری کند، به طوری که درخواستهای مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند. |
response_format | one of | شیئی که فرمتی را مشخص میکند که مدل باید خروجی دهد. |
mask_sensitive_info | boolean | محتوایی را که شامل اطلاعات خصوصی است (از جمله، اما نه محدود به ایمیل، دامنه، پیوند، شماره شناسایی، آدرس خانه و غیره) را در خروجی ماسک (با *** جایگزین) میکند. به طور پیش فرض False است، یعنی ماسک کردن فعال است. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"MiniMax-Text-01",
"messages":[
{
"role":"user",
"content":"Hello" # insert your prompt here, instead of Hello
}
]
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "04a9c0b5acca8b79bf1aba62f288f3b7",
"object": "chat.completion",
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Hello! How are you doing today? I'm here and ready to chat about anything you'd like to discuss or help with any questions you might have."
}
}
],
"created": 1750764981,
"model": "MiniMax-Text-01",
"usage": {
"prompt_tokens": 299,
"completion_tokens": 67,
"total_tokens": 366
}
}