Text Models (LLM)minimax

معرفی و مستندات مدل هوش مصنوعی text-01

مستندات مدل text-01 از ای آی کار (AI-KAR)

معرفی و بررسی فنی

⚡ وضعیت پشتیبانی از زبان فارسی

این مدل از زبان فارسی به صورت متوسط پشتیبانی می‌کند.

مدل text-01 یک مدل زبانی قدرتمند است که توسط MiniMax AI توسعه داده شده و برای انجام وظایفی که نیازمند پردازش گسترده متن و قابلیت‌های استدلالی هستند، طراحی شده است. این مدل با مجموع 456 میلیارد پارامتر، که 45.9 میلیارد آن در هر توکن فعال می‌شوند، از یک معماری ترکیبی استفاده می‌کند که مکانیسم‌های توجه مختلف را برای بهینه‌سازی عملکرد در طیف گسترده‌ای از برنامه‌ها ترکیب می‌کند. این مدل قادر است متن را درک کرده، به سوالات پاسخ دهد، خلاصه‌سازی انجام دهد، ترجمه کند و محتوای جدید تولید کند. همچنین، این مدل می‌تواند در تولید کد، تحلیل احساسات، و شناسایی موجودیت‌های نام‌گذاری شده نیز به کار رود. مدل text-01 با بهره‌گیری از تکنیک‌های پیشرفته یادگیری عمیق، قادر است الگوهای پیچیده در داده‌ها را شناسایی کرده و پاسخ‌های دقیق و مرتبطی ارائه دهد. این مدل به طور خاص برای کاربردهایی که نیاز به درک عمیق متن و تولید پاسخ‌های با کیفیت بالا دارند، مناسب است. از جمله این کاربردها می‌توان به چت‌بات‌ها، سیستم‌های پاسخگویی خودکار، و ابزارهای تولید محتوا اشاره کرد. مدل text-01 به طور مداوم در حال بهبود است و با استفاده از داده‌های جدید و تکنیک‌های نوین، عملکرد آن به مرور زمان ارتقا می‌یابد. این مدل به عنوان یک ابزار قدرتمند در اختیار توسعه‌دهندگان و محققان قرار دارد تا بتوانند برنامه‌های هوشمندتر و کارآمدتری را ایجاد کنند. ای آی کار (AI-KAR) مفتخر است که این مدل پیشرفته را به جامعه فارسی‌زبان ارائه می‌دهد و امیدوار است که بتواند نقش موثری در توسعه هوش مصنوعی در ایران ایفا کند. این مدل با پشتیبانی از زبان فارسی، امکان پردازش و تولید محتوای فارسی را فراهم می‌کند و به کاربران این امکان را می‌دهد تا از قابلیت‌های هوش مصنوعی در زبان مادری خود بهره‌مند شوند. برای استفاده از این مدل، کافی است یک حساب کاربری در وب‌سایت ای آی کار ایجاد کرده و کلید API خود را دریافت کنید. سپس می‌توانید با استفاده از کد نمونه‌های ارائه شده، درخواست‌های خود را به مدل ارسال کرده و پاسخ‌های مورد نظر را دریافت کنید.

مشخصات فنی (API References)

پارامترنوعتوضیحات و مقادیر
model
stringRequired
نام مدلی که می‌خواهید استفاده کنید.
مقادیر مجاز (کلیک برای کپی):
messages
one of[]Required
لیستی از پیام‌ها که مکالمه را تا به اینجا تشکیل می‌دهند. بسته به مدلی که استفاده می‌کنید، انواع مختلف پیام (modalities) مانند متن، اسناد (txt, pdf)، تصاویر و صدا پشتیبانی می‌شوند.
max_tokens
number
حداکثر تعداد توکن‌هایی که می‌توانند در تکمیل چت تولید شوند. این مقدار می‌تواند برای کنترل هزینه‌های متن تولید شده از طریق API استفاده شود.
stream
boolean
اگر روی True تنظیم شود، داده‌های پاسخ مدل به صورت جریانی (stream) به کلاینت ارسال می‌شوند، به این صورت که با استفاده از رویدادهای ارسال شده از سرور (server-sent events) تولید می‌شوند.
stream_options
object
تنظیمات مربوط به جریان داده (streaming).
tools
object[]
لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی می‌شوند. از این برای ارائه لیستی از توابعی استفاده کنید که مدل ممکن است ورودی‌های JSON را برای آنها تولید کند. حداکثر 128 تابع پشتیبانی می‌شود.
tool_choice
any of
کنترل می‌کند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمی‌کند و در عوض یک پیام تولید می‌کند. auto به این معنی است که مدل می‌تواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور می‌کند تا آن ابزار را فراخوانی کند.
مقادیر مجاز (کلیک برای کپی):
parallel_tool_calls
boolean
تعیین اینکه آیا فراخوانی موازی توابع در هنگام استفاده از ابزار فعال شود یا خیر.
temperature
number
از چه دمای نمونه‌برداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفی‌تر می‌کنند، در حالی که مقادیر پایین‌تر مانند 0.2 آن را متمرکزتر و قطعی‌تر می‌کنند. ما معمولاً توصیه می‌کنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را.
top_p
number
جایگزینی برای نمونه‌برداری با دما، به نام نمونه‌برداری هسته‌ای (nucleus sampling)، که در آن مدل نتایج توکن‌ها را با جرم احتمال top_p در نظر می‌گیرد. بنابراین 0.1 به این معنی است که فقط توکن‌هایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته می‌شوند.
prediction
object
پیکربندی برای یک خروجی پیش‌بینی‌شده، که می‌تواند زمان‌های پاسخ را در زمانی که بخش‌های بزرگی از پاسخ مدل از قبل مشخص هستند، تا حد زیادی بهبود بخشد.
presence_penalty
number
مقادیر مثبت، توکن‌های جدید را بر اساس اینکه آیا در متن تا به حال ظاهر شده‌اند یا خیر، جریمه می‌کنند و احتمال صحبت مدل در مورد موضوعات جدید را افزایش می‌دهند.
seed
integer
این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را می‌کند تا به طور قطعی نمونه‌برداری کند، به طوری که درخواست‌های مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند.
response_format
one of
شیئی که فرمتی را مشخص می‌کند که مدل باید خروجی دهد.
mask_sensitive_info
boolean
محتوایی را که شامل اطلاعات خصوصی است (از جمله، اما نه محدود به ایمیل، دامنه، پیوند، شماره شناسایی، آدرس خانه و غیره) را در خروجی ماسک (با *** جایگزین) می‌کند. به طور پیش فرض False است، یعنی ماسک کردن فعال است.

نمونه کدهای درخواست

نکته مهم برای توسعه‌دهندگان:

برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.

import requests
import json  # for getting a structured output with indentation
response = requests.post(
    "https://api.ai-kar.com/v1/chat/completions",
    headers={
        # Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
        "Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
        "Content-Type":"application/json"
    },
    json={
        "model":"MiniMax-Text-01",
        "messages":[
            {
                "role":"user",
                "content":"Hello"  # insert your prompt here, instead of Hello
            }
        ]
    }
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))

نمونه پاسخ موفق (JSON)

RESPONSE (200 OK)
{
  "id": "04a9c0b5acca8b79bf1aba62f288f3b7",
  "object": "chat.completion",
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": "Hello! How are you doing today? I'm here and ready to chat about anything you'd like to discuss or help with any questions you might have."
      }
    }
  ],
  "created": 1750764981,
  "model": "MiniMax-Text-01",
  "usage": {
    "prompt_tokens": 299,
    "completion_tokens": 67,
    "total_tokens": 366
  }
}