Text Models (LLM)moonshot
معرفی و مستندات مدل هوش مصنوعی kimi-k2-turbo-preview
مستندات مدل kimi-k2-turbo-preview از moonshot، ارائه شده توسط ای آی کار (AI-KAR).
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند.
مدل kimi-k2-turbo-preview، نسخه پرسرعت مدل Kimi K2 از Moonshot، یک مدل fine-tune شده برای وظایف agentic، کدنویسی و استفاده مکالمهای است. این مدل دارای یک پنجره context تا 256,000 توکن و سرعت تولید بالایی است که آن را برای مدیریت اسناد طولانی و تعاملات real-time ایدهآل میسازد. این مدل به طور خاص برای انجام وظایف پیچیده و نیازمند درک عمیق از context طراحی شده است. قابلیتهای کدنویسی این مدل به توسعهدهندگان کمک میکند تا به سرعت و با دقت بالا کد تولید کنند. همچنین، توانایی مکالمهای آن، امکان ایجاد چتباتها و دستیارهای مجازی پیشرفته را فراهم میکند. با توجه به پنجره context بزرگ، مدل قادر است اطلاعات زیادی را در حافظه خود نگه دارد و پاسخهای دقیقتر و مرتبطتری ارائه دهد. این ویژگی به ویژه در مواردی که نیاز به تحلیل و پردازش اسناد طولانی است، بسیار مفید است. سرعت بالای تولید این مدل نیز به کاربران اجازه میدهد تا در زمان کمتری به نتایج مورد نظر خود دست یابند. این مدل برای کاربردهایی مانند خلاصهسازی اسناد، پاسخ به سوالات پیچیده، تولید کد، و ایجاد چتباتهای هوشمند مناسب است. همچنین، با توجه به قابلیتهای agentic آن، میتوان از آن برای ایجاد سیستمهای خودکار و هوشمند استفاده کرد که قادر به انجام وظایف مختلف بدون نیاز به دخالت انسانی هستند. مدل kimi-k2-turbo-preview با ترکیب سرعت، دقت و قابلیتهای پیشرفته، یک ابزار قدرتمند برای توسعهدهندگان و محققان در زمینههای مختلف هوش مصنوعی است. این مدل میتواند به عنوان یک پایه قوی برای ایجاد برنامههای کاربردی متنوع و نوآورانه مورد استفاده قرار گیرد. به طور خلاصه، kimi-k2-turbo-preview یک مدل هوش مصنوعی پیشرفته است که با ارائه قابلیتهای متنوع و عملکرد بالا، به کاربران کمک میکند تا به اهداف خود در زمینههای مختلف دست یابند. این مدل با داشتن پنجره context بزرگ، سرعت بالا، و قابلیتهای agentic، کدنویسی و مکالمهای، یک انتخاب عالی برای پروژههای هوش مصنوعی پیچیده و نیازمند است.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | مدل مورد استفاده برای تولید پاسخ. مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا به اینجا تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلف پیامها (modalities) مانند متن، اسناد (txt, pdf)، تصاویر و صدا پشتیبانی میشوند. |
max_completion_tokens | integer | حد بالایی برای تعداد توکنهایی که میتوان برای یک تکمیل تولید کرد، شامل توکنهای خروجی قابل مشاهده و توکنهای استدلال. |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینههای متن تولید شده از طریق API استفاده شود. |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل به صورت stream با استفاده از server-sent events به کلاینت ارسال میشود. |
stream_options | object | تنظیمات مربوط به stream. |
tools | object[] | لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی میشوند. از این برای ارائه لیستی از توابعی که مدل ممکن است ورودیهای JSON را برای آنها تولید کند، استفاده کنید. حداکثر 128 تابع پشتیبانی میشود. |
tool_choice | any of | کنترل میکند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمیکند و به جای آن یک پیام تولید میکند. auto به این معنی است که مدل میتواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور میکند که آن ابزار را فراخوانی کند. مقادیر مجاز (کلیک برای کپی): |
parallel_tool_calls | boolean | فعال کردن یا غیرفعال کردن فراخوانی همزمان توابع در هنگام استفاده از ابزار. |
n | integer | nullable | تعداد انتخابهای تکمیل چتی که برای هر پیام ورودی باید تولید شود. توجه داشته باشید که هزینه بر اساس تعداد توکنهای تولید شده در تمام انتخابها محاسبه میشود. مقدار n را روی 1 نگه دارید تا هزینهها را به حداقل برسانید. |
temperature | number | چه دمای نمونهبرداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 آن را متمرکزتر و قطعیتر میکنند. ما معمولاً توصیه میکنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته میشوند. |
stop | any of | حداکثر 4 دنباله که API تولید توکنهای بیشتر را متوقف میکند. متن برگشتی شامل دنباله توقف نخواهد بود. |
frequency_penalty | number | nullable | عدد بین -2.0 و 2.0. مقادیر مثبت، توکنهای جدید را بر اساس فراوانی موجود آنها در متن تا کنون جریمه میکنند، و احتمال تکرار عین به عین همان خط توسط مدل را کاهش میدهند. |
presence_penalty | number | nullable | مقادیر مثبت، توکنهای جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شدهاند جریمه میکنند، و احتمال صحبت کردن مدل در مورد موضوعات جدید را افزایش میدهند. |
response_format | one of | یک شیء که فرمتی را مشخص میکند که مدل باید خروجی دهد. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"moonshot/kimi-k2-turbo-preview",
"messages":[
{
"role":"user",
"content":"Hello" # insert your prompt here, instead of Hello
}
]
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "chatcmpl-690895f53d8b644f83fe679e",
"object": "chat.completion",
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Hi there! How can I help you today?"
}
}
],
"created": 1762170357,
"model": "kimi-k2-turbo-preview",
"usage": {
"prompt_tokens": 10,
"completion_tokens": 231,
"total_tokens": 241
}
}