Text Models (LLM)cohere
معرفی و مستندات مدل هوش مصنوعی command-a
مستندات مدل command-a از cohere، ارائه شده توسط ای آی کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند. برای دریافت بهترین نتیجه، توصیه میشود از دستورالعملهای واضح و مختصر استفاده کنید.
مدل command-a از cohere یک مدل زبانی بزرگ (LLM) قدرتمند با قابلیتهای پیشرفته برای کاربردهای سازمانی است. این مدل برای انجام وظایف مختلفی مانند تولید متن، خلاصه سازی، پاسخ به سوالات، و گفتگو طراحی شده است. command-a با درک عمیق از زبان و دانش گسترده، میتواند پاسخهای دقیق، مرتبط و خلاقانه ارائه دهد. این مدل به ویژه برای کسب و کارها و سازمانهایی که به دنبال اتوماسیون فرآیندهای مبتنی بر متن، بهبود تجربه مشتری و افزایش بهرهوری هستند، مناسب است. command-a میتواند در زمینههای مختلفی مانند پشتیبانی مشتری، بازاریابی، تحقیق و توسعه، و آموزش مورد استفاده قرار گیرد. این مدل با استفاده از تکنیکهای پیشرفته یادگیری عمیق آموزش داده شده است و قادر است الگوهای پیچیده در دادههای زبانی را شناسایی و از آنها برای تولید متن با کیفیت بالا استفاده کند. command-a همچنین از قابلیت تنظیم دقیق برخوردار است، به این معنی که میتوان آن را برای وظایف خاص و نیازهای منحصر به فرد هر سازمان سفارشی سازی کرد. این مدل از طریق یک API ساده و قدرتمند قابل دسترسی است و به راحتی میتوان آن را در برنامهها و سیستمهای موجود ادغام کرد. ای آی کار (AI-KAR) با ارائه این مستندات جامع، به شما کمک میکند تا به طور کامل با قابلیتها و امکانات مدل command-a آشنا شوید و از آن به بهترین نحو در سازمان خود استفاده کنید. این مستندات شامل اطلاعاتی در مورد نحوه استفاده از API، پارامترهای مختلف مدل، و نمونههای کد است. با استفاده از command-a، میتوانید فرآیندهای کسب و کار خود را بهبود بخشید، تجربه مشتری را ارتقا دهید، و نوآوری را تسریع کنید. این مدل یک ابزار قدرتمند است که میتواند به شما در دستیابی به اهداف سازمانی خود کمک کند. همچنین، تیم پشتیبانی ای آی کار (AI-KAR) آماده پاسخگویی به سوالات شما و ارائه راهنماییهای لازم در زمینه استفاده از command-a است. ما متعهد به ارائه بهترین خدمات و پشتیبانی به مشتریان خود هستیم.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | مدل مورد استفاده. مقدار پیشفرض: cohere/command-a مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا کنون تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلف پیام (modalities) مانند متن، اسناد (txt، pdf)، تصاویر و صدا پشتیبانی میشوند. |
max_completion_tokens | integer | حد بالایی برای تعداد توکنهایی که میتوان برای یک تکمیل تولید کرد، از جمله توکنهای خروجی قابل مشاهده و توکنهای استدلال. حداقل مقدار: 1 |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینههای متن تولید شده از طریق API استفاده شود. حداقل مقدار: 1 |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل به صورت جریانی با استفاده از رویدادهای ارسال شده توسط سرور به کلاینت ارسال میشوند. مقدار پیشفرض: false |
stream_options | object | تنظیمات مربوط به جریان داده. |
temperature | number | از چه دمای نمونهبرداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 آن را متمرکزتر و قطعیتر میکنند. ما معمولاً توصیه میکنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که 10٪ جرم احتمال برتر را تشکیل میدهند در نظر گرفته میشوند. ما معمولاً توصیه میکنیم این مقدار یا دما را تغییر دهید، اما نه هر دو را. حداقل مقدار: 0.01، حداکثر مقدار: 1 |
seed | integer | این ویژگی در حالت بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را میکند تا به طور قطعی نمونهبرداری کند، به طوری که درخواستهای مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند. حداقل مقدار: 1 |
frequency_penalty | number | nullable | عددی بین -2.0 و 2.0. مقادیر مثبت، توکنهای جدید را بر اساس فراوانی موجود آنها در متن تا کنون جریمه میکنند و احتمال تکرار عین به عین همان خط توسط مدل را کاهش میدهند. |
prediction | object | پیکربندی برای یک خروجی پیشبینیشده، که میتواند زمان پاسخ را در صورت مشخص بودن بخشهای بزرگی از پاسخ مدل از قبل، تا حد زیادی بهبود بخشد. |
presence_penalty | number | nullable | مقادیر مثبت، توکنهای جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شدهاند جریمه میکنند و احتمال صحبت کردن مدل در مورد موضوعات جدید را افزایش میدهند. |
stop | any of | حداکثر 4 دنباله که API تولید توکنهای بیشتر را متوقف میکند. متن برگشتی شامل دنباله توقف نخواهد بود. |
response_format | one of | یک شیء که فرمتی را مشخص میکند که مدل باید خروجی دهد. |
min_p | number | عددی بین 0.001 و 0.999 که میتواند به عنوان جایگزینی برای top_p و top_k استفاده شود. |
top_k | number | فقط از K گزینه برتر برای هر توکن بعدی نمونهبرداری کنید. برای حذف پاسخهای کم احتمال "دنباله بلند" استفاده میشود. فقط برای موارد استفاده پیشرفته توصیه میشود. معمولاً فقط باید از دما استفاده کنید. |
repetition_penalty | number | nullable | عددی که تنوع متن تولید شده را با کاهش احتمال تکرار دنبالههای تکراری کنترل میکند. مقادیر بالاتر تکرار را کاهش میدهند. |
top_a | number | پارامتر نمونهبرداری برتر جایگزین. حداکثر مقدار: 1 |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"cohere/command-a",
"messages":[
{
"role":"user",
"content":"Hello" # insert your prompt here, instead of Hello
}
],
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "gen-1752165706-Nd1dXa1kuCCoOIpp5oxy",
"object": "chat.completion",
"choices": [
{
"index": 0,
"finish_reason": "stop",
"logprobs": null,
"message": {
"role": "assistant",
"content": "Hello! How can I assist you today?",
"reasoning_content": null,
"refusal": null
}
}
],
"created": 1752165706,
"model": "cohere/command-a",
"usage": {
"prompt_tokens": 5,
"completion_tokens": 189,
"total_tokens": 194
}
}