Text Models (LLM)xai
معرفی و مستندات مدل هوش مصنوعی grok-code-fast-1
مستندات مدل grok-code-fast-1 ارائه شده توسط ای آی کار (AI-KAR).
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند. برای دریافت بهترین نتیجه، توصیه میشود از دستورالعملهای واضح و مختصر استفاده کنید.
مدل grok-code-fast-1 یک مدل هوش مصنوعی است که برای استدلال سریع و مقرون به صرفه در زمینه کدنویسی طراحی شده است. این مدل با نمایش ردیابی استدلال در خروجی خود، به توسعهدهندگان امکان میدهد تا گردش کار خود را بهبود بخشند. این مدل به ویژه برای استفاده در Agentic Coding مناسب است و میتواند به عنوان یک ابزار قدرتمند برای تولید، تحلیل و بهبود کد مورد استفاده قرار گیرد.
یکی از ویژگیهای برجسته این مدل، قابلیت ارائه استدلال در خروجی است. این ویژگی به توسعهدهندگان کمک میکند تا فرآیند تصمیمگیری مدل را درک کرده و در صورت نیاز، آن را اصلاح کنند. این امر به ویژه در پروژههای پیچیده که نیاز به دقت و شفافیت بالا دارند، بسیار حائز اهمیت است.
برای استفاده از این مدل، ابتدا باید یک حساب کاربری در وبسایت ای آی کار (AI-KAR) ایجاد کنید. پس از ایجاد حساب کاربری، میتوانید یک کلید API تولید کنید. این کلید برای احراز هویت درخواستهای شما به مدل استفاده میشود. پس از دریافت کلید API، میتوانید از نمونه کد ارائه شده در این مستندات برای ارسال درخواست به مدل استفاده کنید. در این درخواست، باید کلید API خود را جایگزین عبارت <YOUR_AI-KARAPI_KEY> کنید و سوال یا درخواست خود را در فیلد content وارد کنید.
علاوه بر پارامترهای اجباری model و messages، میتوانید از پارامترهای اختیاری دیگری نیز برای تنظیم رفتار مدل استفاده کنید. این پارامترها شامل max_completion_tokens، max_tokens، stream، temperature، top_p، seed، top_k، repetition_penalty، top_a، prediction، tools، tool_choice، parallel_tool_calls، logprobs، top_logprobs، reasoning و response_format میشوند. هر یک از این پارامترها، جنبههای مختلفی از رفتار مدل را کنترل میکنند و میتوانند برای بهینهسازی عملکرد مدل در شرایط مختلف مورد استفاده قرار گیرند.
به عنوان مثال، پارامتر temperature برای کنترل تصادفی بودن خروجی مدل استفاده میشود. مقادیر بالاتر این پارامتر، خروجی تصادفیتری تولید میکنند، در حالی که مقادیر پایینتر، خروجی متمرکزتر و قطعیتری ایجاد میکنند. پارامتر top_p نیز یک روش جایگزین برای نمونهبرداری با دما است که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. پارامتر seed نیز برای اطمینان از تکرارپذیری نتایج استفاده میشود. با تعیین یک مقدار ثابت برای این پارامتر، میتوان اطمینان حاصل کرد که درخواستهای مکرر با پارامترهای یکسان، نتایج یکسانی را تولید میکنند.
در نهایت، مدل grok-code-fast-1 یک ابزار قدرتمند برای توسعهدهندگان است که به دنبال راهی سریع و مقرون به صرفه برای تولید، تحلیل و بهبود کد هستند. با استفاده از این مدل، میتوانید فرآیند توسعه نرمافزار خود را تسریع کرده و کیفیت کد خود را بهبود بخشید.
یکی از ویژگیهای برجسته این مدل، قابلیت ارائه استدلال در خروجی است. این ویژگی به توسعهدهندگان کمک میکند تا فرآیند تصمیمگیری مدل را درک کرده و در صورت نیاز، آن را اصلاح کنند. این امر به ویژه در پروژههای پیچیده که نیاز به دقت و شفافیت بالا دارند، بسیار حائز اهمیت است.
برای استفاده از این مدل، ابتدا باید یک حساب کاربری در وبسایت ای آی کار (AI-KAR) ایجاد کنید. پس از ایجاد حساب کاربری، میتوانید یک کلید API تولید کنید. این کلید برای احراز هویت درخواستهای شما به مدل استفاده میشود. پس از دریافت کلید API، میتوانید از نمونه کد ارائه شده در این مستندات برای ارسال درخواست به مدل استفاده کنید. در این درخواست، باید کلید API خود را جایگزین عبارت <YOUR_AI-KARAPI_KEY> کنید و سوال یا درخواست خود را در فیلد content وارد کنید.
علاوه بر پارامترهای اجباری model و messages، میتوانید از پارامترهای اختیاری دیگری نیز برای تنظیم رفتار مدل استفاده کنید. این پارامترها شامل max_completion_tokens، max_tokens، stream، temperature، top_p، seed، top_k، repetition_penalty، top_a، prediction، tools، tool_choice، parallel_tool_calls، logprobs، top_logprobs، reasoning و response_format میشوند. هر یک از این پارامترها، جنبههای مختلفی از رفتار مدل را کنترل میکنند و میتوانند برای بهینهسازی عملکرد مدل در شرایط مختلف مورد استفاده قرار گیرند.
به عنوان مثال، پارامتر temperature برای کنترل تصادفی بودن خروجی مدل استفاده میشود. مقادیر بالاتر این پارامتر، خروجی تصادفیتری تولید میکنند، در حالی که مقادیر پایینتر، خروجی متمرکزتر و قطعیتری ایجاد میکنند. پارامتر top_p نیز یک روش جایگزین برای نمونهبرداری با دما است که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. پارامتر seed نیز برای اطمینان از تکرارپذیری نتایج استفاده میشود. با تعیین یک مقدار ثابت برای این پارامتر، میتوان اطمینان حاصل کرد که درخواستهای مکرر با پارامترهای یکسان، نتایج یکسانی را تولید میکنند.
در نهایت، مدل grok-code-fast-1 یک ابزار قدرتمند برای توسعهدهندگان است که به دنبال راهی سریع و مقرون به صرفه برای تولید، تحلیل و بهبود کد هستند. با استفاده از این مدل، میتوانید فرآیند توسعه نرمافزار خود را تسریع کرده و کیفیت کد خود را بهبود بخشید.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | مدل مورد استفاده برای تولید پاسخ. مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا به اینجا تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلف پیام (modalities) مانند متن، اسناد (txt, pdf)، تصاویر و صدا پشتیبانی میشوند. |
max_completion_tokens | integer | حد بالایی برای تعداد توکنهایی که میتوان برای یک تکمیل تولید کرد، از جمله توکنهای خروجی قابل مشاهده و توکنهای استدلال. |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینههای متن تولید شده از طریق API استفاده شود. |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل با استفاده از رویدادهای ارسال شده توسط سرور به صورت جریانی به کلاینت ارسال میشوند. مقادیر مجاز (کلیک برای کپی): |
stream_options | object | تنظیمات مربوط به جریان داده. |
temperature | number | از چه دمای نمونهبرداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 آن را متمرکزتر و قطعیتر میکنند. ما معمولاً توصیه میکنیم این یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته میشوند. ما معمولاً توصیه میکنیم این یا temperature را تغییر دهید، اما نه هر دو را. |
seed | integer | این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را میکند تا به طور قطعی نمونهبرداری کند، به طوری که درخواستهای مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند. |
top_k | number | فقط از K گزینه برتر برای هر توکن بعدی نمونهبرداری کنید. برای حذف پاسخهای با احتمال پایین "long tail" استفاده میشود. فقط برای موارد استفاده پیشرفته توصیه میشود. معمولاً فقط باید از temperature استفاده کنید. |
repetition_penalty | number | عددی که تنوع متن تولید شده را با کاهش احتمال تکرار توالیها کنترل میکند. مقادیر بالاتر تکرار را کاهش میدهند. |
top_a | number | پارامتر نمونهبرداری برتر جایگزین. |
prediction | object | پیکربندی برای یک خروجی پیشبینیشده، که میتواند زمان پاسخ را در زمانی که بخشهای بزرگی از پاسخ مدل از قبل مشخص هستند، تا حد زیادی بهبود بخشد. |
tools | object[] | لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان یک ابزار پشتیبانی میشوند. از این برای ارائه لیستی از توابعی که مدل ممکن است ورودیهای JSON را برای آنها تولید کند، استفاده کنید. حداکثر 128 تابع پشتیبانی میشود. |
tool_choice | any of | کنترل میکند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمیکند و در عوض یک پیام تولید میکند. auto به این معنی است که مدل میتواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور میکند تا آن ابزار را فراخوانی کند. none مقدار پیشفرض است زمانی که هیچ ابزاری وجود نداشته باشد. auto مقدار پیشفرض است اگر ابزارها وجود داشته باشند. مقادیر مجاز (کلیک برای کپی): |
parallel_tool_calls | boolean | اینکه آیا فراخوانی تابع موازی در طول استفاده از ابزار فعال شود یا خیر. |
logprobs | boolean | اینکه آیا احتمالات لگاریتمی توکنهای خروجی برگردانده شوند یا خیر. اگر True باشد، احتمالات لگاریتمی هر توکن خروجی که در محتوای پیام برگردانده شده است را برمیگرداند. |
top_logprobs | number | یک عدد صحیح بین 0 و 20 که تعداد محتملترین توکنها را برای بازگشت در هر موقعیت توکن مشخص میکند، هر کدام با یک احتمال لگاریتمی مرتبط. اگر این پارامتر استفاده شود، logprobs باید روی True تنظیم شود. |
reasoning | object | پیکربندی برای توکنهای استدلال/تفکر مدل |
response_format | one of | شیئی که فرمتی را مشخص میکند که مدل باید خروجی دهد. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"x-ai/grok-code-fast-1",
"messages":[
{
"role":"user",
"content":"Hello" # insert your prompt here, instead of Hello
}
]
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "1c044ed9-fcf0-4ea2-6d79-820bdcee6280_us-east-1",
"system_fingerprint": "fp_10f00c862d",
"object": "chat.completion",
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Hello! I'm Grok, built by xAI to help with questions and chats. What can I do for you today?",
"refusal": null
}
}
],
"created": 1758231743,
"model": "grok-code-fast-1",
"usage": {
"prompt_tokens": 86,
"completion_tokens": 79,
"total_tokens": 165,
"prompt_tokens_details": {
"text_tokens": 205,
"audio_tokens": 0,
"image_tokens": 0,
"cached_tokens": 192
},
"completion_tokens_details": {
"reasoning_tokens": 214,
"audio_tokens": 0,
"accepted_prediction_tokens": 0,
"rejected_prediction_tokens": 0
},
"num_sources_used": 0
}
}