Text Models (LLM)xai
معرفی و مستندات مدل هوش مصنوعی grok-4-fast-reasoning
مستندات مدل grok-4-fast-reasoning ارائه شده توسط ای آی کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند و برای استفاده بهینه، نیاز به پالایش و تنظیمات خاص دارد.
مدل grok-4-fast-reasoning یک مدل چندوجهی است که توسط xAI توسعه داده شده و هدف آن ارائه کارایی هزینه بهینه و یک پنجره زمینه 2 میلیون توکنی است. این مدل به طور خاص برای استدلال سریع طراحی شده است. این مدل با بهرهگیری از معماری پیشرفته و بهینهسازیهای دقیق، قادر است وظایف پیچیده استدلالی را با سرعت و دقت بالا انجام دهد. یکی از ویژگیهای برجسته این مدل، توانایی پردازش حجم عظیمی از دادهها به لطف پنجره زمینه 2 میلیون توکنی آن است. این امر به مدل اجازه میدهد تا اطلاعات بیشتری را در حافظه خود نگه دارد و در نتیجه، استدلالهای دقیقتر و مرتبطتری ارائه دهد. مدل grok-4-fast-reasoning در زمینههای مختلفی کاربرد دارد، از جمله: حل مسائل ریاضی و منطقی، تحلیل دادهها و الگوها، پاسخ به سوالات پیچیده، تولید متن خلاقانه و استدلال در مورد سناریوهای مختلف. این مدل با ارائه سرعت و دقت بالا، میتواند به عنوان یک ابزار قدرتمند برای محققان، توسعهدهندگان و کسبوکارها مورد استفاده قرار گیرد. ای آی کار (AI-KAR) با ارائه این مستندات، قصد دارد تا کاربران را با قابلیتها و نحوه استفاده از این مدل آشنا کند و امکان بهرهبرداری بهینه از آن را فراهم سازد. این مدل با توجه به توانایی هایش در پردازش زبان فارسی، می تواند در تولید محتوای فارسی، ترجمه و خلاصه سازی متون فارسی و پاسخگویی به سوالات کاربران فارسی زبان مورد استفاده قرار گیرد. همچنین، این مدل می تواند در تحلیل احساسات متون فارسی و شناسایی الگوهای موجود در داده های فارسی نیز به کار گرفته شود. با توجه به اهمیت روزافزون هوش مصنوعی در صنایع مختلف، مدل grok-4-fast-reasoning می تواند به عنوان یک ابزار کلیدی برای بهبود کارایی و نوآوری در سازمان ها مورد استفاده قرار گیرد. ای آی کار (AI-KAR) با ارائه پشتیبانی فنی و آموزشی، به کاربران کمک می کند تا از این مدل به بهترین شکل ممکن بهره ببرند و از مزایای آن در زمینه های مختلف بهره مند شوند. این مدل با قابلیت استدلال سریع و کارآمد، می تواند به عنوان یک راه حل مناسب برای چالش های پیچیده در دنیای امروز مورد استفاده قرار گیرد.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | مدل مورد استفاده. مقدار این پارامتر باید 'x-ai/grok-4-fast-reasoning' باشد. مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا به اینجا تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلف پیام (modalities) مانند متن، اسناد (txt، pdf)، تصاویر و صدا پشتیبانی میشوند. |
max_completion_tokens | integer | حد بالایی برای تعداد توکنهایی که میتوان برای تکمیل تولید کرد، شامل توکنهای خروجی قابل مشاهده و توکنهای استدلال. حداقل مقدار: 1 |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینههای متن تولید شده از طریق API استفاده شود. حداقل مقدار: 1 |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل به صورت جریانی با استفاده از رویدادهای ارسال شده توسط سرور به کلاینت ارسال میشوند. مقدار پیشفرض: false |
stream_options | object | تنظیمات مربوط به جریان داده. |
temperature | number | چه دمای نمونهبرداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 خروجی را متمرکزتر و قطعیتر میکنند. به طور کلی توصیه میکنیم این پارامتر یا top_p را تغییر دهید، اما نه هر دو را. حداکثر مقدار: 2 |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته میشوند. به طور کلی توصیه میکنیم این پارامتر یا temperature را تغییر دهید، اما نه هر دو را. حداقل مقدار: 0.01، حداکثر مقدار: 1 |
seed | integer | این ویژگی در حالت بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را میکند تا به صورت قطعی نمونهبرداری کند، به طوری که درخواستهای مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند. حداقل مقدار: 1 |
top_k | number | فقط از K گزینه برتر برای هر توکن بعدی نمونهبرداری کنید. برای حذف پاسخهای کم احتمال «دنباله طولانی» استفاده میشود. فقط برای موارد استفاده پیشرفته توصیه میشود. معمولاً فقط باید از temperature استفاده کنید. |
repetition_penalty | number | عددی که تنوع متن تولید شده را با کاهش احتمال توالیهای تکراری کنترل میکند. مقادیر بالاتر تکرار را کاهش میدهند. |
top_a | number | پارامتر نمونهبرداری برتر جایگزین. حداکثر مقدار: 1 |
prediction | object | پیکربندی برای یک خروجی پیشبینیشده، که میتواند زمان پاسخ را در زمانی که بخشهای بزرگی از پاسخ مدل از قبل مشخص هستند، بسیار بهبود بخشد. |
tools | object[] | لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی میشوند. از این برای ارائه لیستی از توابعی که مدل ممکن است ورودیهای JSON را برای آنها تولید کند، استفاده کنید. حداکثر 128 تابع پشتیبانی میشود. |
tool_choice | any of | کنترل میکند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمیکند و در عوض یک پیام تولید میکند. auto به این معنی است که مدل میتواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور میکند تا آن ابزار را فراخوانی کند. none مقدار پیشفرض زمانی است که هیچ ابزاری وجود نداشته باشد. auto مقدار پیشفرض در صورت وجود ابزار است. مقادیر مجاز (کلیک برای کپی): |
parallel_tool_calls | boolean | فعال کردن یا غیرفعال کردن فراخوانی موازی توابع در حین استفاده از ابزار. |
logprobs | boolean | اینکه آیا احتمالات لگاریتمی توکن های خروجی برگردانده شوند یا خیر. اگر درست باشد، احتمالات لگاریتمی هر توکن خروجی که در محتوای پیام برگردانده می شود را برمی گرداند. |
top_logprobs | number | یک عدد صحیح بین 0 و 20 که تعداد محتمل ترین توکن ها را برای بازگشت در هر موقعیت توکن مشخص می کند، که هر کدام دارای یک احتمال لگاریتمی مرتبط هستند. اگر این پارامتر استفاده شود، logprobs باید روی True تنظیم شود. |
reasoning | object | پیکربندی برای توکن های استدلال/تفکر مدل |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"x-ai/grok-4-fast-reasoning",
"messages":[
{
"role":"user",
"content":"Hello" # insert your prompt here, instead of Hello
}
]
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "a6994b62-1f63-fb3a-f34f-7e90fa4cac77_us-east-1",
"system_fingerprint": "fp_9362061f30",
"object": "chat.completion",
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Hello! How can I help you today?",
"refusal": null
}
}
],
"created": 1759187139,
"model": "grok-4-fast-reasoning",
"usage": {
"prompt_tokens": 50,
"completion_tokens": 9,
"total_tokens": 59,
"prompt_tokens_details": {
"text_tokens": 118,
"audio_tokens": 0,
"image_tokens": 0,
"cached_tokens": 117
},
"completion_tokens_details": {
"reasoning_tokens": 105,
"audio_tokens": 0,
"accepted_prediction_tokens": 0,
"rejected_prediction_tokens": 0
},
"num_sources_used": 0
}
}