Text Models (LLM)openai
معرفی و مستندات مدل هوش مصنوعی gpt-5-1
مستندات مدل gpt-5-1 ارائه شده توسط ای آی کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند. درک و تولید متن فارسی توسط این مدل امکانپذیر است، اما ممکن است در برخی موارد با خطاها و نارساییهایی همراه باشد.
مدل gpt-5-1 از OpenAI یک مدل پیشرفته هوش مصنوعی است که برای انجام طیف گستردهای از وظایف طراحی شده است. این مدل به ویژه در زمینه کدنویسی و گردشکارهای مبتنی بر عامل (agentic workflows) قدرتمند است و امکان پیکربندی حالتهای استدلال و غیر استدلال را فراهم میکند. gpt-5-1 قادر است متن را درک و تولید کند، به سوالات پاسخ دهد، ترجمه زبان انجام دهد، خلاصهسازی متن انجام دهد و کد تولید کند. این مدل میتواند در زمینههای مختلفی از جمله توسعه نرمافزار، خدمات مشتری، تولید محتوا و تحقیقات علمی مورد استفاده قرار گیرد.
یکی از ویژگیهای برجسته gpt-5-1، توانایی آن در انجام استدلال است. این مدل میتواند مسائل پیچیده را تجزیه و تحلیل کرده و راهحلهای منطقی ارائه دهد. این قابلیت به ویژه در کاربردهایی که نیاز به تصمیمگیریهای پیچیده و حل مسئله دارند، بسیار ارزشمند است. علاوه بر این، gpt-5-1 از حالتهای غیر استدلالی نیز پشتیبانی میکند که امکان پردازش سریعتر و کارآمدتر اطلاعات را فراهم میکند.
در زمینه کدنویسی، gpt-5-1 میتواند به توسعهدهندگان در تولید کد، اشکالزدایی و بهینهسازی کد کمک کند. این مدل قادر است به زبانهای برنامهنویسی مختلف کد تولید کند و میتواند به عنوان یک ابزار قدرتمند برای افزایش بهرهوری توسعهدهندگان مورد استفاده قرار گیرد.
همچنین، gpt-5-1 میتواند در گردشکارهای مبتنی بر عامل (agentic workflows) نقش مهمی ایفا کند. این مدل میتواند به عنوان یک عامل هوشمند عمل کرده و وظایف مختلفی را به طور خودکار انجام دهد. به عنوان مثال، میتواند ایمیلها را پاسخ دهد، قرار ملاقاتها را برنامهریزی کند و اطلاعات را از منابع مختلف جمعآوری کند.
برای استفاده از gpt-5-1، کاربران میتوانند از طریق API ارائه شده توسط AI-KAR به این مدل دسترسی پیدا کنند. API امکان ارسال درخواستها به مدل و دریافت پاسخها را فراهم میکند. کاربران میتوانند پارامترهای مختلفی را برای کنترل رفتار مدل تنظیم کنند، از جمله دمای نمونهبرداری (sampling temperature) و حداکثر تعداد توکنها (maximum number of tokens).
در مجموع، gpt-5-1 یک مدل هوش مصنوعی قدرتمند و انعطافپذیر است که میتواند در طیف گستردهای از کاربردها مورد استفاده قرار گیرد. تواناییهای استدلال، کدنویسی و پشتیبانی از گردشکارهای مبتنی بر عامل، این مدل را به یک ابزار ارزشمند برای توسعهدهندگان، محققان و کسبوکارها تبدیل کرده است. با استفاده از API ارائه شده توسط AI-KAR، کاربران میتوانند به راحتی از این مدل بهرهمند شوند و از قابلیتهای آن در پروژههای خود استفاده کنند.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | مدل مورد استفاده برای تکمیل چت. مقدار باید 'openai/gpt-5-1' باشد. مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا کنون تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلف پیام ( modalities ) مانند متن، اسناد ( txt, pdf )، تصاویر و صدا پشتیبانی میشوند. |
max_completion_tokens | integer | حد بالایی برای تعداد توکنهایی که میتوان برای یک تکمیل تولید کرد، از جمله توکنهای خروجی قابل مشاهده و توکنهای استدلال. حداقل مقدار: 1 |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینههای متن تولید شده از طریق API استفاده شود. حداقل مقدار: 1 |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل به صورت جریانی با استفاده از رویدادهای ارسال شده توسط سرور (server-sent events) به کلاینت ارسال میشود. مقدار پیشفرض: false |
stream_options | object | تنظیمات مربوط به جریان داده. |
tools | object[] | لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی میشوند. از این برای ارائه لیستی از توابعی استفاده کنید که مدل ممکن است ورودیهای JSON را برای آنها تولید کند. حداکثر 128 تابع پشتیبانی میشود. |
tool_choice | any of | کنترل میکند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمیکند و در عوض یک پیام تولید میکند. auto به این معنی است که مدل میتواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور میکند تا آن ابزار را فراخوانی کند. none مقدار پیشفرض زمانی است که هیچ ابزاری وجود نداشته باشد. auto مقدار پیشفرض در صورت وجود ابزار است. مقادیر مجاز (کلیک برای کپی): |
parallel_tool_calls | boolean | تعیین اینکه آیا فراخوانی موازی تابع در حین استفاده از ابزار فعال شود یا خیر. |
temperature | number | از چه دمای نمونهبرداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 خروجی را متمرکزتر و قطعیتر میکنند. ما به طور کلی توصیه میکنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای (nucleus sampling)، جایی که مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته میشوند. ما به طور کلی توصیه میکنیم این مقدار یا temperature را تغییر دهید، اما نه هر دو را. |
n | integer | چند انتخاب تکمیل چت برای هر پیام ورودی تولید شود. توجه داشته باشید که هزینه شما بر اساس تعداد توکنهای تولید شده در تمام انتخابها محاسبه میشود. n را به عنوان 1 نگه دارید تا هزینهها را به حداقل برسانید. |
logprobs | boolean | آیا احتمال ورود به سیستم از توکنهای خروجی را برگردانیم یا خیر. اگر درست باشد، احتمال ورود به سیستم هر توکن خروجی که در محتوای پیام برگردانده شده است را برمیگرداند. |
top_logprobs | number | یک عدد صحیح بین 0 و 20 که تعداد محتملترین توکنها را برای بازگشت در هر موقعیت توکن مشخص میکند، هر کدام با احتمال ورود به سیستم مرتبط هستند. اگر از این پارامتر استفاده شود، logprobs باید روی True تنظیم شود. |
seed | integer | این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را برای نمونهبرداری قطعی انجام میدهد، به طوری که درخواستهای مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند. |
reasoning_effort | string | تلاش برای استدلال برای مدل های استدلال را محدود می کند. مقادیر پشتیبانی شده در حال حاضر عبارتند از کم، متوسط و زیاد. کاهش تلاش استدلال می تواند منجر به پاسخ های سریعتر و توکن های کمتری شود که در استدلال در پاسخ استفاده می شود. مقادیر مجاز (کلیک برای کپی): |
response_format | one of | شیئی که قالبی را مشخص می کند که مدل باید خروجی دهد. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json
url = 'https://api.ai-kar.com/v1/chat/completions'
headers = {
'Authorization': 'Bearer <YOUR_AI-KARAPI_KEY>',
'Content-Type': 'application/json'
}
data = {
'model': 'openai/gpt-5-1',
'messages': [
{
'role': 'user',
'content': 'Hello'
}
]
}
response = requests.post(url, headers=headers, data=json.dumps(data))
print(response.json())نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "text",
"object": "text",
"created": 1,
"choices": [
{
"index": 1,
"message": {
"role": "text",
"content": "text",
"refusal": null,
"annotations": [
{
"type": "text",
"url_citation": {
"end_index": 1,
"start_index": 1,
"title": "text",
"url": "text"
}
}
],
"audio": {
"id": "text",
"data": "text",
"transcript": "text",
"expires_at": 1
},
"tool_calls": [
{
"id": "text",
"type": "text",
"function": {
"arguments": "text",
"name": "text"
}
}
]
},
"finish_reason": "stop",
"logprobs": {
"content": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text",
"top_logprobs": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text"
}
]
}
],
"refusal": []
}
}
],
"model": "text",
"usage": {
"prompt_tokens": 1,
"completion_tokens": 1,
"total_tokens": 1,
"completion_tokens_details": {
"accepted_prediction_tokens": 1,
"audio_tokens": 1,
"reasoning_tokens": 1,
"rejected_prediction_tokens": 1
},
"prompt_tokens_details": {
"audio_tokens": 1,
"cached_tokens": 1
}
}
}