Text Models (LLM)openai
معرفی و مستندات مدل هوش مصنوعی gpt-5-1-codex
مستندات مدل gpt-5-1-codex ارائه شده توسط ای ای کار (AI-KAR) برای مهندسی نرمافزار و گردشکارهای کدنویسی.
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند. درک دستورات فارسی در حوزه کدنویسی و مهندسی نرمافزار قابل قبول است، اما ممکن است در تولید متون پیچیده فارسی با مشکل مواجه شود.
مدل gpt-5-1-codex یک نسخه تخصصی از GPT 5.1 است که برای مهندسی نرمافزار و گردشکارهای کدنویسی ساخته شده است. این مدل در هر دو حالت تعاملی و اجرای طولانی و مستقل وظایف پیچیده مهندسی عملکرد عالی دارد. این مدل میتواند پروژهها را از ابتدا بسازد، ویژگیها را توسعه دهد، اشکالزدایی کند، بازسازیهای بزرگ را انجام دهد و کدها را بررسی کند. این مدل به طور خاص برای درک و تولید کد بهینهسازی شده است و میتواند در زبانهای برنامهنویسی مختلف کار کند. از جمله قابلیتهای کلیدی این مدل میتوان به موارد زیر اشاره کرد:
- تولید کد از توضیحات زبان طبیعی: شما میتوانید با ارائه توضیحات به زبان طبیعی، از مدل بخواهید کد مورد نظر را تولید کند.
- تکمیل خودکار کد: مدل میتواند کد شما را به صورت خودکار تکمیل کند و پیشنهادهایی برای ادامه کد ارائه دهد.
- اشکالزدایی کد: مدل میتواند به شما در یافتن و رفع اشکالات کد کمک کند.
- بازسازی کد: مدل میتواند کد شما را به صورت خودکار بازسازی کند و آن را خواناتر و کارآمدتر کند.
- تولید مستندات کد: مدل میتواند به صورت خودکار مستندات کد شما را تولید کند.
- تست کد: مدل میتواند به شما در نوشتن تستهای واحد برای کد کمک کند.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | مدلی که برای تولید پاسخ استفاده میشود. مقادیر مجاز (کلیک برای کپی): |
input | any ofRequired | ورودی متن، تصویر یا فایل به مدل، که برای تولید پاسخ استفاده میشود. |
string | string | یک ورودی متنی به مدل، معادل یک ورودی متنی با نقش کاربر. |
object | object | یک ورودی پیام به مدل با نقشی که نشاندهنده سلسله مراتب پیروی از دستورالعمل است. دستورالعملهای داده شده با نقش توسعهدهنده یا سیستم بر دستورالعملهای داده شده با نقش کاربر اولویت دارند. پیامهای با نقش دستیار فرض میشود که توسط مدل در تعاملات قبلی تولید شدهاند. |
include | string · enum[] | مشخص کردن دادههای خروجی اضافی برای گنجاندن در پاسخ مدل. مقادیر پشتیبانی شده در حال حاضر عبارتند از:
- code_interpreter_call.outputs: شامل خروجیهای اجرای کد پایتون در موارد فراخوانی ابزار مفسر کد.
- computer_call_output.output.image_url: شامل URLهای تصویر از خروجی فراخوانی کامپیوتر.
- file_search_call.results: شامل نتایج جستجوی فراخوانی ابزار جستجوی فایل.
- message.output_text.logprobs: شامل logprobs با پیامهای دستیار.
- reasoning.encrypted_content: شامل یک نسخه رمزگذاری شده از توکنهای استدلال در خروجیهای مورد استدلال. این امکان را میدهد که موارد استدلال در مکالمات چند نوبتی هنگام استفاده از API پاسخها به صورت بدون حالت استفاده شوند (مانند زمانی که پارامتر store روی false تنظیم شده است، یا زمانی که یک سازمان در برنامه حفظ صفر داده ثبت نام کرده است). مقادیر مجاز (کلیک برای کپی): |
max_output_tokens | integer | یک حد بالا برای تعداد توکنهایی که میتوان برای یک پاسخ تولید کرد، از جمله توکنهای خروجی قابل مشاهده و توکنهای استدلال. |
previous_response_id | string | شناسه یکتای پاسخ قبلی به مدل. از این برای ایجاد مکالمات چند نوبتی استفاده کنید. |
prompt | object | ارجاع به یک قالب اعلان و متغیرهای آن. |
store | boolean | اینکه آیا پاسخ مدل تولید شده برای بازیابی بعدی از طریق API ذخیره شود یا خیر. مقدار پیشفرض: false |
stream | boolean | اگر روی true تنظیم شود، دادههای پاسخ مدل هنگام تولید با استفاده از رویدادهای ارسال شده توسط سرور به کلاینت ارسال میشوند. مقدار پیشفرض: false |
text | object | گزینههای پیکربندی برای یک پاسخ متنی از مدل. میتواند متن ساده یا دادههای JSON ساختاریافته باشد. |
truncation | string · enum | استراتژی برش برای استفاده در پاسخ مدل.
- auto: اگر زمینه این پاسخ و پاسخهای قبلی از اندازه پنجره زمینه مدل فراتر رود، مدل با حذف موارد ورودی در وسط مکالمه، پاسخ را کوتاه میکند تا در پنجره زمینه قرار گیرد.
- disabled (پیشفرض): اگر پاسخ مدل از اندازه پنجره زمینه برای یک مدل فراتر رود، درخواست با خطای 400 با شکست مواجه میشود. مقادیر مجاز (کلیک برای کپی): |
tools | one of[] | آرایهای از ابزارهایی که مدل ممکن است هنگام تولید پاسخ فراخوانی کند. میتوانید با تنظیم پارامتر tool_choice مشخص کنید که از کدام ابزار استفاده شود. |
tool_choice | any of | نحوه انتخاب ابزار (یا ابزارها) توسط مدل هنگام تولید پاسخ. |
string · enum | string · enum | کنترل میکند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود.
none به این معنی است که مدل هیچ ابزاری را فراخوانی نمیکند و در عوض یک پیام تولید میکند.
auto به این معنی است که مدل میتواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند.
required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. مقادیر مجاز (کلیک برای کپی): |
object | object | نشان میدهد که مدل باید از یک ابزار داخلی برای تولید پاسخ استفاده کند. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/responses",
headers={
"Content-Type":"application/json",
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"openai/gpt-5-1-codex",
"input":"Hello" # Insert your question for the model here, instead of Hello
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"background": null,
"created_at": 1,
"error": {
"code": "text",
"message": "text"
},
"id": "text",
"incomplete_details": {
"reason": "text"
},
"instructions": "text",
"max_output_tokens": 1,
"metadata": {
"ANY_ADDITIONAL_PROPERTY": "anything"
},
"model": "text",
"object": "text",
"output": [
{
"role": null,
"type": null,
"content": null
}
],
"output_text": null,
"parallel_tool_calls": true,
"previous_response_id": null,
"prompt": {
"id": "text",
"variables": {
"ANY_ADDITIONAL_PROPERTY": "anything"
},
"version": null
},
"reasoning": {
"effort": "low",
"summary": "auto"
},
"service_tier": null,
"status": "completed",
"temperature": 1,
"text": {
"format": {
"type": "text"
}
},
"tool_choice": "none",
"tools": [
{
"type": "web_search_preview",
"search_context_size": "low",
"user_location": {
"type": "text",
"city": null,
"country": null,
"region": null,
"timezone": null
}
}
],
"top_p": null,
"truncation": "auto",
"usage": {
"input_tokens": 1,
"input_tokens_details": {
"cached_tokens": 1
},
"output_tokens": 1,
"output_tokens_details": {
"reasoning_tokens": 1
},
"total_tokens": 1
}
}