Text Models (LLM)openai
معرفی و مستندات مدل هوش مصنوعی gpt-5-nano
مستندات مدل gpt-5-nano از OpenAI، ارائه شده توسط ای ای کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند. درک نسبی از دستور زبان فارسی دارد اما در تولید متون پیچیده ممکن است دچار مشکل شود.
مدل gpt-5-nano کوچکترین، سریعترین و مقرون به صرفه ترین مدل در مجموعه GPT-5 است. در حالی که این مدل در مقایسه با GPT-5 و GPT-5-mini برای انجام وظایف ریاضی و کدنویسی توانایی کمتری دارد، اما در پاسخگویی به سوالات روزمره عملکرد بسیار خوبی دارد و سرعت پاسخگویی مناسبی را ارائه می دهد. این مدل برای کاربردهایی که نیاز به سرعت بالا و هزینه کم دارند، مانند پاسخگویی به سوالات متداول، خلاصه سازی متون کوتاه، و تولید محتوای ساده، بسیار مناسب است. gpt-5-nano می تواند به عنوان یک ابزار کمکی برای پردازش زبان طبیعی در دستگاه های با منابع محدود مانند تلفن های همراه و دستگاه های اینترنت اشیا (IoT) مورد استفاده قرار گیرد. این مدل با ارائه یک API ساده و قابل دسترس، به توسعه دهندگان امکان می دهد تا به راحتی از قابلیت های آن در برنامه های خود استفاده کنند. برای استفاده از این مدل، ابتدا باید یک حساب کاربری در وب سایت ای آی کار (AI-KAR) ایجاد کنید و یک کلید API تولید کنید. سپس می توانید با استفاده از کد نمونه ارائه شده در این مستندات، درخواست های خود را به مدل ارسال کنید. پارامترهای مختلفی برای تنظیم رفتار مدل در دسترس هستند، از جمله حداکثر تعداد توکن های تولید شده، و سطح تلاش استدلال. با تنظیم این پارامترها می توانید عملکرد مدل را برای نیازهای خاص خود بهینه سازی کنید. مدل gpt-5-nano یک انتخاب عالی برای کاربردهایی است که نیاز به سرعت، کارایی و هزینه کم دارند. این مدل با ارائه یک تعادل مناسب بین عملکرد و منابع، به توسعه دهندگان امکان می دهد تا برنامه های هوشمندانه تری را ایجاد کنند. این مدل برای تولید پاسخ های سریع و مختصر به سوالات کاربران، تولید خلاصه های کوتاه از متون طولانی، و تولید محتوای خلاقانه کوتاه مانند شعر و داستان کوتاه بسیار مناسب است. همچنین، این مدل می تواند برای انجام وظایف ترجمه ماشینی ساده و تشخیص زبان نیز مورد استفاده قرار گیرد. با توجه به اندازه کوچک و سرعت بالای این مدل، می توان از آن در برنامه های کاربردی موبایل و دستگاه های اینترنت اشیا استفاده کرد.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | مدل مورد استفاده برای تولید پاسخ. مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیام ها که مکالمه را تا کنون تشکیل می دهند. بسته به مدلی که استفاده می کنید، انواع مختلف پیام (modalities) مانند متن، اسناد (txt، pdf)، تصاویر و صدا پشتیبانی می شوند. |
max_completion_tokens | integer | حد بالایی برای تعداد توکن هایی که می توانند برای تکمیل تولید شوند، از جمله توکن های خروجی قابل مشاهده و توکن های استدلال. |
max_tokens | number | حداکثر تعداد توکن هایی که می توانند در تکمیل چت تولید شوند. این مقدار می تواند برای کنترل هزینه های متن تولید شده از طریق API استفاده شود. |
stream | boolean | اگر روی True تنظیم شود، داده های پاسخ مدل به صورت جریانی با استفاده از رویدادهای ارسال شده توسط سرور به کلاینت ارسال می شود. |
stream_options | object | تنظیمات مربوط به جریان داده. |
tools | object[] | لیستی از ابزارهایی که مدل می تواند فراخوانی کند. در حال حاضر، فقط توابع به عنوان یک ابزار پشتیبانی می شوند. از این برای ارائه لیستی از توابعی استفاده کنید که مدل ممکن است ورودی های JSON را برای آنها تولید کند. حداکثر 128 تابع پشتیبانی می شود. |
tool_choice | any of | کنترل می کند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمی کند و در عوض یک پیام تولید می کند. auto به این معنی است که مدل می تواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور می کند تا آن ابزار را فراخوانی کند. none مقدار پیش فرض است زمانی که هیچ ابزاری وجود نداشته باشد. auto مقدار پیش فرض است اگر ابزارها وجود داشته باشند. مقادیر مجاز (کلیک برای کپی): |
parallel_tool_calls | boolean | اینکه آیا فراخوانی تابع موازی را در طول استفاده از ابزار فعال کنیم یا خیر. |
n | integer | nullable | چند انتخاب تکمیل چت برای هر پیام ورودی ایجاد شود. توجه داشته باشید که هزینه شما بر اساس تعداد توکن های تولید شده در تمام انتخاب ها محاسبه می شود. n را به عنوان 1 نگه دارید تا هزینه ها را به حداقل برسانید. |
seed | integer | این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را می کند تا به طور قطعی نمونه برداری کند، به طوری که درخواست های مکرر با همان seed و پارامترها باید همان نتیجه را برگردانند. |
reasoning_effort | string | تلاش برای استدلال را برای مدل های استدلال محدود می کند. مقادیر پشتیبانی شده در حال حاضر low، medium و high هستند. کاهش تلاش استدلال می تواند منجر به پاسخ های سریع تر و توکن های کمتری شود که در استدلال در یک پاسخ استفاده می شود. مقادیر مجاز (کلیک برای کپی): |
response_format | one of | شیئی که فرمتی را مشخص می کند که مدل باید خروجی دهد. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json
url = 'https://api.ai-kar.com/v1/chat/completions'
headers = {
'Authorization': 'Bearer <YOUR_AI-KARAPI_KEY>',
'Content-Type': 'application/json'
}
data = {
'model': 'openai/gpt-5-nano-2025-08-07',
'messages': [
{
'role': 'user',
'content': 'Hello'
}
]
}
response = requests.post(url, headers=headers, data=json.dumps(data))
print(response.json())نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "text",
"object": "text",
"created": 1,
"choices": [
{
"index": 1,
"message": {
"role": "text",
"content": "text",
"refusal": null,
"annotations": [
{
"type": "text",
"url_citation": {
"end_index": 1,
"start_index": 1,
"title": "text",
"url": "text"
}
}
],
"audio": {
"id": "text",
"data": "text",
"transcript": "text",
"expires_at": 1
},
"tool_calls": [
{
"id": "text",
"type": "text",
"function": {
"arguments": "text",
"name": "text"
}
}
]
},
"finish_reason": "stop",
"logprobs": {
"content": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text",
"top_logprobs": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text"
}
]
}
],
"refusal": []
}
}
],
"model": "text",
"usage": {
"prompt_tokens": 1,
"completion_tokens": 1,
"total_tokens": 1,
"completion_tokens_details": {
"accepted_prediction_tokens": 1,
"audio_tokens": 1,
"reasoning_tokens": 1,
"rejected_prediction_tokens": 1
},
"prompt_tokens_details": {
"audio_tokens": 1,
"cached_tokens": 1
}
}
}