Text Models (LLM)openai

معرفی و مستندات مدل هوش مصنوعی gpt-5-nano

مستندات مدل gpt-5-nano از OpenAI، ارائه شده توسط ای ای کار (AI-KAR)

معرفی و بررسی فنی

⚡ وضعیت پشتیبانی از زبان فارسی

این مدل از زبان فارسی به صورت متوسط پشتیبانی می‌کند. درک نسبی از دستور زبان فارسی دارد اما در تولید متون پیچیده ممکن است دچار مشکل شود.

مدل gpt-5-nano کوچکترین، سریعترین و مقرون به صرفه ترین مدل در مجموعه GPT-5 است. در حالی که این مدل در مقایسه با GPT-5 و GPT-5-mini برای انجام وظایف ریاضی و کدنویسی توانایی کمتری دارد، اما در پاسخگویی به سوالات روزمره عملکرد بسیار خوبی دارد و سرعت پاسخگویی مناسبی را ارائه می دهد. این مدل برای کاربردهایی که نیاز به سرعت بالا و هزینه کم دارند، مانند پاسخگویی به سوالات متداول، خلاصه سازی متون کوتاه، و تولید محتوای ساده، بسیار مناسب است. gpt-5-nano می تواند به عنوان یک ابزار کمکی برای پردازش زبان طبیعی در دستگاه های با منابع محدود مانند تلفن های همراه و دستگاه های اینترنت اشیا (IoT) مورد استفاده قرار گیرد. این مدل با ارائه یک API ساده و قابل دسترس، به توسعه دهندگان امکان می دهد تا به راحتی از قابلیت های آن در برنامه های خود استفاده کنند. برای استفاده از این مدل، ابتدا باید یک حساب کاربری در وب سایت ای آی کار (AI-KAR) ایجاد کنید و یک کلید API تولید کنید. سپس می توانید با استفاده از کد نمونه ارائه شده در این مستندات، درخواست های خود را به مدل ارسال کنید. پارامترهای مختلفی برای تنظیم رفتار مدل در دسترس هستند، از جمله حداکثر تعداد توکن های تولید شده، و سطح تلاش استدلال. با تنظیم این پارامترها می توانید عملکرد مدل را برای نیازهای خاص خود بهینه سازی کنید. مدل gpt-5-nano یک انتخاب عالی برای کاربردهایی است که نیاز به سرعت، کارایی و هزینه کم دارند. این مدل با ارائه یک تعادل مناسب بین عملکرد و منابع، به توسعه دهندگان امکان می دهد تا برنامه های هوشمندانه تری را ایجاد کنند. این مدل برای تولید پاسخ های سریع و مختصر به سوالات کاربران، تولید خلاصه های کوتاه از متون طولانی، و تولید محتوای خلاقانه کوتاه مانند شعر و داستان کوتاه بسیار مناسب است. همچنین، این مدل می تواند برای انجام وظایف ترجمه ماشینی ساده و تشخیص زبان نیز مورد استفاده قرار گیرد. با توجه به اندازه کوچک و سرعت بالای این مدل، می توان از آن در برنامه های کاربردی موبایل و دستگاه های اینترنت اشیا استفاده کرد.

مشخصات فنی (API References)

پارامترنوعتوضیحات و مقادیر
model
stringRequired
مدل مورد استفاده برای تولید پاسخ.
مقادیر مجاز (کلیک برای کپی):
messages
one of[]Required
لیستی از پیام ها که مکالمه را تا کنون تشکیل می دهند. بسته به مدلی که استفاده می کنید، انواع مختلف پیام (modalities) مانند متن، اسناد (txt، pdf)، تصاویر و صدا پشتیبانی می شوند.
max_completion_tokens
integer
حد بالایی برای تعداد توکن هایی که می توانند برای تکمیل تولید شوند، از جمله توکن های خروجی قابل مشاهده و توکن های استدلال.
max_tokens
number
حداکثر تعداد توکن هایی که می توانند در تکمیل چت تولید شوند. این مقدار می تواند برای کنترل هزینه های متن تولید شده از طریق API استفاده شود.
stream
boolean
اگر روی True تنظیم شود، داده های پاسخ مدل به صورت جریانی با استفاده از رویدادهای ارسال شده توسط سرور به کلاینت ارسال می شود.
stream_options
object
تنظیمات مربوط به جریان داده.
tools
object[]
لیستی از ابزارهایی که مدل می تواند فراخوانی کند. در حال حاضر، فقط توابع به عنوان یک ابزار پشتیبانی می شوند. از این برای ارائه لیستی از توابعی استفاده کنید که مدل ممکن است ورودی های JSON را برای آنها تولید کند. حداکثر 128 تابع پشتیبانی می شود.
tool_choice
any of
کنترل می کند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمی کند و در عوض یک پیام تولید می کند. auto به این معنی است که مدل می تواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور می کند تا آن ابزار را فراخوانی کند. none مقدار پیش فرض است زمانی که هیچ ابزاری وجود نداشته باشد. auto مقدار پیش فرض است اگر ابزارها وجود داشته باشند.
مقادیر مجاز (کلیک برای کپی):
parallel_tool_calls
boolean
اینکه آیا فراخوانی تابع موازی را در طول استفاده از ابزار فعال کنیم یا خیر.
n
integer | nullable
چند انتخاب تکمیل چت برای هر پیام ورودی ایجاد شود. توجه داشته باشید که هزینه شما بر اساس تعداد توکن های تولید شده در تمام انتخاب ها محاسبه می شود. n را به عنوان 1 نگه دارید تا هزینه ها را به حداقل برسانید.
seed
integer
این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را می کند تا به طور قطعی نمونه برداری کند، به طوری که درخواست های مکرر با همان seed و پارامترها باید همان نتیجه را برگردانند.
reasoning_effort
string
تلاش برای استدلال را برای مدل های استدلال محدود می کند. مقادیر پشتیبانی شده در حال حاضر low، medium و high هستند. کاهش تلاش استدلال می تواند منجر به پاسخ های سریع تر و توکن های کمتری شود که در استدلال در یک پاسخ استفاده می شود.
مقادیر مجاز (کلیک برای کپی):
response_format
one of
شیئی که فرمتی را مشخص می کند که مدل باید خروجی دهد.

نمونه کدهای درخواست

نکته مهم برای توسعه‌دهندگان:

برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.

import requests
import json

url = 'https://api.ai-kar.com/v1/chat/completions'
headers = {
    'Authorization': 'Bearer <YOUR_AI-KARAPI_KEY>',
    'Content-Type': 'application/json'
}
data = {
    'model': 'openai/gpt-5-nano-2025-08-07',
    'messages': [
        {
            'role': 'user',
            'content': 'Hello'
        }
    ]
}

response = requests.post(url, headers=headers, data=json.dumps(data))
print(response.json())

نمونه پاسخ موفق (JSON)

RESPONSE (200 OK)
{
  "id": "text",
  "object": "text",
  "created": 1,
  "choices": [
    {
      "index": 1,
      "message": {
        "role": "text",
        "content": "text",
        "refusal": null,
        "annotations": [
          {
            "type": "text",
            "url_citation": {
              "end_index": 1,
              "start_index": 1,
              "title": "text",
              "url": "text"
            }
          }
        ],
        "audio": {
          "id": "text",
          "data": "text",
          "transcript": "text",
          "expires_at": 1
        },
        "tool_calls": [
          {
            "id": "text",
            "type": "text",
            "function": {
              "arguments": "text",
              "name": "text"
            }
          }
        ]
      },
      "finish_reason": "stop",
      "logprobs": {
        "content": [
          {
            "bytes": [
              1
            ],
            "logprob": 1,
            "token": "text",
            "top_logprobs": [
              {
                "bytes": [
                  1
                ],
                "logprob": 1,
                "token": "text"
              }
            ]
          }
        ],
        "refusal": []
      }
    }
  ],
  "model": "text",
  "usage": {
    "prompt_tokens": 1,
    "completion_tokens": 1,
    "total_tokens": 1,
    "completion_tokens_details": {
      "accepted_prediction_tokens": 1,
      "audio_tokens": 1,
      "reasoning_tokens": 1,
      "rejected_prediction_tokens": 1
    },
    "prompt_tokens_details": {
      "audio_tokens": 1,
      "cached_tokens": 1
    }
  }
}