Text Models (LLM)google
معرفی و مستندات مدل هوش مصنوعی gemini-2.5-flash
مستندات مدل gemini-2.5-flash از گوگل، ارائه شده توسط ای آی کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند. درک مطلب فارسی در سطح قابل قبولی است اما تولید متن فارسی ممکن است نیازمند ویرایش باشد.
مدل gemini-2.5-flash یک مدل هوش مصنوعی پیشرفته از گوگل است که در ای آی کار (AI-KAR) مستندسازی شده است. این مدل با قابلیت استدلال قبل از پاسخ، عملکرد و دقت بالاتری را ارائه میدهد. gemini-2.5-flash قادر است انواع مختلفی از ورودیها از جمله متن، تصاویر، اسناد (مانند txt و pdf) و صدا را پردازش کند. این مدل برای انجام وظایف گوناگونی مانند پاسخ به سوالات، تولید متن خلاقانه، ترجمه زبانها و خلاصهسازی متون مناسب است. یکی از ویژگیهای برجسته این مدل، توانایی آن در درک و تولید زبانهای مختلف از جمله فارسی است. با این حال، میزان تسلط آن به زبان فارسی در بخش `persian_support_info` به طور دقیقتر شرح داده شده است. برای استفاده از این مدل، ابتدا باید یک حساب کاربری در وبسایت ای آی کار (AI-KAR) ایجاد کرده و یک کلید API تولید کنید. سپس، میتوانید با استفاده از کد نمونه ارائه شده در این مستندات، درخواستهای خود را به مدل ارسال کنید. توجه داشته باشید که پارامترهای `model` و `messages` اجباری هستند، اما پارامترهای اختیاری دیگری نیز وجود دارند که میتوانید برای تنظیم رفتار مدل از آنها استفاده کنید. به عنوان مثال، پارامتر `max_completion_tokens` حداکثر تعداد توکنهایی را که مدل میتواند تولید کند، محدود میکند. پارامتر `temperature` میزان تصادفی بودن خروجی مدل را کنترل میکند و پارامتر `top_p` یک روش جایگزین برای نمونهبرداری با دما است. همچنین، میتوانید از پارامتر `stop` برای تعیین توالیهایی که مدل باید تولید متن را در آنجا متوقف کند، استفاده کنید. در صورتی که با مشکل دریافت پاسخ خالی از مدل مواجه شدید، اطمینان حاصل کنید که مقدار `max_completion_tokens` به اندازه کافی بزرگ باشد تا پاسخ کامل مدل را در بر بگیرد. به فیلد `finish_reason` در پاسخ مدل توجه کنید. اگر مقدار آن `length` باشد، به این معنی است که مدل به دلیل محدودیت توکنها، پاسخ خود را به طور کامل ارائه نکرده است. این مدل برای توسعهدهندگان و محققانی که به دنبال یک مدل هوش مصنوعی قدرتمند و انعطافپذیر هستند، یک گزینه عالی است. با استفاده از gemini-2.5-flash، میتوانید برنامهها و سرویسهای هوشمندتری ایجاد کنید و تجربههای کاربری بهتری را ارائه دهید. ای آی کار (AI-KAR) تمام تلاش خود را به کار گرفته است تا مستندات کاملی را برای این مدل ارائه دهد و به شما در استفاده بهینه از آن کمک کند.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | نام مدلی که باید استفاده شود. مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا به اینجا تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلفی از پیامها (modalities) مانند متن، اسناد (txt, pdf)، تصاویر و صدا پشتیبانی میشوند. |
max_completion_tokens | integer | حد بالایی برای تعداد توکنهایی که میتوان برای تکمیل تولید کرد، از جمله توکنهای خروجی قابل مشاهده و توکنهای استدلال. |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینهها برای متن تولید شده از طریق API استفاده شود. |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل به صورت جریانی با استفاده از رویدادهای ارسال شده توسط سرور به کلاینت ارسال میشوند. |
stream_options | object | تنظیمات مربوط به جریان داده. |
n | integer | nullable | تعداد انتخابهای تکمیل چت که برای هر پیام ورودی باید تولید شود. توجه داشته باشید که هزینه بر اساس تعداد توکنهای تولید شده در تمام انتخابها محاسبه میشود. مقدار n را 1 نگه دارید تا هزینهها به حداقل برسد. |
temperature | number | از چه دمای نمونهبرداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 آن را متمرکزتر و قطعیتر میکنند. ما عموماً توصیه میکنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته میشوند. ما عموماً توصیه میکنیم این مقدار یا temperature را تغییر دهید، اما نه هر دو را. |
stop | any of | حداکثر 4 توالی که API تولید توکنهای بیشتر را در آنجا متوقف میکند. متن بازگشتی شامل توالی توقف نخواهد بود. |
frequency_penalty | number | nullable | عدد بین -2.0 و 2.0. مقادیر مثبت، توکنهای جدید را بر اساس فراوانی موجود آنها در متن تا کنون جریمه میکنند، و احتمال تکرار عین به عین همان خط توسط مدل را کاهش میدهند. |
prediction | object | پیکربندی برای یک خروجی پیشبینیشده، که میتواند زمان پاسخ را در زمانی که بخشهای بزرگی از پاسخ مدل از قبل مشخص هستند، بسیار بهبود بخشد. |
presence_penalty | number | nullable | مقادیر مثبت، توکنهای جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شدهاند جریمه میکنند، و احتمال صحبت کردن مدل در مورد موضوعات جدید را افزایش میدهند. |
seed | integer | این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را میکند تا به طور قطعی نمونهبرداری کند، به طوری که درخواستهای مکرر با همان seed و پارامترها باید همان نتیجه را برگردانند. |
response_format | one of | شیئی که فرمتی را مشخص میکند که مدل باید خروجی دهد. |
tools | object[] | لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی میشوند. از این برای ارائه لیستی از توابعی استفاده کنید که مدل ممکن است ورودیهای JSON را برای آنها تولید کند. حداکثر 128 تابع پشتیبانی میشود. |
tool_choice | any of | کنترل میکند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمیکند و در عوض یک پیام تولید میکند. auto به این معنی است که مدل میتواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور میکند تا آن ابزار را فراخوانی کند. none مقدار پیشفرض است زمانی که هیچ ابزاری وجود نداشته باشد. auto مقدار پیشفرض است اگر ابزارها وجود داشته باشند. مقادیر مجاز (کلیک برای کپی): |
parallel_tool_calls | boolean | اینکه آیا فراخوانی تابع موازی را در طول استفاده از ابزار فعال کنیم یا خیر. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"google/gemini-2.5-flash",
"messages":[
{
"role":"user",
# Insert your question for the model here:
"content":"Hi! What do you think about mankind?"
}
],
"max_tokens":15000,
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "text",
"object": "text",
"created": 1,
"choices": [
{
"index": 1,
"message": {
"role": "text",
"content": "text",
"refusal": null,
"annotations": [
{
"type": "text",
"url_citation": {
"end_index": 1,
"start_index": 1,
"title": "text",
"url": "text"
}
}
],
"audio": {
"id": "text",
"data": "text",
"transcript": "text",
"expires_at": 1
},
"tool_calls": [
{
"id": "text",
"type": "text",
"function": {
"arguments": "text",
"name": "text"
}
}
]
},
"finish_reason": "stop",
"logprobs": {
"content": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text",
"top_logprobs": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text"
}
]
}
],
"refusal": []
}
}
],
"model": "text",
"usage": {
"prompt_tokens": 1,
"completion_tokens": 1,
"total_tokens": 1,
"completion_tokens_details": {
"accepted_prediction_tokens": 1,
"audio_tokens": 1,
"reasoning_tokens": 1,
"rejected_prediction_tokens": 1
},
"prompt_tokens_details": {
"audio_tokens": 1,
"cached_tokens": 1
}
}
}