Text Models (LLM)google
معرفی و مستندات مدل هوش مصنوعی gemini-2.5-pro
مستندات مدل gemini-2.5-pro از گوگل، ارائه شده توسط ای آی کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند. درک نسبتا خوبی از دستور زبان فارسی دارد اما در تولید متون پیچیده و تخصصی ممکن است با مشکل مواجه شود.
مدل Gemini 2.5 Pro از گوگل، یک مدل هوش مصنوعی پیشرفته است که با قابلیت استدلال و تفکر قبل از پاسخدهی، عملکرد و دقت بالاتری را ارائه میدهد. این مدل قادر است انواع مختلفی از وظایف را انجام دهد، از جمله تولید متن، ترجمه زبان، پاسخ به سوالات و تولید انواع مختلف محتوای خلاقانه. یکی از ویژگیهای برجسته این مدل، درک عمیقتر از زبان و توانایی تولید پاسخهای دقیقتر و مرتبطتر با متن ورودی است. این مدل میتواند متن، اسناد (txt, pdf)، تصاویر و صدا را به عنوان ورودی دریافت کند و پاسخهای مناسب را تولید کند.
Gemini 2.5 Pro با استفاده از معماری پیشرفته و آموزش بر روی مجموعه دادههای بزرگ، توانسته است درک بهتری از ساختار و معنای زبان پیدا کند. این امر به آن امکان میدهد تا در وظایفی مانند خلاصهسازی متون، پاسخ به سوالات پیچیده و تولید محتوای خلاقانه، عملکرد بهتری نسبت به مدلهای قبلی داشته باشد. همچنین، این مدل از قابلیت تنظیم پارامترهای مختلفی مانند دما (temperature) و احتمال (top_p) برخوردار است که به کاربران اجازه میدهد تا رفتار مدل را بر اساس نیازهای خود تنظیم کنند.
یکی دیگر از ویژگیهای مهم Gemini 2.5 Pro، قابلیت استفاده از ابزارها (tools) است. این ابزارها میتوانند شامل توابع مختلفی باشند که مدل میتواند از آنها برای تولید پاسخهای دقیقتر و مرتبطتر استفاده کند. به عنوان مثال، مدل میتواند از یک ابزار جستجو برای یافتن اطلاعات مرتبط با سوال کاربر استفاده کند و سپس با استفاده از این اطلاعات، پاسخ دقیقتری را تولید کند. این قابلیت به مدل امکان میدهد تا در وظایفی مانند پاسخ به سوالات تخصصی و تولید محتوای فنی، عملکرد بهتری داشته باشد.
برای استفاده از Gemini 2.5 Pro، کاربران میتوانند از طریق API ارائه شده توسط ای آی کار (AI-KAR) اقدام کنند. این API به کاربران امکان میدهد تا به راحتی با مدل تعامل داشته باشند و از قابلیتهای آن در برنامهها و پروژههای خود استفاده کنند. ای آی کار (AI-KAR) مستندات کاملی را برای استفاده از این API ارائه کرده است که شامل توضیحات دقیق در مورد پارامترهای مختلف و نمونههای کد به زبانهای مختلف برنامهنویسی است.
در نهایت، Gemini 2.5 Pro یک مدل هوش مصنوعی قدرتمند و انعطافپذیر است که میتواند در طیف گستردهای از وظایف مورد استفاده قرار گیرد. با استفاده از این مدل، کاربران میتوانند به راحتی محتوای خلاقانه تولید کنند، به سوالات پیچیده پاسخ دهند و فرآیندهای خود را به طور خودکار انجام دهند. ای آی کار (AI-KAR) با ارائه API و مستندات کامل، استفاده از این مدل را برای کاربران آسان کرده است.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | مدل مورد استفاده برای تکمیل گفتگو. مقدار این پارامتر باید `google/gemini-2.5-pro` باشد. مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا به اینجا تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلفی از پیامها (modalities) مانند متن، اسناد (txt, pdf)، تصاویر و صدا پشتیبانی میشوند. |
max_completion_tokens | integer | حد بالایی برای تعداد توکنهایی که میتوان برای تکمیل تولید کرد، از جمله توکنهای خروجی قابل مشاهده و توکنهای استدلال. حداقل مقدار: 1 |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینههای متن تولید شده از طریق API استفاده شود. حداقل مقدار: 1 |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل به صورت جریانی (stream) به کلاینت ارسال میشوند، به این صورت که با استفاده از رویدادهای ارسال شده از سرور (server-sent events) تولید میشوند. مقدار پیشفرض: false |
stream_options | object | تنظیمات مربوط به جریان داده (streaming). |
n | integer | nullable | تعداد انتخابهای تکمیل چت که برای هر پیام ورودی باید تولید شود. توجه داشته باشید که هزینه شما بر اساس تعداد توکنهای تولید شده در تمام انتخابها محاسبه میشود. مقدار n را روی 1 نگه دارید تا هزینهها را به حداقل برسانید. |
temperature | number | از چه دمای نمونهبرداری (sampling temperature) استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 خروجی را متمرکزتر و قطعیتر میکنند. به طور کلی توصیه میکنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای (nucleus sampling)، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته میشوند. به طور کلی توصیه میکنیم این مقدار یا temperature را تغییر دهید، اما نه هر دو را. |
stop | any of | حداکثر 4 دنباله که API تولید توکنهای بیشتر را متوقف میکند. متن بازگشتی شامل دنباله توقف نخواهد بود. |
frequency_penalty | number | nullable | عددی بین -2.0 و 2.0. مقادیر مثبت، توکنهای جدید را بر اساس فراوانی موجود آنها در متن تا به امروز جریمه میکنند، و احتمال تکرار عین به عین همان خط توسط مدل را کاهش میدهند. |
prediction | object | پیکربندی برای یک خروجی پیشبینی شده، که میتواند زمان پاسخ را در زمانی که بخشهای بزرگی از پاسخ مدل از قبل مشخص هستند، به شدت بهبود بخشد. |
presence_penalty | number | nullable | مقادیر مثبت، توکنهای جدید را بر اساس اینکه آیا در متن تا به امروز ظاهر میشوند یا خیر، جریمه میکنند، و احتمال صحبت کردن مدل در مورد موضوعات جدید را افزایش میدهند. |
seed | integer | این ویژگی در حالت بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را میکند تا به صورت قطعی نمونهبرداری کند، به طوری که درخواستهای مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند. حداقل مقدار: 1 |
response_format | one of | شیئی که فرمتی را مشخص میکند که مدل باید خروجی دهد. |
tools | object[] | لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی میشوند. از این برای ارائه لیستی از توابعی استفاده کنید که مدل ممکن است ورودیهای JSON را برای آنها تولید کند. حداکثر 128 تابع پشتیبانی میشود. |
tool_choice | any of | کنترل میکند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمیکند و در عوض یک پیام تولید میکند. auto به این معنی است که مدل میتواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور میکند تا آن ابزار را فراخوانی کند. none مقدار پیشفرض زمانی است که هیچ ابزاری وجود نداشته باشد. auto مقدار پیشفرض در صورت وجود ابزار است. مقادیر مجاز (کلیک برای کپی): |
parallel_tool_calls | boolean | تعیین اینکه آیا فراخوانی موازی تابع در طول استفاده از ابزار فعال شود یا خیر. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"google/gemini-2.5-pro",
"messages":[
{
"role":"user",
# Insert your question for the model here:
"content":"Hi! What do you think about mankind?"
}
],
"max_tokens":15000,
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "text",
"object": "text",
"created": 1,
"choices": [
{
"index": 1,
"message": {
"role": "text",
"content": "text",
"refusal": null,
"annotations": [
{
"type": "text",
"url_citation": {
"end_index": 1,
"start_index": 1,
"title": "text",
"url": "text"
}
}
],
"audio": {
"id": "text",
"data": "text",
"transcript": "text",
"expires_at": 1
},
"tool_calls": [
{
"id": "text",
"type": "text",
"function": {
"arguments": "text",
"name": "text"
}
}
]
},
"finish_reason": "stop",
"logprobs": {
"content": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text",
"top_logprobs": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text"
}
]
}
],
"refusal": []
}
}
],
"model": "text",
"usage": {
"prompt_tokens": 1,
"completion_tokens": 1,
"total_tokens": 1,
"completion_tokens_details": {
"accepted_prediction_tokens": 1,
"audio_tokens": 1,
"reasoning_tokens": 1,
"rejected_prediction_tokens": 1
},
"prompt_tokens_details": {
"audio_tokens": 1,
"cached_tokens": 1
}
}
}