معرفی و مستندات مدل هوش مصنوعی gemma-3
مستندات مدل gemma-3 ارائه شده توسط ای آی کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند. درک نسبی از دستور زبان فارسی دارد اما ممکن است در تولید متون پیچیده فارسی با مشکل مواجه شود.
مدل gemma-3، جدیدترین مدل هوش مصنوعی متنباز گوگل، در چهار نسخه مختلف ارائه شده است. این مدلها از نظر سرعت و توانایی استدلال با یکدیگر تفاوت دارند، اما همگی از یک مجموعه پارامتر یکسان بهره میبرند. این مدلها برای انجام طیف گستردهای از وظایف، از جمله تولید متن، ترجمه زبان، پاسخ به سوالات و تولید کد مناسب هستند.
ویژگیهای کلیدی مدل gemma-3:
- متنباز: این مدل به صورت متنباز ارائه شده است، به این معنی که توسعهدهندگان میتوانند به کد منبع آن دسترسی داشته باشند، آن را تغییر دهند و از آن در پروژههای خود استفاده کنند.
- چند زبانه: مدل gemma-3 از چندین زبان پشتیبانی میکند و میتواند برای تولید متن و ترجمه زبانهای مختلف مورد استفاده قرار گیرد.
- توانایی استدلال: این مدل از توانایی استدلال بالایی برخوردار است و میتواند برای حل مسائل پیچیده و پاسخ به سوالات دشوار مورد استفاده قرار گیرد.
- تولید کد: مدل gemma-3 میتواند برای تولید کد به زبانهای مختلف برنامهنویسی مورد استفاده قرار گیرد.
- چهار نسخه مختلف: این مدل در چهار نسخه مختلف ارائه شده است که هر کدام از نظر سرعت و توانایی استدلال با یکدیگر تفاوت دارند. این امکان را به کاربران میدهد تا مدلی را انتخاب کنند که به بهترین وجه با نیازهای آنها مطابقت داشته باشد.
کاربردهای مدل gemma-3:
- تولید متن: این مدل میتواند برای تولید انواع مختلف متن، از جمله مقالات، داستانها، ایمیلها و پستهای رسانههای اجتماعی مورد استفاده قرار گیرد.
- ترجمه زبان: مدل gemma-3 میتواند برای ترجمه متن از یک زبان به زبان دیگر مورد استفاده قرار گیرد.
- پاسخ به سوالات: این مدل میتواند برای پاسخ به سوالات کاربران در مورد موضوعات مختلف مورد استفاده قرار گیرد.
- تولید کد: مدل gemma-3 میتواند برای تولید کد به زبانهای مختلف برنامهنویسی مورد استفاده قرار گیرد.
- خلاصهسازی متن: این مدل میتواند برای خلاصهسازی متون طولانی مورد استفاده قرار گیرد.
- تولید محتوای خلاقانه: مدل gemma-3 میتواند برای تولید محتوای خلاقانه، مانند شعر، موسیقی و فیلمنامه مورد استفاده قرار گیرد.
نحوه استفاده از مدل gemma-3:
برای استفاده از مدل gemma-3، ابتدا باید یک حساب کاربری در وبسایت ای آی کار (AI-KAR) ایجاد کنید. پس از ایجاد حساب کاربری، میتوانید یک کلید API تولید کنید. سپس، میتوانید از کلید API خود برای دسترسی به مدل gemma-3 از طریق API استفاده کنید. در این مستندات، نمونه کدها به زبانهای مختلف برنامهنویسی ارائه شده است که میتوانید از آنها برای شروع کار با مدل gemma-3 استفاده کنید.
نکات مهم:
- برای استفاده از مدل gemma-3، باید یک کلید API معتبر داشته باشید.
- هزینه استفاده از مدل gemma-3 بر اساس تعداد توکنهای تولید شده محاسبه میشود.
- برای کسب اطلاعات بیشتر در مورد مدل gemma-3، میتوانید به مستندات رسمی گوگل مراجعه کنید.
ای آی کار (AI-KAR) این امکان را برای شما فراهم کرده است تا به راحتی از این مدل قدرتمند استفاده کنید. با استفاده از API ارائه شده، میتوانید به سرعت و به آسانی از قابلیتهای gemma-3 در پروژههای خود بهره ببرید.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | مدلی که برای تولید پاسخ استفاده میشود. یکی از مقادیر مجاز را انتخاب کنید. مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا به اینجا تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلف پیام (modalities) مانند متن، اسناد (txt, pdf)، تصاویر و صدا پشتیبانی میشوند. |
max_completion_tokens | integer | حداکثر تعداد توکنهایی که میتوان برای تکمیل تولید کرد، شامل توکنهای خروجی قابل مشاهده و توکنهای استدلال. حداقل مقدار: 1 |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینههای متن تولید شده از طریق API استفاده شود. حداقل مقدار: 1 |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل به صورت جریانی (stream) با استفاده از رویدادهای ارسالی از سرور (server-sent events) به کلاینت ارسال میشوند. مقدار پیشفرض: false مقادیر مجاز (کلیک برای کپی): |
stream_options | object | تنظیمات مربوط به جریان داده. |
temperature | number | چه دمای نمونهبرداری (sampling temperature) استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 آن را متمرکزتر و قطعیتر میکنند. به طور کلی توصیه میکنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای (nucleus sampling)، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که 10٪ جرم احتمال برتر را تشکیل میدهند در نظر گرفته میشوند. به طور کلی توصیه میکنیم این مقدار یا temperature را تغییر دهید، اما نه هر دو را. حداقل مقدار: 0.01، حداکثر مقدار: 1 |
seed | integer | این ویژگی در حالت بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را میکند تا به طور قطعی نمونهبرداری کند، به طوری که درخواستهای مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند. حداقل مقدار: 1 |
min_p | number | عددی بین 0.001 و 0.999 که میتواند به عنوان جایگزینی برای top_p و top_k استفاده شود. |
top_k | number | فقط از K گزینه برتر برای هر توکن بعدی نمونهبرداری کنید. برای حذف پاسخهای کم احتمال "long tail" استفاده میشود. فقط برای موارد استفاده پیشرفته توصیه میشود. معمولاً فقط باید از temperature استفاده کنید. |
repetition_penalty | number | عددی که تنوع متن تولید شده را با کاهش احتمال تکرار توالیها کنترل میکند. مقادیر بالاتر تکرار را کاهش میدهند. |
top_a | number | پارامتر نمونهبرداری جایگزین top. |
frequency_penalty | number | عددی بین -2.0 و 2.0. مقادیر مثبت، توکنهای جدید را بر اساس فراوانی موجود آنها در متن تا کنون جریمه میکنند، و احتمال تکرار همان خط را به صورت کلمه به کلمه کاهش میدهند. |
prediction | object | پیکربندی برای یک خروجی پیشبینی شده، که میتواند زمان پاسخ را در زمانی که بخشهای بزرگی از پاسخ مدل از قبل مشخص هستند، بسیار بهبود بخشد. |
presence_penalty | number | مقادیر مثبت، توکنهای جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شدهاند جریمه میکنند، و احتمال صحبت کردن مدل در مورد موضوعات جدید را افزایش میدهند. |
stop | any of | حداکثر 4 توالی که API تولید توکنهای بیشتر را متوقف میکند. متن بازگشتی شامل توالی توقف نخواهد بود. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"google/gemma-3-27b-it",
"messages":[
{
"role":"user",
"content":"Hello" # insert your prompt here, instead of Hello
}
],
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
{
"id": "gen-1744217834-d0OUILKDSxXQwmh2EorK",
"object": "chat.completion",
"choices": [
{
"index": 0,
"finish_reason": "stop",
"logprobs": null,
"message": {
"role": "assistant",
"content": "\nHello there! 👋 \n\nIt's great to connect with you. How can I help you today? \n\nJust let me know what you're thinking, whether you have a question, want to brainstorm ideas, need some information, or just want to chat. I'm here and ready to assist!\n\n\n\n",
"refusal": null
}
}
],
"created": 1744217834,
"model": "google/gemma-3-27b-it",
"usage": {
"prompt_tokens": 0,
"completion_tokens": 0,
"total_tokens": 0
}
}