معرفی و مستندات مدل هوش مصنوعی nvidia/nemotron-nano-12b-v2-vl
مستندات مدل nvidia/nemotron-nano-12b-v2-vl ارائه شده توسط ای آی کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند. درک مطلب فارسی در سطح قابل قبولی است اما ممکن است در تولید متون پیچیده فارسی با مشکلاتی مواجه شود.
معرفی مدل nvidia/nemotron-nano-12b-v2-vl
مدل nvidia/nemotron-nano-12b-v2-vl یک مدل هوش مصنوعی قدرتمند است که توسط NVIDIA توسعه داده شده است. این مدل برای درک و خلاصه سازی اسناد طراحی شده و در این زمینه عملکرد بسیار خوبی دارد. این مدل با استفاده از معماری پیشرفته و داده های آموزشی گسترده، قادر است متون پیچیده را به خوبی درک کرده و خلاصه های دقیقی از آنها ارائه دهد.
قابلیت های کلیدی:
- درک اسناد: این مدل قادر است انواع مختلف اسناد متنی از جمله مقالات، گزارش ها، ایمیل ها و صفحات وب را به خوبی درک کند.
- خلاصه سازی: این مدل می تواند خلاصه های کوتاه و دقیقی از اسناد طولانی ارائه دهد. این خلاصه ها می توانند به کاربران کمک کنند تا به سرعت اطلاعات مورد نیاز خود را پیدا کنند.
- پاسخ به سوالات: این مدل می تواند به سوالات مربوط به اسناد پاسخ دهد. این قابلیت می تواند برای استخراج اطلاعات خاص از اسناد بسیار مفید باشد.
- تولید متن: این مدل می تواند متن های جدیدی را بر اساس اسناد موجود تولید کند. این قابلیت می تواند برای تولید محتوای جدید، مانند مقالات و گزارش ها، استفاده شود.
کاربردهای مدل:
- خلاصه سازی اخبار: این مدل می تواند خلاصه های کوتاهی از اخبار ارائه دهد تا کاربران بتوانند به سرعت از آخرین رویدادها مطلع شوند.
- تحلیل اسناد حقوقی: این مدل می تواند اسناد حقوقی پیچیده را تحلیل کرده و خلاصه های دقیقی از آنها ارائه دهد.
- پشتیبانی مشتری: این مدل می تواند به سوالات مشتریان در مورد محصولات و خدمات پاسخ دهد.
- تحقیقات بازار: این مدل می تواند داده های بازار را تحلیل کرده و گزارش های دقیقی از روندها و فرصت ها ارائه دهد.
نحوه استفاده:
برای استفاده از این مدل، می توانید از API ارائه شده توسط ای آی کار (AI-KAR) استفاده کنید. API به شما امکان می دهد تا به راحتی درخواست های خود را به مدل ارسال کرده و پاسخ ها را دریافت کنید. برای شروع، ابتدا باید یک حساب کاربری در وب سایت ای آی کار ایجاد کرده و یک کلید API دریافت کنید. سپس می توانید از کد نمونه ارائه شده در این مستندات برای ارسال درخواست به مدل استفاده کنید.
نکات مهم:
- برای دریافت بهترین نتایج، سعی کنید سوالات و درخواست های خود را به صورت واضح و مختصر بیان کنید.
- می توانید از پارامترهای مختلف API برای تنظیم رفتار مدل استفاده کنید.
- در صورت بروز هرگونه مشکل، می توانید با تیم پشتیبانی ای آی کار تماس بگیرید.
این مدل یک ابزار قدرتمند برای درک و خلاصه سازی اسناد است. با استفاده از این مدل، می توانید به سرعت اطلاعات مورد نیاز خود را پیدا کرده و تصمیمات بهتری بگیرید.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | نام مدل مورد استفاده. مقدار این پارامتر باید `nvidia/nemotron-nano-12b-v2-vl` باشد. مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیام ها که مکالمه را تا کنون تشکیل می دهند. بسته به مدلی که استفاده می کنید، انواع مختلف پیام ها (مودالیته ها) مانند متن، اسناد (txt، pdf)، تصاویر و صدا پشتیبانی می شوند. |
max_tokens | number | حداکثر تعداد توکن هایی که می توانند در تکمیل چت تولید شوند. این مقدار می تواند برای کنترل هزینه های متن تولید شده از طریق API استفاده شود. |
stream | boolean | اگر روی True تنظیم شود، داده های پاسخ مدل به صورت جریانی با استفاده از رویدادهای ارسال شده توسط سرور به کلاینت ارسال می شود. مقادیر مجاز (کلیک برای کپی): |
stream_options | object | تنظیمات مربوط به جریان داده. |
temperature | number | چه دمای نمونه برداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفی تر می کنند، در حالی که مقادیر پایین تر مانند 0.2 آن را متمرکزتر و قطعی تر می کنند. ما عموماً توصیه می کنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونه برداری با دما، به نام نمونه برداری هسته ای، که در آن مدل نتایج توکن ها را با جرم احتمال top_p در نظر می گیرد. بنابراین 0.1 به این معنی است که فقط توکن هایی که 10٪ جرم احتمال برتر را تشکیل می دهند در نظر گرفته می شوند. ما عموماً توصیه می کنیم این مقدار یا temperature را تغییر دهید، اما نه هر دو را. |
stop | any of | حداکثر 4 دنباله که API تولید توکن های بیشتر را متوقف می کند. متن بازگشتی شامل دنباله توقف نخواهد بود. |
frequency_penalty | number | عددی بین -2.0 و 2.0. مقادیر مثبت، توکنهای جدید را بر اساس فراوانی موجودشان در متن تا کنون جریمه میکنند، و احتمال تکرار عین به عین همان خط توسط مدل را کاهش میدهند. |
prediction | object | پیکربندی برای یک خروجی پیش بینی شده، که می تواند زمان پاسخ را تا حد زیادی بهبود بخشد زمانی که بخش های بزرگی از پاسخ مدل از قبل شناخته شده باشند. |
seed | integer | این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را می کند تا به طور قطعی نمونه برداری کند، به طوری که درخواست های مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند. |
presence_penalty | number | مقادیر مثبت، توکنهای جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شدهاند جریمه میکنند، و احتمال صحبت کردن مدل در مورد موضوعات جدید را افزایش میدهند. |
reasoning | object | پیکربندی برای توکن های استدلال/تفکر مدل |
echo | boolean | اگر True باشد، پاسخ شامل prompt خواهد بود. می توان از آن با logprobs برای برگرداندن prompt logprobs استفاده کرد. مقادیر مجاز (کلیک برای کپی): |
min_p | number | عددی بین 0.001 و 0.999 که می تواند به عنوان جایگزینی برای top_p و top_k استفاده شود. |
top_k | number | فقط از K گزینه برتر برای هر توکن بعدی نمونه برداری کنید. برای حذف پاسخ های کم احتمال "دنباله بلند" استفاده می شود. فقط برای موارد استفاده پیشرفته توصیه می شود. معمولاً فقط باید از temperature استفاده کنید. |
top_a | number | پارامتر نمونه برداری برتر جایگزین. |
repetition_penalty | number | عددی که تنوع متن تولید شده را با کاهش احتمال توالی های تکراری کنترل می کند. مقادیر بالاتر تکرار را کاهش می دهند. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization": "Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type": "application/json"
},
json={
"model": "nvidia/nemotron-nano-12b-v2-vl",
"messages": [
{
"role": "user",
"content": "Hello" # insert your prompt here, instead of Hello
}
]
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
{
"id": "gen-1762343744-rdCcOL8byCQwRBZ8QCkv",
"provider": "DeepInfra",
"model": "nvidia/nemotron-nano-12b-v2-vl",
"object": "chat.completion",
"created": 1762343744,
"choices": [
{
"logprobs": null,
"finish_reason": "stop",
"native_finish_reason": "stop",
"index": 0,
"message": {
"role": "assistant",
"content": "\n\nHello! How can I assist you today?\n",
"refusal": null,
"reasoning": "Okay, the user said \"Hello\". Let me start by greeting them back in a friendly and welcoming way. I should keep it simple and approachable, maybe something like \"Hello! How can I assist you today?\" That should work. I want to make sure they feel comfortable and open to asking for help. Let me check if there's anything else I need to add. No, keeping it straightforward is best here. Ready to respond.\n",
"reasoning_details": [
{
"type": "reasoning.text",
"text": "Okay, the user said \"Hello\". Let me start by greeting them back in a friendly and welcoming way. I should keep it simple and approachable, maybe something like \"Hello! How can I assist you today?\" That should work. I want to make sure they feel comfortable and open to asking for help. Let me check if there's anything else I need to add. No, keeping it straightforward is best here. Ready to respond.\n",
"format": "unknown",
"index": 0
}
]
}
}
],
"usage": {
"prompt_tokens": 14,
"completion_tokens": 102,
"total_tokens": 116,
"prompt_tokens_details": null
}
}