معرفی و مستندات مدل هوش مصنوعی deepseek-non-reasoner-v3.1-terminus
مستندات مدل deepseek-non-reasoner-v3.1-terminus ارائه شده توسط ای آی کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند. درک نسبتا خوبی از دستور زبان فارسی دارد اما ممکن است در تولید متون پیچیده فارسی دچار مشکل شود.
معرفی مدل deepseek-non-reasoner-v3.1-terminus
مدل deepseek-non-reasoner-v3.1-terminus یک مدل هوش مصنوعی پیشرفته است که توسط DeepSeek توسعه داده شده و از طریق ای آی کار (AI-KAR) در دسترس قرار گرفته است. این مدل بر پایه معماری DeepSeek Chat V3.1 ساخته شده و در سپتامبر 2025 بهروزرسانی شده است. هدف اصلی این مدل، تولید نتایج سازگار و قابل اعتماد است، به ویژه در مواردی که نیاز به استدلال پیچیده وجود ندارد.
این مدل برای انجام طیف گستردهای از وظایف طراحی شده است، از جمله:
- تولید متن: تولید متنهای خلاقانه، مقالات، توضیحات محصول و سایر انواع محتوا.
- خلاصهسازی متن: خلاصهسازی متون طولانی به صورت مختصر و مفید.
- پاسخ به سوالات: پاسخگویی به سوالات کاربران در زمینههای مختلف.
- ترجمه زبان: ترجمه متون از یک زبان به زبان دیگر.
- تکمیل کد: پیشنهاد تکمیل کد برای برنامهنویسان.
- تولید ایمیل: تولید ایمیل های مختلف برای اهداف بازاریابی و ارتباطی.
یکی از ویژگیهای برجسته این مدل، توانایی آن در تولید پاسخهای دقیق و مرتبط با درخواست کاربر است. این مدل با استفاده از دادههای آموزشی گسترده، قادر است الگوهای زبانی را به خوبی یاد بگیرد و پاسخهایی تولید کند که از نظر گرامری صحیح و از نظر معنایی مرتبط باشند. همچنین، این مدل به گونهای طراحی شده است که از تولید پاسخهای نامناسب یا مضر خودداری کند.
برای استفاده از این مدل، کاربران باید ابتدا یک حساب کاربری در وبسایت ای آی کار (AI-KAR) ایجاد کنند و یک کلید API دریافت کنند. سپس، با استفاده از این کلید API، میتوانند درخواستهای خود را به مدل ارسال کنند و پاسخهای مورد نظر را دریافت کنند. API این مدل به گونهای طراحی شده است که استفاده از آن آسان باشد و کاربران بتوانند به راحتی آن را در برنامههای خود ادغام کنند.
در نهایت، مدل deepseek-non-reasoner-v3.1-terminus یک ابزار قدرتمند برای تولید متن، پاسخ به سوالات و انجام سایر وظایف مرتبط با پردازش زبان طبیعی است. این مدل با ارائه نتایج دقیق و قابل اعتماد، میتواند به کاربران در انجام وظایف مختلف کمک کند و بهرهوری آنها را افزایش دهد.
این مدل برای استفاده در زمینههای مختلفی مانند خدمات مشتری، بازاریابی، آموزش و تحقیقات مناسب است.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | نام مدلی که میخواهید استفاده کنید. مقدار معتبر: deepseek/deepseek-non-reasoner-v3.1-terminus مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیامها که مکالمه را تا به اینجا تشکیل میدهند. بسته به مدلی که استفاده میکنید، انواع مختلف پیام (modalities) مانند متن، اسناد (txt, pdf)، تصاویر و صدا پشتیبانی میشوند. |
max_completion_tokens | integer | حد بالایی برای تعداد توکنهایی که میتوان برای تکمیل تولید کرد، از جمله توکنهای خروجی قابل مشاهده و توکنهای استدلال. حداقل مقدار: 1 |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینههای متن تولید شده از طریق API استفاده شود. حداقل مقدار: 1 |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل به صورت جریانی با استفاده از رویدادهای ارسالی از سرور به کلاینت ارسال میشوند. مقدار پیشفرض: false |
stream_options | object | تنظیمات مربوط به استریم کردن پاسخ |
temperature | number | چه دمای نمونهگیری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 آن را متمرکزتر و قطعیتر میکنند. ما معمولاً توصیه میکنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونهگیری با دما، به نام نمونهگیری هستهای، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته میشوند. ما معمولاً توصیه میکنیم این مقدار یا temperature را تغییر دهید، اما نه هر دو را. حداقل مقدار: 0.01، حداکثر مقدار: 1 |
stop | any of | حداکثر 4 دنباله که API تولید توکنهای بیشتر را متوقف میکند. متن بازگشتی شامل دنباله توقف نخواهد بود. |
frequency_penalty | number | عددی بین -2.0 و 2.0. مقادیر مثبت، توکنهای جدید را بر اساس فراوانی موجود آنها در متن تا به اینجا جریمه میکنند، و احتمال تکرار عین به عین همان خط توسط مدل را کاهش میدهند. |
prediction | object | پیکربندی برای یک خروجی پیشبینیشده، که میتواند زمان پاسخ را در زمانی که بخشهای بزرگی از پاسخ مدل از قبل مشخص هستند، بسیار بهبود بخشد. |
presence_penalty | number | مقادیر مثبت، توکنهای جدید را بر اساس اینکه آیا در متن تا به اینجا ظاهر میشوند جریمه میکنند، و احتمال صحبت کردن مدل در مورد موضوعات جدید را افزایش میدهند. |
seed | integer | این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را میکند تا به طور قطعی نمونهبرداری کند، به طوری که درخواستهای مکرر با همان seed و پارامترها باید همان نتیجه را برگردانند. حداقل مقدار: 1 |
echo | boolean | اگر True باشد، پاسخ شامل prompt خواهد بود. میتواند با logprobs برای برگرداندن logprobs prompt استفاده شود. |
min_p | number | عددی بین 0.001 و 0.999 که میتواند به عنوان جایگزینی برای top_p و top_k استفاده شود. |
top_k | number | فقط از K گزینه برتر برای هر توکن بعدی نمونهبرداری کنید. برای حذف پاسخهای کم احتمال "long tail" استفاده میشود. فقط برای موارد استفاده پیشرفته توصیه میشود. معمولاً فقط باید از temperature استفاده کنید. |
repetition_penalty | number | عددی که تنوع متن تولید شده را با کاهش احتمال تکرار دنبالههای تکراری کنترل میکند. مقادیر بالاتر تکرار را کاهش میدهند. |
logit_bias | object | احتمال ظاهر شدن توکنهای مشخص شده در تکمیل را تغییر دهید. یک شی JSON را میپذیرد که توکنها (مشخص شده توسط شناسه توکن آنها در tokenizer) را به یک مقدار بایاس مرتبط از -100 تا 100 نگاشت میکند. از نظر ریاضی، بایاس به logits تولید شده توسط مدل قبل از نمونهبرداری اضافه میشود. اثر دقیق در هر مدل متفاوت خواهد بود، اما مقادیر بین -1 و 1 باید احتمال انتخاب را کاهش یا افزایش دهند. مقادیری مانند -100 یا 100 باید منجر به ممنوعیت یا انتخاب انحصاری توکن مربوطه شوند. |
top_a | number | پارامتر نمونهبرداری top جایگزین. |
response_format | one of | یک شی که فرمتی را که مدل باید خروجی دهد مشخص میکند. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"deepseek/deepseek-non-reasoner-v3.1-terminus",
"messages":[
{
"role":"user",
"content":"Hello" # insert your prompt here, instead of Hello
}
],
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
{
"id": "cc8c3054-115d-4dac-9269-2abffcaabab5",
"system_fingerprint": "fp_ffc7281d48_prod0820_fp8_kvcache",
"object": "chat.completion",
"choices": [
{
"index": 0,
"finish_reason": "stop",
"logprobs": null,
"message": {
"role": "assistant",
"content": "Hello! How can I assist you today? 😊",
"reasoning_content": ""
}
}
],
"created": 1761036636,
"model": "deepseek-chat",
"usage": {
"prompt_tokens": 3,
"completion_tokens": 10,
"total_tokens": 13,
"prompt_tokens_details": {
"cached_tokens": 0
},
"prompt_cache_hit_tokens": 0,
"prompt_cache_miss_tokens": 5
}
}