Text Models (LLM)deepseek
معرفی و مستندات مدل هوش مصنوعی deepseek-chat
مستندات مدل deepseek-chat ارائه شده توسط ای ای کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند. درک نسبتا خوبی از دستور زبان فارسی دارد اما در تولید متون پیچیده ممکن است دچار مشکل شود.
مدل DeepSeek V3 (یا deepseek-chat) یک هوش مصنوعی مکالمهای پیشرفته است که برای ارائه گفتگوهای بسیار جذاب و آگاه از زمینه طراحی شده است. این مدل در درک و تولید متن شبیه به انسان عالی است و آن را به یک راه حل ایده آل برای ایجاد چت بات های پاسخگو و هوشمند تبدیل می کند. Deepseek-chat قادر است به سوالات کاربران پاسخ دهد، در مکالمات شرکت کند، اطلاعات را خلاصه کند و محتوای خلاقانه تولید کند. این مدل با استفاده از حجم عظیمی از داده های متنی و کد آموزش داده شده است و می تواند طیف گسترده ای از وظایف پردازش زبان طبیعی را انجام دهد. از جمله قابلیت های کلیدی این مدل می توان به موارد زیر اشاره کرد: درک و پاسخگویی به سوالات پیچیده، تولید متن خلاقانه و جذاب، خلاصه سازی متون طولانی، ترجمه زبان ها، تولید کد، و شرکت در مکالمات چند نوبتی. Deepseek-chat می تواند در صنایع مختلفی مانند خدمات مشتری، آموزش، بازاریابی و سرگرمی مورد استفاده قرار گیرد. این مدل به طور مداوم در حال بهبود است و با داده های جدید و تکنیک های پیشرفته تر آموزش داده می شود تا عملکرد و قابلیت های آن افزایش یابد. برای استفاده از این مدل، کاربران می توانند از طریق API ارائه شده توسط ای ای کار (AI-KAR) به آن دسترسی داشته باشند. API این امکان را فراهم می کند تا کاربران به راحتی مدل را در برنامه های خود ادغام کنند و از قابلیت های آن بهره مند شوند. ای ای کار (AI-KAR) همچنین مستندات جامعی را برای کمک به کاربران در استفاده از مدل ارائه می دهد. این مستندات شامل راهنماهای گام به گام، نمونه کدها و توضیحات مفصلی از پارامترهای API است. با استفاده از Deepseek-chat، کسب و کارها می توانند تعاملات خود با مشتریان را بهبود بخشند، محتوای جذاب تری تولید کنند و فرآیندهای خود را به طور خودکار انجام دهند. این مدل یک ابزار قدرتمند است که می تواند به سازمان ها در دستیابی به اهداف خود کمک کند.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | مدلی که برای تولید پاسخ استفاده می شود. مقادیر مجاز: deepseek-chat، deepseek/deepseek-chat، deepseek/deepseek-chat-v3-0324 مقادیر مجاز (کلیک برای کپی): |
messages | one of[]Required | لیستی از پیام ها که مکالمه را تا کنون تشکیل می دهند. بسته به مدلی که استفاده می کنید، انواع مختلف پیام (modalities) مانند متن، اسناد (txt، pdf)، تصاویر و صدا پشتیبانی می شوند. |
max_completion_tokens | integer | حد بالایی برای تعداد توکن هایی که می توانند برای تکمیل تولید شوند، از جمله توکن های خروجی قابل مشاهده و توکن های استدلال. حداقل مقدار: 1 |
max_tokens | number | حداکثر تعداد توکن هایی که می توانند در تکمیل چت تولید شوند. این مقدار می تواند برای کنترل هزینه های متن تولید شده از طریق API استفاده شود. حداقل مقدار: 1 |
stream | boolean | اگر روی True تنظیم شود، داده های پاسخ مدل به صورت جریانی با استفاده از رویدادهای ارسال شده توسط سرور به کلاینت ارسال می شود. مقدار پیش فرض: false مقادیر مجاز (کلیک برای کپی): |
stream_options | object | تنظیمات مربوط به استریم |
temperature | number | از چه دمای نمونه برداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفی تر می کند، در حالی که مقادیر پایین تر مانند 0.2 آن را متمرکزتر و قطعی تر می کند. ما به طور کلی توصیه می کنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونه برداری با دما، به نام نمونه برداری هسته ای، که در آن مدل نتایج توکن ها را با جرم احتمال top_p در نظر می گیرد. بنابراین 0.1 به این معنی است که فقط توکن هایی که 10٪ جرم احتمال برتر را تشکیل می دهند در نظر گرفته می شوند. ما به طور کلی توصیه می کنیم این مقدار یا دما را تغییر دهید، اما نه هر دو را. حداقل مقدار: 0.01، حداکثر مقدار: 1 |
stop | any of | حداکثر 4 دنباله که API تولید توکن های بیشتر را متوقف می کند. متن بازگشتی شامل دنباله توقف نخواهد بود. |
frequency_penalty | number | عددی بین -2.0 و 2.0. مقادیر مثبت، توکن های جدید را بر اساس فراوانی موجود آنها در متن تا کنون جریمه می کند و احتمال تکرار عینی همان خط توسط مدل را کاهش می دهد. |
prediction | object | پیکربندی برای یک خروجی پیش بینی شده، که می تواند زمان پاسخ را در زمانی که بخش های بزرگی از پاسخ مدل از قبل شناخته شده اند، تا حد زیادی بهبود بخشد. |
presence_penalty | number | مقادیر مثبت، توکن های جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شده اند جریمه می کند و احتمال صحبت کردن مدل در مورد موضوعات جدید را افزایش می دهد. |
seed | integer | این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را می کند تا به طور قطعی نمونه برداری کند، به طوری که درخواست های مکرر با همان seed و پارامترها باید همان نتیجه را برگردانند. حداقل مقدار: 1 |
echo | boolean | اگر True باشد، پاسخ شامل prompt خواهد بود. می توان از آن با logprobs برای برگرداندن logprobs prompt استفاده کرد. مقادیر مجاز (کلیک برای کپی): |
min_p | number | عددی بین 0.001 و 0.999 که می تواند به عنوان جایگزینی برای top_p و top_k استفاده شود. |
top_k | number | فقط از K گزینه برتر برای هر توکن بعدی نمونه برداری کنید. برای حذف پاسخ های کم احتمال "long tail" استفاده می شود. فقط برای موارد استفاده پیشرفته توصیه می شود. معمولاً فقط باید از دما استفاده کنید. |
repetition_penalty | number | عددی که تنوع متن تولید شده را با کاهش احتمال تکرار دنباله ها کنترل می کند. مقادیر بالاتر تکرار را کاهش می دهند. |
logit_bias | object | احتمال ظاهر شدن توکن های مشخص شده در تکمیل را تغییر دهید. یک شی JSON را می پذیرد که توکن ها (مشخص شده توسط شناسه توکن آنها در توکن ساز) را به یک مقدار بایاس مرتبط از -100 تا 100 نگاشت می کند. از نظر ریاضی، بایاس به logits تولید شده توسط مدل قبل از نمونه برداری اضافه می شود. اثر دقیق در هر مدل متفاوت خواهد بود، اما مقادیر بین -1 و 1 باید احتمال انتخاب را کاهش یا افزایش دهند. مقادیری مانند -100 یا 100 باید منجر به ممنوعیت یا انتخاب انحصاری توکن مربوطه شود. |
top_a | number | پارامتر نمونه برداری برتر جایگزین. حداکثر مقدار: 1 |
response_format | one of | شیئی که فرمتی را که مدل باید خروجی دهد مشخص می کند. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"deepseek-chat",
"messages":[
{
"role":"user",
"content":"Hello" # insert your prompt here, instead of Hello
}
],
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "text",
"object": "text",
"created": 1,
"choices": [
{
"index": 1,
"message": {
"role": "text",
"content": "text",
"refusal": null,
"annotations": [
{
"type": "text",
"url_citation": {
"end_index": 1,
"start_index": 1,
"title": "text",
"url": "text"
}
}
],
"audio": {
"id": "text",
"data": "text",
"transcript": "text",
"expires_at": 1
},
"tool_calls": [
{
"id": "text",
"type": "text",
"function": {
"arguments": "text",
"name": "text"
}
}
]
},
"finish_reason": "stop",
"logprobs": {
"content": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text",
"top_logprobs": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text"
}
]
}
],
"refusal": []
}
}
],
"model": "text",
"usage": {
"prompt_tokens": 1,
"completion_tokens": 1,
"total_tokens": 1,
"completion_tokens_details": {
"accepted_prediction_tokens": 1,
"audio_tokens": 1,
"reasoning_tokens": 1,
"rejected_prediction_tokens": 1
},
"prompt_tokens_details": {
"audio_tokens": 1,
"cached_tokens": 1
}
}
}