Text Models (LLM)deepseek
معرفی و مستندات مدل هوش مصنوعی deepseek-prover-v2
مستندات مدل deepseek-prover-v2 ارائه شده توسط ای آی کار (AI-KAR)
معرفی و بررسی فنی
⚡ وضعیت پشتیبانی از زبان فارسی
این مدل از زبان فارسی به صورت متوسط پشتیبانی میکند. برای دریافت بهترین نتیجه، بهتر است سوالات خود را به زبان انگلیسی مطرح کنید، اما امکان استفاده از زبان فارسی نیز وجود دارد.
مدل deepseek-prover-v2 یک مدل بزرگ با 671 میلیارد پارامتر است که توسط DeepSeek توسعه داده شده است. این مدل به طور خاص بر روی منطق و ریاضیات تمرکز دارد و به نظر میرسد نسخه ارتقا یافته DeepSeek Prover V1.5 باشد. این مدل برای حل مسائل پیچیده ریاضی، اثبات قضایا و استدلال منطقی طراحی شده است. با توجه به حجم بالای پارامترها، انتظار میرود که این مدل درک عمیقی از مفاهیم ریاضی و منطقی داشته باشد و بتواند پاسخهای دقیق و قابل اعتمادی ارائه دهد.
کاربردهای مدل deepseek-prover-v2:
1. **حل مسائل ریاضی:** این مدل میتواند مسائل مختلف ریاضی از جمله معادلات، انتگرالها، مشتقات و مسائل هندسی را حل کند.
2. **اثبات قضایا:** deepseek-prover-v2 قادر است قضایای ریاضی و منطقی را اثبات کند و استدلالهای منطقی را بررسی کند.
3. **استدلال منطقی:** این مدل میتواند در مسائل مربوط به استدلال منطقی، مانند حل معماها و ارزیابی استدلالها، به کار رود.
4. **توسعه الگوریتمها:** از این مدل میتوان برای توسعه الگوریتمهای جدید در زمینههای مختلف ریاضی و علوم کامپیوتر استفاده کرد.
5. **آموزش و یادگیری:** deepseek-prover-v2 میتواند به عنوان یک ابزار آموزشی برای کمک به دانشآموزان و دانشجویان در یادگیری مفاهیم ریاضی و منطقی مورد استفاده قرار گیرد.
نحوه استفاده از مدل:
برای استفاده از مدل deepseek-prover-v2، ابتدا باید یک حساب کاربری در وبسایت ای آی کار (AI-KAR) ایجاد کنید. پس از ایجاد حساب کاربری، میتوانید یک کلید API تولید کنید. سپس، با استفاده از کلید API و پارامترهای مورد نیاز، میتوانید درخواست خود را به مدل ارسال کنید. پارامترهای اصلی شامل `model` و `messages` هستند. پارامتر `model` باید برابر با `deepseek/deepseek-prover-v2` باشد. پارامتر `messages` یک لیست از پیامها است که شامل نقش (role) و محتوا (content) است. نقش میتواند `user` یا `assistant` باشد. محتوا شامل سوال یا درخواست شما است.
علاوه بر پارامترهای اصلی، میتوانید از پارامترهای اختیاری مانند `max_tokens`، `temperature` و `top_p` برای تنظیم رفتار مدل استفاده کنید. پارامتر `max_tokens` حداکثر تعداد توکنهایی است که مدل میتواند تولید کند. پارامتر `temperature` میزان تصادفی بودن خروجی مدل را کنترل میکند. مقادیر بالاتر باعث تصادفیتر شدن خروجی میشوند، در حالی که مقادیر پایینتر باعث متمرکزتر شدن خروجی میشوند. پارامتر `top_p` یک روش جایگزین برای نمونهبرداری با دما است که در آن مدل نتایج توکنها را با جرم احتمال `top_p` در نظر میگیرد.
با استفاده از مدل deepseek-prover-v2، میتوانید به طور موثر مسائل پیچیده ریاضی و منطقی را حل کرده و در زمینههای مختلف علمی و آموزشی پیشرفت کنید.
مشخصات فنی (API References)
| پارامتر | نوع | توضیحات و مقادیر |
|---|---|---|
model | stringRequired | نام مدلی که میخواهید استفاده کنید. مقادیر مجاز (کلیک برای کپی): |
messages | arrayRequired | لیستی از پیامها که مکالمه را تشکیل میدهند. بسته به مدل مورد استفاده، انواع مختلف پیامها (modalities) مانند متن، اسناد (txt، pdf)، تصاویر و صدا پشتیبانی میشوند. |
max_completion_tokens | integer | حد بالایی برای تعداد توکنهایی که میتوان برای تکمیل تولید کرد، از جمله توکنهای خروجی قابل مشاهده و توکنهای استدلال. حداقل مقدار: 1 |
max_tokens | number | حداکثر تعداد توکنهایی که میتوان در تکمیل چت تولید کرد. این مقدار میتواند برای کنترل هزینههای متن تولید شده از طریق API استفاده شود. حداقل مقدار: 1 |
stream | boolean | اگر روی True تنظیم شود، دادههای پاسخ مدل به صورت جریانی با استفاده از رویدادهای ارسال شده توسط سرور به کلاینت ارسال میشوند. |
stream_options | object | تنظیمات مربوط به جریان داده. |
temperature | number | از چه دمای نمونهبرداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفیتر میکنند، در حالی که مقادیر پایینتر مانند 0.2 آن را متمرکزتر و قطعیتر میکنند. به طور کلی توصیه میکنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را. |
top_p | number | جایگزینی برای نمونهبرداری با دما، به نام نمونهبرداری هستهای، که در آن مدل نتایج توکنها را با جرم احتمال top_p در نظر میگیرد. بنابراین 0.1 به این معنی است که فقط توکنهایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته میشوند. به طور کلی توصیه میکنیم این مقدار یا temperature را تغییر دهید، اما نه هر دو را. حداقل مقدار: 0.01، حداکثر مقدار: 1 |
seed | integer | این ویژگی در نسخه بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را میکند تا به طور قطعی نمونهبرداری کند، به طوری که درخواستهای مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند. حداقل مقدار: 1 |
min_p | number | عددی بین 0.001 و 0.999 که می تواند به عنوان جایگزینی برای top_p و top_k استفاده شود. |
top_k | number | فقط از K گزینه برتر برای هر توکن بعدی نمونه برداری کنید. برای حذف پاسخ های کم احتمال "دنباله طولانی" استفاده می شود. فقط برای موارد استفاده پیشرفته توصیه می شود. معمولاً فقط باید از دما استفاده کنید. |
repetition_penalty | number | عددی که تنوع متن تولید شده را با کاهش احتمال توالی های تکراری کنترل می کند. مقادیر بالاتر تکرار را کاهش می دهند. |
top_a | number | پارامتر نمونه برداری برتر جایگزین. حداکثر مقدار: 1 |
frequency_penalty | number | عددی بین -2.0 و 2.0. مقادیر مثبت توکن های جدید را بر اساس فرکانس موجود آنها در متن تا کنون جریمه می کنند و احتمال تکرار همان خط را به صورت کلمه به کلمه کاهش می دهند. |
prediction | object | پیکربندی برای یک خروجی پیش بینی شده، که می تواند زمان پاسخ را در زمانی که بخش های بزرگی از پاسخ مدل از قبل شناخته شده است، تا حد زیادی بهبود بخشد. |
presence_penalty | number | مقادیر مثبت توکن های جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شده اند جریمه می کنند و احتمال صحبت مدل در مورد موضوعات جدید را افزایش می دهند. |
response_format | string | یک شیء که فرمتی را مشخص می کند که مدل باید خروجی دهد. |
نمونه کدهای درخواست
نکته مهم برای توسعهدهندگان:
برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.
import requests
import json # for getting a structured output with indentation
response = requests.post(
"https://api.ai-kar.com/v1/chat/completions",
headers={
# Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
"Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
"Content-Type":"application/json"
},
json={
"model":"deepseek/deepseek-prover-v2",
"messages":[
{
"role":"user",
"content":"Hello" # insert your prompt here, instead of Hello
}
],
}
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))نمونه پاسخ موفق (JSON)
RESPONSE (200 OK)
{
"id": "text",
"object": "text",
"created": 1,
"choices": [
{
"index": 1,
"message": {
"role": "text",
"content": "text",
"refusal": null,
"annotations": [
{
"type": "text",
"url_citation": {
"end_index": 1,
"start_index": 1,
"title": "text",
"url": "text"
}
}
],
"audio": {
"id": "text",
"data": "text",
"transcript": "text",
"expires_at": 1
},
"tool_calls": [
{
"id": "text",
"type": "text",
"function": {
"arguments": "text",
"name": "text"
}
}
]
},
"finish_reason": "stop",
"logprobs": {
"content": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text",
"top_logprobs": [
{
"bytes": [
1
],
"logprob": 1,
"token": "text"
}
]
}
],
"refusal": []
}
}
],
"model": "text",
"usage": {
"prompt_tokens": 1,
"completion_tokens": 1,
"total_tokens": 1,
"completion_tokens_details": {
"accepted_prediction_tokens": 1,
"audio_tokens": 1,
"reasoning_tokens": 1,
"rejected_prediction_tokens": 1
},
"prompt_tokens_details": {
"audio_tokens": 1,
"cached_tokens": 1
}
}
}