Text Models (LLM)anthropic

معرفی و مستندات مدل هوش مصنوعی claude-4-opus

مستندات مدل claude-4-opus از Anthropic، ارائه شده توسط ای آی کار (AI-KAR)

معرفی و بررسی فنی

⚡ وضعیت پشتیبانی از زبان فارسی

این مدل از زبان فارسی به صورت متوسط پشتیبانی می‌کند. درک و تولید متن فارسی توسط این مدل امکان‌پذیر است، اما ممکن است در برخی موارد با محدودیت‌هایی مواجه شود.

معرفی مدل هوش مصنوعی claude-4-opus

مدل claude-4-opus، جدیدترین و پیشرفته‌ترین مدل زبانی ارائه شده توسط Anthropic، اکنون از طریق ای آی کار (AI-KAR) در دسترس است. این مدل با هدف ارائه عملکردی بی‌نظیر در زمینه‌های مختلف طراحی شده و به عنوان یک راهکار جامع برای توسعه‌دهندگان و کسب‌وکارها مطرح می‌شود.

claude-4-opus به طور خاص در انجام وظایف پیچیده و طولانی‌مدت، و همچنین در گردش‌کارهای مبتنی بر عامل (agent-based workflows) سرآمد است. این مدل به عنوان یک رهبر جهانی در زمینه کدنویسی شناخته می‌شود و توانایی بالایی در درک و تولید کد با کیفیت دارد. از جمله کاربردهای کلیدی این مدل می‌توان به موارد زیر اشاره کرد:

  • تولید متن: claude-4-opus قادر است متون خلاقانه، فنی، و تخصصی را با کیفیت بالا تولید کند. این شامل مقالات، گزارش‌ها، ایمیل‌ها، و محتوای وب می‌شود.
  • خلاصه‌سازی: این مدل می‌تواند متون طولانی را به خلاصه‌های کوتاه و مفید تبدیل کند، در حالی که اطلاعات کلیدی را حفظ می‌کند.
  • ترجمه زبان: claude-4-opus از ترجمه بین زبان‌های مختلف پشتیبانی می‌کند و می‌تواند متون را با دقت بالا ترجمه کند.
  • پاسخ به سوالات: این مدل می‌تواند به سوالات پیچیده پاسخ دهد و اطلاعات مرتبط را از منابع مختلف استخراج کند.
  • تولید کد: claude-4-opus در تولید کد به زبان‌های مختلف برنامه‌نویسی مهارت دارد و می‌تواند به توسعه‌دهندگان در نوشتن کد کارآمد و بدون خطا کمک کند.
  • تحلیل احساسات: این مدل می‌تواند احساسات موجود در متن را تشخیص دهد و تحلیل کند، که برای کاربردهایی مانند نظارت بر رسانه‌های اجتماعی و تحلیل بازخورد مشتریان مفید است.
  • تولید محتوای خلاقانه: claude-4-opus می‌تواند داستان‌ها، شعرها، و سایر انواع محتوای خلاقانه را تولید کند.

علاوه بر این، claude-4-opus از قابلیت‌های پیشرفته‌ای مانند استدلال، برنامه‌ریزی، و حل مسئله برخوردار است. این مدل می‌تواند به عنوان یک دستیار مجازی هوشمند عمل کند و به کاربران در انجام وظایف مختلف کمک کند.

ای آی کار (AI-KAR) با ارائه این مدل پیشرفته، به توسعه‌دهندگان و کسب‌وکارها این امکان را می‌دهد تا از آخرین دستاوردهای هوش مصنوعی در پروژه‌های خود بهره‌مند شوند. ما در ای آی کار (AI-KAR) متعهد به ارائه بهترین خدمات و پشتیبانی به مشتریان خود هستیم و همواره در تلاشیم تا راهکارهای نوآورانه‌ای را در زمینه هوش مصنوعی ارائه دهیم.

برای شروع کار با claude-4-opus، می‌توانید از طریق API ای آی کار (AI-KAR) به این مدل دسترسی پیدا کنید. مستندات کامل API و نمونه‌های کد در این صفحه ارائه شده است. در صورت نیاز به راهنمایی بیشتر، تیم پشتیبانی ما آماده پاسخگویی به سوالات شما است.

مشخصات فنی (API References)

پارامترنوعتوضیحات و مقادیر
model
stringRequired
مدل مورد استفاده برای تکمیل گفتگو. مقدار این فیلد باید `anthropic/claude-opus-4` یا `claude-opus-4-20250514` یا `claude-opus-4` باشد.
مقادیر مجاز (کلیک برای کپی):
frequency_penalty
number | nullable
عددی بین -2.0 و 2.0. مقادیر مثبت، توکن‌های جدید را بر اساس فراوانی موجودشان در متن جریمه می‌کنند، و احتمال تکرار عین به عین یک خط توسط مدل را کاهش می‌دهند.
logit_bias
object | nullable
تغییر احتمال ظاهر شدن توکن‌های مشخص شده در تکمیل. یک شی JSON را می‌پذیرد که توکن‌ها (مشخص شده توسط ID توکن‌شان در توکنایزر) را به یک مقدار بایاس مرتبط از -100 تا 100 نگاشت می‌کند. از نظر ریاضی، بایاس به logits تولید شده توسط مدل قبل از نمونه‌برداری اضافه می‌شود. اثر دقیق بسته به مدل متفاوت خواهد بود، اما مقادیر بین -1 و 1 باید احتمال انتخاب را کاهش یا افزایش دهند؛ مقادیری مانند -100 یا 100 باید منجر به ممنوعیت یا انتخاب انحصاری توکن مربوطه شوند.
logprobs
boolean | nullable
مشخص می‌کند که آیا احتمال لگاریتمی توکن‌های خروجی برگردانده شود یا خیر. اگر True باشد، احتمال لگاریتمی هر توکن خروجی برگردانده شده در محتوای پیام را برمی‌گرداند.
top_logprobs
number | nullable
یک عدد صحیح بین 0 و 20 که تعداد محتمل‌ترین توکن‌ها را برای بازگشت در هر موقعیت توکن مشخص می‌کند، هر کدام با یک احتمال لگاریتمی مرتبط. اگر این پارامتر استفاده شود، logprobs باید روی True تنظیم شود.
max_tokens
number
حداکثر تعداد توکن‌هایی که می‌توانند در تکمیل چت تولید شوند. این مقدار می‌تواند برای کنترل هزینه‌ها برای متن تولید شده از طریق API استفاده شود.
max_completion_tokens
integer
حد بالایی برای تعداد توکن هایی که می توانند برای یک تکمیل تولید شوند، از جمله توکن های خروجی قابل مشاهده و توکن های استدلال.
n
integer | nullable
تعداد انتخاب‌های تکمیل چت که برای هر پیام ورودی تولید می‌شوند. توجه داشته باشید که هزینه شما بر اساس تعداد توکن‌های تولید شده در تمام انتخاب‌ها محاسبه می‌شود. مقدار n را 1 نگه دارید تا هزینه‌ها را به حداقل برسانید.
prediction
object
پیکربندی برای یک خروجی پیش‌بینی‌شده، که می‌تواند زمان پاسخ را در زمانی که بخش‌های بزرگی از پاسخ مدل از قبل مشخص هستند، به شدت بهبود بخشد.
presence_penalty
number | nullable
مقادیر مثبت، توکن‌های جدید را بر اساس اینکه آیا در متن تا به حال ظاهر شده‌اند جریمه می‌کنند، و احتمال صحبت کردن مدل در مورد موضوعات جدید را افزایش می‌دهند.
seed
integer
این ویژگی در حالت بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را می‌کند تا به صورت قطعی نمونه‌برداری کند، به طوری که درخواست‌های مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند.
messages
one of[]Required
لیستی از پیام‌ها که مکالمه را تا به حال تشکیل می‌دهند. بسته به مدلی که استفاده می‌کنید، انواع پیام‌های مختلف ( modalities ) پشتیبانی می‌شوند، مانند متن، اسناد (txt, pdf)، تصاویر و صدا.
stream
boolean
اگر روی True تنظیم شود، داده‌های پاسخ مدل با استفاده از رویدادهای ارسال شده توسط سرور (server-sent events) به صورت جریانی به کلاینت ارسال می‌شوند.
stream_options
object
گزینه های استریم
top_p
number
جایگزینی برای نمونه‌برداری با دما، به نام نمونه‌برداری هسته‌ای، که در آن مدل نتایج توکن‌ها را با جرم احتمال top_p در نظر می‌گیرد. بنابراین 0.1 به این معنی است که فقط توکن‌هایی که 10٪ جرم احتمال برتر را تشکیل می‌دهند در نظر گرفته می‌شوند. ما به طور کلی توصیه می کنیم این یا دما را تغییر دهید، اما نه هر دو.
temperature
number
از چه دمای نمونه‌برداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفی‌تر می‌کنند، در حالی که مقادیر پایین‌تر مانند 0.2 آن را متمرکزتر و قطعی‌تر می‌کنند. ما به طور کلی توصیه می کنیم این یا top_p را تغییر دهید، اما نه هر دو.
stop
any of
حداکثر 4 دنباله که API تولید توکن‌های بیشتر را متوقف می‌کند. متن برگشتی شامل دنباله توقف نخواهد بود.
tools
object[]
لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان یک ابزار پشتیبانی می‌شوند. از این برای ارائه لیستی از توابعی که مدل ممکن است ورودی‌های JSON را برای آنها تولید کند، استفاده کنید. حداکثر 128 تابع پشتیبانی می‌شود.
tool_choice
any of
کنترل می کند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمی کند و در عوض یک پیام تولید می کند. auto به این معنی است که مدل می تواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور می کند تا آن ابزار را فراخوانی کند. none مقدار پیش فرض است زمانی که هیچ ابزاری وجود نداشته باشد. auto مقدار پیش فرض است اگر ابزارها وجود داشته باشند.
مقادیر مجاز (کلیک برای کپی):
parallel_tool_calls
boolean
مشخص می کند که آیا فراخوانی تابع موازی در طول استفاده از ابزار فعال شود یا خیر.
reasoning_effort
string
تلاش برای استدلال برای مدل های استدلال را محدود می کند. مقادیر پشتیبانی شده در حال حاضر کم، متوسط ​​و زیاد هستند. کاهش تلاش استدلال می تواند منجر به پاسخ های سریع تر و توکن های کمتری شود که در استدلال در یک پاسخ استفاده می شود.
مقادیر مجاز (کلیک برای کپی):
response_format
one of
یک شی که فرمتی را مشخص می کند که مدل باید خروجی دهد.
audio
object | nullable
پارامترها برای خروجی صدا. هنگام درخواست خروجی صدا با modalities: ["audio"] مورد نیاز است.
modalities
string | nullable
انواع خروجی که می خواهید مدل تولید کند. اکثر مدل ها قادر به تولید متن هستند که مقدار پیش فرض است: ["text"] مدل gpt-4o-audio-preview همچنین می تواند برای تولید صدا استفاده شود. برای درخواست اینکه این مدل هم پاسخ های متنی و هم صوتی تولید کند، می توانید از: ["text", "audio"] استفاده کنید.
web_search_options
object
این ابزار وب را برای نتایج مرتبط جستجو می کند تا در یک پاسخ استفاده شود.

نمونه کدهای درخواست

نکته مهم برای توسعه‌دهندگان:

برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.

import requests
import json  # for getting a structured output with indentation

url = 'https://api.ai-kar.com/v1/chat/completions'
headers = {
    'Authorization': 'Bearer <YOUR_AI-KARAPI_KEY>',
    'Content-Type': 'application/json'
}
data = {
    'model': 'anthropic/claude-opus-4',
    'messages': [
        {
            'role': 'user',
            'content': 'Hello'
        }
    ]
}

response = requests.post(url, headers=headers, data=json.dumps(data))

# Use json.dumps with indentation for a nicely formatted output
print(json.dumps(response.json(), indent=2))

نمونه پاسخ موفق (JSON)

RESPONSE (200 OK)
{
  "id": "text",
  "object": "text",
  "created": 1,
  "choices": [
    {
      "index": 1,
      "message": {
        "role": "text",
        "content": "text",
        "refusal": null,
        "annotations": [
          {
            "type": "text",
            "url_citation": {
              "end_index": 1,
              "start_index": 1,
              "title": "text",
              "url": "text"
            }
          }
        ],
        "audio": {
          "id": "text",
          "data": "text",
          "transcript": "text",
          "expires_at": 1
        },
        "tool_calls": [
          {
            "id": "text",
            "type": "text",
            "function": {
              "arguments": "text",
              "name": "text"
            }
          }
        ]
      },
      "finish_reason": "stop",
      "logprobs": {
        "content": [
          {
            "bytes": [
              1
            ],
            "logprob": 1,
            "token": "text",
            "top_logprobs": [
              {
                "bytes": [
                  1
                ],
                "logprob": 1,
                "token": "text"
              }
            ]
          }
        ],
        "refusal": []
      }
    }
  ],
  "model": "text",
  "usage": {
    "prompt_tokens": 1,
    "completion_tokens": 1,
    "total_tokens": 1,
    "completion_tokens_details": {
      "accepted_prediction_tokens": 1,
      "audio_tokens": 1,
      "reasoning_tokens": 1,
      "rejected_prediction_tokens": 1
    },
    "prompt_tokens_details": {
      "audio_tokens": 1,
      "cached_tokens": 1
    }
  }
}