Text Models (LLM)anthropic

معرفی و مستندات مدل هوش مصنوعی claude-3.5-haiku

مستندات مدل claude-3.5-haiku از Anthropic، ارائه شده توسط ای آی کار (AI-KAR).

معرفی و بررسی فنی

⚡ وضعیت پشتیبانی از زبان فارسی

این مدل از زبان فارسی به صورت متوسط پشتیبانی می‌کند. درک نسبتا خوبی از دستور زبان فارسی دارد اما ممکن است در تولید متون پیچیده فارسی با مشکل مواجه شود.

مدل claude-3.5-haiku یک مدل هوش مصنوعی پیشرفته است که برای پردازش سریع داده‌ها و قابلیت‌های استدلال پیشرفته طراحی شده است. این مدل در کمک به کدنویسی، تعاملات خدمات مشتری و تعدیل محتوا بسیار عالی عمل می‌کند. claude-3.5-haiku به دلیل سرعت و کارایی خود شناخته شده است و آن را به گزینه‌ای ایده‌آل برای برنامه‌هایی تبدیل می‌کند که نیاز به پاسخ‌های سریع و دقیق دارند. این مدل می‌تواند حجم زیادی از داده‌ها را به سرعت تجزیه و تحلیل کند و بینش‌های ارزشمندی را در زمان واقعی ارائه دهد.

در زمینه کمک به کدنویسی، claude-3.5-haiku می‌تواند به توسعه‌دهندگان در تولید کد، اشکال‌زدایی و بهینه‌سازی برنامه‌های نرم‌افزاری کمک کند. این مدل می‌تواند زبان‌های برنامه‌نویسی متعددی را درک کند و می‌تواند قطعه کدها را بر اساس توضیحات زبان طبیعی تولید کند. این قابلیت می‌تواند به طور قابل توجهی زمان و تلاش مورد نیاز برای توسعه نرم‌افزار را کاهش دهد.

در تعاملات خدمات مشتری، claude-3.5-haiku می‌تواند پاسخ‌های شخصی‌سازی‌شده و مرتبط را به سوالات مشتری ارائه دهد. این مدل می‌تواند حجم زیادی از داده‌های مشتری را تجزیه و تحلیل کند تا نیازهای فردی را درک کند و پاسخ‌هایی را ارائه دهد که متناسب با شرایط خاص آنها باشد. این می‌تواند منجر به بهبود رضایت مشتری و وفاداری شود.

در تعدیل محتوا، claude-3.5-haiku می‌تواند محتوای نامناسب یا مضر را در پلتفرم‌های آنلاین شناسایی و حذف کند. این مدل می‌تواند انواع مختلف محتوا، از جمله متن، تصاویر و ویدیوها را تجزیه و تحلیل کند تا محتوایی را که خط‌مشی‌های پلتفرم را نقض می‌کند، شناسایی کند. این می‌تواند به ایجاد یک محیط آنلاین امن‌تر و مثبت‌تر برای همه کاربران کمک کند.

به طور کلی، claude-3.5-haiku یک مدل هوش مصنوعی قدرتمند و همه‌کاره است که می‌تواند برای طیف گسترده‌ای از کاربردها استفاده شود. سرعت، دقت و قابلیت‌های استدلال پیشرفته آن را به یک دارایی ارزشمند برای هر سازمانی تبدیل می‌کند که به دنبال بهبود کارایی و تصمیم‌گیری خود است. این مدل به طور مداوم در حال توسعه و بهبود است، بنابراین کاربران می‌توانند انتظار داشته باشند که در آینده قابلیت‌های بیشتری را ببینند.

مشخصات فنی (API References)

پارامترنوعتوضیحات و مقادیر
model
stringRequired
مدل مورد استفاده برای تکمیل چت. مقادیر ممکن عبارتند از:
مقادیر مجاز (کلیک برای کپی):
frequency_penalty
number
عددی بین -2.0 و 2.0. مقادیر مثبت، توکن‌های جدید را بر اساس فراوانی موجودشان در متن جریمه می‌کنند، و احتمال تکرار عین به عین یک خط توسط مدل را کاهش می‌دهند.
logit_bias
object
تغییر احتمال ظاهر شدن توکن‌های مشخص شده در تکمیل. یک شی JSON را می‌پذیرد که توکن‌ها (مشخص شده توسط شناسه توکن آنها در توکنایزر) را به یک مقدار بایاس مرتبط از -100 تا 100 نگاشت می‌کند. از نظر ریاضی، بایاس به logits تولید شده توسط مدل قبل از نمونه‌برداری اضافه می‌شود. اثر دقیق برای هر مدل متفاوت خواهد بود، اما مقادیر بین -1 و 1 باید احتمال انتخاب را کاهش یا افزایش دهند؛ مقادیری مانند -100 یا 100 باید منجر به ممنوعیت یا انتخاب انحصاری توکن مربوطه شوند.
logprobs
boolean
اینکه آیا احتمالات لگاریتمی توکن‌های خروجی برگردانده شوند یا خیر. اگر True باشد، احتمالات لگاریتمی هر توکن خروجی برگردانده شده در محتوای پیام را برمی‌گرداند.
top_logprobs
number
یک عدد صحیح بین 0 و 20 که تعداد محتمل‌ترین توکن‌ها را برای بازگشت در هر موقعیت توکن مشخص می‌کند، هر کدام با یک احتمال لگاریتمی مرتبط. اگر این پارامتر استفاده شود، logprobs باید روی True تنظیم شود.
max_tokens
number
حداکثر تعداد توکن‌هایی که می‌توانند در تکمیل چت تولید شوند. این مقدار می‌تواند برای کنترل هزینه‌های متن تولید شده از طریق API استفاده شود.
max_completion_tokens
integer
یک حد بالایی برای تعداد توکن‌هایی که می‌توانند برای یک تکمیل تولید شوند، از جمله توکن‌های خروجی قابل مشاهده و توکن‌های استدلال.
n
integer
چند انتخاب تکمیل چت برای هر پیام ورودی تولید شود. توجه داشته باشید که بر اساس تعداد توکن‌های تولید شده در تمام انتخاب‌ها، هزینه دریافت خواهید کرد. n را به عنوان 1 نگه دارید تا هزینه‌ها به حداقل برسد.
presence_penalty
number
مقادیر مثبت، توکن‌های جدید را بر اساس اینکه آیا در متن تا کنون ظاهر شده‌اند جریمه می‌کنند، و احتمال صحبت کردن مدل در مورد موضوعات جدید را افزایش می‌دهند.
seed
integer
اگر مشخص شود، سیستم ما تمام تلاش خود را می‌کند تا به طور قطعی نمونه‌برداری کند، به طوری که درخواست‌های مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند.
messages
arrayRequired
لیستی از پیام‌ها که مکالمه را تا کنون تشکیل می‌دهند. بسته به مدلی که استفاده می‌کنید، انواع مختلف پیام (modalities) پشتیبانی می‌شوند، مانند متن، اسناد (txt, pdf)، تصاویر و صدا.
stream
boolean
اگر روی True تنظیم شود، داده‌های پاسخ مدل با استفاده از رویدادهای ارسال شده توسط سرور به کلاینت ارسال می‌شوند.
top_p
number
یک جایگزین برای نمونه‌برداری با دما، به نام نمونه‌برداری هسته‌ای، که در آن مدل نتایج توکن‌ها را با جرم احتمال top_p در نظر می‌گیرد. بنابراین 0.1 به این معنی است که فقط توکن‌هایی که شامل 10٪ جرم احتمال برتر هستند در نظر گرفته می‌شوند. ما به طور کلی توصیه می‌کنیم این یا دما را تغییر دهید اما نه هر دو.
temperature
number
از چه دمای نمونه‌برداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفی‌تر می‌کنند، در حالی که مقادیر پایین‌تر مانند 0.2 آن را متمرکزتر و قطعی‌تر می‌کنند. ما به طور کلی توصیه می‌کنیم این یا top_p را تغییر دهید اما نه هر دو.
stop
array
حداکثر 4 دنباله که API تولید توکن‌های بیشتر را متوقف می‌کند. متن برگشتی شامل دنباله توقف نخواهد بود.
tools
array
لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان یک ابزار پشتیبانی می‌شوند. از این برای ارائه لیستی از توابعی استفاده کنید که مدل ممکن است ورودی‌های JSON را برای آنها تولید کند. حداکثر 128 تابع پشتیبانی می‌شود.
tool_choice
string
کنترل می‌کند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمی‌کند و در عوض یک پیام تولید می‌کند. auto به این معنی است که مدل می‌تواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور می‌کند تا آن ابزار را فراخوانی کند.
مقادیر مجاز (کلیک برای کپی):
parallel_tool_calls
boolean
اینکه آیا فراخوانی تابع موازی را در طول استفاده از ابزار فعال کنیم یا خیر.
reasoning_effort
string
تلاش برای استدلال را برای مدل‌های استدلال محدود می‌کند. مقادیر پشتیبانی شده در حال حاضر عبارتند از low، medium و high. کاهش تلاش استدلال می‌تواند منجر به پاسخ‌های سریع‌تر و توکن‌های کمتری شود که در استدلال در یک پاسخ استفاده می‌شوند.
مقادیر مجاز (کلیک برای کپی):
modalities
array
انواع خروجی که می خواهید مدل تولید کند. اکثر مدل ها قادر به تولید متن هستند که به طور پیش فرض است: ["text"]

نمونه کدهای درخواست

نکته مهم برای توسعه‌دهندگان:

برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.

import requests
import json

url = 'https://api.ai-kar.com/v1/chat/completions'
headers = {
    'Authorization': 'Bearer <YOUR_AI-KARAPI_KEY>',
    'Content-Type': 'application/json'
}
data = {
    'model': 'anthropic/claude-3-5-haiku',
    'messages': [
        {
            'role': 'user',
            'content': 'Hello'
        }
    ]
}

response = requests.post(url, headers=headers, data=json.dumps(data))

print(response.json())

نمونه پاسخ موفق (JSON)

RESPONSE (200 OK)
{
  "id": "text",
  "object": "text",
  "created": 1,
  "choices": [
    {
      "index": 1,
      "message": {
        "role": "text",
        "content": "text",
        "refusal": null,
        "annotations": [
          {
            "type": "text",
            "url_citation": {
              "end_index": 1,
              "start_index": 1,
              "title": "text",
              "url": "text"
            }
          }
        ],
        "audio": {
          "id": "text",
          "data": "text",
          "transcript": "text",
          "expires_at": 1
        },
        "tool_calls": [
          {
            "id": "text",
            "type": "text",
            "function": {
              "arguments": "text",
              "name": "text"
            }
          }
        ]
      },
      "finish_reason": "stop",
      "logprobs": {
        "content": [
          {
            "bytes": [
              1
            ],
            "logprob": 1,
            "token": "text",
            "top_logprobs": [
              {
                "bytes": [
                  1
                ],
                "logprob": 1,
                "token": "text"
              }
            ]
          }
        ],
        "refusal": []
      }
    }
  ],
  "model": "text",
  "usage": {
    "prompt_tokens": 1,
    "completion_tokens": 1,
    "total_tokens": 1,
    "completion_tokens_details": {
      "accepted_prediction_tokens": 1,
      "audio_tokens": 1,
      "reasoning_tokens": 1,
      "rejected_prediction_tokens": null
    }
  }
}