Text Models (LLM)meta

معرفی و مستندات مدل هوش مصنوعی llama-3.3-70b-versatile

معرفی مدل llama-3.3-70b-versatile از meta، ارائه شده توسط ای ای کار (AI-KAR).

معرفی و بررسی فنی

⚡ وضعیت پشتیبانی از زبان فارسی

این مدل از زبان فارسی به صورت متوسط پشتیبانی می‌کند. درک متون فارسی در سطح قابل قبولی است، اما تولید متن فارسی ممکن است نیاز به ویرایش داشته باشد.

مدل llama-3.3-70b-versatile یک مدل زبانی بزرگ چند زبانه با 70 میلیارد پارامتر است که برای انجام وظایف مختلف پردازش زبان طبیعی (NLP) بهینه شده است. این مدل عملکرد بالایی را در معیارهای مختلف ارائه می‌دهد و در عین حال برای طیف گسترده‌ای از برنامه‌ها کارآمد باقی می‌ماند. این مدل توسط Meta توسعه داده شده و از طریق API ای ای کار (AI-KAR) در دسترس است. از جمله قابلیت‌های کلیدی این مدل می‌توان به موارد زیر اشاره کرد:
  • **تولید متن:** این مدل قادر است متون منسجم و مرتبط با موضوعات مختلف تولید کند. می‌توانید از آن برای نوشتن مقالات، داستان‌ها، ایمیل‌ها و سایر انواع محتوای متنی استفاده کنید.
  • **ترجمه زبان:** این مدل می‌تواند متن را بین زبان‌های مختلف ترجمه کند. این قابلیت برای کسب‌وکارهایی که با مشتریان بین‌المللی سروکار دارند یا افرادی که به دنبال دسترسی به اطلاعات به زبان‌های دیگر هستند، بسیار مفید است.
  • **خلاصه‌سازی متن:** این مدل می‌تواند متون طولانی را به خلاصه‌های کوتاه و مفید تبدیل کند. این قابلیت برای صرفه‌جویی در زمان و تمرکز بر نکات کلیدی یک متن بسیار کارآمد است.
  • **پاسخ به سوالات:** این مدل می‌تواند به سوالات شما در مورد موضوعات مختلف پاسخ دهد. این قابلیت می‌تواند به عنوان یک ابزار آموزشی یا برای دسترسی سریع به اطلاعات مورد نیاز استفاده شود.
  • **تولید کد:** این مدل می‌تواند کد برنامه‌نویسی به زبان‌های مختلف تولید کند. این قابلیت برای توسعه‌دهندگان نرم‌افزار که به دنبال تسریع فرآیند کدنویسی هستند، بسیار ارزشمند است.
  • **درک و تولید محتوای چند رسانه‌ای:** بسته به تنظیمات و قابلیت‌های فعال شده در API، این مدل ممکن است قادر به درک و تولید محتوا بر اساس ورودی‌های چند رسانه‌ای مانند تصاویر و صدا باشد. این قابلیت امکان ایجاد برنامه‌های کاربردی نوآورانه در زمینه‌های مختلف را فراهم می‌کند.
برای استفاده از این مدل، ابتدا باید یک حساب کاربری در وب‌سایت ای ای کار (AI-KAR) ایجاد کنید و یک کلید API دریافت کنید. سپس می‌توانید از طریق API به مدل دسترسی پیدا کرده و درخواست‌های خود را ارسال کنید. پارامترهای مختلفی برای کنترل رفتار مدل در دسترس هستند، از جمله دما (temperature)، احتمال نمونه‌برداری (top_p) و حداکثر تعداد توکن‌ها (max_tokens). با تنظیم این پارامترها می‌توانید خروجی مدل را بهینه کرده و نتایج دلخواه خود را به دست آورید. این مدل به طور مداوم در حال بهبود است و قابلیت‌های جدیدی به آن اضافه می‌شود. تیم توسعه ای ای کار (AI-KAR) همواره در تلاش است تا این مدل را به یک ابزار قدرتمند و کارآمد برای پردازش زبان طبیعی تبدیل کند.

مشخصات فنی (API References)

پارامترنوعتوضیحات و مقادیر
model
stringRequired
مدلی که برای تولید پاسخ استفاده می‌شود.
مقادیر مجاز (کلیک برای کپی):
messages
one of[]Required
لیستی از پیام‌ها که مکالمه را تا به اینجا تشکیل می‌دهند. بسته به مدلی که استفاده می‌کنید، انواع مختلفی از پیام‌ها (modalities) مانند متن، اسناد (txt, pdf)، تصاویر و صدا پشتیبانی می‌شوند.
max_completion_tokens
integer
حد بالایی برای تعداد توکن‌هایی که می‌توان برای تکمیل تولید کرد، از جمله توکن‌های خروجی قابل مشاهده و توکن‌های استدلال.
max_tokens
number
حداکثر تعداد توکن‌هایی که می‌توان در تکمیل چت تولید کرد. این مقدار می‌تواند برای کنترل هزینه‌های متن تولید شده از طریق API استفاده شود.
stream
boolean
اگر روی True تنظیم شود، داده‌های پاسخ مدل به صورت جریانی با استفاده از رویدادهای ارسال شده از سرور به کلاینت ارسال می‌شوند.
مقادیر مجاز (کلیک برای کپی):
stream_options
object
تنظیمات مربوط به جریان داده.
temperature
number
از چه دمای نمونه‌برداری استفاده شود. مقادیر بالاتر مانند 0.8 خروجی را تصادفی‌تر می‌کنند، در حالی که مقادیر پایین‌تر مانند 0.2 آن را متمرکزتر و قطعی‌تر می‌کنند. ما به طور کلی توصیه می‌کنیم این مقدار یا top_p را تغییر دهید، اما نه هر دو را.
top_p
number
جایگزینی برای نمونه‌برداری با دما، به نام نمونه‌برداری هسته‌ای، که در آن مدل نتایج توکن‌ها را با جرم احتمال top_p در نظر می‌گیرد. بنابراین 0.1 به این معنی است که فقط توکن‌هایی که 10٪ جرم احتمال برتر را تشکیل می‌دهند در نظر گرفته می‌شوند. ما به طور کلی توصیه می‌کنیم این مقدار یا دما را تغییر دهید، اما نه هر دو را.
seed
integer
این ویژگی در حالت بتا است. اگر مشخص شود، سیستم ما تمام تلاش خود را می‌کند تا به طور قطعی نمونه‌برداری کند، به طوری که درخواست‌های مکرر با همان seed و پارامترها باید نتیجه یکسانی را برگردانند.
tools
object[]
لیستی از ابزارهایی که مدل ممکن است فراخوانی کند. در حال حاضر، فقط توابع به عنوان ابزار پشتیبانی می‌شوند. از این برای ارائه لیستی از توابعی استفاده کنید که مدل ممکن است ورودی‌های JSON را برای آنها تولید کند. حداکثر 128 تابع پشتیبانی می‌شود.
tool_choice
any of
کنترل می‌کند که کدام ابزار (در صورت وجود) توسط مدل فراخوانی شود. none به این معنی است که مدل هیچ ابزاری را فراخوانی نمی‌کند و در عوض یک پیام تولید می‌کند. auto به این معنی است که مدل می‌تواند بین تولید یک پیام یا فراخوانی یک یا چند ابزار انتخاب کند. required به این معنی است که مدل باید یک یا چند ابزار را فراخوانی کند. تعیین یک ابزار خاص از طریق {"type": "function", "function": {"name": "my_function"}} مدل را مجبور می‌کند تا آن ابزار را فراخوانی کند.
مقادیر مجاز (کلیک برای کپی):
parallel_tool_calls
boolean
اینکه آیا فراخوانی تابع موازی در طول استفاده از ابزار فعال شود یا خیر.
frequency_penalty
number | nullable
عددی بین -2.0 و 2.0. مقادیر مثبت، توکن‌های جدید را بر اساس فراوانی موجود آنها در متن تا به اینجا جریمه می‌کنند و احتمال تکرار کلمه به کلمه همان خط توسط مدل را کاهش می‌دهند.
presence_penalty
number | nullable
مقادیر مثبت، توکن‌های جدید را بر اساس اینکه آیا در متن تا به اینجا ظاهر شده‌اند جریمه می‌کنند و احتمال صحبت کردن مدل در مورد موضوعات جدید را افزایش می‌دهند.
stop
any of
حداکثر 4 دنباله که API تولید توکن‌های بیشتر را متوقف می‌کند. متن برگشتی شامل دنباله توقف نخواهد بود.
response_format
one of
شیئی که فرمتی را مشخص می‌کند که مدل باید خروجی دهد.

نمونه کدهای درخواست

نکته مهم برای توسعه‌دهندگان:

برای احراز هویت، حتما کلید API خود را جایگزین YOUR_API_KEY کنید. هدر Authorization الزامی است.

import requests
import json  # for getting a structured output with indentation
response = requests.post(
    "https://api.ai-kar.com/v1/chat/completions",
    headers={
        # Insert your AI-KAR API Key instead of <YOUR_AI-KARAPI_KEY>:
        "Authorization":"Bearer <YOUR_AI-KARAPI_KEY>",
        "Content-Type":"application/json"
    },
    json={
        "model":"meta-llama/llama-3.3-70b-versatile",
        "messages":[
            {
                "role":"user",
                "content":"Hello"  # insert your prompt here, instead of Hello
            }
        ],
    }
)
data = response.json()
print(json.dumps(data, indent=2, ensure_ascii=False))

نمونه پاسخ موفق (JSON)

RESPONSE (200 OK)
{
  "id": "text",
  "object": "text",
  "created": 1,
  "choices": [
    {
      "index": 1,
      "message": {
        "role": "text",
        "content": "text",
        "refusal": null,
        "annotations": [
          {
            "type": "text",
            "url_citation": {
              "end_index": 1,
              "start_index": 1,
              "title": "text",
              "url": "text"
            }
          }
        ],
        "audio": {
          "id": "text",
          "data": "text",
          "transcript": "text",
          "expires_at": 1
        },
        "tool_calls": [
          {
            "id": "text",
            "type": "text",
            "function": {
              "arguments": "text",
              "name": "text"
            }
          }
        ]
      },
      "finish_reason": "stop",
      "logprobs": {
        "content": [
          {
            "bytes": [
              1
            ],
            "logprob": 1,
            "token": "text",
            "top_logprobs": [
              {
                "bytes": [
                  1
                ],
                "logprob": 1,
                "token": "text"
              }
            ]
          }
        ],
        "refusal": []
      }
    }
  ],
  "model": "text",
  "usage": {
    "prompt_tokens": 1,
    "completion_tokens": 1,
    "total_tokens": 1,
    "completion_tokens_details": {
      "accepted_prediction_tokens": 1,
      "audio_tokens": 1,
      "reasoning_tokens": 1,
      "rejected_prediction_tokens": 1
    },
    "prompt_tokens_details": {
      "audio_tokens": 1,
      "cached_tokens": 1
    }
  }
}