Home/Models/Anthropic/Claude 3.5 Sonnet
C

Claude 3.5 Sonnet

مدخل:$2.4/M
الإخراج:$12/M
سياق:200K
الحد الأقصى للإخراج:64K
Claude 3.5 Sonnet is a production-grade large language model (LLM) from Anthropic introduced as the first member of the Claude 3.5 family. It was positioned to raise the bar for practical intelligence — improving instruction following, multi-step reasoning and developer/agent workflows — while keeping response latency and cost comparable to Anthropic’s previous “Sonnet” tier.
جديد
الاستخدام التجاري
Playground
نظرة عامة
الميزات
التسعير
API
الإصدارات

الميزات الأساسية (ما الذي يقدّمه Claude Sonnet 3.5 لك)

  • استدلال قوي والالتزام بالتعليمات: مضبوطة لمهام منطقية متعددة الخطوات ولأسئلة وأجوبة المستندات.
  • الوكالة واستخدام الأدوات: مبني لتنفيذ استدعاءات أدوات متينة وتنظيم تدفقات عمل وكيلية (مثل اختيار الأداة وتصحيح الأخطاء). أضافت Anthropic قدرة استخدام الحاسوب بإصدار تجريبي عام تتيح لـ Claude التفاعل مع واجهة رسومية (مؤشر، نقرات، كتابة) في عرض “flipbook”. هذه ميزة تجريبية لكنها لافتة لأتمتة مهام الواجهة الرسومية.
  • قدرات برمجية قوية: أداء تنافسي في HumanEval / SWE-bench (انظر Benchmarks).
  • ضوابط أمان وخصوصية مُدارة: تواصل Anthropic التأكيد على تدريب يضع السلامة أولاً وخيارات افتراضية أكثر أماناً عبر نماذج Claude.

التفاصيل التقنية لـ Claude 3.5 Sonnet

  • متعدد الوسائط: يتعامل مع النصوص + الصور (واجهات رؤية تقبل صور base64 أو عبر URL)، بما في ذلك الرسوم/المخططات والإجابة عن الأسئلة البصرية.
  • سياق طويل: نافذة سياق منشورة تبلغ ~200k رموز للمستندات الطويلة وتحليل ملفات متعددة.
  • استدلال وبرمجة أقوى مقارنة بنماذج الفئة المتوسطة السابقة: مكاسب مستهدفة على معايير مواجهة للمطورين (انظر Benchmarks).
  • دعم الأدوات/الوكالة: Messages API يدعم أنماط استخدام الأدوات (تنفيذ الشيفرة، الجلب عبر الويب، وكلاء بأسلوب “استخدام الحاسوب”) ومخرجات JSON منظمة لعمليات تكامل متينة.
  • نهج تدريب يضع السلامة أولاً: مبني على مبادئ Anthropic الخاصة بـ Constitutional AI وتقنيات إضافية للتصنيف/الحماية.

أداء Claude 3.5 Sonnet على معايير القياس

تختلف النتائج حسب نمط التلقين وعدد الأمثلة والنسخة الدقيقة من النموذج. فيما يلي أرقام عامة ممثلة ومنتشرة الاستشهاد (جميع المصادر مرتبطة بالبائع أو صفحات معايير عامة):

  • BIG-Bench-Hard (3-shot CoT / Sonnet reporting): حوالي ~93.1% — ما يشير إلى أداء قوي جداً في الاستدلال متعدد الخطوات على مجموعة BIG-Bench-Hard كما ورد في قوائم البائعين/الشركاء.
  • HumanEval (صحة الشيفرة): حوالي ~93–94% (أُبلغ عن درجات HumanEval رفيعة المستوى لـ Sonnet في مواد Anthropic/GitHub Copilot)، ما يضع Sonnet ضمن الأعلى أداءً في اختبارات توليد الشيفرة القياسية.
  • SWE-bench (برمجة وكيلية/حل قضايا GitHub، “Verified”): حوالي ~49% (حقق Sonnet تحسناً ملحوظاً مقارنة بالإصدارات السابقة على مهام SWE-bench Verified). ملاحظة: يركّز SWE-bench على حل قضايا حقيقية في GitHub ويتأثر بنمط التلقين والبيئة/الأدوات.

محاذير حول المعايير: يستخدم البائعون والمقوّمون الخارجيون قوالب تلقين وإعدادات ومرشحات تقييم مختلفة. استخدم هذه الأرقام كإشارات مقارنة لا كضمانات مطلقة لسيناريوهات إنتاج بعينها.


القيود والمخاطر المعروفة لـ Claude 3.5 Sonnet

  • الهلوسات/أخطاء الحقائق: يقلل Sonnet بعض حالات الفشل مقارنة بالنماذج الأقدم لكنه قد ينتج معلومات غير صحيحة أو متخيلة، خصوصاً في الحقائق المتخصصة جداً أو الحديثة. استخدم الاسترجاع/‏RAG والتحقق للمخرجات عالية المخاطر.
  • ميزات تجريبية: قدرة استخدام الحاسوب صدرت كنسخة تجريبية عامة ولا تزال عرضة للأخطاء (تلاحظ الشاشة بصيغة “flipbook”، وقد تفوت أحداث واجهة قصيرة العمر). لا تعتمد عليها في عمليات حرجة للسلامة أو ذات توقيت ضيق دون مراقبة متينة.
  • التحيز وحواجز السلامة: يرث Sonnet ضبط Anthropic الموجّه للسلامة، ما يقلل العديد من المخرجات غير الآمنة لكنه قد يؤدي إلى رفضات حذرة أو ترشيحات في حالات ملتبسة.
  • قيود تشغيلية: حدود الرموز، حدود المعدّل، شرائح التسعير والتوافر الإقليمي تختلف حسب المنصة (Anthropic مباشرة، Bedrock، Vertex AI). ثبّت الإصدارات وراجع حصص المنصة قبل الإطلاق الإنتاجي.

مقارنة مع gpt 4o وClaude 4

(المقارنات تقريبية وتعتمد على النسخة؛ الأرقام أدناه تلخص ادعاءات عامة مقارنةً بمواد علنية.)

  • مقابل GPT-4 / GPT-4o (OpenAI): كثيراً ما يُبلّغ Sonnet عن درجات أعلى في الاستدلال متعدد الخطوات وصحة الشيفرة (مثل HumanEval / BIG-Bench variants في مواد البائع)، فيما تبقى نماذج GPT منافسة في الرياضيات ومهام سلاسل التفكير وفي الأدوات (مع مقايضات كمون/كلفة مختلفة). تتباين المقارنات التجريبية حسب المعيار.
  • مقابل Opus / Claude 4 من Anthropic: قد يتفوق Opus / Claude 4 (ولقطات Sonnet الأحدث) في المهام الأعقد والأثقل حسابياً؛ يظل Sonnet جذاباً لتدفقات عمل وكيلية تتطلب توازناً بين الكلفة والكمون.

التوصية: أجرِ اختبارات A/B قصيرة خاصة بمجالك (نفس التلقين، نسخ نموذج مثبتة) بدل الاعتماد فقط على لوائح المتصدرين؛ فالفائدة الفعلية تطبيقية وتعتمد على المهمة.


حالات استخدام إنتاجية مُمثِّلة

  • أتمتة وكيلية: تنظيم الأدوات، فرز التذاكر، استدعاءات أدوات مُهيكلة ومهام واجهة رسومية آلية (مع المراقبة).
  • الهندسة البرمجية ومساعدة الشيفرة: توليد/تحويل/ترحيل الشيفرة، تلخيص PR، اقتراحات تصحيح الأخطاء — قوة Sonnet في SWE-bench / HumanEval تجعله خياراً قوياً لمساعدي البرمجة.
  • الأسئلة والأجوبة وتلخيص الوثائق: فهم سياقي أعمق للعقود والتقارير البحثية والوثائق الطويلة (مع الاسترجاع).
  • استخراج البيانات من المرئيات: استُخدم Sonnet لاستخراج/فهم محتوى الرسوم والجداول حيث تسمح المنصات بمدخلات الصور.

كيفية الوصول إلى Claude Sonnet 3.5 API

الخطوة 1: التسجيل للحصول على مفتاح API

سجّل الدخول إلى cometapi.com. إذا لم تكن مستخدمنا بعد، يُرجى التسجيل أولاً. سجّل دخولك إلى CometAPI console. احصل على بيانات اعتماد الوصول لمفتاح API للواجهة. انقر “Add Token” في رمز API ضمن المركز الشخصي، واحصل على مفتاح الرمز: sk-xxxxx ثم أرسِل.

صورة

الخطوة 2: إرسال الطلبات إلى Claude Opus 4.1

حدد نقطة النهاية “claude-3-5-sonnet-20241022” لإرسال طلب API وتعيين جسم الطلب. تُستمد طريقة الطلب وجسمه من مستند API على موقعنا. يوفر موقعنا أيضاً اختبار Apifox لراحتك. استبدل <YOUR_API_KEY> بمفتاح CometAPI الفعلي من حسابك. عنوان الأساس هو صيغة Anthropic Messages وChat.

أدرج سؤالك أو طلبك في حقل content — فهذا ما سيستجيب له النموذج. عالج استجابة API للحصول على الإجابة المُولدة.

الخطوة 3: استرجاع النتائج والتحقق منها

عالج استجابة API للحصول على الإجابة المُولدة. بعد المعالجة، تستجيب واجهة API بحالة المهمة وبيانات المخرجات.

الميزات لـ Claude 3.5 Sonnet

متعدد الوسائط: يتعامل مع النصوص + الصور (واجهات برمجة تطبيقات للرؤية تقبل صور base64 أو عبر عناوين URL)، بما في ذلك المخططات/الرسوم البيانية والإجابة عن الأسئلة بصرياً. سياق طويل: نافذة سياق منشورة بحجم ~200k tokens للمستندات الطويلة ولتحليل متعدد الملفات. Anthropic استدلال وبرمجة أقوى من النماذج متوسطة المستوى السابقة: مكاسب مستهدفة على معايير الأداء الموجّهة للمطورين (انظر Benchmarks). Anthropic +1 الدعم للأدوات/الوكلاء: تدعم Messages API أنماط استخدام الأدوات (تنفيذ الشيفرة، الجلب من الويب، وكلاء بأسلوب “computer use”) ومخرجات JSON منظَّمة لتكاملات متينة. منهج تدريب يضع السلامة أولاً: مبني على مبادئ Constitutional AI من Anthropic وتقنيات إضافية للتصنيف/الحماية.

التسعير لـ Claude 3.5 Sonnet

استكشف الأسعار التنافسية لـ Claude 3.5 Sonnet، المصمم ليناسب الميزانيات المختلفة واحتياجات الاستخدام المتنوعة. تضمن خططنا المرنة أن تدفع فقط مقابل ما تستخدمه، مما يجعل من السهل التوسع مع نمو متطلباتك. اكتشف كيف يمكن لـ Claude 3.5 Sonnet تحسين مشاريعك مع الحفاظ على التكاليف قابلة للإدارة.
سعر كوميت (USD / M Tokens)السعر الرسمي (USD / M Tokens)خصم
مدخل:$2.4/M
الإخراج:$12/M
في الثانية:$20
-88%

نموذج الكود وواجهة برمجة التطبيقات لـ Claude 3.5 Sonnet

توفّر Claude 3.5 Sonnet API للمطورين وصولًا برمجيًا إلى نموذج لغة ذكاء اصطناعي متقدم من Anthropic، بما يحقق توازنًا بين الذكاء والكفاءة لدمجه في مختلف التطبيقات والخدمات.

إصدارات Claude 3.5 Sonnet

قد تشمل الأسباب وراء احتواء Claude 3.5 Sonnet على لقطات متعددة عوامل محتملة مثل اختلاف المخرجات بعد التحديثات التي تتطلب اللقطات القديمة لضمان الاتساق، وتوفير فترة انتقالية للمطورين للتكيف والهجرة، وارتباط اللقطات المختلفة بنقاط النهاية العالمية أو الإقليمية لتحسين تجربة المستخدم. للاطلاع على الاختلافات التفصيلية بين الإصدارات، يرجى الرجوع إلى الوثائق الرسمية.
cometapi-3-5-sonnet
claude-3-5-sonnet-20240620الإصدار الأول من Claude 3.5 Sonnet (أول إطلاق لعائلة Claude 3.5)
claude-3-5-sonnet-20241022أعلنت Anthropic عن إصدار محسّن من Claude 3.5 Sonnet (تحسينات في البرمجة/الرؤية وملاحظات التسعير المحدّثة).
claude-3-5-sonnet-latest
cometapi-3-5-sonnet

المزيد من النماذج