Home/Models/DeepSeek/DeepSeek-V3.2
D

DeepSeek-V3.2

مدخل:$0.216/M
الإخراج:$0.3456/M
سياق:128K
الحد الأقصى للإخراج:4K
DeepSeek v3.2 هو أحدث إصدار إنتاجي ضمن عائلة DeepSeek V3: عائلة نماذج لغوية كبيرة بأوزان مفتوحة تعطي الأولوية للاستدلال، ومصممة لفهم السياقات الطويلة، والاستخدام القوي للوكلاء/الأدوات، والاستدلال المتقدم، والبرمجة والرياضيات.
جديد
الاستخدام التجاري
Playground
نظرة عامة
الميزات
التسعير
API
الإصدارات

ما هو DeepSeek v3.2؟

DeepSeek v3.2 هو أحدث إصدار إنتاجي ضمن عائلة DeepSeek V3: عائلة من نماذج اللغة ذات الأوزان المفتوحة كبيرة الحجم تضع الاستدلال أولًا، ومصممة لفهم السياقات الطويلة، والاستخدام المتين للوكلاء/الأدوات، والاستدلال المتقدم، والبرمجة والرياضيات. يتضمن الإصدار عدة متغيرات (الإصدار الإنتاجي V3.2 ونسخة عالية الأداء V3.2-Speciale). يركّز المشروع على استدلال منخفض التكلفة للسياقات الطويلة عبر آلية انتباه متناثر جديدة تُسمى DeepSeek Sparse Attention (DSA) وسير عمل للوكلاء/“التفكير” (“Thinking in Tool-Use”).

الميزات الرئيسية (على مستوى عالٍ)

  • DeepSeek Sparse Attention (DSA): آلية انتباه متناثر تهدف إلى خفض كلفة الحوسبة جذريًا في سيناريوهات السياق الطويل مع الحفاظ على الاستدلال بعيد المدى. (ادعاء بحثي أساسي؛ مستخدمة في V3.2-Exp.)
  • التفكير الوكالي + تكامل استخدام الأدوات: يركّز V3.2 على تضمين “التفكير” داخل استخدام الأدوات؛ إذ يمكن للنموذج العمل في أوضاع التفكير الاستدلالي وفي الأوضاع غير التفكيرية (العادية) عند استدعاء الأدوات، ما يحسّن اتخاذ القرار في المهام متعددة الخطوات وتنسيق الأدوات.
  • خط أنابيب توليف بيانات الوكلاء على نطاق واسع: تشير DeepSeek إلى مجموعة تدريب وخط توليف للوكلاء يغطي آلاف البيئات وعشرات الآلاف من التعليمات المعقدة لتعزيز المتانة في المهام التفاعلية.
  • DeepSeek Sparse Attention (DSA): DSA طريقة دقيقة الحُبيبات للانتباه المتناثر قُدّمت في سلسلة V3.2 (أولًا في V3.2-Exp) وتقلل تعقيد الانتباه (من O(L²) الساذجة إلى نمط O(L·k) مع k ≪ L)، عبر اختيار مجموعة أصغر من رموز المفتاح/القيمة لكل رمز استعلام. النتيجة هي انخفاض كبير في الذاكرة/الحوسبة للسياقات الطويلة جدًا (128K)، ما يجعل الاستدلال في السياق الطويل أقل كلفة ماديًا.
  • هيكل Mixture-of-Experts (MoE) وMulti-head Latent Attention (MLA): تستخدم عائلة V3 بنية MoE لزيادة السعة بكفاءة (عدد معاملات اسمي كبير مع تفعيل محدود لكل رمز) مع أساليب MLA للحفاظ على الجودة والتحكم في الكلفة الحاسوبية.

المواصفات التقنية (ملخص موجز)

  • النطاق الاسمي للمعاملات: ~671B – 685B (وفق المتغير).
  • نافذة السياق (مرجع موثّق): 128,000 رمز (128K) في إعدادات vLLM/reference.
  • الانتباه: DeepSeek Sparse Attention (DSA) + MLA؛ تعقيد انتباه مخفّض للسياقات الطويلة.
  • الدقة العددية والتدريب: BF16 / F32 وصيغ كمّية مضغوطة (F8_E4M3 وغيرها) متاحة للتوزيع.
  • العائلة المعمارية: MoE (mixture-of-experts) مع اقتصاد في التفعيل لكل رمز.
  • الإدخال/الإخراج: إدخال نص مُجزّأ قياسي (يدعم تنسيقات الدردشة/الرسائل)؛ يدعم استدعاءات الأدوات (بدائيات API لاستخدام الأدوات) وكلًا من الاستدعاءات التفاعلية بأسلوب الدردشة والإكمالات البرمجية عبر الـAPI.
  • المتغيرات المطروحة: v3.2، v3.2-Exp (تجريبي، الظهور الأول لـ DSA)، v3.2-Speciale (يركّز على الاستدلال أولًا، متاح عبر الـAPI فقط مؤقتًا).

أداء المعايير القياسية

يصل V3.2-Speciale عالِي الحوسبة إلى التكافؤ أو يتجاوز النماذج عالية المستوى المعاصرة في عدة معايير للاستدلال/الرياضيات/البرمجة، ويحقق نتائج متقدمة في مجموعات مسائل رياضية نخبوية محددة. يبرز البحث المبدئي التكافؤ مع نماذج مثل GPT-5 / Kimi K2 في معايير استدلال محددة، وتحسينات مقارنة بخطوط DeepSeek R1/V3 السابقة:

  • AIME: تحسّن من 70.0 إلى 87.5 (Δ +17.5).
  • GPQA: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Aider: 57.0 → 71.6 (Δ +14.6).

مقارنة مع نماذج أخرى (على مستوى عالٍ)

  • مقابل GPT-5 / Gemini 3 Pro (ادعاءات علنية): يزعم مؤلفو DeepSeek وعدة جهات إعلامية تحقيق التكافؤ أو التفوق في مهام الاستدلال والبرمجة لنسخة Speciale، مع التأكيد على كفاءة التكلفة والترخيص المفتوح كعوامل تمييز.
  • مقابل النماذج المفتوحة (Olmo وNemotron وMoonshot وغيرها): تبرز DeepSeek تدريبًا وكاليًا وDSA كعناصر فارقة لكفاءة السياق الطويل.

حالات استخدام تمثيلية

  • أنظمة وكالية/تنسيق: وكلاء متعددون للأدوات (واجهات برمجة تطبيقات، كاشطات ويب، موصلات تنفيذ كود) تستفيد من “التفكير” على مستوى النموذج + بدائيات استدعاء الأدوات.
  • استدلال/تحليل المستندات الطويلة: وثائق قانونية، مجموعات بحثية كبيرة، محاضر اجتماعات — تسمح متغيرات السياق الطويل (128k رمزًا) بالحفاظ على سياقات ضخمة في استدعاء واحد.
  • دعم الرياضيات المعقدة والبرمجة: يُروَّج لـV3.2-Speciale للاستدلال الرياضي المتقدم وتصحيح الأخطاء الموسّع وفق معايير البائع.
  • عمليات نشر إنتاجية حساسة للتكلفة: تهدف DSA + تغييرات التسعير إلى خفض كلفة الاستدلال لأعباء العمل ذات السياق المرتفع.

كيفية البدء باستخدام واجهة DeepSeek v3.2 البرمجية (API)

تسعير DeepSeek v3.2 في CometAPI، خصم 20% عن السعر الرسمي:

رموز الإدخال$0.22
رموز الإخراج$0.35

الخطوات المطلوبة

  • سجّل الدخول إلى cometapi.com. إذا لم تكن مستخدمًا لدينا بعد، يرجى التسجيل أولًا.
  • احصل على مفتاح واجهة API (بيانات اعتماد الوصول). انقر “Add Token” ضمن API token في المركز الشخصي، واحصل على مفتاح الرمز: sk-xxxxx ثم أرسِل.
  • احصل على عنوان الموقع: https://api.cometapi.com/

طريقة الاستخدام

  1. اختر نقطة النهاية “deepseek-v3.2” لإرسال طلب API وعيّن جسم الطلب. يمكنك الحصول على طريقة الطلب وجسمه من وثائق API على موقعنا. يوفّر موقعنا أيضًا اختبار Apifox لراحتك.
  2. استبدل <YOUR_API_KEY> بمفتاح CometAPI الفعلي من حسابك.
  3. اختر تنسيق الدردشة: أدخل سؤالك أو طلبك في حقل المحتوى — هذا ما سيرد عليه النموذج.
  4. عالج استجابة الـAPI للحصول على الإجابة المولّدة.

الميزات لـ DeepSeek-V3.2

استكشف الميزات الرئيسية لـ DeepSeek-V3.2، المصممة لتعزيز الأداء وسهولة الاستخدام. اكتشف كيف يمكن لهذه القدرات أن تفيد مشاريعك وتحسن تجربة المستخدم.

التسعير لـ DeepSeek-V3.2

استكشف الأسعار التنافسية لـ DeepSeek-V3.2، المصمم ليناسب الميزانيات المختلفة واحتياجات الاستخدام المتنوعة. تضمن خططنا المرنة أن تدفع فقط مقابل ما تستخدمه، مما يجعل من السهل التوسع مع نمو متطلباتك. اكتشف كيف يمكن لـ DeepSeek-V3.2 تحسين مشاريعك مع الحفاظ على التكاليف قابلة للإدارة.
سعر كوميت (USD / M Tokens)السعر الرسمي (USD / M Tokens)خصم
مدخل:$0.216/M
الإخراج:$0.3456/M
مدخل:$0.27/M
الإخراج:$0.432/M
-20%

نموذج الكود وواجهة برمجة التطبيقات لـ DeepSeek-V3.2

احصل على أكواد نماذجية شاملة وموارد API لـ DeepSeek-V3.2 لتبسيط عملية التكامل الخاصة بك. توفر وثائقنا التفصيلية إرشادات خطوة بخطوة، مما يساعدك على الاستفادة من الإمكانات الكاملة لـ DeepSeek-V3.2 في مشاريعك.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="deepseek-v3.2-exp",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

إصدارات DeepSeek-V3.2

قد تشمل الأسباب وراء احتواء DeepSeek-V3.2 على لقطات متعددة عوامل محتملة مثل اختلاف المخرجات بعد التحديثات التي تتطلب اللقطات القديمة لضمان الاتساق، وتوفير فترة انتقالية للمطورين للتكيف والهجرة، وارتباط اللقطات المختلفة بنقاط النهاية العالمية أو الإقليمية لتحسين تجربة المستخدم. للاطلاع على الاختلافات التفصيلية بين الإصدارات، يرجى الرجوع إلى الوثائق الرسمية.
version
deepseek-v3.2
deepseek-v3.2-exp
deepseek-v3.2-speciale

المزيد من النماذج