واجهات برمجة تطبيقات النينجا للذكاء الاصطناعي
قم بتحويل منتجات وتجارب الذكاء الاصطناعي الخاصة بك باستخدام واجهات برمجة تطبيقات Ninja
جرب أسرع نماذج الذكاء الاصطناعي الخاصة والرائدة في السوق، والمدعومة بشرائح الجيل التالي.
حقق أداءً عالي الجودة بجزء بسيط من التكلفة مقارنة بواجهات برمجة تطبيقات LLM الأخرى.
تم اختبار نماذج Ninja بدقة مقابل معايير الذكاء الاصطناعي الرائدة، مما يدل على أداء قريب من أحدث التقنيات عبر مجالات متنوعة.
نماذج الذكاء الاصطناعي المركبة للنينجا
تعد LLMs الخاصة بـ Ninja الخيار السهل للمطورين الذين يبحثون عن أفضل أداء. تجمع نماذج الذكاء الاصطناعي المركبة الخاصة بنا بين العديد من LLMs الرائدة من OpenAI و Anthropic و Google و DeepSeek وغيرها، مع تحسين مستوى الاستدلال المتطور.
تسعير Ninja والعروض المستقبلية
يجعل Ninja من الممكن الوصول إلى أفضل نماذج الذكاء الاصطناعي في العالم بأسعار لا تقبل المنافسة. إلى جانب تقديم واجهات برمجة التطبيقات لنماذجنا الخاصة، فإننا نتوسع بنماذج خارجية مصممة خصيصًا للصناعات المتنوعة والمهام المتخصصة.
الوضع
سعر الإدخال/ لكل رموز M
سعر الإخراج/ لكل رموز M
السعر/ مهمة
كوين 3 كودر 480B (المخ)
—
—
1.50 دولار
الوضع القياسي
—
—
1.00 دولار
الوضع المعقد
—
—
1.50 دولار
الوضع السريع
—
—
1.50 دولار
الوضع
سعر الإدخال/ لكل رموز M
سعر الإخراج/ لكل رموز M
السعر/ مهمة
كوين 3 كودر 480B (المخ)
3.75 دولار
3.75 دولار
—
الوضع القياسي
1.50 دولار
1.50 دولار
—
الوضع المعقد
4.50 دولار
22.50 دولارًا
—
الوضع السريع
3.75 دولار
3.75 دولار
—
نموذج
سعر الإدخال/ لكل رموز M
سعر الإخراج/ لكل رموز M
توربو 1.0
0.11 دولار
0.42 دولار
أبيX 1.0
0.88 دولار
7.00 دولار
المنطق 2.0
0.38 دولار
1.53 دولار
ديب ريسيرش 2.0
1.40 دولار
5.60 دولار
حدود الأسعار
يفرض Ninja AI قيودًا على معدلات طلبات الاستدلال لكل نموذج لضمان قدرة المطورين على تجربة الاستدلال الأسرع.
نموذج
طلب لكل دقيقة (دورة في الدقيقة)
توربو 1.0
50
أبيX 1.0
20
المنطق 2.0
30
ديب ريسيرش 2.0
5
أداء واجهة برمجة تطبيقات النينجا
الموديلات الرائدة: توربو 1.0 وأبيكسس 1.0
سجل Apex 1.0 أعلى الدرجات في اختبار Arena-Hard-Auto (الدردشة) المتوافق مع معايير الصناعة. وهو يقيس مدى قدرة الذكاء الاصطناعي على التعامل مع المحادثات المعقدة في العالم الحقيقي، مع التركيز على قدرته على التنقل في السيناريوهات التي تتطلب فهمًا دقيقًا ووعيًا بالسياق.
تتفوق النماذج أيضًا في معايير أخرى: Math-500، AIME2024 - التفكير، GPQA - الاستدلال، LiveCodeBench - الترميز، و LiveCodeBench - الترميز - الصعب.

آخر تحديث: 04/15/2025

آخر تحديث: 04/15/2025

آخر تحديث: 04/15/2025

آخر تحديث: 04/15/2025

آخر تحديث: 04/15/2025

آخر تحديث: 04/15/2025
المنطق 2.0
تفوق التفكير 2.0 على OpenAI O1 و Sonnet 3.7 في الرياضيات التنافسية في اختبار AIME. يقوم بتقييم قدرة الذكاء الاصطناعي على التعامل مع المشكلات التي تتطلب المنطق والتفكير المتقدم.
تجاوز التفكير 2.0 أيضًا دقة مستوى الدكتوراه البشري في اختبار GPQA. يقوم بتقييم التفكير العام من خلال أسئلة معقدة متعددة الخطوات تتطلب الاسترجاع الواقعي والاستدلال وحل المشكلات.
.avif)
آخر تحديث: 04/15/2025
.avif)
آخر تحديث: 04/15/2025
.avif)
آخر تحديث: 04/15/2025
ديب ريسيرش 2.0
حققت شركة ديب ريسيرش دقة 91.2% في اختبار SimpleQA. إنه أحد أفضل الوكلاء لاكتشاف مستويات الهلوسة في النموذج. وهذا يسلط الضوء على قدرة Deep Research الاستثنائية على تحديد المعلومات الواقعية بدقة - متجاوزًا النماذج الرائدة في هذا المجال.
في اختبار GAIA، سجلت Deep Research 57.64٪، مما يشير إلى الأداء المتفوق في التنقل في بيئات المعلومات في العالم الحقيقي، وتجميع البيانات من مصادر متعددة، وإنتاج إجابات واقعية وموجزة.
حققت Deep Research أيضًا طفرة كبيرة في الذكاء الاصطناعي بدرجة 17.47٪ في اختبار HLE. يُعترف به على نطاق واسع كمعيار صارم لتقييم أنظمة الذكاء الاصطناعي عبر أكثر من 100 موضوع. كان أداء Deep Research أعلى بشكل ملحوظ من العديد من نماذج الذكاء الاصطناعي الرائدة الأخرى، بما في ذلك o3-mini و o1 و Deepseek-R1.

آخر تحديث: 04/15/2025

آخر تحديث: 04/15/2025
الموفر (باس @1)
المستوى 1
المستوى 2
المستوى 3
متوسط
أبحاث OpenAI العميقة
74.29
69.06
47.6
67.36
أبحاث النينجا العميقة
69.81
56.97
46.15
57.64
مصدر البيانات: منشور مدونة OpenAI - اقرأ المزيد
%20Benchmark.avif)
آخر تحديث: 04/15/2025
يمكنك التسجيل مجانًا أو الاشتراك في فئة Ultra أو Business. تمنحك Ultra and Business إمكانية الوصول إلى الملعب لتجربة النماذج الرائدة والاستدلالية والبحثية العميقة.








