Ninja-KI-APIs
Transformieren Sie Ihre KI-Produkte und -Erlebnisse mit den APIs von Ninja
Erleben Sie die schnellsten proprietären und Flaggschiff-KI-Modelle auf dem Markt, die von Chips der nächsten Generation angetrieben werden.
Erzielen Sie eine qualitativ hochwertige Leistung zu einem Bruchteil der Kosten im Vergleich zu anderen LLM-APIs.
Die Modelle von Ninja werden rigoros anhand führender KI-Benchmarks getestet und zeigen in verschiedenen Bereichen eine Leistung, die dem neuesten Stand der Technik entspricht.
Die zusammengesetzten KI-Modelle von Ninja
Die proprietären LLMs von Ninja sind die einfache Wahl für Entwickler, die nach der besten Leistung suchen. Unsere kombinierten KI-Modelle kombinieren mehrere Flaggschiff-LLMs von OpenAI, Anthropic, Google, DeepSeek und anderen mit modernster Optimierung der Inferenzebene.
Preise und zukünftige Angebote von Ninja
Ninja ermöglicht den Zugriff auf die weltbesten KI-Modelle zu unschlagbaren Preisen. Wir bieten nicht nur APIs für unsere firmeneigenen Modelle an, sondern expandieren auch um externe Modelle, die auf verschiedene Branchen und spezielle Aufgaben zugeschnitten sind.
Modus
Inputpreis/ pro M Tokens
Produktionspreis/ pro M Tokens
Preis/ Aufgabe
Qwen 3 Coder 480B (Cerebras)
—
—
1,50$
Standardmodus
—
—
1,00$
Komplexer Modus
—
—
1,50$
Schneller Modus
—
—
1,50$
Modus
Inputpreis/ pro M Tokens
Produktionspreis/ pro M Tokens
Preis/ Aufgabe
Qwen 3 Coder 480B (Cerebras)
3,75$
3,75$
—
Standardmodus
1,50$
1,50$
—
Komplexer Modus
4,50$
22,50$
—
Schneller Modus
3,75$
3,75$
—
Modell
Inputpreis/ pro M Tokens
Produktionspreis/ pro M Tokens
Turbo 1.0
0,11$
0,42$
Apex 1.0
0,88$
7,00$
Argumentation 2.0
0,38$
1,53$
Tiefgründige Recherche 2.0
1,40$
5,60$
Ratenbegrenzungen
Ninja AI setzt Ratenbegrenzungen für Inferenzanfragen pro Modell durch, um sicherzustellen, dass Entwickler die schnellste Inferenz ausprobieren können.
Modell
Anfrage pro Minute (UMDREHUNGEN PRO MINUTE)
Turbo 1.0
50
Apex 1.0
20
Argumentation 2.0
30
Tiefgründige Recherche 2.0
5
Ninja-API-Leistung
Flaggschiff-Modelle: Turbo 1.0 & Apex 1.0
Apex 1.0 erzielte beim branchenüblichen Arena-Hard-Auto (Chat) -Test die höchste Punktzahl. Es misst, wie gut KI komplexe, reale Konversationen bewältigen kann, und konzentriert sich dabei auf ihre Fähigkeit, sich in Szenarien zurechtzufinden, die ein differenziertes Verständnis und eine kontextuelle Wahrnehmung erfordern.
Die Modelle zeichnen sich auch in anderen Benchmarks aus: Math-500, AIME2024 — Reasoning, GPQA — Reasoning, LiveCodeBench — Coding und LiveCodeBench — Coding — Hard.

Letzte Aktualisierung: 15.04.2025

Letzte Aktualisierung: 15.04.2025

Letzte Aktualisierung: 15.04.2025

Letzte Aktualisierung: 15.04.2025

Letzte Aktualisierung: 15.04.2025

Letzte Aktualisierung: 15.04.2025
Argumentation 2.0
Reasoning 2.0 übertraf OpenAI O1 und Sonnet 3.7 in kompetitiver Mathematik im AIME-Test. Es bewertet die Fähigkeit der KI, Probleme zu lösen, die Logik und fortgeschrittenes Denken erfordern.
Reasoning 2.0 übertraf auch die Genauigkeit des menschlichen Doktorats beim GPQA-Test. Es bewertet das allgemeine Denken anhand komplexer, mehrstufiger Fragen, die die Erinnerung an Fakten, Schlussfolgerungen und Problemlösung erfordern.
.avif)
Letzte Aktualisierung: 15.04.2025
.avif)
Letzte Aktualisierung: 15.04.2025
.avif)
Letzte Aktualisierung: 15.04.2025
Tiefgründige Recherche 2.0
Deep Research erreichte beim SimpleQA-Test eine Genauigkeit von 91,2%. Es ist einer der besten Proxys zur Erkennung des Halluzinationsniveaus eines Modells. Dies unterstreicht die außergewöhnliche Fähigkeit von Deep Research, sachliche Informationen genau zu identifizieren — und übertrifft damit führende Modelle auf diesem Gebiet.
Im GAIA-Test erzielte Deep Research 57,64%, was auf eine überragende Leistung bei der Navigation in realen Informationsumgebungen, der Synthese von Daten aus mehreren Quellen und der Erstellung sachlicher, präziser Antworten hinweist.
Deep Research erzielte mit einem Ergebnis von 17,47% beim HLE-Test auch im Bereich KI einen bedeutenden Durchbruch. Es ist weithin als strenger Maßstab für die Bewertung von KI-Systemen bei mehr als 100 Probanden anerkannt. Deep Research schnitt deutlich besser ab als mehrere andere führende KI-Modelle, darunter o3-mini, o1 und DeepSeek-R1.

Letzte Aktualisierung: 15.04.2025

Letzte Aktualisierung: 15.04.2025
Anbieter (Pass @1)
Stufe 1
Stufe 2
Stufe 3
Durchschnittlich
Die gründliche Recherche von OpenAI
74,29
69,06
47,6
67,36
Die tiefgründige Recherche der Ninjas
69,81
56,97
46,15
57,64
Datenquelle: OpenAI-Blogbeitrag — Lesen Sie mehr
%20Benchmark.avif)
Letzte Aktualisierung: 15.04.2025
Sie können sich kostenlos registrieren oder ein Ultra- oder Business-Tarif abonnieren. Mit Ultra und Business haben Sie Zugriff auf eine Spielwiese, auf der Sie mit Flaggschiff-Modellen, Argumentationsmodellen und Deep Research-Modellen experimentieren können.








