ニンジャ LLM スイート

世界初の複合AIシステム

インテリジェント AI モデル低レイテンシー そして 手ごろな価格 当社の複合AIシステムを通じて。

従来のAIモデルとは異なり、各NinjaのLLMは以下を活用しています 業界をリードする AI モデルの混合 推論レベルの最適化により、次のような幅広いユースケースで優れたパフォーマンスを実現します コーディング そして 深い研究。

ザ・ニンジャ LLM スイート

NinjaのLLMは、市場に出回っているモデルの限界を超えるように設計されています。ユーザーがさまざまなモデルを比較したり、最適な答えを見つけるために何度も会話を交わしたりしているのをよく見かけました。これらの課題を解決し、お客様のニーズに合わせた最も包括的で正確な回答を、最初のやり取りから比類のないスピードと手頃な価格で提供したいと考えました。

ターボ 1.0

超高速応答用。
Turboは、社内で微調整されたカスタムモデルを使用して即時応答を提供し、すべてのサブスクライバーが利用できます。

アペックス 1.0

比類のない深さと精度を実現。
Apexは、複数の主力AIモデルを組み合わせて専門家レベルの洞察を得ることができ、UltraとBusinessのサブスクライバーが利用できます。

推論2.0

高度な推論を必要とする複雑な問題用。
Reasoning 2.0はLlama 70Bで蒸留されたDeepSeek R1をベースに構築されており、ウルトラとビジネスのサブスクライバーが利用できます。

Reasoning 2.0は、数学、科学、コーディングなどの分野で推論能力を向上させるために構築されました。現在のモデルには多くの制限があります。企業や顧客にとっては、コストがかかるうえ、実行し続けることも不可能です。あるいは、エージェントのワークフローを強化するのに必要なカスタマイズ、機能、パフォーマンスが欠けている場合もあります。そこで、微調整可能で、迅速で、誰にとっても手頃な価格の推論モデルを開発しました。

さらに詳しく
ディープ・リサーチ

最も複雑な研究や専門家レベルの洞察が得られます。
当社のAIリサーチアシスタントは、新しい情報を学習するにつれて進化する計画を立て、実行します。

Ninjaでは、すべての人にパーソナルAIアシスタントを提供することを目指しました。単純なリクエストにとどまらず、ユーザーに代わって自律的にやり取りしてタスクを完了できるものです。だからこそ、推論モデルとツールを活用したエージェント型ワークフローを革新したのです。この取り組みはDeep Research機能から始まりましたが、まもなくさらに多くの機能が追加される予定です。

さらに詳しく

忍者のLLM特典

精度の向上

主要モデルと同等のパフォーマンス。Ninja のモデルでは、お客様のプロンプトに合わせた十分なリサーチと総合的な回答が確実に得られます。

より豊かな視点

Ninja's Modelsは、複数のモデルの独自の長所を引き出すことで、1つのモデルで実現できるものよりも微妙で包括的な回答を提供します。

低価格で無制限アクセス

市場に出回っている他の製品とは異なり、UltraおよびBusinessユーザーは、Ninjaのモデル機能に無制限にアクセスできます。 29ドル/月

より速い結果

当社のNinjaモデルは、市場に出回っている他の製品と比較して、即時かつより正確な結果を提供します。これで、必要な答えを得るのに長く待つ必要がなくなりました。

エージェント機能

現在ご利用いただけるのは ディープ・リサーチ、情報を収集しながら批判的に考え、研究戦略を進化させるように設計されたAIアシスタント。表面レベルの結果を返す単純なAIアシスタントとは異なり、Deep Researchはそのアプローチを分析、適応、改良して質の高い専門家レベルの洞察を提供するように構築されています。

ニンジャ LLM のユースケース

推論2.0
ソフトウェアエンジニアリング

最適化されたコードスニペットを生成し、バグを検出してコード品質を向上させます。

ディープ・リサーチ
金融

収益報告書、経済指標、セクター動向など、複数のソースからのデータを組み合わせて財務分析を行います。隠れたパターンを特定し、専門家レベルの分析を行います。

アペックス 1.0
マーケティング

消費者行動、業界動向、競合分析からの洞察に基づいて、キャンペーンのアイデア、戦略、戦術を開発します。また、複雑な概念を簡略化して、よりわかりやすく説得力のあるものにすることもできます。

ターボ 1.0
カスタマーサポート

顧客からの問い合わせやサポートチケットに対して、顧客の感情に合致し、懸念事項に対処し、全体的な満足度を高める明確で専門的な回答を作成します。

Ninjaのモデルと他のモデルの比較

忍者フラッグシップモデル:ターボ 1.0 & アペックス 1.0

Apex 1.0は、業界標準のアリーナハードオート(チャット)テストで最も高いスコアを記録しました。このテストでは、複雑な現実世界の会話をAIがどの程度うまく処理できるかを測定し、微妙な理解と文脈認識を必要とするシナリオをナビゲートする能力に焦点を当てています。
これらのモデルは他のベンチマークでも優れています:Math-500、AIME2024-推論、GPQA-推論、LiveCodeBench-コーディング、LiveCodeBench-コーディング-ハード。

アリーナハード (自動)-チャット
数学-500
アニメ2024-推論
GPA-推論
ライブコードベンチ-コーディング
ライブコードベンチ-コーディング-ハード

忍者フラッグシップモデル:推理2.0

AIMEテストの競争数学では、推論2.0がOpenAI O1とSonnet 3.7を上回りました。論理と高度な推論を必要とする問題を処理する AI の能力を評価します。

推論2.0は、GPQAテストでも人間の博士レベルの正確さを上回りました。事実の想起、推論、問題解決を必要とする複雑な多段階の質問を通して、一般的な推論を評価します。

コンペティション・マッチ (AIME 2024)
博士レベルの科学問題(GPQAダイヤモンド)
コンペティションコード (コードフォース)

忍者フラッグシップモデル:ディープリサーチ 2.0

ディープリサーチは、SimpleQAテストで91.2%の精度を達成しました。モデルの幻覚レベルを検出するのに最適なプロキシの 1 つです。このことは、Deep Researchが事実情報を正確に識別する並外れた能力を浮き彫りにし、この分野の主要モデルを上回っています。

GAIAテストでは、Deep Researchが57.64%を獲得しました。これは、現実世界の情報環境のナビゲーション、複数のソースからのデータの合成、および事実に基づいた簡潔な回答の生成において優れたパフォーマンスを示していることを示しています。

また、ディープ・リサーチはHLEテストで 17.47% のスコアを獲得し、AIの分野で大きなブレークスルーを達成しました。100 を超える対象を対象とした AI システムを評価するための厳密なベンチマークとして広く認識されています。ディープ・リサーチは、o3-mini、o1、DeepSeek-R1など、他のいくつかの主要なAIモデルよりも著しく高いパフォーマンスを示しました。

単純な QA 精度 (高いほど良い)
単純QA幻覚率 (低いほど良い)
ガイア・ベンチマーク

プロバイダー (パス @1)

レベル 1

レベル 2

レベル 3

アベレージ

オープンAIのディープ・リサーチ

74.29

69.06

47.6

67.36

ニンジャズ・ディープリサーチ

69.81

56.97

46.15

57.64

データソース:OpenAI ブログ投稿 —もっと読む

人類最後の試験 (HLE) ベンチマーク

よくあるご質問

最もよく聞かれることを基に、Ninjaのモデルについて知っておくべきことを次に示します。

コンパウンド AI とは何ですか?

複合AIは、高度なAIモデルを組み合わせて活用し、コーディングやリサーチなどの多様なタスクで優れたパフォーマンスを発揮するテクノロジーです。最も強力な AI モデルにプロンプトを送り、その応答を批評し、ニーズに合わせたより包括的で正確で役立つ回答を提供します。

1つのモデルよりも複数のモデルを使用する方が良い理由は何ですか?

各AIモデルには、独自の強みと専門分野があります。Ninja のモデルは、複数のモデルからの回答を組み合わせることで、より豊かな視点、強化された問題解決能力、より微妙な回答を、すべて単一のインターフェースで提供します。

忍者の模型には誰がアクセスできますか?

すべての有料ユーザーはTurbo 1.0にアクセスできます。ただし、Apex 1.0、Reasoning 2.0、およびDeep Research 2.0にアクセスできるのは、ニンジャウルトラ、スーパーニンジャ、およびビジネスサブスクライバーのみです。

Ninja's LLMが使用するモデルをカスタマイズできますか?

いいえ。モデルの選択は、各モデルの機能を徹底的に分析した上で Ninja が決定します。これにより、最も正確で関連性の高い回答を確実に得ることができます。