닌자 AI API

Ninja의 API로 AI 제품 및 경험을 혁신하세요

구축 시작
타의 추종을 불허하는 속도

차세대 칩으로 구동되는 시장에서 가장 빠른 독점 및 플래그십 AI 모델을 경험해 보십시오.

가장 저렴한 가격

다른 LLM API에 비해 훨씬 적은 비용으로 고품질 성능을 달성하십시오.

검증된 품질

Ninja의 모델은 주요 AI 벤치마크에 대해 엄격한 테스트를 거쳐 다양한 영역에서 거의 최첨단의 성능을 보여줍니다.

닌자의 복합 AI 모델

Ninja의 독점 LLM은 최고의 성능을 원하는 개발자에게 쉬운 선택입니다.당사의 복합 AI 모델은 OpenAI, Anthropic, Google, DeepSeek 등의 여러 플래그십 LLM을 최첨단 추론 레벨 최적화와 결합합니다.

에이펙스 1.0

OpenAI, Anthropic 및 Google의 프리미엄 AI 모델을 결합하여 정확하고 심층적인 응답을 제공합니다.

자세히 알아보기
터보 1.0

미세 조정된 맞춤형 모델을 사용하여 즉각적인 응답을 제공합니다.

자세히 알아보기
리저닝 2.0

고급 추론이 필요한 복잡한 문제를 위해 라마 70B에서 증류된 DeepSeek R1을 기반으로 제작되었습니다.

자세히 알아보기
딥 리서치 2.0

가장 복잡한 연구를 처리하고 전문가 수준의 정확한 통찰력을 제공하도록 설계된 AI 연구 도우미입니다.사람이 완료하는 데 몇 시간이 걸리는 작업을 몇 분 만에 완료할 수 있습니다.

자세히 알아보기

닌자의 가격 및 향후 오퍼링

Ninja를 사용하면 세계 최고의 AI 모델을 저렴한 가격으로 이용할 수 있습니다.독점 모델을 위한 API 제공과 함께 다양한 산업 및 전문 작업에 맞게 조정된 외부 모델로도 확장하고 있습니다.

모드

입력 가격/ M 토큰당

출력 가격/ M 토큰당

가격/ 작업

퀸 3 코더 480B (세레브라스)

닌자 클라인 AI 스튜디오의 기본값

1.50달러

표준 모드

품질과 속도의 균형
기본값:
GLM 4.7
딥 코더:
GLM 4.7

1.00 달러

복합 모드

복잡한 작업을 위한 최고 품질의 LLM
기본값:
소네트 4.5
딥 코더
소네트 4.5

1.50달러

패스트 모드

세계에서 가장 빠른 일반 요원
기본값:
GLM 4.7
심층 연구:
Qwen Model Logo
Qwen3—235B*
딥 코더:
GLM 4.7
*세레브라에 의해 구동
Cerebras logo

1.50달러

모드

입력 가격/ M 토큰당

출력 가격/ M 토큰당

가격/ 작업

퀸 3 코더 480B (세레브라스)

닌자 클라인 AI 스튜디오의 기본값

3.75달러

3.75달러

표준 모드

품질과 속도의 균형
기본값:
GLM 4.7
딥 코더:
GLM 4.7

1.50달러

1.50달러

복합 모드

복잡한 작업을 위한 최고 품질의 LLM
기본값:
소네트 4.5
딥 코더
소네트 4.5

4.50달러

22.50달러

패스트 모드

세계에서 가장 빠른 일반 요원
기본값:
GLM 4.7
심층 연구:
Qwen Model Logo
Qwen3—235B*
딥 코더:
GLM 4.7
*세레브라에 의해 구동
Cerebras logo

3.75달러

3.75달러

모델

입력 가격/ M 토큰당

출력 가격/ M 토큰당

터보 1.0

0.11 달러

0.42달러

에이펙스 1.0

0.88 달러

7.00 달러

리저닝 2.0

0.38달러

1.53달러

딥 리서치 2.0

1.40달러

5.60달러

요율 제한

Ninja AI는 모델별 추론 요청에 속도 제한을 적용하여 개발자가 가장 빠른 추론을 시도할 수 있도록 합니다.

모델

분당 요청 (분당 회전수)

터보 1.0

50

에이펙스 1.0

20

리저닝 2.0

30

딥 리서치 2.0

5

닌자 API 퍼포먼스

플래그십 모델: 터보 1.0 및 에이펙스 1.0

Apex 1.0은 업계 표준 아레나-하드-오토 (채팅) 테스트에서 가장 높은 점수를 받았습니다.미묘한 이해와 상황 인식이 필요한 시나리오를 탐색하는 능력에 초점을 맞춰 AI가 복잡한 실제 대화를 얼마나 잘 처리할 수 있는지를 측정합니다.

이 모델은 Math-500, AIME2024 - 추론, GPQA - 추론, 라이브코드벤치 - 코딩, 라이브코드벤치 - 코딩 - 하드 등 다른 벤치마크에서도 탁월합니다.

아레나-하드 (자동) - 채팅
Bar chart of scores for the Arena-Hard Benchmark showcasing Ninja SuperAgent Apex & Nexus being competitive with other offerings

최근 업데이트: 2025년 4월 15일

수학 - 500
Bar chart of scores for the Math-500 Benchmark showcasing Ninja SuperAgent Apex & Nexus being competitive with other offerings

최근 업데이트: 2025년 4월 15일

애니메이션 2024 - 추론
Bar chart of scores for the AIME 2024 - Reasoning Benchmark showcasing Ninja SuperAgent Apex & Nexus being competitive with other offerings

최근 업데이트: 2025년 4월 15일

GPQA - 추론
Bar chart of scores for the GPQA-Reasoning Benchmark showcasing Ninja SuperAgent Apex & Nexus being competitive with other offerings

최근 업데이트: 2025년 4월 15일

라이브코드벤치 - 코딩
Bar chart of scores for the LiveCodeBench-Coding Benchmark showcasing Ninja SuperAgent Apex & Nexus being competitive with other offerings

최근 업데이트: 2025년 4월 15일

라이브코드벤치 - 코딩 - 하드
Bar chart of scores for the LiveCodeBench-Coding-Hard Benchmark showcasing Ninja SuperAgent Apex & Nexus being competitive with other offerings

최근 업데이트: 2025년 4월 15일

리저닝 2.0

AIME 테스트의 경쟁 수학에서 추론 2.0은 OpenAI O1 및 Sonnet 3.7을 능가했습니다.논리와 고급 추론이 필요한 문제를 처리하는 AI의 능력을 평가합니다.

추론 2.0은 GPQA 테스트에서도 인간의 PhD 수준의 정확도를 능가했습니다.사실관계 회상, 추론, 문제 해결이 필요한 복잡한 다단계 질문을 통해 일반적인 추론을 평가합니다.

경쟁 수학 (애니메이션 2024)
Bar chart of scores for the AIME 2024 Benchmark showcasing Ninja SuperAgent-R 2.0 being competitive with other offerings

최근 업데이트: 2025년 4월 15일

박사 수준의 과학 질문 (GPQA 다이아몬드)
Bar chart of scores for the GPQA Diamond Benchmark showcasing Ninja SuperAgent-R 2.0 being competitive with other offerings

최근 업데이트: 2025년 4월 15일

경쟁 코드 (코드포스)
Bar chart of scores for the Competition Code Benchmark showcasing Ninja SuperAgent-R 2.0 being competitive with other offerings

최근 업데이트: 2025년 4월 15일

딥 리서치 2.0

딥 리서치는 SimpleQA 테스트에서 91.2% 의 정확도를 달성했습니다.이는 모델의 환각 수준을 감지하는 데 가장 적합한 방법 중 하나입니다.이는 Deep Research가 실제 정보를 정확하게 식별할 수 있는 탁월한 능력을 보여주며, 이는 해당 분야의 주요 모델을 능가합니다.

GAIA 테스트에서 Deep Research는 57.64% 를 기록했는데, 이는 실제 정보 환경을 탐색하고, 다양한 출처의 데이터를 합성하고, 사실적이고 간결한 답변을 생성하는 데 탁월한 성능을 나타냅니다.

딥 리서치는 또한 HLE 테스트에서 17.47% 의 점수를 획득하여 AI 분야에서 획기적인 발전을 이루었습니다.100개 이상의 피험자를 대상으로 AI 시스템을 평가하기 위한 엄격한 벤치마크로 널리 알려져 있습니다.딥 리서치는 o3-mini, o1, DeepSek-R1을 비롯한 여러 주요 AI 모델보다 월등히 높은 성과를 보였습니다.

간단한 QA 정확도 (높을수록 좋음)
Bar chart of scores for the SimpleQA Accuracy Benchmark showcasing Ninja Deep Research being competitive with other offerings

최근 업데이트: 2025년 4월 15일

단순한 QA 환각률 (낮을수록 좋음)
Bar chart of scores for the SimpleQA Hallucination rate Benchmark showcasing Ninja Deep Research beating all other offerings

최근 업데이트: 2025년 4월 15일

가이아 벤치마크

프로바이더 (패스 @1)

레벨 1

레벨 2

레벨 3

평균

오픈AI의 딥 리서치

74.29

69.06

47.6

67.36

닌자의 딥 리서치

69.81

56.97

46.15

57.64

데이터 소스: OpenAI 블로그 게시물 —더 읽어보기

인류의 마지막 시험 (HLE) 벤치마크
Bar chart of scores for the Humanity's Last Exam Benchmark showcasing Ninja Deep Research being competitive with other offerings

최근 업데이트: 2025년 4월 15일

API 살펴보기

무료로 가입하거나 울트라 또는 비즈니스 등급에 가입할 수 있습니다.울트라 및 비즈니스를 통해 플레이그십 모델, 추론 모델, 딥 리서치 모델을 실험해 볼 수 있습니다.

구축 시작
Visual of a user setting up Ninja API for SuperAgent-R 2.0 usageVisual of a user setting up Ninja API for SuperAgent-R 2.0 usage