Anthropic
Anthropic

Claude Opus 4.7

2026-04-16

Claude Opus 4.7은 2026년 4월 16일 Opus 4.6의 후속 모델로 출시된 Anthropic의 최상위 플래그십 모델입니다. 이 모델은 Anthropic의 가장 강력한 코딩 및 에이전트 모델로, 최소한의 감독만으로 장기적인 자율 작업을 수행하도록 설계되었습니다. Opus 4.7은 신중하게 계획을 수립하고, 작업을 완료하기 전에 검증 단계(테스트, 실행, 수정)를 거치며, 파일 시스템 메모리를 사용하여 세션 간에 컨텍스트를 유지합니다. 새로운 제어 기능으로는 작업 예산 설정과 'high'와 'max' 사이의 'xhigh' 노력 수준이 추가되었습니다. 출시 당시 SWE-bench Verified에서 87.6%, SWE-bench Pro에서 64.3%를 기록하며 GPT-5.4와 Gemini 3.1 Pro를 앞섰고, Terminal-bench 2.0에서 69.4%, ARC-AGI-2에서 약 77%의 성능을 보였습니다. 비전 기능이 3배 향상되어 98.5%의 컴퓨터 사용 시각적 정확도를 제공하며, 100만 토큰의 컨텍스트 윈도우와 128K 출력 용량을 지원합니다.

비전심층 사고웹 검색파일|상용 모델
학습 완료일
2026-01-01
입력 형식 → 출력 형식
처리용량
1MIN128KOUT
개별 비용(백만 글자)
$5IN$25OUT
비용 계산하기

AI 성능 평가

Arena 종합 점수
1504
±9
집계일 2026-04-20
종합 순위
🥇 1위
3,898 투표수
Arena 능력별 점수
복잡한 질문
1527±12🥉 3위
전문 지식
1562±28🥇 1위
지시 이행
1504±17🥈 2위
대화 기억
1519±26🥈 2위
창의력
1499±23🥇 1위
코딩 실력
1571±19🥇 1위
수학 능력
1503±405위
Arena 직군별 점수
문학·창작
1504±20🥇 1위
생활·사회과학
1525±22🥇 1위
엔터·미디어
1474±214위
경영·금융
1496±224위
의학·보건
1523±36🥈 2위
법률·행정
1517±35🥇 1위
소프트웨어·IT
1555±15🥇 1위
수학·통계
1508±384위
종합
AA Intelligence Index
57%↑19%
LiveBench
68%↑8%
추론·수학
GPQA Diamond
91%↑10%
HLE
40%↑23%
LB 추론
75%↑15%
LB 수학
76%↑3%
LB 데이터 분석
76%↑26%
코딩
AA Coding Index
53%↑18%
LB 코딩
76%↑3%
LB 에이전틱
60%↑17%
TAU2
89%↑15%
TerminalBench
52%↑20%
SciCode
55%↑14%
언어·지시
IFBench
59%↑2%
AA-LCR
70%↑9%
환각률 (HHEM)
12%↑2%
사실 일관성 (HHEM)
88%↓2%
LB 언어
75%↑3%
LB 지시
46%↑0%
출력 속도
일반 모드
60tok/s↓22
출력 시작 1.26s
추론 모드
60tok/s↓28
출력 시작 11.87s