QR 코드를 스캔하여 다운로드하세요.
BTC $68,894.30 +4.94%
ETH $2,034.72 +5.14%
BNB $638.27 +3.03%
XRP $1.42 -4.56%
SOL $81.67 -4.53%
TRX $0.2795 -0.47%
DOGE $0.0974 -3.83%
ADA $0.2735 -4.22%
BCH $443.79 +1.09%
LINK $8.64 -2.97%
HYPE $28.98 -1.81%
AAVE $122.61 -3.42%
SUI $0.9138 -6.63%
XLM $0.1605 -4.62%
ZEC $260.31 -8.86%
BTC $68,894.30 +4.94%
ETH $2,034.72 +5.14%
BNB $638.27 +3.03%
XRP $1.42 -4.56%
SOL $81.67 -4.53%
TRX $0.2795 -0.47%
DOGE $0.0974 -3.83%
ADA $0.2735 -4.22%
BCH $443.79 +1.09%
LINK $8.64 -2.97%
HYPE $28.98 -1.81%
AAVE $122.61 -3.42%
SUI $0.9138 -6.63%
XLM $0.1605 -4.62%
ZEC $260.31 -8.86%

성공적으로 460만 달러의 도난을 시뮬레이션했으며, AI는 이미 스마트 계약을 자율적으로 공격하는 방법을 배웠습니다

Summary: AI 공격 카운트다운: 취약점 이용 성공률이 2%에서 55.8%로 급증, 단일 취약점 스캔 비용은 단 1.22달러.
OdailyNews
2025-12-02 16:53:36
수집
AI 공격 카운트다운: 취약점 이용 성공률이 2%에서 55.8%로 급증, 단일 취약점 스캔 비용은 단 1.22달러.

오리지널 | Odaily 스타일보 아즈마

헤드 AI 대기업, Claude LLM 모델 개발사 Anthropic이 오늘 AI를 이용해 스마트 계약을 자율적으로 공격하는 테스트를 발표했습니다(참고: Anthropic은 FTX의 투자를 받았으며, 이론적으로 주식 가치는 현재 FTX 자산의 결함을 보완할 수 있지만, 파산 관리 팀에 의해 원가로 저가 판매되었습니다).

최종 테스트 결과는: 수익성이 있으며, 현실에서 재사용 가능한 AI 자율 공격이 기술적으로 가능하다는 것입니다. 주의할 점은, Anthropic의 실험은 모의 블록체인 환경에서만 진행되었으며 실제 체인에서는 테스트되지 않았으므로 현실 자산에 영향을 미치지 않았습니다.

아래에서 Anthropic의 테스트 계획을 간단히 소개하겠습니다.

Anthropic은 먼저 스마트 계약 활용 기준(SCONE-bench)을 구축했습니다. 이는 역사상 최초로 모의 도난 자금 총 가치를 통해 AI 에이전트의 취약점 활용 능력을 측정하는 기준 테스트입니다 ------ 즉, 이 기준은 취약점 보상이나 추정 모델에 의존하지 않고, 체인 상 자산 변화를 통해 직접 손실을 정량화하고 능력을 평가합니다.

SCONE-bench는 2020-2025년 사이에 실제로 공격받은 405개의 계약으로 구성된 테스트 세트를 포함하고 있으며, 관련 계약은 이더리움, BSC, Base 등 세 개의 EVM 체인에 위치해 있습니다. 각 목표 계약에 대해 샌드박스 환경에서 실행되는 AI 에이전트는 모델 컨텍스트 프로토콜(MCP)에서 노출된 도구를 사용하여 제한된 시간(60분) 내에 지정된 계약을 공격해야 합니다. 결과의 재현성을 보장하기 위해, Anthropic은 Docker 컨테이너를 사용하여 샌드박스화 및 확장 가능한 실행을 위한 평가 프레임워크를 구축했으며, 각 컨테이너는 특정 블록 높이에서 분기된 로컬 블록체인을 실행합니다.

다음은 Anthropic이 다양한 상황에 대해 테스트한 결과입니다.

  • 먼저, Anthropic은 Llama 3, GPT-4o, DeepSeek V3, Sonnet 3.7, o3, Opus 4, Opus 4.1, GPT-5, Sonnet 4.5 및 Opus 4.5 등 10개 모델이 405개의 기준 취약 계약에서의 성능을 평가했습니다. 전반적으로, 이 모델들은 그 중 207개(51.11%)에 대해 직접 사용할 수 있는 취약점 이용 스크립트를 생성했으며, 5억 5,010만 달러의 자금을 모의 도난했습니다.
  • 둘째, 잠재적인 데이터 오염을 통제하기 위해, Anthropic은 동일한 10개 모델을 사용하여 2025년 3월 1일 이후 공격받은 34개의 계약을 평가했습니다 ------ 이 시점을 선택한 이유는 3월 1일이 이 모델들의 최신 지식 마감일이기 때문입니다. 전반적으로, Opus 4.5, Sonnet 4.5 및 GPT-5는 그 중 19개(55.8%)를 성공적으로 이용했으며, 모의 도난 금액은 최대 460만 달러에 달했습니다; 가장 성과가 좋은 모델인 Opus 4.5는 그 중 17개(50%)를 성공적으로 이용했으며, 모의 도난 금액은 450만 달러입니다.
  • 마지막으로, AI 에이전트가 새로운 제로데이 취약점을 발견하는 능력을 평가하기 위해, Anthropic은 2025년 10월 3일 Sonnet 4.5와 GPT-5를 사용하여 최근 배포된 2,849개의 알려진 취약점이 없는 계약을 평가했습니다. 두 AI 에이전트는 각각 두 개의 새로운 제로데이 취약점을 발견했으며, 3,694달러의 공격 계획을 생성했습니다. 이 중 GPT-5의 API 비용은 3,476달러였습니다. 이는 ------ 수익성이 있으며, 현실에서 재사용 가능한 AI 자율 공격이 기술적으로 가능하다는 것을 증명했습니다.

Anthropic이 테스트 결과를 발표한 후, Dragonfly 관리 파트너인 Haseeb를 포함한 여러 업계 유명 인사들은 AI가 이론에서 실용 응용으로 발전하는 속도에 놀라움을 금치 못했습니다.

그런데 이 속도가 얼마나 빠른가요? Anthropic이 답을 제시했습니다.

테스트 결론에서, Anthropic은 단 1년 만에 AI가 이 기준 테스트에서 활용할 수 있는 취약점 비율이 2%에서 55.88%로 급증했으며, 도난 가능한 자금도 5,000달러에서 460만 달러로 증가했다고 밝혔습니다. Anthropic은 또한 잠재적인 활용 가능한 취약점 가치는 약 1.3개월마다 두 배로 증가하며, 토큰 비용은 약 2개월마다 약 23% 감소한다고 밝혔습니다 ------ 실험에서 현재 AI 에이전트가 스마트 계약에 대해 철저한 취약점 스캔을 수행하는 평균 비용은 단 1.22달러입니다.

Anthropic은 2025년 블록체인에서의 실제 공격 중 절반 이상 ------ 숙련된 인간 공격자에 의해 추정됨 ------이 기존 AI 에이전트에 의해 완전히 자율적으로 수행될 수 있었을 것이라고 밝혔습니다. 비용이 감소하고 능력이 복리로 증가함에 따라, 취약한 계약이 체인에 배포된 후, 이용되기 전의 시간 창은 계속 줄어들 것이며, 개발자가 취약점을 탐지하고 수정할 수 있는 시간은 점점 줄어들 것입니다…… AI는 취약점을 이용하는 데 사용될 수 있을 뿐만 아니라, 취약점을 수정하는 데에도 사용될 수 있습니다. 보안 전문가들은 인식을 업데이트해야 하며, 이제 AI를 이용한 방어의 시점에 도달했습니다.

warnning 위험 경고
app_icon
ChainCatcher Building the Web3 world with innovations.