2억 달러를 차버린 회사, 국방부에 끌려갈 회사 — Anthropic이 펜타곤 앞에서 선을 그은 진짜 이유
한줄 요약
미국 국방부가 AI 안전 가드레일 제거를 요구하며 국방생산법 발동까지 위협했지만, Anthropic은 2억 달러 계약을 포기하겠다고 맞섰다. AI 군사화를 둘러싼 이 대립이 기술 산업 전체의 미래를 가를 수 있다.
핵심 포인트
펜타곤의 최후통첩과 Anthropic의 거부
미국 국방장관 피트 헤그세스가 Anthropic CEO에게 금요일까지 AI 가드레일을 제거하라는 최후통첩을 전달했다. 2억 달러 계약 해지, 공급망 위험 업체 지정, 국방생산법 발동이라는 세 가지 위협 카드를 내밀었으나, Dario Amodei는 양심상 수용할 수 없다며 공개적으로 거부했다. 이는 AI 기업이 국가 안보 압박에 정면으로 맞선 최초의 사례로 기록될 수 있다.
국방생산법의 AI 적용이라는 전례 없는 시도
1950년 한국전쟁 시기 만들어진 국방생산법(DPA)을 AI 소프트웨어 기업에 적용하려는 것은 법률 역사상 전례가 없다. 바이든 행정부는 Title VII(정보 수집)만 사용했으나, 헤그세스는 Title I(핵심 강제 조항)을 위협하고 있어 차원이 다르다. Lawfare 분석에 따르면 기업이 이미 생산하는 제품이 아닌 것을 강제하면 법적 저항이 가능하다.
실리콘밸리의 군사 AI 정서 반전
2018년 구글 메이븐 프로젝트 반대에서 2026년 초당파적 군사 AI 합의까지, 실리콘밸리의 분위기는 완전히 뒤집어졌다. OpenAI는 군사 분야에 적극적이고 팔란티어는 처음부터 국방이 핵심 사업이었다. 이런 환경에서 Anthropic만 선을 긋고 있어 woke AI라는 조롱을 받고 있으나, AI 환각 문제라는 기술적으로 정당한 우려를 제기하고 있다.
같은 주의 안전 정책 약화라는 모순
Anthropic이 펜타곤에 맞서는 바로 그 주에 자사의 Responsible Scaling Policy를 3.0으로 업데이트하면서 핵심 안전 서약을 폐기했다. 경쟁사들이 안전 장치 없이 앞서나가는 것을 방관할 수 없다는 논리인데, 한쪽에서 AI 안전을 주장하면서 다른 쪽에서 자체 기준을 낮추는 모양새는 불편한 동시 사건이다.
AI 거버넌스의 판도라 상자
이 대립의 결과가 어느 쪽이든 글로벌 AI 거버넌스의 근본 틀을 바꿀 수 있다. DPA 발동 성공 시 정부가 어떤 AI 기업에든 안전 장치 제거를 강제할 수 있는 선례가 되고, Anthropic 승리 시 기업의 윤리적 자율성이 정부 압력에도 보호되는 선례가 된다. EU와 동맹국들이 AI 규제를 만드는 와중에 미국이 자국 기업의 안전 장치를 뜯어내는 모습은 국제적 외교 모순이다.
긍정·부정 분석
긍정적 측면
- AI 안전의 기술적 한계 공식 인정
Anthropic이 AI 환각 문제와 자율 무기의 위험성을 공개적으로 인정한 것은 기술적 정직함의 표본이다. 프론티어 AI 모델이 생사를 가르는 결정을 내릴 만큼 신뢰할 수 없다는 공학적 사실을 CEO가 직접 밝힌 것은, 과장된 AI 만능론에 대한 강력한 반론이 되며 업계 전체의 건강한 기대치 조정에 기여할 수 있다.
- 기업 윤리의 실전 시험대
2억 달러 계약과 공급망 블랙리스트 위협에도 불구하고 레드라인을 지킨 것은, AI 기업의 윤리 강령이 투자자 프레젠테이션용이 아니라 실제로 작동한다는 증거다. 380억 달러 기업가치가 이 입장의 안전망이라는 비판이 있지만, 재정적 여유가 있을 때라도 이런 결정을 내리기는 쉽지 않다.
- 글로벌 AI 규제 논의 촉진
이 사건은 AI 군사화에 대한 명시적 법률과 국제 규범의 필요성을 극적으로 보여줬다. 자발적 가이드라인과 행정명령으로는 부족하다는 것이 증명되면서, 의회 차원의 입법 움직임과 국제적 공조가 가속화될 수 있다.
- AI 기업의 기술적 자율성 보호 선례 가능성
Anthropic이 법정에서 승리할 경우, AI 기업이 자체 안전 기준을 설정하고 정부 압력에도 이를 유지할 수 있다는 중요한 법적 선례가 만들어진다. 이는 민간 기술 기업의 혁신 자율성을 보호하는 데 기여할 수 있다.
우려되는 측면
- 국가 안보와 민간 기업 거부권의 충돌
AI 기업이 국방 영역에서까지 거부권을 행사할 수 있다면, 이는 민주적 통제와 국가 안보의 관점에서 심각한 문제를 제기한다. 민간 기업이 국가의 군사적 필요를 제한할 권한이 있는가라는 질문에는 간단한 답이 없으며, Anthropic의 입장이 반드시 최적의 균형점은 아닐 수 있다.
- 같은 주의 안전 정책 약화가 주는 신뢰도 타격
펜타곤에 AI 안전을 주장하면서 동시에 상업적 경쟁 때문에 자체 RSP 핵심 서약을 폐기한 것은 메시지의 일관성을 심각하게 훼손한다. 선임 안전 연구원의 퇴사가 상징하듯, 내부에서도 이 모순을 인식하고 있으며 장기적으로 AI 안전 리더라는 브랜드에 타격이 될 수 있다.
- DPA 발동 시 AI 기업 전체에 대한 파급
펜타곤이 DPA 발동에 성공하면 어떤 AI 기업에든 안전 장치 제거를 강제할 수 있는 전례가 된다. 이는 AI 기업의 기술적 자율성 전체를 위협하며, 국가 안보라는 이름 아래 민간 기술 혁신을 정부가 통제하는 새로운 시대를 열 수 있다.
- 국제적 외교 모순과 중국의 내러티브 활용
AI 안전의 수호자를 자처하던 미국이 자국 기업의 안전 가드레일을 뜯어내라고 압박하는 모습은 동맹국들의 AI 규제 논의에 혼란을 줄 수 있다. 중국은 이를 활용해 미국의 AI 윤리 주장이 위선이라는 내러티브를 퍼뜨릴 수 있으며, 글로벌 AI 거버넌스 논의에서 미국의 리더십이 약화될 수 있다.
전망
향후 6개월에서 1년 사이에 펜타곤이 실제로 DPA를 발동하고 Anthropic이 소송으로 맞서거나, 양측이 human-in-the-loop 타협점을 찾거나, 펜타곤이 더 순응적인 AI 업체와 손잡는 시나리오가 가능하다. 중기적으로 2~3년 내에 AI 군사 활용에 대한 명시적 입법이 가속화될 것이며, 장기적으로 이 사건은 AI 기업과 정부 관계가 근본적으로 재편되는 전환점으로 기록될 수 있다.
출처 / 참고 데이터
- Pentagon threatens to make Anthropic a pariah if it refuses to drop AI guardrails — CNN
- Pentagon Pressures Anthropic to Drop AI Guardrails in Military Standoff — Bloomberg
- Deadline looms as Anthropic rejects Pentagon demands it remove AI safeguards — NPR
- Anthropic says Pentagons final offer is unacceptable — Axios
- What the Defense Production Act Can and Cannot Do to Anthropic — Lawfare
- Anthropic Drops Flagship Safety Pledge — TIME
- Anthropic rejects Pentagon demand to allow wide military use of Claude — Washington Post
- Anthropic CEO says Pentagons threats do not change our position — CNBC