펜타곤 vs 앤스로픽, "전쟁터에 AI를 보낼 것인가?" 클로드(Claude) 사용권을 둘러싼 갈등
안녕하세요, 코니버스입니다! 최근 인공지능(AI) 업계에서 기술의 윤리적 경계와 국가 안보가 정면으로 충돌하는 흥미로운 사건이 발생했습니다. 바로 생성형 AI의 선두주자 중 하나인 앤스로픽(Anthropic) 과 미국 국방부, 즉 펜타곤 사이의 팽팽한 신경전입니다. 핵심 요약 미 국방부의 압박: 펜타곤이 앤스로픽을 포함한 주요 AI 기업들에게 군사적 목적으로 기술을 제한 없이 사용할 수 있도록 요구하고 있습니다. 앤스로픽의 저항: 앤스로픽은 '자율 살상 무기'와 '대규모 감시' 사용 금지라는 윤리 정책을 고수하며 가장 강하게 반발하고 있습니다. 2억 달러의 기로: 펜타곤은 요구가 수용되지 않을 경우 앤스로픽과의 2,700억 원 규모 계약을 취소하겠다며 압박 수위를 높이고 있습니다. 클로드(Claude), 전쟁터의 브레인이 될 것인가? 최근 Axios의 보도에 따르면, 미 국방부는 OpenAI, 구글, xAI, 그리고 앤스로픽에게 군사적 용도를 포함한 "모든 합법적 목적" 으로 AI 기술을 사용할 수 있게 해달라고 요청했습니다. 트럼프 행정부 관계자에 따르면, 이 중 한 기업은 이미 합의했고 다른 두 기업은 유연한 태도를 보이고 있는 반면, 앤스로픽은 끝까지 완강한 태도를 보이고 있다고 합니다. 앤스로픽의 대변인은 "완전 자율 무기나 대규모 국내 감시와 같은 명확한 금지선(Hard limits)을 지키는 데 집중하고 있다"며 원칙적인 입장을 밝혔습니다. 하지만 펜타곤은 이 태도가 마음에 들지 않는 눈치입니다. 이미 앤스로픽과 맺은 2억 달러 규모의 계약을 파기 할 수도 있다는 위협까지 가하고 있는 상황이죠. 사실 이미 '클로드'가 군사 작전에 투입되었다는 정황도 있습니다. 지난 1월 월스트리트저널은 베네수엘라의 니콜라스 마두로 대통령 체포 작전 과정에서 클로드가 활용되었다고 보도한 바 있습니다. 기술의 효율성은 이미 증명되었지만, 이를 어디까...