뉴스 AI / IT

국방부, 사용 조건 갈등으로 Anthropic과의 협력 종료 검토

미국 국방부가 Anthropic의 AI 모델 Claude의 군사적 활용 범위에 대한 이견으로 인해 파트너십 종료를 고려하고 있습니다.

Axios의 보도에 따르면, 미국 국방부는 Anthropic과의 협력 관계 지속 여부를 놓고 심각한 갈등을 겪고 있습니다. 국방부는 Anthropic이 개발한 AI 모델 Claude가 군사적 목적으로 활용될 수 있도록 허용할 것을 주요 AI 기업들에게 요구해 왔습니다. 특히, Claude 모델의 성능과 잠재력을 높이 평가하며 다양한 방위 산업 분야에 적용하기를 희망하고 있습니다.

갈등의 핵심은 Anthropic 측에서 Claude 모델 사용 조건에 대한 엄격한 제한을 두고 있다는 점입니다. 국방부는 Claude 모델을 광범위하게 활용하여 전략 수립, 정보 분석, 무기 시스템 제어 등 다양한 분야에 적용하고자 하지만, Anthropic은 윤리적 문제 및 잠재적인 오용 가능성을 우려하며 군사적 사용 범위를 제한하고 있습니다. 구체적으로, Anthropic은 특정 유형의 공격적인 응용 프로그램이나 자율 무기 시스템 개발에 Claude 모델이 사용되는 것을 반대하는 것으로 알려졌습니다.

현재 국방부는 Anthropic과의 협력 종료 외에도 다른 AI 기업들과의 파트너십을 모색하고 있습니다. OpenAI, Google 등 다른 주요 AI 기업들은 국방부의 요구 사항에 보다 유연하게 대응할 가능성이 있는 것으로 보입니다. 만약 Anthropic과의 협력이 최종적으로 종료된다면, 미국 군사 분야에서 Claude 모델의 활용은 제한될 수 있으며, 국방부는 대체 AI 솔루션 확보에 집중해야 합니다.

원문 제목

Pentagon Considers Ending Anthropic Relationship Over Dispute

원문 보기 뒤로가기