日, 'AI무기 지침' 첫 발표…통제 못하는 무기 개발 제한
위험성·법률·기술 등 3단계 심사…방위상 "위험 줄이면서 혜택 최대화"
박상현
입력 : 2025.06.07 11:27:38
입력 : 2025.06.07 11:27:38

[AFP 연합뉴스 자료사진.재판매 및 DB 금지]
(도쿄=연합뉴스) 박상현 특파원 = 일본 방위성이 인공지능(AI)을 활용한 무기의 연구·개발과 관련된 지침을 처음 책정해 발표했다고 아사히신문과 요미우리신문 등이 7일 보도했다.
방위성은 전날 발표한 지침에서 인간이 관여하지 않아도 AI가 자율적으로 목표물을 정해 교전하는 '치명적 자율무기'(LAWS)는 연구·개발을 허용하지 않기로 하고, AI 무기 개발 시 인간 책임을 명확히 한다고 규정했다.
AI 탑재 무기 연구·개발 심사는 세 단계로 진행된다.
우선 AI 무기를 '고위험'과 '저위험'으로 나눈다.
고위험은 AI가 대상을 특정해 바로 공격할 수 있는 무기, 저위험은 공격 시 인간 판단이 개입되는 무기가 해당한다.
고위험 무기로 분류되면 국제법·국내법을 준수하는지, LAWS로 볼 수 있는지 등 법률 관련 심사를 한다.
LAWS로 판단되면 연구·개발을 허용하지 않는다.
마지막으로 인간의 AI 무기 통제 여부와 안전성 등 기술 관련 심사를 실시한다.
나카타니 겐 방위상은 지침에 대해 "인공지능 활용에 따른 위험을 줄이면서 혜택을 최대화할 수 있는 내용"이라고 말했다.
아사히는 "AI 무기는 잘못된 판단을 할 우려가 있어서 국제적으로 개발 규제 방식이 논의되고 있다"며 "이번 지침은 AI 위험성 관리의 기준을 보여준 것으로, 일본 내에서 무기 개발 시 AI 활용을 촉진하려는 의도도 있다"고 해설했다.
일본에서는 이외에도 AI와 관련된 다양한 논의가 이뤄지고 있다.
일본 공정거래위원회는 전날 공개한 생성형 AI 관련 보고서에서 글로벌 정보통신(IT) 기업이 휴대전화나 프로그램 등에 자사 생성형 AI를 탑재할 경우 후발 기업의 생성형 AI 개발 등이 어려워진다는 측면에서 독점금지법 위반 가능성이 있다고 밝혔다.
공정위는 IT 기업이 기존 서비스에 자사 생성형 AI를 탑재하는 것과 관련해 "기술 혁신의 하나로 바로 문제가 되지는 않는다"면서도 경쟁 업체의 시장 진입 등을 막으려는 의도가 있다면 법에 저촉될 수 있다고 지적했다.
psh59@yna.co.kr(끝)
증권 주요 뉴스
증권 많이 본 뉴스
매일경제 마켓에서 지난 2시간동안
많이 조회된 뉴스입니다.