"오픈AI, 최신 AI모델 안전성 테스트 느슨해져"

김지연

입력 : 2025.04.11 21:21:46


오픈AI
[로이터 연합뉴스 자료사진 재판매 및 DB 금지]

(런던=연합뉴스) 김지연 특파원 = 생성형 인공지능(AI) 챗GPT 개발사 오픈AI가 최신 AI 모델의 안전성 테스트에 투입하는 시간과 자원을 줄여 우려를 사고 있다고 영국 일간 파이낸셜타임스(FT)가 11일(현지시간) 보도했다.

오픈AI 직원과 외부 그룹은 최근 오픈AI의 최신 대형언어모델(LLM)에 대해 위험요인과 성능을 테스트하는 평가를 수행하는 데 '수일'의 기한을 받은 것으로 전해졌다.

앞서 수개월이었던 것보다 크게 줄어든 것이다.

이 매체는 소식통 8명을 인용해 오픈AI의 테스트에서 AI 모델의 위험요인을 파악하고 완화하는 데 쓰여야 할 시간과 자원이 부족해지는 등 "테스트가 덜 철저해졌다"고 전했다.

최근 문제해결 및 추론과 같은 복잡한 과제 수행을 위해 설계된 'o3' 모델을 테스트한 한 소식통은 "(기술이) 덜 중요했을 때 더 철저한 안전 검사를 했다"고 말했다.

소식통들은 LLM의 역량이 점점 커지고 있는 만큼 '잠재적 무기화' 가능성이 있다면서 "수요가 늘어나면서 더 빠른 개발을 바란다.

이것이 재앙적인 실수가 아니기를 바라지만 무모한 일"이라고 지적했다.

이들 소식통은 오픈AI가 메타, 구글과 같은 빅테크나 일론 머스크의 xAI 등과 경쟁이 치열해진 것이 시간 압박의 동인이라고도 짚었다.

2023년 출시된 GPT-4의 경우 안전 테스트 평가에 6개월이 주어졌다고 한다.

이 테스트에 참여했던 한 소식통은 당시 평가 시작 두 달 만에 '위험한 능력'을 찾아냈다면서 "그들(오픈AI)은 지금 공공 안전을 전혀 우선하지 않는다"고 주장했다.

AI 안전 테스트를 규정한 국제 표준은 없다.

다만, 올해 말 시행될 유럽연합(EU)의 AI법에 따라 AI 기업들은 가장 강력한 모델에 대한 안전성 테스트를 의무로 해야 한다.

오픈AI 연구원 출신으로 비영리 단체 'AI 미래 프로젝트'를 이끄는 대니얼 코코테일로는 "(AI 모델의)무서운 능력에 대해 대중에 계속 공개해야 한다는 규제는 없다"며 "경쟁으로 압박이 커지면서 기업들이 능력을 더 키우려는 노력을 멈추지 않을 것"이라고 말했다.

오픈AI는 자동화한 테스트를 포함해 평가 과정에서 효율성을 증진해 시간을 단축할 수 있었다고 설명했다.

또한 이와 관련해 최선의 방식을 쓰고 있으며 보고서를 통해 투명하게 공개하고 있다고 강조했다.

cherora@yna.co.kr(끝)

증권 주요 뉴스

증권 많이 본 뉴스

매일경제 마켓에서 지난 2시간동안
많이 조회된 뉴스입니다.

04.19 00:18 더보기 >