AI, 인류 멸종 위기 가능성”…미국 보고서가 경고한 두 가지 핵심 위험 요소

미국에서 인공지능(AI)이 인류를 멸종시킬 가능성에 대한 경고가 담긴 보고서가 발표되면서, 미국 정부가 신속하게 대응할 필요성이 제기되었습니다.

현지 시각으로 12일 CNN 등 외신 보도에 따르면, AI 정책 자문을 제공하는 민간 연구 기관 ‘글래드스톤AI’는 전날 “첨단 AI의 안전성과 보안성을 높이기 위한 방안”이라는 제목의 보고서를 공개했습니다. 이 보고서는 미국 국무부의 요청으로 작성되었으며, 총 247쪽에 이르는 방대한 분량으로 작성되었습니다.

보고서에서는 최근 생성형 AI가 빠르게 발전하면서 제기된 ‘AI 종말론’과 유사한 우려가 담겨 있습니다. 특히, 인간의 지능을 초월하는 일반 인공지능(AGI)의 출현이 핵무기와 같은 위협이 될 수 있으며, 통제되지 않을 경우 인류 멸종의 원인이 될 수도 있다는 내용이 강조되었습니다. 이 보고서는 AI의 위험 요소로 ‘무기화’와 ‘통제력 상실’을 꼽으며, AI가 긍정적인 용도로 사용된다면 인류에게 큰 이익을 가져다줄 수 있지만, 잘못 악용될 경우 생화학적, 사이버 전쟁 등 파괴적인 목적으로 이용될 수 있다는 점을 경고했습니다.

특히, 보고서는 AGI가 예상보다 빠르게 진화하고 있으며, 5년 내에 실제로 등장할 가능성이 있다고 전망했습니다. 오픈AI, 구글 딥마인드, 엔비디아 등의 주요 AI 연구 기관들은 모두 2028년쯤 AGI에 도달할 수 있을 것으로 보고 있으며, 이에 따라 AGI의 등장을 대비한 신속한 조치가 필요하다는 것입니다.

이 보고서는 AI 기술의 위험성을 최소화하기 위해 미국 정부가 AI 개발에 적극적으로 개입해야 한다고 주장합니다. 구체적으로, 긴급 규제 안전장치와 AI 감시 기관 설립이 필요하며, AI 모델 훈련에 필요한 컴퓨터 성능을 제한하여 AGI의 출현 속도를 늦출 필요가 있다고 언급했습니다. 또한, AI 반도체의 제조와 수출에 대한 통제를 강화하는 것도 제안되었습니다.

그럼에도 불구하고, 보고서는 이러한 위험성 때문에 AI 연구 자체를 중단하는 것은 바람직하지 않다고 덧붙였습니다. 글래드스톤AI의 공동 창립자이자 CEO인 제러미 해리스는 CNN과의 인터뷰에서 “최악의 시나리오 중 하나는 모든 AI 연구를 멈춰 이 기술이 제공할 수 있는 놀라운 이점을 전혀 누리지 못하는 것”이라고 언급했습니다