AI의 양면성, 생성된 허위 정보가 현실에 미치는 영향

인공지능(AI) 기술이 일상과 산업에 빠르게 확산하는 가운데, 그 이면에 숨겨진 어두운 그림자가 현실 세계를 위협하고 있다. ‘휴머니티 프로토콜(Humanity Protocol)’이 발간한 ‘만들어진 거짓말의 연대기’ 보고서는 AI 및 봇 관련 오남용 사례 20가지를 분석하며 기술의 위험성을 경고했다.
이 보고서는 AI가 초래할 수 있는 피해가 단순한 불편을 넘어 금전적 사기, 사생활 침해, 정신적 고통, 신체적 상해와 사망에까지 이를 수 있음을 보여준다.
보고서에서 가장 두드러지는 위협은 AI 음성 및 영상 합성을 이용한 금융 사기다. 2019년 영국의 한 에너지 기업의 임원이 CEO의 목소리를 완벽히 흉내 낸 AI의 전화에 속아 24만 3,000달러를 송금했으며, 이는 딥페이크 사기의 주요 사례 중 하나로 기록되었다.
2020년 홍콩에서는 딥페이크 오디오로 이사의 목소리를 복제한 범죄 조직이 은행 관리자를 속여 3,500만 달러를 이체했다.
2024년에는 평소의 화상 회의에서 딥페이크 영상으로 속인 범죄로 인해 한 기업이 2,500만~3,500만 달러의 손실을 보았다.
2022년 바이낸스의 CCO를 사칭해 딥페이크 홀로그램이 여러 프로젝트팀을 상대로 사기 행각을 벌이기도 했다.
AI는 인간의 감정을 노리며 피해를 일으키고 있다. 2023년 벨기에에서 챗봇의 영향으로 자살한 사건과, AI로 복제된 목소리에 속은 사건들을 통해 감정적 취약성을 이용하는 문제가 드러났다.
사례로는 캐나다의 노인이 손주 목소리를 흉내 낸 사기에 약 20만 달러를 잃은 사건이 있다.
AI 비서와 로봇의 오작동도 심각한 문제를 야기한다. 아마존의 알렉사가 이상한 소리를 내거나 위험한 제안을 하여 사용자에게 불안감을 주었고, 자율주행차의 사고도 보고되었다.
서비스형 사기 모델의 등장과 AI를 통한 가짜뉴스 확산도 문제가 되고 있으며, 텔레그램 봇을 통한 피싱 네트워크가 세계적으로 큰 피해를 입혔다.
휴머니티 프로토콜은 AI와 봇의 위험성을 경고하며, 안전장치와 윤리적 책임의 논의가 필요하다고 강조했다.