야구장 관중석의 한 여성을 포착한 이른바 ‘야구장 여신’ 영상이 최근 누리소통망(SNS)을 뜨겁게 달궜다. 평범한 프로야구 중계 화면처럼 보이지만 자세히 들여다보면 현실에서는 있을 수 없는 오류가 눈에 띈다. 점수판에 이름을 올린 투수와 타자가 서로 다른 시대에 활동한 선수들이라는 점이다. 이후 SNS에는 ‘AI 야구 중계샷 제일 쉽게 만드는 법’, ‘간단하게 야구장 여신 되는 법’ 같은 영상이 잇따라 올라왔다.
문제는 상당수 이용자가 이를 실제 장면으로 받아들였다는 것이다. 불과 몇 년 전만 해도 어색한 입 모양이나 부자연스러운 움직임 등 ‘가짜 영상’을 구별하는 단서들이 있었다. 하지만 이제는 누군가의 얼굴과 목소리는 물론 움직임까지 정교하게 재현해낸다. 진짜와 가짜의 경계가 흐려지는 시대다.
인공지능(AI) 콘텐츠는 단순한 재미를 넘어 현실에도 영향을 미치고 있다. 지난 4월 대전 오월드를 탈출한 늑대 ‘늑구’ 사건 당시에는 AI로 제작한 가짜 사진이 온라인에 퍼지며 수색 초반 혼선을 빚었다. 정부가 6월 3일 전국동시지방선거를 앞두고 가짜뉴스 대응에 범부처 역량을 총동원하겠다고 밝힌 배경에도 AI 기반 허위정보 확산에 대한 우려가 깔려 있다. AI 기술이 빠르게 발전하는 만큼 이를 검증하고 대응할 사회적 시스템의 중요성도 커지고 있다.
국내 1호 ‘해커 출신 교수’로 꼽히는 김휘강 고려대학교 정보보호대학원 교수는 ”가짜가 범람할수록 사람들은 진짜의 가치에 무감각해지고 참과 거짓보다 도파민 역치를 끌어올리는 데만 반응하는 사회가 될 것“이라며 ”인간의 판단 능력이 무뎌지는 것을 막아야 한다“고 강조했다.
가짜뉴스가 어디까지 진화했는지, 우리는 무엇을 어떻게 경계해야 하는지 김휘강 교수의 이야기를 들어봤다. 그는 2017년 사이버보안 솔루션 제공 기업 ‘AI스페라’를 창업해 전 세계 유해 IP 분석과 피싱·해킹 대응 분야에서도 활동하고 있다. 2024년에는 사이버수사·디지털포렌식 분야 인재 양성에 기여한 공로를 인정받아 제17회 사이버치안대상 대통령표창을 받았다.
가짜뉴스 문제를 언급할 때 딥페이크와 AI가 함께 거론되곤 합니다. 같은 개념인가요.
딥페이크를 단순한 영상 조작 기술로 생각하는 경우가 많지만 사실 AI 기술의 한 범주입니다. 원래는 AI 생성 모델의 한 알고리즘 이름이었는데 지금은 일반 명사처럼 널리 쓰이고 있죠. 본래 딥페이크 기술은 부족한 데이터를 보완하기 위해 개발됐습니다. 예를 들어 정면 사진 한 장만 있어도 AI가 얼굴 구조와 특징을 학습해 측면 모습을 자연스럽게 생성하는 식입니다. 2차원 사진만으로 3차원 움직임을 구현하는 것도 같은 원리입니다. 화질이 낮은 이미지를 고해상도로 복원해 범죄자 식별을 돕는 등 긍정적인 활용 사례가 많았습니다. 2024년 광복절을 맞아 독립운동가를 AI로 복원한 영상은 큰 감동을 주기도 했고요. 하지만 최근에는 허위 영상이나 음란물 제작 등 부정적인 방향으로 악용되는 사례가 많아지고 있습니다.
딥페이크 범죄는 어느 수준까지 왔나요.
2025년 글로벌 이슈가 됐던 ‘미스터 딥페이크’ 사이트가 대표적입니다. K-팝 스타 얼굴로 음란 영상을 제작·판매하던 악성 사이트였는데 폐쇄됐습니다. 이제 이런 범죄는 공인에만 국한되지 않습니다. 지인 사진을 악용하는 사례가 늘면서 졸업앨범 제작을 꺼리는 분위기도 생기고 있고요. 조작 콘텐츠는 사회적 판단까지 흔들 수 있습니다. 가령 정치인이 하지 않은 발언을 조작 영상으로 만들어 퍼뜨리면 유권자는 잘못된 정보에 노출될 수밖에 없습니다. 과거에는 영상이 조잡해 가짜라는 걸 쉽게 알아챌 수 있었지만 현재는 AI가 생성한 이미지 특유의 패턴도 눈에 띄지 않을 정도로 정교해졌습니다.
더 고도화된 범죄 양상도 나타나겠네요.
조만간 현실화할 가능성이 높은 범죄들이 있습니다. 지난해 대형 해킹 사고가 연이어 발생하면서 굉장히 민감한 정보까지 유출됐습니다. 예전에는 개인정보가 유출돼도 당사자 수준에 그치는 경우가 많았다면 이제는 배달 기록이나 아파트 단지 출입번호 등을 통해 가족관계와 생활패턴까지 유추할 수 있는 수준이 됐습니다. 부모님 대신 배달 앱으로 주문한 기록만으로도 가족 정보가 연결될 수 있는 겁니다. 여기에 딥보이스 기술까지 결합하면 보이스피싱은 훨씬 정교해집니다.
생성형 AI가 정교해지는 만큼 가짜 콘텐츠를 탐지하는 기술도 중요할 텐데요.
아직 완벽한 수준은 아니지만 영상이나 음성 분야를 중심으로 탐지 기술이 꾸준히 발전하고 있습니다. 카메라로 촬영한 사진이나 영상에는 고유한 전자기적 노이즈가 남습니다. 제조사나 카메라 모델마다 특유의 파형이 있기 때문에 이를 분석하면 어떤 장비로 촬영했는지까지 추적할 수 있습니다. 반대로 AI로 생성한 결과물은 이런 물리적 흔적이 부족합니다. 음성 역시 사람 목소리와 달리 지나치게 균일하거나 특정한 패턴이 반복되고요. 다만 탐지 기술을 고도화하는 데는 한계가 있습니다. 통신사가 전화 음성과 내용을 실시간으로 분석해 특정 문맥이나 표현까지 감지하면 정확도는 높아질 수 있지만 감청이나 개인정보 침해 논란으로 이어질 가능성도 있기 때문입니다.
기술 대응만으로 해결할 수 있는 문제는 아니군요.
딥페이크 영상을 탐지하고 차단하는 것도 중요하지만 그전에 개인정보 침해 문제부터 관리해야 한다고 생각합니다. 선거철만 되면 내가 사는 지역이 아닌데도 홍보 문자가 무분별하게 날아옵니다. 문자 발송 시 정보 수집 경로를 명시하도록 돼있지만 실제로는 제대로 지켜지지 않는 경우가 적지 않고요. 더 우려되는 건 이런 문자메시지가 악성 링크로 이어질 수 있다는 점입니다. 후보 정보를 확인하라는 링크를 눌렀다가 악성코드가 설치되거나 가짜뉴스 사이트로 연결되는 방식도 충분히 가능합니다.
전문가도 가짜 정보를 구별하기 어려운 경우가 있나요.
영상은 ‘가짜일 수 있다’는 전제를 두고 보기 때문에 오히려 예민하게 판단하지만 글 형태의 허위정보는 훨씬 어렵습니다. 완전히 터무니없는 거짓말이 아니라 80~90%의 사실에 거짓을 섞는 방식이 많기 때문입니다. ‘가짜였다’는 사실이 나중에 밝혀져도 대중은 이미 다른 이슈로 관심을 돌린 뒤고 정정 정보 자체도 믿지 않는 분위기입니다. 진실과 거짓을 구별하는 사회적 판단 능력 자체가 점점 약해지고 있다는 게 가장 우려됩니다.
그렇다면 대중은 무엇을 기준으로 가짜 정보를 걸러내야 할까요.
교과서적으로는 여러 출처를 비교해보고 사실 여부를 교차 검증하라고 이야기합니다. 하지만 현실에서는 그렇게까지 확인하기 쉽지 않습니다. 하루에도 너무 많은 콘텐츠가 쏟아지니까요. 오히려 중요한 건 집단 분위기에 휩쓸리지 않는 자세라고 생각합니다. 주변 사람들이 모두 같은 이야기를 하면 특정 여론이 대세인 것처럼 느끼고 ‘나만 잘못 생각하고 있나’라는 압박을 받습니다. 스스로 판단하기보다 다수 의견에 기대는 거죠. 이른바 에코 체임버(Echo Chamber) 현상입니다. 특정 정보와 의견만 반복적으로 소비하면서 다른 관점은 받아들이기 어려워지는 상태를 말합니다. 다수가 말한다고 무조건 믿기보다 스스로 한 번 더 의심하고 판단하려는 태도가 중요합니다.
김 교수는 1994년 카이스트 교내 해킹 동아리 활동을 시작으로 사이버보안 분야에 뛰어들었다. 대전과학고 재학 시절 최첨단 기술이었던 ‘유닉스 서버’ 운영체제(OS)를 접한 것이 계기가 됐다. 1999년 보안 컨설팅 기업 ‘에이쓰리시큐리티’를 창업해 보안 점검 경험을 쌓았고 2017년에는 ‘AI스페라’를 설립했다. 이후 2023년 출시한 ‘크리미널 IP’를 통해 피싱 사이트나 해킹 위험을 사전에 탐지하고 금융 결제 차단 등 보안 대응에 활용하고 있다. 딥페이크 음란물 사이트 IP를 추적·수집해 법무법인과 수사기관에 제공하는 일도 맡고 있다.
보안 영역에서는 딥페이크나 가짜뉴스를 어떻게 바라보나요.
크게 ‘AI를 활용한 보안(AI for Security)’과 ‘AI를 위한 보안(Security for AI)’이라는 흐름이 있습니다. 전자는 AI 기술을 활용해 기존 보안 업무를 자동화하고 효율화하는 개념입니다. 후자는 AI를 보호하는 영역이고요. 최근에는 AI를 악용한 범죄가 늘면서 ‘Security for AI’의 중요성이 더 커지고 있습니다. 결국 AI를 어떻게 통제하고 보호할 것인가의 문제로 볼 수 있습니다.
보안에 대한 사회 인식이 달라졌다고 체감한 순간이 있었나요.
1990년대 중반부터 보안업계에 있었지만 통신사가 ”보안이 강력하니 우리 서비스를 이용해달라“는 식으로 광고하는 걸 본 건 지난해가 처음이었습니다. 그전까지 보안은 비용이나 기술 영역으로만 여겼지 소비자에게 내세우는 경쟁력은 아니었거든요. 보안 자체가 서비스 선택의 기준이 되고 홍보 요소로 활용되는 걸 보면서 사회 분위기가 정말 많이 바뀌었다고 느꼈습니다.
10년 뒤는 또 어떻게 달라질까요.
대학 연구 환경 자체가 빠르게 바뀌고 있습니다. 학생들이 며칠씩 걸려 문헌을 조사하고 비교·분석하던 작업을 AI가 몇 시간 안에 처리해옵니다. 그러다 보니 기존처럼 노동집약적인 연구 방식이 계속 필요할까 하는 고민이 생깁니다. 대학 교육 방향 자체도 달라질 수밖에 없습니다. AI 시대에는 자기만의 판단 기준을 갖춘 사람을 어떻게 키울 것인가가 더 중요해질 거라고 봅니다.
AI 의존도가 높아지는 시대에 가짜뉴스를 완전히 막는 게 가능할까요.
가짜뉴스는 단순한 허위정보가 아니라 공동체를 흔드는 공격에 가깝습니다. 해외에서는 가짜뉴스가 선거 개입 문제로 이어진 사례도 있었고요. 허위정보가 쌓이면 사람들은 뉴스 자체에 피로감을 느낍니다. 어차피 다 비슷한 이야기 아니냐, 뭐가 사실인지 모르겠다는 식으로 관심과 신뢰를 동시에 잃는 거죠. 기술적인 대응은 전문가가 계속 보완하고 막아야 할 영역입니다. 정말 경계해야 하는 건 가짜뉴스에 무감각해지는 사회입니다.
이근하 기자