인공지능은 이제 단순한 기술이 아닌 일상의 일부분이 되었다. 정보 검색부터 콘텐츠 제작, 고객 응대, 번역, 작문에 이르기까지 다양한 분야에서 AI는 인간처럼 자연스럽고 설득력 있는 결과물을 만들어낸다. 문제는 이 AI가 거짓말도 그럴듯하게 만들어낼 수 있다는 데 있다. 특히 최근 몇 년 사이 급속히 발전한 생성형 AI(Generative AI)는 사람처럼 말하고 사람처럼 글을 쓰고 심지어 사람처럼 보이는 얼굴과 목소리를 만들어내며 진실과 거짓의 경계를 모호하게 만들고 있다.
그렇다면 우리는 이 시대에 어떻게 ‘AI가 만들어낸 거짓말’을 구별할 수 있을까? 기술이 고도화될수록 사람의 판단력 또한 진화해야 한다. 이를 위해서는 먼저 AI가 만들어내는 거짓의 형태를 이해하고 그것이 왜 위험한지 어떤 방식으로 사회에 영향을 미치는지 알아야 하며 그 위에서 구별하는 기준과 대응 능력을 갖춰야 한다.
1. AI가 만들어내는 거짓말은 어디까지 왔는가
AI가 만들어내는 거짓은 단순한 오류가 아니다. 그것은 의도적으로 조작된 콘텐츠 혹은 사실처럼 보이지만 허위의 내용을 담은 정보들이다. 대표적인 사례로는 딥페이크가 있다. 이 기술은 인공지능을 통해 실제 존재하는 사람의 얼굴과 목소리를 합성하여 가짜 영상을 만든다. 정치인의 얼굴을 합성해 허위 발언을 유포하거나 유명인의 얼굴을 이용해 불법 콘텐츠를 제작하는 경우 등이 여기에 속한다.
이 기술은 단순한 장난 수준을 넘어서 정치, 경제, 사회 전반에 걸쳐 위협이 되고 있다. 실제로 2022년 우크라이나 전쟁 당시 대통령 젤렌스키가 항복을 선언하는 가짜 영상이 퍼졌고 이는 국제 사회에 큰 혼란을 주었다. 물론 영상이 다소 어색해 금세 진위가 드러났지만 기술은 빠르게 발전하고 있으며 곧 우리의 눈과 귀만으로는 구별하기 어려운 수준에 도달할 것이다.
또한 텍스트 기반의 생성형 AI는 더 은밀하고 광범위한 거짓을 만들어낸다. GPT와 같은 언어 모델은 단 몇 줄의 프롬프트만 입력하면 마치 실제 기자가 작성한 것 같은 뉴스 기사, 리뷰, 이메일, 블로그 글을 만들어낸다. 특히 정치적 선전 특정 기업이나 인물에 대한 허위 비방 혹은 악의적인 피싱 메일 등 다양한 형태로 악용되고 있으며 일반 독자가 이를 가려내기란 점점 더 어려워지고 있다.
2. 우리는 왜 AI의 거짓말에 쉽게 속는가
사람들이 AI가 만든 콘텐츠에 쉽게 속는 이유는 그것이 인간의 말투를 너무나 잘 흉내 내기 때문이다. 생성형 AI는 수많은 인간의 글과 말투 문장 구조를 학습하여 다음에 어떤 단어가 올지 확률적으로 예측하는 방식으로 문장을 만들어낸다. 그 결과 문장은 유창하고 자연스럽고 때로는 인간보다 더 논리적으로 보이기까지 한다.
우리가 기존에 콘텐츠를 진짜로 인식했던 기준은 자연스러움과 문법적 정확성, 논리적 흐름 같은 것이었다. 그런데 지금의 AI는 이 모든 조건을 너무도 잘 충족시킨다. 오히려 실제 사람이 작성했을 때보다 더 완벽해 보일 수 있다. 특히 사람의 감정을 자극하는 요소를 자연스럽게 녹여낸다는 점에서 감정에 취약한 인간은 쉽게 AI의 콘텐츠에 설득당하게 된다.
예를 들어 “정부가 당신의 데이터를 무단으로 수집하고 있다”는 문장이 적절한 통계 수치와 인용구 전문가의 견해처럼 보이는 내용을 함께 담고 있다면 그것이 사실인지 아닌지 의심조차 하지 않고 믿는 경우가 많다. 이는 AI의 콘텐츠가 신뢰를 기반으로 설계되기 때문이다. 설득력 있는 구조, 감정적 자극, 그리고 외형적인 전문성까지 갖추면 사람들은 그것이 사실일 것이라 쉽게 오해한다.
3. 거짓을 구별하기 위한 기술적 심리적 대응 방법
AI가 만들어내는 거짓 콘텐츠를 구별하기 위해선 기술과 인간의 인식 능력이 함께 작동해야 한다. 먼저 기술적인 대응 방법부터 살펴보면 현재 다양한 기업과 연구 기관에서 딥페이크 탐지 기술을 개발하고 있다. 이는 영상 속 인물의 미세한 표정 변화 눈동자 움직임, 음성과 입술의 싱크 차이 픽셀의 왜곡 현상 등을 분석하여 조작 여부를 판별한다. 구글이나 마이크로소프트 등에서는 AI가 만든 콘텐츠에 고유한 ‘워터마크’를 삽입하거나, 메타데이터를 통해 콘텐츠의 생성 이력을 기록하는 방법을 적용하고 있다.
또한 텍스트 생성 탐지기도 일부 존재한다. OpenAI의 AI 탐지기나 GPTZero 같은 도구는 문장의 복잡도, 표현의 유사성, 특정 어휘의 반복 등을 분석해 이 글이 사람에 의해 작성된 것인지 AI에 의해 생성된 것인지를 판단한다. 하지만 이러한 도구들은 아직까지 완벽하지 않으며 특히 짧은 글이나 단순한 문장에서는 판별 정확도가 낮다.
기술적인 도구만큼 중요한 것이 바로 인간의 판단 능력이다. 감정적으로 자극적인 콘텐츠는 한 번 더 의심해야 하며 출처가 불분명한 정보 이상하게 과장된 표현이 많은 글 이름만 그럴듯한 언론사 출처의 뉴스 등은 특히 경계해야 한다. 또한 정보의 진위를 확인할 수 있는 팩트체크 사이트나 언론 검증 기관의 정보를 적극 활용해야 한다.
결국 우리가 AI의 거짓말에 속지 않기 위해 가장 필요한 것은 디지털 리터러시다. 디지털 리터러시는 단순히 컴퓨터나 스마트폰을 잘 다루는 능력이 아니라 디지털 환경에서 제공되는 정보를 비판적으로 수용하고 사실과 의견을 구별하며 진실을 판별할 수 있는 능력을 의미한다.
우리는 지금 ‘정보 과잉’ 시대를 살아가고 있다. 그리고 이 정보들 중 많은 부분이 AI에 의해 자동으로 생산되고 있으며 그 품질은 점점 더 인간을 흉내 내고 있다. 그렇기에 이제는 정보를 그대로 받아들이기보다는 정보를 걸러내고 검토하며 스스로 판단할 수 있는 힘이 필수적이다. 특히 젊은 세대에게는 어릴 때부터 디지털 리터러시 교육이 필요하다. 어떤 정보가 진짜이고 어떤 것이 조작된 것인지 스스로 인식하고 구별할 수 있어야 한다.
AI는 앞으로도 계속 발전할 것이고 그로 인해 만들어지는 거짓 또한 더 정교해질 것이다. 하지만 그 거짓에 속을 것인지 아니면 그것을 꿰뚫어보는 힘을 가질 것인지는 결국 인간에게 달려 있다. AI 시대의 진짜 경쟁력은 기술을 사용하는 능력보다도 그것을 비판적으로 바라볼 수 있는 눈에 있다.