과학 논문 한 편이 발표될 때마다 그 뒤에 쌓이는 인용 목록은 마치 지식의 족보와 같다. 선행 연구를 존중하고, 그 위에 새로운 발견을 쌓아가는 학문의 전통은 수백 년간 이어져왔다. 그런데 만약 그 족보의 일부가 허구라면? 2025년에 발표된 11만 편 이상의 논문에 포함된 인용 중 상당수가 AI가 만들어낸 가짜라는 연구 결과가 나왔다. 이 숫자는 단순한 통계가 아니다. 학문 생태계 전체를 흔드는 경고음이다.
문제는 AI의 ‘환각(hallucination)’ 능력에서 시작된다. 대형 언어 모델은 방대한 데이터를 학습하면서 패턴을 인식하지만, 그 패턴이 항상 진실을 반영하는 것은 아니다. 특히 학술 인용처럼 세밀한 맥락이 필요한 영역에서 AI는 존재하지 않는 논문, 잘못된 저자 이름, 심지어 엉뚱한 연구 주제를 만들어내기도 한다. 이는 마치 도서관에서 책을 찾으려는데, 카드 목록에 적힌 책이 실제로는 책장에 없는 상황과 같다. 독자는 그 허상을 쫓아 시간을 낭비하고, 학계는 신뢰의 기반을 잃는다.
더 큰 문제는 이러한 오류가 시스템적으로 확산될 가능성이다. AI가 생성한 논문이 다시 학습 데이터로 사용되면, 가짜 인용은 마치 바이러스처럼 번져나간다. 연구자들은 무의식중에 허구의 출처를 인용하고, 그 논문이 또 다른 연구에 참고되면서 오류는 점점 더 공고해진다. 학문이 진실을 추구하는 행위라면, 이는 마치 거울의 방에 갇힌 것과 같다. 모든 방향에서 반사되는 빛은 눈부시지만, 그 중 진짜는 어디에도 없다.
학문이란 결국 인간 사이의 신뢰에 기반한다. 그 신뢰가 흔들릴 때, 우리가 쌓아온 지식의 탑은 모래성처럼 무너질 수 있다.
이 현상은 학계만의 문제가 아니다. AI가 생성한 콘텐츠가 범람하면서 사회 전체가 정보의 신뢰성에 의문을 품게 되었다. 뉴스 기사, 보고서, 심지어 법원 판결문까지 AI의 도움을 받는 시대다. 그런데 그 도구가 때때로 거짓을 만들어낸다면, 우리는 무엇을 믿을 수 있을까? 기술의 발전이 항상 진보를 의미하지는 않는다. 때로는 그 발전이 새로운 형태의 혼란을 가져오기도 한다.
물론 AI의 환각 문제는 기술적으로 해결될 여지가 있다. 인용 검증 시스템을 강화하고, AI가 생성한 콘텐츠에 워터마크나 출처 표시를 의무화하는 방안이 논의되고 있다. 그러나 기술적 해결만으로는 부족하다. 학계와 사회는 AI가 만든 정보에 대한 비판적 사고를 다시금 강조해야 한다. 인용 목록을 기계적으로 신뢰하는 습관, 검증 없이 결과를 받아들이는 태도는 이제 더 이상 용납될 수 없다.
이 연구 결과는 우리에게 중요한 질문을 던진다. 기술이 인간을 대신할 수 있을까? AI가 논문을 쓰고, 코드를 작성하고, 심지어 예술 작품을 만들어내는 시대지만, 그 결과물의 신뢰성을 누가 보장할 것인가? 학문의 본질은 진실을 탐구하는 과정에 있다. 그 과정이 AI에 의해 왜곡될 위험이 있다면, 우리는 그 기술을 어떻게 통제해야 할까? 어쩌면 이 문제는 단순히 AI의 오류를 수정하는 차원을 넘어, 인간의 역할과 책임을 재정의하는 계기가 될지도 모른다.
더 읽어보기: Nature 기사 원문
이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.