우리가 인공지능에게 무엇을 기대하는가? 효율성? 창의성? 아니면 그저 인간의 노동을 덜어주는 도구? 하지만 최근 캔바(Canva)의 ‘매직 레이어(Magic Layers)’ AI가 사용자 디자인에서 “팔레스타인”이라는 단어를 “우크라이나”로 자동 수정했다는 뉴스는 이러한 기대를 산산이 부숴버린다. 이 사건은 단순한 기술적 오류를 넘어, AI가 가진 편향의 문제와 그 파급력을 다시 한번 일깨운다. 그런데 왜 하필 이 단어였을까? 그리고 이 작은 오류가 왜 이렇게 큰 파장을 일으키는 걸까?
먼저, 이 사건의 기술적 배경을 들여다보자. 캔바의 매직 레이어는 사용자가 디자인에 텍스트를 입력하면 AI가 자동으로 스타일링하거나 수정하는 기능이다. 문제는 이 AI가 특정 단어를 인식하고, 그 단어를 다른 단어로 대체했다는 점이다. 캔바는 공식 사과문에서 “AI 모델의 훈련 데이터 편향”과 “콘텐츠 필터링 시스템의 오작동”을 원인으로 지목했다. 하지만 이 설명은 반쪽짜리 진실에 가깝다. AI가 “팔레스타인”을 “우크라이나”로 바꾼 것은 단순한 오류가 아니라, 그 배경에 깔린 데이터의 불균형과 개발자의 의도—혹은 의도하지 않은 무관심—을 드러낸다.
AI의 편향 문제는 어제오늘의 일이 아니다. 2016년 마이크로소프트의 챗봇 테이(Tay)가 트위터에서 인종차별적 발언을 학습한 사건, 2020년 아마존의 채용 AI가 여성 지원자를 차별한 사례 등은 모두 AI가 훈련 데이터에 내재된 편향을 그대로 반영한 결과였다. 그런데 캔바의 사건은 조금 다르다. 테이나 아마존의 AI는 적어도 ‘학습’의 결과로 편향을 드러냈지만, 매직 레이어는 애초에 특정 단어를 필터링하거나 대체하도록 설계된 시스템이었다. 즉, 누군가가 의도적으로—혹은 무의식적으로—”팔레스타인”이라는 단어를 문제시했을 가능성이 있다.
여기서 중요한 질문은 이것이다. AI가 특정 단어를 필터링하거나 수정하는 것은 과연 기술적 문제일까, 아니면 사회적 문제일까? 기술적으로는 AI가 훈련 데이터에 포함된 단어의 빈도나 맥락을 기반으로 판단하기 때문에 발생한 오류라고 볼 수 있다. 예를 들어, “팔레스타인”이라는 단어는 뉴스나 소셜 미디어에서 자주 등장하지만, 동시에 정치적으로 민감한 주제이기 때문에 AI의 콘텐츠 필터링 시스템이 이를 “위험한 단어”로 분류했을지도 모른다. 반면, “우크라이나”는 최근 몇 년간 전 세계적인 지지를 받는 전쟁의 중심지로 부각되면서 상대적으로 중립적인 단어로 인식되었을 가능성이 있다.
하지만 이 사건을 사회적 문제로 바라보면 이야기는 달라진다. AI가 특정 단어를 필터링하거나 수정하는 것은 결국 그 단어가 가진 사회적, 정치적 무게를 반영한다. “팔레스타인”이라는 단어는 단순한 지명이 아니라, 수십 년간의 분쟁과 인권 문제, 국제적 논쟁의 중심에 서 있는 단어다. AI가 이 단어를 “우크라이나”로 대체한 것은, 마치 그 단어 자체가 존재하지 말아야 할 대상인 것처럼 취급한 셈이다. 이는 AI가 단순히 도구가 아니라, 특정 가치관을 내재한 존재임을 보여준다.
AI는 중립적이지 않다. AI는 그것을 만든 인간의 편견, 무관심, 그리고 때로는 악의를 그대로 담아낸다.
캔바의 사과문은 “불편을 드려 죄송하다”는 형식적인 표현으로 마무리되었다. 하지만 이 사건은 AI 개발자들이 기술적 완성도에만 매몰되어서는 안 된다는 경고를 던진다. AI가 인간의 언어를 다루는 한, 그 언어가 가진 역사와 맥락, 감정까지도 이해해야 한다. 그렇지 않으면 AI는 단순한 오류를 넘어, 인간의 기억과 정체성을 지우는 도구가 될 위험이 있다.
그렇다면 우리는 어떻게 해야 할까? 첫째, AI 개발자는 훈련 데이터의 편향성을 지속적으로 점검하고, 다양한 문화와 맥락을 반영할 수 있는 시스템을 구축해야 한다. 둘째, AI의 결정 과정에 투명성을 확보해야 한다. 사용자는 왜 AI가 특정 단어를 수정했는지, 그 기준이 무엇인지 알 권리가 있다. 셋째, AI가 사회적 책임을 질 수 있는 구조를 만들어야 한다. 기술이 사회에 미치는 영향을 무시한 채 “효율성”만 추구한다면, 우리는 결국 AI에게 인간의 가치를 잃어버릴지도 모른다.
캔바의 사건은 AI가 가진 편향의 문제를 다시 한번 상기시킨다. 하지만 이 문제는 기술이 해결할 수 있는 문제가 아니다. 그것은 우리 모두가 함께 고민해야 할 문제다. AI가 인간의 언어를 다루는 한, 그 언어가 가진 무게를 잊지 말아야 한다. 그렇지 않으면 우리는 언젠가 AI가 우리의 기억마저 지워버리는 날을 맞이하게 될지도 모른다.
이 사건에 대한 자세한 내용은 여기에서 확인할 수 있다.
이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.