몇 년 전 한 대학 강연에서 학생 한 명이 물었다. “선생님, AI가 제 코딩 실력을 평가한다면 얼마나 정확할까요?” 당시에는 그 질문이 그저 호기심 어린 농담처럼 들렸다. 하지만 이제 그 농담은 현실이 되었고, 그 현실은 생각보다 훨씬 더 불편하다. 영국에서 AI 면접 시스템을 경험한 구직자들의 반응은 “끔찍하다”는 한마디로 요약된다. 단순한 불편함을 넘어, 시스템이 인간을 평가하는 방식 자체에 대한 근본적인 의문이 제기되고 있다.
기술이 발전할수록 우리는 그 기술이 인간의 삶을 얼마나 ‘잘’ 대신할 수 있는지에 집착해왔다. 특히 인공지능은 이제 단순한 도구를 넘어, 인간의 판단과 결정까지 대체하려는 듯 보인다. 하지만 AI 면접 시스템이 보여주는 문제는 기술의 한계를 넘어, 그 기술이 인간을 어떻게 바라보는지에 대한 철학적 질문으로 이어진다. 구직자들이 느끼는 좌절은 단순히 “AI가 나를 이해하지 못한다”는 수준이 아니다. 그보다는 “AI가 나를 평가할 자격이 있는가”라는 더 근본적인 문제에서 비롯된다.
AI 면접 시스템의 가장 큰 문제는 ‘표준화’에 있다. 시스템은 지원자의 답변을 미리 정해진 기준에 맞춰 분석하고, 그 기준은 결국 인간이 설계한 것이다. 하지만 인간의 감정, 상황, 맥락은 표준화할 수 없는 영역이다. 예를 들어, 한 지원자가 면접 중 가족의 병간호로 인해 집중력이 떨어진 상태였다고 가정해보자. AI는 그 맥락을 이해하지 못한 채, 그저 “답변이 논리적이지 않다”는 결론만 내릴 것이다. 이처럼 AI는 인간의 복잡성을 단 하나의 점수로 환원하려 들지만, 그 점수는 결국 공허한 숫자에 불과하다.
AI 면접관이 내 눈을 보고 있지 않다는 사실이 가장 괴로웠다. 그들은 내 눈빛, 내 떨림, 내 숨소리를 읽지 못한다. 그들이 보는 것은 그저 데이터일 뿐이다.
이 문제는 기술적 한계를 넘어 윤리적 딜레마로 확장된다. AI가 인간의 능력을 평가할 때, 그 평가의 기준은 과연 공정한가? 예를 들어, AI가 특정 억양이나 말투를 가진 지원자에게 불이익을 줄 가능성이 있다. 이는 AI가 학습한 데이터의 편향에서 비롯된 결과다. 하지만 그 편향은 결국 인간이 만든 것이며, AI는 그저 그 편향을 재생산할 뿐이다. 그렇다면 AI 면접 시스템은 과연 누구를 위한 기술인가? 기업의 효율성을 위한 도구인가, 아니면 구직자의 권리를 보호하기 위한 시스템인가?
더욱 우려스러운 점은 이러한 시스템이 점차 보편화되고 있다는 사실이다. 기업들은 비용 절감과 효율성을 이유로 AI 면접을 도입하고 있으며, 구직자들은 선택의 여지 없이 그 시스템을 받아들여야 한다. 하지만 이 과정에서 잃어버리는 것은 단순한 ‘인간적인 면접’이 아니다. 그것은 인간으로서의 존엄성, 그리고 공정한 기회를 박탈당했다는 느낌이다. 기술이 인간의 삶을 편리하게 만들 것이라는 기대는 이제 환상이 되어가고 있다. 그 기술이 인간의 삶을 평가하는 기준이 될 때, 우리는 과연 무엇을 잃게 되는가?
AI 면접 시스템의 문제는 결국 기술이 인간을 어떻게 대하느냐에 대한 질문으로 귀결된다. 기술은 인간의 삶을 더 낫게 만들기 위해 존재해야지, 인간을 평가하고 분류하는 도구가 되어서는 안 된다. 구직자들의 좌절은 단순히 시스템의 불완전함에서 오는 것이 아니다. 그것은 기술이 인간을 바라보는 방식에 대한 근본적인 불만이다. 우리는 이제 기술이 인간을 섬기게 할 것인지, 아니면 인간이 기술을 섬기게 될 것인지 선택해야 한다.
이 기사는 The Guardian에서 확인할 수 있다.
이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.