인공지능이 세상을 집어삼킬 거라는 두려움은 이제 신물이 날 지경이다. 매일같이 쏟아지는 경고와 예측은 마치 2000년대 초반의 닷컴 버블 붕괴 예언처럼 들린다. 그때도 세상은 끝날 것처럼 떠들썩했지만, 결국 우리는 더 나은 기술과 더 복잡한 문제를 안고 여기까지 왔다. 그런데 스튜어트 브랜드의 말을 들으니 문득 이런 생각이 든다. 어쩌면 우리가 두려워하는 것은 인공지능 자체가 아니라, 그 안에 들어 있는 인간의 무관심이 아닐까?
브랜드가 언급한 LSD와 인공지능의 블랙박스는 언뜻 보면 전혀 다른 주제처럼 보인다. 하나는 인간의 의식 확장을 위한 도구였고, 다른 하나는 인간의 지능을 모방하려는 시도다. 하지만 둘 사이에는 공통점이 있다. LSD가 인간의 뇌를 일시적으로 ‘블랙박스화’해 새로운 시각을 열어주듯, 인공지능도 우리가 이해할 수 없는 방식으로 문제를 해결한다. 차이점이 있다면, LSD는 사용자가 경험을 통해 의미를 찾아내지만, 인공지능은 그 과정을 설명하지 않는다는 점이다.
여기서 중요한 것은 ‘돌봄(care)’이라는 개념이다. 브랜드는 기술이 발전할수록 인간의 손길이 더 필요해진다고 말한다. 이는 역설적으로 들릴 수 있다. 더 똑똑한 기계가 등장하면 인간이 해야 할 일은 줄어들지 않겠는가? 하지만 현실은 그렇지 않다. 알고리즘이 더 정교해질수록 그 결과를 해석하고, 윤리적 판단을 내리고, 사회적 맥락에 맞게 조정하는 인간의 역할은 더 커진다. 인공지능이 의료 진단을 내릴 때, 누가 그 결과를 신뢰하고, 누가 책임을 질 것인가? 기계가 법적 판단을 내릴 때, 누가 그 공정성을 보장할 것인가?
기술은 도구일 뿐이지만, 그 도구를 어떻게 사용할지는 여전히 인간의 몫이다. 그리고 그 사용에는 반드시 돌봄이 필요하다.
블랙박스 문제는 단순히 기술적 한계를 넘어 사회적 신뢰의 문제다. 우리는 이미 수많은 블랙박스에 둘러싸여 살고 있다. 구글의 검색 알고리즘, 페이스북의 피드 정렬, 넷플릭스의 추천 시스템—이 모든 것들이 어떻게 작동하는지 정확히 아는 사람은 없다. 하지만 우리는 그것들을 신뢰하고 사용한다. 왜 인공지능은 다를까? 아마도 그 차이는 ‘자율성’에 있다. 이전의 기술들은 인간의 결정을 보조하는 역할에 그쳤지만, 인공지능은 점점 더 인간의 결정을 대체하려 한다. 그것이 두려움을 불러일으키는 것이다.
하지만 브랜드의 지적처럼, 기술의 발전은 언제나 인간의 개입을 요구해왔다. 인터넷이 세상을 연결했지만, 그 연결을 의미 있게 만드는 것은 여전히 사람이다. 인공지능이 세상을 바꿀 수는 있지만, 그 변화의 방향을 결정하는 것은 인간의 가치관이다. 문제는 우리가 그 가치관을 얼마나 진지하게 고민하고 있느냐는 것이다. 기술이 발전하는 속도에 비해 인간의 윤리적, 철학적 성찰은 턱없이 느리다. 인공지능이 인간의 일자리를 대체할 것이라는 예측이 난무하지만, 정작 우리는 그 대체된 일자리가 어떤 의미를 가질지, 어떻게 새로운 일자리를 창출할지에 대해서는 깊이 생각하지 않는다.
여기서 우리가 놓치고 있는 것은 기술에 대한 ‘책임감’이다. 인공지능이 블랙박스라는 사실은 그 자체로 문제가 아니다. 문제가 되는 것은 우리가 그 블랙박스를 들여다보려는 노력을 포기하는 순간이다. 기술은 언제나 불완전하다. 중요한 것은 그 불완전함을 인정하고, 끊임없이 질문하고, 수정해나가는 과정이다. LSD가 인간의 의식에 새로운 가능성을 열어주었듯이, 인공지능도 우리에게 새로운 질문을 던지고 있다. 그 질문에 답하는 것은 기술이 아니라 우리 자신이다.
결국, 기술의 미래는 기술 자체에 달려 있는 것이 아니다. 그것은 우리가 기술을 어떻게 대하고, 어떤 가치를 부여하며, 어떤 책임을 질 것인지를 결정하는 우리의 태도에 달려 있다. 인공지능이 세상을 구원할 수도, 파괴할 수도 있지만, 그 결정권은 여전히 우리에게 있다. 그리고 그 결정에는 반드시 돌봄이 필요하다. 기계가 아무리 똑똑해져도, 인간의 손길이 닿지 않는 곳에서는 진정한 발전이 이루어질 수 없기 때문이다.
더 자세한 내용은 스튜어트 브랜드의 인터뷰 영상에서 확인할 수 있다.
이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.