기술이 사회를 바꾸는 방식은 종종 예상치 못한 곳에서 드러난다. 이번에 미국 농무부가 여성 농부들을 배제하고 남성으로 대표단을 교체한 사건은, 소프트웨어 개발자로서 오랫동안 목격해온 시스템의 부조리함과 묘하게 닮아 있다. 코드 한 줄이 수백만 줄의 데이터를 좌우하듯, 정책 한 줄이 사람들의 삶을 결정짓는 순간이다. 문제는 그 결정이 얼마나 투명하고 공정한 과정을 거쳤느냐에 있다.
소프트웨어 시스템에서 ‘블랙박스’는 위험하다. 입력과 출력이 분명해도 그 중간 과정은 아무도 알 수 없기 때문이다. 농무부의 이번 결정도 마찬가지다. 농부들이 직접 선출한 대표들을 거부하고, 이유 없이 다른 인물을 임명한 과정은 마치 버그로 가득한 레거시 코드처럼 불투명하다. 시스템의 신뢰성은 그 과정의 공정성에 달려 있는데, 이 사건은 그 신뢰성을 스스로 깎아내리고 있다. 기술 분야에서도 비슷한 사례가 적지 않다. 알고리즘이 특정 집단을 배제하거나, 의사결정 과정이 불명확한 AI 시스템이 편향된 결과를 낳는 경우를 우리는 숱하게 목격해왔다.
더욱 흥미로운 점은, 이 사건이 단순히 ‘남성 대 여성’의 문제가 아니라는 것이다. 시스템이 인간의 판단을 대체할 때 발생하는 근본적인 문제—즉, 기계적 결정이 인간의 다양성을 얼마나 무시할 수 있는가—를 보여준다. 소프트웨어 개발에서 ‘다양성’은 종종 ‘버그 없는 코드’만큼이나 중요한 가치로 여겨진다. 다양한 배경의 개발자가 참여할 때 더 견고하고 포용적인 시스템이 탄생하기 때문이다. 농무부의 결정은 이런 다양성을 의도적으로 배제한 사례다. 마치 팀에 여성 개발자가 없으면 특정 사용자층의 요구를 놓치기 쉬운 것처럼, 여성 농부의 목소리가 배제된 대표단은 콩 산업의 진짜 문제를 놓칠 가능성이 크다.
시스템은 설계자의 편향을 그대로 반영한다. 그 설계자가 인간일 때나 코드일 때나.
이 사건은 또한 ‘자동화의 함정’을 떠올리게 한다. 기술이 인간의 판단을 대체할수록, 그 결정의 책임 소재는 모호해진다. 농무부가 내세운 공식적인 이유는 없지만, 만약 이 결정이 어떤 ‘기준’에 따라 이루어졌다면, 그 기준은 누가 정했을까? 소프트웨어 개발에서 자동화된 테스트가 버그를 잡아내듯, 정책 결정도 일정한 규칙에 따라 이루어져야 한다. 하지만 그 규칙이 공정하지 않다면, 시스템은 그저 불공정을 재생산할 뿐이다.
여기서 주목해야 할 것은 시스템의 ‘회복탄력성’이다. 소프트웨어가 장애를 겪어도 빠르게 복구될 수 있는 것처럼, 사회적 시스템도 잘못된 결정을 되돌릴 수 있는 메커니즘이 필요하다. 농부들이 직접 선출한 대표를 거부한 결정은, 시스템이 스스로의 오류를 인정하고 수정할 수 있는 유연성이 부족하다는 증거다. 기술 분야에서도 마찬가지다. 한 번 배포된 코드가 문제를 일으키면, 롤백이나 패치가 필요하다. 하지만 정책은 한 번 시행되면 되돌리기 훨씬 어렵다.
이 사건은 결국 ‘누가 시스템을 통제하는가’라는 질문을 던진다. 소프트웨어 개발에서 오픈소스의 힘은 많은 개발자가 시스템을 검토하고 개선할 수 있다는 점에 있다. 반면, 폐쇄적인 시스템은 소수의 손에 의해 좌우되며, 그 결과는 예측할 수 없다. 농무부의 결정은 폐쇄적인 시스템이 어떻게 편향을 재생산하는지를 보여주는 사례다. 시스템이 투명하지 않으면, 그 안에 숨겨진 편향은 결코 드러나지 않는다.
기술과 사회는 서로 닮아 있다. 코드가 인간의 삶을 지배하듯, 정책도 인간의 삶을 결정짓는다. 중요한 것은 그 결정이 얼마나 공정하고 투명한 과정을 거쳤느냐이다. 이번 사건은 시스템이 인간을 배제할 때 어떤 결과가 초래되는지를 여실히 보여준다. 소프트웨어 개발자로서, 그리고 사회의 일원으로서, 우리는 시스템의 설계자가 되어야 한다. 그 시스템이 인간을 섬기도록, 그리고 다양성을 존중하도록.
이 사건에 대한 자세한 내용은 여기에서 확인할 수 있다.
이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.