실리콘밸리가 AI 데이터센터를 위한 독자적인 전력망을 구축하고 있다는 기사를 읽었다. 워싱턴 포스트의 이 기사는 우리가 평소 생각하지 않는 AI의 이면을 보여준다.
개발자로서 클라우드 서비스를 당연하게 사용하지만, 그 뒤에 있는 물리적 인프라에 대해서는 별로 생각하지 않았다. 하지만 AI 시대가 되면서 전력 문제가 심각해지고 있다.
LLM의 진짜 비용
ChatGPT 한 번 질문하는 데 얼마나 전력이 드는지 생각해본 적 있는가? GPU 클러스터가 쉴 새 없이 돌아가고, 냉각 시스템이 열기를 식힌다. 우리가 편리하게 AI를 쓸 때마다 어딘가에서는 엄청난 에너지가 소비된다.
기사에 따르면 빅테크 기업들이 기존 전력망으로는 감당이 안 되어 자체 발전 시설까지 구축하고 있다고 한다. 마치 산업혁명 시대의 공장들이 자체 동력원을 갖추었던 것처럼.
지속 가능성에 대한 질문
환경에 관심이 많은 편은 아니지만, 이 정도 규모가 되면 걱정이 되기도 한다. AI의 발전 속도와 에너지 효율 개선 속도 중 어느 쪽이 더 빠를까? 핵융합이 실현되면 해결될까?
40대 개발자로서 20년 넘게 이 업계에 있었지만, 소프트웨어가 이렇게 물리적 자원을 많이 필요로 하는 시대가 올 줄은 몰랐다. 예전에는 코드 최적화가 메모리 몇 바이트를 아끼는 것이었는데, 이제는 메가와트 단위의 전력을 다루게 되었다.
개발자가 할 수 있는 것
직접적으로 데이터센터 전력망을 건설할 수는 없지만, 효율적인 코드를 작성하고, 불필요한 컴퓨팅을 줄이는 것은 할 수 있다. 작은 노력이지만 모이면 의미가 있지 않을까.
AI 시대의 인프라 전쟁은 이제 시작이다. 앞으로 어떤 모습이 될지 지켜보는 것도 흥미롭다.
이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.