[ 트렌드] AI 에너지 논쟁: 샘 알트만의 '인간 비유'가 역풍을 맞은 이유
샘 알트만이 이번엔 제대로 밟았다.
뉴델리 인터뷰에서 AI의 급증하는 에너지 소비에 대한 질문을 받았다. 데이터센터가 2030년까지 미국 전력의 8%를 소비할 전망이라고. ChatGPT 쿼리 하나가 아이폰 배터리 1.5개 분량의 에너지를 쓴다고.
그의 대답? "사람 한 명 키우는 데도 에너지가 많이 든다."
인터넷이 폭발했다.
몇 시간 만에 기후과학자, 기술 전문가, 심지어 AI 연구자들까지 이 비유를 갈기갈기 찢어놨다. 사실 관계가 틀려서가 아니다—인간도 자원을 소비하긴 한다—AI 리더들이 자기 산업의 환경 영향에 얼마나 둔감해졌는지 드러내기 때문이다.
이건 단순한 실언이 아니다. AI의 가장 큰 미해결 문제의 증상이다. 에너지 위기는 둔화되지 않고, 누구도 현실적 해법이 없으며, 이 시스템을 만드는 당사자들은 점점 더 방어적으로 변하고 있다.
거짓 등가
알트만의 비유가 왜 말이 안 되는지부터 보자.
인간은 자급자족하는 생물학적 시스템이다. 음식을 먹고, 에너지로 변환하고, 몸과 뇌를 가동한다. 그 에너지는 농업에서 오는데, 농업은 태양 에너지(광합성)와 토양 영양소, 물로 돌아간다.
맞다, 사람 한 명 키우는 데 자원이 든다. 20년치 음식, 주거, 교육, 의료. 상당하다.
하지만 차이가 있다. 인간에게는 고유한 가치가 있다. 특정 기능을 수행하려고 존재하는 게 아니다. 생산성에 최적화되어 있지 않다. 먹고, 자고, 꿈꾸고, 창조하고, 사랑하고, 실수하고, 죽는다. 에너지 소비가 존재의 일부이지, 비즈니스 모델의 일부가 아니다.
AI 모델은? 순수한 에너지 소비자이며 고유한 목적이 없다. 기술 기업의 수익 창출을 위해 존재한다. 데이터센터로 흐르는 모든 와트는 주주를 살찌우는 제품을 돌리기 위한 것이다.
이 둘을 비교하는 건 누가 자가용 전용기 연비를 비판하는데 "당신 개도 밥 먹잖아"라고 대꾸하는 것과 같다. 기술적으로는 맞다. 완전히 핵심을 빗나간다.
실제 수치
AI가 실제로 얼마나 소비하는지 이야기하자.
국제에너지기구(IEA) 추정에 따르면 데이터센터는 2022년에 460TWh(테라와트시)의 전력을 소비했다. 2026년에는 620~1,050TWh에 달할 수 있다—4년 만에 두 배 이상.
주범은 AI다. 대규모 언어 모델 훈련에는 수주에서 수개월간 대형 컴퓨팅 클러스터를 돌려야 한다. GPT-4급 모델의 훈련 한 번에 50기가와트시 이상이 소비됐다고 보고된다. 미국 가정 4,600가구를 1년간 돌릴 수 있는 양이다.
추론—실제로 모델을 돌려 쿼리에 응답하는 것—은 건당 에너지가 적지만, 규모가 어마어마하다. ChatGPT만 해도 하루에 수억 건의 쿼리를 처리한다. 모든 AI 서비스를 합치면 기하급수적으로 증가하는 에너지 수요가 나온다.
빌 게이츠는 ChatGPT 쿼리 하나에 아이폰 배터리 1.5개 분량의 에너지가 든다고 주장했다. 알트만은 "절대 그 정도일 리 없다"며 반박했다.
둘 다 실제 수치는 내놓지 않았다. 이게 문제의 일부다. 기술 기업은 에너지 소비 데이터를 공개하지 않는다. 법적 의무가 없으니 독립 연구자들은 추정할 수밖에 없다.
확실한 건 이거다. AI의 에너지 발자국은 거대하고, 빠르게 커지고 있으며, 텍스트 박스에 질문만 치면 된다고 생각하는 사용자에게는 대체로 보이지 않는다.
인프라 위기
알트만이 인간 비유에서 언급하지 않은 것이 있다. AI의 에너지 소비가 전력망에 부담을 주고 있다는 사실이다.
데이터센터가 밀집한 버지니아 북부에서는 전력회사가 수요를 감당하느라 허덕인다. 전력망 용량이 부족해 신규 데이터센터 프로젝트가 지연되고 있다. 일부 시설은 자체 발전 설비 설치를 요청받는다.
아일랜드에서는 데이터센터가 전체 전력 소비의 18%를 차지한다. 전력망 운영자가 신규 시설 연결을 제한해야 했다.
텍사스에서는 AI 데이터센터가 폭염 때 가정용 수요와 경쟁한다. 기온이 치솟아 모두가 에어컨을 켜면, 데이터센터는 전력망이 감당하도록 설계되지 않은 추가 부하가 된다.
인간과 달리—아침, 점심, 저녁을 먹는—데이터센터는 24시간 365일 고가동률로 돌아간다. 잠을 자지 않는다. 주말도 없다. 끊임없는, 가차 없는 수요.
차세대 AI 모델은 더 배가 고플 것이다. GPT-5, Gemini 3, Claude Opus 5—전부 더 많은 연산, 메모리, 전력이 필요하다. 추세는 정체가 아니라 가속이다.
원자력 베팅
그래서 AI 기업들이 갑자기 원자력의 최대 옹호자가 된 것이다.
환경을 생각해서가 아니다. 원자력만이 AI의 야심에 맞춰 현실적으로 확장 가능한 유일한 에너지원이기 때문이다.
태양광과 풍력은 좋지만 간헐적이다. 대규모 배터리 저장 없이 태양광으로 데이터센터를 돌릴 수 없는데, 배터리도 비싸고 자체적 환경 비용이 있다.
수력은 지리적 제약이 크다. 천연가스는 싸지만 탈탄소를 하겠다면 의미가 없다.
원자력은 기저부하 전력이다—안정적이고, 신뢰할 수 있고, 고밀도. 데이터센터 옆에 원자로를 짓는다면 에너지 문제는 해결된다. 이론상으론.
현실은 복잡하다.
새 원자로 건설에 10~15년 걸린다. 비용은 예상을 늘 초과한다. 많은 지역에서 주민 반대가 거세다. 규제 승인 절차는 미로 수준이다.
소형 모듈형 원자로(SMR)가 대안으로 거론된다—건설이 빠르고, 입지 선정이 쉽고, 비용이 낮다. 하지만 SMR은 상용 규모에서 대부분 검증되지 않았다. 첫 배치까지 수년이 남았다.
한편 AI 기업은 전력이 지금 필요하다. 10년 후 SMR이 나올 때가 아니라 지금 당장.
그래서 뭘 하고 있나? 대부분 천연가스에 의존하면서 재생에너지 크레딧으로 서류상 배출을 상쇄한다. 기후 행동으로 포장한 그린워싱이다.
데이터센터 버블
아무도 공개적으로 말 안 하는 어두운 시나리오가 있다. AI 수요가 에너지 인프라가 완성되기 전에 꺼지면?
지금 기업들은 AI의 기하급수적 성장 전망에 기반해 데이터센터를 짓고 있다. 모든 대형 기술 기업이 용량을 확장 중이다. 수십억 달러가 신규 시설에 투자되고 있다.
하지만 AI 채택은 보장된 게 아니다. AI가 혁신적 가치를 제공하지 못하면—쿨한 장난감에 머물고 필수 인프라가 되지 못하면—수요는 정체될 수 있다.
그러면 실현되지 않은 워크로드를 위해 설계된 대규모 데이터센터가 남는다. 좌초자산. 낭비된 에너지 용량. 수십억 달러 손실.
에너지 산업에서 이미 본 패턴이다. 셰일 붐 때 기업들은 끝없는 성장을 기대하며 천연가스 용량을 과잉 건설했다. 수요가 따라오지 않자 가격이 폭락하고 기업이 도산했다.
AI도 비슷한 경로를 밟을 수 있다. 폭발적 과대광고, 인프라 과잉 건설, 현실 직면, 붕괴.
차이점은 AI의 에너지 소비가 기후 약속과 얽혀 있다는 것이다. AI가 신규 원자력이나 재생에너지 프로젝트의 사업성을 깎아먹으면, 전반적 탈탄소 노력이 후퇴한다.
비교의 황당함
알트만의 인간 비유로 돌아가서 좀 더 밀어붙여 보자.
2030년까지 미국 데이터센터가 전체 전력의 8%를 소비할 수 있다. 여러 주의 전체 가정용 전력과 맞먹는 양이다.
인간과 비교한다면, AI 데이터센터가 수백만 가구만큼의 전력을 쓰게 된다는 뜻이다—챗봇, 이미지 생성기, 코드 어시스턴트를 돌리려고.
그만한 가치가 있을까?
일부 용도에서는 그렇다. 의료 분야 AI 진단은 생명을 구할 수 있다. AI 기후 모델링은 해법을 앞당길 수 있다. AI 소재 발견은 더 깨끗한 기술의 문을 열 수 있다.
하지만 대부분의 AI 사용은 평범하다. 마케팅 카피 작성. 스톡 이미지 생성. 이메일 요약. 코드 디버깅.
이런 서비스가 미국 전력망의 8%만큼 가치가 있을까? 그렇다고 주장할 수는 있다. 하지만 "인간도 에너지 쓰잖아"라면서 에너지 비용이 중요하지 않은 척할 순 없다.
책임의 공백
핵심 문제가 여기 있다. AI 기업들이 환경 비용을 외부화하고 있다.
전기 요금은 낸다, 맞다. 하지만 전력망 인프라 업그레이드 비용은 내지 않는다. 한계 전력 생산(대개 천연가스)의 기후 영향 비용도 내지 않는다. 데이터센터가 지역 수요를 끌어올려 전기료가 오르는 지역 주민에게 보상하지도 않는다.
이 비용은 사회화된다. 높아진 전기료, 세금으로 충당되는 인프라 투자, 기후변화 영향—모두가 부담한다.
한편 AI 기업은 이익을 가져간다. 이익은 사유화, 손실은 사회화.
알트만의 인간 비유가 무의식적으로 이 사고방식을 드러낸다. AI 에너지 소비를 인간이 밥 먹는 것처럼 불가피한 것으로 취급하고 있다—다르게 결정할 수 있는 사업적 선택이 아니라.
하지만 불가피한 게 아니다. 기업들은 이런 걸 할 수 있다:
- 역량 대신 효율에 최적화한 모델 개발
- 프론티어 성능이 필요 없는 작업에는 작은 모델 사용
- 전력망 비수요 시간대에 배치 처리
- 크레딧 매입 대신 실제 재생에너지 발전에 투자
- 에너지 소비 공개로 사용자가 정보에 기반한 선택을 할 수 있게
대부분 안 하고 있다. 효율은 경쟁 우위를 줄이기 때문이다. 파라미터가 더 많은 더 큰 모델이 성능이 좋고, 성능이 시장 점유율의 열쇠니까.
그래서 에너지 비용은 계속 오른다.
실제로 필요한 것
첫째, 투명성. 기술 기업에 에너지 소비 데이터 공개를 의무화해야 한다. 모호한 지속가능성 보고서가 아니라—실제 수치. 쿼리당 킬로와트시. 연간 총 소비량. 전력원의 탄소 집약도.
투명성 없이 책임도 없다.
둘째, 외부효과 가격화. AI 기업이 전력망의 8%를 소비하겠다면, 전력망 업그레이드와 탄소 비용을 내야 한다. 탄소세든, 인프라 부담금이든, 크레딧을 넘어선 의무적 재생에너지 투자든.
AI의 전체 비용을 비즈니스 모델에 보이게 만들어야 한다.
셋째, 효율 기준. 업계가 작업당 에너지 소비 벤치마크를 수립해야 한다. 한 회사가 비슷한 모델을 절반의 에너지로 돌릴 수 있다면, 그게 모두가 충족해야 할 기준이 된다.
지금은 최적화할 인센티브가 없다. 효율 기준이 그 인센티브를 만든다.
넷째, 전력망 통합. 데이터센터에 수요 유연성 제공을 의무화해야 한다. 전력망에 부하가 걸리면 사용량을 줄이고, 재생에너지 발전이 많을 때 사용량을 늘리는 것. 이렇게 하면 데이터센터가 순수한 부담이 아니라 전력망 자산이 된다.
일부 시설은 이미 하고 있지만, 표준 관행이 되어야 한다.
마지막으로, 트레이드오프에 대한 솔직한 대화. 모든 AI 용도가 에너지 비용만큼의 가치가 있는 건 아니다. 어떤 용도가 자원 소비를 정당화하고 어떤 게 아닌지 사회가 결정해야 한다.
그건 기술적 대화가 아니라 정치적 대화다. 하지만 AI 에너지 수요가 통제 불능으로 치닫기 전에 이뤄져야 한다.
다가오는 청산
AI의 에너지 문제는 사라지지 않는다.
모델은 커지고 있다. 사용량은 증가 중이다. 이를 지탱할 인프라—원자력, 재생에너지, 전력망 업그레이드—는 건설에 수년이 걸린다.
뭔가 양보해야 한다. 가능한 시나리오:
- AI 성장이 가용 에너지에 맞춰 둔화
- 에너지 인프라가 예상보다 빠르게 확장
- 효율 개선으로 모델의 전력 소비 감소
- 사회가 AI의 에너지 비용을 감수할 가치로 수용
- 공공의 반발이 규제 제한을 이끌어냄
아마 다섯 가지의 조합이 될 것이다.
알트만의 인간 비유는 5번에 대한 부정을 시사한다. AI 에너지 사용을 자연스럽고 불가피한 것으로 프레이밍하면 반발이 사그라들 거라 생각하는 것이다.
사그라들지 않을 거다. 사람들은 생명을 유지하기 위한 에너지와 분기 실적을 만들기 위한 에너지의 차이를 본능적으로 안다.
데이터센터가 지역 전력망에 부담을 줘서 전기 요금이 오르면, "인간도 에너지를 쓴다"고 생각하지 않을 거다.
"왜 내 공과금이 남의 AI 수익을 보조하는 거지?"라고 물을 것이다.
아이러니
이 모든 것의 진짜 아이러니? AI가 기후변화를 해결하기로 되어 있다는 거다.
옹호론자들의 주장이다. AI가 에너지 시스템을 최적화하고, 더 나은 배터리를 설계하고, 소재 발견을 가속하고, 기후 개입을 모델링할 거라고!
어쩌면 그럴지도. 그런 연구 중 진짜 유망한 것도 있다.
하지만 AI의 자체 에너지 소비가 AI 응용의 완화 효과보다 빠르게 기후변화를 가속한다면, 병보다 나쁜 약을 만든 셈이다.
알트만의 비유가 우연히 이 점을 부각시킨다. 그래, 인간은 에너지를 쓴다. 우리는 또한 기후변화를 해결하려는 종이기도 하다. 우리의 해법이 우리만큼 에너지를 소비하면서 의식과 존재의 고유한 가치는 없는 기계를 만드는 거라면, 정말 뭘 해결한 걸까?
아니면 그냥 불가피하다고 자위하면서 새 문제를 만든 걸까?
당신이 할 수 있는 것
AI 도구를 쓰고 있다면, 그 비용을 이해하라. 돈뿐만 아니라 에너지까지.
모든 쿼리에는 환경 발자국이 있다. AI 사용을 멈추라는 게 아니다—다만 그 이메일을 쓰는 데 AI가 꼭 필요한지, 직접 쓰면 안 되는지 한 번쯤 생각해볼 일이다.
AI로 구축하고 있다면, 효율을 최적화하라. 해당 작업에 맞는 가장 작은 모델을 써라. 요청을 배치하라. 결과를 캐시하라. 모든 최적화가 에너지 소비를 줄인다.
AI에 투자하고 있다면, 에너지 비용을 물어라. 효율이 좋은 기업이 단위 경제성도 좋다. 지구에만 좋은 게 아니라—좋은 사업이다.
투표할 때는 AI의 에너지 영향을 진지하게 다루는 정치인을 지지하라. AI를 금지하자는 게 아니라, 투명성을 요구하고, 외부효과에 가격을 매기고, 인프라가 따라갈 수 있게 하자는 것이다.
최악의 결과는 아무도 불편한 대화를 하고 싶어하지 않아서 에너지 위기 속으로 몽유병처럼 걸어 들어가는 것이다.
알트만의 인간 비유가 불편했던 건 잘못된 이유에서다. AI 리더들이 이게 왜 중요한지 아직 모른다는 걸 보여줬으니까.
어쩌면 이번 반발이 그걸 바꿀지도 모른다.
아니면 더 큰 모델을 만들고, 더 많은 전력을 소비하면서, 전력망이 버티지 못할 때까지 "인간도 에너지 쓴다"고 합리화할지도 모른다.
AI 사용 시 에너지 소비를 고려하시나요? AI 기업에 환경 영향 공개를 의무화해야 할까요? 댓글로 의견을 남겨주세요.