인공지능이 기후 리스크로 떠오르고 있다. 빅테크 기업과 각국 정부는 데이터센터에 들어갈 전력 수요를 감당하면서도 탄소중립을 달성하기 위한 대책을 마련해야 하는 상황에 처했다.
https://www.sisain.co.kr/news/articleView.html?idxno=53307
인공지능(AI)이 기후 리스크로 떠오르고 있다. 인간처럼 말하고 반응하는 생성형 AI의 등장은 ‘탄소중립’을 위협하는 새로운 변수가 됐다. 생성형 AI에 대해 말할 때 자주 쓰는 표현이 있다. “쓰레기가 들어가면 쓰레기가 나온다(Garbage in, Garbage out).” 정확한 최신 정보를 계속해서 학습한 AI만이 가치가 있다는 뜻이다. 문제는 거대언어모델(LLM)을 ‘공부’시키고, 데이터를 저장하고, 복잡한 알고리즘을 연산해 실행하기 위한 모든 과정에는 단순 검색을 통해 답변을 얻는 것보다 수십 배 많은 전기가 필요하다는 점이다.
구글에서 일반 검색을 할 때 사용되는 전력은 0.3Wh(와트시)이지만 같은 내용을 챗GPT로 검색할 경우엔 10배인 2.9Wh가 사용된다. 만약 구글 검색엔진에 AI 기능이 통합될 경우, 최대 30배까지 더 많은 전력이 필요할 것으로 예상된다(개별 검색당 6.9~8.9Wh).
AI가 구동되는 모든 과정은 ‘데이터센터’에서 이루어진다. 데이터센터는 서버 컴퓨터, 네트워크 회선, 데이터 스토리지(저장장치) 등 IT 서비스 제공에 필요한 모든 장비를 한 건물에 모아둔, 연중 24시간 전력을 써야 하는 ‘전력 다소비 시설’이다. 과거 데이터센터는 서버 수천 대를 돌리는 수준이었다. 그러나 지금은 서버 수십만 대를 운영하며 대량의 데이터를 집적하고 연산하는 AI 전용 ‘하이퍼스케일(Hyperscale)’ 데이터센터가 만들어지고 있다.
AI 기술 선점 경쟁이 치열한 빅테크 기업들은 데이터센터 구축에 지갑을 열고 있다. 최근 마이크로소프트(MS)는 오픈AI와 2028년까지 1000억 달러(약 135조원)를 투입해 초대형 데이터센터를 구축하는 ‘스타게이트’ 프로젝트를 추진하겠다고 발표했다. 현재의 가장 큰 데이터센터에 투입된 금액보다 100배 많은 규모다. 이런 막대한 투자 추세는 당분간 계속 이어지리라 보인다.
당연히 이런 거대한 데이터센터에서 사용하는 전력량은 탄소 배출량과도 연결된다. 서버 수십만 대가 가동되는 대규모 데이터센터는 ‘탐욕적일 만큼’ 많은 전력을 필요로 한다. 서버를 구동하는 데 필요한 전력뿐만 아니라, 서버의 열을 식히기 위해서도 엄청난 양의 전기를 써야 한다. 국제에너지기구(IEA)에 따르면 2022년 기준 전 세계 데이터센터의 연간 전력 소모량은 460TWh(테라와트시)로, 프랑스(425TWh), 독일(490TWh)의 국가 연간 전력 소모량에 버금가는 수준이었다. 2026년에 데이터센터가 필요로 하는 전력량은 그 두 배가 될 것으로 예상된다.
기업들의 탄소중립 계획에도 영향을 주고 있다. MS는 2022년 일명 ‘탄소 문샷(Moonshot)’ 계획을 선언했다. 2030년까지 ‘탄소 네거티브(순탄소 배출량을 마이너스로 만드는 것)’를 달성하겠다는 목표다. 하지만 AI 기술 개발 등으로 지난해 MS의 탄소 배출은 오히려 30% 늘었다. 지난 5월, 〈블룸버그〉와의 인터뷰에서 브래드 스미스 MS 부회장은 “AI 열풍과 전력 수요 때문에 2020년에 비해 탄소 네거티브라는 달(목표)이 5배 더 멀리 떨어지게 됐다”라고 말했다.
(후략)