구글의 경우 검색을 한 번 하는 데 0.0003 킬로와트시(㎾h)의 에너지가 들어간다. 이때 300㎎의 이산화탄소(CO2)가 배출된다고 보면 된다.
구글에서 전 세계적으로 초당 4만 회, 연간 1조 3000억 회의 검색이 발생한다고 보면 이 검색 엔진을 통해 연간 약 40만 톤의 CO2가 배출되는 셈이다.
단순 검색이 아니라 생성형 AI를 이용하려면, 매번 4~5배 이상 더 많은 작업이 필요한 것으로 알려졌다.
기존 검색보다 챗 GPT를 이용하면 에너지 소비도, 온실가스 배출도 훨씬 많다는 얘기다.
챗 GPT 개발을 위한 GPT-3 교육에서는 1287㎿h를 소비하고 550톤의 CO2를 배출했다.
2020년 6월 포브스(Forbes)지 보도에 따르면 옛 모델 GPT-2는 매개변수가 15억 개에 불과했지만, GPT-3는 1750억개로 늘었다. GPT-2는 400억 단어의 데이터 세트로 학습했는데, GPT-3는 약 5000억 단어의 가중 데이터 세트가 사용됐다.
또, GPT-2가 훈련하는 데는 수십 페타플롭(Petflop)-일(day)이 걸렸다. 즉, 초당 1000조 번 속도로 연산하는 작업을 수십 일 계속했다는 얘기다. 이 자체도 엄청난 작업량인데, GPT-3 훈련을 같은 속도로 했다면 수천 일이 걸렸을 거라는 것이다.
특히, GPT-3는 6개월 동안 4789개의 서로 다른 버전의 모델을 거쳐 최종 모델이 만들었는데, 이 모델을 구축하는 데 총 35톤이 넘는 CO2가 배출됐다.
이는 한국인 1인당 연간 CO2 배출량 13.65톤의 2배가 넘는 양이다.
요즘 스스로도 충분히 할수있는 잡다한거까지 AI로 하는 사람들이 많길래 가져와 봄.
학습부터 사용까지 잡아먹는 에너지도 크고 배출하는 온실가스도 많은데 너무 남용하는건 자제하는게 좋지 않을까