생성형 인공지능, 친환경적인 설계와 운용 필요해

2023-06-02     이재영 editor

생성형 인공지능(AI)에는 엄청난 에너지가 소모된다. 화제가 된 GPT3는 훈련 과정에서만 552톤의 탄소를 배출했다. 탄소발자국을 고려한 모델 설계, 고효율의 데이터센터 활용, 재생에너지 사용 등의 대책이 필요하다는 지적이 글로벌 연구소를 중심으로 나오고 있다. 

GPT3는 훈련과정에서만 552톤의 탄소를 배출했다/픽사베이

 

GPT3, 훈련과정에서만 탄소배출량 552톤…

대화 한 번에 물 500ml 소비, 업데이트도 필요해    

생성형 인공지능이란 이용자의 특정한 요구에 따라 데이터를 만들어내는 인공지능을 의미한다. 최근 인기를 끌고 있는 챗(Chat)GPT가 대표적이다. 생성형 인공지능을 훈련시키기 위해서는 대규모의 언어모델(LLM)이 필요한데, 일반적으로 인공지능의 성능은 언어모델의 크기와 비례한다. 

2020년 6월 포브스 기사에 의하면, GPT2에서의 매개변수는 15억 개에 불과했다. 그러나 GPT3에서는 1750억 개로 대폭 늘어났다. GPT3가 훈련과정에서 사용한 전력은 1287MWh, 이산화탄소 배출량은 552톤에 이른다. 이는 가솔린 자동차 123대가 1년 주행할 때의 탄소배출량과 맞먹는다.  

인공지능 사용에는 물도 소비된다. 컴퓨터를 가동하면 열이 발생하는데, 이를 식히기 위한 냉각수가 필요하기 때문이다. 미국 리버사이드 콜로라도대와 앨링턴택사스대 연구진이 발표한 논문에 의하면, 챗(Chat)GPT를 한 번 사용하기 위해서는 물 500ml가 소비된다. 한 번 사용하는데 25~50개의 문답이 오간다고 가정했을 때의 계산이다. 연구진은 GPT3 훈련을 위해서만 미국 데이터센터 기준으로 물 70만L가 소비되었을 것이라며, 에너지 효율이 낮은 아시아 데이터 센터에서 GPT3를 훈련시켰다면 3배 더 많은 물이 필요했을 것이라고 주장했다. 

생성형 인공지능은 지속적인 업데이트도 필요하다. 현재 챗(Chat)GPT의 경우, 2021년까지 정보만 제공되고 있다. 업데이트를 위해 정기적으로 새로운 데이터를 학습해야 한다면, 이 또한 에너지 소비로 이어진다. 

 

재생에너지 사용 등 다양한 탄소 감축 노력 필요 

MIT테크놀로지뷰의 보도에 따르면, 챗(Chat)GPT와 비슷한 언어모델인 블룸(BLOOM)은 훈련과정에서 25톤의 탄소를 배출했다. 슈퍼컴퓨터 제조과정 등을 고려하면 실제 배출량은 50톤에 달할 것으로 추정된다. 이는 오픈AI의 GPT3와 메타의 옵트가 훈련과정에서 각각 500톤과 75톤의 탄소를 배출한 것에 비해 적은 수치다. 원자력 에너지로 가동되는 슈퍼컴퓨터를 이용한 것이 비결이다. 

재생에너지 활용도 탄소배출량 저감에 효과적이다. 태양광, 풍력, 원자력 등 재생에너지 비중이 높은 지역에 데이터센터가 있다면 같은 작업을 해도 온실가스 배출량이 적다. 수력 등 재생 에너지가 더 많이 발생하는 시간대에 작업하는 방법도 있다. 이렇게 재생에너지를 활용한다면 화석연료를 사용할 때 비해 탄소배출량을 30~40배 낮출 수 있다.

경제협력개발기구(OECD)도 2022년 AI 소식지에서 “기계학습(ML)의 모델, 하드웨어, 데이터센터 등의 최적화, 데이터센터의 적절한 입지 선정으로 탄소발자국을 낮추고 에너지 사용을 줄일 수 있다”고 전한 바 있다.

기업들의 노력도 이어지고 있다. 마이크로소프트는 2050년까지 탄소를 배출하는 기업이 아니라 흡수하는 탄소 네거티브 기업을 선언했다. 구글은 2030년까지 탄소 없이 재생에너지로 운영되는 데이터센터를 연중 운영하겠다는 목표를 발표했으며, 국내에서는 지난해 카카오가 ‘액티브 그린 이니셔티브’를 발표하며 2040년까지 넷제로를 달성하겠다고 선언했다.   

보스턴대학 컴퓨터학부 부교수인 케이트 사엔코는 "사회적인 움직임도 필요하다"고 주문했다. 이용자들이 ‘더 환경 친화적인’ 생성형 인공지능을 선택한다면, 기업과 연구소도 탄소배출을 저감하는 인공지능을 개발하는데 노력할 것이라고 전했다.