설명: 생성 AI의 환경 영향
MIT 뉴스는 두 편으로 구성된 시리즈를 통해 생성 AI가 환경에 미치는 영향을 살펴봅니다. 이 기사에서는 이 기술이 왜 그토록 자원 집약적인지 살펴봅니다. 두 번째 기사에서는 생성 AI의 탄소 발자국과 기타 영향을 줄이기 위해 전문가들이 어떤 노력을 하고 있는지 살펴봅니다.
근로자 생산성 향상부터 과학 연구 발전까지, 생성적 AI 의 잠재적 이점을 둘러싼 기대감은 결코 무시할 수 없습니다. 이 새로운 기술의 폭발적인 성장으로 여러 산업에서 강력한 모델이 빠르게 구축될 수 있었지만, 이 생성적 AI "골드러시"가 환경에 미치는 영향은 여전히 파악하기 어렵고, 완화는 더더욱 어렵습니다.
OpenAI의 GPT-4와 같이 수십억 개의 매개변수를 갖는 생성 AI 모델을 훈련하는 데 필요한 연산 능력은 엄청난 양의 전기를 요구할 수 있으며, 이는 이산화탄소 배출량 증가와 전력망에 대한 압력으로 이어질 수 있습니다.
게다가 이러한 모델을 실제 응용 프로그램에 배포하여 수백만 명의 사람들이 일상생활에서 생성적 AI를 사용할 수 있게 한 다음, 모델을 미세 조정하여 성능을 개선하려면 모델이 개발된 후에도 오랜 시간이 지나서야 많은 에너지가 소모됩니다.
전력 수요 외에도, 생성 AI 모델의 훈련, 배포 및 미세 조정에 사용되는 하드웨어를 냉각하는 데 막대한 양의 물이 필요하며, 이는 도시의 용수 공급에 부담을 주고 지역 생태계를 교란시킬 수 있습니다. 생성 AI 애플리케이션의 증가는 고성능 컴퓨팅 하드웨어에 대한 수요를 촉진했으며, 이로 인해 하드웨어의 제조 및 운송으로 인한 간접적인 환경 영향이 가중되었습니다.
MIT의 새로운 기후 프로젝트의 탈탄소화 미션 책임자이자 재료 과학 및 공학과 교수인 엘사 A. 올리베티는 "생성적 AI의 환경적 영향에 대해 생각해 보면, 그것은 단지 컴퓨터를 연결할 때 소비하는 전기에만 국한되지 않습니다. 우리가 취하는 조치에 따라 시스템 수준으로 이어지고 지속되는 훨씬 더 광범위한 결과가 있습니다."라고 말합니다 .
올리베티는 MIT 동료들과 공동으로 집필한 2024년 논문 " 생성적 AI의 기후 및 지속 가능성에 미치는 영향 "의 수석 저자입니다. 이 논문은 사회에 긍정적, 부정적 방향으로 생성적 AI의 변혁적 잠재력을 탐구하는 논문에 대한 연구소 전체의 요청에 대한 응답으로 작성되었습니다.
까다로운 데이터 센터
데이터 센터의 전력 수요는 생성적 AI의 환경적 영향에 기여하는 주요 요인 중 하나입니다. 데이터 센터는 ChatGPT 및 DALL-E와 같은 인기 있는 도구의 기반이 되는 딥 러닝 모델을 훈련하고 실행하는 데 사용되기 때문입니다.
데이터 센터는 서버, 데이터 저장 드라이브, 네트워크 장비와 같은 컴퓨팅 인프라를 수용하는 온도 조절이 가능한 건물입니다. 예를 들어, 아마존은 전 세계적으로 100개가 넘는 데이터 센터를 운영하고 있으며 , 각 데이터 센터에는 약 5만 대의 서버가 설치되어 클라우드 컴퓨팅 서비스를 지원합니다.
데이터 센터는 1940년대부터 존재해 왔습니다(최초의 데이터 센터는 1945년 펜실베이니아 대학교에 건설되어 최초 의 범용 디지털 컴퓨터인 ENIAC을 지원했습니다). 그러나 생성적 AI의 등장으로 데이터 센터 건설 속도가 극적으로 빨라졌습니다.
"생성 AI의 차이점은 필요한 전력 밀도입니다. 기본적으로는 컴퓨팅만 수행하지만, 생성 AI 학습 클러스터는 일반적인 컴퓨팅 작업 부하보다 7~8배 더 많은 에너지를 소비할 수 있습니다."라고 MIT 기후 및 지속가능성 컨소시엄(MCSC)의 컴퓨팅 및 기후 영향 펠로우이자 컴퓨터 과학 및 인공지능 연구실(CSAIL)의 박사후 연구원인 본 영향 논문의 주저자 노만 바시르는 말합니다.
과학자들은 북미 지역 데이터센터의 전력 소비량이 2022년 말 2,688메가와트에서 2023년 말 5,341메가와트로 증가했다고 추정했는데, 이는 부분적으로 생성적 AI 수요 증가에 따른 것입니다. 전 세계적으로 데이터센터의 전력 소비량은 2022년에 460테라와트시로 증가했습니다. 경제협력개발기구(OECD)에 따르면, 이러한 증가 추세가 지속된다면 데이터센터는 사우디아라비아(371테라와트시)와 프랑스(463테라와트시) 다음으로 세계에서 11번째로 많은 전력을 소비하는 국가가 될 것입니다.
2026년까지 데이터 센터의 전력 소비량은 1,050테라와트시에 달할 것으로 예상됩니다(이로 인해 데이터 센터는 일본과 러시아 사이 세계 5위로 올라섭니다).
모든 데이터 센터 컴퓨팅에 생성적 AI가 사용되는 것은 아니지만, 이 기술은 에너지 수요 증가의 주요 원인이었습니다.
"신규 데이터 센터에 대한 수요는 지속 가능한 방식으로 충족될 수 없습니다. 기업들이 신규 데이터 센터를 짓는 속도가 너무 빠르기 때문에 전력의 상당 부분을 화석 연료 기반 발전소에서 공급받아야 합니다."라고 바시르는 말합니다.
OpenAI의 GPT-3와 같은 모델을 학습하고 배포하는 데 필요한 전력은 정확히 파악하기 어렵습니다. 2021년 연구 논문에서 구글과 캘리포니아 대학교 버클리 캠퍼스의 과학자들은 학습 과정 자체만으로도 1,287메가와트시의 전력(미국 평균 가구 약 120가구에 1년간 전력을 공급할 수 있는 양)을 소비하고, 약 552톤의 이산화탄소를 발생시킨다고 추정했습니다.
모든 머신 러닝 모델은 훈련을 받아야 하지만, 생성 AI에만 고유한 문제 중 하나는 훈련 과정의 여러 단계에서 에너지 사용량이 빠르게 변동한다는 점이라고 바시르는 설명합니다.
전력망 운영자는 전력망을 보호하기 위해 이러한 변동을 흡수할 방법이 있어야 하며, 일반적으로 이 작업을 위해 디젤 기반 발전기를 사용합니다 .
추론으로 인한 영향 증가
생성 AI 모델이 훈련되면 에너지 수요는 사라지지 않습니다.
개인이 ChatGPT에 이메일 요약을 요청하는 등 모델을 사용할 때마다 해당 작업을 수행하는 컴퓨팅 하드웨어가 에너지를 소비합니다. 연구원들은 ChatGPT 쿼리가 간단한 웹 검색보다 약 5배 더 많은 전력을 소비한다고 추정했습니다.
"하지만 일반 사용자는 그 점에 대해 크게 신경 쓰지 않습니다."라고 바시르는 말합니다. "생성 AI 인터페이스의 사용 편의성과 제 행동이 환경에 미치는 영향에 대한 정보가 부족하기 때문에 사용자 입장에서는 생성 AI 사용을 줄일 유인이 크지 않습니다."
기존 AI에서는 에너지 사용량이 데이터 처리, 모델 학습, 그리고 추론(학습된 모델을 사용하여 새로운 데이터에 대한 예측을 수행하는 과정)에 상당히 균등하게 분배됩니다. 그러나 바시르는 생성적 AI 추론 모델이 수많은 애플리케이션에서 널리 사용되고 있으며, 향후 모델이 더 크고 복잡해짐에 따라 추론에 필요한 전력도 증가할 것이기 때문에, 결국에는 생성적 AI 추론에 필요한 전력이 주요 전력원이 될 것으로 예상합니다.
게다가 생성 AI 모델은 새로운 AI 애플리케이션에 대한 수요 증가로 인해 특히 수명이 짧습니다. 기업들은 몇 주마다 새로운 모델을 출시하기 때문에 이전 버전을 학습하는 데 사용된 에너지가 낭비된다고 바시르는 덧붙입니다. 새로운 모델은 일반적으로 이전 모델보다 매개변수가 더 많기 때문에 학습에 더 많은 에너지를 소모하는 경우가 많습니다.
연구 문헌에서 가장 많은 관심을 받는 분야는 데이터 센터의 전력 수요이지만, 이러한 시설에서 소비하는 물의 양 역시 환경에 영향을 미칩니다.
냉각수는 컴퓨팅 장비의 열을 흡수하여 데이터 센터를 냉각하는 데 사용됩니다. 바시르는 데이터 센터가 소비하는 에너지 1킬로와트시(kWh)당 냉각을 위해 2리터의 물이 필요하다고 추정했습니다.
"'클라우드 컴퓨팅'이라고 해서 하드웨어가 클라우드에 있는 것은 아닙니다. 데이터 센터는 우리 현실 세계에 존재하며, 물 사용량 때문에 생물 다양성에 직간접적인 영향을 미칩니다."라고 그는 말합니다.
데이터 센터 내부의 컴퓨팅 하드웨어는 환경에 미치는 영향이 적고 직접적이지 않습니다.
집약적인 생성 AI 워크로드를 처리할 수 있는 강력한 프로세서인 GPU를 제조하는 데 얼마나 많은 전력이 필요한지 추정하기는 어렵지만, 제조 공정이 더 복잡하기 때문에 더 단순한 CPU를 생산하는 데 필요한 전력보다 더 많을 것입니다. GPU의 탄소 발자국은 자재 및 제품 운송과 관련된 배출량으로 인해 더욱 가중됩니다.
GPU를 제조하는 데 사용되는 원자재를 얻는 과정에는 더러운 채굴 과정과 독성 화학 물질을 사용하는 등 환경적 영향도 있습니다.
시장조사업체 테크인사이츠(TechInsights)에 따르면, 3대 주요 제조업체(NVIDIA, AMD, Intel)가 2023년에 데이터센터에 출하한 GPU는 385만 개로, 2022년 약 267만 개에서 증가할 것으로 예상됩니다. 2024년에는 이 수치가 훨씬 더 크게 증가할 것으로 예상됩니다.
바시르는 이 산업이 지속 불가능한 방향으로 나아가고 있지만, 환경적 목표를 지원하는 생성적 AI의 책임감 있는 개발을 장려할 방법이 있다고 말합니다.
그와 올리베티, 그리고 MIT 동료들은 이를 위해서는 생성적 AI의 모든 환경적, 사회적 비용에 대한 포괄적인 고려와 더불어 인식된 이점의 가치에 대한 자세한 평가가 필요하다고 주장합니다.
올리베티는 "이 분야의 새로운 발전이 미치는 영향을 체계적이고 포괄적으로 이해하기 위해서는 더욱 맥락적인 접근 방식이 필요합니다. 발전 속도가 너무 빨라서 상충 관계를 측정하고 이해하는 능력을 따라잡을 기회가 없었습니다."라고 말합니다.
