우리는 숙제를 하거나 정보를 찾을 때 챗GPT 같은 인공지능(AI)을 자주 사용합니다. 하지만 우리가 질문 한 번을 던질 때마다 지구 반대편 데이터 센터에서는 엄청난 양의 전기가 사라지고 있다는 사실을 아는 사람은 많지 않습니다. AI는 수만 대의 컴퓨터가 동시에 복잡한 계산을 해야 답을 내놓을 수 있기 때문입니다.
1. 일반 검색보다 10배 더 뜨거운 AI
수치로 비교해 보면 차이는 극명합니다. 구글에서 검색 한 번을 할 때는 약 0.3Wh의 전기가 소모되지만, 챗GPT와 대화할 때는 약 2.9Wh의 전기가 필요합니다. 단순한 검색보다 약 10배나 많은 에너지가 쓰이는 셈입니다.
초대형 AI 모델인 'GPT-3'를 학습시키는 데 사용된 전력은 무려 1,287MWh에 달합니다. 이는 우리나라의 일반적인 400가구가 1년 내내 사용할 수 있는 엄청난 양입니다.
2. 국가 하나가 쓰는 전력량과 맞먹는 미래
문제는 AI 사용자가 늘어날수록 전력 수요가 걷잡을 수 없이 커진다는 점입니다. 국제에너지기구(IEA)의 분석에 따르면, 2022년 전 세계 데이터 센터가 쓴 전기는 약 460TWh였지만, 2026년에는 최대 1,050TWh까지 치솟을 것으로 보입니다. 이는 세계적인 경제 대국인 일본 전체가 1년 동안 쓰는 전기량과 비슷한 수준입니다.
3. 기술의 발전과 지구의 미래
AI는 우리 삶을 편리하게 만들지만, 동시에 지구의 에너지를 빠르게 고갈시키고 있습니다. 이제는 AI의 성능을 높이는 경쟁을 넘어, 전기를 적게 쓰는 '저전력 반도체'를 만들거나 친환경 에너지를 사용하는 등 환경을 지키는 기술 개발에 더 힘을 쏟아야 할 때입니다.
참고 문헌
• International Energy Agency (IEA), Electricity 2024: Analysis and forecast to 2026, (2024).
• Alex de Vries, "The growing energy footprint of artificial intelligence", Joule Journal, (2023).
• Goldman Sachs Research, "Generative AI: Huge potential, but also huge energy demands", (2024).