AI 붐은 충격적인 양의 전기를 사용할 수 있다

CChatGPT8
7 Min Read

[ad_1]

모든 온라인 상호 작용은 원격 서버에 저장된 정보 기반에 의존하며, 전 세계 데이터 센터에 함께 쌓여 있는 이러한 시스템에는 많은 에너지가 필요합니다. 국제 에너지 기구(International Energy Agency)에 따르면, 전 세계적으로 데이터 센터는 현재 전 세계 전력 사용량의 약 1~1.5%를 차지하고 있습니다. 그리고 세계에서 여전히 폭발적인 인공 지능 붐으로 인해 그 숫자가 훨씬 더 빠르게 증가할 수 있습니다.

연구원들은 지난 몇 달 동안 AI의 막대한 에너지 요구 사항에 대해 일반적인 경고를 제기해 왔습니다. 그러나 이번 주에 발표된 동료 검토 분석은 빠르게 구체화되는 수요를 정량화한 최초의 회사 중 하나입니다. AI 용량 및 채택에 대한 현재 추세가 지속되면 NVIDIA는 2027년까지 연간 150만 개의 AI 서버 장치를 출하하게 될 것입니다. 최대 용량으로 실행되는 이 150만 개의 서버는 연간 최소 85.4테라와트시의 전력을 소비하게 됩니다. 새로운 평가에 따르면 많은 소규모 국가들이 1년에 사용하는 것보다 더 많은 것으로 나타났습니다.

분석은 네덜란드 중앙은행의 데이터 과학자이자 Ph.D.인 Alex de Vries가 수행했습니다. Vrije University Amsterdam의 후보로 떠오르는 기술의 에너지 비용을 연구하고 있습니다. 이전에 de Vries는 암호화폐 채굴 및 거래에 드는 막대한 에너지 비용에 대해 경종을 울리는 것으로 명성을 얻었습니다. 이제 그는 최신 기술 유행에 관심을 돌렸습니다. 사이언티픽 아메리칸 그와 AI의 충격적인 전기 수요에 대해 이야기했습니다.

[An edited and condensed transcript of the interview follows.]

인공지능의 에너지 소비량을 조사하는 것이 왜 중요하다고 생각하시나요?

AI는 에너지 집약적이기 때문이다. 나는 내 연구 기사에 이에 대한 한 가지 예를 넣었습니다. Google의 검색 엔진을 ChatGPT와 같은 것으로 완전히 전환하고 모든 사람이 그렇게 사용한다면 초당 90억 개의 일반 검색 대신 90억 개의 챗봇 상호 작용이 가능하다는 점을 강조했습니다. 그러면 Google의 에너지 사용량이 급증할 것입니다. 구글이 검색 엔진을 운영하려면 아일랜드만큼의 힘이 필요할 것이다.

이제는 그런 일이 일어나지 않을 것입니다. 왜냐하면 Google도 이를 가능하게 하려면 하드웨어에 1,000억 달러를 투자해야 하기 때문입니다. 그리고 만약에 [the company] 투자할 돈이 있었지만 공급망에서는 모든 서버를 즉시 제공할 수 없었습니다. 하지만 애플리케이션에서 생성 AI를 사용하려는 경우 다음을 설명하는 것이 여전히 유용하다고 생각합니다. [such as a search engine]이는 모든 온라인 상호 작용을 훨씬 더 많은 리소스로 만들 가능성이 있습니다.

AI의 위험에 관해 이야기할 때 적어도 지속가능성을 포함하는 것이 건전하다고 생각합니다. 오류의 잠재적 위험, 블랙박스의 미지, AI 차별 편향에 대해 이야기할 때 지속 가능성도 위험 요소로 포함해야 합니다. 내 기사가 최소한 그런 방향으로의 사고 과정을 장려할 수 있기를 바랍니다. AI를 사용하게 된다면 도움이 될까요? 책임감 있게 할 수 있을까요? 애초에 우리가 이 기술을 꼭 사용해야 합니까? 최종 사용자가 원하고 필요로 하는 것은 무엇이며, 우리가 그들을 가장 잘 도울 수 있는 방법은 무엇입니까? AI가 해당 솔루션의 일부라면 좋습니다. 하지만 그렇지 않다면 넣지 마세요.

AI 프로세스의 어떤 부분이 그 모든 에너지를 사용하고 있습니까?

AI와 관련하여 일반적으로 두 가지 큰 단계가 있습니다. 하나는 학습 단계로, 모델이 스스로 행동하는 방법을 학습하도록 설정하고 얻는 단계입니다. 그런 다음 모델을 실제 작업에 투입하고 프롬프트를 제공하여 독창적인 응답을 생성할 수 있는 추론 단계가 있습니다. 두 단계 모두 매우 에너지 집약적이며 에너지 비율이 무엇인지 실제로 알 수 없습니다. 역사적으로 Google에서는 추론이 60%, 학습이 40%로 균형을 이루었습니다. 하지만 ChatGPT를 사용하면 그런 종류의 문제가 발생합니다. 왜냐하면 ChatGPT 교육은 모델을 적용하는 것과 비교할 때 상대적으로 에너지 소비가 거의 없기 때문입니다.

이러한 모델에 포함되는 데이터의 양과 같은 다양한 요인에 따라 달라집니다. 내 말은, ChatGPT가 제공하는 이러한 대규모 언어 모델은 거대한 데이터 세트를 사용하고 수십억 개의 매개변수를 갖는 것으로 악명이 높습니다. 물론 이러한 모델을 더 크게 만드는 것은 더 많은 전력을 필요로 하는 요인이지만 기업이 모델을 더욱 강력하게 만드는 방법이기도 합니다.

AI 에너지 사용을 고려할 때 고려해야 할 다른 변수는 무엇입니까?

제 글에는 냉각에 대한 내용이 포함되어 있지 않지만, 계속 진행할 데이터가 있었다면 그랬을 것입니다. 가장 큰 미지수는 해당 서버가 어디에서 끝날 것인지입니다. 이는 매우 중요한 문제입니다. Google에서는 추가 냉각 에너지 사용량이 10% 정도 증가할 것이기 때문입니다. 그러나 글로벌 데이터 센터는 평균적으로 기계 냉각을 유지하기 위해 에너지 비용을 50% 추가합니다. 그보다 더 나쁜 성능을 보이는 데이터 센터가 있습니다.

어떤 유형의 하드웨어를 사용하고 있는지도 중요합니다. 최신 서버는 이전 서버보다 효율적입니다. AI 기술을 어떤 용도로 사용할 것인지도 중요합니다. 요청이 복잡할수록 서버가 요청을 이행하는 데 걸리는 시간이 길어질수록 더 많은 전력이 소비됩니다.

평가에서는 최악의 경우부터 최상의 경우까지 몇 가지 에너지 사용 시나리오를 개략적으로 설명합니다. 가능성이 가장 높은 것은 어느 것입니까?

최악의 시나리오에서 AI로 모든 작업을 수행하기로 결정하면 모든 데이터 센터의 에너지 소비가 사실상 10배 증가하게 됩니다. 암호화폐 채굴을 제외한 데이터 센터가 이미 전 세계 전력의 약 1%를 소비하고 있기 때문에 이는 전 세계 전력 소비의 엄청난 폭발이 될 것입니다. 자, 다시 말하지만 그런 일은 일어나지 않을 것입니다. 전혀 현실적이지 않습니다. 이는 AI가 매우 에너지 집약적이라는 것을 보여주는 유용한 예입니다.

반대쪽에는 성장이 없다는 생각이 있습니다. 수요 증가가 효율성 향상으로 완전히 상쇄될 것이라고 말하는 사람들이 있지만 이는 수요와 효율성에 대해 우리가 이해하는 내용을 포함하지 않는 매우 낙관적인 견해입니다. 주요 신기술이 프로세스를 더욱 효율적으로 만들 때마다 실제로 생산되는 제품이 무엇이든 더 많은 사람들이 요구하게 됩니다. 효율성은 수요를 증가시키므로 효율성을 높이는 것이 결국 실제로 에너지를 절약하는 것은 아닙니다.

앞으로 나아갈 가능성이 가장 높은 경로는 무엇이라고 생각합니까? 제 생각에는 AI 관련 전력 소비가 증가할 것이라는 것이 그 답이라고 생각합니다. 적어도 처음에는 다소 느릴 것입니다. 하지만 몇 년 안에 서버 생산량이 늘어나면서 가속화될 가능성도 있다. 이것을 아는 것은 우리가 무엇을 하고 있는지 생각할 시간을 줍니다.

어떤 추가 조사나 다른 단계가 필요할 수 있나요?

우리는 더 높은 품질의 데이터가 필요합니다. 우리는 이 서버들이 어디로 가는지 알아야 합니다. 우리는 에너지 자체의 근원을 알아야 합니다. 탄소 배출량은 환경에 미치는 영향과 관련하여 우리가 관심을 갖는 실제 수치입니다. 에너지 수요는 한 가지이지만 재생 가능 에너지에서 나오는 것입니까? 화석연료에서 나오는 걸까요?

아마도 규제 당국은 계속할 정보가 거의 없기 때문에 AI 개발자에게 에너지 사용 공개를 요구하기 시작해야 할 것입니다. 이 분석을 수행하는 것은 정말 어려웠습니다. 현재 AI 작업을 시도하는 사람은 정보가 제한되어 있는 동일한 문제에 직면하고 있습니다. 투명성이 더 높다면 도움이 될 것이라고 생각합니다. 그리고 그 투명성이 지금까지 그랬던 것처럼 자연스럽게 나오지 않는다면, 우리는 그것에 약간의 힘을 가하는 것에 대해 생각해야 합니다.

Share this Article
Leave a comment

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다