인더스트리

“AI, 검증만 잘해도 탄소 배출 줄인다”

기사입력 2024.03.13 14:40
지구 파괴하는 AI, 탄소배출 문제 해결 시급
데이터 검증과 모델 검증으로 AI 전력 다이어트 가능
  • AI가 막대한 전력 사용으로 환경 파괴 주범으로 꼽히면서 이 문제를 풀 다양한 방안이 연구되고 있다. /픽사베이
    ▲ AI가 막대한 전력 사용으로 환경 파괴 주범으로 꼽히면서 이 문제를 풀 다양한 방안이 연구되고 있다. /픽사베이

    인공지능(AI)이 연산 과정에서 막대한 전력을 사용해 탄소배출 주범으로 불리고 있는 가운데, 이 전력 사용 문제를 ‘검증’을 통해 줄일 수 있단 의견이 개진됐다. 데이터와 모델 검증을 수행하게 되면 쓸데없이 나가는 전력을 방지할 수 있단 주장이다. 이 방식은 저전력 반도체 개발과 더불어 AI 전력 문제를 풀 새로운 해법이 될 것으로 전망된다.

    AI의 또 다른 이름은 ‘전기먹는 하마’다. 연산과 학습 과정에서 상당한 양의 전력을 소모해서다. 과도한 전력 사용은 탄소배출 문제로도 이어진다. 실제로 엠마 스트루벨(Emma Strubell) 미국 매사추세츠대 교수 연구진이 2019년 발표한 논문에 따르면 구글이 초거대 언어모델 버트를 학습시키는 동안 438lb(약 652㎏)의 이산화탄소를 발생시켰다. 비행기가 뉴욕에서 샌프란시스코를 왕복으로 오갈 때 뿜어내는 이산화탄소 발생량이다. 미국 전국에서 달리는 자동차 평균 배출량의 약 5배에 해당하는 수치이기도 하다. 오픈AI는 자체 조사를 통해 GPT-3와 같은 언어모델들이 하루에 수백㎊의 컴퓨팅을 요구한다는 사실을 인정했다.

    AI의 이 같은 탄소배출 문제는 혁신에 그림자로 다가오고 있다. 국내 AI 스타트업 대표는 “오픈AI가 소라를 발표했을 때 먼저 생각난 것 중 하나는 ‘이 기술을 개발하는데 얼마나 많은 탄소를 배출했을까’였다”면서 “AI가 많은 부분 혁신을 가져오는 것은 맞지만, 이로 인한 탄소배출 문제는 공급사들이 애써 외면하고 있다”고 지적했다. 이어 “자동차 개발로 생활이 편리해진 점은 맞지만, 그만큼 환경은 오염됐다”면서 “자동차보다 환경 측면에서 훨씬 위험한 AI의 탄소배출 문제를 무시하게 되면 인간은 혁신을 추구하기 위해 지구를 병들게 하는 역사를 반복하게 될 것”이라고 경고했다.

    이 같은 AI의 전력 과다 사용 문제를 줄이기 위해 현재 접근되고 있는 방법은 AI 맞춤 반도체 개발이다. 메모리와 연산 칩을 하나의 공간에 만들어 데이터 이동을 줄임으로써 전력 사용을 줄인다거나, 그래픽처리장치(GPU) 중 AI 연산에만 필요한 칩을 별도로 만드는 등의 노력이 이어지고 있다. 하지만 반도체는 설계부터 양산까지 최소 2년 이상의 시간이 걸려 AI 개발 속도를 따라잡기 힘들고, 문제를 빠르게 해결하기 어려운 한계가 있다.

    AI 검증은 반도체보다 빠르고 효율적으로 탄소배출 문제를 줄일 방법으로 꼽힌다. AI 검증에는 크게 데이터 검증과 모델 검증이 있다. 데이터 검증은 AI가 학습할 데이터를 검증해 중복된 데이터나 편향된 데이터를 없애는 방법이다. 윤리적인 AI 모델을 만들 수 있는 점과 동시에 중복 데이터를 제거해 전력 사용을 줄일 수 있는 장점이 있다.

    ◇ 수많은 중복 데이터, 다이어트가 필요하다 

    AI를 만들고 가동하는 데에는 데이터가 필요하다. 이 때문에 그동안 AI 기업들은 경쟁적으로 데이터를 수집해 왔다. 데이터의 질보다 데이터양을 채우는데 몰두했다. 그만큼 수집한 데이터엔 중복 요소가 많다는 게 AI 관계자들의 설명이다.

    중복 데이터 문제는 정부 데이터 구축사업에서도 나타난다. 국내 지자체 AI 관계자는 “정부의 AI 데이터 플랫폼 ‘AI허브’만 보아도 중복 데이터가 상당하다”면서 “100장 같은 1장, 1000장 같은 1장이란 소리가 심심치 않게 들린다”고 말했다. 국내 AI 기업 대표도 “AI허브에는 중복되고 부실한 데이터가 많다”면서 “물론 꼭 필요한 데이터도 있지만 10% 내외”라고 지적했다. 이어 “사실 업계에선 정부 추진 사업이 15~20%만 잘돼도 성공했다고 보기 때문에 필요한 데이터가 있는 것만으로 정부 데이터 구축사업의 성과는 있다고 볼 수 있지만, 데이터를 정리할 필요는 있지 않나 생각된다”고 덧붙였다. AI허브는 과학기술정보통신부가 주관하고 한국지능정보사회진흥원(NIA)에서 운영하는 AI 통합 플랫폼이다.

    중복 데이터 문제는 비단 국내 문제만은 아니다. AI 학습에 사용되는 데이터의 불균형과 편향 등을 측정하는 AI 신뢰성 검증 제품 ‘리인(Re:In)’을 개발한 씽크포비엘의 박지환 대표는 전 세계 데이터의 약 65%는 중복 데이터라고 설명했다. 그는 “사실 데이터는 불균형 문제가 심하다”면서 “일례로 제조 쪽에서 잘 만들어진 제품의 데이터는 많은 반면, 불량 데이터는 적다”고 말했다. 이어 “AI가 불량을 탐지하려면 불량 데이터가 필요한데 잘 만들어진 제품 데이터만 쌓여있는 문제가 있다”고 했다.

  • 박지환 씽크포비엘 대표는 전 세계 데이터의 65%는 중복 데이터라고 지적했다. /김동원 기자
    ▲ 박지환 씽크포비엘 대표는 전 세계 데이터의 65%는 중복 데이터라고 지적했다. /김동원 기자

    박 대표는 이 문제를 줄이기 위해선 구축해놓은 데이터를 점검해 분류해야 한다고 조언했다. 물을 예로 들면 수질 검사를 통해 1급수, 2급수, 구정물 등으로 분류해 각각 필요에 따라 사용하듯이, 데이터도 기준에 따라 분류해 놓아야 한다는 설명이다. 그는 “물을 분류하면 용도별로 사용할 수 있지만, 이를 다 섞어 놓으면 활용하기 어렵듯이 데이터도 검증을 통해 분류할 필요가 있다”고 말했다. 또 “AI로 인한 탄소배출 문제를 줄이기 위해 저전력 반도체를 개발하고 있지만, 이를 통해 줄일 수 있는 전력량은 30% 수준이라는 연구 결과가 있다”며 “데이터 검증을 하면 이보다 높게 전력 사용량을 줄일 수 있다”고 밝혔다.

    ◇온디바이스 AI 경량화, 화이트박스로 푼다

    AI 탄소배출 문제는 모델 검증을 통해서도 풀 수 있다. AI 모델 검증은 여러 가지가 있지만, 최근 많이 연구되고 있는 것은 ‘설명할 수 있는 AI’다. AI가 내린 결정에 대해 왜 그렇게 내렸는지를 거꾸로 분석해 그 결정이 옳은지를 검증하는 과정으로 볼 수 있다. 제조 분야에서 AI가 제품을 불량으로 판정했는데 어떤 근거로 불량으로 보았는지, 대화형 AI가 세종대왕이 맥북을 던졌다고 했는데 어떤 근거로 그러한 답변을 했는지를 분석한다고 보면 된다.

    AI 모델 검증은 최근 AI 안전성과 윤리 면에서 중요 요소로 꼽힌다. AI는 주로 입력값을 입력하면 결괏값을 내는 인풋(Input)과 아웃풋(Output) 모델로 이뤄졌다. ‘오늘 날씨는 어때?’라는 입력값을 입력하면 AI가 실시간으로 데이터를 분석해 날씨에 대한 정보의 결괏값을 알려주는 방식이다. 그런데 딥러닝에선 결괏값을 추출하는 과정에 블랙박스가 존재한다. 왜 날씨를 맑다고 했는지, 혹은 흐리다고 했는지 그 과정을 알 수 없다. 이 문제는 윤리와도 연결된다. 발생할 수 있다. 사람이 던진 질문을 AI가 틀리게 답변할 수 있지만 그 과정을 알지 못해 그대로 믿어버리는 등의 문제가 발생할 수 있어서다.

    최근 AI 기업과 대학에서는 이 문제를 화이트박스 개념으로 풀고 있다. AI가 내린 결론을 거꾸로 해석해나가고 있다. 배현섭 슈어소프트테크 대표는 “우리 뇌를 보면 좌뇌는 어떤 역할을 하고 우뇌는 어떤 역할을 하는지가 다 연구됐다”면서 “AI도 내부를 보면 활성화되는 뉴런들이 있는데 이러한 뉴런들이 얼마나 결과에 영향을 주는지 등을 연구하고 있다”고 밝혔다. 이어 “화이트박스로 AI를 분석하면 문제가 있는 뉴런들을 사전 탐지할 수 있고 검증도 가능해진다”고 했다.

  • 배현섭 슈어소프트테크 대표는 “AI 모델 검증으로 온디바이스 AI를 경량화하고 최적화 해 탄소배출 문제를 줄일 수 있다”고 설명했다. /김동원 기자
    ▲ 배현섭 슈어소프트테크 대표는 “AI 모델 검증으로 온디바이스 AI를 경량화하고 최적화 해 탄소배출 문제를 줄일 수 있다”고 설명했다. /김동원 기자
    이 검증은 AI의 과도한 전력 사용을 방지하는 효과도 가져온다. AI 내부를 분석하다 보면 활성화되지 않은 뉴런들이 있으므로 이를 제거하게 된다면 자연스럽게 전력 감소 효과로 이어지기 때문이다. 배 대표는 “범용인공지능(AGI)이라면 모든 뉴런이 필요할 수 있지만 자율주행에 쓰이는 AI라면 꼭 필요한 뉴런 외 다른 뉴런은 필요하지 않다”면서 “사람의 뇌를 비유했을 때 운전할 때 쉬는 뇌세포가 있는데 자율주행 AI에 이러한 뇌세포를 뺀다면 온디바이스 AI를 경량화하고 최적화할 수 있다”고 설명했다. 이어 “앞으로 AI 활용 단계인 온디바이스 AI의 중요성이 커지고 있는데, 이 단계에서 모델을 경량화하면 자연스레 탄소배출 감소에도 기여할 수 있을 것”이라고 했다.

최신뉴스