2일 뉴욕에서 열린 ‘AI 연례 컨퍼런스’에서 현재 개발 중인 AI 기술 공개

(사진제공: 구글)

구글이 전 세계에서 많이 사용되는 1000개의 언어를 지원하는 인공지능(AI) 시스템을 구축한다.

구글은 2일 뉴욕 구글 오피스에서 열린 ‘AI 연례 컨퍼런스’에서 현재 개발 중인 AI 기능을 선보였다. 구글의 제프 딘 부사장은 “이 AI 기술을 사용해 인류의 삶을 개선되기를 바란다”고 전했다.

이날 행사에서 구글은 전 세계 7천 개 언어 중 가장 많이 사용되는 1천 개의 언어를 지원하는 AI 모델을 구축하겠다는 ‘1000개 언어 이니셔티브’ 장기 프로젝트를 공개했다. 

그 첫 번째 단계로 400개 이상의 언어로 학습한 ‘유니버셜 스피치 모델(USM)’을 개발했다. 프로젝트 진행을 위해 남아시아와 아프리카의 지방 정부, 비영리단체, 연구기관과 협력해 다양한 언어와 방언의 오디오 샘플을 수집했다. 구글은 학습시킨 모델을 구글 번역이나 유튜브 앱에 적용해 이용자들이 모국어로 서비스를 사용하고 원하는 콘텐츠를 찾을 수 있도록 지원하는 것이 목표이다.

(사진제공: 구글)

AI를 이용해 자연재해를 예측하는 시스템을 확대하는 ‘플러드허브’ 시스템도 발표했다. 머신러닝으로 학습한 AI가 현재 기상상황과 인근 강 수위를 분석해 홍수 발생 가능성을 알려주는 시스템이다. 

구글은 2017년부터 이 기능을 출시했는데 2개국에서 브라질과 콜롬비아를 포함한 18개 국가에 적용한다고 밝혔다. 구글은 “홍수 조기 경보 시스템을 통해 사망 사고의 43%, 경제적 피해의 35~50%를 예방할 수 있다”고 밝혔다.

또한 AI가 인공위성 이미지를 분석해 실시간으로 산불을 관찰하고 추적할 수 있는 시스템을 공개했다. 향후 산불이 어떻게 진행되고 확산되는지도 예측해 구글 검색과 구글 맵스를 통해 볼 수 있다. 현재 위성 이미지를 활용한 추적은 미국, 멕시코, 캐나다, 호주 네 국가에서 제공 중이다.

이외에도 텍스트를 입력하면 영상을 만들어내는 ‘이매젠 비디오’와 ‘페나키’ 모델, AI 언어 모델인 람다(LaMDA)를 활용해 글을 쓰는 ‘워드크래프트’ 프로젝트, 6초의 음성을 제공하면 사람의 목소리를 재현하거나 연주를 이어가는 ‘오디오LM 기술’ 등 다양한 AI 기술도 함께 공개했다.

metarism@metaplanet-dm.com

홈으로 이동 상단으로 이동