'온 디바이스 AI' 알고리즘 공개...전력소모·연산 기능 획기적

[사진=삼성전자]
[사진=삼성전자]

[뉴스퀘스트=최인호 기자] 삼성전자가 2030년 시스템반도체 분야에서 글로벌 1위에 오르겠다는 목표를 밝힌 가운데 컴퓨터 비전 분야의 글로벌 최대 학회인 CVPR(Computer Vision and Pattern Recognition)에서 이를 뒷받침할 '온 디바이스 AI(On-Device AI) 경량화 알고리즘’을 공개했다.

‘온 디바이스 AI’는 서버를 거치지 않고 기기 자체에서 AI 기능을 수행하는 것으로, 이번 발표는 기존 대비 4배 이상 ‘가볍고’, 8배 이상 ‘빠른’ AI 알고리즘에 대한 것이다.

삼성전자 측은 온 디바이스 AI에 대해 “AI 반도체에서 전력 소모와 연산 기능을 획기적으로 향상시킬 ‘열쇠’로 평가받고 있다”고 설명했다.

삼성전자는 이에 앞선 지난달 신경망처리장치(NPU, Neural Processing Unit) 기술을 육성해, 2030년 시스템반도체 분야에서 글로벌 1위에 오르겠다는 목표를 밝힌 바 있다.

삼성전자 종합기술원은 이와 관련 최근 ‘비밀병기’를 공개해 눈길을 끌고 있다.

◆ AI 반도체 연산속도 8배나 증가

삼성전자 종합기술원은 “반도체가 특정 상황을 인식할 때 정확도를 떨어뜨리지 않으면서, 기존 32비트로 표현되는 서버용 딥러닝 데이터를 4비트 이하로 낮출 수 있는 기술을 개발했다”고 밝혔다.

딥러닝 데이터란, 컴퓨터가 사람처럼 생각하고 배울 수 있도록 하는 기술로 다량의 데이터를 컴퓨터가 처리 할 수 있는 형태로 표현하고 이를 학습하는 모델을 구축하는 기법을 말한다.

딥러닝 데이터 크기를 8분의 1로 줄이면, 기기에서 AI 연산을 수행할 때 속도는 반대로 8배 이상 높일 수 있다. 이에 따라 데이터 크기가 줄어들어 소비전력 또한 획기적으로 낮추면서 빠르게 연산을 수행할 수 있는 장점이 있다.

[사진=삼성전자]
[사진=삼성전자]

◆ “주변 모든 기기·센서장치가 ‘두뇌’ 갖게 될 것”

삼성전자는 “보통 AI 기기가 복잡한 연산을 하기 위해 클라우드 서버를 거치는 것과 달리, 온 디바이스 AI는 수백~수천개의 연산을 기기에서 곧바로 수행토록 하는 기술”이라며 “이번 기술은 AI 시대 핵심기술 중 하나인 온 디바이스 AI 연산을 강화하는 동시에, 삼성전자의 시스템반도체 역량을 끌어올리는데 기여할 것”이라고 기대했다.

또한 “온 디바이스 AI 기술은 클라우드 서버를 구축하는 비용을 줄이는 동시에, 자체 연산으로 자율주행, 가상현실(VR) 등 상황에서 빠르고 안정적인 동작을 할 수 있게 해 줄 것”이라며 “최근 모바일 기기가 지문이나 홍채, 얼굴과 같은 생체정보 보안의 인증수단으로 활발히 쓰이고 있는 가운데, 서버가 아닌 기기 안에 각종 개인정보를 안전하게 보관할 수 있다는 장점도 있다”고 강조했다.

특히 “온 디바이스 AI 기술의 핵심은 전력을 많이 소모하지 않으면서도, 대용량 데이터를 고속으로 연산하한다”고 설명했다.

삼성전자는 “지난해 자체 NPU를 탑재한 스마트폰용 엑시노스9(9820) 칩을 선보이며, 온 디바이스 AI와 AI 반도체 역량을 강화하고 있다”면서 “이번에 종합기술원이 개발한 온 디바이스 AI 경량화 알고리즘을 엑시노스 시리즈 등 모바일 시스템 온 칩(SoC)뿐만 아니라 메모리, 센서에도 적용하는 등 경쟁력을 높일 계획”이라고 밝혔다.

최창규 삼성전자 종합기술원 상무는 “궁극적으로 주변의 모든 기기는 물론, 센서가 부착된 사물들이 ‘두뇌’를 갖게 되는 시대가 올 것”이라며 “저전력, 고속 연산의 숙제를 해결하는 차세대 온 디바이스 AI 기술이 이러한 미래를 열어줄 것”이라고 전망했다.

이어 “이번 온 디바이스 AI 경량화 알고리즘은 메모리반도체와 프로세서, 센서 등 차세대 반도체 시장을 크게 확대시키는 효과를 가져올 것”이라고 덧붙였다.

저작권자 © 뉴스퀘스트 무단전재 및 재배포 금지