네이버, 지난 2022년부터 AI 윤리 자문 프로세스 운영
잠재적 위험의 체계적 평가 위한 네이버 ASF도 구축

네이버 정책/RM 아젠다 박우철 변호사(오른쪽에서 두 번째)가 네이버 AI 안전 정책 사례를 발표하고 있다. [네이버 제공=뉴스퀘스트]
네이버 정책/RM 아젠다 박우철 변호사(오른쪽에서 두 번째)가 네이버 AI 안전 정책 사례를 발표하고 있다. [네이버 제공=뉴스퀘스트]

【뉴스퀘스트=김민우 기자】 네이버가 윤리적인 인공지능(AI) 활용을 위해 두 팔을 벗고 나섰다.

네이버는 지난 5일(현지시간) 스위스 UN 제네바 사무소에서 개최된 '신기술에 대한 인권 기반의 접근: 컨셉에서 구체적 적용으로' 행사에 참석했다.

네이버는 안전한 AI를 위한 추상적 원칙을 산업 실무에 적용해온 사례들을 공유했다.

발표를 맡은 박우철 네이버 정책/RM 아젠다 변호사는 지난 2022년부터 운영중인 네이버 AI 윤리 자문 프로세스 ‘CHEC’를 소개했다.

CHEC는 '인간을 중심으로 한 AI의 윤리적 고려 사항 자문'의 줄임말로 ‘네이버 AI 윤리 준칙’을 실제 서비스 출시 과정에 적용하기 위해 설계한 정책이다.

박우철 변호사는 “현장의 상황을 알지 못하면 AI 윤리 원칙은 진부한 이야기가 될 수 있다”며 “네이버는 AI 윤리 원칙을 현장에서 활용할 수 있도록 만들기 위해 SAPI와 같은 학계 전문가와 협업하는 등 많은 노력을 기울였다"고 설명했다.

그러면서 "CHEC 프로세스를 통해서는 서비스 담당자의 눈높이에 맞춰 현실적인 협업을 진행하기 위해 현장의 서비스 기획 및 개발 과정을 이해하고자 노력했다”고 말했다.

네이버 AI 윤리 준칙을 구체화하기 위한 다른 정책들에 대한 소개도 이어졌다. 

지난해 공개한 ‘사람을 위한 클로바X 활용 가이드’는 빠르게 발전하는 생성형 AI 기술에 네이버 AI 윤리 준칙이 어떻게 적용될 수 있을지에 대해 고민한 결과물이다. 

나아가 올해에는 AI 시스템을 개발하고 배포하는 과정에서 AI의 잠재적 위험을 더욱 체계적으로 인식·평가·관리하기 위해 네이버 ASF(AI 안전 얼개)도 새롭게 구축했다.

서울대 인공지능 정책 이니셔티브(SAPI) 디렉터를 맡고 있는 임용 서울대 교수는 "신기술과 관련된 인권 기반 접근을 업무에 도입하기 위한 보다 실천적인 방안들이 공유되어 의미 있게 생각한다”며 “향후 AI 정책 입안자 및 기업들과 협업을 강화하며 AI에 대한 인권 기반의 접근이 확산될 수 있도록 노력할 것”이라고 밝혔다.

하정우 네이버 퓨처 AI 센터장은 “네이버는 AI 기술의 빠른 변화 속에서 주요 AI 기술을 내재화하면서, 서비스 기획·개발 현장과의 긴밀한 소통을 바탕으로 구체적이고 현실적인 안전 정책을 수립함으로써 AI 안전성 분야에서도 글로벌 리더 그룹으로 인정받고 있다”고 설명했다.

그러면서 “앞으로도 우수한 AI 기술력을 확보하는 한편, 안전하고 지속 가능한 글로벌 AI 생태계를 만드는 데에도 앞장설 것”이라고 말했다.

<세상을 보는 바른 눈 '뉴스퀘스트'>

저작권자 © 뉴스퀘스트 무단전재 및 재배포 금지