미국 아스펜연구소 주최 ‘인공적인 친밀함’ 포럼 내용 공개
감정 인식하고 표현하는 컴퓨터...신뢰·공감·도덕 규범 기준은?

 
엔씨소프트 윤송이 사장이 미국의 한 연구소가 주최한 포럼에서 “인간이 인지적 공감 능력을 지닌 AI와 새로운 관계를 형성해야 할 시기에 직면했다”고 말했다. (엔씨소프트 제공)/그린포스트코리아
엔씨소프트 윤송이 사장이 미국의 한 연구소가 주최한 포럼에서 “인간이 인지적 공감 능력을 지닌 AI와 새로운 관계를 형성해야 할 시기에 직면했다”고 말했다. (엔씨소프트 제공)/그린포스트코리아

[그린포스트코리아 이한 기자] 공감은 인간 고유의 영역일까? 기계도 사랑에 빠질 수 있을까? 이세돌과의 대결로 세계적인 관심을 모았던 AI가 이제는 산업 전 영역으로 확대되면서 여러 가지 질문들이 새롭게 대두된다. AI 분야 전문가 엔씨소프트 윤송이 사장은 "인간이 인지적 공감 능력을 지닌 AI와 새로운 관계를 형성해야 할 시기에 직면했다"고 말하면서 "이 관계에 반드시 현재 사회에 통용되는 도덕적 기준을 적용할 필요는 없다"는 견해를 밝혔다.

최근 엔씨소프트는 미국 아스펜 연구소가 주최한 ‘인공적인 친밀함(artificial intimacy)’ 포럼내용을 공개했다. 이 자리에는 엔씨소프트 글로벌 CSO 윤송이 사장을 비롯해 AI분야의 글로벌 전문가들이 모여 의견을 나눴다.

이 포럼에서는 ‘감정은 인간 고유의 영역이라 여겨졌지만 현재 컴퓨터는 감정을 인식하거나 표현할 수 있다’는 내용이 다뤄졌다. ‘공감 능력이 개인의 성장과 사회구조 형성에 중요한 역할을 한다면, 인공적으로 만들어진 공감이 이 역할을 대신할 경우 사회와 개인에 어떤 영향을 미칠지 깊이 생각해 봐야 한다’는 의제도 다뤄졌다.

엔씨소프트가 자사 블로그에 공개한 리포트에 따르면 윤 사장은 이 포럼에서 “인간이 인지적 공감 능력을 지닌 AI와 새로운 관계를 형성해야 할 시기에 직면했다”고 전했다. 그러면서 “하지만, 이 관계에 반드시 현재 사회에 통용되는 도덕적 기준을 적용할 필요는 없다”는 견해도 밝혔다. 인류와 AI의 소통에 대한 새로운 시선이 필요하다는 의미로 풀이된다. 

윤송이 사장은 AI의 상업적인 이용을 경계해야 한다고 언급했다. 윤 사장은 “우리는 인간의 공감 능력이 제3자의 상업적 목적에 이용되는 것을 원치 않는다. 그렇기 때문에 스스로 인공지능의 사용에 대해 의식하고 무분별한 사용을 경계해야 하며, 더 나아가 이러한 환경 속에서 우리 스스로를 보호할 수 있는 정책적인 가이드라인 개발이 필요하다”라고 강조했다. 엔씨소프트는 “인간과 AI의 공존을 위한 사회적 논의와 합의의 중요성을 역설한 것”이라고 설명했다.

◇ “계산된 알고리즘, 정의롭고 도덕적이라는 기대는 경계”

인공지능에 대한 우려는 실제로도 존재하는 목소리다. 판단력이 생겨 인간에게 반역(?)을 꾀하는 AI에 관한 얘기는 SF물의 단골 소재이기도 하다. 혹자들은 조지 오웰의 소설 <1984>에 등장하는 사생활 감시체계 ‘빅 브라더’에서 AI를 연상하기도 한다.

하지만 애플 ‘시리’ 공동 제작자이자 AI 기업가인 톰 그루버는 이 포럼에서, AI의 새로운 역할은 인간이 더 나은 사람이 되도록 돕는 것이라고 강조했다. 이와 더불어 ‘빅 브라더’에 대비되는 개념이자 AI의 지향점으로 ‘빅 마더’라는 개념도 제시했다. AI는 인간을 감시하는 대신 자기 인식, 자기 돌봄, 자기 관리 및 독립성의 개념을 우선시하여 인류의 부족한 점을 채워주고 또 보호할 것이라는 견해다.

인간과 교감하는 AI는 이미 나오고 있다. 같은 포럼에 참석한 미국 매사추세츠 공과대학(MIT) 셰리 터클 석좌교수는 일본 산업기술종합연구소에서 개발한 심리치료 로봇 ‘파로’(PARO) 사례를 들었다. 파로는 인간과 상호작용을 통해 놀람, 행복, 화 같은 감정을 표현한다. 자녀를 잃은 한 여성이 파로와 대화를 통해 위안을 받은 사례를 통해 그는 위험성을 경고했다.

터클 교수는 “감정적인 반응을 끌어내도록 설계된 로봇과의 공감은 인간의 정신적 취약점을 건드리기 쉽다”며 “자신도 모르는 사이 이 사교적인 로봇에 깊은 애착을 느낄 수 있다”고 말했다.

윤 사장은 AI에 대한 과도한 환상을 경계하라고 조언했다. 윤 사장은 “어떤 결과물이 단순히 컴퓨터나 알고리즘 계산에 의한 것이라는 이유만으로 그것이 더 정확하고, 정의롭고, 도덕적일 것이라고 생각하는 경향이 있다”며 “기계에 대해 우리가 인간관계에서 기대하는 신뢰·공감·도덕 규범 수준까지 바라면 안 된다”고 말했다.

이런 문제를 두고 엔씨소프트도 AI관련 업계의 오랜 논의에 대해 소개한 바 있다. 자율 주행 자동차가 상용화된 세상을 논할 때 흔히 거론되는 문제인 ‘트롤리 딜레마’다. 만일 자율 주행 자동차가 왼쪽으로 꺾으면 탑승자 즉 차 주인이 다치고 오른쪽으로 꺾으면 여러명의 유치원생들이 다치게 되는 상황이라고 가정하자. 자율 주행차는 핸들을 어느 쪽으로 꺾도록 프로그램 되어야 할까?

자율 주행 자동차가 주행 중 맞닥뜨릴 수 있는 여러 상황에서의 도덕적 판단을 프로그래밍 하기 위해서는 판단의 기준은 누가 정할 것인지, 어떤 기준으로 판단할 것인지에 대한 논의가 선행되어야 한다. 하지만 이 논의의 배경에 얼마나 많은 가정들이 고려되었는지, 이와 관련된 상위 인지 문제를 풀기 위해서 얼마나 많은 단계를 거쳐야 하는지에 대해서는 정작 충분하게 논의되지 못하고 있다. AI시대를 앞두고 사회가 해결해야 할 여러 숙제 중 하나다.

윤송이 사장은 현재 미국 스탠포드대학 인간 중심 AI연구소 자문 위원을 맡고 있다. 이 연구소는 AI와 데이터가 더 광범위하게 쓰이는 사회에서 야기될 수 있는 문제들에 의식을 가진 각계의 인사들을 주축으로 운영되며, 에릭 슈미트 전 구글 회장, 제리 양 야후 공동 창업자, 제프 딘 구글 AI 책임자 등이 자문위원으로 활동하고 있다.

leehan@greenpost.kr

저작권자 © 그린포스트코리아 무단전재 및 재배포 금지