[서비스개발팀 조예지]
우리는 보통 사람과 같은 AI를 정의할 때 인간처럼 행동하고 인간처럼 생각하는 AI라고 말하고 있습니다. 각 사람들이 기대하는 AI의 모습과 형태는 다르지만, 다수가 지향하는 AI를 구현하기 위해 지금까지 다양한 시도들이 이루어지고 있습니다.
AI의 의인화
그럼 AI는 궁극적으로 어떠한 모습일 때 가장 사람다워 보일까요?
AI에 대한 관심이 커지기 시작했던 2016년 초 이세돌과 알파고의 바둑 대결 이후 어느덧 6년이 지난 현 시점에서 우리는 AI와 여러 인터랙션 경험을 통해 우리조차 AI를 형상화하는 이미지가 매우 달라졌다는 것을 볼 수 있습니다.
이세돌과 알파고 바둑 대결 당시 당연히 이세돌이 이길줄 알았던 게임에서 AI가 승리하며 막연히 앞으로 도래할 AI를 두려움의 대상으로 여기기도 했으며, AI를 통해 변화할 세상에 대한 기대도 같이 공존했던 것 같습니다. 그러면서도 희한한 사실은 Boston College의 오창훈 연구원에 따르면, AI와 쌓았던 첫 인터랙션 경험을 통해 AI를 창의적이거나 무자비한 인간이라고 표현하는 사례도 볼 수 있었다는 것입니다.
또한, 오 연구원의 실험에 따르면 AI와 사람이 같이 그림을 그려나가는 상황에서 사람에게는 작업 수행시 리드를 할 지 어시스트를 할 지 선택권이 주어졌습니다. 이 실험에서 사람들은 리드나 어시스트 두 기능 모두에서 주도권을 갖고 싶어한다는 것을 볼 수 있었습니다. 말하자면 사람이 최종 결정을 내리면 AI는 보조하는 역할만 해주길 기대했다는 것을 볼 수 있습니다. 또한, 같이 작업하는 과정중 AI에게 말을 걸고, 가르치고, 자신의 감정을 표현하는 모습 속에서 AI를 의인화하는 모습을 볼 수 있었다고 합니다.
AI가 인간보다 뛰어난 작업을 수행할 시 보통 사람들은 AI에게 거리감을 느끼거나 두려움의 존재로 형상화하는 반면, 이 두 실험에서는 AI와 인터랙션하는 과정중 AI를 인격화하는 부분을 볼 수 있으며, 또 사람들이 AI와 대화하는 과정에서 단순한 대화보다는 좀 더 디테일한 교감을 하길 원한다는 것을 알 수 있습니다.
어쩌면 AI에게 구체적인 형상이나 프레임을 미리 씌워주지 않은채 AI와 인터랙션이 늘어나는 그 과정속에서 사람들은 자신의 경험을 통해 자체적으로 AI에게 저마다 다른 인격을 부여하는 것일지도 모릅니다.
교감의 필수 요소: 지성과 감성
그럼 다음 질문을 던지지 않을 수가 없습니다. AI가 사람과 같은 ‘교감’을 하기 위해서 어떤 요소들이 가장 필요할까요?
사람과 같은 AI를 형성하는 주요 요소가 무엇인지 생각해보면 그 중에서 AI와 교감하기 위해 가장 주목하는 부분이 바로 지성과 감성이라고 표현할 수 있습니다. 사람처럼 똑똑하면서도 사람과 같은 감정을 보유할 수 있는 AI야말로 바로 사람과 같다고 이야기 할 수 있습니다. 이는 현재까지 나온 사람보다 작업을 빠르고 정확하게 수행하는 기존에 똑똑한 컴퓨터의 이미지와는 현저히 차이가 나며, 저희가 앞으로도 풀어나가야 할 과제입니다.
그리고 이렇게 사람처럼 똑똑한 지성과 사람과 같은 감정을 표현할 수 있는 가장 대표적인 방법이 바로 대화라는 수단이라고 생각합니다.
이 대화를 형성하는 기본적인 형태로 업계내에서는 다양한 음성이나 언어로 풀어나가려 하는 양상을 많이 발견할 수 있습니다. AI와 대화했을 때 사람과 같은 목소리와 감정을 보유한 음성으로 대화를 한다면 좀 더 사람과 같을 것이다라고 생각하게끔 만드는 것이 하나의 모습일 것입니다.
또한, 사람과 같이 구사하기 위해 대화의 핵심인 언어로 다양한 시도도 이루어지고 있습니다. 사람의 언어를 이해하기 위해 해당 언어의 의미, 문법적인 구조, 앞뒤 문맥만을 보는 것이 아닌 해당 문장이 담아낸 감정이 무엇인지 파악하고 표현하는 것도 하나의 시도입니다. 사람과 같이 표현하기 위하여 대표적으로 핵심어를 몇개만 삽입해 500자 중문의 문장을 만들어내려는 자연어처리 기술 엔진인 GPT-3가 하나의 예제일 것입니다.
그리고 어느 정도 사람과 같은 대사를 구사하는 단계에 이르렀다면, 이를 좀 더 다양한 대화로 풀어나가기 위해서는 그 다음 단계로써 기억과 대화의 소재로 풀어나가기도 합니다. 대표적으로 Facebook의 Blender Bot 2를 하나의 예제로 들 수 있습니다. 앞뒤 문맥을 깊게 이해하고 대화에 반영하기 위해 5턴 이상의 장기 기억을 시도했으며, 바로 실시간 인터넷 검색을 통해 다양한 대화 소재를 반영하는 것을 볼 수 있습니다.
이렇게 대화로 지성과 감성을 담아내려는 것이 하나의 모습이었다면, 다른 방면으로 어떤 시도를 해볼 수 있을까요?
현재 활발하게 이루어지고 있는 연구 중 하나는 사람의 감성을 다양한 각도로 이해하기 위해서 사람의 감정을 인식하여 교감하는 모습도 볼 수 있습니다. 대표적인 예로 얼굴 및 감정을 분석하는 소프트 뱅크의 Pepper도 있으며, Neurodata lab에서도 사람의 행동이나 감성 구체적으로는 음성, 표정, 심장박동, 호흡 등을 분석하여 사람의 감정을 인식하려는 노력도 꾸준히 일어나고 있습니다.
그에 반면, 사람의 지성을 담아내기 위해 그 다음 시도로 이루어지고 있는 연구는 바로 AGI입니다. 우리는 공부를 하다보면 한 과목에서 배운 지식이 다른 과목에도 혹은 삶의 곳곳에 연결되거나 활용되는 것을 자주 목격합니다. 마찬가지로 AI 업계에서도 이제는 하나의 지식을 가지고 하나의 목적으로 활용하는 것이 아닌 범용적으로 활용하는 것을 추구하고 있습니다.
범용적으로 활용한다는 의미는 다양한 문맥이나 환경에서 사용 가능하며, 예상하지 못했던 새로운 종류의 문제와 맞딱드려졌을 때 문제도 해결 가능하고, 하나의 문제를 해결하는 과정에서 배웠던 경험과 지식을 활용하여 다른 문제에서도 해결하는 것입니다.
이러한 범용적인 AI를 풀어나가기 위해 보통 강화학습을 활용합니다. 실제로 많은 전문가들이 대규모 AI 언어 모델이 요즘 대세라면, 의사결정을 담당할 강화학습이 다음 대세라고 주목하고 있습니다. 이것이 가능한 이유는 기존 강화학습 모델은 하나의 태스크를 수행하도록 훈련받고 설계 되었기에 다른 게임에 활용할 수 없거나 성능이 크게 낮아져 유연성이 부족하다는 것이 단점이었습니다. 기존 강화학습은 주어진 환경에서 하나의 목표 달성을 위해서 상호작용을 통해 보상받는 시나리오였다면, 최근 DeepMind의 XLand는 개별적인 훈련환경이 아닌 통합된 플랫폼 개발로 이렇게 한번 습득한 지식을 하나 이상의 목표 달성을 위한 시도도 이루어지고 있습니다.
AI의 윤리관
이렇게 감성과 지능을 모두 담아낸 AI가 만들어졌다면 마지막으로 우리가 풀어나가야할 과제는 바로 윤리관이라고 생각합니다.
AI 모델은 수많은 데이터로 학습하게 되는 데 이미 데이터 자체가 편향적이어서 AI가 학습한 데이터도 그러한 편견이 내재된 현실을 반영하고 있습니다. 이미 Microsoft사에서는 편견이 담긴 발언을 한 TAY, Amazon에서는 여성 지원자에게 불이익을 준 입사 시스템, 국내에서는 이루다 사태가 증명하듯 서비스를 사용하기 위해 앞서서 AI 윤리 실현이 필수 조건으로 되고 있습니다.
이러한 윤리관을 풀어내기 위해서도 다양한 시도를 이어나가고 있습니다. 기술이 고도화될수록 내부 구조를 알기 어려워지고 있어 사후 개입보다는 학습단계부터 편향적인 데이터를 걸러 학습시키는 사전 개입으로 진행하는 반면, Facebook의 Blender Bot 2는 공격적 발언 및 정상 발언 분류기를 통해 사전 및 사후 개입으로도 풀어나가려하는 다양한 시도를 진행하고 있습니다.
사람과 같은 AI를 만들어내는 데에는 모두가 납득할만한 수준과 가치를 생성하기 위해 어쩌면 끝없는 우선순위화와 방향의 재해석이 필요할 지도 모릅니다. 인간 수준의 지성과 감성을 보유하며, 다수가 납득할만한 공통된 윤리관을 보유한 AI를 구상하기 위해 사람과 같은 AI를 만들기 이전에 사람 중심의 AI가 만들어질 날을 기대해보며 오늘도 한 발자국 전진해봅니다.