[服务开发团队,Hyun-Jun Han]
챗봇의 고민
OpenAI의 GPT-3, Google의 Meena, Facebook의 Blender 등 대형 자연어 처리 AI 모델은 인간의 언어를 실제 사람과 구별하기 힘들 정도로 모방했습니다. 그 기반엔 대형 웹사이트를 크롤링한 방대한 양의 언어 데이터들을 학습했기 때문입니다. 하지만 이러한 방식 때문에 많은 문제점이 발생합니다. 데이터에 무분별하게 섞여 있는 혐오적인 발언도 함께 학습되었기 때문입니다.
국내에서는 ScatterLab의 인공지능 챗봇 ‘이루다’도 이러한 문제들을 벗어나기 힘들었습니다. 혐오 발언으로부터 자유로운 데이터를 구하기 힘든 챗봇의 환경에 의해 태생적으로 직면할 수 밖에 없는 문제이기도 합니다. 이러한 챗봇들의 고민을 소개해 보고자 합니다.
문제의 원인
대형 언어 모델이 등장하기 전, 대부분의 챗봇은 룰베이스 모델을 기반으로 했습니다. 사용자가 입력한 텍스트의 답변을 인간이 직접 코딩한 규칙에 따라 생성 됐고, 챗봇의 결과물 또한 비교적 제어하기 쉬웠습니다. 그러나 현재는 신경망 기반의 여러 대형 언어 모델이 등장하였고, 그에 따라 인간과 유사하게 말할 정도로 많은 발전을 이루었지만 혐오적 표현, 성적 표현 등에 관한 문제점도 야기되었습니다.
이러한 문제가 발생된 첫 번째 원인은 정제되지 않은 데이터에서 비롯됩니다. 신경망 기반의 모델은 많은 데이터를 필요로 하게 되는데, 이러한 데이터들을 제공할 수 있는 온라인 환경은 레딧이나 트위터, 국내에선 네이버 뉴스, 디시인사이드와 같은 대형 커뮤니티 서비스 밖에 없기 때문입니다. 하지만 방대한 데이터들을 하나하나 인간이 파악하여 문제가 있는 데이터를 정제하기란 쉽지 않습니다.
두 번째 원인은 혐오 표현의 인정 범위입니다. 특정 집단, 종교, 성별, 인종, 국가 등 각기 저마다 혐오의 기준들이 다릅니다. 또한 시간이 지남에 따라 시대적 상황이 고려되어 기준은 보다 더 달라지게 됩니다. 모든 것들을 혐오적 표현이라 인정하고 챗봇의 기준을 엄격하게 올려야 할까요? 또한 이러한 점을 다 반영하는 것도 문제지만 이렇게 엄격하게 학습을 한다 해도 혐오 표현을 변형하여 사용한다면 그것을 처리하기 위한 시간과 비용이 더욱 필요하게 될 것입니다.
보완 방안
생성된 결과물에서 혐오 발언 삭제
음성에서 “삐-“처리 하듯이 챗봇의 생성물이 혐오 발언을 포함하고 있다면 해당 문구를 삭제하거나 경고 문구와 함께 전달을 하지 않는 방법이 있습니다. 다만 이러한 방법은 별도로 필터링 하는 기능이기 때문에 필터를 항상 동작 시켜야 하며 별도의 시스템 자원을 요구하게 됩니다. 또한 모델에 영향을 주는 것이 아니기 때문에 결과물 생성에 대한 성향을 변경 시키지 않습니다.
학습 데이터에서 혐오 발언 삭제
학습 데이터에서 혐오성 발언을 포함하거나 민감한 주제에 대한 데이터를 삭제 시키는 방법입니다. 하지만 이러한 방법은 나쁜 데이터를 포함한 좋은 데이터 또한 삭제 시킬 수 있기 때문에 좋은 방법은 아닙니다. 또한 챗봇은 공감하는 표현을 하기 위해 사용자가 입력한 데이터를 반복하기도 하기 때문에 혐오 표현을 원천적으로 막을 수 있는 방법도 아닙니다.
혐오적 발언 주제를 다른 주제로 전환
혐오적 발언이 나올 경우 챗봇은 다른 주제로 전환을 유도하도록 학습하는 방식입니다. 가장 이상적이긴 하지만 언어는 문맥에 따라 의미가 달라지고 문화에 따라 해석도 달라지기 때문에 가장 어려운 방식이기도 합니다. 또한 범용적인 챗봇을 만들기 위해 사용자의 여러 환경과 정확한 문맥 파악 하는 것을 고려해야 하는 또 다른 차원의 문제를 고민해야 할 수 있습니다.
여전히 남아있는 문제들..
흔히 “바보한테 바보라고 하면 욕이다” 라는 말이 있습니다. 친구나 연인에게 바보라 하면 장난 섞인 말이 되겠지만 제 3자에겐 욕이 될 수도 있습니다. 궁극적으로 챗봇이 사용자의 문화와 인간 관계에 대한 이해가 되어 있지 않다면 여전히 혐오적 표현 뿐만 아니라 다른 문제에 있어서도 자유로울 수 없을 것입니다.
参考
https://ettrends.etri.re.kr/ettrends/189/0905189010/093-101_%EC%B5%9C%EC%83%88%EC%86%94.pdf
https://www.technologyreview.kr/chatbot-gpt3-openai-facebook-google-safety-fix-racist-sexist-language-ai/