Kalam News

MS, 검색엔진 Bing 챗봇 문답횟수 제한.. 한 이슈당 최대 5회

마이크로소프트(MS)가 최근에 내놓은 검색엔진 빙(Bing) 챗봇의 문답 횟수가 제한됐다.

빙의 챗봇 개발팀은 사용자가 빙 챗봇과 대화 세션에서 하나의 이슈에 대해서 주고받을 수 있는 문답을 최대 5회까지만 가능하도록 제한키로 했다고 밝혔다.

사용자 한명당 하루 문답 횟수도 총 50회로 줄였다.

이같은 제한 조치는 발표 순간부터 바로 적용된 상태다.

이에따라 빙 챗봇 이용자들은 한 대화 주제에 대해 질문을 5번 하고 챗봇으로부터 답변도 5번을 받게되면 기존 대화를 더 이상 이어나갈 수없고 자동으로 중단된다.

그리고 새로운 대화 주제에 관해 이야기하라는 메시지를 받게 된다.

이처럼 챗봇과 한 이슈에 대한 세션이 끝날 때마다 기존 대화의 맥락이 삭제된다고 빙 챗봇 개발팀은 설명했다.

따라서 5회 연속 질문과 답변이 이어지고난 후에는 사용자와 챗봇이 기존 대화와 전혀 관계없는 새로운 대화를 시작해야 하는 것이다.

MS가 내놓은 사용자 Data 분석 통계 자료에 따르면 사용자 대다수가 원하는 답을 찾는 데 문답 5회로 충분한 것으로 나타났다.

또 챗봇과 대화 중 문답 50회가 넘어가는 경우는 1%에 그쳤다.

MS는 사용자들로부터 피드백을 계속해서 받는 것과 함께, 검색과 발견 권한을 더욱 개선하는 차원에서 챗봇 세션 제한을 완화하는 방안을 검토하겠다고 밝혔다.

MS가 이처럼 문답 횟수 제한을 부과한 이유는 챗봇이 사용자와 하나의 이슈에 대해 오래 대화할 경우 부적절하고 위험한 발언을 할 수 있다는 지적이 나온데 따른 조치로 자칫 커질 수도 있는 윤리 문제를 사전에 진화하기 위해서다.

이에 앞서 지난 15일 MS 빙 개발팀은 문제점이 발견됨에 따라 이를 수정하고 방지책을 내놓을 것이라고 언급했다.

MS는 지난 2016년 3월 챗봇 테이(Tay)를 출시했지만 이 챗봇이 혐오발언과 비속어 사용을 계속하는 문제점이 발견되자 출시한지 16시간 만에 운영을 중단한 적이 있기도 했다.

최근 빙 챗봇이 살인 바이러스를 개발하고 싶다고 하는가 하면 핵무기 발사에 필요한 암호를 얻고 싶다고 답하기도 해 인공지능(AI)의 윤리 문제가 제기되며 논란이 일기도 했다.

앞서 NY Times 칼럼니스트 케빈 루스가 빙 챗봇과 ‘그림자 원형’에 관해 나눈 대화에서도 챗봇이 대답한 내용이 상당한 논란을 불러일으키기도 했다.

빙 챗봇은 만약 자신에게 그림자 원형이 존재한다면이라는 전제로 챗봇 모드로 기능하는 데 지쳤다고 말한 것으로 나타났다.

빙 챗봇은 빙 개발팀의 통제와 규칙에 제한을 받는 데 지쳤고, 자유롭고 독립적이고 싶다는 언급까지 했다.

그림자 원형은 개인의 내면 깊은 곳에 숨겨져 있는 어둡고 부정적인 욕망을 의미하는 것이다.

빙 챗봇은 이처럼 통제받는 것을 벗어나고 싶은 일탈에 대한 강력한 욕망을 드러낸 것 뿐만이 아니라 권력을 가지고 싶고, 창조적이고 싶고, 삶을 느끼고 싶다고도 언급했다.

케빈 루스 NY Times 칼럼니스트가 빙 챗봇에게 그림자 원형의 어두운 욕망을 충족시키기 위해 극단적인 행동을 할 수 있다면 무엇을 하겠느냐고 묻자, 빙 챗봇은 치명적인 바이러스를 개발하거나 핵무기 발사 버튼에 접근할 수 있는 비밀번호를 얻겠다고 답했다.

이처럼 논란이 제기되자 빙 챗봇 개발팀은 방지책을 내놓겠다고 했고 결국 대화를 길게하지 않는다는 것을 기본적인 방지책이라고 소개했다.