Microsoft는 개발자가 "책임감 있는" 디지털 도우미를 구축하는 데 도움이 되는 일련의 지침을 발표했습니다. 기본 기술의 급속한 발전과 함께 대화형 인터페이스의 채택이 증가하고 있습니다. 그러나 윤리적 문제에 대한 고려는 더딘 속도로 진행되고 있습니다.
마이크로소프트는 이 지침이 개발자들에게 그들의 제품이 항상 예측할 수 없는 방식으로 사용될 수 있음을 상기시키기 위한 것이라고 말했습니다. 윤리적 디자인은 항상 기술 산업과 관련이 있지만 대화형 인터페이스의 경우 특히 중요합니다.
Microsoft는 피자 주문 봇의 예를 사용했습니다. 서비스는 사용자의 방해를 최소화하면서 피자 주문을 용이하게 하도록 설계되어야 합니다. 사용자가 인종, 성별, 종교 또는 정치와 같은 "민감한 주제"에 대해 논의하려고 하는 경우 서비스는 인간 피자 서버와 거의 같은 방식으로 관여하지 않아야 합니다. 그렇지 않으면 봇 알고리즘의 편향으로 인해 고객으로부터 원치 않는 행동을 학습하게 될 수 있습니다.
나머지 지침은 유사한 주제를 따라 계속됩니다. 전반적으로 Microsoft는 개발자가 잠재적인 문제를 염두에 둔다면 봇이 사회에 도움이 될 수 있다고 강조합니다. 조직은 봇 사용에 대해 솔직해야 합니다. 모든 AI 기반 서비스는 편견이 없고 문화적 기준을 존중해야 합니다.
마이크로소프트 대화형 AI 부문 부사장 릴리 쳉(Lili Cheng)은 "일반적으로 가이드라인은 디자인 프로세스 초기부터 책임감 있고 신뢰할 수 있는 대화형 AI 개발을 강조한다"고 말했다. "그들은 회사와 조직이 멈추고 그들의 봇이 어떻게 사용될지에 대해 생각하고 남용을 방지하는 데 필요한 조치를 취하도록 권장합니다. 결국 가이드라인은 모두 신뢰에 관한 것입니다. 사람들이 기술을 신뢰하지 않으면 그들은 그것을 사용하지 않을 것입니다."
Microsoft Research 웹 사이트에서 전체 지침 목록을 찾을 수 있습니다. 엄격한 규칙은 아니지만 봇을 개발할 때 고려해야 할 기본적인 윤리적 기준을 캡슐화합니다. Microsoft는 이번 주 디지털 어시스턴트를 만드는 개발자를 위한 빠른 시작 툴킷을 포함하여 새로운 AI 기술 세트와 함께 지침을 발표했습니다.