당신이 바위 밑에서 살고 있지 않는 한, 당신은 AI 전문가들이 쏟아내는 경고를 알고 있을 것입니다. 인간이 AI를 완전히 개발하면 스스로를 재설계하고 기하급수적으로 성장할 것이라고 주장했습니다. 우리가 아직 미래에 대해 아무것도 모른다는 사실을 부인할 수는 없지만 지금까지 우리가 설계하고 코딩한 AI는 그렇게 할 만큼 성숙하지 않았습니다. 우리는 그들 스스로 간단한 결정을 내리도록 가르치는 초기 단계에 있습니다.
출처:techemergence.com
그렇게 함으로써 누가 대출을 받거나 자동차를 운전할 수 있는지 판단하거나 다음 증분을 받거나 인간이 하기에는 너무 빠른 관찰을 하는 것과 같은 몇 가지 간단한 작업을 수행하는 데 인간의 개입을 줄일 수 있다고 믿습니다. 그러나 연구원들은 한 가지 질문, 즉 기계에 도덕에 대해 가르쳐야 하는지 여부와 씨름하고 있습니다.
피>
대답하기 어려운 질문인 이유
실제 결정은 프로토타입을 구현하는 것보다 훨씬 더 복잡하기 때문에 결론을 내리는 것은 힘든 작업입니다. 예를 들어, 기계가 전체 시나리오에 대해 알지 못한다면 어떤 상황에서든 공정성에 대해 어떻게 알 수 있을까요? 인간으로서 우리는 상황의 다양한 측면을 살펴본 후 결론을 내릴 수 있는 강력한 힘을 가지고 있지만 기계는 비슷하게 행동하지 않습니다!
출처:datasciencecentral.com
따라서 기술적으로 아직 우리 기계에 인류를 유도하는 것은 불가능합니다! 그 이유는 우리가 결정을 내릴 때 대부분 의존하는 양심과 직감을 유도하는 것과는 거리가 멀기 때문입니다. 예, 이 기계는 포커 게임, 자동화 처리, 유사한 계산 수행에서 우리보다 훨씬 낫지만 사람의 감독이 필요합니다. 현재로서는 인공 지능의 운명을 결정하기 위해 계속되는 끝없는 논쟁입니다. 우리는 싸우는 대신 다음 지침에 집중할 수 있습니다.
피>
윤리적 및 인간적 행동을 명시적으로 정의
제대로 반응하도록 가르치지 않을 때까지 일부 특정 질문에 대해 명시적인 답변을 제공해야 합니다. 그러나 우리는 여전히 우리 자신의 윤리에 대해 확신이 없기 때문에 적절한 패널이 필요합니다. 우리가 서로의 차이점을 제쳐두더라도 합리적이고 널리 받아들일 수 있는 해결책을 도출할 수 없는 많은 것들이 있습니다.
피>
크라우드소싱 인간 도덕성
발생할 수 있는 갈등에 대한 대안을 찾고자 한다면 기계 역시 한 가지에 치우치지 않을 것입니다. 상황에 따라 결정이 변경되어 다시 갈등이 발생할 수 있습니다. 이제 인간이 믿었던 신념에 접근할 수 있다면. 이렇게 하면 상황에서 어떤 결론을 내리기가 더 쉬울 것입니다.
출처:blog.applovin.com
시스템을 보다 투명하게 만들기
현재 시나리오를 보면 이러한 기계의 동작을 안내하는 신경망을 전혀 이해할 수 없습니다. 따라서 엔지니어가 윤리적 가치를 어떻게 가르쳤는지 알면 누가 실수했는지 쉽게 알 수 있고 이해하기 어려운 알고리즘을 비난하지 않습니다. 이는 실수와 경험을 통해 학습하게 되므로 지능형 자율 주행 차량에 매우 유용할 것입니다.
이것은 인간이 윤리적으로 행동하는 기계에 의존하는 것이 더 쉬울 것이기 때문에 권장됩니다. 또한 지침 원칙은 행동 결정을 담당하는 인공 에이전트의 부담을 줄여줍니다. 결과적으로 우리는 기계와 인간이 함께 결정을 내려야 한다면 공유된 도덕적 가치가 합의와 타협을 촉진할 수 있다는 사실을 무시할 수 없습니다.
이를 더 잘 이해하기 위해 예를 들어 보겠습니다. 전문가 그룹이 결정을 내리는 데 어려움을 겪고 있는 수술실을 시각화합니다. 이제 그들을 도울 기계가 있다고 상상해보십시오. 글쎄, 기본적으로 우리는 그렇게함으로써 더 강력해질 것입니다! 이제 우리는 이런 일이 일어나기를 기다릴 수 없습니다!
어떻게 생각해? 아래 섹션에 의견을 남겨주시고 저희에게 알려주십시오!