인공 지능은 모든 분야를 변화시키고 있으며, 환자의 질병, 다음에 범죄가 보고될 영역 등을 알아내는 데 활용할 수 있는 것을 예측하고 있습니다! 게다가 전문가들은 AI가 예상치 못한 결과에 대비할 수 있도록 창의적으로 만들기 위해 노력하고 있습니다. 우리는 삶의 여러 가지 결정에 예측이 필요하다는 사실을 부인할 수 없으며, AI는 확실히 인간보다 예측을 더 잘합니다. 이를 인정하면서도 우리가 개발한 기계와 기술에 대한 자신감이 여전히 부족한 이유는 무엇입니까? 대다수의 인구는 전문가가 기계만큼 정확하지 않더라도 지능형 기계나 챗봇보다 전문가와 상담하는 것이 더 낫다고 생각합니다! AI를 신뢰하지 않고 AI가 우리의 생존을 돕는 세상을 꿈꿀 수는 없겠죠? 그러므로 우리가 이것을 이용하려면 사람들이 그들을 믿게 만드는 방법을 찾아야 합니다. 그런데 왜 우리는 그것들을 의심합니까?
또한 읽기:우리는 인공 정보가 우리에게 거짓말을 할까요 아니면 불복종할까요? 피>
신뢰 문제의 표시된 출처는 무엇입니까?
우리가 의심하기 시작하지 않았다면 지금까지 AI에 둘러싸여 있었을 것이기 때문에 이것은 중요한 질문입니다! 이 모든 것은 암 환자를 치료하는 의사를 돕기 위해 고안된 Watson Oncology를 홍보하려는 IBM의 시도에서 시작되었습니다. AI는 전 세계 암 환자의 약 80%를 차지하는 12종의 암 치료에 대해 신뢰할 수 있는 추천을 제공하겠다고 약속했다. 하지만 실패했습니다! 그 이유는 그들이 몇 가지 문제에 대한 해결책을 찾기 위해 Watson Oncology와 상호작용했을 때 그들의 제안과 일치했기 때문입니다.
이것은 두 가지로 이어집니다. 의사들은 그들의 방법이 정확하다는 확신을 갖게 되었고 의사와 모순되더라도 Watson이 충분히 유능하지 않다는 결론을 내렸습니다! 더군다나 제안한 방법이 의사가 하는 방법보다 나은 이유를 묻자 만족스러운 답을 내놓지 못했다. 그 이유는 인간이 이해하기에는 너무 복잡하고 비효율적인 알고리즘 때문이었습니다. 그래서 그것이 요점을 설명하고 증명하려고 해도 의사들은 이해할 수 없었다. 결국, 더 많은 의심이 생기기 시작했습니다! 그로부터 얼마 지나지 않아 IBM Watson의 최고의 의료 파트너인 MD Anderson Cancer Center는 프로그램을 중단하고 원래 방법으로 돌아갔습니다.
AI는 새롭지 만 많은 양의 데이터에서 잠재적으로 숨겨진 패턴을 식별하는 복잡한 분석 시스템을 사용하여 의사 결정을 내립니다. 그리고 아무리 설명을 해도 어떻게 같은 것을 추론했는지 이해하기가 너무 어렵다. 많은 전문가들은 AI가 보이지 않기 때문에 AI가 실제로 작동하는지 의심스럽다고 주장했습니다! 믿기 어렵습니다! 구글의 알고리즘이 유색인종을 고릴라로 분류한 경우나 마이크로소프트의 챗봇 테이가 하루 동안 인종차별주의자가 되기로 결정한 경우, 테슬라의 자동 조종 모드 자동차가 치명적인 사고를 일으킨 경우 등은 사람들의 의구심을 불러일으키는 데 기여했습니다. 결국 AI를 설계하고 코딩한 사람들도 완벽하지 않기 때문에 AI가 완벽하지 않다는 결론을 내릴 수 있습니다!
어쨌든 이 믿음에서 벗어난 것이 있습니까?
AI에 대한 불신은 사회를 분열시키는 가장 큰 요인이 될 수 있다. 따라서 AI가 그 잠재력을 최대한 발휘해야 한다면 특히 AI가 우리에게 익숙한 것과 다른 추천을 제시하는 경우 사람들이 AI를 신뢰할 수 있는 방법을 찾아야 합니다. 다행스럽게도 우리는 많이 뒤처지지 않고 AI에 대한 신뢰를 향상시키는 방법에 대한 몇 가지 아이디어를 가지고 있으며 아마도 터널 끝에 빛이 있을 것입니다. 이에 대해 자세히 논의해 보겠습니다.
경험 :하나의 솔루션은 일상적인 상황에서 자동화 앱을 더 많이 탐색할 수 있습니다. 이전 경험(기억하기에 충분히 즐거운)이 그것에 대한 사람들의 태도를 개선할 수 있다는 것이 밝혀졌습니다. 이것은 기술에 정통하지 않고 기술에 대한 정교한 이해가 없기 때문에 대중에게 특히 중요합니다. 또한 기술을 자주 사용하는 경우에만 기술을 신뢰할 수 있습니다! 예를 들어, 우리는 인터넷을 충분히 사용했기 때문에 인터넷을 신뢰합니다. 이전에는 인터넷도 의심스러웠습니다!
투명성 도입 :어떤 것이 의심되는 또 다른 이유는 사람들이 그것에 대해 많이 알지 못하기 때문입니다. 일단 그것에 대해 알게 되면 그들은 이전처럼 두렵거나 의심하지 않습니다! 따라서 기업이 투명성 보고서를 자주 공개하도록 해야 합니다. 구글, 에어비앤비, 트위터 등의 기업들은 이미 하고 있습니다! 유사한 관행은 알고리즘이 결정을 내리는 방법을 더 잘 이해하는 데 도움이 될 수 있습니다.
참고: 인공 지능이 소셜 미디어 마케팅을 변화시키는 방법 피>
제어하기 :전문가들은 협업적인 의사 결정 프로세스를 만드는 것이 신뢰 구축에 기여할 것이라고 전했습니다. 또한 기계가 스스로 학습하도록 만드는 데 도움이 됩니다. 모두가 생각하는 것과는 달리 AI 의사 결정 프로세스에 사람을 더 많이 참여시키면 실제로 신뢰와 투명성이 향상됩니다.
이것들은 기계가 더 많은 신뢰를 얻는 데 도움이 될 수 있는 몇 가지 사항이었습니다. 전문가를 제외하고는 AI가 어떻게 작동하는지에 대해 배우는 데 관심이 있는 사람은 없습니다. 작동 방식에 대해 조금이라도 알더라도 AI를 더 환영할 것입니다. 이에 대해 어떻게 생각하십니까?