Computer >> 컴퓨터 >  >> 체계 >> Windows

안면 인식 기술의 인종 프로파일링:안면 인식이 인종 차별적일 수 있습니까?

얼굴 인식 기술과 그 능력은 법 집행에서 이 기술을 강화하는 새로운 알고리즘이 눈에 띄게 된 이후로 우리의 상상을 훨씬 뛰어넘었습니다. 현재 얼굴 인식 기술은 붐비는 모임에서 범죄자를 식별하기 위해 가장 낮은 수준의 데이터 수집 프로세스에서 법 집행 기관에 의해 사용됩니다. 이 기술은 공공 장소와 거리에서 CCTV 카메라의 영상을 사용하고 수집된 데이터를 기관 기록 보관소에서 실행하여 범죄 수배 대상 얼굴을 감지합니다.

이 기술은 휴대폰 및 스마트 웨어러블 장치를 포함하여 가장 작은 장치에 추가로 내장되었습니다. 따라서 거리에서 당신을 보호할 뿐만 아니라 스마트 기기에 저장된 개인 정보를 보호하기 위한 것입니다. 마케팅 및 광고 관행에 "페이스프린트"를 사용하는 것은 소셜 미디어 캠페인의 현대 시대에 보편화되었습니다. 그리고 쇼핑몰, 소매점 등에는 개인 감시가 있습니다.

이러한 관점에서 얼굴 인식 기술의 부인할 수 없는 이점을 빠르게 지적할 수 있습니다. 그러나 사용자 개인 정보 보호, 데이터 보호, 그리고 물론 법과 대중 사이의 투명성에 대한 위협에 대해서도 면밀히 조사되었습니다. 이러한 침입 기술의 장단점을 모두 알고 있는 것은 좋은 일입니다. 그러나 사람들이 무시하는 것처럼 보이는 안면 인식 기술의 단점이 하나 더 있는데, 그것은 인종 프로파일링 및 인종 차별입니다. .

이 기사에서는 이 기술이 어떻게 인종적 편견과 차별을 조장하는지, 그리고 이러한 침입 기술의 영향이 얼마나 심각한지 살펴봅니다.

안면 인식은 어떻게 작동하나요?

안면 인식 기술의 인종 프로파일링:안면 인식이 인종 차별적일 수 있습니까?

1단계: 귀하의 사진은 카메라, 귀하의 계정, 이메일 등에서 촬영한 것입니다. 일반 프로필 사진이거나 군중 속에서 임의의 스냅 사진입니다.

2단계: 얼굴 인식 소프트웨어는 저장된 얼굴 지문 데이터베이스를 통해 얼굴을 실행합니다. 페이스프린트는 얼굴의 기하학적 추적을 통해 수집됩니다.

3단계: 알려진 얼굴 지문에 대한 사진의 일치 비율은 결정이 내려지는 알고리즘을 사용하여 생성됩니다.

자동 편향:안면 인식 기술의 많은 결함 중 하나

자동화 바이어스 또는 기계 바이어스는 기계 알고리즘이 입력 데이터의 보정에서 특정 바이어스를 나타내어 바람직하지 않은 출력을 제공하는 시나리오를 나타냅니다. 이는 알고리즘 코드에 오류가 있거나, 보정을 위해 저장된 데이터 세트가 부족하거나, 잘못된 입력 값이 있거나, 기계의 보정 능력을 초과하는 과도한 입력 데이터가 있을 때 발생합니다.

인종 프로파일링은 어떻게 진행되나요?

안면 인식 기술의 인종 프로파일링:안면 인식이 인종 차별적일 수 있습니까?

당시에는 대수롭지 않게 여겼던 고대 사건부터 시작하겠습니다. 2001년 탬파 시는 2001년 슈퍼볼로 인해 관광객들이 도시 거리로 넘쳐나면서 붐비는 도시를 감시하기 위해 안면 인식 소프트웨어를 사용했습니다. New York Times 보고서에 따르면 소프트웨어는 미결 영장이 있는 것으로 추정되는 19명을 식별했습니다. 그러나 경기장의 인프라로 인해 압도적인 군중 사이에서 확인된 범인에게 접근하는 것이 불가능했기 때문에 체포되지 않았습니다.

이 특정 사례에서는 인종 프로파일링의 징후가 보이지 않았지만, 개인의 자유와 사생활 침해에 대한 감시 기술이 적용된 것은 이번이 처음입니다. 향후 몇 년 동안 탬파 경찰은 신뢰할 수 없는 결과를 이유로 이러한 감시 시스템을 포기했습니다.

안면 인식 기술의 인종 프로파일링:안면 인식이 인종 차별적일 수 있습니까?

좀 더 최근의 시나리오로 빠르게 이동하여 Ali Breland는 주로 유색 인종이 거주하는 브렌트우드 지역에서 악명 높은 마약상으로 기소된 흑인 남성 윌리 린치의 체포에 관해 가디언에 보도했습니다. Lynch에 대한 유일한 증거는 경찰이 그를 범인으로 결정하기 전에 경찰 데이터베이스에 대해 실행된 모바일에 있는 그의 사진이었습니다. Lynch는 8년형을 선고받았고, 린치는 현재 유죄 판결에 항소했습니다. 그가 의심되는 딜러였든 아니든 기계 기반 결과만이 수사 대상자의 유죄 판결을 뒷받침하기에 충분한지에 대한 우려를 불러일으킬 수 밖에 없습니까?

2019년 The Guardian의 Tom Perkins가 보고한 바와 같이 디트로이트 경찰은 지난 2년 동안 안면 인식을 사용하여 체포한 것으로 알려졌습니다. 디트로이트는 인구의 80% 이상이 흑인인 곳입니다. 디트로이트 경찰 위원회의 한 흑인 위원의 성명은 이러한 관행에 대한 우려를 제기했습니다. 그는 흑인들이 시스템의 알고리즘을 위태롭게 하는 공통적인 얼굴 특징을 가지고 있으며 이를 "기술적 인종차별"이라고 말했습니다.

안면 인식 기술의 인종 프로파일링:안면 인식이 인종 차별적일 수 있습니까?

Fabio Bacchini와 Ludovica Lorusso가 Journal of Information Communication and Ethics Society에 발표한 2019년 연구에서 이러한 생체 인식 및 얼굴 인식 시스템이 법 집행 기관에서 100% 신뢰할 수 없다는 사실이 밝혀졌습니다. 더욱이 인종 차별은 이러한 모든 시스템에 부정적인 영향을 미쳤으며 이는 사회적으로 역효과를 가져왔습니다. 이 연구는 특히 이러한 시스템이 감시에 광범위하게 사용되는 서구 사회를 대상으로 했습니다.

이것은 안면 인식 시스템으로 인한 인종 차별이 드러난 많은 사례 중 세 가지에 불과합니다. 그러나 기술에서 알고리즘 코딩 업그레이드의 정확성이 증가함에도 불구하고 이러한 시스템이 왜 그렇게 무능한 것입니까?

서부 주의 백인 우월주의:백인이 지배하는 기술 산업

안면 인식 기술의 인종 프로파일링:안면 인식이 인종 차별적일 수 있습니까?

2014년에 거대한 Apple Inc.를 포함한 대부분의 기술 회사는 대부분 백인 남성 직원을 고용하고 있는 것으로 나타났습니다. Apple에서는 직원의 55%가 백인이었고 마찬가지로 Apple 리더십도 백인 직원의 63%를 구성했습니다. 유사한 다양성 보고서를 공유한 회사에는 Facebook, Google 및 Twitter도 포함되었습니다. 5년 후 Wired의 보고서에 따르면 이러한 수치는 거의 개선되지 않았습니다.

페이스북은 상당한 양의 개선을 보였지만 애플의 흑인 기술직 비율은 전체 인력의 6%에 불과했다. Amazon은 미국 사무실에 42%의 흑인 또는 라틴 아메리카 근로자를 등록한 유일한 조직이었습니다.

이 통계는 무엇을 의미합니까? 미국에서는 감시 시스템용 알고리즘 설계와 같은 주요 프로젝트에 배정된 대부분의 코더가 백인이다. 이들은 회사에서 출시/공개할 제품이나 서비스와 관련하여 가장 중요한 결정을 내리는 사람들입니다. 따라서 최종 창작물에 들어가는 것은 그들의 관점, 접근 방식 및 사고 과정입니다. 이는 백인이 인종차별주의자이며 의도적으로 그러한 감시 시스템을 설계했다는 의미가 아닙니다. 안돼!

안면 인식 기술의 인종 프로파일링:안면 인식이 인종 차별적일 수 있습니까?

백인이 얼굴 인식 알고리즘을 설계하고 백인 동료만 상담/지원할 때 코드를 완성하기 전에 다른 피부색의 얼굴 특징을 고려하지 않습니다. 백인 엔지니어가 기술 산업을 지배하기 때문에 초기 코드를 준비하는 데 사용되는 데이터 아카이브도 백인 기술자가 만들고 보정합니다. 따라서 코드 자체는 핵심 계산 알고리즘에 편향되어 생성되어 감시 결과에서 이러한 인종적 차이를 초래합니다.

코드는 단순히 백인들이 구현하는 것을 학습합니다. 다른 피부색을 가진 사람의 관점이나 기여는 없습니다.

보정 문제

미국 법 집행 기관은 감시 및 데이터 추적에 크게 의존합니다. 내부 고발자가 민간인에 대한 무단 감시에 관한 정보를 축출하는 경우가 많이 있습니다. NSA의 불법 감시에 대한 Edward Snowden의 폭로가 그러한 예 중 하나입니다.

안면 인식 기술의 인종 프로파일링:안면 인식이 인종 차별적일 수 있습니까?

이러한 감시 프로그램은 수백만 시민의 얼굴 지문 및 기타 개인 정보에 의해 지원됩니다. 얼굴 지문만 고려한다면 소셜 미디어 플랫폼에서 공개적으로 사진을 공유하는 수백만 명의 미국인이 있습니다. 그리고 수십만 행인의 실시간 영상을 제공하는 전국의 모든 거리에는 CCTV 카메라가 있습니다. 현재 경찰 데이터베이스에는 약 1억 1,700만 개의 이미지가 있으며 FBI는 감시 안면 인식 알고리즘에서 보정할 데이터 세트가 4억 개 이상 있습니다.

이제 이러한 데이터 세트를 특정 사람의 모든 얼굴 특성을 캡처했거나 캡처하지 않았을 수 있는 단일 이미지와 비교한다고 상상해 보십시오. 이러한 시나리오에서는 오류가 발생할 수 있습니다. 하나의 페이스프린트에 대해 이해하고 실행하기에는 너무 많은 데이터가 있습니다. 교정이 너무 복잡할 때 어떤 알고리즘도 결과에 대해 100% 보증을 보장할 수 없습니다. 이것은 결국 안면 인식 기술로 인한 인종 프로파일링에 추가됩니다.

안면 인식의 엄청난 신뢰성

안면 인식 기술의 인종 프로파일링:안면 인식이 인종 차별적일 수 있습니까?

Willie Lynch의 사례는 얼굴 인식이 법 집행과 관련하여 증거로 제시되는 유일하게 신뢰할 수 있는 기술이 되어서는 안 된다는 사실을 상기시켜 줍니다. 이것이 탬파시 경찰이 기술을 포기한 이유입니다.

얼굴인식이 훌륭한 휴양지이며 경찰에 도움이 되는 것은 사실이다. Boston Marathon Bombings 범인은 감시 기록에 대한 광범위하고 상세한 분석을 사용하여 확인되었습니다. 그러나 이것은 누군가를 유죄 판결하는 유일한 증거가 될 수 없습니다. 안면 인식 알고리즘의 결과를 입증할 뒷받침 증거가 있어야 하며 최종 결정에 도달하기 전에 자동화 편향의 개념을 고려해야 합니다.

하드웨어 문제:모바일 및 카메라의 얼굴 인식

안면 인식 기술의 인종 프로파일링:안면 인식이 인종 차별적일 수 있습니까?

감시 카메라 시스템과 관련 하드웨어 및 소프트웨어는 한 회사에서 설계한 것이 아닙니다. 수십 개의 기업이 법 집행 기관과 계약을 맺기 위해 경쟁하는 수십억 달러 가치의 산업입니다. 이러한 시스템의 대부분은 중국 제조업체에서 제공합니다. 최고의 품질을 갖춘 가장 저렴한 기술을 얻는 것이 전부입니다. 그것이 대부분 작동하는 방식입니다. 따라서 서로 다른 시스템의 보정 차이와 감시 결과의 품질 차이가 항상 있을 수 있습니다. 많은 카메라 감시 알고리즘은 기술적 무능함 때문에 유색인종 이미지를 보정하는 데 비효율적이어서 인종 차별을 미화합니다.

얼굴 인식을 통해 인종 차별을 유발하는 기술 문제는 Apple Face Lock 기능에서도 발견되었습니다. 중국의 한 사례는 iPhone X 얼굴 잠금 장치가 두 명의 중국인 동료를 구별할 수 없어 기능을 쓸모 없게 만들었다고 축출했습니다. 두 명의 흑인을 서로 분리하는 기능의 문제를 언급하면서 유사한 보고서가 기각되었습니다. 위에서 언급했듯이 Apple의 기술 팀에는 흑인이 6%에 불과합니다. 이는 안면 인식 기술이 휴대용 장치에서도 어떻게 인종 차별을 조장할 수 있는지를 보여주는 분명한 예입니다.

결론

예, 안면 인식은 인종 차별적이며 이는 현재 상식입니다. 이러한 문제를 해결하기 위해 기술이 나날이 발전하고 있지만 결과는 모두 같습니다. 기술은 기술 발전과 개발이라는 공통의 목표를 통해 세계를 통합해야 하지만 일부 기술은 인종과 공동체의 조화를 해칠 뿐입니다.

현재 법 집행관이 할 수 있는 최선의 방법은 신뢰할 수 없는 알고리즘 보정의 증거를 기반으로 사건을 지원하지 않는 것입니다. 더욱이 직장 내 다양성과 포용성을 진지하게 받아들여 모든 인종의 사람들이 함께 모여 인종적 격차가 없는 제품을 만들 수 있도록 해야 할 때입니다. 세계에는 수천 개의 인종이 있고 사람들은 오랫동안 글로벌 사회를 괴롭혔던 인종적 차이를 제쳐두고 성장했습니다. 그것이 유지되어야 한다면 우리가 그토록 의존하는 기계도 똑같이 가르쳐야 합니다.