인공 지능에 장애가있을 수 있습니까?

작가: Laura McKinney
창조 날짜: 5 4 월 2021
업데이트 날짜: 26 6 월 2024
Anonim
게임하지 마? 게임 인류에 대한 반전! 과연 게임이 가진 힘은 무엇인가? 게임하는 뇌를 탐험하는 시간! 이경민 교수(서울대학교 의과대학/게임과학연구원장) 저서 ’게임하는 뇌’
동영상: 게임하지 마? 게임 인류에 대한 반전! 과연 게임이 가진 힘은 무엇인가? 게임하는 뇌를 탐험하는 시간! 이경민 교수(서울대학교 의과대학/게임과학연구원장) 저서 ’게임하는 뇌’

콘텐츠


테이크 아웃 :

최근 AI는 아름다움 평가에서 재범 위험 평가에 이르기까지 모든 분야에 점점 더 많이 채택되고 적용되고 있습니다. 그렇게하면서 여러 경우에 편견과 차별을지지하는 표준도 고수했다.

기술의 진보는 정보와 기회에 대한 접근을 진정으로 민주화 할 수있는 잠재력을 가지고 있습니다. 그러나 어떤 경우에는 우리 사회에서 어떤 사람들은 다른 사람들보다 평등하다는 생각을 강화하는 방식으로 사용되고 있습니다.

인공 지능 (AI)이 의도적으로 특정 범주를 배제하는 데 사용되거나 인간 프로그래머가 내재 한 편견을 차별적 인 영향으로 반영하는 다음 7 가지 사례에서 우리가 본 것입니다.

AI 뷰티 바이어스

보는 사람의 눈에 아름다움이있을 수 있지만, 주관적인 시각으로 AI를 프로그래밍 할 수 있으면 프로그램에 편견이 생깁니다. Rachel Thomas는 2016 년 beauty.ai와의 미인 대회에서 그러한 에피소드 중 하나에 대해보고했습니다. 결과는 더 밝은 안색이 어두운 것보다 더 매력적인 것으로 나타났습니다.

이듬해“신경망을 사용하여 사진 용 필터를 만드는 FaceApp은 사람들의 피부를 밝게하고 더 많은 유럽 기능을 제공하는 '고온 필터'를 만들었습니다.”

언어의 젠더 바이어스

토마스는 또한 정형화 된 경력에 대한 기대를 뛰어 넘는 문서화 된 번역 사례를 인용합니다. 시작점은 "그녀는 의사입니다. 그는 간호사입니다."라는 두 문장으로 시작합니다.

그런 다음 터키어로 번역하고 영어로 다시 번역하면 전화 게임에서 기대할 수있는 결과를 얻을 수 있습니다.

당신이 처음 시작한 것을 얻는 대신에, 1950 년대 "그는 의사입니다. 그녀는 간호사입니다." 그녀는 터키 언어의 성 중립 단수 대명사로 인해 기대와 틀에 박힌 편견을 기반으로 성별을 지정한다고 설명합니다. (AI의 여성 읽기 : 기술로 성 차별주의와 고정 관념 강화하기)


이미지와 언어로 필터링하는 인종 및 성별 편견이 욕설의 원인이기는하지만 AI로 인한 능동적 차별과 같은 것은 아니지만 그 일이 일어났습니다.

그 증거는 아프리카 계 미국인, 아시아계 미국인 또는 히스패닉과 같은 카테고리의 제외를 확인하여 잠재 고객을 좁힐 수있는 옵션을 허용하는 주택 카테고리 아래 광고에 대한 제한에 대한 스크린 샷입니다. 광고는 여기에서 볼 수 있습니다.

ProPublica가 지적한 바와 같이, 그러한 광고의 차별적 영향은 1968 년 공정 주택법과 1964 년 민권법에 의해 모두 불법입니다.이 경우 광고의 유일한 방어책은 광고 자체가 주택 자체가 아니라는 것입니다. ' 판매 또는 임대 할 부동산이나 주택에 관한 정보.

그러나 인종 편견을 나타내며 다양한 단체가 소셜 네트워크에 민사 소송을 제기하도록 동기를 부여한 다른 타겟팅 사례가 있습니다. Wired가보고 한 바와 같이, 2019 년 3 월 광고를 통해 소수의 사람들을 차별 할 수있는 5 건의 법적 소송으로 인해 광고 타겟팅 기술을 조정하기로 결정했습니다.

ACLU는 합의에 관한 보고서에서 소수의 여성과 여성이 백인 남성과 공유하는 정보, 주택 및 직업 기회에 동일한 액세스 권한을 부여받지 못했음을 알기 때문에 이러한 표적 광고가 얼마나 교활한 지 지적했습니다.

더 많은 사람들이 일자리, 아파트 및 대출을 찾기 위해 인터넷을 사용함에 따라 광고 타겟팅이 사회의 기존 인종 및 성 편견을 복제하고 악화시킬 위험이 있습니다. 고용주가 엔지니어링 작업을위한 광고를 남성에게만 게재하기로 선택한다고 상상해보십시오. 남성으로 식별되지 않은 사용자는 해당 광고를 볼 수 없을뿐만 아니라 자신이 놓친 내용을 절대 알지 못할 것입니다.

결국 온라인에서 보이지 않는 광고를 식별 할 수있는 방법은 거의 없습니다. 이 차별은 제외 된 사용자에게는 보이지 않으므로 중지하기가 더 어렵습니다.

2. 직업의 성별 및 연령 차별


법적인 사건 중에는 타겟팅이 허용 된 주택에서의 불법 차별이있었습니다. ProPublica는 합의에 관한 보고서에서 플랫폼을 테스트하고“아프리카 계 미국인 및 유태인과 같은 제외 그룹에 대한 주택 관련 광고를 구매하는 데 성공했으며 이전에는 회사의 연령 및 성별 별 사용자를 제외한 작업 광고를 발견했습니다. 그것이 세대 이름입니다.”

사용자가 특정 광고를 게재 한 이유에 대한 답변을 클릭하여 다른 유선 기사에 게재 된 답변을 클릭 할 수 있기 때문에 ACLU가 특정 연령대의 남성만을 대상으로하는 많은 구인 광고가 발견되었습니다. ACLU는 소셜 네트워크 및 노동법과 민권법을 모두 위반하는 근거로 광고를 게재 한 회사에 대해 고용 평등 기회위원회 (Equal Equalment Opportunity Commission)를 담당했습니다.

40 세 이상의 사람들을 고용하는 것에 대한 차별은 연방 고용 차별 법 (ADEA)에 위배됩니다. 그러나이 연령 미만의 사람들에게만 구인 광고를 타겟팅하는 것은 플랫폼에서 지원하는 것 중 하나입니다.

프로 퍼블 리카는 보고서 중 하나에 초점을 맞춰 어떤 구직 광고가 연령별로이 불법 배제 형태를 활용했는지를 밝혔습니다. "가구 이름"에는 Verizon, UPS, Uber, Target, Statefarm, Northwestern Mutual, Microsoft, J Street, HusbSpot, IKEA, 공익 기금, Goldman Sach, OpenWorks 등이 포함됩니다.

안면 인식 실패

"백인 인 경우 안면 인식이 정확하다"는 2018 년 2 월에 출판 된 뉴욕 타임즈 기사의 헤드 라인을 선언했습니다. 피부색과 잘못된 식별간에 뚜렷한 상관 관계가있는 결과를 인용했습니다.

"피부가 어두울수록 피부색이 어두운 여성의 이미지에 대해 거의 35 %까지 더 많은 오류가 발생합니다. 새로운 연구에 따르면이 기술이 다른 인종과 성별의 사람들에게 어떻게 작동하는지 측정함으로써 새로운 지평을 열었습니다."

이번 조사 결과는 MIT 미디어 연구소의 연구원이자 AJL (Algorithmic Justice League)의 창립자 인 Joy Buolamwini에게 입금되었습니다. 그녀의 연구 영역은 AI의 기초가되는 편견이며, 모델에 설정된 백인 남성 기준에 맞지 않는 얼굴을 인식 할 때 왜곡 된 결과를 초래합니다.

Buolamwini는 2017 TED 강연에서 얼굴 인식에 대한 인종 및 성별 편견 문제를 제시했으며, 2018 년 초 MIT 연구소의 젠더 쉐이드 프로젝트 비디오에서 언급했습니다.

<

비디오에 대한 설명에서 AI 바이어스를 체크하지 않으면 "자동화의 시대를 무너 뜨리고 부패 할 경우 불평등을 더욱 악화시킬 것"이라고한다. 위험은 "기계 중립의 잘못된 가정 하에서 민권 운동과 여성 운동으로 얻은 이익을 잃는 것"에 지나지 않는다.

비디오 설명은 AI의 여성 : 기술로 성 차별주의와 고정 관념 강화 : "자동화 된 시스템은 본질적으로 중립적이지 않으며, 우선 순위, 선호 사항 및 편견 (코드화 된 코드)을 보여 주듯이 많은 다른 사람들이 지적한 경고를 추가합니다. 인공 지능을 만들 힘이있는 사람들의 시선. "

2019 년 1 월 25 일 Buolamnwini는 자신의 연구와 AI의 결함으로 인해 Amazon Rekognition에서 오류가 발생하는 방법을 지적한 추가 연구원의 게시물을 게시하여 회사가 경찰서에 AI 서비스 판매를 중단하도록 요구했습니다.

Rekognition은 밝은 피부의 남성을 인식 할 때 100 % 정확도를, 어두운 남성의 경우에도 98.7 % 정확도를 자랑 할 수 있지만, 여성의 경우 정확도는 92.9 %로 떨어졌습니다. 어두운 여성에게는 정확도가 68.6 %로 급격히 떨어졌습니다.

그러나 아마존은 포기하지 않았다. 벤처 비트 (Aventure Beat) 기사는 AWS의 딥 러닝 및 AI 총괄 책임자 인 매트 우드 (Mr. Wood Wood) 박사의 진술을 인용했으며, 연구원의 연구 결과는 AI가 실제로 어떻게 사용되는지 반영하지 않았다고 주장했다.

“얼굴 분석과 얼굴 인식은 기본 기술과이를 훈련시키는 데 사용되는 데이터가 완전히 다릅니다. 안면 분석의 정확도를 측정하기 위해 안면 분석을 시도하는 것은 그 목적을위한 의도 된 알고리즘이 아니기 때문에 바람직하지 않습니다.”

그러나 알고리즘이 매우 문제가되는 것은 주요 연구 센터와 제휴 한 사람들 만이 아닙니다. 기즈모도 보고서에 따르면 ACLU는 12.33 달러의 가장 합리적인 비용으로 자체 테스트를 실시했다. Rekognition은 28 명의 의회 회원과 범죄자의 사진을 일치 시켰습니다.

"캘리포니아 북부 ACLU가 공개적으로 사용할 수있는 25,000 장의 머그 샷 사진과 의회의 535 명의 모든 회원 사진을 일치 시켜서 Rekognition에 임무를 부여했을 때 잘못된 사실이 밝혀졌습니다."

28 명 중 11 명은 유색 인종 이었으므로 39 %의 오류율을 나타 냈습니다. 반대로 오류율 전체는 5 %가 더 수용 가능했습니다. 머그 샷과 관련된 승인자 중 한 명인 의회 블랙 코커스의 6 명은 아마존 CEO에게 공개 서한으로 우려를 표명했습니다.

이분법 적 편견

인공 지능에 포함 된 사람들의 편견은 단순히 오류를 식별하는 것 이상을 의미 할 때 더욱 심각한 문제가됩니다. 2016 년에 또 다른 ProPublica 조사 결과가 나왔습니다. 이러한 편견의 결과는 알고리즘에 의해 피부색이 선호되는 사람의 실제 위험을 무시하고 개인의 자유에 지나지 않습니다.

이 기사는 하얀 가해자 하나와 검은 자 하나가 관련된 두 개의 병행 사례를 언급했다. 어떤 알고리즘이 법을 다시 어길 것인지 예측하는 알고리즘이 사용되었습니다. 검은 색은 위험도가 높고 흰색은 낮은 위험으로 평가되었습니다.

그 예측은 완전히 틀렸고, 자유로 워진 백인은 다시 투옥되어야했다. 법원이 가석방 결정에 점수를 매기고 있기 때문에 이는 매우 문제가되고, 이는 프로그램에 반영된 인종적 편견이 법에 따라 불평등 한 대우를 의미한다는 것을 의미합니다.

ProPublica는 2013 년과 2014 년 플로리다 주 Broward 카운티에서 체포 된 7,000 명 이상의 위험 점수를 다음 2 년 동안 새로운 형사 고발을 당했던 숫자와 비교하여 알고리즘을 자체 테스트에 적용했습니다.

그들이 발견 한 것은 폭력적인 성격의 범죄 반복에 대한 예측의 단지 20 %만이 실현되었으며, 더 많은 사소한 범죄는 위험을 나타내는 점수를 가진 사람들의 61 %에 대해서만 발생했다는 것입니다.

실제 문제는 정확성의 부족뿐만 아니라 관련된 인종적 편견입니다.

  • 이 공식은 특히 검은 피고인을 미래의 범죄자로 잘못 신고했을 가능성이 높았으며, 백인 피고인의 거의 두 배에 달하는 비율로 잘못 표기했습니다.
  • 백인 피고인은 검은 피고인보다 위험도가 낮은 것으로 잘못 분류되었습니다.

실제로 이것은 흑인의 경우 45 %, 백인의 경우 24 %의 오류율로 변환되었습니다. 이러한 통계에도 불구하고 Thomas는 위스콘신 대법원이 여전히이 알고리즘의 사용을지지했다고보고했습니다. 그녀는 또한 왕복 알고리즘과 관련된 다른 문제에 대해 자세히 설명합니다.