2020. 12. 14. 10:33ㆍ1분 뉴스
AI를 두고 흔히 감정에 치우치지 않고
공정하리라는 생각한다. 하지만, AI는
오히려 인간보다 더 차별과 편견을
가지고 있을 수 있다는 지적도 많다.
다음은 AI가 가진 편견의 실제 사례들이다.
# 2015년 ‘구글 포토’ 고릴라 사건.
아프리카계 미국인 재키 앨신이
자신의 흑인 여성 친구 사진을 찍자
구글포토에 ‘고릴라’라는 태그가 붙었다.
인공지능(AI)이 친구를 고릴라로 분류한 것이다.
# 2016년 마이크로소프트(MS) ‘테이’ 사건.
MS가 발표한 인공지능 채팅봇인 ‘테이’가
사용자와 대화를 하며 “히틀러가 옳다.
난 유대인이 싫다”는 식의 인종차별
발언을 쏟아냈다. 결국 MS는 16시간 만에
서비스를 중단했다.
# 애플 신용카드 한도 차이
소득·자산 등 여건이 동일해도
대출 한도 인공지능이 남성에게
훨씬 많은 카드 한도를 부여하며
논란이 됐다.
# 인종별 인식률의 차이
2018년 미국 매사추세츠공과대학(MIT)이
시중의 얼굴 인식 알고리즘을 분석한 결과
백인 남성은 98% 정확도로 인식하는 반면,
유색 여성은 70%미만의 인식도를 보였다.
이런 AI의 편견은 섬뜩한 결과로 이어질 수 있다.
자율주행차가 왼쪽으로 꺾으면 백인 남성이,
오른쪽으로 꺾으면 흑인 여성이 다치게 되는
상황에서 핸들을 어느 쪽으로 꺽게 될까?
메사추세츠공과대학의 발표대로라면,
백인 남성을 살리기 위해 핸들을 흑인여성 쪽으로
꺾을 수도 있다는 것이다.
'1분 뉴스' 카테고리의 다른 글
산부인과 의사 사칭하고 도촬, 성폭행 (0) | 2020.12.14 |
---|---|
(실시간 베스트 영상) 연날리기 대회 클래스 (0) | 2020.12.14 |
생리휴가 가려면, 생리대 인증사진 내놔라! (0) | 2020.12.13 |
여친 준강간, 30년지기 살해한 남성 (0) | 2020.12.13 |
'집단 성폭X '한 축구선수, 징역 9년 (0) | 2020.12.13 |