Top 8 인공지능 편향성 사례 2023

편집자주가속화한 인공지능 시대. 인간 모두를 위한, 인류 모두를 위한 AI를 만드는 방법은? AI 신기술과 그 이면의 문제들, 그리고 이를 해결할 방법과 Good AI의 필요충분조건게티이미지뱅크지난 칼럼에 이어 인공지능 윤리의 5대 문제 중 AI 편향성 문제 사례와 바람직한 해결 방안을 살펴보고자 한다. 2016년 미국 탐사보도매체 ‘프로퍼블리카’는 미국 내 많은 법원에서 사용 중인 AI 재판 지원시스템 컴파스(COMPAS)에 대한 기사를 보도했다.컴파스는 피고인의 데이터를 종합하여 재범 가능성을 예측하는. 인공지능인데, 프로퍼블리카의 보도에 따르면 컴파스를 통하여 미국 플로리다에서 체포된 범죄자 1만 명을 대상으로 재범가능성을 예측해보았더니 흑인의 재범 가능성이 백인보다 2배 이상 높게 나타났다는 것이다. 하지만 실제 현실에서는 흑인의 재범률이 백인보다 더 높지 않았다.인공지능 컴파스는 왜 이런 잘못된 예측을 했을까? ‘MIT 테크놀로지 리뷰’에 따르면, 실제 사례에서 흑인 피고와

Top 1: 아마존 채용 AI는 왜 남성을 우대했나 - 한국일보

작가: m.hankookilbo.com - 120 평가
설명: 편집자주가속화한 인공지능 시대. 인간 모두를 위한, 인류 모두를 위한 AI를 만드는 방법은? AI 신기술과 그 이면의 문제들, 그리고 이를 해결할 방법과 Good AI의 필요충분조건게티이미지뱅크지난 칼럼에 이어 인공지능 윤리의 5대 문제 중 AI 편향성 문제 사례와 바람직한 해결 방안을 살펴보고자 한다. 2016년 미국 탐사보도매체 ‘프로퍼블리카’는 미국 내 많은 법원에서 사용 중인 AI 재판 지원시스템 컴파스(COMPAS)에 대한 기사를 보도했다.컴파스는 피고인의 데이터를 종합하여 재범 가능성을 예측하는. 인공지능인데, 프로퍼블리카의 보도에 따르면 컴파스를 통하여 미국 플로리다에서 체포된 범죄자 1만 명을 대상으로 재범가능성을 예측해보았더니 흑인의 재범 가능성이 백인보다 2배 이상 높게 나타났다는 것이다. 하지만 실제 현실에서는 흑인의 재범률이 백인보다 더 높지 않았다.인공지능 컴파스는 왜 이런 잘못된 예측을 했을까? ‘MIT 테크놀로지 리뷰’에 따르면, 실제 사례에서 흑인 피고와
일치하는 검색 결과: 2021. 10. 14. · 인공지능은 학습을 위해 제공받은 데이터들을 토대로 판단했을 뿐, 데이터 자체가 편향되어 있었기 때문이다. 오히려 컴파스 사례는 데이터의 편향도 ...2021. 10. 14. · 인공지능은 학습을 위해 제공받은 데이터들을 토대로 판단했을 뿐, 데이터 자체가 편향되어 있었기 때문이다. 오히려 컴파스 사례는 데이터의 편향도 ... ...

Top 2: AI 편향성 극복 위해 전문가들이 나섰다 - MIT Technology Review

작가: technologyreview.kr - 159 평가
설명: 오늘날 인공지능(AI)은 언제 어디서든 사용되고 있다. 하지만 사용되고 있는 AI의 편향성을 식별하는 데에는 짧게는 수개월부터 길게는 수년까지의 상당한 시간이 소요된다.AI 편향성 문제로 인한 위험성은 심각한 수준이다. 불공정한 AI 때문에 무고한 사람이 부당하게 체포당하고, 편향된 신용 평가 알고리즘 때문에 사회 취약층이 거처 마련이나 취업에 지장을 겪는 등 기본적인 공공 혜택으로부터 소외된 사례가 등장하고 있다.최근 일부 AI 및 기계학습 전문가들이 모여 AI 편향성을 새로 평가해 보는 ‘바이어스바운티 대회(bias bounties competition)’를 개최하고 있다. 대회 관계자들은 이 대회를 계기로 알고리즘에 내재한 편견이 한시라도 빨리 교정될 수 있길 바라고 있다.이 대회는 10월 20일부터 11월 30일까지 20여 일 동안. 열린다.바이어스 바운티 대회는 사이버보안 취약점을 발견해 신고하면 포상을 주는 ‘버그바운티(bug bounties)’로부터 영감을 받아 개최되는
일치하는 검색 결과: 2022. 11. 3. · AI 편향성 문제로 인한 위험성은 심각한 수준이다. 불공정한 AI 때문에 무고한 사람이 부당하게 체포당하고, 편향된 신용 평가 알고리즘 때문에 사회 취약 ...2022. 11. 3. · AI 편향성 문제로 인한 위험성은 심각한 수준이다. 불공정한 AI 때문에 무고한 사람이 부당하게 체포당하고, 편향된 신용 평가 알고리즘 때문에 사회 취약 ... ...

Top 3: 기계가 드러내는 편향, '이루다'만 문제였을까? - KISO저널

작가: journal.kiso.or.kr - 110 평가
설명: 지난 1월 인공지능 챗봇 ‘이루다’는 남성 이용자들의 성희롱, ‘이루다’의 혐오 발언, 개인정보 활용 등 인공지능을 둘러싼 다양한 문제들을 제기했다. 이미 여러 곳에서 이 문제를 다루고 진단하고. 보완책을 얘기했기에 여기서 더 자세히 언급할 필요는 없어 보인다. 다만, 솔직한 감상평 하나만 덧붙이자면, “왜 이제야 이게 문제”라고 하는 것인지 안타까웠다. 인간이 만들어낸 결과물을 데이터화 해 기계가 학습하는 과정에는 필연적으로 문제가 발생한다. 데이터 선정에 있어서 편향으로 인한 오류 가능성, 모든 것을 계량화할 수 있는 것은 아니기 때문에 생기는 데이터의 불완전성, 인간이 역사적으로 쌓아 온 암묵적 편향성, 학습과정과 학습 데이터의 불투명성 등이 대표적이다1. 인간은 완전하지 않다. 완전하지 않기 때문에 인간은 역사적으로 봤을 때. 이를 조금씩 보완하면서 진보해 왔다. 그런데 기계는 인간이 만들어낸 데이터를 학습한다. 이 데이터들은 현재 시점에서 봤을 때 언제나 과거의 데이터다. 과거
일치하는 검색 결과: 2021. 3. 8. · 지난 1월 인공지능 챗봇 '이루다'는 남성 이용자들의 성희롱, '이루다'의 혐오 발언, 개인정보 활용 등 인공지능을 둘러싼 다양한 문제들을 제기했다.2021. 3. 8. · 지난 1월 인공지능 챗봇 '이루다'는 남성 이용자들의 성희롱, '이루다'의 혐오 발언, 개인정보 활용 등 인공지능을 둘러싼 다양한 문제들을 제기했다. ...

Top 4: 사례돋보기| 인공지능의 역습 - 국민권익위원회

작가: acrc.go.kr - 110 평가
설명: ◎ 자율주행 자동차 사고... 누구의 책임일까? . ◎ 종업원의 감정 파악.. 인권침해 vs 생산성 관리. ◎인공지능에 일자리 뺏기는 개발자... 게임업계의 딜레마. ◎왜 그랬냐면... 설명하는 인공지능이 온다 지난 10월, 세계 최대 전자상거래 기업 아 마존은 수년간 공들여 개발해 온 인공지능 채용 프로그램을 자체 폐기했다. 인공지능 이 여성 지원자를 차별했기 때문이다. 아마 존의 인공지능은 여대를 졸업했거나 이력서 에 ‘여성’이라는 용어가 들어있으면 점수를 깎아버렸다. 반면 '실행하다‘ ’포착하다‘ 등 남성 기술자들의 이력서에 자주 쓰이는 동 사가 있으면 좋은 점수를 부여했다. 감정, 친 분, 이해관계 등 비합리적인 요소에 쉽게 휩 쓸리는 인간보다 인공지능의 알고리즘이 더 공정할 것이라 기대했던 개발자들의 예상 과는 정반대의 결과였다. 이와 같은 사실이 밝혀지자 전 세계가 술렁였다. 인공지능이 인간을 차별하다니…….가히 인공지능의 역습이라고 볼 수 있다. MIT 공대
일치하는 검색 결과: 인공지능의 통찰 과정을 쉬운 용어로 설명할 수 있어야 하고, 편향성을 탐지 및 해결해야 하며, 기업이 법률과 규정을 준수할 수 있도록 모든 예측, 데이터, 측정지표를 ...인공지능의 통찰 과정을 쉬운 용어로 설명할 수 있어야 하고, 편향성을 탐지 및 해결해야 하며, 기업이 법률과 규정을 준수할 수 있도록 모든 예측, 데이터, 측정지표를 ... ...

Top 5: [이슈 컷] 흑인에 유독 가혹한 인공지능…정말 똑똑한 것 맞나요?

작가: yna.co.kr - 133 평가
설명: [이슈 컷] 흑인에 유독 가혹한 인공지능…정말 똑똑한 것 맞나요? [이슈 컷] 흑인에 유독 가혹한 인공지능…정말 똑똑한 것 맞나요?09-16 07:00 (서울=연합뉴스) 최근 한 페이스북 이용자는 흑인 남성이 등장하는 영상을 시청하다 '영장류에 관한 영상을 계속 시청하겠습니까'라는 자동 알림을 받았습니다. 해당 영상은 흑인 남성이 백인 시민·경찰관들과 언쟁하는 내용으로 원숭이와 같은 영장류와는 관련이 없었는데요. 최근 뉴욕타임스에 따르면 페이스북은 "용납할 수 없는 오류"라며 "이런 일이 재발하지 않도록 근본 원인을 파악 중"이라고 밝혔습니다. 그러면서 "인공지능(AI)을 많이 개선했지만 아직은 완벽하지 않다"고. 덧붙였는데요. 인공지능의 인종차별 논란은 해를 거듭하며 지속해서 발생하고 있습니다. 특히 구글, 페이스북 등에서 제공하는 자동 사진 분류 서비스에서 흑인을 제대로 인식하지 못하는 등의 문제가 해결되지 않고 있는데요. 이 서비스는 사진에서 미간, 눈 깊이, 코 등의 특
일치하는 검색 결과: 2021. 9. 16. · 흑인보다는 백인을, 남성보다는 여성을 선택했죠. 이밖에 데이터 학습을 통한 알고리즘으로 일상에서 피해를 본 사례도 있습니다. 영국의 인공지능 비자 ...2021. 9. 16. · 흑인보다는 백인을, 남성보다는 여성을 선택했죠. 이밖에 데이터 학습을 통한 알고리즘으로 일상에서 피해를 본 사례도 있습니다. 영국의 인공지능 비자 ... ...

Top 6: 시선 AI도 인종·성차별 한다…다른 접근법 필요한 이유 - 한국경제

작가: hankyung.com - 137 평가
설명: 사진=게티이미지뱅크인간의 주관을 배제한다. 데이터와 알고리즘 기반으로 작동한다. 그래서 인공지능(AI)은 객관적일 것으로 기대됐다. 현실은 달랐다. AI가 ‘인종·성차별적 결과’를 내놓는 사례들이 잇따르고 있다.미국 뉴욕대 AI 나우 연구소(AI Now Institute)는 지난 13일 ‘오염된 데이터, 그릇된 예측(Dirty Data, Bad Predictions)’이란 제목의 논문을 발표했다. 연구소는 AI 활용 범죄예측시스템 운용 경험이 있는 미국 13개 시 경찰을 조사했다. 그중 9곳에서 편견이나 오류가 발견됐다는 게 논문의 골자다.인종차별 사례가 대표적이다. 뉴올리언스는. 백인 거주지역에 비해 흑인 거주지역에 대한 경찰의 순찰과 검문이 잦았다. 이렇게 되면 더 자주 검문을 벌인 흑인 거주지역 범죄율이 다른 지역에 비해 올라갈 개연성이 생긴다. AI 시스템은 이를 다시 향후 범죄율이 높은 ‘요주의 지역’으로 예측하는 근거로 삼게 된다.AI의 인종차별 사례는 종전에도 몇 차례 발
일치하는 검색 결과: 2019. 2. 21. · AI가 '인종·성차별적 결과'를 내놓는 사례들이 잇따르고 있다. ... 기술) 기업의 기존 데이터 학습 결과 AI마저 남성 위주 편향성을 갖게 된 것이다.2019. 2. 21. · AI가 '인종·성차별적 결과'를 내놓는 사례들이 잇따르고 있다. ... 기술) 기업의 기존 데이터 학습 결과 AI마저 남성 위주 편향성을 갖게 된 것이다. ...

Top 7: AI 모델의 3가지 편향성과 대처 방법 - ITWorld Korea

작가: itworld.co.kr - 100 평가
설명: 자동 의사 결정 툴이 갈수록 확산되고 있다. 그러나 얼굴 인식 시스템부터 온라인 광고에 이르기까지, 이러한 툴의 뒤에 존재하는 머신러닝 모델의 상당수는 인종과 성별에 대한 뚜렷한 편향성을 보인다. ML 모델이 갈수록 폭넓게 채택되고 있는 만큼 인공지능(AI)의 공정성을 높이기 위한 각별한 관심과 전문적인 역량이 필요하다.ⓒ Getty Images Bank ML 모델은 차별을 악화시켜서는 안 되며 편향성을 찾아 제거해야 한다. 그러나 공정한. AI 모델을 구축하기 위해서는 먼저 AI 편향성의 근본 원인을 더 효과적으로 식별할 수 있는 방법을 확보해야 한다. 편향된 AI 모델이 입력과 출력 간의 편향된 관계를 어떻게 학습하는지를 이해해야 한다. 연구자들이 파악한 AI 편향성의 3가지 범주는 알고리즘 편견, 부정적 유산, 과소평가다. 알고리즘 편견은 보호되는 특징과 의사 결정에 사용되는 다른 정보 사이에 통계적 종속성이 존재하는 경우 발생한다. 부정적 유산은 AI 모델을 학습시키는 데 사용
일치하는 검색 결과: 2021. 2. 26. · 연구자들이 파악한 AI 편향성의 3가지 범주는 알고리즘 편견, ... 모델 학습에서 보호되는 특징을 제거하는 순진한 해결책은 특정 사례에서 이미 ...2021. 2. 26. · 연구자들이 파악한 AI 편향성의 3가지 범주는 알고리즘 편견, ... 모델 학습에서 보호되는 특징을 제거하는 순진한 해결책은 특정 사례에서 이미 ... ...

Top 8: AI의 편향성, 마케팅에 득일까 실일까? - 지디넷코리아

작가: zdnet.co.kr - 114 평가
설명: 민선 애피어 최고 AI 과학자최근 몇 년 사이 인공지능(AI) 및 머신러닝(ML) 시스템의 알고리즘이 가질 법한 편향성에 대해 심도 있는 논의와 면밀한 조사가 이뤄졌다. 대부분은 편향성으로 인한 부정적인 결과에 초점이 맞춰져 있지만, 마케터는 편향성을 오히려 긍정적인 방향으로 활용할 수 있다. 그러려면 편향성에 대한 인식과 이해가 우선돼야 한다. 편향성이 어디서 오는지, 그 근원을 이해하는 데서 시작할 수 있다.AI 편향성이란 기본적으로 인공지능이나 머신러닝이 특정 결과에 대해 어느 정도의 편향성을 갖고 판단을. 내리거나 어떤 특징들의 부분집합에 의존하고 있다는 의미다. 가장 흔한 예로 주로 백인을 대상으로 훈련된 안면인식 시스템을 들 수 있는데, 그 결과 이 시스템의 경우 다른 문화 집단에 속한 사람에 대해서는 정확한 판단을 내리지 못한다.판단의 대상이 되는 데이터를 충분히 대표하지 않는 특징을 토대로 판단하고, 따라서 훈련 도중 투입한 적 없는 일부 유형의 데이터에 대해서는 좋지
일치하는 검색 결과: 2020. 11. 23. · AI 편향성이란 기본적으로 인공지능이나 머신러닝이 특정 결과에 대해 어느 ... 편향성으로 인해 초래되는 부정적인 결과를 잘 보여주는 사례는 많다.2020. 11. 23. · AI 편향성이란 기본적으로 인공지능이나 머신러닝이 특정 결과에 대해 어느 ... 편향성으로 인해 초래되는 부정적인 결과를 잘 보여주는 사례는 많다. ...