인간은 AI의 편견을 흡수하고 알고리즘 사용을 중단한 후에도 이를 유지합니다.

CChatGPT8
9 Min Read

[ad_1]

인공지능 프로그램을 개발하고 훈련시키는 인간과 마찬가지로 완벽함과는 거리가 멀습니다. 의료 이미지를 분석하는 머신 러닝 소프트웨어이든, 유기적인 대화를 나누는 ChatGPT와 같은 생성적 챗봇이든, 알고리즘 기반 기술은 오류를 일으키고 심지어 “환각”을 일으키거나 부정확한 정보를 제공할 수 있습니다. 아마도 더 교묘하게도 AI는 이러한 프로그램이 훈련된 대규모 데이터 수집을 통해 도입되고 많은 사용자가 감지할 수 없는 편견을 표시할 수도 있습니다. 이제 새로운 연구에 따르면 인간 사용자는 이러한 자동화된 편견을 무의식적으로 흡수할 수 있습니다.

과거 연구에서는 편향된 AI가 이미 소외된 집단의 사람들에게 해를 끼칠 수 있다는 사실이 입증되었습니다. 음성 인식 소프트웨어가 미국 이외의 악센트를 이해하지 못하는 등 일부 영향은 미미하여 스마트폰이나 음성 작동 홈 어시스턴트를 사용하는 사람들에게 불편을 줄 수 있습니다. 그런 다음 더 무서운 예도 있습니다. 일부 사람들(예: 백인, 특정 연령대의 사람들, 특정 단계의 질병을 앓고 있는 사람들)에게만 훈련을 하기 때문에 오류를 범하는 건강 관리 알고리즘도 있습니다. 흑인에 대한 부당 체포를 증가시킬 수 있는 인종적으로 편향된 경찰 안면 인식 소프트웨어입니다.

그러나 문제를 해결하는 것은 알고리즘을 소급하여 조정하는 것만큼 간단하지 않을 수 있습니다. 일단 AI 모델이 세상에 나와 편견으로 사람들에게 영향을 미치면 어떤 의미에서는 피해가 이미 발생한 것입니다. 그 이유는 자동화된 시스템과 상호 작용하는 사람들이 무의식적으로 자신이 직면한 왜곡을 자신의 미래 의사 결정에 통합할 수 있기 때문입니다. 과학 보고서. 결정적으로, 이 연구는 AI 모델에 의해 사용자에게 도입된 편견이 AI 프로그램 사용을 중단한 후에도 개인의 행동에 지속될 수 있음을 보여줍니다.

스페인 데우스토 대학교(University of Deusto)의 실험 심리학자이자 이번 연구의 선임 연구원인 헬레나 마투트(Helena Matute)는 “우리는 인공 지능이 인간으로부터 편견을 물려받는다는 사실을 이미 알고 있습니다.”라고 말했습니다. 예를 들어, 기술 발표가 있을 때 세계의 나머지 최근 인기 있는 AI 이미지 생성기를 분석한 결과 이러한 프로그램이 민족적, 국가적 고정관념을 갖는 경향이 있는 것으로 나타났습니다. 그러나 Matute는 AI와 인간의 상호 작용을 다른 방향으로 이해하려고 합니다. “우리 연구실에서 묻는 질문은 인공지능이 인간의 결정에 어떻게 영향을 미칠 수 있느냐는 것입니다.”라고 그녀는 말합니다.

약 200명의 고유한 참가자가 포함된 세 가지 실험 과정에서 Matute와 그녀의 공동 연구원인 Deusto 대학의 Lucía Vicente는 간단한 의료 진단 작업을 시뮬레이션했습니다. 그들은 비전문가 참가자에게 이미지를 존재 또는 부재를 나타내는 이미지로 분류하도록 요청했습니다. 가상의 질병. 이미지는 두 가지 다른 색상의 점으로 구성되었으며 참가자에게는 이러한 점 배열이 조직 샘플을 나타낸다는 말을 들었습니다. 작업 매개변수에 따르면, 한 색상의 점이 많을수록 질병에 대한 긍정적인 결과를 의미하고, 다른 색상의 점이 많을수록 부정적인 결과를 의미합니다.

다양한 실험과 실험을 통해 Matute와 Vicente는 참가자들에게 의도적으로 왜곡된 제안을 제공했는데, 이를 따르면 이미지를 잘못 분류하게 됩니다. 과학자들은 이러한 제안이 “인공지능(AI) 알고리즘을 기반으로 한 진단 지원 시스템”에서 비롯된 것이라고 이메일에서 설명했습니다. 대조군은 평가를 위해 라벨이 지정되지 않은 일련의 도트 이미지를 받았습니다. 이와 대조적으로 실험 그룹은 가짜 AI로부터 “긍정적” 또는 “부정적” 평가로 표시된 일련의 점 이미지를 받았습니다. 대부분의 경우 라벨은 정확했지만 각 색상의 점 수가 비슷한 경우에는 연구자들이 오답으로 의도적인 왜곡을 도입했습니다. 한 실험 그룹에서 AI 라벨은 거짓 부정을 제공하는 경향이 있었습니다. 두 번째 실험 그룹에서는 경사가 위양성 쪽으로 반전되었습니다.

연구원들은 가짜 AI 제안을 받은 참가자들이 더 이상 지침이 제공되지 않은 후에도 동일한 편견을 향후 결정에 반영한다는 사실을 발견했습니다. 예를 들어, 참가자가 잘못된 긍정 제안과 상호 작용한 경우 평가할 새 이미지가 제공될 때 계속해서 잘못된 긍정 오류를 만드는 경향이 있습니다. 이러한 관찰은 통제 그룹이 AI 안내 없이 작업을 올바르게 완료하기 쉽다는 사실과 실험 중 하나에 참여한 참가자 중 80%가 가상의 “AI”가 실수를 저질렀다는 사실을 알아차렸음에도 불구하고 사실이었습니다.

하버드 의과대학 피부과 교수이자 이번 연구의 편집장인 조셉 크베다(Joseph Kvedar)는 이번 연구가 훈련된 의료 전문가를 참여시키지 않았거나 승인된 진단 소프트웨어를 평가하지 않았다는 점이 가장 큰 주의점이라고 말했습니다. npj 디지털 의학. 따라서 Kvedar는 이 연구가 의사와 의사가 사용하는 실제 AI 도구에 대한 영향이 매우 제한적이라고 지적합니다. American College of Radiology Data Science Institute의 최고 과학 책임자인 Keith Dreyer는 “전제가 의료 영상과 일치하지 않는다”고 동의하며 덧붙였습니다.

진정한 의학 연구는 아니지만, 이 연구는 실수로 많은 기계 학습 알고리즘에 내장된 편향된 패턴으로부터 사람들이 어떻게 학습할 수 있는지에 대한 통찰력을 제공하며 AI가 인간 행동에 더 나쁜 영향을 미칠 수 있음을 시사합니다. Kvedar는 연구에서 가짜 AI의 진단 측면을 무시하고 심리적 관점에서 “실험 설계는 거의 완벽했습니다”라고 말했습니다. 연구에 참여하지 않은 Dreyer와 Kvedar는 비록 놀라운 것은 아니지만 이 작업이 흥미롭다고 설명했습니다.

인간이 기계 학습 모델과의 상호 작용 범위를 넘어서 AI의 편견을 복제함으로써 계속해서 AI의 편견을 제정할 수 있다는 발견에는 “진정한 참신함”이 있다고 Vanderbilt University의 심리학 및 인간 발달 부교수인 Lisa Fazio는 말합니다. 최근 연구에는 참여하지 않았습니다. 그녀에게는 문제가 있는 AI 모델 또는 AI 생성 출력과의 시간 제한적인 상호 작용조차도 지속적인 영향을 미칠 수 있음을 시사합니다.

예를 들어, 캘리포니아 주 산타크루즈에서 2020년에 금지된 예측 치안 소프트웨어를 생각해 보십시오. 시 경찰서는 경찰 배치 위치를 결정하기 위해 더 이상 알고리즘 도구를 사용하지 않지만, 수년간 사용한 후 부서 공무원이 내부화했을 가능성이 있습니다. 캘리포니아 대학교 버클리 캠퍼스의 심리학과 조교수이자 이번 연구에는 참여하지 않은 셀레스트 키드(Celeste Kidd)는 소프트웨어에 편견이 있을 가능성이 있다고 말합니다.

사람들은 인간의 정보 소스에서도 편견을 배운다는 것이 널리 알려져 있습니다. 그러나 부정확한 콘텐츠나 지침이 인공 지능에서 비롯된 경우 결과는 훨씬 더 심각할 수 있다고 Kidd는 말합니다. 그녀는 이전에 AI가 인간의 믿음을 바꿀 수 있는 독특한 방법에 대해 연구하고 글을 썼습니다. 우선, Kidd는 AI 모델이 쉽게 인간보다 훨씬 더 왜곡될 수 있다고 지적합니다. 그녀는 생성 AI가 사람보다 더 강한 인종 및 성별 편견을 나타낼 수 있다고 판단한 Bloomberg가 발표한 최근 평가를 인용합니다.

인간이 다른 소스보다 기계 학습 도구에 더 많은 객관성을 부여할 위험도 있습니다. Kidd는 “정보 소스의 영향을 받는 정도는 해당 정보가 얼마나 지능적이라고 평가하는지와 관련이 있습니다.”라고 말합니다. 사람들은 AI에 더 많은 권위를 부여할 수 있다고 그녀는 설명합니다. 그 이유 중 하나는 알고리즘이 인간의 모든 지식의 총합을 활용하는 것으로 마케팅되는 경우가 많기 때문입니다. 새로운 연구는 이 아이디어를 두 번째 발견으로 뒷받침하는 것으로 보입니다. Matute와 Vicente는 자동화에 대한 신뢰도가 더 높다고 스스로 보고한 참가자가 가짜 AI의 편견을 모방하는 실수를 더 많이 하는 경향이 있다고 지적했습니다.

게다가 인간과 달리 알고리즘은 정확하든 아니든 모든 출력을 “자신감” 있게 전달한다고 Kidd는 말합니다. 직접적인 인간 의사소통에서 불확실성의 미묘한 단서는 우리가 정보를 이해하고 맥락화하는 방법에 중요합니다. 긴 침묵, “음”, 손짓, 눈의 움직임은 그 사람이 자신이 말하는 내용에 대해 별로 긍정적이지 않다는 신호일 수 있습니다. 기계는 그러한 지표를 제공하지 않습니다. “이것은 큰 문제입니다.”라고 Kidd는 말합니다. 그녀는 일부 AI 개발자가 불확실성 신호를 추가하여 문제를 소급적으로 해결하려고 시도하고 있지만 실제 대체물을 설계하는 것은 어렵다고 지적합니다.

Kidd와 Matute는 AI 개발자가 도구 훈련 및 구축 방법에 대한 투명성이 부족하여 AI 편견을 제거하는 것이 더욱 어렵다고 주장합니다. Dreyer는 승인된 의료 AI 도구 중에서도 투명성이 문제라는 점에 동의합니다. 식품의약국(FDA)은 진단 기계 학습 프로그램을 규제하지만 데이터 공개에 대한 통일된 연방 요구 사항은 없습니다. 미국 방사선과 대학(American College of Radiology)은 수년 동안 투명성 향상을 옹호해 왔으며 여전히 더 많은 작업이 필요하다고 말했습니다. “우리는 의사가 이러한 도구의 작동 방식, 개발 방법, 훈련 데이터의 특성, 수행 방법, 사용 방법, 사용해서는 안 되는 경우 및 도구의 한계를 높은 수준에서 이해해야 합니다. ,”는 방사선학회 웹사이트에 게시된 2021년 기사를 읽습니다.

그리고 그것은 단지 의사가 아닙니다. AI 편견의 영향을 최소화하려면 모든 사람이 “이러한 AI 시스템의 작동 방식에 대해 더 많은 지식을 갖고 있어야 합니다”라고 Matute는 말합니다. 그렇지 않으면 우리는 알고리즘의 “블랙박스”가 AI로 인해 더욱 편향된 인간이 되고, 그 결과 점점 더 편향된 알고리즘을 생성하게 되는 자멸적인 순환으로 우리를 몰아넣을 위험이 있습니다. Matute는 “우리가 루프를 시작하고 있어 빠져나오기가 매우 어려울 것이라는 점을 매우 걱정하고 있습니다.”라고 덧붙였습니다.

Share this Article
Leave a comment

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다