AI의 바이어스를 해결하는 방법  아이디어 광장508 

 대규모 언어 모델과 인공지능(AI)의 급속한 확장으로 성별 및 인종적 편향과 차별이 더욱 두드러지고 있습니다. 연구에 따르면 ChatGPT, LLaMA와 같은 대규모 언어 모델과 AI는 여성보다 남성에게 더 정확합니다. 또한 얼굴 인식은 피부색이 밝은 사람이 피부색이 어두운 사람보다 더 정확하다는 보고도 있습니다. 대표적인 예가 미인 대회입니다. 2015년에는 AI가 심사하는 미인 대회가 열렸고, 전 세계 6,000명 이상이 지원했습니다. 이 대회에는 백인 37명, 아시아인 6명, 그리고 기타 1명이 결선에 진출했습니다. 그 이유는 AI가 학습할 사진이 충분하지 않았기 때문입니다. 백인 사진이 많았기 때문에 AI는 백인 사진만 선택할 수 있었습니다. 편향되거나 신뢰할 수 없는 데이터는 AI의 학습을 방해하여 인간에게 잘못된 정보를 제공하는 경우가 발생했습니다.

 인공지능(AI)과 같은 분야에서 편견이 더욱 만연해지는 이유는 무엇일까요? 1980년대 하버드에는 여성 과학자가 거의 없었습니다. 아마도 이 때문에 여성의 뇌는 과학에 적합하지 않다는 편견이 생겨났을 것입니다. 이는 일본의 고등학교와 대학교에서도 흔히 언급되는 이야기입니다. 인터넷에서 “그가 말했다”는 표현이 “그녀가 말했다”는 표현보다 압도적으로 많다는 사실이 밝혀졌습니다. ChatGPT와 같은 시스템들은 이를 데이터로 학습합니다. 머신러닝 알고리즘은 과거 데이터를 기반으로 학습합니다. 이는 고정관념이 되어 확산됩니다. AI 개발에는 초기 단계부터 사회 분석이 필수적입니다. ChatGPT와 구글이 아무리 편견 없는 세상을 지향하더라도, 일단 결정이 내려지면 수정하기 어렵습니다.

 미래 사회에서는 SNS와 같은 정보가 필수적일 것입니다. 가짜 정보도 섞일 것으로 예상됩니다. 방어의 핵심은 생산적인 팀에 있는 것 같습니다. 생산적인 팀은 구성원들이 서로의 아이디어를 존중하는 문화를 가지고 있습니다. 팀 내에는 실수를 인정하고 위험을 감수하며 도전할 수 있는 안정감이 있습니다. 팀 내에서 이 SNS를 중요하게 생각할 것입니다. 하지만 그것만으로도 정보의 갈라파고스가 될 것입니다. 신뢰할 수 있는 외부 팀들과 정보를 교환할 것입니다. 학술 대회나 주요 신문사들은 가짜 뉴스를 그렇게 많이 퍼뜨리지 않습니다.학회나 신문, 그리고 동료의 정보등을 선택하는 것이, 앞으로는 필요하게 될 것 같습니다.

タイトルとURLをコピーしました