인공지능의 편향: 영국 복지 확인 시스템의 문제점
최근 영국 정부의 복지 사기 적발을 위한 인공지능(AI) 시스템에서 연령, 장애, 혼인 상태 및 국적에 따른 편향이 발견되었습니다. 이는 사회의 가장 취약한 집단에 불공정한 영향을 미칠 수 있어 큰 우려를 불러일으키고 있습니다. 이번 글에서는 이러한 문제의 본질과 그에 대한 대처 방안에 대해 알아보겠습니다.
1. AI 시스템의 배경
영국의 복지 시스템인 유니버설 크레딧(Universal Credit)의 수천 건의 신청서를 검토하기 위해 사용되는 기계 학습 프로그램이 존재합니다. 이 시스템은 복지 사기를 발견하기 위해 설계되었지만, 내부 자료에 따르면 특정 그룹에 대한 부당한 차별을 나타내고 있는 것으로 나타났습니다. 이 분석은 정보 자유법(Freedom of Information Act)에 따라 공개된 문서에서 확인되었습니다.
이러한 문제는 "상당한 결과 불균형(statistically significant outcome disparity)"을 초래하며, 이는 인공지능이 특정 인구 집단을 잘못 선택하고 조사하라는 권고를 내리는 방식으로 나타났습니다.
2. 편향의 심각성
AI 시스템에서 나타나는 편향은 많은 우려를 불러일으키고 있습니다. 예를 들어, 캠페인 활동가들은 정부가 "상처 먼저, 나중에 고친다(hurt first, fix later)"는 접근 방식을 유지하고 있다고 비판했습니다. 즉, 인공지능이 개발된 과정에서 어떤 집단이 불공정하게 수사 대상으로 선정될 가능성이 있는지를 파악하지 못하고 있다는 것입니다.
퍼블릭 로우 프로젝트(Public Law Project)의 연구원인 캐롤라인 셀맨(Caroline Selman)은 "DWP는 자동화 프로세스가 소외된 그룹을 불공정하게 겨냥할 위험이 있는지를 평가하지 못했다"고 지적했습니다.
3. 인간의 개입 필요성
이 시스템의 최종 결정은 여전히 사람이 내리도록 되어 있지만, AI의 편향성은 여전히 개선의 여지가 있는 부분입니다. DWP는 "우리의 AI 도구는 인간의 판단을 대체하지 않으며, 사례 관리자는 항상 모든 정보를 기반으로 결정을 내린다"고 주장하고 있습니다.
하지만 이러한 주장이 현실에서 얼마나 신뢰성을 가질 수 있는지를 걱정하는 목소리도 많습니다. AI 시스템이 55종 이상의 자동화 도구를 공공기관에서 사용하도록 설계되었으며, 이는 수많은 사람들의 결정에 영향을 미치고 있습니다.
4. 투명성과 공개의 중요성
AI 시스템의 사용에 있어 투명성의 중요성은 더욱 강조되고 있습니다. 비록 정부는 AI 시스템의 사용을 비공식적으로 조절하고 있지만, 대중의 불신은 신뢰를 구축하기 위한 더 많은 노력을 요구하고 있습니다. 특히 인공지능을 사용하는 과정과 그 편향성에 대한 정보를 공개하는 것은 사회의 모든 구성원에게 필수적입니다.
인공지능이 인간의 삶에 긍정적인 영향을 미치기 위해서는 그 과정에서 발생할 수 있는 불공정성을 인지하고, 이를 해결하기 위한 지속적인 노력이 필요합니다.
5. 결론
정보와 지식의 공유는 사회에 긍정적인 효과를 미칠 수 있지만, 이를 위해서는 법과 윤리를 지켜야 할 필요가 있습니다. AI 시스템의 경우, 그 설계와 운영이 모두를 공정하게 대할 수 있도록 하기 위한 지속적인 검토가 필요합니다. 이는 단순한 기술적 진전을 넘어서는 문제로, 모든 사회 구성원이 인간적으로 대우받는 것을 보장하는 일입니다.
이런 미세한 경계가 우리 사회의 중요한 가치로 여겨져야 할 것입니다. 인공지능이 인간의 삶을 더 나은 방향으로 변화시킬 수 있도록, 모두가 함께 노력해야 합니다.