구글 “AI 인종차별 없애겠다”…머신러닝 편견없도록 전담팀 운영
이원갑 기자 | 기사작성 : 2019-06-25 16:09   (기사수정: 2019-06-25 16:09)
420 views
N

▲ 25일 서울 강남구 구글코리아 캠퍼스에서 미국 본사의 베키 화이트 인공지능 리서치 프로그램 매니저가 ‘AI 혁신과 머신러닝의 공정성’을 주제로 강연하고 있다. [사진제공=구글코리아]

[뉴스투데이=이원갑 기자] 구글이 국제기구 출신 사회학자를 영입해 빅데이터 분석 결과에서 발견되는 성, 인종, 문화 등에 대한 차별을 없애기 위해 전담 부서를 운영하고 있는 것으로 나타났다.

25일 구글코리아는 서울 강남구에 위치한 캠퍼스에서 ‘인공지능(AI) 혁신과 머신러닝의 공정성’을 주제로 구글 AI 포럼 제17차 강연을 열고 이 같이 전했다. 구글 미국 본사의 머신러닝 공정성 담당자를 화상전화 ‘행아웃’으로 실시간 연결하는 식으로 강연이 진행됐다.

이날 연사를 맡은 베키 화이트(Becky White) 구글 인공지능 리서치 프로그램 매니저는 순다 피차이 구글 최고경영자(CEO)가 수립해 놓은 구글의 AI 활용 원칙들 중 ‘공정성’ 부분에서 지적된 핵심 문제 요소와 더불어 머신러닝에서 공정성을 확보하기 위한 구글의 조치를 소개했다.

먼저 화이트는 현행 머신러닝 시스템이 가진 공정성 면에서의 취약점을 지적했다. 그는 데이터 수집과 학습 알고리즘 적용 등 머신러닝이 작동하는 매 단계마다 인간의 편견이 개입될 수 있기 때문에 머신러닝에 따른 분석 결과라고 해서 항상 객관적일 수는 없다고 밝혔다.

이에 머신러닝의 불공정성이 발생하는 요소는 ▲수집 단계부터 데이터 풀 자체가 편향되어 있는 ‘선택 편향’ ▲개발자가 무의식적으로 편향적으로 데이터를 분석하는 ‘확인 편향’ ▲오류가 발견된 분석 시스템마저 비자동화 시스템에 비해 선호되는 ‘자동 편향’ 등으로 다양하게 나타날 수 있다고 설명했다.

가령 구글 검색 결과의 경우 서구권에서 주로 행해지는 결혼식 장면만 '결혼식'으로 인정되고 다른 문화권에서 나타나는 다양한 형태의 결혼식은 ‘결혼식’으로 검색되지 않는 예가 있다. 학습용 자료인 사진에 라벨을 적는 단계에서 편협한 사고가 개입됐고 그 결과 AI를 ‘잘못 가르쳤기’ 때문이다.

▲ 25일 서울 강남구 구글코리아 캠퍼스에서 미국 본사의 베키 화이트 인공지능 리서치 프로그램 매니저가 구글의 AI 활용 원칙 중 공정성 부문에 관해 설명하고 있다. [사진=뉴스투데이 이원갑]

화이트는 '잘못 배운 AI'의 검색 결과가 "실제 세상의 데이터로 학습하기 때문에 기존 세상의 불공정 편향성을 확대 재생산할 수 있다"라며 "아무리 철저하게 다차원적으로 시스템을 학습시킨다 해도 이런 시스템 내에서 모든 상황에 (AI가) 공정하도록 하는 것은 까다로운 과제"라고 말했다.

이처럼 공정성 면에서 AI가 품고 있는 허점에 대해 구글은 공정성 전담팀을 꾸려 전 부서에 흩뿌려져 있는 빅데이터 개발진을 대상으로 공정성 확보를 위한 개발 규정을 제공하고 AI가 편향된 결과를 내놓는 것을 방지한다고 화이트는 밝혔다.

그는 공정성 전담반의 업무과 관련해 "머신러닝의 공정성은 다양한 분야와 다양한 팀이 결부돼 내·외부 공유 목적으로 연구가 진행 중"이라며 "우리 팀은 이 같은 공정성 연구를 진행하는 여러 팀을 지원하고 있다"라고 밝혔다.

구체적 조치로는 먼저 개발 지침서인 '모델 카드' 보급 사례를 예로 들면서 "모델 카드는 하나의 시스템이 얼마나 공정하게 작동하는지에 대한 가이드라인 (조항들)"이라며 "해당 (머신러닝 학습)모델이 어떤 맥락에서 사용되고 이해돼야 바람직한지를 구체적으로 명시했다"라고 설명했다.

이밖에도 데이터 수집 단계에서의 편향성을 없앨 수 있도록 돕는 '데이터 카드' 시스템을 비롯해 데이터 분석 보조, (머신러닝) 모델의 적용 시뮬레이션 등 각종 도구를 마련해 기존의 머신러닝 설계를 달리 할 수 있도록 했다.

▲ 구글 번역 웹페지에서 ‘외과의사’를 뜻하는 영단어 ‘Surgeon’이 프랑스어로 번역되면서 여성명사와 남성명사로 병기돼 있는 모습. [사진=구글 웹페이지 갈무리]

화이트는 공정성 전담팀의 최근 성과로 ‘구글 번역’ 서비스에서 특정 언어에 포함된 한 단어가 다른 언어에서 여성형과 남성형으로 갈리는 경우 남성형 단어를 기본으로 출력했던 과거와 달리 이를 한데 묶어 출력하게 된 사례를 소개했다.

다만 나라와 문화권에 따라 엇갈리는 이해관계에 따라 '공정성'의 기준이 갈리는 문제에 대해서는 "파이프라인(머신러닝 과정) 역시 사람이 구축하는 것이기 때문에 그 과정에서 인간의 편향성이 들어간다"라며 "조금 더 공정하게 만들도록 노력하고 있다"라고 분발의 여지를 남겼다.

한편 이날 강연자 화이트는 사회학자로서 과거 글로벌 싱크탱크 ‘카네기 국제 평화기금’의 편집국장을 역임한 인물이다. 펜실베이니아 대학에서 국제관계학과 독일어학을 전공했으며 워싱턴 DC 소재 조지타운 대학에서 AI 거버넌스(AI Governance)를 중점적으로 연구해 석사 학위를 얻었다.

메일보내기
보내는분
보내는분 이메일
받는분 이메일
내용
 
주요기업 채용정보