[Vol.12] 신뢰를 위한 인공지능 거버넌스가 왜 필요한가?

 In KISA Report

신뢰를 위한 인공지능 거버넌스가 왜 필요한가?

한상기 ([email protected])

테크프론티어 대표

인공지능 기술의 발전이 빠르게 진행되고 다양한 산업 분야와 사회 문제 해결에 사용되면서 인공지능의 역작용이나 사회 전반에 끼치는 영향, 기술만이 아니라 정치 경제 윤리적 관점에서의 논의가 지난 1~2년 사이에 매우 활발해지고 있다.

2020년에는 이런 논의 결과가 구체적으로 어떻게 모습을 만들어 낼 수 있는가에 관한 연구와 정책 방향 및 법제도 측면에서의 토의와 합의 과정이 국가 안에서 또는 국제적인 기관이나 조직을 통해서 이루어질 것이다.

 

인공지능 기술 적용 결과가 공정하지 않은 문제, 예를 들어, 성별과 인종, 사회 집단에 대해 편향을 갖는 문제, 견고하고 안전하지 않은 문제, 설명 가능이나 투명성이 결여되어 있는 문제, 인간 가치 시스템에 부합하게 만들 수 있는가에 대한 질문 등 많은 잠재적 문제점과 해결해야 하는 이슈들이 제기되었다.

 

이제는 이런 문제를 모두 종합해 하나의 통합된 프레임워크로 이런 문제에 대해 대처하고, 인류가 어떻게 첨단 인공지능 시스템에 의해 변화하는 최적의 방법을 찾을 것인가 하는 문제를 ‘인공지능 거버넌스’라는 주제로 파악해야 한다.

 

지난 2017년에 생명의 연구소 주관으로 아실로마에서 ‘유익한 인공지능’ 논의 결과 23개의 원칙을 선언한 이후, 2019년에는 인공지능이 사회에 엄청난 변환을 가져올 것이라는 판단에 단지 위험을 완화하는 것을 넘어 인류에게 최고의 미래를 만들어 낼 수 있게 인공 일반 지능 (AGI)을 어떻게 디자인할 것인가를 모색하기로 했다.

 

2018년 8월에는 옥스포드 대학의 인류 미래 연구소에서 ‘인공지능 거버넌스: 연구 어젠다’ 보고서를 발행해서 기술, 정책, 이상적인 거버넌스에 대해 주요 이슈를 제시했다. 유럽 집행위는 인공지능 고급 전문가 그룹을 구성해서 신뢰성 있는 인공지능의 세 가지 구성 요소를 기반으로 이를 성취하게 할 수 있는 프레임워크를 제시했다. 이 프레임워크는 지금까지 나온 다양한 이슈를 신뢰성 있는 인공지능이라는 하나의 거대 담론 아래 모아서 기반과 구현, 평가를 위한 작업을 의미 있게 정리했다.

유럽 집행위가 제시하는 신뢰성 있는 인공지능을 위한 프레임워크

2019년에는 OECD 역시 인공지능 원칙을 만들어 일반 원칙과 정책 권고 사항을 제시했다.일반 원칙에는 포용성과 지속 가능성, 인간 가치와 공정성, 투명성과 설명 가능성, 견고성과 안전성, 책임성 주제가 있으며 이 원칙들이 인공지능 거버넌스를 생각할 때 가장 핵심이 되는 이슈들이다.

 

이런 움직임에서 대학, 연구 기관, 재단들의 움직임도 다양하게 이루어지고 있는데 최근 가장 눈에 띄는 조직이 ‘AI NOW 연구소’이다. 이 연구소는 포드 재단과 맥아더 재단이 지원한 연구소로 케이트 크로포드 교수와 메레디스 휘트테이커 교수가 공동 설립자로 활동하며, 뉴욕 대학이 운영하고 있다. 이 연구소는 인공지능이 어떻게 개발되고 사용되어야 하는가에 대한 국제 토론을 이끌고 있으며, 주요 연구 주제는 크게 권리와 자유, 노동과 자동화, 편향과 포용, 안전과 중요한 인프라로 구분하고 있다.

 

AI NOW는 2019년 12월에 연간 보고서를 발행했는데, 여기에는 해로운 인공지능에 대한 점증하는 반격, 2019년에 새롭게 등장한 긴급한 우려들 두 가지의 큰 주제로 현재 인공지능 산업에서 사회가 풀어내야 하는 이슈를 정리하고 있다.

 

이런 문제를 단지 기술이 아닌 21세기 인문학 연구로 풀어야 한다는 신념으로 세계적 사모펀드 운영 회사인 블랙스톤 창업자인 슈워츠만은 MIT와 옥스포드에 각각 3억 5천만 달러와 1억 5천만 파운드를 기증해 새로운 연구 그룹을 만들기도 했다. MIT에는 컴퓨팅 칼리지를 세우고, 옥스포드 대학에는 인문학 센터를 만들었다. 인문학 센터 안에는 세계 최고 수준의 철학자와 인문학자들과 아카데미, 기업, 정부의 인공지능 사용자 및 기술 개발자들이 인공지능의 윤리와 거버넌스를 연구하도록 했다.

 

신뢰성을 위한 기업의 움직임

기업들의 움직임도 매우 빠르게 진행되고 있으며, 앞에서 말한 인공지능의 사회적 이슈나 원칙에 대응하기 위해 새로운 기술과 도구를 발표하고 있다. 구글이 수행하는 연구 프로그램 중 하나는 ‘페어(PAIR)’라는 프로그램으로 ‘People+AI Research’의 약자이다. 이는 인간 중심의 연구와 디자인으로 인공지능 파트너십이 생산적이고, 즐거우며 공정하게 되도록 하는 노력이다.

 

이 프로그램을 통해 구글이 2018년 9월에 소개한 것이 ‘왓이프 (What-If) 도구 (WIT)’이다. 텐서보드 웹 애플리케이션의 새로운 기능으로 사용자가 추가 코드 작성 없이 머신 러닝 모델을 분석할 수 있게 한다. 즉, 텐서플로우 모델과 데이터셋에 포인터를 주면 왓이프 도구는 모델의 결과를 탐색할 수 있는 비주얼 인터페이스를 인터랙티브하게 제공한다.

WIT에서 5 가지 유형의 공정성에 맞춰 데이터를 정렬해 보는 기능

마이크로소프트는 ICML 2018년에 발표한 논문에 기반을 둔 방식으로 일반적인 분류기를 다양한 공정성 정의에 따라 공정한 분류기로 변화시키는 증명 가능하고 실용적인 확실한 방안을 제시한다. 이 도구를 ‘fairlearn’이라는 이름으로 깃허브에 공개하고 있다.

 

페이스북은 2018년 F8 컨퍼런스에서 머신 러닝 알고리듬이 편향되어 있는지를 결정하는 내부 프로젝트인 페어니스 플로우를 개발 중이라고 발표했으나, 내부용으로 사용하는 중이다. IBM은 ‘AI 공정성 360 (AIF 360) 툴킷을 제시하고 있는데, 이는 알고리듬에 의한 원하지 않은 편향을 찾고, 이해하고, 완화하기 위한 확장 가능한 툴킷이다.

 

설명과 해석을 위한 접근도 여러 방향으로 이루어지고 있다. 마이크로소프트가 인공지능의 ‘블랙박스’ 문제를 해결하기 위한 시도로 내 놓은 오픈 소스 소프트웨어 툴킷인 인터프리트ML은 인공지능 시스템의 결과를 설명하기 위해 개발자가 여러 방법으로 실험할 수 있게 돕도록 한다.

 

구글은 2019년 11월 런던에서 열린 ‘구글 넥스트’ 이벤트에서 또 다른 방식의 설명 가능 인공지능 기능을 선 보였다. 아직 베타인 ‘설명 가능 인공지능(Explainable AI)’은 해석 가능하고 포용적인 머신 러닝 모델을 도입하기 위한 도구와 프레임워크이다.

구글의 설명 가능 인공지능 주요 기능

IBM의 설명가능성 360 툴킷은 파이썬으로 작성한 확장 가능한 오픈 소스 툴킷으로 머신 러닝 모델이 인공지능 애플리케이션 전 생애 주기 동안 어떻게 레이블을 예견하는지를 다양한 수단을 통해서 이해하도록 한다.

 

그러나 이런 도구는 아직 개발자를 위한 설명과 해석이지 일반 사용자를 대상으로 하는 기능이 아니다. 모델을 이해하고 데이터를 조정하는 일을 지원하는 것이기 때문에 본격적인 설명 가능성에 대한 연구는 좀 더 설명 생성과 심리학적인 연구를 통한 접근이 필요한 상황이다.

 

우리의 방향

최근 정부가 발표한 인공지능 국가 전략을 보면 이런 이슈에 대해 파편적인 접근을 하고 있다. 인공지능과 조화 공존이라는 주제 하에 일자리 문제와 역기능 방지, 윤리 이슈를 제시했으며, 법제도 정비를 내세웠다. 그러나 이런 문제는 지난 2-3년을 지나면서 보다 통합적 시각으로 발전했으며, 명확한 주제들이 제시되었다.

 

따라서 이제는 신뢰할 수 있는 인공지능을 위한 거버넌스 차원에서 검토가 필요하며, 이에 대한 기술 개발과 정책 수립, 그리고 지원 체계와 감독 기관 지정 등의 문제가 필요하다.

또한, 이런 주제는 한 국가에서만 만들어 갈 수 없기 때문에, 국제적 협조와 공조가 필요하며, 연구 집단/ 정책 기관/시민 단체/정부 각 계층별로 국제 협력이 이루어져야 하며 동시에 이들을 엮어 내는 노력이 필요하다

 

또한, 민간 기업 간의 상호 협력을 위한 공동 연구 기관의 설립과 협력 연구 프로젝트를 구성해 공동 노력하는 자세가 필요하다. 우리가 앞으로 다루어야 할 문제는 하나의 기업이 대응하기에는 너무나 크고 너무나 중요한 과제들이기 때문이다.

본 원고는 KISA Report에서 발췌된 것으로 한국인터넷진흥원 홈페이지(https://www.kisa.or.kr/public/library/report_List.jsp)에서도 확인하실 수 있습니다.

KISA Report에 실린 내용은 필자의 개인적 견해이므로, 한국인터넷진흥원의 공식 견해와 다를 수 있습니다.

KISA Report의 내용은 무단 전재를 금하며, 가공 또는 인용할 경우 반드시 [한국인터넷진흥원,KISA Report]라고 출처를 밝혀주시기 바랍니다.

Recent Posts
Contact Us

언제든지 편하게 연락주세요.

Not readable? Change text. captcha txt