[Vol.12] 사회변화를 이끄는 ‘행동하는 인터넷정책’으로의 패러다임 전환

 In KISA Report

사회변화를 이끄는 ‘행동하는 인터넷정책’으로의 패러다임 전환

이원태

정보통신정책연구원 연구위원

2019년 타임즈의 ‘올해의 인물’로 선정된 16세 환경운동가 그레타 툰베리(Greta Thunberg)는 우리 인류가 직면한 ‘기후 위기’에 대해 더 이상 침묵하지 말고 ‘기후 행동’에 나서야 할 중요한 시기가 바로 2020년이라고 말했다. UN과 같은 국제기구를 비롯해 전 세계 국가들도 ‘기후 위기’ 또는 ‘기후 변화’를 2020년의 중요한 정책의제로 삼고 이산화탄소배출 감소 등 지속가능한 대응전략 마련에 부심하고 있으며, 2020년에 예정된 주요국의 선거들에서도 기후 문제가 중점 의제로 부각되고 있다.

 

그런데 2020년은 기후행동의 전 지구적 요구만큼이나 인터넷의 영역에서도 중요한 전환점이 될 것으로 보인다. 최근 인터넷 기술의 미래를 전망하거나 인터넷의 사회적 영향과 관련한 이슈를 다루는 상당수의 연구자들이 기술적 솔루션에 대한 과잉의존 경향에서 탈피해 사회변화(social chage)에 좀 더 큰 비중을 두고 논의하기 시작했기 때문이다. 그들은 신기술의 사회적 책무성을 추상적으로 논의하는데 그치지 않고 구체적인 실행방법론을 마련하거나 책임 있는 정치사회적 실천까지 요구하기도 했다.

 

예컨대 알고리듬 편견이나 차별과 같은 이슈뿐만 아니라 기후 위기와 같은 글로벌 현안에 대해서도 인터넷과 관련한 정부, 기업, 학계가 보다 적극적이고 구체적인 문제해결에 나서야 한다는 공감대가 형성되고 있다. 오랫동안 인터넷이 인간의 행동 데이터를 추적해서 비즈니스화 하는데 유용한 수단으로만 간주되었다면, 올해는 인터넷을 사회변화를 추동하는 행동규범의 기제로 포섭하려는 움직임이 더욱 가시화될 것으로 보인다. 그런 문제의식에서 이 글은 최근 사회 변화의 관점에서 인터넷의 책임과 역할을 전망하는 다양한 논의들을 소개하고, 향후 알고리듬 시대의 인터넷 정책 과제는 무엇인지를 논의하고자 한다.

 

기술은 사회변화를 위한 책임성을 가져야 한다

주지하다시피 기술과 사회의 관계를 바라보는 관점에는 기술결정론(technological determinism)과 사회구성론(Social Construction of Technology)이 대립하고 있었고 인터넷 초기에는 기술이 사회를 바람직하게 바꿀 것이라는 낙관론이 지배했었다. 그러나 인터넷과 소셜미디어의 확산 속에서 인터넷을 통한 여론 왜곡과 디지털 포퓰리즘이 일상화되고 민주주의를 위협하는 요소로 변질됨에 따라 인터넷 기술에 대한 초기의 낙관론은 크게 신뢰를 잃게 되었다. 이같은 인터넷 낙관론의 퇴조와 비관론의 부상은 객관적인 사실(fact)마저 부정하고 알고리듬 기반의 가짜뉴스(fake news)를 더 신뢰하는 이른바 ‘진실의 쇠퇴(truth decay)’ 현상을 배경으로 하는데 이는 인터넷 기술에 대한 최소의 기대마저 붕괴했다는 것을 의미한다.

 

그렇다고 해서 기술의 사회적 맥락을 강조하는 사회구성론의 관점이 상대적으로 힘을 얻고 있는 것은 아니다. 기술혁신이나 기술변화의 과정이 정치사회적 시스템과 상호작용하는 상황을 중시하는 사회구성론은 인공지능이라는 새로운 기술의 압도적 영향력 앞에 새로운 규제체계의 미정립, 이해관계 상충의 제도적 조율 실패 등의 한계를 드러냈기 때문이다. 오히려 인공지능 단계의 인터넷 기술이 알고리듬으로 모든 것을 결정함에 따라 그러한 기술을 사용하는 개인과 집단 사이의 불평등을 더욱 심화되고 있는 실정이다. 어쩌면 비관론의 무게가 실린 기술결정론이 다시 부활한 것처럼 느껴진다. 물론 이는 디지털 기술의 엄청난 발전 및 압도적 지배에 비해 이를 규제할 규범력이나 능동적으로 대응하기 위한 사회적 힘이 취약하다는 뜻이다.

 

그러나 이 같은 인터넷 담론 지형의 변화는 오히려 기술의 사회적 책임을 좀더 강조하는 학계의 논의를 촉발시키고 있다. 이러한 논의의 가장 대표적인 예가 인공지능의 사회적 영향을 연구하는 미국 뉴욕대 인공지능연구소(AI Now Institute)가 최근 발간한 보고서 “AI Now 2019”(2019.12)이다. 이 보고서는 인종차별, 성차별 등 사회적 불평등을 심화시키는 인공지능의 부작용을 크게 우려하면서 기술전문가 및 정부관계자들에게 인공지능 기술의 사회적 책임성 강화와 함께 보다 강력한 알고리듬 규제 정책을 권고하고 있다. 특히 안면인식기술(face recognition technology) 등과 같이 사람들의 생활과 관련한 의사결정에 중대한 영향을 미치는 인공지능 기술의 사용 금지를 촉구하기도 했다.

뿐만 아니라 작년 12월초에 캐나다 밴쿠버에서 열린 “NeurIPS 2019”라는 데이터과학자 국제학술대회에서는 우리 모두가 직면한 알고리듬의 편견과 차별 문제가 기술적 접근으로는 미흡하고 사회적 구조를 바꾸는데 과학자들도 나서야 한다는데 공통된 의견을 모았다. 또한 영국 옥스퍼드대 옥스퍼드인터넷연구소(OII: Oxford Internet Institute)가 지난해 연말 향후 2020-2022년의 새로운 연구프로젝트로 인공지능, 기계학습 등 ‘신흥기술의 거버넌스(Governance of Emerging Technologies)’로 정하고 알고리듬 블랙박스의 설명가능성, 자동화된 의사결정(automated decision making)의 윤리적 조사 등의 이슈를 연구하는 이유도 그러한 맥락이라고 할 수 있다.

 

그리고 세계 최대 컴퓨터과학자들의 모임인 국제전기전자기술협회(IEEE)가 발행하는 저널 <<기술과 사회(Technology and Society)>> 2019년 12월호 특집도 “(기술적) 유용성을 넘어서”(Beyond Usability)라는 주제 하에서 인공지능 등 새롭게 급부상하는 디지털 기술의 영향을 ‘복합적인 사회기술체제(complex socio-technical system)’라는 관점에서 기술의 윤리적 설계(ethical design)를 중점적으로 다룬 이유도 기술의 사회적 책임성을 강조하는 최근의 상황 변화를 반영하는 것이라 하겠다.

 

‘정치 행위로서의 데이터 과학’ 그리고 인터넷 정책

그러면, 최근 인터넷 기술을 연구하는 과학자들이 사회변화, 특히 인공지능 등 새로운 인터넷 기술에 의해 심화하거나 고착되는 불평등의 정치사회적 조건을 바꾸는 문제에 대해서도 어떻게 목소리를 내고 있는지를 살펴보자.

 

첫째, 정부의 정책을 변화시키는데 적극 개입해야 한다는 것이다. 우리는 오랫동안 기술결정론의 압도적 우위 속에서 인터넷 경제의 급속한 발전을 가져온 인터넷 인프라, 인터넷 산업, 인터넷 정책(정부)의 삼위일체, 달리 말해 공공-사기업 기술동맹(public-private tech partnerships )을 너무 당연한 것으로 간주해왔다.

 

그런데 기술혁신의 주인공이나 책임을 모두 기업이 맡는 사이에 정부의 기술책임성은 모호하거나 은폐됐다. 예를 들면 최근 행정당국의 CCTV와 인터넷 기업의 안면인식기술이 통합되는 사례가 늘어났지만 기업의 책임론에 비해 정부의 책임론은 상대적으로 미흡했다. 기술의 부작용에 따른 사회적 피해에 대해 공급자인 기업에 전폭적으로 책임을 지우고 정부와 정치권의 면책은 당연시되는 규범 문화가 지배했던 셈이다. 사실상 정부의 알고리듬 기술 오남용에 대한 윤리적, 법제도적 책임 메커니즘이 존재하지 않는다는 뜻이다.

 

그러나 인공지능 등 신기술의 사회적 영향에서 기업의 책임에 비해 상대적으로 소홀히 다뤄진 정부의 책임성을 더욱 명확히 하고 문제의 정책은 개선하려는 논의 및 움직임이 과학자들 사이에서 지속적으로 나타나고 있다. 대표적인 논의가 뉴욕대의 케이트 크로포드(Kate Crawford) 교수와 제이슨 슐츠(Jason Schultz) 교수가 말하는 ‘국가행위자로서의 인공지능 시스템(AI System as State Actors)’론이다. 그들은 최근 들어 정부 차원의 알고리즘의 공적 사용이 증가하고 있으나 인권, 기본권, 공정성 등 헌법적 가치에 미치는 영향을 제대로 평가한 적도 없고 인공지능 이용에 따른 공공과 민간의 경계가 모호할 경우 국가의 책임 범위도 명확하지 않으며, 더구나 정부의 책임에 대한 공적인 감독 프로세스도 부재하다면서 인공지능과 관련한 국가의 역할을 명확히 할 필요가 있다고 강조한다.

 

학술적 논의와 더불어 최근 정부 등 공공차원에서 인공지능 기반의 자동화된 의사결정을 동결하거나 제한하는 미국 과학자들의 캠페인도 전개되고 있다. 특히 안면인식기술을 금지하는 캠페인이 매사추세츠, 오클랜드, 샌프란시스코 등에서 일어났는데, 일부의 연구 프로젝트가 중단되기도 했다. 또한 정부와 기업의 인공지능 알고리듬 정책에 대한 시민사회의 법률적 저항(즉 소송투쟁) 및 일상적인 감사(감시) 요구를 통해 정부의 정책을 변경한 일도 있었다.

 

요컨대, 종전까지는 구글, 페이스북 등 글로벌 테크 기업들에 대한 규제에 초점을 두었으나, 최근에서야 정부의 인공지능 알고리듬 이용 및 공공기관의 ‘자동화된 의사결정(ADS)’에 대한 통제를 과연 누가, 어떻게 할 것인가에 대한 논의가 급부상하기 시작한 셈이다. 이 때문에 알 고리듬의 사회적, 민주적 통제를 둘러싸고 시민사회와 전문가 공동체의 정부에 대한 정치사회적 압력이 크게 증대할 것이므로, 알고리듬 거버넌스 형성과정에서 정부의 정책 조율 역량은 더욱 중요해질 것으로 예상한다.

 

둘째, 기술이 정치적 이슈라는 점을 분명히 드러내자는 것이다. 기술의 정치적 성격은 기술이 선거운동을 위한 수단이 되거나 정치적 기능을 대체한다는 것이 아니라 기술이 정치적 의사결정 방식에 영향을 미치고 더 나아가 국가와 시장의 관계, 법 제도와 같이 한 사회의 규칙을 변경하는 힘을 지니고 있다는 뜻이다. 특정한 정파나 정당의 입장에 선다는 것이 아니라 기술의 ‘탈정치화’, 즉 기술과 정치의 관계를 분리하지 말고 알고리듬의 영향평가 등 과학적 데이터로 입법, 정부 등의 정책에 적극적으로 개입함으로써 제도적 조건을 변경하는 행위로서의 정치를 말하는 것이다. 즉 인공지능 등 신기술이 초래하는 인종차별, 성차별 등 불평등의 자동화에 대해서 기술적 해결에만 초점을 두지 않고 불평등의 사회적 구조를 바꾸는 데에도 대안과 실천을 요구하는 목소리를 내자는 뜻이다.

 

이러한 주장의 대표적인 과학자는 하버드대학의 ‘인터넷 사회를 위한 버크먼클라인센터’의 벤 그린(Ben Green) 교수인데, 그는 과학자와 기업들이 기술혁신의 목표를 ‘사회적 선(social good)’으로 막연하고 추상적으로 설정하고 정치적인 문제를 회피하는 것을 비판하면서 데이터 과학을 정치행위의 하나로 적극 규정할 것을 강조한다. 그는 데이터 윤리, 알고리듬 윤리 등의 추상적인 윤리원칙은 광범위한 사회 정의의 문제를 다루는 데 적합하지 않다면서 윤리 대신 사회 전체의 자원 분배에 영향을 미치는 정치가 더 필요하다고 주장한다. 그런 맥락에서 데이터를 추출해서 분석만 하지 말고 데이터 분석과 활용에 정치사회적 권한을 부여(empowering)해서 시민들의 보다 책임 있는 행동을 견인하는 ‘데이터 정치(data politics)’ 혹은 ’데이터 행동주의(data activism)’도 그러한 관점과 맥을 같이 한다고 볼 수 있다. 대규모의 데이터 속에서 알고리듬 차별이나 편견을 분석하고 드러내고 기술적 개선책(업데이트 등)을 제시하는 것도 중요하지만, 편견을 넘어 정의를 실현하기 위한 사회변화 전략도 고민하는 것도 과학자들의 책임이라는 것이다.

 

사회정의를 위한 포용적 기술로서의 인터넷

셋째, 인터넷 기술과 정책에서 공정성(fairness)의 문제를 적극적으로 포함해야 한다는 것이다. 이 문제가 중요해지는 이유는 그동안 우리가 엄청난 정보화의 진전을 이룩했으나 정보격차 또는 디지털 격차의 현안이 알고리듬 단계에 와서 오히려 더욱 심화하였기 때문이다. 그래서 알고리듬 윤리, 데이터 윤리와 같은 기술 윤리적 원칙이나 관련 정책이 매우 중요해진다는 것이다. 하지만 더블린대학의 아베바 버헤인(Abeba Birhane) 교수가 지적했듯이, 알고리즘 편견을 기술적, 윤리적으로 해결할 수 있다는 믿음은 ‘인공지능 과잉 서사(AI over-hype narrative)’, 즉 데이터 맹신주의에 불과하다. ‘디지털 넛징(digital nudging)’이라는 말이 있듯이, 사람들이 무의식적으로 자신의 습성이나 생활양식 등 개인의 행위를 알고리듬 기반의 자동화 메커니즘에 스스로 맞추도록 훈육되는 기제, 즉 ‘알고리즘적 식민주의화(algorithmic colonization)’는 기술적 수정이나 윤리적 선언으로 해결할 수 없다는 것이다.

 

이와 관련해서 플로리디 교수는 지금까지 우리가 두 가지의 규범적 접근방식, 즉 도덕적 평가에 기반을 둔 디지털 윤리(digital ethics)와 법규준수(legal compliance)에 초점을 둔 디지털 규제(digital regulation)에 치중해 왔는데, 정보사회가 올바르게 작동하도록 디지털 정책을 조율하고 또 정치사회적 조건의 변화까지 수반하는 정책 결정에 초점을 둔 디지털 거버넌스(digital governance)의 형성에 대해서도 과학자들의 적극적 관심이 필요하다고 주장한다(Floridi, 2018).

 

또한 앞에서 소개한 뉴욕대 인공지능 연구소(AI Now Institute)의 보고서도 알고리듬 편견 연구가 단순히 기술적 오류 수정을 넘어 정치적, 사회적 구조 변화에도 관여해야 한다고 주장한다. 인공지능의 편견이나 공정성 연구는 기술 통계적으로 엄격한 솔루션을 추구하는 수학적 접근방식의 한계를 넘어 인종주의, 사회적 약자, 다양성 등의 비기술적(non-technical)이고 사회적인 맥락(특히 사회정의)들에 관한 연구와 해결방안도 함께 지향해야 한다는 것이다.

 

그리고 기후문제라는 전 지구적 정의의 문제에 대해서도 인터넷의 적극적 관여가 요구된다. 기후 위기에 대응한 기후 행동이 본격화하는 상황에서 인터넷 기술 또한 기후 문제의 기술적, 사회적, 환경적 책임에서 자유롭지 못하다는 문제의식 아래서 이에 대응한 인터넷 기반의 적극적인 기후정책을 제시하지 않으면 안 될 것이다. 이미 일부 인공지능 과학자들은 인공지능 연구와 개발의 이산화탄소 배출량을 계산해 탄소감소의 기후정책에 적극적으로 부응하려는 움직임이 가시화하고 있다. 즉 기후문제 또는 환경문제를 알고리즘 책무성의 영역으로 간주하고 이에 책임 있는 연구와 정책을 제시하려는 노력인 것이다.

알고리듬 시대의 인터넷 정책 전망

앞에서 살펴본 바와 같이 인터넷 기술이 알고리듬 기반의 새로운 발전 단계에 이르면서, 기술과 사회의 관계를 근본적으로 다시 설정할 것을 요구하고 있다. 지금까지 우리는 새로운 인터넷 기술이 사회에 큰 영향을 미치고 또 역으로 사회가 신기술의 성격을 규정하는 등 기술과 사회의 상호작용에 대해 주로 일반론적으로 논의해왔다. 그러나 알고리듬화하는 인터넷 기술의 부작용이 기술적, 윤리적으로 통제하기 어려운 상황까지 간다면, 새로운 기술이 민주주의 사회를 지탱하는 최소한의 가치나 원칙을 약화시키거나 배제하지 않도록 하는 실질적인 노력이 더욱더 중요해지고 있다. 이제는 인터넷의 사회적 영향에 대한 분석과 정책 참조라는 정태적인 접근이 아니라 사회문제 해결 또는 사회변화를 추동하는 행위자로서 인터넷을 자리매김하는 동태적 정책 프레임워크가 그 어느 때보다 필요하다는 뜻이다.

 

그러나 그동안 우리의 인터넷 영역은 신기술의 차별적 권력 효과에 따른 공정성의 문제를 적극 제기하는데 매우 소극적이었고, 자율성, 투명성, 공정성 등의 원칙(principle) 중심의 What에만 초점을 두었지, 신기술의 위험성이나 부작용을 실제적으로 줄이기 위한 How에는 인색해 사회를 변화시킬 행동(action) 역량이 축적될 기회가 그리 많지 않았다. 특히 사회적 약자를 위한 보편적 디자인(Universal Design)의 기술적 프로그램만 있었을 뿐 그러한 문제를 반영한 사회조건의 변화를 가져오기 위한 구체적 실천력은 미흡했다. 사실상 인터넷 등 우리나라 IT 영역에는 ‘정치적 중립’으로 포장된 탈정치적 태도가 만연해 있었다고 해도 과언이 아니었다.

 

하지만 알고리듬 시대가 오면서, 인터넷 관련 연구자들은 기술적 문제를 추상화 하는데 머물기 보다는 인터넷 연구를 오히려 사회적 개입의 수단으로 간주해야 할 단계에 진입했다고 볼 수 있다. 알고리듬 단계의 인터넷 기술이 초래하는 경제적, 사회적 불평등이라는 근본적 문제는 단순히 기술적 개선의 차원을 훨씬 뛰어넘는 이슈이기 때문이다. 따라서 앞으로 신기술의 부작용을 해결하는데 기술적, 윤리적 접근의 한계를 인식하고 사회적 변화를 이끄는 행위자로서 자각하는 일이 중요하며, 더 나아가 인터넷 기술과 관련된 다양한 행위자들 간의 더욱 적극적인 상호작용, 대화와 토론, 숙의를 통해 사회의 변화와 혁신을 이끌어야 할 것이다. 프랑크 파스퀘일 교수가 말한 것처럼, 우리도 인터넷의 사회적 부작용을 기술적으로 개선하는 차원을 넘어 기술의 구조적인 문제도 적극적으로 다룰 수 있는 ‘알고리듬 책무성의 두 번째 물결(second wave of algorithmic accountability)’을 적극적으로 맞이할 필요가 있다.

본 원고는 KISA Report에서 발췌된 것으로 한국인터넷진흥원 홈페이지(https://www.kisa.or.kr/public/library/report_List.jsp)에서도 확인하실 수 있습니다.

KISA Report에 실린 내용은 필자의 개인적 견해이므로, 한국인터넷진흥원의 공식 견해와 다를 수 있습니다.

KISA Report의 내용은 무단 전재를 금하며, 가공 또는 인용할 경우 반드시 [한국인터넷진흥원,KISA Report]라고 출처를 밝혀주시기 바랍니다.

Recent Posts
Contact Us

언제든지 편하게 연락주세요.

Not readable? Change text. captcha txt