본문 바로가기
국내도서

대량살상수학무기 - 어떻게 빅데이터는 불평등을 확산하고 민주주의를 위협하는가

by 글쓰남 2017. 9. 26.
반응형
대량살상수학무기 - 10점
캐시 오닐 지음, 김정혜 옮김/흐름출판

《사피엔스》의 저자 유발 하라리는 “21세기 인본주의 시대에는 인간의 감정이 최고의 권위를 누렸지만, 미래에는 알고리즘이 우리 삶을 지배할 것”이라고 예측했다. 유발 하라리의 분석처럼 우리는 힘을 가지기 위해 우리 존재를 숫자와 점으로 바꾸고 평가를 알고리즘에 맡기고 있다. 우리는 이런 흐름을 ‘빅데이터’라고 부른다. 빅데이터는 방대한 양의 데이터를 논리적이고 합리적인 알고리즘으로 계산해 인간이 인지하지 못하는 질서와 규칙을 찾아낸다. 따라서 빅데이터 모형은 편견에 사로잡힌 인간보다 공정하며, 개인의 권리와 이익을 보호한다고 알려져 있다. 


그런데 2016년 미국에서 출간돼 지금까지 뜨거운 논란을 일으키고 있는《대량살상수학무기》는 누가 어떤 목적으로 사용하는가에 따라 알고리즘은 전혀 다른 얼굴을 가질 수 있다고 말한다. 

미국의 상하원 선거가 치러지던 2010년, 페이스북의 연구진들은 한 가지 질문을 던진다.(본문 300쪽 참조) 



“페이스북 알고리즘을 조정해 정치 시스템에 영향을 줄 수 있을까?”

페이스북은 이 질문에 답을 찾기 위해 ‘투표 메가폰’이라는 캠페인을 시작했다. 연구진들은 상하원 선거 당일 투표에 참여한 페이스북 이용자가 ‘나는 투표했다’는 게시물을 올리면, 친구들의 뉴스피드에 해당 게시물이 우선적으로 노출되도록 알고리즘을 조정했다. 투표일에만 6100만 명의 페이스북 사용자가 ‘나는 투표했다’는 게시물을 올렸고 이에 자극을 받은 다른 이용자들도 경쟁적으로 페이스북에 투표 인증을 했다. 페이스북은 ‘투표 메가폰’이 약 34만 명의 유권자를 투표소로 더 불러낸 것으로 추정했다. 이는 미국 한 주의 전체 선거 결과뿐 아니라 전국적인 선거 결과에도 영향을 미칠 수 있는 숫자로, 투표 당일 페이스북의 알고리즘을 어떻게 조정하느냐에 따라 선거결과를 바꿀 수도 있음을 뜻한다. 


《대량살상수학무기》는 알고리즘의 힘을 ‘신’ 같은 존재로 비유한다. 알고리즘의 의사결정 과정은 수학과 IT기술로 숨겨져 있어서 일반인들이 이해하기 힘들다. 각 영역의 최고 사제들, 즉 수학자와 컴퓨터 과학자 들을 제외하고는 그 누구에게도 내부의 작동 방식을 알 수 없다. 페이스북의 사례에서 보듯이 오히려 인간은 알고리즘의 결정을 자발적인 선택이라고 믿는다. 



반응형