세계의 정보화, 디지털 홍수
스노든은 21세기형 정보 전체주의 내면을 보았나?
기원전 3세기 사람들은 “인류의 지식은 모두 지중해 알렉산드리아의 도서관에 소장돼 있다”고 말했다. 오늘날 사용 가능한 정보는, 모든 지구인에게 그 정보를 나누어줄 경우 알렉산드리아에 소장돼 있는 정보 전체의 320배에 달하는 양을 1명이 갖게 되는 엄청난 규모다. 총 1200엑사바이트(1엑사바이트는 10억 기가바이트, 즉 100만 테라바이트)에 달한다. 이 모든 정보를 CD에 기록할 경우 지구에서 달을 연결하는 기둥을 5개 세울 수 있는 양이다.
정보의 과도 팽창은 비교적 최근 현상이다. 2000년에는 세계에 기록된 정보의 4분의 1만이 디지털 형태였다. 종이, 필름, 그리고 아날로그 매체가 나머지 정보를 나눠가졌다. 파일의 급증으로- 그 양은 3년마다 2배로 늘어난다- 상황은 유례를 찾아볼 수 없을 정도로 변했다. 2013년 디지털 정보는 전체 정보의 98% 이상을 차지하고 있다. 영국과 미국에선 너무 거대해져서 통치자와 시민의 감시·감독을 벗어날 위험이 있는 정보 전체를 지칭하는 용어를 만들어냈다. ‘빅 데이터’(Big Data) 또는 ‘대량데이터(Mass Data)’가 그것이다.
엄청난 정보량 앞에서, 정보를 숫자로 파악하려는 유혹을 느끼게 된다. 하지만 그것은 현상의 핵심을 간과하는 일이다. 디지털 정보의 거대한 광맥은 지금까지 단 한 번도 수량화되지 않은 세계의 모습과 인류의 삶을 매개변수로 바꾸는 역량에서 만들어진다. 이 과정을 ‘데이터화’(Datafication)라 말할 수 있다. 예를 들어 어떤 장소나 사람의 위치 파악은 우선 위도와 경도의 교차로 정보화된 후 위성항법장치(GPS) 절차를 거쳐 정해진다. 페이스북을 통해, 개인적 취향, 친구 관계, 그리고 ‘내가 좋아하는 것’마저 가상 메모리에 각인된 데이터로 변한다. 컴퓨터가 오랫동안 세계 문학을 디지털화하면서 이제 단어마저 정보 요소로 다루어지지 않는 것이 없다.
그렇게 만들어진 베이스들은 점점 더 저렴해지는 컴퓨터 메모리, 점점 더 강력해지는 프로세서, 점점 더 정교해지는 알고리즘, 그리고 통계 계산 기본원칙 조작을 거쳐 모든 종류에 놀랍게 활용될 수 있다. 자동차 운전이나 텍스트 해석 같은 일을 컴퓨터에 가르쳐주는 대신- 인공지능 전문가 집단이 수세기 동안 실패를 거듭해온 목표- 새로운 접근은, 어떻게 하면 교통신호등이 빨간불이 되기보다 끊임없이 초록불이 될 수 있는지 그 경우의 수를 추론해내거나 어떤 맥락에서 영어단어 ‘Light’를 ‘가벼운’이 아니라 ‘빛’으로 번역해야 하는지 추론해내기에 충분한 양의 정보를 주입하는 쪽에 주력한다.
이런 사용은 우리들의 접근에 중요한 세 가지 변화를 전제로 한다. 첫 번째는 한 세기 전부터 통계학자들이 해오던 것처럼 선별적으로 정보를 분류하기보다 가능한 한 많은 정보를 수집하고 이용하는 것이다. 두 번째는 혼란에 대한 어느 정도의 관용이다. 셀 수 없이 많지만 불균등한 품질의 정보를 처리하는 일은 종종 나무랄 데 없이 적절한 작은 샘플을 개발하는 것보다 더 효과적이다. 마지막으로 세 번째 변화는, 많은 경우에 원인 규명을 포기하고 상관관계에 만족해야 한다. 어떤 기계가 왜 작동을 멈추었는지 정확하게 알아내는 대신, 연구자들은 기계의 작동 중지와 관계된 정보, 기계의 정확도를 확인할 수 있는 정보, 기계가 고장 날 위험이 있는 상황을 결정하기 위해 많은 정보를 수집하고 분석할 수 있다. 그들은 ‘왜’가 아니라 ‘어떻게’에 대한 대답을 찾아낼 수 있다. 그리고 종종 이것으로 충분하다.
구글과 독감의 확인된 알고리즘
인터넷이 사람들의 소통 방식을 완전히 바꿔놓은 것과 마찬가지로 사회의 정보 처리 방식도 근본적으로 변했다. 사실을 규명하거나 어떤 결정을 내리기 위해 인터넷이라는 보고(寶庫)를 탐색할수록 우리는 여러 측면에서 우리 존재가 확실성보다 확률에 지배되고 있음을 발견하게 된다.
디지털 정보에 대한 접근의 변화- 표본 추출이 아닌 치밀한 접근, 방법론적 접근이 아닌 무질서한 접근- 는 인과관계에서 상관관계로의 점진적 변화를 설명해준다. 사람들은 세계의 흐름을 지배하는 심오한 이유보다 다양한 현상을 서로 연결해줄 수 있는 조합에 더 관심을 보인다. 이제 목표는 사항을 이해하는 것이 아니라 최대 효율을 획득하는 것이다. 세계 최대 물류운송업체인 UPS를 예로 들어보자. 이 회사는 과거 발생한 부품 고장과 관련된 과열이나 진동 문제를 확인하기 위해 자사 차량 몇몇 부품에 센서를 설치했다. 그렇게 해서 고장을 사전에 진단하고, 문제가 있는 부품을 운행 중 교체하기보다 정비공장에서 교체할 수 있었다. 데이터는 온도 상승과 부품의 기능장애 사이의 인과관계를 식별하지 않는다. 데이터는 문제의 원인을 진단하지 않지만 비용이 많이 드는 작은 사고를 예방하기 위해 취해야 할 사항을 UPS에 알려준다.
동일한 접근 방식이 인체 기능 장애에도 적용될 수 있다. 캐나다에서는 이런 접근 방식을 이용해 연구자들이 조산아를 대상으로 감염 증상 발생 이전에 감염 부위를 알아내는 방법을 찾아냈다. 초당 1천 개 이상의 정보를 만들어내고 맥박, 혈압, 호흡수, 혈중산소도 등을 포함한 16개 지표를 결합해 사소한 기능 이상과 심각한 질병 사이의 상관관계를 수립해냈다. 이 테크닉을 통해 의사들은 생명을 구하기 위해 사전에 개입할 수 있게 될 것이다. 시간이 흐름에 따라 이런 관찰 기록은 그와 같은 감염을 야기하는 원인을 좀더 잘 이해하도록 도와줄 수 있을 것이다. 한 아기의 생명이 문제가 될 때, 이유를 알아내는 것보다 일어날 수 있는 일을 예측하는 것이 더 중요하다.
의료 분야 적용사례는 비록 원인이 불분명할지라도 상관관계를 파악할 수 있는 가능성을 잘 보여준다. 2009년 구글의 애널리스트들이 <네이처>지에 게재한 논문이 의학계에 큰 파문을 일으켰다.(1)
저자들은 “인터넷 거인 구글에 저장된 데이터를 통해 유행성 독감의 원인을 찾아낼 수 있다”고 주장했다. 구글은 미국에서만 하루에 수십억 건의 검색을 관리하고 각각의 검색을 세밀하게 보관한다. 구글은 2003~2008년 검색 엔진에서 가장 빈번하게 사용된 용어 5천만 개를 선별해 미국 질병통제예방센터(CDC)의 독감 파일과 교차시켰다. 몇몇 키워드의 반복 현상이 바이러스의 출현과 일치하는지 알아보는 것이 목표였다. 달리 말하면 구글의 몇몇 검색 빈도 수와 CDC에 기록된 지리적 동일 지역에 대한 통계 최대치 사이의 가능한 상관관계를 측정하는 것이다. CDC 기록은 전국 독감 환자들의 병원 진료기록을 집계하지만 이 수치는 한두 주 차이가 난다. 전국 규모의 유행병에서는 엄청나게 긴 시간이다. 그러나 구글은 실시간 통계를 제공할 수 있다.
이 분석집단은 설득력 있는 증거가 될 수 있는 키워드를 추측할 수 있는 어떤 요소도 확보하지 못했다. 그저 바이러스 공격과의 상관관계를 계산해내기 위해 모든 샘플을 기존 알고리즘에 적용시키는 데 만족했다. 그리고 가장 신뢰할 수 있는 모델을 얻기 위해 채택된 용어들을 결합시켰다. 5억 번의 계산 작업 끝에 구글은 ‘두통’ 또는 ‘콧물’ 같은 45개의 키워드를 찾아냈고, 그 단어들의 반복은 CDC의 통계와 일치했다. 주어진 지역에서의 검색 빈도가 높을수록 같은 지역에서 바이러스는 극성을 부렸다. 결론은 확실해 보일 수 있다. 하지만 하루 수십억 건의 검색을 행하는 점을 고려하면, 다른 방식으로 접근하기는 불가능했을 것이다.
구글이 처리하는 정보는 완벽하지 않다. 보건상 협조 외의 여러 다른 목적으로 이용·저장되기 때문에 오탈자도 많고 불완전한 문장도 수두룩하다. 하지만 데이터 은행의 어마어마한 규모는 데이터의 무질서한 성격을 충분히 보상하고 남는다. 결과로 드러나는 것은 단순한 상관관계일 뿐이다. 네티즌이 검색하게 만든 이유에 대해서는 어떤 설명도 주지 않는다. 자기 자신이 열이 났기 때문인지, 전철에서 어떤 사람이 자기 얼굴에 대고 재채기를 했기 때문인지, 그것도 아니면 텔레비전 뉴스를 보고 걱정이 돼서인지 알 수 없다. 구글은 그에 대해 아는 바가 없고, 또 구글과 상관없는 일이다. 게다가 지난해 12월 구글의 시스템은 미국의 독감 환자 수를 과대평가한 것 같다. 예측은 가능성일 뿐이고 결코 확실성이 아니다. 특히 그 가능성을 제공하는 분야- 인터넷 검색- 가 유동적이고, 특히 매체의 영향력에 취약한 성격이 있을 때는 더욱 그렇다. 아무튼 대량데이터가 진행 중인 현상을 확인해주는 것만은 틀림없다.
전문가들은 인터넷 자료 활용이 시작된 시기를, 마이크로프로세서와 컴퓨터 메모리의 눈부신 발전으로 점점 과다한 정보 저장과 분석이 가능해진 1980년대로 잡는다. 물론 기술의 발전과 인터넷의 출현이 정보의 수집, 저장, 처리, 공유 비용을 절감하는 데 기여한 것은 사실이다. 하지만 대량 정보는 무엇보다 세계를 이해하고 수량화하려는 데 목말라 있는 시대에 인류의 욕망을 드러내는 최신 표현이다. 이 새로운 단계의 의미를 탐색하려면 주위를 둘러볼 필요가 있다.
도쿄 산업기술연구소의 시게오미 고시미즈 교수는 요즘 사람들이 앉아 있는 방식을 연구하고 있다. 거의 다루지 않던 연구 분야지만 여러 가지 얻을 것이 많은 분야이기도 하다. 어떤 형태의 좌석이든 간에 사람이 앉아 있을 때의 자세, 굴곡, 체중의 분포는 수량화와 분석이 가능한 수많은 정보를 만들어낸다. 고시미즈 교수 연구팀은 자동차 운전석에 360개의 센서를 설치하고, 센서마다 0~256까지 구간을 분류해 운전자의 엉덩이 압력을 측정했다. 그렇게 수집된 데이터로 각 개인의 디지털 코드를 구성할 수 있다. 테스트 결과 이 시스템이 운전자를 식별할 정확성은 98%에 이르는 것으로 확인됐다.
이 연구는 보기보다 덜 엉뚱하다. 고시미즈 교수의 목적은 자신의 발견을 산업에 적용하는 것이다. 예를 들면 자동차 도난방지 시스템에 적용하는 것이다. 엉덩이 압력 감지 센서들이 장착된 자동차는 차량 소유주를 인식할 것이고, 소유주 외 다른 운전자에게는 시동을 걸기 전에 비밀번호를 요구할 것이다. 양쪽 엉덩이를 디지털 정보로 변환하는 작업은 높이 평가할 만한 서비스이자 수익 잠재성을 가진 사업이다. 더구나 차량 소유권 보호 외의 다른 목적으로 사용될 수도 있다. 예를 들면 운전자의 자세와 도로안전의 관계, 운전자가 핸들을 잡았을 때의 동작과 사고를 일으킬 위험 사이의 관계를 밝혀줄 수 있기 때문이다. 또한 운전자가 운전 중에 졸 때 센서가 작동해 경보음을 울리거나 자동으로 브레이크를 밟을 수도 있다.
뉴욕시의 화재 예방 전략
고시미즈 교수는 이때까지 데이터로 한 번도 다뤄지지 않았고, 심지어 최소한의 정보 가치를 가진 것으로 여기던 대상에 집중했고, 그것을 수량화된 디지털 포맷으로 변환했다. 정보화(데이터화)는 계수화(디지털화)와는 다른 것을 지칭한다. 디지털화는 텍스트, 필름, 사진 등 아날로그 콘텐츠를 컴퓨터가 읽어낼 수 있는 0과 1의 조합으로 배열하는 것을 말한다. 정보화는 더 넓은 활동과 관련되고 생각지 못한 곳에 적용할 수 있다. 서류뿐만 아니라 삶의 모든 양상을 디지털화할 수 있다. 구글이 만들어낸 안경, 즉 카메라와 마이크가 장착돼 있고 인터넷에 연결되는 안경은 우리 시선을 데이터로 바꿔놓는다. 트위터는 우리 생각을 데이터로 바꿔놓고 링크드인(LinkedIn) 역시 우리 직업적 관계를 데이터로 바꿔놓는다.
어떤 사항이 데이터화 처리를 받게 되는 순간부터 용도 변경과 정보의 새로운 가치 변화가 가능해진다. 일례로 IBM은 2012년 ‘정보통신(IT) 기술을 통한 사무실 보안’으로 특허를 획득했다. 이것은 스마트폰 스크린 감지기를 사무실 바닥에 설치해 발로 터치할 수 있는 방식을 사용하는 대단히 난해한 형태를 지칭하는 것이다. 바닥 표면의 데이터화는 여러 가지 전망을 가능하게 한다. 사람이 있으면 바닥이 반응할 수도 있고, 집에 들어갈 때 불이 켜질 수도 있고, 몸무게나 걸음걸이로 방문객을 식별할 수도 있다. 누군가 넘어져서 다시 일어서지 못할 때 경고음을 울릴 수도 있다- 노인에게 흥미로울 수 있는 적용이다. 상인은 매장 내에서 고객의 동선을 쫓아갈 수 있다. 인간의 모든 활동이 기록 가능하고 활용할 수 있게 됨에 따라 우리는 세상에 대해 더 많은 것을 알게 된다. 그것을 측정할 수 있는 접근 가능하고 적합한 도구가 없었기 때문에 이전에는 결코 알지 못한 것들을 알게 된다.
마이클 블룸버그는 디지털 데이터 산업으로 엄청난 돈을 벌었다. 그가 시장으로 있는 뉴욕시가 공공서비스 효율성을 강화하기 위해, 특히 비용 절감을 위해 디지털 정보를 사용하는 것은 놀라운 일이 아니다. 뉴욕시의 화재 예방 전략은 그 좋은 예가 된다. 임대 목적으로 내부를 불법 분할 개조한 건물은 다른 건물보다 화재로 소실될 위험이 크다. 뉴욕시에는 과밀 대형건물 관련 제소가 매년 2만5천 건 접수되지만 이에 대응하기 위한 감독관은 200명에 불과하다. 시청의 소규모 분석팀이 이 문제를 연구했다. 수요와 대응 인력의 불균형을 줄이기 위해 뉴욕시는 90만 개 건물에 대한 데이터뱅크를 만들고 이를 19개 시 지국의 지표, 즉 세금 감면 리스트, 시설의 불법 사용, 단전 단수, 임대료 미납, 앰뷸런스 운행, 범죄율, 설치류 존재 유무 등으로 보완했다. 분석가들은 이 엄청난 정보와 이전 5년 동안의 화재 관련 통계 사이의 상응관계를 작성했다. 건물의 유형과 건축연도가 화재 노출에 중요한 역할을 한다는 사실을 어렵지 않게 찾아냈다. 또 건물 외벽 청소 허가를 얻은 건물이 화재 위험이 훨씬 적다.
데이터의 교차를 통해 시청팀은 제소에 대해 관심을 기울여야 하는 비율 기준을 완성할 수 있었다. 그 자체로 화재 원인으로 간주될 수 있는 특성은 하나도 없었다. 하지만 그 특성은 화재 발생 단계와 밀접한 관련이 있었다. 뉴욕시 감독관들은 이 발견에 대단히 기뻐했다. 과거에는 그들이 점검한 건물의 13%에만 퇴거 명령을 내릴 수 있는 데 반해 새로운 방법론을 채택하자 70%로 그 비율이 높아졌다.
대량데이터는 민주적 생활에 더 많은 투명성을 확보해주기도 한다. 공적 데이터(오픈 데이터) 개방요구 운동은 단순한 정보의 자유를 넘어서 정부가 축적한 데이터 마운틴- 적어도 국가 기밀에 속하지 않는 데이터- 에 모든 사람이 접근할 수 있도록 정부에 압력을 가한다. 미국은 연방정부 문서를 사이트(Data.gov)에서 온라인화함으로써(민감한 부분은 삭제하고) 이 방면에서 최첨단을 달리고 있고, 다른 나라들도 미국을 모방하고 있다.
국가가 대량데이터 사용을 장려하면서 시장 당사자에 대항하는 시민을 보호할 필요성이 발생한다. 구글, 아마존, 또는 페이스북 같은 기업들- 여기에 액시엄이나 엑스피리언 같은 좀더 은밀하지만 그렇다고 덜 위험하다고 할 수 없는 ‘데이터 브로커’를 추가해야 할 것이다 - 은 누구에 관계된 것이든, 무엇에 관계된 것이든 상관없이 매일 어마어마한 양의 정보를 수집한다. 소프트웨어나 미디어 같은 재화 및 서비스 산업에는 독점금지법이 존재한다. 이런 감독은 상대적으로 평가하기 쉬운 분야에 제한된다. 하지만 파악하기 어렵고 변화무쌍한 시장에는 어떻게 반독점법을 적용할 것인가? 결국 개인의 자유를 억압할 위협이 있다. 데이터가 축적되는 만큼 관련 당사자의 동의 없이 정보를 사용하는 일이 가능해진다. 입법자와 기술이 해결할 수 없는 난관이다.
시장 조절의 형태를 확립하기 위한 시도는 국제 무대를 각축장으로 만들 수 있다. 유럽 정부들은 지배적 위치를 점한 구글이 예전의 마이크로소프트사와 마찬가지로 사생활을 무시하고 있다고 우려하며 구글에 해명을 요구했다. 10년 전 유럽연합집행위원회는 마이크로소프트사에 시정 명령을 내린 적이 있다. 페이스북 또한 사용자들이 보유하는 천문학적 정보량 때문에 여러 나라 법정의 감시 대상이 되고 있다. 정보 유통의 자유무역법 포함 여부를 알아내야 하는 문제로 외교관 사이에 힘든 싸움이 벌어지리라는 예측도 할 수 있다. 중국이 계속 인터넷 검색엔진 사용을 통제한다면 언젠가는 국제재판소가 표현의 자유 위반뿐만 아니라 통상 관계에 방해가 된다는 이유로 중국을 기소하는 상황을 상상할 수 있다.
국가가 개인의 자유를 보호할 가치가 있는 것으로 간주하는 법을 배우기를 기다리면서 대량데이터 산업은 아주 평온하게 빅브라더의 모습을 현실화한다. 지난 6월, 에드워드 스노든은 자신이 근무하던 정보수집 기관인 미 국가안보국(NSA)이 개인의 전화통화 외에 검색엔진에서의 검색, 페이스북에 올린 메시지, 스카이프 대화 등, 개인 정보 감시활동을 해왔다고 폭로했다. 미 당국은 법원의 지원을 받아 수집한 정보는 ‘혐의가 있는’ 개인에 국한된 것이라고 설명했다. 하지만 미 국가안보국의 모든 활동은 기밀로 남아 있고 누구도 그것을 확인할 수 없다.
스노든 사건은 데이터 영역에서의 국가 권력을 강조한다. 디지털 정보의 수집자와 개발자는 사실 음울한 공상과학과 크게 다르지 않은 새로운 형태의 전체주의를 만들어낼 위험이 있다. 필립 K. 딕 원작의 2002년 개봉영화 <마이너리티 리포트>는 예측이라는 종교로 통치되는 가상 미래 세계의 이야기다. 톰 크루즈가 연기한 주인공은 범죄가 일어나기 전에 범죄를 저지른 사람을 체포할 수 있는 경찰 팀장이다. 언제 어디서 어떻게 범죄가 발생할지 예측하기 위해 경찰은 절대 틀리지 않는 예언 능력을 가진 이상한 존재의 도움을 받는다. 영화는 이같은 시스템의 오류와 나아가 자유 의지의 원칙에 대한 부정을 폭로한다.
아직까지 범죄를 저지르지 않은 범죄자를 식별해낸다는 아이디어는 사실 우스꽝스러운 것이다. 그런데 이제 그런 생각은 고위 권력층 내에서 진지하게 고려되고 있다. 대량데이터 덕분이다. 2007년, 미국 국토안전부- 2003년 조지 W. 부시 대통령에 의해 창설된 일종의 대테러 업무담당 행정부처- 는 아직까지는 무죄이지만 훗날 범죄자가 될 것이 확실한 ‘잠재적 테러리스트’를 찾아내기 위한 프로젝트를 시작했다. FAST(Future Attribute Screening Technology)라 불리는 이 프로그램은 요주의 인물의 행동, 신체 언어, 생리적 특징 등과 관련된 모든 요소를 분석한다. 오늘날의 예언가는 점치는 도구를 써서 예언하지 않고 데이터 처리 소프트웨어로 예언한다.(2) 로스앤젤레스, 멤피스, 리치먼드, 산타크루즈 같은 대도시에서 기동대는 과거 범죄 관련 정보처리를 통해 범죄가 발생할 시기와 장소를 알아낼 수 있는 ‘예측 보안’ 소프트웨어를 채택했다. 지금으로서는 이 시스템을 통해 용의자들을 식별해낼 수 없다. 하지만 언제가 그렇게 되리라는 것은 놀라운 일이 아니다.
재발견한 예측 불가능성의 미덕
그렇지만 미국 지도자들이 숫자의 확실성에 지나친 기대를 한 것을 뼈저리게 후회하는 경우도 있다. 존 케네디 대통령과 린든 존슨 대통령 정부에서 국방장관을 지낸 로버트 맥나마라는 베트남전에서 통계로만 미군의 전적을 평가했다. 그는 미군이 제거한 적군의 수를 그래프로 만들고 예의주시했다.
매일 신문에 발표되는 베트콩(베트남 공산주의자) 사망자 수는 지휘관에 대한 질책 또는 격려 형태의 메시지가 됐고, 전략과 그 시대 상징의 주요 데이터가 됐다. 참전 지지자들에게 그 수는 승리가 머잖았다는 보장이 되었고, 반대자들에게는 베트남전이 추악한 전쟁임을 보여주는 증거가 됐다. 하지만 이 수는 실제 전장의 현실과는 다르게 잘못 집계되는 경우가 많았다.
데이터 해석이 현대인의 생활 조건을 개선시킬 때 우리는 기뻐할 수밖에 없지만 상식을 포기하는 데까지 이르러서는 안 될 것이다. 미래에는 좋을 때나 나쁠 때나, 점점 더 데이터를 통해 지구상의 큰 문제를 관리하게 될 것이다. 예를 들어 기후온난화 대처 문제도, 대처 우선지역을 파악하기 위해 공해에 관한 모든 정보를 수집해야 할 것이다. 수많은 사람이 사용하는 스마트폰을 포함해, 지구상에 센서를 설치하면 기후학자들이 더 신뢰할 수 있고, 더 정확한 모델을 마련할 수 있게 될 것이다.
그러나 대량데이터가 점점 힘을 가진 자들의 결정과 행동 방향을 정하게 되는 상황에서 보통 사람들, 디지털의 폭정에 둔감한 사람들, 또는 흐름에 역행하는 사람들에게는 어떤 자리가 남게 될 것인가? 기술 도구의 숭배가 각 개인에게 강요된다면, 그 반동으로 인류가 본능, 위험감수, 사고, 그리고 심지어 오류 같은 예측 불가능성의 미덕을 재발견할 수 있다. 본능, 상식, 논리에의 도전, 삶의 우연, 그리고 인간의 본질을 구성하는 모든 것이 컴퓨터의 계산보다 앞서는 공간을 보존할 필요가 생겨날 수도 있다.
‘진보’라는 개념의 지속은 대량데이터에 부여된 기능에 좌우된다. 대량데이터는 실험과 탐구를 용이하게 하지만 발명의 섬광이 번쩍일 때는 침묵한다. 미국 실업가 헨리 포드가 소비자들이 원하는 것을 알아보기 위해 컴퓨터 알고리즘에 질문을 던졌다면, 아마 컴퓨터는 “더 빠른 말”이라고 대답했을 것이다.
글·빅토르 메예르쇤베르거 Victor Mayer-Schönberger
글·케네스 쿠키어 Kenneth Cukier
메예르 쇤베르거는 옥스퍼드대학의 인터넷 연구소에서 인터넷 거버넌스와 인터넷 규제에 대해 강의를 하며, 네트워크 경제에 관한 연구에 집중하고 있다. 주요 저서로, 쿠키어와 공저한 <Big Data: A Revolution That Will Transform How We Live, Work, and Think> (HMH·2013), <Delete: The Virtue of Forgetting in the Digital Age (Princeton, 2009)> 등이 있으며, 2010년에는 마셜 매클루언 저술상을 수상했다. 작가 케네스 쿠키어는 인터넷의 정치·사회적 의미에 관한 글을 주로 쓰고 있다.
번역·김계영 canari62@ilemonde.com
파리4대학 불문학 박사. 저서와 역서로 <청소년을 위한 서양문화사>(2006), <키는 권력이다>(2008) 등이 있다.
(1) 제레미 긴스버그, 매튜 H. 모헤비, 라즌 S. 파텔, 리네 트 브레이머, 마크 S. 스몰린스키, 래리 브릴리언트, ‘검색엔진 데이터 질의를 이용한 유행성 인플루엔자 감지’, <네이처>, 457호, 런던, 2009년 2월 19일.
(2) 파블로 젠슨, ‘사회갈등의 디지털 시뮬레이션’, <르몽드 디플로마티크>, 2013년 4월호.