알고리즘은 판사의 면죄부인가?

컴퓨터가 판사의 판결을 돕는다면

2024-02-27     라파엘 켐프 l 프랑스 변호사

구속시킬 것인가? 어떤 형량을 선고할 것인가? 이 질문의 답을 찾기 위해 미국의 일부 판사들은 알고리즘을 이용한다. 알고리즘은 수천 건의 과거 사건을 토대로 피의자의 재범 가능성을 계산한다. 공식적으로 알고리즘 덕분에 보석 석방이 줄고, 교도소 과밀 수용 문제가 해결됐다. 그러나 알고리즘은 완벽한 해결책이 될 수 있을까?

 

10여 분의 논쟁 끝에 리처드 버크 교수는 “나의 알고리즘은 대부분의 판사들보다 정확하고 공평하다”라며 화를 냈다. 그는 두 번이나 이 말을 반복했다. 리처드 버크는 펜실베이니아 대학의 통계학 교수이자, 범죄학 명예교수다. 그는 보호관찰관과 판사의 결정에 도움을 줄 수 있는 수학적 공식을 20년 동안 연구했다. “한 마디로 나의 알고리즘은 앞으로 중범죄를 저지를 사람과 저지르지 않을 사람을 예측한다. 일례로, 이 알고리즘의 결과는 다른 정보들과 함께 보호관찰 지속 여부를 결정하는 데 쓰일 것”이라고 그는 설명했다.

 

얼마나 위험한 사람인가? 재범 가능성은?

버크 교수는 30만 건의 케이스를 바탕으로, 보호관찰 기간 동안 개개인의 행동을 관찰하고, 여러 전기적 자료들(나이, 성별, 전과 등)을 적용해 이런 레시피를 만들었다. 그는 이 알고리즘으로 법정 출두 여부, 재범을 저지를 위험성과 같은 개인의 행동을 예측할 수 있다고 단언했다. 이 분야의 선두주자인 필라델피아 보호관찰소는 버크 교수의 수식으로 관할 지역의 거의 모든 범죄자들의 위험성을 평가하고 있다. 10년 동안 알고리즘을 사용한 후에 어떤 결과를 얻었을까? 교수의 권고에 따라 관련 기관은 우리의 인터뷰 요청을 거절했다. 그러나 버크 교수의 연구들은 위험성의 평가 도구로 쓰였고, 그 결과는 긍정적으로 평가된다. 알고리즘은 몇 년 동안 펜실베이니아와 필라델피아에서 보호관찰뿐 아니라 형량을 결정하는 데 사용됐다. 

2010년, 주 법령에 따라 펜실베이니아 범죄 위원회는 ‘사회질서에 위협이 될 위험성과 재범을 저지를 위험성을 평가하는데 도움이 되는 도구’ 개발에 착수했다.(1) 5년에 걸친 작업 끝에, 버크 교수가 이끈 알고리즘의 첫 버전이 공개됐다. 유죄판결을 받은 범죄자의 형량 결정을 돕기 위해서 ‘나이, 성별, 거주 구역, 과거 체포 횟수, 사법기관의 소환에 성실히 응했는지 등’ 9개의 리스크 요인들이 고려됐다. ‘인종’은 리스트 안에는 보이지 않지만, 인종과 긴밀한 상관관계에 있는 사회경제적 지표가 있다. ‘거주 구역’은 경찰이 수시로 순찰하고, 소수민족이 많이 거주하는 구역의 거주민에게 불리하게 작용한다. 과거의 체포 횟수는 특정 그룹들을 상대로 한 경찰의 심문이 빈번한 만큼, 객관적인 범죄 행동을 증명하기에는 부족하다.

이런 차별을 비판하기 위해 운동가들, 변호사들, 전직 전과자들이 즉각 행동에 나섰다. 반대자들의 의견을 청취한 후에 범죄 위원회는 사본을 재검토하고, 2019년 새로운 알고리즘을 공개했다. 2020년 7월 1일부터 사용된 새 알고리즘은 거주 구역이나 체포 이력을 적용하지 않는다. 대신 조금 더 객관적인 기준인 선고받은 횟수를 적용했다. 2004~2006년 유죄 판결을 받은 13만 1,055명의 자료를 적용하고, 각 위험 요인을 점수로 수치화해 피고인별 재범 가능성을 평가했다.(2)

 

돈으로 자유를 사는 보석금 제도

필라델피아시 재판부는 버크 교수의 협력으로 임시구속 결정을 도울 새로운 알고리즘의 제작을 시작했다. 피고인은 구속 상태로 재판을 받아야 하는가? 구속 석방에 적절한 보석금은 얼마인가? 현행 보석금 제도는 피고인의 부유함에 따라 석방 여부가 달라지기 때문에 많은 비판을 받고 있다. 이처럼 불공평한 제도는 미국의 교도소 과밀 수용에 기인한다.(3) 따라서 필라델피아시는 알고리즘으로 보석금 제도를 대신할 생각이다. “위험성 분석 프로그램은 보석 석방의 결정에 객관성을 실어주며, 감옥 수감자 수를 줄여 줄 것이다. 그러면서 동시에 인종별, 민족별 소득별 격차를 줄여 줄 것”이라고 필라델피아시는 2016년 맥아더 재단에 기부금을 요청하며 이렇게 기대했다.(4) 

그러나 알고리즘 프로세서에는 투명성이 부족하다. 2019년에 필라델피아 지방 검사 래리 크라스너와 국선변호사회 회장 키어 브래드포드 그레이는 이 프로젝트에서 손을 떼기로 결정했다. “차별적 제도 속에 뿌리내린 자료들을 토대로 만든 프로그램은, 인종별 격차를 공고히 할 뿐이며, 피의자의 인간성과 고유의 특성을 말살시킨다”라고 비판했다.(5) 결국 알고리즘은 폐기됐다.

보석금 공판 후, 보석금을 지불할 능력이 없는 필라델피아의 피고인들은 변호인석 뒷자리에 앉아야 한다. 재판소의 지하에 있는 방에서 판사, 검사, 국선변호사는 얼굴을 마주하고, 기소된 피고인은 수감된 감옥에서 화면에 등장한다. 몇 분 동안 신분과 죄목을 밝히는 절차를 거친다. 검사는 기계적으로 높은 금액의 보석금을 요구하고, 변호사는 합리적 보석금액을 위해 변론을 한다. 그리고 판사가 결정을 내린다. 4월의 월요일 아침, 법정에서는 1시간 30분 안에 8명의 석방을 알렸다. 2명은 보석금 없이 석방됐고, 남은 6명에게는 보석금이 부과될 것이다.

2017년 크라스너가 필라델피아 검찰의 검사장으로 당선된 이후, 필라델피아의 수감자 수는 크게 감소했다. 2016~2023년 사이에 40%가 감소했다.(6) 전직 형사 변호사인 크라스너는 누구보다 교도소 수감자 수 감축에 열성적이며 특히 경범죄자의 보석 석방을 주장한다.(7) 사법 분야에서 정치적인 결정은 항상 디지털 도구보다 훨씬 효과적이다. 

필라델피아시와 캠던시를 가로지르는 강의 다른 편에 위치한 뉴저지주는 알고리즘으로 보석금을 대체하는 큰 전진을 이뤘다. 2014년 주민투표로 채택된 사법 개혁의 일환이다. 공화당 주지사인 크리스 크리스티는 과도한 수감자 수를 줄여서 재정을 절약하고자 주민투표를 실시했다. 미국시민자유연맹(ACLU) 소속 변호사 알렉산더 샬롬은 “이 알고리즘의 도입은 일종의 딜이다. 알고리즘으로 인해 제도의 중심은 돈에서 위험성으로 바뀌었다”’라고 우리에게 설명했다.

보석금 제도를 없애고 알고리즘을 도입하자 임시구속 공판이 근본적으로 달라졌다. 샬롬 변호사는 우리에게 공판 참석을 권했고, 뉴저지 재판소의 인터넷 사이트 주소를 링크해줬다. 우리는 직접 참석하고 싶어서 캠던 재판소로 갔지만 헛고생이었다. 코로나19 팬데믹의 여파로 첫 공판은 화상회의로만 열렸기 때문이다. 전통적인 절차에서는 예외였던 것이 일상이 됐다. 

화요일 오후, 쿠르트 크레이머 판사의 주재로 열린 이 온라인 공판은 누구나 접속할 수 있었다. 4분할 된 화면의 구석에는 노란 유니폼을 입은 한 수감자가 보였고, 검사와 변호사는 사무실에 참석했다. 변호사와 검사는 45분가량 말을 주고받았다. 크랙마약 소지 혐의로 기소된 피고인의 마약 재판매 의도 혐의가 논쟁을 불러일으켰고, 유명한 공공안전평가(PSA) 알고리즘의 결론에 대한 긴 토론으로 이어졌다. 

임시구속 여부를 결정하기 위해서, 9개의 위험 요인을 적용해 분석한 후 알고리즘은 몇 페이지의 결론을 내놓았다. 9개의 위험요인은 나이(젊을수록 범죄를 저지를 위험이 높아진다), 재판 중인 사건의 수(현행 사건은 무죄 추정을 원칙으로 한다), 법정 출석률 등이다. 알고리즘은 3종류로 결론을 내린다. 재판장에 출두하지 않을 위험성 1~6. 재범을 저지를 위험성 1~6. 피고인이 폭력적인 범죄를 저지를 가능성이 있다고 판단되면 작은 깃발이 나타난다. 이 세 가지 요소가 합쳐져 전체 권고안이 결정되며, 결론은 대문자로 써 있다. ‘재판소에 권고함 - 석방 불허(위험성이 높음)’

화요일 오후 알고리즘의 평가서를 받아든 검사에게 결론은 명확했다. 피고인은 구속된 채 재판받아야 한다. “판사님, 피고인은 재판에 출석하지 않을 확률이 매우 높고, 재범을 저지를 확률도 높다는 것을 PSA의 평가서에서 확인하실 수 있을 겁니다”라고 검사는 말했다. 그리고 그는 PSA의 평가서를 정당화라도 하듯이 피고인의 위험성과 전과 기록의 세부사항을 강조했다. 변호사는 이 평가서는 자신의 고객에 대한 어떤 증거도 증명하지 못하며, 견고하지 못하다고 주장하며 기본원칙에 대해 변론했다. 이 평가서가 취약하다고 생각한 크레이머 판사는 가석방을 허용했다. 판사는 PSA의 평가서와 다른 선택에 대해 길게 설명했다. 그리고 사법계 당사자들은 컴퓨터 프로그램이 만든 평가에 대해 논쟁을 벌였다. 그들은 이것을 참조하고, 비판하고, 책임을 지거나 떠났다.(8) 알고리즘은 문장을 규정하지는 않지만 논쟁 방향을 이끌고 수렴시킨다.

 

알고리즘은 인종차별을 하지 않는다?

PSA는 아놀드 벤쳐스(Arnold Ventures) LCC 재단의 기부로 개발됐다. 텍사스의 석유와 금융 억만장자 부부가 설립한 재단이다. 재단에 연락하자 홍보부는 우리에게 알고리즘을 칭송하는 자료를 잔뜩 보냈다. 판사가 프로그램보다 더욱 인종차별적일 수 있다는 논리와 함께, 알고리즘이 인종 차별적이라는 생각을 퇴치하기 위해서였다.(9) 

“미래 행동을 예측할 때, 특히 폭력적 범죄를 예측할 때, 인간이 혼자 판단하는 것은 통계적 예측보다 불확실하다. (...) 판사보다 알고리즘의 우월한 점은 투명성이다. (...) 무엇보다 우리는 알고리즘이 어떻게 각각의 변수를 다루는지 시험하고 지켜볼 수 있다. 그러나 우리는 판사의 재판에 대한 판단 과정을 눈으로 확인할 수 없다.”라고 우리가 받은 기사 중 하나는 이렇게 표현했다.(10)

캠든의 임시구속 국선변호사회 회장 메그 버틀러 변호사도 PSA를 두둔한다. 물론 알고리즘은 인종적인 잣대를 폐지하지는 않았지만, 이는 일종의 ‘필요악’인 것이다. 알고리즘 없이는 보석금 제도는 폐지되지 못 할 것이다. 뉴저지주 퍼세이익카운티 상급법원의 어니스트 M. 케이포슬라 법원장은 맨해튼의 마천루가 보이는 사무실에서 우리를 맞이했다. 그 또한 알고리즘을 찬성한다. 그는 보안상의 성과는 물론이거니와 수감자 수를 감소시키고, 막대한 예산 절감에 기여하는 알고리즘을 칭찬했다. 이전에는 위험한 범죄자들은 보석금을 지불할 능력이 있으면 석방됐고, 사소한 경범죄자들은 돈이 없어서 감옥에 갇혀있었다. 알고리즘 덕분에 이런 비정상이 끝났다. 게다가 케이포슬라 법원장은 알고리즘은 보조 역할에 불과하며, 본인의 판결을 유지했다고 단언했다. “우리는 알고리즘에 얽매인 게 아니다. 컴퓨터와 사람은 함께 좋은 판단을 내릴 수 있다.”

뉴저지에서 PSA에 대한 비판의 목소리를 듣기는 힘들었다. 우리가 만난 사람들은 모두 알고리즘 덕분에 수감자 수가 대폭 감소했음을 언급했다. 2016~2023년에 수감자 수가 30%가 감소한 것은 사실이다.(11) 그러나 알고리즘을 사용하지 않고서는 보석금 제도를 없앨 수 없었던 걸까?

이 시스템이 이전 제도보다 공평하다면, 사법부의 기본적인 원칙들은 덜 훼손될 것이다. 공정성과 과학성을 무기로 삼는 리스크 평가 알고리즘은 이전의 심증을 확정하는 도구로서, 사실 분석과 인간의 상관관계를 근거로 사법적 판단이 이루어진다. 중요도가 상대적인 여러 기준을 바꿀 기회와 수학적 수식에 대한 정치적인 논의가 바뀌었다. 다시 한번 설명하자면, 이는 다소 억압적인 방향으로 결과를 이끌어내기 위해서다. “최근 알고리즘에 변화가 있었다. 석방 불허를 권하는 확률이 높아졌다”라고 버틀러가 말했다. 2022년 8월, 사법 개혁에 반대하는 의회의 압력에 떠밀려 뉴저지의 민주당 밀 머피 주지사는 법안에 서명했다. 총기 소지와 같은 엄중한 범죄로 기소된 사람들의(알고리즘을 토대로) 임시구속을 유지하는 법안이다.

 

과학적이라는 명목 아래… 불투명한 알고리즘

여러 도시와 여러 주에서 이런 디지털 도구를 도입하자, 사기업들이 대거 뛰어들면서 새로운 거대 시장이 형성됐다. 위스콘신주에서는 Equivant기업의 COMPAS 프로그램이 재판소에 도입됐다. “중대한 판정을 내릴 때 당신을 돕는 프로그램을 개발했습니다”라는 스타트업의 슬로건이 캘리포니아와 플로리다에 등장했다. PSA와는 달리, 우리는 COMPAS의 가동 프로세서나 적용 기준들을 전혀 알 수가 없다. 다른 사기업이 개발한 알고리즘처럼 거주지, 학력, 직업을 적용하는 것일까? Equivant기업은 ‘지적 재산권’과 ‘영업 비밀’을 이유로 우리의 인터뷰 요청을 거부했다.

이런 불투명성의 피해자인 에릭 루미스는 불투명성을 깨트리려 시도했다. 에릭 루미스는 2013년 위스콘신에서 총격으로 기소됐다. 알고리즘이 재범을 저지를 확률이 매우 높다고 판정하여, 그는 6개월 징역형을 선고받았다. 그는 알고리즘 프로세서의 세부사항에도 접근할 수 없고, 공정한 재판을 받을 권리가 훼손당했다고 연방대법원에 소를 제기했다. 

“재판소는 알고리즘이 어떤 준거 집단을 기준으로 피의자를 평가하는지 알 수 없다. 알고리즘의 준거 집단이 위스콘신인지 뉴욕인지 캘리포니아인지 알 수가 없는 것이다. 재판소에는 없는 많은 정보를 알고리즘은 갖고 있고, 이를 토대로 그래프를 제시한다. 형량을 결정하는데 이를 사용하면 결국 잘못된 결정을 내릴 수 있다”라고 그의 변호사가 증인으로 내세운 전문가가 말했다. 그러나 앤 월시 브래들리 판사는 제소를 기각했다. 알고리즘에 적용된 여러 요소들을 알지 못하더라도, 에릭 루미스는 알고리즘의 평가에 대해 토론 할 수 있다는 것이다. 재판은 공정했으며, 판사 고유의 판결 권한을 유지한 채 여러 다양한 요소들을 고려해 형량을 결정했다고 판사는 주장했다.(12) 연방대법원은 유죄판결을 받은 사람이 제기한 알고리즘 검토 요청을 거부했다.

그런데 판사가 알고리즘을 근거로 삼지 않는다면 왜 알고리즘의 도움이 필요한가? 알고리즘은 주요 판결 옆에서 함께 작업하는 작은 재판과 판사의 변형인가?(13) 판사들이 과학과 통계라는 병풍 뒤에 숨기 위한 목적으로? 재판 판정을 돕는 프로그램들은 형법 재판소의 역할이 무엇인지 보여준다. 미래의 범죄를 예측하고, 과거의 행위에 따라 개인의 행동을 예측하는 것이 형법 재판소의 역할이다. 미국의 사법부는 오래전부터 자칭 과학적이라는 도구를 이용해 범죄자의 위험성을 평가하려고 시도했다고 버나드 하코트 법학 교수는 지적했다.(14) 

알고리즘은 수십만 명의 사람들의 전기적 자료를 이용해 개인의 미래에 대한 결론을 내린다. 그런데 “과거의 범죄 이력은 인종을 숨긴다. 지하철에서 사기행위가 일어나면 경찰은 누구를 주목하고, 불심 검문하고, 심문할까? 과거 이력은 범죄를 저지른 이력이 아니라, 체포당한 이력”이라고 하코트 교수는 말했다.

알고리즘은 교도소 과밀 수용과 인종 차별에 대한 대책일까? 미래 행동을 판단하는 매우 강력한 도구일까? 둘 다 아니다. 알고리즘은 사법부의 예측 역할에 대한 책임을 합법적으로 면제시켜주는 도구일 뿐이다. 

 

 

글·라파엘 켐프 Raphaël Kempf 
프랑스 변호사, 저서로 『Violences Judiciaires. La justice et la répression de l’action politique 사법적인 폭력들. 정치 활동의 억압과 재판』, La Découverte, Paris, 2022년

번역·김영란 
번역위원


(1) 펜실베이니아주 법령 n˚ 95-2010에는 n˚ 2154.7 항 <Adoption of risk assessment instrument>이 포함돼 있다.
(2) Pennsylvania Code, Chapter 305. Sentence Risk Assessment Instrument, Commission on Sentencing.
(3) Charlotte Recoquillon, ‘Aux États-Unis, la liberté à but lucratif (한국어판 제목) 미국 보석제, 돈으로 자유를 사는 사람들)’, <르몽드 디플로마티크> 프랑스어판 2023년 7월호, 한국어판 2023년 9월호.
(4) City of Philadelphia, MacArthur Foundation Safety and Justice Challenge : implementation proposal overview.
(5) <Will controversy over risk assessments break Philly’s touted criminal-justice reform collaboration?>, The Philadelphia Inquirer, 2019년 5월 8일
(6) <Philadelphia, PA>, Safety and Justice Challenge, 2013년 10월 27일, http://safetyandjusticechallenge.org
(7) Larry Krasner, For the People : Ad Story of Justice and Power, One World, Newyork, 2022년
(8) Angèle Christin, <Les méthodes ethnographiques nuancent l’idée d’une justice prédictive et entièrement automatisée 민족지학적 방법론은 기계적이며, 예측적인 재판이라는 생각에 뉘앙스를 준다>, Laboratoire d’innovation numérique de la CNIL, 2020년 7월 9일, http://linc.cnil.fr
(9) Julia Angwin, Jeff Larson, Surya Mattu, Lauren Kirchner, <Machine Bias – There’s software used across the country to predict future criminals. And it’s biased against blacks>, ProPublica, 2016년 5월 23일. www.propublica.org
(10) Caroline Davidson, <Risk Assessment Instruments as a Part of Bail Reform : Do they help or hurt?>, Chicago Policy Review, 2023년 1월 31일.
(11) 자료 출처: 뉴저지주 교도소
 http://www.state.nj.us/corrections/pages/OffenderINformation.html
(12) State of Wisconsin v. Eric L. Loomis, No. 2015AP157-CR, Supreme Court of Wisconsin.
(13) Michel Foucault, 『Surveiller et Punir』, Gallimard, Paris, 1975년
(14) Bernard E. Harcourt, 『Against Prediction : Profiling, Policing, and Punishing in an Actuarial Age』, The University of Chicago Press, 2006년