2025년 06월호 구매하기
말하지 않도록 길들여진 우리
말하지 않도록 길들여진 우리
  • 이지혜 | 문화평론가
  • 승인 2025.05.09 16:11
  • 댓글 0
이 기사를 공유합니다

알고리즘은 어떻게 감정을 통제하는가?

모두가 말하는 시대, 아무도 말하지 않는 시대

너무 많은 말이 쏟아져 나오는 시대다. 대부분 사람이 그런 시대에 살고 있다고 착각한다. 요즘의 소셜미디어는 뉴스보다 빠르다. 가끔은 SNS가 세상의 논쟁을 주도하는 것처럼 보인다. 매일 같이 수많은 게시물과 댓글이 오간다.

그러나 과연 이렇게 많은 말들을 정말 하고 있는 것이 맞을까. 아니, 더 정확히 말하자면 우리가 시간을 들여 애써 진열하고 있는 말이나 문장이 정말 중요한 것인지 의문이다. 스크롤 너머로 지나친 분노들, 정의를 요구하는 절박한 외침들, 감정을 있는 그대로 꺼냈는데도 삶의 통찰이 넘치던 타인의 문장들, 그런 것들에 대리 만족하며 위안을 삼았던 순간들이 떠올랐다. 그럼에도 그것이 진실의 말이었는지는 솔직히 의문이다.

시대가 조용히 지워버리고 있는 말들이 있다. 이 글은 그 말에 대한 소고다. AI는 감정을 갖고 있지 않지만, 우리의 감정에는 개입한다. 알고리즘은 누군가를 미워하지는 않지만, 사용자가 무엇에 공감하고 무엇을 아끼며 어디에 관심을 두는지를 통제한다. 어느새 우리는 그것에 익숙해져, 스스로 말하지 않게 된다. 중요한 말일수록 더더욱 그렇다. 그렇다면 왜 우리는 말하지 않게 되었을까. 무엇을 감히 말하지 못하게 되었는가. 그리고 그것이 우리 삶에 어떤 침묵을 만들고 있을까?

 

보이지 않는 검열의 기술

AI와 알고리즘은 중립적이라는 환상 속에서 사람들의 정치적 표현과 감정을 교묘하게 통제한다. 그러나 우리는 이 사실을 쉽게 인지하지 못한다. AI에서 작동하는 검열은 ‘삭제’라는 가시적인 방식이 아니라, 보이지 않는 방식으로 이루어지기 때문이다.

예를 들어 유튜브에서는 특정한 단어가 들어간 콘텐츠가 자동으로 광고 제한을 받거나, 검색 결과에서 밀려나는 일이 빈번히 일어난다. 멀지 않은 과거엔 ‘퀴어’, ‘트랜스젠더’, ‘페미니즘’과 같은 용어가 영상의 제목이나 설명에 포함되는 순간, 플랫폼의 알고리즘은 종종 그것을 ‘부적절한 콘텐츠’로 분류했던 시절도 있었다. 

현재까지도 명시적인 이유나 기준 없이, 검색어나 콘텐츠 제목에 특정 단어가 포함되면 알고리즘의 통제가 은밀히 작동되곤 한다. 결국 콘텐츠 제작자가 스스로 표현을 삼가게 만들며, 사용자들에게는 그러한 콘텐츠가 존재하지 않는 것처럼 보이게 만든다. 결국 우리는 알지 못하는 사이에 AI가 정한 기준에 따라 무엇을 말해야 하고, 무엇을 말하지 말아야 하는지 배우게 된다. 표현의 자유를 보장한다고 말하는 플랫폼에서조차 우리는 점점 더 자신의 목소리를 잃어가고 있는 것이다. 그 결과 플랫폼이 중립적이며 객관적인 존재인 것처럼 가장할 수 있게 한다.

 

슬픔은 가려지고, 웃음소리만 살아남는 시절

사실 디지털 플랫폼은 우리의 모든 감정을 평등하게 받아들이지 않는다. 본래 알고리즘은 우리가 느끼는 감정을 가려서 허락하거나 제한하는 방식으로 작동한다는 것에 주목할 필요가 있다. 예컨대 인스타그램은 팔레스타인 분쟁과 같은 정치적 이슈를 다룬 게시물에 자동으로 ‘민감한 콘텐츠’라는 경고를 붙인다. 플랫폼은 이 이미지들이 ‘불편한’ 것으로 분류되었다며 사용자들의 시선에서 가려버린다. 그러나 그 이미지가 보여주는 것은 폭력을 조장하는 것이 아니라, 폭력의 현실을 직시하고 그것에 저항하자는 메시지다.

이처럼 플랫폼은 불편한 현실을 덮어버림으로써 사용자들이 마주해야 할 감정과 문제들을 제거한다. 이러한 과정에서 슬픔과 분노, 고통과 같은 감정들은 점점 ‘보편적이지 않은 것’으로 낙인찍히고, 반대로 행복하고 밝은 콘텐츠만이 권장되고 확산된다.

알고리즘은 우리의 내면을 조용히 규율한다. 사람들은 무엇이 ‘좋은 감정’이고 무엇이 ‘나쁜 감정’인지조차 스스로 판단할 수 없게 된다. 감정의 위계를 따라가지 않으면 개인의 표현은 쉽게 사라져버리기 때문이다. 그렇다면 우리는 지금 누구의 기준으로 감정을 표현하고 있는 걸까. 우리의 진짜 감정을 표현할 수 없는 이 시대는 과연 ‘자유로운 시대’가 맞을까.

 

내가 나를 지우는 동안

알고리즘의 통제는 자기검열의 내면화로 귀결된다. 사람들은 플랫폼에서 자신의 표현이 제한되거나 차단될 것을 두려워해 점차 스스로 말을 버리고 감정을 순화하는 법을 배운다. 대학생들이 정치적인 이슈나 사회적 논쟁을 다룰 때, 이들은 SNS에 의견을 올릴 때도 혹시나 자신이 과격하거나 불편한 사람으로 보일까 걱정하며, 표현을 완곡하고 무난하게 바꾸거나 아예 말을 삼가는 경우가 많다. 결과적으로 플랫폼이 표방하는 ‘자유로운 표현의 장’이라는 이상적인 모습과는 정반대로, 사용자는 자신만의 목소리를 내는 대신 시스템에 맞춰 이미 만들어진 무난한 표현만을 반복하게 된다.

이러한 방식의 자기검열이 더욱 심각한 이유는, 그것이 눈에 띄는 명시적인 제재가 아니라는 점에 있다. 실제로 X(구 트위터)나 페이스북에서는 특정 사회운동과 관련된 해시태그가 알고리즘에 의해 노출 제한을 받는 일이 종종 발생한다. 여성운동이나 노동권 운동과 관련된 게시물은 일정 기간 플랫폼의 ‘인기 게시물’에서 제외되거나 검색 상단에서 밀려난다. 

이런 보이지 않는 제재는 사용자들이 이 사실을 모르거나, 혹은 알고도 무력감을 느끼게 하여 사용자의 목소리를 더 이상 내지 않도록 만든다. 결국 알고리즘은 사용자가 특정한 의견을 말하지 않도록, 다시 말해 침묵을 선택하도록 학습시킨다.

그러므로 우리는 알고리즘과 인공지능이 만든 이 ‘말하지 않는 시대’의 진짜 문제를 직시해야 한다. 진정한 표현의 자유는 무엇을 ‘말할 수 있는가’보다 무엇을 ‘말하지 못하게 되는가’를 기준으로 판가름 된다. 알고리즘은 사용자에게 아무것도 강요하지 않는다. 그저 조용히 개인의 표현을 걸러내며, 천천히 개인의 침묵을 학습시킨다. 

 

말하지 않는 권력의 구조

우리는 과연 자유로운 시대에 살고 있는가? 아니면 자유로운 표현을 가장한, 보이지 않는 통제의 시대에 익숙해지고 있는 것인가? 기술이 더욱 발전할수록 표현의 자유는 자동적으로 보장될 거라고 믿었지만, 실상 사람들은 점점 더 많은 말들을 잃어가고 있다. AI와 알고리즘은 중립이라는 허울 아래, 개인의 정치적 감정과 생각을 보이지 않는 방식으로 제한한다. 이제 우리가 해야 할 일은, 알고리즘 뒤에 숨겨진 권력의 구조를 끊임없이 의심하고 질문하며, 더 이상 침묵하지 않고 용기 있게 말하는 것이다.

이 시대의 검열은 삭제가 아니라 침묵이다. 개인은 점점 더 말하지 않도록 학습되고 있다.
다시 우리는 무엇을 감히 말하지 못하게 되었는가? 바로 이 질문이 지금 침묵을 깨야 하는 이유다. 

 

 

글·이지혜
문화평론가. 2022년 문화전문지 <쿨투라> 제16회 영화평론 신인상으로 등단. 경희대에서 강의하며 한국문화콘텐츠와 문화현상을 연구한다. <르몽드 디플로마티크> 온라인에 정기적으로 문화평론을, 서울책보고 웹진에 에세이를 기고중이다.

  • 정기구독을 하시면, 유료 독자님에게만 서비스되는 월간 <르몽드 디플로마티크> 한국어판 잡지를 받아보실 수 있고, 모든 온라인 기사들을 보실 수 있습니다. 온라인 전용 유료독자님에게는 <르몽드 디플로마티크>의 모든 온라인 기사들이 제공됩니다.
이 기사를 후원 합니다.
※ 후원 전 필독사항

비공개기사에 대해 후원(결제)하시더라도 기사 전체를 읽으실 수 없다는 점 양해 바랍니다.
구독 신청을 하시면 기사를 열람하실 수 있습니다.^^

* 5000원 이상 기사 후원 후 1:1 문의하기를 작성해주시면 1회에 한해 과월호를 발송해드립니다.