-
603. 자동화된 불평등(Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor)인문학 2025. 1. 8. 07:37반응형SMALL
1. 개요
“버지니아 유뱅크스”(Virginia Eubanks 1972~)는 미국의 정치학자이자 기술과 사회 정의에 관한 깊은 통찰을 제공하는 작가로 특히 디지털 시대에 발생하는 불평등과 그로 인한 사회적 영향을 연구해 온 인물입니다. 그녀는 기술과 시스템이 어떻게 사회적 차별을 심화시키는지 그리고 우리가 이러한 문제들을 어떻게 해결할 수 있는지에 대한 중요한 논의를 펼칩니다. “Eubanks”의 연구와 저술은 기술이 사회적 불평등을 어떻게 증폭시키는지에 대한 깊은 이해를 제공하며 더 나은 미래를 위한 방법들을 모색하는 데 큰 도움이 됩니다. 1994년 캘리포니아 대학교를 졸업하고 렌셀러 폴리테크닉 인스티튜트에서 석사, 박사학위를 취득한 후 뉴욕 주립대학교 알바니의 교수진에 합류합니다.
그녀는 ‘자동화된 불평등’(Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor)이라는 책으로 널리 알려져 있는데 미국의 사회복지 시스템을 중심으로 자동화된 기술들이 어떻게 가난한 사람들을 추적하고 모니터링하며 그들의 생활을 통제하는지 설명합니다. 고도로 기술화된 사회복지 시스템에서 발생하는 문제를 심층적으로 파헤치며 특히 사람들이 기술을 통해 감시받는 방식이 어떻게 그들의 권리를 침해하고 사회적 위치를 고착화하는지를 밝힙니다. 또한 감시 기술의 발전이 어떻게 인종, 성별, 경제적 지위와 결합되어 특정 그룹을 더욱 심층적으로 추적하고 불평등을 심화시키는지를 분석합니다. 그녀는 기술이 객관적이라고 여겨지지만 실제로는 인간의 편견을 그대로 반영하고 그로 인해 기존의 사회적 불평등을 더욱 악화시킬 수 있다는 점을 강조합니다.
“Eubanks”는 기술이 단순히 혁신적이고 발전적인 도구라는 관점을 넘어서 기술이 어떻게 불평등을 재생산하는지에 대한 비판적 접근을 합니다. 그녀의 연구는 기술의 발전이 인류의 발전을 반드시 동반하는 것이 아니라 특정 집단에게 불리하게 작용할 수 있음을 경고합니다. 이는 단순히 기술의 발전을 논의하는 데 그치지 않고 그 발전이 사회적, 경제적 구조와 어떻게 맞물려 있는지에 대한 깊은 성찰을 요구합니다. 또한 기술의 민주화와 사회적 책임을 강조하며 기술 개발자들이 공정하고 투명한 방식으로 기술을 설계해야 한다고 주장합니다. 즉 기술은 더 이상 특권층만을 위한 것이 아니라 모든 사람이 공평하게 혜택을 받을 수 있는 방향으로 설계되어야 한다는 것입니다. “Eubanks”는 이를 위해 기술 개발자들과 정책 입안자들이 사회적 책임을 갖고 기술이 미칠 사회적 영향을 철저히 분석해야 한다고 경고합니다.
그녀는 기술을 단순히 혁신의 상징으로 보기보다는 그것이 사회적 책임을 다할 수 있도록 만드는 것이 중요하다고 주장합니다. 예를 들어 많은 기술 기업들은 사회적 책임을 다한다고 주장하지만 실제로는 기술이 사회적 불평등을 해결하는 데 기여하지 않는 경우가 많습니다. 그녀는 이러한 문제를 해결하기 위해서는 기술이 사회적 맥락을 이해하고 이를 개선하는 데 기여해야 한다고 주장합니다. 이와 같은 논의는 디지털 권리와 사회적 안전망의 문제로 확장될 수 있으며 디지털 기술이 점점 더 많은 부분을 차지하는 현대 사회에서 사람들이 디지털 권리를 보장받을 수 있는 방법을 제시해야 한다고 강조합니다. 이는 단순히 기술을 사용하기 위한 접근 권한뿐만 아니라 기술이 사람들의 삶에 미치는 영향에 대한 책임을 포함하는 개념입니다.
“Virginia Eubanks”의 연구는 단순히 기술이 사회적 불평등을 유발한다고 비판하는 데 그치지 않으며 그 문제를 해결하기 위한 여러 가지 방법을 제시합니다. 기술 설계의 공정성을 높이기 위해 다양한 사회적 계층을 고려한 기술 개발이 이루어져야 한다고 강조하며 기술의 영향력이 커짐에 따라 그 영향에 대한 철저한 검토와 투명성이 요구된다고 말합니다. 또한 기술의 발전을 막기보다는 그것이 사회적 정의를 촉진하는 방향으로 나아갈 수 있도록 제도적, 법적 장치를 마련해야 한다고 주장하며 정책 입안자들과 기술 개발자들이 협력하여 기술이 공공의 이익을 우선시하고, 사회적 불평등을 완화하는 방향으로 발전할 수 있도록 노력해야 한다고 봅니다.
1-1. 자동화된 불평등(Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor)
“Eubanks”의 대표작으로 기술이 어떻게 사회복지 시스템에 통합되면서 가난한 사람들을 대상으로 하는 자동화된 감시와 처벌 메커니즘을 만들어내는지 설명합니다. 이 책은 자동화된 기술이 어떻게 빈곤층을 "프로파일링(profiling)"하고 감시하고, 처벌하는 방식으로 작동하는지에 대한 분석을 제공합니다. 그녀는 기술이 단지 효율성을 증가시키는 도구가 아니라 가난한 사람들을 더 깊이 감시하고 통제하는 수단으로 사용될 수 있다는 점을 강조합니다. 그녀는 "자동화된 불평등"을 바로잡기 위해서는 기술의 설계에서부터 사회적 책임을 고려해야 한다고 주장합니다.
1-2. 디지털 병목 현상(Digital Dead End: Fighting for Social Justice in the Information Age)
“Eubanks”의 두 번째 주요 저서로 디지털 기술의 접근성과 그로 인한 사회적 불평등 문제를 다룹니다. 이 책은 주로 기술의 발전이 사회적 약자, 특히 가난한 사람들과 소수민족에게 어떻게 부정적인 영향을 미치는지에 대해 설명합니다. 이 책의 핵심은 디지털 기술이 더 많은 사람들에게 기회를 제공할 수 있지만 그 기회를 얻지 못한 사람들은 디지털 배제의 현실에 직면하게 된다는 것입니다. 그녀는 기술을 통해 사회적 불평등을 해결하려면 모든 사람들이 동등하게 기술을 이용할 수 있는 환경을 만들어야 한다고 강조합니다
1-2-1. 디지털 격차
그녀는 디지털 기술의 발전이 디지털 격차(digital divide)를 심화시킬 수 있다는 점을 경고합니다. 디지털 기기나 인터넷 접근이 부족한 사람들은 경제적, 사회적 기회를 놓치게 되며 이로 인해 그들의 삶의 질이 더욱 떨어질 수 있습니다. 특히 저소득층과 소수민족들은 디지털 기기나 인터넷을 활용할 기회가 적고 이는 교육, 직업, 그리고 사회적 참여에 큰 제한을 둡니다.
1-2-2. 디지털 배제
기술이 배제적인 시스템으로 작동할 수 있다는 점을 강조합니다. 특히 정보와 기술의 접근성이 제한된 사람들이 정보에 대한 권리를 제대로 누리지 못하고 있다고 지적합니다. 이는 사회적 배제와 경제적 차별을 더욱 악화시키는 결과를 낳습니다.
1-2-3. 소수민족과 기술
소수민족 공동체와 디지털 기술의 관계를 분석합니다. 그녀는 소수민족 사람들이 디지털 기술의 발전에 뒤처져 있다는 점을 강조하며 이로 인해 그들은 사회적 참여와 경제적 기회를 제대로 갖지 못한다고 설명합니다. 특히 교육과 일자리에서 디지털 기술을 사용하는 데 어려움을 겪는 사람들이 많다는 점을 부각합니다.
2. 내용
이 작품은 디지털 기술과 사회적 불평등 사이의 복잡한 관계를 탐구하는 중요한 저서로 기술이 어떻게 고급화되고 자동화되면서 저소득층과 사회적 취약 계층을 더욱 감시하고, 제어하며 결국 그들을 처벌하는 역할을 한다는 심각한 문제를 제기합니다. “Eubanks”는 자동화된 시스템이 복지 서비스나 사회적 안전망에서 어떻게 불평등을 강화하는지 그리고 그로 인해 가난한 사람들이 직면하는 문제를 어떻게 심화시키는지 구체적인 사례를 통해 설명합니다.
2-1. 기술이 재생산하는 불평등
그녀의 주요 주장 중 하나는 기술이 가난한 사람들을 더 깊이 감시하고 통제하는 방식으로 작동한다는 것으로 고도로 기술화된 사회복지 시스템과 자동화된 도구들이 어떻게 불평등을 강화하고 특히 저소득층에게 불리하게 작용하는지에 대한 심도 깊은 분석을 제공합니다. 기술이 기존의 사회적 차별을 재생산하는 방식을 설명하며 자동화된 시스템이 "객관적"이고 "효율적"이라 여겨지는 동안 실제로는 오히려 불공정하고 차별적인 결과를 초래할 수 있음을 강조합니다.
2-2. 자동화된 사회복지 시스템의 문제점
첫 번째 사례로 미국의 사회복지 시스템에서 자동화된 도구들이 어떻게 잘못된 방식으로 작동하는지 설명합니다. 예를 들어 복지 서비스를 신청하는 과정에서 시민들은 자동화된 시스템을 통해 그들의 자격을 평가받고 지원을 받을 수 있는지 결정됩니다. 그러나 이러한 시스템은 인간적인 판단을 배제하고 수많은 복잡한 규정과 기준을 적용하는데 이는 종종 실수와 불공정을 초래합니다. 대표적으로 “Indiana Family and Social Services Administration”(FSSA) 시스템에서 발생한 사례를 다루는데 FSSA는 2013년에 복지 수혜자들에게 자격을 부여하는 과정에서 자동화된 시스템을 사용했으며 그 결과 많은 사람들이 자격이 박탈되는 사태가 발생했습니다. 시스템 오류로 인해 복지 혜택을 받던 수많은 사람들이 혜택을 잃었고 복잡한 행정 절차와 부정확한 데이터로 인해 그들은 다시 혜택을 받기까지 어려움을 겪었습니다. “Eubanks”는 이 사례를 통해 자동화가 실제로는 공정성을 보장하기보다는 불평등을 심화시키는 방식으로 작동할 수 있음을 설명합니다.
2-3. 감시 기술의 확대: 범죄 예방과 제어
범죄 예방을 목적으로 한 자동화된 감시 시스템이 어떻게 저소득층과 소수민족 커뮤니티에 불리하게 작용하는지에 대해서도 심층적으로 다룹니다. 미국의 많은 도시들은 범죄 예방과 통제를 위해 예측적 경찰 시스템(Predictive Policing)을 도입했는데 이 시스템은 범죄 발생 가능성을 예측하고 특정 지역에 경찰을 집중적으로 배치하는 방식입니다. 하지만 이러한 시스템이 실제로는 소수민족 커뮤니티와 빈곤층 지역에 대한 불공정한 감시를 강화하는 역할을 한다고 비판합니다. 예를 들어 “Chicago’s Strategic Subject List” (SSL)나 Los Angeles의 “PredPol” 시스템과 같은 예측적 경찰 시스템은 과거의 범죄 데이터를 기반으로 범죄 발생 가능성이 높은 지역과 인물을 예측합니다. 그러나 이러한 시스템은 종종 인종적 편향을 내포하고 있으며 결과적으로 소수민족과 가난한 사람들이 불균형적으로 경찰의 집중적인 감시를 받게 됩니다. 또한 이러한 시스템은 범죄를 예방하기보다는 감시 대상을 선정하는 데 집중하여 실제 범죄 예방에 도움을 주지 못하고 불필요한 개입과 처벌을 초래할 수 있다고 주장합니다.
2-4. 프로파일링과 처벌: 자동화된 결정 시스템의 함정
그녀는 “재정적 지원 자동화 시스템”을 통해 사회적 취약 계층을 더욱 감시하는 방법에 대해서도 다룹니다. 자동화된 프로파일링 시스템은 사람들이 자격을 얻기 위해 제출한 정보와 데이터에 기반하여 그들의 신뢰도를 평가하고 자격을 부여하거나 거부하는 데 사용됩니다. 하지만 이 시스템은 정확성과 공정성을 보장하지 않으며 종종 사람들을 형식적으로 판단하고 차별적인 결과를 초래합니다. 예를 들어 “Work First” 시스템이나 “Electronic Benefits Transfer (EBT)” 시스템에서 사람들은 복지 혜택을 받기 위해 요구되는 정보를 시스템에 입력해야 하는데 정보의 불완전성이나 잘못된 입력으로 인해 시스템은 그들을 제대로 평가하지 못하거나 부당하게 혜택을 거부할 수 있습니다. 이러한 시스템은 인간의 실수를 배제하고 기계적인 처리 방식으로 사람들을 판단하기 때문에 사회적 맥락을 무시한 채 비효율적이고 부당한 결정을 내릴 위험이 큽니다.
2-5. 기술의 투명성과 책임성
“Eubanks”는 자동화된 시스템의 투명성 부족과 책임 회피 문제에 대해서도 비판합니다. 기술이 점점 더 많은 사회적 결정에 영향을 미치고 있지만 그 결정 과정이 얼마나 공정하고 투명한지에 대한 논의는 부족합니다. 시스템이 잘못된 결정을 내렸을 때 그 책임을 누가 지는지에 대한 문제가 중요한데 대부분의 경우 책임을 묻기 어려운 구조로 만들어져 있습니다. 그녀는 기술이 불평등을 강화하는 도구로 전락하지 않도록 기술의 설계와 운영에서 사회적 책임을 다할 수 있도록 해야 한다고 강조합니다. 즉 기술 개발자들과 정책 입안자들이 공정성과 투명성을 우선시하고 기술이 미칠 사회적 영향을 철저히 분석해야 한다는 것입니다.
3. 결론
이 작품은 기술이 단순히 효율성을 높이는 도구에 그치지 않고 실제로 사회적 불평등을 심화시킬 수 있음을 경고합니다. 특히 자동화된 시스템은 가난한 사람들에게 불리하게 작용하고 이들이 처벌과 감시의 대상으로 전락할 위험이 크다는 점을 강조합니다. “Eubanks”는 기술의 발전이 사회적 정의와 공정성을 바탕으로 이루어져야 한다고 주장하며 이를 위해 기술 개발자와 정책 입안자들이 책임감을 가지고 기술을 설계하고 운영해야 한다고 강조합니다. 그녀의 연구는 우리가 기술을 어떻게 이해하고 적용할 것인가에 대해 깊은 성찰을 요구하며 더 나은 사회를 위한 기술적 접근이 필요함을 시사합니다.
"자동화는 해방을 가져오는 것이 아니라,
가난한 사람들을 처벌한다."(버지니아 유뱅크스)
반응형LIST'인문학' 카테고리의 다른 글
605. 실험실 생활(Laboratory Life) (2) 2025.01.09 604. 인류세(The Anthropocene: A New Epoch of Geological Time) (2) 2025.01.08 602. 키친 컨피덴셜(Kitchen Confidential: Adventures in the Culinary Underbelly) (2) 2025.01.06 601. 생명의 가격표: 생명의 가치(Ultimate Price: The Value We Place on Life) (6) 2025.01.05 600. 위험한 과학 책(What If?: Serious Scientific Answers to Absurd Hypothetical Questions) (8) 2025.01.04