인공지능(AI)은 왜 버락 오바마를 백인으로 보는가?
기술, 이건 항상 정치적이다
사람들은 흔히 컴퓨터보다 더 중립적인 것이 어디 있겠냐고 말한다. 착각이다. 차가운 판단 뒤의 알고리즘과 자동화 장치에는 그것을 설계한 인간의 모든 편견이 스며들어 있다. 계산하는 인간이라는 모델을 기반으로, 이념적 선택들로 짜인 역사를 이어받은 인공지능은 정치적 기계다. 공익에 봉사하게 하려면 먼저 인공지능을 해체하는 것이 필요하다.
2023년 11월, 대표 제품 ChatGPT로 유명한 기업 OpenAI에서 특이한 거버넌스 갈등이 벌어졌다.
공동 창립자이자 정보학자인 일리야 서츠케버가 이끄는 이사회는 공동 창립자이자 CEO인 샘 알트만을 기습 해임했다. 알트만은 결국 직위를 되찾았지만, 이 사건은 표면적으로는 서로 대립하는 두 이데올로기, 즉 효과적 이타주의(Effective Altruism)와 효과적 가속주의(Effective Accelerationism) 간의 내부 갈등을 드러냈다.
효과적 이타주의는 효과적 가속주의의 주요 인물들을 배제하려 했으나 결국 실패했으며, 이는 인류를 위험에 빠뜨릴 수 있다는 우려에서 비롯되었다.
2000년대 미국에서 발전한 효과적 이타주의는 과학과 데이터를 기반으로 인류 행복의 총합을 고양한다는 공리주의에 뿌리를 두고 있는 것으로, 공동의 선을 위해 자원을 최적으로 활용하는 방법에 대해 답을 제시하려 한다.
이 사상의 지지자들은 자신들의 뛰어난 지적, 재정적, 기술적 능력으로 인류가 직면한 주요 문제를 우선순위에 따라 해결할 자격이 있다고 여긴다. 여기에는 팬데믹 위험, 핵전쟁, 그리고 흔히 ‘특이점’으로 불리는 ‘일반 인공지능’의 출현이 포함된다.
이 인공지능 시스템은 의식이 있는 지능체로서 정의가 모호한 관계로, 일부는 이미 도래했다고 생각하고, 또 일부에서는 앞으로 반세기 내에 도래할 것이라고 예측한다. 데이터의 바다에서 생성된 이 AI는 인류를 보편적 번영의 시대로 이끌 수도, 완전히 사라지게 할 수도 있다.
‘기능적 강박’의 사회 모델이 엿보이는 이유
효과적 이타주의보다 더 급진적인 효과적 가속주의는 초인적인 존재에 빠르게 도달해 인류를 다음 진화 단계로 끌어올리고, 이에 직면한 위험들을 벗어나기 위해 무제한의 기술 개발을 촉구한다. 이를 위해서는 규제 및 윤리적 장벽은 모두 제거되고, 지적 재산권이나 개인정보 등은 더 이상 보호되지 않으며 가능한 한 빠르게 가속하는 것이 바람직하다고 주장한다.
이러한 기술적 자유주의는 우리가 미처 그 작동 원리와 함의를 완전히 이해하지 못하는 시스템을 시장에 출시하는 것을 정당화하며, 샘 알트만이 ChatGPT를 공개한 것도 이와 같은 맥락에서 볼 수 있다. 철학자 마르첼로 비탈리-로사티가 묘사한 ‘기능적 강박’, 즉 ‘부의 창출과 상품 축적의 필요성에 복종하는 자본주의적 이성의 변형’이라는 디지털 산업과 그 권력 동맹의 사회 모델이 여기서 엿보인다.(1)
이로써 현재의 사회경제적 및 기술적 변화의 지평선이 곧 인간을 기계로 대체하는 것이라는 이미지를 집단 상상 속에 심어줄 가능성이 생겨났다. 이는 가능성 있는 미래이지만, 불가피한 것은 아니다. 과거에는 잊힌 개념으로 치부되었던 산업 계획이 최근 몇 년 동안 대서양 양쪽에서 다시 강력하게 부활하고 있다.
서구 엘리트들은 이를 아시아 개발과 경쟁하기 위해 필수적이라고 여기고 있다. 생태 계획 또한 점차 자리를 잡아가고 있다. 그린 뉴딜(녹색산업 지원을 통한 일자리 및 시장창출 계획—역주)을 지지하는 미국의 민주당원들에서부터 유럽연합(EU) 집행위원장 우르줄라 폰 데어 라이엔까지, 모두가 공공 권력과 신기술을 동원하여 보다 녹색 경제로의 전환을 이루고자 하고 있다.
중립적이지 않은 인공지능(AI)
그러나 이 과정은 여전히 자유주의적이다. 좌파는 사회적 필요와 환경적 제약에 맞춰 생산을 조정할 것을 제안하고 있다.(2) 그 내부에서는 최신 정보 기술을 활용한 집단적 의사 결정 시스템을 기반으로 한 산업적 조정 가능성을 지지하는 목소리도 있다.(3)
“우리를 착취하거나 속이거나 대체하지 않는 정보 및 통신 기술을 상상할 수 있을까요?”라고 영국 작가 제임스 브리들이 물었다.
“네, 가능합니다. 현재의 AI 물결을 정의한 상업적 권력 네트워크에서 벗어날 때 말이죠.”(4)
그렇게 해서 양쪽 정치 진영은 자신들의 이념적 선호에 맞추기만 하면 되는 기술적 진보에 대한 희망을 품고 있다. 하지만 인공지능(AI)은 설계에서 구현에 이르기까지 결코 중립적이지 않다.
AI의 구축 과정에 깃든 기술과 정치의 얽힘을 풀기 위해서는 ‘블랙박스’를 열어 그 실체와 학습 메커니즘이 어떻게 작동하는지 이해해야 한다. 그러나 공적 논의에서는 종종 이 필수 단계를 생략하며, 이는 해결책으로서의 AI에 대한 환상이나 인류와 동일시하는 불안을 해소할 기회를 놓치는 결과를 초래한다.
이미지 복원 AI Pulse, ‘백인 오바마’ 결과 초래
수학과 컴퓨터 과학의 교차점에서 AI는 실제로 입력/출력 시스템처럼 작동한다. 이는 특정 목표를 극대화하기 위해 데이터베이스를 바탕으로 정확한 답을 제공하는 학습 수학 함수다.
예를 들어 동물을 식별하는 경우, AI는 각 이미지에 적절히 붙여진 라벨(‘개’ 또는 ‘펠리컨’)을 정확히 예측해야 한다. 이를 위해 엔지니어들은 라벨이 붙여진 이미지들을 바탕으로 프로그램을 훈련시키며, 예측 오류를 최소화하는 것을 목표로 한다. 매개변수를 조정하는 절차를 거치고, 실패 확률이 허용 가능한 수준에 도달하면 해당 시스템이 배포된다.
하지만 이것은 이론적인 설명이다. 실제로는 이 과정의 냉정한 중립성이 학습을 뒷받침하는 요소들에 대한 정치적 선택을 은폐한다. 엔지니어들은 이러한 데이터가 만들어지는 조건에 내재한 차별적 편향을 무의식적으로 기계에 이식하게 된다.
2020년 미국 듀크 대학교 학생들이 개발한 이미지 복원 AI인 Pulse는 이미지 속 사람들을 탈픽셀화하는 과정에서 유색 인종을 하얗게 표현해, 결국 ‘백인 오바마’라는 결과까지 초래한 바 있다.(5)
물론 고의적인 것은 아니다. Pulse 팀은 알고리즘을 구축하기 위해 Nvidia가 개발한 또 다른 인공지능 시스템인 StyleGAN을 사용했는데, 이 시스템은 ‘그럴듯한’ 인간 얼굴 이미지를 생성하도록 설계되었다.
그러나 StyleGAN은 학습 과정에서 백인 남성을 과도하게 나타내는 경향이 있다. Pulse 알고리즘 자체에는 내재된 편향이 없었지만, StyleGAN의 편향을 간접적으로 통합하게 되면서 오바마의 얼굴을 복원할 때 백인 남성으로 표현하게 된 것이다.
이런 암묵적인 전제와 고정관념이 기술에 교묘히 스며들어, 이를 자연스러운 것으로 만든다. 기계는 객관적이고 이념이 없다고 평판이 나 있지만, 실제로는 그렇지 않음을 경찰 예측 알고리즘의 편향으로 피해를 본 사람들은 알게 될 것이다.
데이터가 때때로 대표성을 결여하기도 하지만, 목표의 공식화 역시 부족한 점이 있다. 이는 수학적 공식으로 지적 과제의 본질을 요약하는 작업이다. 예를 들어 추천 알고리즘의 목표는 이론적으로 관련 있는 콘텐츠를 선택하는 것이지만, 이 작업을 수학적으로 표현할 때는 전혀 다른 목표가 나타난다.
사용자로 하여금 더 많은 시간을 화면 앞에 머물게 하기 위해 중독성 있고 자극적인 콘텐츠를 제안하는 방식으로 사용자의 주의를 끌기 위해 고안된 것이다.
데이터 대량 집합으로는 민주적 숙고와 비판적 논의를 대신 못해
더 나아가 디지털 생활을 자동화된 시스템이 조정하는 세계에서는 거의 다루어지지 않는 중요한 질문이 떠오른다. 이러한 AI의 목표를 오로지 민간 기업이 단독으로 결정하는 것이 과연 타당한가?
국내외의 지도자들이 너무 드러나는 문제나 콘텐츠 검열에만 관심을 기울이는 동안, 이와 같은 기술-정치적 선택들은 사실 더 많은 집단적 논의와 공공의 엄격한 관리가 필요하며, 이는 점점 더 많은 업계 관계자들이 지적하고 있는 바다.(6)
데이터의 대량 집합이 민주적 숙고와 비판적 논의를 대신할 수는 없다. 그러나 연구의 조직에서부터 ‘인공지능’이라는 명칭에 이르기까지 모든 것이 이를 방해하는 듯하다. 대중에게 즉각적으로 이해되는 이 표현은 아이러니하게도 자신이 지칭하는 것과는 정반대의 이미지를 불러일으킨다. 정확히 말하자면 ‘계산 자동화 장치’(7)라고 부르는 것이 적절할 것이다. 이 표현은 덜 매력적이지만, 이러한 기계들이 과거 결과를 반복할 최적의 방법을 계산하여 목표를 달성한다는 점에서 더 정확하다.
반대로, 지능이라는 개념은 모든 창의적 역동성에 필수적인 비자동화의 한 형태를 암시하며, 이는 고정관념과 선입견을 초월하려는 노력을 뜻한다. 디지털 기술을 집단적 의사 결정, 즉 우리의 창의력, 상상력, 해석 능력에 활용하려면 실리콘 밸리 산업계와 트랜스휴머니스트들이 제시하는 것과는 다른 지능에 대한 비전을 필요로 한다.
아르스 인더스트리얼리스(Ars Industrialis) 협회에 따르면, “어리석거나 지적인 것은 개별적 존재나 환경이라기보다는, 오히려 이들 사이의 관계”라고 한다.(8) 이러한 접근법은 1960년대와 1970년대의 이상주의적 정보학자들의 연구에 영향을 미쳤다.(9) 이는 인공 환경과 인간 정신 중 하나를 선택하는 것이 아니라, 1992년 철학자 펠릭스 과타리가 염원했던 ‘기계와의 새로운 연합’을 구축하는 것이다.(10)
AI분야에 국가와 시장의 분리가 필요
그러나 당장은 상황이 좋지 않아 보인다. 가장 뛰어난 연구자들조차도 알고리즘의 블랙박스 안에서 무슨 일이 벌어지는지 파악하는 데 어려움을 겪고 있다. AI 모델의 작동을 ‘설명’한다는 것은, 시스템의 응답을 “인간이 원인이나 이유로 합리적으로 해석할 수 있는 일련의 단계로 번역”하는 것을 의미한다.(11)
이러한 ‘지적 위생’의 기본 원칙은 이제 모델을 서비스에 투입하기 위한 사전 조건으로 간주되지 않으며, 오히려 ‘케이크 위의 장식’ 같은 역할을 하고 있다. 엔지니어링이 연구를 지배한 나머지, 연구자들은 AI가 상용화되거나 온라인에 배포된 지 몇 년이 지나서야 비로소 그것들이 무엇을 하는지 이해하게 된다.
그렇다면 입법자는 특히 의료나 교육처럼 민감한 분야에서 그 작동 방식을 아무도 모르는 시스템에 대한 평가 기준을 어떻게 설정할 수 있을까? 이러한 불안감을 보여주는 한 예로 MIT 미디어 랩은 이 블랙박스들과의 상호작용을 비유하고 그 불가해성을 해석하는 방법론적 개념으로 ‘AI 연금술’이라는 표현을 만들어 대중화했다.
현재의 인공지능은 과학 연구 분야, 기술 집합체, 그리고 급성장하는 시장이라는 이상한 집합체로 남아 있으며, 이 세 분야 모두 일부 소수의 주체들이 지배하고 있다. 이들은 재정 능력과 산업 정책 전문성 면에서 G20의 일부 국가들과 필적할 정도다.
기초 연구에서 시장 출시까지의 혁신 과정이 몇 년에서 몇 개월로 단축되는 것은 노골적으로 가속주의에서 비롯된다. 시장의 단기 수익성 요구와 규제 장치의 약화는 이러한 흐름을 더욱 강화하고 있다.
주요 학술 대회(예: 정보처리 신경망 학회(NeurIPS)나 국제 기계 학습 학회(ICML)에서 그들이 미치는 영향이 잘 보여주듯이, 과학 연구의 광범위한 분야가 이와 같은 요구에 발맞추고 있다.
막대한 재정적 자원을 가진 민간 연구소들은 고가의 계산 인프라가 필요한 이 분야에서 쉽게 주도권을 잡고 있으며, 가장 우수한 인재들을 끌어들이고 있다. 이 분야에서도 다른 여러 분야와 마찬가지로 과타리가 언급한 ‘새로운 연합’은 국가와 시장의 분리를 필요로 한다.(12)
글·빅토르 쉐 Victor Chaix
디지털 인문학 박사과정 연구자
오귀스트 르위거 Auguste Lehuger
AI 연구 엔지니어
자코 사페이-트리옹프 Zako Sapey-Triomphe
엔지니어
*이 글은 X-Alternative 싱크탱크 사이트에 게재된 보고서(2024년 10월)를 요약한 것이다.
번역·김민영
번역위원
(1) 『마르첼로 비탈리-로사티, 버그 찬양: 디지털 시대의 자유』, Zones, 파리, 2024.
(2) 「거시경제적 제안: 새로운 인민전선의 프로그램」, 2024년 6월.
(3) 『세드릭 뒤랑과 라즈미그 쾨쉐얀, 갈림길: 생태 계획의 원칙』, Zones, 2024.
(4) 제임스 브라이들, 「그래서 아마존의 ‘AI 기반’ 무인 매장은 상당수 인간을 사용하고 있다. 이게 놀랍지 않은 이유」, <가디언>, 런던, 2024년 4월 10일.
(5) 케빈 트루옹, 「백인 버락 오바마의 이미지는 AI의 인종적 편향 문제를 잘 보여준다」, 2020년 6월 23일, www.vice.com
(6) 조아나 바론 (편집), 「연합형 AI 커먼스 생태계 구축」, T20 정책 브리핑, 2024년 6월, https://codingrights.org
(7) 앤 알롬베르트와 주세페 롱고, 「인공지능은 없다: 광고 이데올로기에서 벗어나기 위해 디지털 자동화를 이야기하자!」, <뤼마니테>, 파리, 2023년 7월 11일.
(8) 빅토르 프티, 『Ars Industrialis 용어집』(베르나르 스티글러 저), 국민전선의 약리학 중에서, 플라마리옹, 파리, 2013.
(9) 에브게니 모로조프, 「또 다른 인공지능은 가능하다」, <르몽드 디플로마티크> 프랑스어판 2024년 8월.
(10) 펠릭스 과타리, 「사회적 실천의 재구성을 위하여」, <르몽드 디플로마티크> 프랑스어판 1992년 10월.
(11) 크리스토프 드니, 「복잡한 현상을 이해하기 위한 철학적 스케치와 기계 학습 기반 예측 도구」, 프랑스어 지식 추출 및 관리 학회- ‘Explain’AI 워크숍, <블루아>, 2022년 1월.
(12) http://aialchemy.media.mit.edu/
기계의 숲 뒤에 숨겨진, AI의 가계도
1956년, 미국 다트머스 대학에서 열린 ‘다트머스 인공지능 여름 연구 프로젝트(Dartmouth Summer Research Project on Artificial Intelligence)’는 인공지능 분야의 역사적인 연구 세미나로 존 매카시(John McCarthy), 마빈 민스키(Marvin Minsky) 등 수학, 컴퓨터, 과학, 심리학 등 다양한 분야의 저명한 학자들이 모였다. 이 세미나는 인간의 정신을 모방하는 시스템을 의미하는 용어인 ‘인공지능’이라는 표현이 처음 사용된 자리로, AI연구의 시발점이 되었다. 컴퓨터 과학자로 세미나의 핵심 학자였던 존 매카시는 당시 산업 프로세스 자동화에 집중하고 있던 노버트 위너의 사이버네틱스 학파와 구별하기 위해 인공지능의 용어를 제안한 것이다.(1) 다트머스 회의의 주창자들은 사이버네틱스 학파와는 달리, 고대 철학과 생명 과학, 그리고 자유주의 경제 이론 등 철학적 배경을 연구 기반으로 삼았다. 즉, 아리스토텔레스의 형이상학(인간의 사고와 지식 구조), 플라톤의 이데아론(이론적 개념과 실제 구현 간의 관계), 합리적 선택 이론(AI 의사 결정 프로세스), 경제적 모델링(AI의 알고리즘 개발) 등이 인공지능 연구 기초로 작용된 것이다. 이들이 새로운 연구 분야를 탐구하기 위해, 처음부터 전제로 한 가정은 “정신은 질서 있는 무언가로, 개별적인 뇌 속에 존재하며, 암묵적이고 신뢰할 수 있는 논리를 따르며, 사회적 사건의 관찰에서 파생된 계산 모델을 통해 설득력 있게 모델링될 수 있다”는 것이었다.(2) 이러한 가정은 인공지능 연구의 기본철학과 접근방식을 정의하는 데 중요한 역할을 했다. AI 기법들은 인간의 행동을 합리적이고 계산적인 개인 모델에서 추론하는 방식으로 정통 경제학으로부터 영향을 받았다. 선구자 중 한 명은 경제학자 허버트 사이먼(Herbert Simon)이다. 그는 애덤 스미스의 ‘행정 및 의사 결정 과정에 관한 연구’에서 영감을 얻어 AI의 연구에 중요한 기반이 되는 ‘상징적 패러다임’을 구축하는 방향을 잡았다. 이 패러다임은 전문가들이 설계한 일련의 의사 결정 규칙을 결합한 시스템 개념에 기반한다. 즉, 사이먼은 인공지능, 경제학, 심리학의 교착점에서 인간의 의사결정 과정을 이해하고 이를 모델링하기 위한 다양한 접근 방식을 개발했다. 특히 그의 제한된 합리성 개념과 의사결정 이론은 인공지능 연구에 중요한 이론적 기초를 제공했다. 심리학자 프랭크 로젠블랫은 프리드리히 하이에크의 시장 구조에 관한 연구에서 영감을 받아 ‘퍼셉트론’을 개발했는데, 이는 정보처리와 전달을 담당하는 신경계의 기본 단위인 생물학적 뉴런의 기능을 모델링한 것으로 ‘연결주의 패러다임’의 상징이자 ‘신경망’의 초기 형태이다. 현대 딥러닝의 선구자로 평가되는 이 모델에 따르면, 인공지능은 개인이나 국가와 같은 집단적 기구보다 효율적이고 기능적이며 합리적인 방식으로 세상을 통계적으로 조직하는 자연 질서를 만들 수 있다는 것이다. 컴퓨터 과학 내에서 자주 대립되는 이 두 분야는 실은 동일한 공리에서 비롯되었다. 철학자 마티유 트리클로의 주장에 따르면, ‘정보’라는 개념이 다소 모호하고 추상적이나 기계와 생명체, 계산기와 뇌, 정치경제와 형이상학 같은 전혀 다른 분야 간의 유사성을 만들어낼 수 있다는 것이다. 이러한 주장은 사이버네틱스나 정보학 선구자들의 주장과 상충된다. 예를 들어 존 폰 노이만은 “뇌에서 일어나는 정보 처리 과정은 컴퓨터에서 발생하는 것과 근본적으로 다르다”라고 주장했다.(3) 즉, 컴퓨터는 주어진 연산 규칙을 기반으로 정보를 처리하는 반면 사람의 뇌는 생물학적이고 감각적인 정보 처리 방식, 즉 감각적 경험, 직관적 판단, 추상적 사고 등 복합적인 과정을 통해 처리되는 것이다.
‘자유시장 이데올로기’를 통해 모색된 AI 시스템 2018년 튜링상을 수상한 요슈아 벤지오와 얀 르쿤 같은 현대의 인물들에 의해 구현된 연결주의적 인공지능은 뇌에서의 정보 처리 방식처럼 컴퓨터에도 작은 단위들이 서로 연결되어 정보를 처리하고 학습하는 방식을 말한다. 즉 컴퓨터가 내재 된 뇌의 연결을 통해 스스로 학습하고 경험하여 더 똑똑해지는 것이다. 몬트리올에서 컴퓨터 과학 교수로 활동하는 벤지오는 AI의 무분별한 발전에 따른 위험성을 강조하며 규제의 필요성을 주장한다. 반면, Meta(구 페이스북)의 인공지능 연구 부서 책임자이자 부사장인 르쿤은 다소 안심시키는 입장을 취하는데, 이는 아마도 자신의 이익을 고려한 입장일 수 있다. 이들은 종종 서로 다른 의견을 내지만, 둘 다 인공 지능에 대한 계산적이고 개인화된 시각을 견지하며 매카시와 로젠블랫의 전통을 이어가고 있다. 오늘날 우리가 알고 있는 인공지능은 경제적, 지적, 군사적, 철학적 문제의 중심에 위치하며, 종종 인류의 천재성이 만든 절정의 산물로 제시되곤 한다. 그러나 이는 미국식 개인주의의 변질된 산물로 볼 수도 있다. 1980년대 후반에 이르러 이 분야의 연구는 기술적 한계와 자금부족 등으로 오랜 겨울(AI Winter)을 맞이했다. ‘인공지능’이라는 용어는 자금 지원을 꺼리게 했고, 따라서 AI는 ‘고급 알고리즘’이라는 이름으로 불리게 되었다. 같은 시기, 소련에서는 과학자들이 다른 접근 방식을 발전시키고 있었다. 서구 학자들과는 다른 이념적 환경에서 교육받은 소련의 연구자들은 ‘개인의 합리성을 모방하며 사고하는 기계’라는 사상을 거부했다. 그들은 인간 지능이 단지 개인적인 사고만으로 이루어지는 게 아니라 집단적인 다수의 사회적, 문화적 상호작용을 통해 발현되는 능력이라고 보았다. 매카시와 그의 동료들이 ‘자유시장 이데올로기’를 통해 AI 시스템이 자율적으로 학습하고 적응하는 방법을 모색하고, 또한 인지 과학을 통해서는 AI가 학습하고 문제를 해결하는 방법의 개발을 시도한 반면, 소련의 AI는 개별적 인간의 이해를 초월하여 복잡한 거대 구조에서 발현되는 지능, 즉 집단지성 혹은 분산지능을 재현하려 했다. 결국 두 접근법은 유사한 결론에 도달했을지도 모른다. 미국의 연결주의적 AI는 자본주의 체제에서 방대한 데이터를 수집하여 기술을 발전시켰고, 소련의 AI는 인간의 ‘문화와 의미’를 이해하고 체득하는 과정을 통해 발전했다.(4) 1989년, 소련 시스템이 흔들리기 시작한 바로 그 시점에 소련 인공지능 협회가 설립되면서 그들의 프로젝트는 제도화되었다.
디지털 시대의 경제모델인 ‘감시 자본주의’에 뿌리 둬 미국에서는 1990년을 기점으로 인터넷이 기술 세계의 정점에 올랐으며, 흥분한 투자자들은 이 분야의 연구에 아낌없는 자금을 다시 투자하기 시작했다. 그러나 이러한 열기는 2000년 인터넷 버블 붕괴와 함께 갑작스레 끝났다. 이 충격은 일종의 ‘휴식 종료’ 신호가 되었고, 디지털 기업들은 자금 제공자들의 압박 속에 수익성을 확보해야 하는 상황에 놓였다. 이러한 수익성 확보는 광고를 통해 이루어졌다. 구글은 무료 서비스 사용자들에게서 대량으로 수집된 개인 데이터를 상품화하는 시스템을 구축하고, 이를 자료로 삼아 행동을 예측하고 방향을 제시하는 방식으로 활용했다. 이 새로운 인공지능의 물결은 이른바 디지털 시대의 경제모델(기업이 사용자 데이터를 수집, 분석, 활용하여 이익을 창출하는 방식)인 ‘감시 자본주의(surveillance capitalism)’에 뿌리를 두고 있다.(5) 2010년대 초반에 AI 연구자들은 이미지 인식 챌린지 ImageNet이라는 대규모 데이터베이스를 사용하여 AI의 기능을 높였다. 이 거대한 작업은 2006년 연구자 페이페이 리(Fei-Fei Li)가 시작하여 거둔 오랜 노력의 결실이다. 많은 동료들과는 달리, 그녀는 알고리즘과 계산 능력이 아닌 데이터에 집중했는데, 이는 연결주의적 예언을 실현하는 데 필수적인 자원으로, 인터넷의 발전이 오히려 데이터의 대량 추출을 가능하게 한 것이다. 따라서 2011년부터 인공지능은 이를 좌우하는 기술자본주의(technocapitalism)에 의해 형성되었다. 웹의 거대 기업들과 아마존의 메커니컬 터크(Amazon Mechanical Turk)를 통해 전 세계에 동원된 수많은 데이터 관리자들이 데이터베이스를 구조화하고 정제했다. 2012년 이미지넷 챌린지에서는 연결주의자들의 가장 야심찬 발명이자, 실현 불가능하다고 여겨졌던 ‘딥러닝’이 큰 성공을 거두었다. 최근 ChatGPT 등 혁신적 인공지능의 이러한 발전은 이미지와 텍스트에 주석을 다는 작업에 시간당 2달러도 안 되는 보수를 받고 일하는 수천 명의 케냐인 노동자들을 필요로 했다.
인공지능을 인류를 위한 과학이 아닌, 상용화할 제품으로 간주 집단적 상상 속에서는 인공지능의 진보가 거의 무한한 파라미터와 계산 능력의 증가에 달려 있으며, 이러한 발전은 생산 체계를 끝없는 확장으로 몰고 간다는 인식이 자리 잡고 있다. 비영리 조직 OpenAI는 2015년에 피터 틸(Peter Thiel)과 일론 머스크(Elon Musk) 같은 무제한적 자본주의의 상징 인물들이 참여하여 설립되었으며, 이 조직은 “안전한 범용 인공지능을 개발하고 그 혜택을 전 세계와 공유하는 것”을 목표로 하고 있다고 자사 웹사이트에 명시하고 있다.(6) 이를 보장하기 위해 OpenAI는 헬렌 토너(Helen Toner)와 같은 인공지능 시스템 윤리 연구 분야의 저명한 인물들로 구성된 과학 자문위원회를 두었다. 그러나 4년 후, 이 조직은 이익 한도가 설정된 유한 이익 추구 기업으로 변모하게 되며, 이익 한도는 초기 투자액의 100배로 제한되었다. 초기의 인본주의적 과학자들 사이에 주식옵션에 매료된 야심 찬 엔지니어들이 합류했다. 2020년, OpenAI는 GPT-3를 출시하면서 ‘슈퍼얼라인먼트’(인간이 정의한 목표와 원칙에 고급 인공지능 시스템을 맞추는 프로젝트)와 같은 큰 윤리적 프로젝트를 지속했으며, 이는 일리야 수츠케버(Ilya Sutskever)와 얀 라이케(Jan Leike)가 이끌었다. 그러나 2023년 11월, 이사회가 해체되고 상업적 요구가 우선시되었다. 2024년 9월, OpenAI는 결국 수익성 한도를 폐지하며 더 이상 인공지능을 인류를 위한 근본적인 과학으로 간주하지 않고, 빠르게 상용화해야 할 제품으로 간주하게 되었다.
불안한 ‘알고리즘적인 정부 형태’ 기계에 의식을 불어넣겠다는 약속, 프로메테우스적인 꿈, 그 이름에서부터 시작되는 모호한 용어들을 통해 인공지능은 정치적 상상력을 자극한다. 인공지능의 권위주의적 잠재력과 억압적 가능성, 개인 감시 능력은 정부 지도자들에게 쉽게 인식되었다. 1960년대부터 CIA의 지배 계층은 자동 정보 분석 기술을 예상하며, 개인 데이터를 대량으로 수집하고 중앙 집중화하는 것을 정당화했다.(7) 특히, 사회 통제 기술에 특이점이 미칠 영향을 상상하며, 미국과 중국은 일찍이 수학 연구에 투자하고 디지털 인프라를 개발하며, 데이터 수집 장치를 대규모로 배포할 필요성을 깨달았다. 그러나 자동화된 기계에 대한 상상에는 민주주의적인 측면도 존재하는데, 이는 시민들이 적극적으로 참여하는 정보 시스템을 기반으로 한 디지털 민주주의를 의미한다. 안타깝게도 원래의 자유주의적 꿈은 데이터의 산성 바다 속에서 사라지며, 오히려 법학자 앙투아네트 루브루아(Antoinette Rouvroy)와 정치 철학 교수 토마스 베른스(Thomas Berns)에 따르면 “통계적 ‘현실’이 스스로를 완전히 총체화하고 닫아버리는 형태, 가능성으로만 압축된 힘의 축소”라는 불안한 ‘알고리즘적인 정부형태(gouvernementalité algorithmique)’로 변모한다.(8) 사이버 민주주의 인공지능 기반 시설은 데이터 수집과 행동 지향에 기반한 그러한 정부 형태와 조화를 이루긴 어려울 것이다. 현재의 통계 처리 시스템, 특히 인공지능은 이들 시스템을 탄생시킨 경제 및 사회 질서에 대한 대안을 제시할 수 없다. ‘데이터’와 그 통계적 예측이 항상 옳지 않다는 것을 인정하고, 알고리즘적 결정론에서 벗어나 인공지능의 방향을 재조정하기 위해서는 우선 첫 번째 단계가 필요하다. 즉, 이러한 기술과 이를 추진하는 주체들이 지닌 지능과 사회에 대한 관계를 탈(脫)자연화, 즉 자연스러움에서 벗어나게 해야 한다.
글·빅토르 쉐 Victor Chaix & 오귀스트 르위거 Auguste Lehuger & 자코 사페이-트리옹프 Zako Sapey-Triomphe 번역·아르망 (1) David J. Gunkel, 「이름에 담긴 의미? 사이버네틱스 vs AI」, 2023년 6월 19일, www.sublationmedia.com |