berlinsoul님의 대화: 책으로 돌아가서, 흥미로웠던 부분을 정리해봤는데요…
2부 유기적 네트워크
6장: 새로운 구성원: 컴퓨터는 인쇄술과 어떻게 다른가: 컴퓨터와 AI는 단순한 정보 전달 수단이었던 인쇄술과는 달리, 능동적으로 정보 처리와 독립적 의사결정을 수행한다는 것이다. 15세기 구텐베르크의 인쇄술 발명이 지식의 대중화와 정보 확산을 가속화했다면, AI는 단순한 도구가 아닌 능동적 주체로서 인간의 선택과 사회 구조에 영향을 미치는 새로운 구성원으로 자리 잡고 있다. AI의 발전으로 인해 프라이버시 침해, 알고리즘 편향, 일자리 감소 등의 윤리적 문제가 대두되고 있다. 하라리는 이러한 문제들을 해결하기 위해서 사회적 합의와 규제가 필요하며, 이러한 변화를 이해하고 대비하는 것이 중요하다고 역설한다.
7장: 집요하게: 네트워크는 항상 켜져 있다: 오늘날의 컴퓨터 네트워크는 뛰어난 패턴 인식 능력을 갖춘 알고리즘을 통해 테러리스트를 분류하는 등 새로운 형태의 ‘알고리즘 관료제’를 구축하고 있다. 그러나 하라리는 알고리즘 기반 감시 시스템의 불길한 잠재력을 경고하며, AI혁명을 주도하는 기업가들이 제시하는 유토피아 비전을 비판한다. 디지털 관료제, 즉 컴퓨터가 인간을 감시하는 체제가 확산되고 있으며, 이는 결국 사생활의 종말을 초래할 수 있다. AI기반 감시 시스템은 좋은 목적으로도 활용될 수 있지만, 특히 안면 인식 알고리즘과 결합될 경우 완전한 감시 체제가 될 위험이 크다. 하라리는 AI에 의한 사회신용 시스템이 전체주의적 통제 시스템으로 변질될 가능성을 경고하며, 이를 바로 잡기 위한 ‘브레이크’, 즉 기술 발전에 대한 적절한 견제와 규제가 필요하다고 강조한다.
8장: 오류 가능성: 네트워크는 자주 틀린다: 오늘날의 알고리즘 기반 네트워크 역시 강화 학습을 통해 인터넷 트롤과 같은 왜곡된 사회적 현상을 만들어 낸다고 지적한다. 소셜미디어와 온라인 플랫폼이 유해한 콘텐츠를 비정상적으로 확산시키는 문제를 해결하기 위해, 우리는 정보 네트워크의 자정 장치에 투자해야 한다. 소셜 미디어는 연결, 소수자의 발언, 공동체 조직, 창의성 증진 등 여러 사회적 이점을 제공하지만, 동시에 ‘정렬 문제’(Alignment Problem)라는 중대한 위험을 내포하고 있다. 하라리는 현재까지 갖고 있는 데이터의 편향성이 컴퓨터 네트워크에도 그대로 반영되며, 이로 인해 알고리즘이 자체 편향을 가지게 된다고 경고한다. 따라서 AI가 스스로 오류 가능성을 인식하도록 훈련할 뿐 아니라, 문제가 발생했을 때 이것을 감지하고 대응할 수 있는 인간의 기관을 만드는 것이 반드시 필요하다고 강조한다.
성서를 제외하면, 그래도 유기적 네트워크는 꽤 오류 수정을 잘 해왔다고 봅니다. 흔히 말하는 역사를 통해 배운다가 크게 보면 인간의 과거 정보를 이용해 현재에 같은 실수를 하지 않겠다는 것이니까요.