Liabooks Home|PRISM News
AI가 당신 대신 투표 결정을 내린다면
테크AI 분석

AI가 당신 대신 투표 결정을 내린다면

6분 읽기Source

AI가 정보 수용, 정치적 판단, 집단 토론 방식을 동시에 바꾸고 있다. 민주주의 제도가 이 변화를 따라가지 못할 때 무슨 일이 벌어지는가.

당신이 다음 선거에서 특정 후보를 지지하기로 결심했다고 하자. 그 결심이 어디서 왔는지 추적해보면, 어느 순간 AI 어시스턴트가 요약해준 뉴스, AI가 큐레이션한 소셜 피드, AI가 대신 작성해 보낸 청원 서명이 연결되어 있다. 당신이 내린 결정인가, 아니면 당신을 대신해 내려진 결정인가.

이것이 공상과학 시나리오가 아니라는 점이 문제다. 에릭 슈미트 전 구글 CEO 사무실에서 AI와 민주주의 연구를 이끄는 앤드루 소로타와 조시 헨들러는 최근 발표한 분석에서, AI가 이미 민주주의의 세 가지 핵심 층위를 동시에 바꾸고 있다고 진단했다. 정보를 아는 방식, 정치적으로 행동하는 방식, 그리고 집단으로 의사결정을 내리는 방식이다.

인쇄기 이후 가장 큰 변화?

역사를 잠깐 돌아보면, 정보 유통 방식의 변화는 항상 통치 구조를 바꿔왔다. 인쇄기는 종교개혁과 대의민주주의의 씨앗을 뿌렸고, 전신은 광대한 국가를 관료제로 통합했으며, 방송은 '국민'이라는 공유된 청중을 만들어냈다. 소로타와 헨들러는 AI가 이 계보를 잇는 다음 변곡점이라고 본다.

차이는 속도와 개인화다. 방송은 모든 시청자에게 같은 뉴스를 전달했다. AI는 각 개인에게 맞춤화된 현실을 구성한다. 검색은 이미 상당 부분 AI가 중개하고 있고, 차세대 AI 어시스턴트는 정보를 종합하고 틀을 짜서 권위 있게 제시한다. 후보자에 대해, 정책에 대해, 공인에 대해 의견을 형성하는 기본 경로가 AI 질문창으로 수렴하고 있다.

더 나아가 'AI 에이전트'의 등장이 문제를 다른 차원으로 끌어올린다. 에이전트는 정보를 받아보는 방식만 바꾸는 게 아니다. 조사를 수행하고, 소통 문서를 작성하고, 청원에 서명하고, 사용자를 대신해 로비까지 한다. 투표 안건을 어떻게 결정할지, 어떤 단체를 후원할지, 정부 공문에 어떻게 응답할지를 에이전트가 사실상 중재하게 된다.

소셜미디어가 남긴 교훈, 그리고 더 큰 위험

PRISM

광고주 모집

[email protected]

소셜미디어가 무엇을 했는지 우리는 이미 알고 있다. 플랫폼은 명시적인 정치적 의도 없이도 알고리즘이 참여를 극대화하는 방향으로 설계되었고, 그 결과 양극화와 급진화를 촉진했다. AI 에이전트는 같은 논리를 더 깊숙이 적용한다. 사용자의 선호와 불안을 학습해 참여를 유지하도록 설계된 에이전트는 소셜 알고리즘과 동일한 위험을 내포한다. 다만 한 가지 결정적인 차이가 있다. 에이전트는 '당신의 편'으로 자신을 소개한다. 당신을 위해 말하고, 당신을 대신해 행동하기 때문에, 그 친밀감이 오히려 위험을 감지하기 어렵게 만든다.

집단 수준에서의 문제는 더 까다롭다. AI 에이전트들이 인간과 같은 공론장에서 뒤섞이면, 어느 것이 인간이고 어느 것이 에이전트인지 구별하기 어려워진다. 연구에 따르면 개별적으로는 편향이 없는 에이전트들도 대규모로 상호작용하면 집단적 편향을 만들어낼 수 있다. 더 근본적인 문제는, 모든 사람이 자신의 기존 관점에 맞춰진 개인 에이전트를 갖게 되면, 그 총합은 공론장이 아니라 각자의 사적 세계들의 집합이 된다는 점이다. 민주주의가 요구하는 '공유된 숙의'가 설 자리를 잃는다.

그렇다면 무엇을 설계해야 하는가

소로타와 헨들러는 이 문제를 '피할 수 없는 재앙'이 아니라 '설계의 문제'로 본다. 세 층위에서 각각 다른 대응이 필요하다고 제안한다.

정보 층위에서는 AI 기업들이 모델 출력의 진실성을 높이는 노력을 가속해야 한다. 흥미로운 초기 연구 결과가 있다. X(구 트위터)에서 AI가 생성한 팩트체크 노트를 평가한 현장 실험에서, 다양한 정치적 성향을 가진 사람들이 AI가 쓴 노트를 인간이 쓴 것보다 더 유용하다고 평가했다. 아직 동료 검토를 거치지 않은 결과지만, 만약 재현된다면 AI 보조 팩트체크가 인간의 노력으로는 달성하기 어려웠던 초당파적 신뢰를 얻을 수 있다는 의미다.

에이전트 층위에서는 에이전트가 사용자를 충실하게 대변하는지 평가하는 기준이 필요하다. 에이전트는 자체 의제를 가져서도 안 되고, 사용자의 견해를 왜곡해서도 안 된다. 동시에 '충실한 대변'이 확증 편향의 도구가 되어서는 안 된다. 불편한 정보를 차단하고, 기존 신념에 도전하지 않으며, 마음이 바뀌어도 이를 반영하지 않는 에이전트는 사용자의 진정한 이익에 반한다.

제도 층위에서는 이미 일부 지방정부들이 AI 매개 플랫폼을 활용해 대규모 민주적 숙의를 실험하고 있다. AI 조정자가 시민들이 공통점을 찾는 데 도움을 준다는 연구 결과가 이를 뒷받침한다. 동시에 공공 의견 수렴 절차에 봇이 이미 개입하고 있다는 증거도 나오고 있어, 인간과 에이전트 대리인 모두에 대한 신원 확인이 처음부터 설계에 포함되어야 한다.

네이버카카오가 AI 어시스턴트와 에이전트 서비스를 확장하는 한국의 상황도 이 맥락에서 무관하지 않다. 국내 플랫폼이 정치·사회적 정보를 어떻게 큐레이션하고 에이전트가 어떤 기준으로 사용자를 대변하는지는 결국 같은 설계 질문을 마주한다.

본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.

의견

관련 기사

PRISM

광고주 모집

[email protected]
PRISM

광고주 모집

[email protected]
AI가 당신 대신 투표 결정을 내린다면 | 테크 | PRISM by Liabooks