눈동자로 증명하라, 당신이 인간임을
틴더가 OpenAI CEO 샘 알트먼이 공동 창업한 World의 홍채 인식 오브로 사용자 신원을 검증한다. 봇과 AI 에이전트가 범람하는 시대, '진짜 인간'을 증명하는 게 특권이 되는 세상이 오고 있다.
소개팅 앱에서 상대방이 '진짜 사람'인지 확인하기 위해 오프라인 기계 앞에 직접 서야 하는 시대가 왔다.
Tinder가 World의 홍채 인식 오브(Orb)를 활용한 신원 검증 서비스를 일본과 미국을 포함한 일부 시장으로 확대한다고 밝혔다. World는 OpenAI CEO 샘 알트먼이 공동 창업한 회사다. 검증을 완료한 사용자에게는 앱 내 유료 기능인 '부스트' 5회를 무료로 제공한다. 부스트는 일정 시간 동안 자신의 프로필 노출을 높여주는 기능으로, 유료 구독자들이 주로 사용한다.
오브 앞에 서야 하는 이유
절차는 간단하지 않다. 사용자는 직접 World의 오브가 설치된 장소를 방문해야 한다. 오브는 사용자의 얼굴과 눈을 촬영한 뒤 데이터를 암호화해 저장한다. 이 과정을 통해 해당 계정이 봇이나 AI 에이전트가 아닌 실제 인간이 운영하고 있음을 증명한다.
World는 지난해 일본에서 Tinder와 파일럿 프로그램을 운영하며 이 시스템을 처음 시험했다. 이번 확대는 그 결과를 바탕으로 한 것이다. World는 Tinder 외에도 다양한 플랫폼에 오브 기반 인증을 적용하며 생태계를 넓히고 있다.
왜 이런 방식이 필요해졌을까. 생성형 AI의 발전으로 텍스트, 음성, 심지어 영상까지 인간과 구별하기 어려운 수준의 AI 에이전트가 등장했기 때문이다. 데이팅 앱은 이 문제에 특히 취약하다. 상대방이 실제로 존재하는 사람인지 확인하는 것이 서비스의 근본적인 신뢰와 직결되기 때문이다.
'인간 인증'이 비즈니스가 되는 세상
여기서 흥미로운 역설이 등장한다. AI를 가장 적극적으로 개발하는 인물 중 하나인 샘 알트먼이, 동시에 'AI가 아님을 증명하는' 인프라를 구축하고 있다는 점이다. OpenAI가 더 강력한 AI를 만들수록, World의 인간 인증 서비스는 더 필요해진다. 이 구조는 우연이 아닐 수 있다.
Tinder 입장에서도 계산이 맞는다. 부스트 5회는 유료 사용자 유입을 위한 미끼이자, 봇 없는 플랫폼이라는 신뢰 마케팅이다. 사용자 입장에서는 프라이버시를 일부 내주는 대신 '진짜 사람들만 있는 공간'에 대한 접근권을 얻는 셈이다.
하지만 모든 사용자가 이 거래를 환영하는 것은 아니다. 홍채 데이터는 비밀번호와 달리 바꿀 수 없다. 한번 유출되면 영구적인 피해가 된다. World는 데이터를 암호화해 저장한다고 밝히고 있지만, 생체정보를 민간 기업에 맡기는 것에 대한 우려는 가라앉지 않는다. 특히 유럽에서는 GDPR 등 강력한 개인정보 보호 규정으로 인해 이 서비스의 확장이 쉽지 않을 것으로 보인다.
한국에는 언제, 어떻게 올까
이번 발표에서 한국은 포함되지 않았다. 하지만 데이팅 앱 시장에서 한국은 무시할 수 없는 시장이다. Tinder는 국내에서도 상당한 사용자 기반을 갖고 있으며, 카카오의 카카오데이트, 하이퍼커넥트의 아자르 등 국내 경쟁 서비스들도 봇 문제에서 자유롭지 않다.
만약 이 서비스가 한국에 도입된다면, 오브 설치 위치가 핵심 변수가 된다. 접근성이 낮으면 인증 자체가 유명무실해진다. 또한 국내 개인정보보호법(PIPA)과 생체정보 처리에 관한 규정이 World의 방식과 충돌할 가능성도 있다. 네이버나 카카오가 유사한 방식을 자체 개발할 가능성도 배제할 수 없다. 이미 두 회사 모두 AI 에이전트 기술에 상당한 투자를 하고 있기 때문이다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
전 애플 직원들이 만든 AI 하드웨어 '버튼(Button)'. 179달러짜리 iPod Shuffle 닮은 이 기기가 AI 하드웨어 시장의 새 판을 짤 수 있을지, 한국 시장과 삼성·네이버의 대응까지 살펴본다.
위스콘신 주지사 토니 에버스가 성인 사이트 연령 인증 의무화 법안에 거부권을 행사했다. 프라이버시 보호냐, 청소년 보호냐 — 미국 25개 주가 선택한 길과 다른 방향이다.
AI 회의록 앱 Granola가 '기본 비공개'를 표방하면서도 링크만 있으면 누구나 열람 가능하고, 별도 설정 없이 AI 학습에 활용된다는 사실이 드러났다. 업무용 AI 앱의 프라이버시 설계를 짚어본다.
Anthropic Claude Code 소스코드 유출로 드러난 'Kairos' 기능. 사용자가 자리를 비워도 백그라운드에서 작동하는 AI 에이전트의 등장이 의미하는 것은 무엇인가.
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요