두 번 말하면 똑똑해진다? LLM 프롬프트 반복 성능 향상의 비밀
구글 리서치의 최신 연구에 따르면 LLM 프롬프트 반복 성능이 비추론 작업에서 놀라운 효율을 보입니다. 텍스트를 두 번 입력하는 것만으로 정확도가 21%에서 97%로 수직 상승하는 원리를 분석합니다.
악수했지만 주먹은 쥐고 있다. AI 엔지니어들이 더 정확한 답변을 얻기 위해 '단계별 생각(CoT)'이나 '감정적 호소' 같은 복잡한 프롬프트 기법에 매달리는 사이, 정답은 의외로 단순한 곳에 있었다. 구글 리서치(Google Research)가 최근 발표한 논문에 따르면, 동일한 질문을 단순히 두 번 반복해서 입력하는 것만으로도 주요 모델의 성능이 비약적으로 향상된다는 사실이 밝혀졌다.
LLM 프롬프트 반복 성능 향상의 핵심 원리
구글의 연구진인 야니브 레비아단, 마탄 칼만, 요시 마티아스는 Gemini, GPT-4o, Claude 등 업계 표준 모델들을 대상으로 테스트를 진행했다. 그 결과, 단순 정보 추출이나 직접적인 답변이 필요한 '비추론' 작업에서 프롬프트를 복사해서 두 번 붙여넣는 방식이 기준 모델 대비 70회의 테스트 중 47회나 더 우수한 성적을 거뒀다. 패배는 단 한 건도 없었다.
이러한 현상이 발생하는 이유는 현대 AI의 근간인 트랜스포머(Transformer) 아키텍처의 한계 때문이다. 대부분의 LLM은 텍스트를 왼쪽에서 오른쪽으로 순차적으로 읽는다. 문장의 중간을 읽을 때는 뒤에 올 내용을 알 수 없는 '인과적 사각지대'가 발생한다. 하지만 프롬프트를 반복하면 모델이 두 번째 질문을 읽을 때 이미 첫 번째 질문의 전체 맥락을 파악한 상태가 된다. 사실상 '양방향 어텐션'과 유사한 효과를 얻는 셈이다.
공짜 점심은 있다: 속도 저하 없는 성능 최적화
더 놀라운 점은 사용자 체감 속도 변화가 거의 없다는 것이다. 연구에 따르면 제미나이 2.0 플래시 라이트(Gemini 2.0 Flash Lite) 모델의 경우 특정 이름 찾기 작업의 정확도가 21.33%에서 97.33%로 급등했다. 연산 과정에서 '프리필(Prefill)' 단계는 GPU를 통해 병렬 처리가 가능하므로, 입력 데이터가 두 배로 늘어나도 첫 번째 토큰이 생성되는 시간은 크게 지연되지 않는다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
F1 2026 시즌 개막전 멜버른. 메르세데스 조지 러셀이 예선에서 2위보다 0.6초 빠른 랩타임을 기록하며 2014년 하이브리드 패권의 재현을 예고했다. 새 기술 규정이 바꿔놓을 경쟁 구도를 분석한다.
미 법무부와 라이브네이션-티켓마스터의 반독점 합의가 타결됐다. 하지만 기업 분할 없이 끝날 가능성이 높다. 콘서트 티켓값은 정말 내려갈까?
XPrize 창립자 피터 디아만디스가 35억 원 규모의 '미래비전 XPrize'를 출범했다. 낙관적 SF 콘텐츠가 왜 지금 필요한지, 그리고 한국 창작자에게 어떤 기회가 열리는지 살펴본다.
앤트로픽이 미 국방부의 공급망 위험 지정에 맞서 소송을 제기했다. AI 안전 기준을 고수한 기업이 정부의 보복을 받은 이 사건은, AI 군사화 논쟁의 핵심을 드러낸다.
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요