LLM 提示詞重複 的奇效:Google 研究證實重複輸入能讓 AI 準確度突飛猛進
Google Research 研究發現,將 LLM 提示詞重複輸入兩遍,可大幅提升 Gemini、GPT-4o 及 Claude 的準確度。實測顯示在非推理任務中取得 47 勝 0 敗的佳績,甚至能讓輕量模型準確率從 21% 提升至 97%。這是一項低延遲、高回報的 AI 最佳化新發現。
在追求大型語言模型(LLM)最佳化的過程中,有時最簡單的手段反而最有效。根據 Google Research 最近發布的論文《Prompt Repetition Improves Non-Reasoning LLMs》,只要將提示詞簡單地「重複兩遍」輸入,就能顯著提升包括 Gemini、GPT-4o 及 Claude 在內的所有主流模型的表現。這項發現不僅令人驚訝,更揭示了現有 AI 架構中一個長期被忽視的「因果盲點」。
彌補架構缺陷:利用 LLM 提示詞重複 達成雙向注意力
為什麼重複提示詞會讓超大型電腦變得更聰明?答案在於 Transformer 模型的單向處理特性。目前的 LLM 主要是以「因果」邏輯進行訓練,嚴格遵循從左至右的處理順序。這意味著當模型處理到句子中間時,它無法預知後文。然而,當提示詞被重複兩遍時,模型在處理第二遍內容時已經「讀過」了第一遍,這讓第二遍的標記(token)能夠回頭參照完整的前文,從而產生類似「雙向注意力」的效果,有效提升了對複雜指令的理解力。
實測 47 勝 0 敗:小模型的華麗逆襲
研究員在 ARC、MMLU-Pro 等多個基準測試中發現,在非推理型任務上,重複提示詞的手法取得了 47 勝 0 敗 的壓倒性戰績。最驚人的數據來自數據提取測試:使用 Gemini 2.0 Flash Lite 時,單次提示詞的準確率僅為 21.33%,但重複一遍後竟然飆升至 97.33%。這顯示出對於預算有限、需要使用輕量化模型的企業來說,這是一個幾乎「免費」的性能增長點。
延遲與實務應用:隱形的高效最佳化
企業領導者最擔心的通常是輸入加倍會導致延遲倍增。令人意外的是,由於 GPU 在處理提示詞預填(Prefill)階段具備高度並行化能力,使用者幾乎感受不到延遲的增加。未來,這項技術極可能被整合進 API 閘道器的編排層中。對於實體提取、分類或簡單問答等任務,系統可以自動將提示詞加倍,從而在不增加使用者操作負擔的前提下,獲得更精準的結果。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
OpenAI宣布將在ChatGPT免費版中導入廣告,預計2026年正式測試。面對5000億美元估值與8億用戶,這項獲利計畫將對AI產業產生翻天覆地的影響。
日本政府針對馬斯克旗下的 Grok AI 展開調查,焦點在於不當影像生成及隱私權侵害。路透社指出,日本個人情報保護委員會要求其針對內容過濾機制進行說明,此舉可能影響未來 AI 產業的跨境合規標準。
Anthropic 委任前微軟高管 Irina Ghose 領導印度業務並設立班加羅爾辦公室。這家 AI 新創正全力衝刺印度市場,與 OpenAI 展開正面對決。
Raspberry Pi 推出 AI HAT+ 2,搭載 Hailo 10H 晶片與 8GB RAM,提供 40 TOPS 算力。支援在 Raspberry Pi 5 上離線執行 Llama 3.2 與 DeepSeek 模型,定價 130 美元。