📄️ 🟢 思維鏈提示過程
思維鏈(CoT)提示過程(@wei2022chain)是一種最近開發的提示方法,它鼓勵大語言模型解釋其推理過程。下圖(@wei2022chain) 顯示了 %%few shot standard prompt|few shot standard prompt%%(左)與鏈式思維提示過程(右)的比較。
📄️ 🟢 零樣本思維鏈
零樣本思維鏈(Zero Shot Chain of Thought,Zero-shot-CoT)提示過程(@kojima2022large)是對 %%CoT prompting|CoT prompting%% (@wei2022chain) 的後續研究,引入了一種非常簡單的零樣本提示。他們發現,透過在問題的結尾附加 “讓我們一步步思考 (Let's think step by step)” 這一句話,大語言模型能夠生成一個回答問題的思維鏈。從這個思維鏈中,他們能夠提取更準確的答案。
📄️ 🟡 自我一致性
自我一致性(Self-consistency)(@wang2022selfconsistency)是對 %%CoT|CoT prompting%% 的一個補充,它不僅僅生成一個思路鏈,而是生成多個思路鏈,然後取多數答案作為最終答案。
📄️ 🟡 知識的生成
生成知識方法(@liu2021 generated)背後的想法是要求 %%LLM|LLM%% 在生成最終回應之前產生有關給定問題/提示的潛在有用資訊。
📄️ 🟡 最少到最多提示
最少到最多提示 (Least to Most prompting, LtM)(@zhou2022leasttomost) 將 %%思維鏈提示 (CoT prompting)|CoT prompting%% 進一步發展,首先將問題分解為子問題,然後逐個解決。它是受到針對兒童的現實教育策略的啟發而發展出的一種技術。
📄️ 🟡 處理長文本內容
處理長格式內容可能很有挑戰,因為模型的上下文長度有限。讓我們學習一些有效處理長文本內容的策略。
📄️ 🟡 重新審視角色提示
新模型的準確度提升
📄️ 🟢 提示的關鍵要素
在為語言學習模型設計提示時,需要考慮幾個因素。格式(format)和標籤空間(labelspace)對於提示的有效性都起著至關重要的作用。