📄️ 🟢 Ланцюг думок
Ланцюг думок (CoT) (@wei2022chain) — нещодавно розроблений метод запитів, що спонукає ВММ арґументувати свої твердження. На зображенні нижче (@wei2022chain) продемонстровано %%стандартний запит|few shot standard prompt%% (ліворуч) у порівнянні зі запитом на основі методу ланцюга думок (праворуч).
📄️ 🟢 Ланцюг думок без ілюстрацій
Запит ланцюг думок без ілюстрацій (Zero-shot-CoT)(@kojima2022large) є доповненням до %%CoT|CoT prompting%% (@wei2022chain), який представляє неймовірно простий запит на основі 1 ілюстрації. Таким чином, додаючи слова "Let's think step by step." до кінця запитання, ВММ можуть створити ланцюг думок, який відповідає на запитання. З цього ланцюга думок вони можуть отримати точніші відповіді.
📄️ 🟡 Самоузгодженість
Самоузгодженість (@wang2022selfconsistency) — це підхід, який просто задає моделі той самий запит кілька разів і приймає результат більшості як остаточну відповідь. Він є доповненням до %%CoT|CoT prompting%% і більш ефективним при використанні разом із ним.
📄️ 🟡 Згенеровані знання
Ідея підходу генерованих знань (@liu2021generated) полягає в тому, щоб попросити %%ВММ|LLM%% згенерувати потенційно корисну інформацію про дане питання/запит перед тим, як дати остаточну відповідь.
📄️ 🟡 Запит від найменшого до найбільшого
Запит від найменшого до найбільшого (LtM)(@zhou2022leasttomost) виводить %%CoT|CoT prompting%% на вищу планку, спочатку розбиваючи проблему на підпроблеми, а потім розв’язуючи кожну. Це техніка, розроблена на основі реальних освітніх стратегій для дітей.
📄️ 🟡 Dealing With Long Form Content
Dealing with long form content can be difficult, as models have limited context length. Let's learn some strategies for effectively handling long form content.
📄️ 🟡 Revisiting Roles
Accuracy Boost in Newer Models
📄️ 🟢 Що міститься в запиті?
Раніше ми розглянули кілька різних стратегій запитів. На цій сторінці надано деякі загальні поради щодо того, що насправді є важливим у запиті.