📄️ 🟢 Cadena de pensamiento
El prompting Chain of Thought (CoT) (@wei2022chain) es un método de prompt recientemente desarrollado que alienta al LLM a explicar su razonamiento. La siguiente imagen (@wei2022chain) muestra un %%few shot standard prompt|prompt estándar de pocos ejemplos%% (izquierda) en comparación con un prompt de Cadena de Pensamiento (derecha).
📄️ 🟢 Zero Shot Chain of Thought
Zero Shot Chain of Thought (Zero-shot-CoT) prompting (@kojima2022large) es un seguimiento del %%prompting de CoT|prompting de CoT%% (@wei2022chain), que introduce un prompt zero shot increíblemente simple. Descubren que al agregar las palabras "Pensemos paso a paso." al final de una pregunta, los LLM pueden generar una cadena de pensamiento que responde a la pregunta. A partir de esta cadena de pensamiento, pueden extraer respuestas más precisas.
📄️ 🟡 Autoconsistencia
Autoconsistencia(@wang2022selfconsistency) es un seguimiento de %%CoT|prompting de CoT%% que genera
📄️ 🟡 Generated Knowledge
La idea detrás del enfoque de conocimiento generado(@liu2021generated) es pedir al %%LLM|LLM%% que genere información potencialmente útil sobre una pregunta o tema dado antes de generar una respuesta final.
📄️ 🟡 Least to Most Prompting
Prompting de menos a más (LtM) (Zhou et al., 2022) lleva la técnica de %%CoT prompting|prompting de CoT%% un paso más allá al descomponer un problema en subproblemas y resolver cada uno. Esta técnica está inspirada en estrategias educativas del mundo real para niños.
📄️ 🟡 Dealing With Long Form Content
Dealing with long form content can be difficult, as models have limited context length. Let's learn some strategies for effectively handling long form content.
📄️ 🟡 Revisiting Roles
Accuracy Boost in Newer Models
📄️ 🟢 ¿Qué es una Promoción?
Hemos pasado por algunas estrategias de promoción diferentes en las páginas anteriores. Esta página ofrecerá algunos consejos generales sobre lo que realmente es importante en una promoción.