Share
Sign In
⛓️

Cadena de pensamientos (CoT)

Existe una técnica llamada Cadena de Pensamiento anunciada en 2022 por Jason Wei, quien anteriormente definió Zero-shot. Como sugiere el nombre, esto está relacionado con las indicaciones en cadena. La ligera diferencia es que los pasos de inferencia intermedios se agregan intencionalmente para obtener mejores resultados. Esto es especialmente eficaz para tareas complejas que requieren procesos de pensamiento detallados.
ChainofThought Prompting Elicits Reasoning in Large Language Models.pdf870.87KB

Ventajas de las indicaciones CoT

Descomposición de problemas de varios pasos: CoT permite que los modelos descompongan problemas de varios pasos en pasos intermedios, lo que significa que se pueden asignar cálculos adicionales a problemas que requieren más pasos de inferencia.
Interpretabilidad del comportamiento del modelo: CoT proporciona una ventana interpretable sobre cómo el modelo llega a una respuesta específica y brinda la oportunidad de depurar dónde salió mal la ruta de inferencia.
Aplicabilidad a una variedad de tareas: el razonamiento CoT se puede utilizar para tareas como problemas matemáticos, razonamiento de sentido común, manipulación simbólica y, en principio, cualquier tarea que los humanos puedan resolver a través del lenguaje.
Fácil inducción en modelos de lenguaje a gran escala: la inferencia CoT se puede derivar fácilmente en modelos de lenguaje existentes suficientemente grandes simplemente incluyendo ejemplos de secuencias CoT.
¿Damos un ejemplo? Este es el ejemplo mostrado anteriormente en la parte del argumento .
Prompt : 242,343,232,12,1,423,3,2,433,42,21,51,26 를 홀수와 짝수로 구별한 다음 홀수 인 숫자를 모두 더하시오. 이를 순서대로 진행해 주세요.
💡
Distingamos entre números pares e impares y sumemos los números impares en orden:
Números impares: 343, 1, 423, 3, 433, 21, 51
Suma impar: 343 + 1 + 423 + 3 + 433 + 21 + 51 = 1275
Por lo tanto, si sumas todos los números impares entre los números dados, obtienes 1275.
Aquí, 'Distingue entre números pares e impares y luego suma todos los números impares. La parte que dice "Por favor, proceda en orden" es una instrucción para separar tareas en una cadena. Cuando este método recibió atención por primera vez, se hizo "paso a paso". Se ha dicho que preguntar paso a paso “en orden” produce mejores resultados.
Por supuesto, el método CoT también tiene claras limitaciones. En pocas palabras, el efecto sólo se puede ver en modelos que tienen muchas cosas en la cabeza. En otras palabras, en un modelo con una pequeña cantidad de parámetros, llamado sLM, CoT no funciona nada bien. En este caso, el método de pocos disparos o de un solo disparo muestra mejores resultados.

Limitaciones de la CoT

Dependiendo del tamaño del modelo: las indicaciones de CoT muestran principalmente ganancias de rendimiento positivas solo para modelos a gran escala (alrededor de 70 mil millones de parámetros). Para modelos a pequeña escala, CoT puede ser ineficaz o funcionar peor que las indicaciones estándar.
Limitaciones: aunque CoT imita el proceso de pensamiento de un razonador humano, aún se desconoce si se trata de una red neuronal que realmente "razonaliza". Además, si bien el costo de extender manualmente un ejemplo a CoT puede ser pequeño, el costo de las anotaciones para realizar ajustes puede aumentar significativamente. CoT no garantiza la ruta de inferencia correcta y también hay que tener en cuenta que el coste de utilizar modelos grandes en aplicaciones reales es elevado.
No obstante, CoT Prompting es una forma eficaz de mejorar la capacidad de razonamiento en una variedad de tareas utilizando modelos de lenguaje. En primer lugar, dado que los modelos que se ofrecen a nuestros usuarios actualmente rondan los 100 mil millones, este método no tiene sentido.
🙌
🧊
ⓒ 2023. Haebom, todos los derechos reservados.
Se indica la fuente y puede utilizarse con fines comerciales con el permiso del titular de los derechos de autor.
👍