Un equipo de investigadores de Zoom Communications ha desarrollado un técnica que alivia de forma dramática la cantidad de recursos que una IA consume para resolver un problema que requiere razonamientos complejos. El esquema es conocido como Chain of Draft y permite emplear un 7,6% de las palabras que normalmente se utilizarían en estos ejercicios.
Reducir el número de palabras consideradas es importante. Las IA no razonan como lo hace un ser humano. Toman las palabras de un texto y las transforman en tokens para buscar términos asociados a cada uno. En base a esto comienzan una extensa operación de búsqueda para predecir cuál sería la respuesta adecuada a cada línea del texto.
Ignorando lo superfluo
Según explican los desarrolladores, al reducir el texto y enfocarse en los punto críticos, CoD no solo reduce el trabajo, sino que supera en precisión a los esquemas utilizados actualmente. “Cuando resolvemos tareas complejas, sean matemáticas, ensayos o programación, a menudo solo consideramos las piezas críticas de información para facilitar nuestro progreso. Al emular este comportamiento los modelos de lenguaje pueden enfocarse en avanzar hacia la solución sin ocuparse de todo lo extra de la expresión”.
En una de las pruebas, realizadas con Claude 3.5 Sonnet, los investigadores lograron reducir el resultado obtenido de 189,4 tokens a 14,3 tokens. Obteniendo un nivel de acierto de 97,3% superando los 93,2% conseguidos sin la técnica.
Implementación sencilla
Una de las ventajas del nuevo método de razonamiento es que puede implementarse en cualquier sistema sin que se necesite un nuevo entrenamiento de la IA. Lo único que se necesita es un cambio en el modo en que se introducen las consignas. Los modelos que utilizan la técnicas de Chain of Thougth, o cadena de pensamiento, pueden implementar CoD.