Darle a los sistemas de IA un “monólogo interno” los hace mucho mejores en su razonamiento, según muestra una nueva investigación.
Este método entrena a los sistemas de IA para que piensen antes de responder a indicaciones, del mismo modo que muchas personas piensan en lo que debemos decir a continuación antes de hablar. Esto es diferente de cómo los científicos han entrenado chatbots básicos de IA, como ChatGPT, que no «piensan» en lo que estás escribiendo ni anticipan diferentes posibilidades para los siguientes pasos en una conversación.
El nuevo método, llamado Quiet-STAR, indica al sistema de inteligencia artificial que genere varias justificaciones internas en paralelo antes de responder a un mensaje de conversación. Cuando la IA solicita respuestas, genera una combinación de estas predicciones con y sin justificación, e imprime la mejor respuesta, que puede ser verificada por un participante humano según la naturaleza de la pregunta.
Finalmente, aprende eliminando justificaciones que se demuestra que son incorrectas. De hecho, el método de capacitación brinda a los agentes de IA la capacidad de anticipar conversaciones futuras y aprender de las conversaciones en curso.
Relacionado: La singularidad de la IA podría llegar en 2027 con una 'superinteligencia' artificial antes de lo que pensamos, dice el científico jefe
Los investigadores aplicaron el algoritmo Quiet-STAR a Mistral 7B, un modelo de lenguaje grande (LLM) de código abierto, y publicaron los resultados el 14 de marzo en una base de datos preimpresa. arXiv. (El artículo aún no ha sido revisado por pares).
La versión del Mistral 7B entrenada con Quiet-STAR obtuvo una puntuación del 47,2% en la prueba de razonamiento frente al 36,3% antes de cualquier entrenamiento. Sin embargo, no aprobó el examen de matemáticas de la escuela y recibió una calificación del 10,9%. Pero esto fue casi el doble de la puntuación inicial del 5,9% en la versión básica.
Modelos como ChatGPT y Gemini se construyen a partir de redes neuronales, que son conjuntos de algoritmos de aprendizaje automático organizados de manera que imitan la estructura y los patrones de aprendizaje de una red neuronal. la mente humana. Sin embargo, los sistemas creados con esta arquitectura son muy deficientes en cuanto a razonamiento lógico o contexto, y los chatbots de IA no tienen una “comprensión” real.
Los intentos anteriores de mejorar las capacidades de pensamiento de los titulares de un LLM han sido muy específicos de un dominio y no se pueden aplicar a diferentes tipos de modelos de IA.
El algoritmo de inferencia subjetiva (STAR), que los investigadores utilizaron como base para su trabajo, es un ejemplo de este tipo de algoritmo de entrenamiento, pero se ve obstaculizado por estas limitaciones.
Los científicos que desarrollaron Quiet-STAR le dieron este nombre porque los principios STaR se pueden aplicar silenciosamente en segundo plano y, en general, a varios tipos diferentes de LLM, independientemente de los datos de entrenamiento originales. Ahora quieren explorar cómo técnicas como la suya pueden cerrar la brecha entre los sistemas de inteligencia artificial basados en redes neuronales y las capacidades de pensamiento humanas.
«Pionero del café. Fanático de las redes sociales. Entusiasta de la televisión. Emprendedor amigable. Empollón zombi aficionado».