Un equipo de científicos de la Universidad de Alberta, Canadá, ha dado un paso significativo en la mejora de los sistemas de inteligencia artificial (IA). En un estudio reciente publicado en Nature, los investigadores abordaron un problema crítico conocido como “olvido catastrófico” en las redes neuronales artificiales, que ocurre cuando estos sistemas pierden su capacidad de aprender con eficacia después de entrenarse con nuevos datos.
Hasta ahora, los modelos de lenguaje, como los utilizados en chatbots, han sido incapaces de mejorar su precisión a lo largo del tiempo debido a este fenómeno. Sin embargo, el equipo ha encontrado una solución innovadora: restablecer los pesos de los nodos en las redes neuronales entre sesiones de entrenamiento. Este enfoque permite que la IA conserve su plasticidad, la capacidad esencial para aprender y adaptarse a nuevas tareas sin olvidar las anteriores.
Este avance no solo mejora el rendimiento de los sistemas de IA actuales, sino que también abre la puerta a un futuro en el que la inteligencia artificial pueda evolucionar y volverse más eficiente con el tiempo, lo que podría transformar múltiples aplicaciones tecnológicas en diversas industrias.