Por Javier García Bejos
A finales de marzo de este año, Elon Musk junto con cerca de mil investigadores en tecnología firmaron una suerte de manifiesto sobre el preocupante avance de la inteligencia artificial (IA) y los riesgos que conlleva para la supervivencia de la existencia humana, y sugirieron que se detuvieran las investigaciones al respecto por lo menos durante seis meses, a la par de que tanto en Europa como en Estados Unidos, se analizan las vías y métodos para regular una tecnología asombrosa y escalofriante en partes iguales.
Como era natural, desde la denuncia del extrabajador de Google, Blake LeMoine, sobre la supuesta toma de conciencia del programa LaMDA, un modelo de lenguaje desarrollado por la compañía de California y la irrupción en meses recientes de ChatGPT, se ha creado un clima de pánico respecto a los alcances de la IA -o mejor dicho las IA’s- y a las repercusiones que podrían tener para la especie humana, planteando escenarios propios de la ciencia ficción en donde la tecnología conduce a nuestra especie a la extinción.
El temor a que estos escenarios se vuelvan realidad no es cosa menor y si bien hay que matizar, la preocupación respecto al imparable avance de estas tecnologías es totalmente legítima.
Ahora bien, las grandes preguntas alrededor del debate que están suscitando las IA’s tienen que ver con nuestra capacidad para que su avance y desarrollo no se salga de control y con la voluntad de gobiernos y tecnológicas para poder regular una serie de tecnologías sumamente complejas y con aplicaciones infinitas.
Sin que nos hayamos dado cuenta con plena consciencia, desde hace décadas la inteligencia artificial ha estado presente en nuestra vida cotidiana, es cierto que su presencia omnipresente e invisible ha sido más notoria (vaya ironía) a partir de lo que relato en el segundo párrafo, pero no hay duda de que sus aportes a la medicina, sobre todo, han sido de gran utilidad.
La otra cara de las IA’s está intrínsecamente relacionada con la posibilidad de que en, efecto, tomen consciencia propia y ya no requieran de la supervisión y control de un ser humano. Ese escenario no es tan lejano ni mucho menos imposible, y la carta que todos estos científicos e investigadores, incluyendo la comparecencia en el senado de EU de Sam Altman, uno de los fundadores de OpenAI, la desarrolladora de ChatGPT, así como sus llamados más recientes respecto a los riesgos que implican el avance de las IA’s, son un friendly reminder de lo que puede suceder si no se toman cartas en el asunto.
Sin ánimo de satanizar ni glorificar nada, puesto que las posturas dicotómicas me parecen siempre inadecuadas y poco precisas, el desafío que tenemos como especie frente a las IA’s es real y debe abordarse desde todos los ángulos posibles.
Los dilemas de la humanidad y su convivencia con el avance de la ciencia y la tecnología así como sus pros y sus contras son una realidad con la que tenemos que convivir y yo recomiendo hacerlo con la cabeza fría pero sin perder nuestra esencia como especie.
A propósito de tal dilema, este verano se estrena en cines Oppenheimer del director británico Christopher Nolan, quizá la experiencia con la bomba atómica pueda ayudarnos como referente ante este nuevo desafío.