Pionero de la IA alerta sobre los peligros de esta tecnología para la humanidad

Geoffrey Hinton dejó su puesto en Google para hablar del tema ya que “Le preocupa la capacidad para hacer imágenes y textos convincentes” a través de IA, la gente ya no podrá saber lo que es verdad.

El informático británico Geoffrey Hinton, conocido como El padrino de la inteligencia artificial (IA), veterano en el desarrollo de ésta, dejó su puesto de vicepresidente de Google y miembro del equipo de ingeniería con el fin de alertar sobre los desarrollos que se hacen con esa tecnología y los riesgos que plantean para la sociedad.

El trabajo pionero de Hinton sobre redes neuronales dio forma a los sistemas de inteligencia artificial que impulsan muchos de los productos actuales. Trabajó a medio tiempo en Google durante una década en las labores de desarrollo de inteligencia artificial del gigante tecnológico, pero ahora le preocupa la tecnología y el papel que desempeñó en su desarrollo.

En un tuit de este lunes, Hinton dijo que renunció a Google para poder hablar libremente sobre los peligros de la inteligencia artificial (IA), más que por un deseo de criticar específicamente a Google.

“Me fui para poder hablar sobre los peligros de la IA sin tener en cuenta cómo esto afecta a Google”, dijo Hinton en un tuit. “Google ha actuado de forma muy responsable”.

Jeff Dean, jefe científico de Google, dijo que Hinton “ha hecho avances fundacionales en IA” y expresó su agradecimiento por la “década de contribuciones de Hinton en Google”.

“Seguimos comprometidos con un enfoque responsable de la IA”, dijo Dean en un comunicado facilitado a CNN.

“Estamos aprendiendo continuamente para comprender los riesgos emergentes al tiempo que innovamos con audacia”.

La decisión de Hinton de retirarse de la compañía y hablar sobre la tecnología se produce en un momento en que un número creciente de legisladores, grupos de defensa y conocedores de la tecnología han hecho saltar las alarmas sobre el potencial de una nueva cosecha de chatbots potenciados por IA para difundir información errónea y desplazar empleos.

La oleada de atención suscitada por ChatGPT a finales del año pasado contribuyó a renovar una carrera armamentística entre las empresas tecnológicas para desarrollar e implantar herramientas de IA similares en sus productos. OpenAI, Microsoft y Google están a la cabeza de esta tendencia, pero IBM, Amazon, Baidu y Tencent están trabajando en tecnologías similares.

En marzo, algunas figuras destacadas de la tecnología firmaron una carta en la que pedían a los laboratorios de inteligencia artificial que detuvieran el entrenamiento de los sistemas de IA más potentes durante al menos seis meses, citando “profundos riesgos para la sociedad y la humanidad”.

La carta, publicada por el Future of Life Institute, una organización sin fines de lucro respaldada por Elon Musk, llegó apenas dos semanas después de que OpenAI anunciara GPT-4, una versión aún más potente de la tecnología que impulsa ChatGPT. En las primeras pruebas y en una demostración de la empresa, GPT-4 se utilizó para redactar demandas, aprobar exámenes estandarizados y crear un sitio web funcional a partir de un boceto dibujado a mano.