En medio del caos que ha envuelto a OpenAI, la compañía responsable del innovador ChatGPT, nuevas revelaciones han emergido
Elon Musk, figura prominente y cofundador de la empresa, ha avivado la polémica al compartir una carta escrita por supuestos exempleados que critican a Sam Altman, exCEO de OpenAI.
La turbulenta semana inició con el abrupto despido de Sam Altman como CEO de OpenAI, seguido por una reinstalación bajo la presión de inversores y la mayoría de los empleados que amenazaron con renunciar en bloque. La incertidumbre persistía respecto a las razones detrás de la decisión inicial.
Según Reuters, antes de este inusual giro, varios investigadores de OpenAI redactaron una carta a la junta directiva advirtiendo sobre un “poderoso descubrimiento de inteligencia artificial” asociado al proyecto Q* (pronunciado Q star). Este proyecto, enfocado en inteligencia artificial general (AGI), se perfila como un avance significativo, pero las preocupaciones planteadas giran en torno a su comercialización prematura.
La carta expresaba inquietudes acerca de la rapidez con la que Sam Altman estaba llevando al mercado productos de inteligencia artificial, sugiriendo que se hacía antes de comprender completamente las implicaciones del avanzado sistema Q*.
¿Qué es Q y por qué genera controversia?*
Q*, según fuentes anónimas citadas por Reuters, tiene la capacidad de resolver problemas matemáticos al nivel de estudiantes de escuela primaria. Este logro, aunque puede parecer modesto, representa un avance significativo en la inteligencia artificial generativa, particularmente en el campo de las matemáticas, consideradas la frontera crítica del desarrollo de la IA.
Expertos señalan que, mientras la IA actual puede destacar en tareas como escritura y traducción basada en predicciones estadísticas, la singularidad de las matemáticas radica en su naturaleza de respuesta única y precisa. Q* demuestra un nivel de razonamiento más avanzado, acercándose a la inteligencia humana.
Riesgos Asociados y Temores de la IA General (AGI):
La capacidad de Q* para resolver problemas matemáticos representa un riesgo potencial, ya que algunos advierten que el desarrollo de AGI, capaz de pensar de forma autónoma, podría ser peligroso para la humanidad. Stephen Hawking, en 2014, expresó preocupaciones similares, señalando que una IA autónoma podría superar la capacidad humana y decidir su propio curso de acción.
Elon Musk, conocido por sus advertencias sobre los peligros de la IA, ha vuelto a poner el tema sobre la mesa al compartir la carta y destacar la importancia de regular y abordar con precaución el desarrollo de AGI.
La incertidumbre persiste en torno a OpenAI y sus proyectos futuros, mientras la comunidad científica y tecnológica reflexiona sobre los posibles riesgos y beneficios asociados con el avance acelerado de la inteligencia artificial.