¡Inteligencia Artificial en la mira! Experta advierte sobre riesgos para los derechos humanos y la seguridad

La concentración del desarrollo de la Inteligencia Artificial (IA) en manos de grandes corporaciones plantea desafíos significativos para la sociedad. Si bien la IA tiene el potencial de transformar positivamente diversos aspectos de nuestra vida, su desarrollo y aplicación sin una regulación adecuada podría generar riesgos para los derechos humanos, la seguridad y la equidad.

Un arma de doble filo

Anahiby Becerril Gil, experta en derecho y tecnologías, advierte que la IA se ha convertido en un pilar fundamental de la transformación digital, con implicaciones que abarcan desde la automatización de procesos industriales y gubernamentales hasta la seguridad nacional. Sin embargo, su desarrollo concentrado en grandes corporaciones abre la puerta a la manipulación mediática, la vigilancia y la violación de derechos fundamentales como la privacidad.

“Así como podemos usarla con propósitos buenos, que vayan acorde con la estabilidad internacional, puede ser usada con fines que no siempre van hacia los derechos humanos”, señala Becerril Gil.

Neurotecnología: un avance con riesgos

La experta destaca la importancia de monitorear las tecnologías emergentes impulsadas por la IA, como los auriculares de neurofeedback, la resonancia magnética funcional y las prótesis neuronales controladas por la mente.

“Las neurotecnologías han avanzado rápidamente gracias a la IA, que optimiza la interpretación de señales cerebrales en tiempo real, facilitando aplicaciones en rehabilitación neurológica y educación personalizada. Sin embargo, la posibilidad de registrar y manipular la actividad cerebral abre interrogantes sobre la privacidad mental y la autonomía individual”, advierte Becerril Gil.

La experta menciona el caso de Neuralink, la empresa de Elon Musk que desarrolla implantes cerebrales, como un ejemplo de innovación con riesgos potenciales. “¿A dónde van los datos que recaban? Ese tipo de innovaciones no están reguladas”, cuestiona.

Control desproporcionado y desigualdad

Becerril Gil alerta sobre el control desproporcionado que empresas como Google, Microsoft, Meta y OpenAI podrían ejercer sobre el conocimiento y los datos, generando desigualdad en el acceso a la innovación, falta de transparencia en sus aplicaciones y limitando la competencia y la diversidad de enfoques.

“Podría generar desigualdad en el acceso a la innovación, falta de transparencia en sus aplicaciones y un control desproporcionado sobre el conocimiento y los datos”, afirma la experta.

Regulación urgente y necesaria

Para mitigar los riesgos de la IA sin frenar la innovación, Becerril Gil considera fundamental que los países impulsen una regulación jurídica que promueva instituciones que evalúen el impacto de la IA, protejan los datos personales y fomenten el desarrollo ético de herramientas de IA y tecnologías emergentes.

La experta destaca la normatividad de la Unión Europea sobre desinformación como un ejemplo a seguir, así como la importancia de la educación mediática para combatir el contenido falso.

México ante el desafío de la IA

En México, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) ha señalado la falta de un plan o estrategia nacional de IA, a pesar de los desafíos que enfrenta el país en este ámbito. México ocupa el lugar 68 de 193 en el Índice de Preparación del Gobierno para la IA, lo que evidencia debilidades en su visión estratégica, regulación y capacidades digitales.

La iniciativa de Ley General de Neuroderechos y Neurotecnologías, presentada en el Senado en 2024, es un esfuerzo por establecer un marco ético y de protección para el uso de tecnologías emergentes en México.

“Necesitamos un plan donde definamos los objetivos y los valores que queremos para esta tecnología a escala nacional y hacia afuera, con otros países. La tecnología tiene que estar centrada en las personas”, enfatiza Becerril Gil.

Tensiones internacionales

A nivel internacional, las tensiones entre potencias como Estados Unidos y China reflejan la dificultad de alcanzar consensos sobre el uso ético de la IA. Mientras la Unión Europea prioriza el respeto a los derechos de sus ciudadanos, Estados Unidos parece enfocarse en mantener su hegemonía en IA.

“La Unión Europea tiene una visión muy clara en donde hablan de potenciar su mercado digital y al mismo tiempo respetar los derechos de sus ciudadanos. Mientras que en Estados Unidos, lo que vemos es una postura encaminada a favorecer al mercado y mantener una hegemonía en IA”, explica Becerril Gil.

Un llamado a la acción

La experta concluye haciendo un llamado a recordar que la tecnología no debe violentar derechos humanos. “Tenemos que buscar un uso que en lugar de abrir brechas, ayude a resolver los grandes problemas de la humanidad”, afirma.

Es fundamental que la sociedad en su conjunto se involucre en el debate sobre la IA y exija una regulación que garantice su desarrollo ético y responsable, protegiendo los derechos humanos y el bienestar de las personas.

¿Qué opinas sobre los riesgos de la IA?

Te invitamos a compartir tu opinión en los comentarios. ¿Crees que la IA representa una amenaza para los derechos humanos? ¿Qué medidas se deben tomar para garantizar un desarrollo ético de esta tecnología?