Apple suspende su función para detectar abuso sexual infantil en los iPhone

Apple anunció que introduciría un nuevo conjunto de herramientas para ayudar a detectar material conocido de abuso sexual infantil  en fotos almacenadas en iPhones, la función fue criticada por expertos en seguridad como una violación de la privacidad del usuario, y lo que siguió fue una pesadilla de relaciones públicas para Apple.

Ahora, en un movimiento poco común, Apple ha dicho que dará un paso atrás para refinar aún más la función antes del lanzamiento público.

“El mes pasado anunciamos planes para [desplegar] funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de material de abuso sexual infantil. Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”.

Inicialmente, las funciones de CSAM estaban configuradas para implementarse con iOS 15 a finales de este otoño. Sin embargo, la reacción de los expertos en seguridad y los grupos de privacidad fue feroz, y miles firmaron una carta abierta a Apple pidiéndoles que reconsideraran la función. Internamente, también se informó que los empleados de Apple habían expresado su preocupación.

Los críticos estuvieron de acuerdo en que la pornografía infantil es un problema grave, el temor era que Apple esencialmente había construido una “puerta trasera” en los iPhones de los usuarios de la que se podía abusar fácilmente para buscar otros materiales. Hacerlo podría llevar a gobiernos extranjeros a utilizar una herramienta destinada a propósitos nobles como medio de vigilancia y censura. Otro temor más era que las herramientas pudieran usarse como una solución para las comunicaciones cifradas.

Apple inicialmente defendió su despliegue publicando una larga página de preguntas frecuentes y organizando varias reuniones informativas con los periodistas para aclarar cómo funcionaba la herramienta y la intención de la compañía. La compañía también trató de disipar los temores prometiendo que no permitiría a los gobiernos abusar de sus herramientas CSAM como arma de vigilancia.

Sin embargo, a pesar de sus mejores esfuerzos incluso enviaron al jefe de software Craig Federighi a una entrevista con el Wall Street Journal, la mayoría quedó confundida en cuanto a cómo funcionaba la función CSAM y los riesgos que representaba para la privacidad individual.

Apple ha ofrecido pocas pistas sobre cuándo planea implementar la función o cómo será su proceso de revisión.

Deja un comentario