TECNOLOGÍA
Apple retrasa el escaneo de porno infantil debido a las críticas y protestas
La decisión responde a las numerosas críticas que recibió la compañía, que en su mayoría señalaron que los cambios afectarían la privacidad.
Apple informó que retrasará las funciones de protección para niños que anunció en agosto y que preveía implementar hacia fin de año, incluyendo el escaneo de los iPhone y otros dispositivos de la marca para detectar material de abuso sexual infantil.
La decisión responde a las numerosas críticas que recibió la compañía, que en su mayoría señalaron que los cambios afectarían la privacidad de los usuarios y que esos permisos podrían ser explotados para más fines además del indicado.
“El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de aquellos que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de material de abuso sexual infantil”, dijo Apple en un comunicado.
“Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”, explicaron.
A comienzos del mes pasado la compañía estadounidense anunció que revisaría dispositivos para encontrar abuso infantil. En concreto, un algoritmo para detectar ese material en los iPhone, iPad, Mac y Watch. El sistema escaneará en forma automática los equipos y buscará coincidencias con una base de datos. En caso de hallar contenido sospechoso, enviará un reporte a revisores humanos.
Para eso preveían inyectar una base de datos en el dispositivo (no accesible en forma directa para el usuario) con imágenes proporcionadas por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones. En caso de encontrar coincidencias, lanzará la advertencia, se desactivará la cuenta de iCloud y se enviarán informes al NCMEC que a su vez podría notificar al FBI. Los usuarios pueden apelar la suspensión si consideran que su cuenta ha sido marcada por error.
Apple habló de más cambios también ideados para proteger a los chicos. En iMessage sumarán notificaciones para advertir tanto a los niños como a los padres cuando se envíen o reciban fotos sexualmente explícitas. También tienen previstas medidas para Siri; igual que en las búsquedas que se realicen en macOS, el asistente ofrecerá más recursos de seguridad infantil. Por caso, actualizarán a ese software para que ayude a realizar denunciar e intervenga cuando se busque contenido relacionado al abuso sexual infantil.
La crítica principal giró en torno a la privacidad y a un eventual avasallamiento de la privacidad. ¿La función de escaneo podría abrir una puerta trasera para que la compañía y otros organismos examinen la actividad privada de los usuarios?
Jennifer Granick, asesora de vigilancia y ciberseguridad del Proyecto de Discurso, Privacidad y Tecnología de la ACLU, dijo que “por altruistas que sean sus motivos, Apple ha construido una infraestructura que podría ser subvertida para una vigilancia generalizada de las conversaciones y la información que guardamos en nuestros teléfonos”.
Por otra parte, también se apuntó a posibles falsos positivos del sistema y a una controversia vinculada a la presencia de la mencionada base de datos en los equipos de los usuarios.
“Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido, o un ajuste de los indicadores de configuración para escanear, no sólo las cuentas de los niños, sino de cualquier persona”, señalaron desde la Electronic Frontier Foundation, una organización especializada en la privacidad online y uno de los emblemas de las voces críticas que, a la luz del reciente anunció de Apple, han sido oídas.