Apple planea escanear IPhones en busca de imágenes de abuso sexual infantil

0
201

Apple reveló sus planes para escanear los iPhones de Estados Unidos en busca de imágenes de abuso sexual infantil, lo que generó aprobación de los grupos de protección de los niños, pero preocupación de algunos investigadores en seguridad por la posibilidad de que el sistema se utilice de forma indebida. 

La herramienta diseñada para detectar imágenes previamente identificadas de abusos sexuales a menores, llamada “neuralMatch”, escaneará las imágenes antes de que sean subidas a iCloud. 

Si encuentra una coincidencia, la imagen será revisada por una persona. Si se confirma la existencia de pornografía infantil, se inhabilitará la cuenta del usuario y se notificará al Centro Nacional para Niños Desaparecidos y Explotados. 

El sistema sólo marcará las imágenes que ya estén registradas en la base de datos de pornografía infantil del centro. Los padres que tomen fotos inocentes de un niño en la bañera no deben preocuparse. Sin embargo, los investigadores afirman que esta herramienta de cotejo —que no “ve” esas imágenes, sino las “huellas” matemáticas que las representan— podría tener usos más nefastos. 

Matthew Green, uno de los principales investigadores de criptografía de la Universidad Johns Hopkins, advirtió que el sistema podría utilizarse para inculpar a personas inocentes enviándoles imágenes en apariencia inofensivas diseñadas para provocar coincidencias con la pornografía infantil. Eso podría engañar al algoritmo de Apple y alertar a las autoridades. 

Comentarios de Facebook

LEAVE A REPLY

Please enter your comment!
Please enter your name here