Un nuevo sistema analizará todas las fotografías que subas a la nube para detectar contenidos que pudieran ser constitutivos de delito.
Normalizando,Gran Hermano,Apple,escaneará,fotos,iPhones,supuestamente,abuso,sexual,infantil
© Reuters/Adnan AbidiTodas las fotos que hagas con tu iPhone serán escaneadas automáticamente.
Apple ha creado un nuevo sistema que analizará las imágenes que se hagan con todos sus dispositivos iPhone y iPad en busca de material que podría identificar prácticas de abuso sexual a menores. Tal y como ha anunciado la compañía, esta nueva tecnología escaneará las imágenes antes de que se almacenen en iCloud, buscando coincidencias con imágenes de abuso de referencia.

El sistema será automático y, en caso de que se encuentre alguna coincidencia o una imagen sea sospechosa, la alerta saltará y una persona se encargará de evaluar la fotografía. De ser necesario, después pondrá el caso en conocimiento de las fuerzas de seguridad.

La noticia ha generado una enorme preocupación en torno a la privacidad de los usuarios, ya que se cree que esta misma tecnología podría usarse para buscar cualquier tipo de información en los teléfonos. De hecho, los expertos creen que podría ser usada por gobiernos autoritarios para espiar a sus ciudadanos o buscar personas que piensan de manera diferente.


Comentario: Hay que recordar que en tiempos pasados se necesitaba de una orden judicial para pinchar el móvil de los usuarios. Se está normalizando y legalizando un "Gran Hermano" que está en manos de una asociación totalitaria entre agentes estatales y corporativos que no tienen control por parte de los pueblos.


Disponible muy pronto

La intención de la compañía de Cupertino es que ese nuevo sistema vaya incorporado en las nuevas versiones de iOS, watchOS, macOS y iPadOS, que se lanzarán a finales de 2021. En un comunicado, Apple explica que los dispositivos tendrán "nuevas aplicaciones de criptografía para ayudar a limitar la propagación de abuso sexual a menores 'online', mientras se diseña para la privacidad del usuario".

Pero ¿cómo funciona? El sistema se llama NeuralHash y compara las fotografías con una base de datos de imágenes de abuso sexual infantil que están en poder del NCMEC, el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos. Esas imágenes se traducen en códigos numéricos que, en caso de coincidir con las muestras, provocarán la alerta.

Pero no es la única medida que implementará Apple encaminada a la seguridad de los niños. La aplicación Mensajes será capaz de detectar imágenes sexualmente explícitas y las difuminará, en el caso de los niños. Además, aparecerá un mensaje que alertará al niño del contenido de esa fotografía y, además, avisará a los padres para que puedan ver también la imagen.

Incluso Siri ha sido programado para ayudar a los usuarios que busquen denunciar abusos sexuales a menores. En caso de que una persona busque cómo denunciar determinados contenidos susceptibles de ser catalogados como de abuso sexual, el asistente virtual de Apple conducirá al usuario a las herramientas que necesita para hacerlo.