fbpx

Apple escaneará fotos de iCloud para prevenir el abuso infantil

La privacidad siempre ha sido un tema álgido, sobre todo con las grandes compañía tecnológicas. En estos momentos precisamente, se está presentando una situación que involucra a una de las más grandes, en un movimiento que parece una buena iniciativa. Se trata de Apple que escaneará las fotos de iCloud de sus usuarios como medida para combatir la pornografía infantil.

En ese sentido, la compañía ha generado un mecanismo que busca preservar la privacidad de sus usuarios al escanear las fotos de iCloud. Algo que puede sonar un tanto contradictorio y de lo que algunos expertos están dudando.

¿Cómo Apple escaneará mis fotos de iCloud?

La tecnología que busca encontrar cuentas en donde se almacene pornografía infantil está basada en hashes. Un hash no es más que el resultado de un proceso de cifrado que genera identificadores únicos para cualquier información ingresada. En ese sentido, desde el Centro Nacional para Niños Desaparecidos y Explotados y otras organizaciones de protección a los niños han colaborado con Apple, proporcionando imágenes de niños víctimas.

El nuevo sistema se llamará “neuralMatch” y alertará proactivamente a un equipo de revisores humanos si cree que ha detectado imágenes que muestran violencia o abuso hacia los niños. Como herramienta de inteligencia artificial, neuralMatch aparentemente ha sido entrenado usando 200,000 imágenes.

Lo que hace Apple con su nueva tecnología es generar hashes con la imágenes proporcionadas. Este paquete de hashes se almacenará en el dispositivo y al cargarse una imagen en iCloud se realizará un escaneo para buscar coincidencias con la base de datos de hashes. Apple segura que de esta manera no tienen forma de saber qué hay en cada cuenta, a menos que contenga imágenes que coincidan con la búsqueda.

Como mencionamos antes, la iniciativa es excelente para colaborar con esta gran causa. Sin embargo, algunos expertos han manifestado preocupación porque consideran que este movimiento habilita a la compañía para crear backdoors hacia nuestros datos. Edward Snowden ha dicho, por ejemplo, que Apple ha desplegado un sistema de vigilancia masivo que si bien vigila por la pornografía infantil, mañana podría escanear cualquier cosa.

Cabe resaltar que, está nueva tecnología vendrá integrada en iOS 15, iPadOS 15, WatchOS 8 y MacOS Monterrey. Además, desde Apple manifiestan que su sistema tiene una probabilidad en un billón de marcar una cuenta incorrectamente con este nuevo mecanismo. La privacidad es un factor primordial para cada usuario y si bien este movimiento de Apple surge por una buena causa, no deja de ser un factor de preocupación por futuros movimientos que vulneren la privacidad.

Con información de: TekCrispy

Comentarios
By  Alcanzando el Conocimiento

Related Posts