El software de detección de abuso infantil de Apple puede ser vulnerable a ataques


Mediante

Cierre de datos digitales y código binario en la red.

Apple planea detectar imágenes de abuso sexual infantil en algunos de sus dispositivos

Yuichiro Chino / Getty Images

El algoritmo de Apple que se lanzará próximamente para detectar imágenes de abuso sexual infantil en iPhone y iPad puede informar falsamente que las personas tienen imágenes ilegales, advierten los investigadores.

NeuralHash se lanzará en los EE. UU. Con una actualización para iOS y iPadOS a finales de este año. La herramienta comparará un hash, una cadena única de caracteres creada por un algoritmo, de cada imagen cargada en la nube con una base de datos de hashes para imágenes conocidas …

Sé el primero en comentar

Deja un comentario