Por
Apple inspeccionará todas las fotos subidas a la nube por los usuarios de iPhone y iPad de EE. UU. En busca de imágenes de abuso sexual infantil, e informará cualquier foto que se encuentre a una organización sin fines de lucro que investiga el caso de explotación infantil. La nueva medida ha sido aclamada por organizaciones benéficas de bienestar infantil, pero condenada por activistas de la privacidad, que creen que abre la puerta a otros tipos de vigilancia por parte de gobiernos autoritarios.
En lugar de examinar las fotografías en sí mismas, el software neuralMatch de Apple incluirá un algoritmo que crea …
Deja un comentario