Foto: Referencial | EFE/Peter Foley/Archivo
Apple dio a conocer planes para escanear iPhones estadounidenses en busca de imágenes de abuso sexual infantil, según reveló el medio ABC13.
La herramienta diseñada para detectar imágenes conocidas de abuso sexual infantil, llamada “neuralMatch”, escaneará las imágenes antes que se carguen en iCloud. Si encuentra una coincidencia, la imagen será revisada por un humano. Si se confirma la presencia de pornografía infantil, la cuenta del usuario se desactivará y se notificará al Centro Nacional para Niños Desaparecidos y Explotados.
Asimismo, develaron que Apple planea escanear los mensajes cifrados de los usuarios en busca de contenido sexualmente explícito como medida de seguridad infantil.
Al respecto, Matthew Green, uno de los principales investigadores de criptografía de la Universidad Johns Hopkins, indicó que el sistema podría usarse para incriminar a personas inocentes enviándoles imágenes aparentemente inocuas diseñadas para activar coincidencias con la pornografía infantil. Eso podría engañar al algoritmo de Apple y alertar a las fuerzas del orden.
Con información de ABC13 / Traducción: EVH…