Apple pausa su implementación de medidas contra la pornografía infantil

Apple pausa su implementación de medidas contra la pornografía infantil

septiembre 3, 2021 Desactivado Por Redacción Tecnoempresa

A principios de Agosto, Apple anunció un comunicado donde se establecían una serie de medidas para proteger a los menores frente a los abusadores que utilizaban las herramientas digitales, y así limitar la propagación de material de abuso sexual infantil.

Sin embargo, la empresa ha decidido aplazar la implementación de estas medidas, ya que por ahora prefiere basarse en el feedback de los clientes, los grupos de defensa, los investigadores y otros; y tomarse más tiempo en los próximos meses para recopilar aportaciones y hacer mejoras antes de publicar estas prestaciones de seguridad infantil de importancia crítica.

Lo que ya sabíamos, ahora pretende mejorarse

Según el documento, las medidas se implementarían en tres partes. Primero, el aprendizaje automático para avisar de contenido sensible mientras los mensajes de las comunicaciones privadas siguen siendo ilegibles por Apple; después, a través de iCloud Photos: en iOS y iPadOS se usarán nuevas aplicaciones de la criptografía para ayudar a limitar la difusión de pornografía infantil; y finalmente con Siri y Search: intervenir cuando los usuarios traten de buscar temas relacionados con el abuso sexual infantil.

Imagen de B_A en Pixabay

Esto levantó críticas entre usuarios, empleados de Apple e incluso expertos en el tema de la privacidad en internet. Por ejemplo, Electronic Frontier Foundation (EFF) aseguraba que era casi imposible crear un sistema de escaneo local que únicamente funcionara para detectar imágenes explícitas; ya que esto a su vez ponía en riesgo la privacidad del resto de las imágenes.

Ante esto, Apple asegura que el sistema de revisión de imágenes se encargará de inspeccionar las fotografías y hará una comparación con aquellas almacenadas en las bases de datos de asociaciones o administraciones encargadas de luchar contra el abuso infantil. Además, el proceso de revisión no se iniciará a no ser que el algoritmo haya detectado más de 30 imágenes categorizadas como Child Sexual Abuse Material (CSAM).


Para conocer más noticias sobre tecnología, negocios, política u otros temas de tu interés, visita este enlace

Escúchanos y léenos también en https://www.facebook.com/tecnoempresa/ 

21