Apple se enfrenta a una demanda de víctimas de abuso sexual infantil por no implementar un sistema para detectar Material de Abuso Sexual Infantil (CSAM) en iCloud según Los New York Times. La demanda solicita más de 1.200 millones de dólares en daños y perjuicios para aproximadamente 2.680 personas, lo que refleja una supuesta negligencia a la hora de proteger a los usuarios de daños.
Apple demandada por 1.200 millones de dólares por fallo en la detección de material de abuso sexual infantil
En 2021, Apple anunció sus intenciones de presentar un CSAM herramienta de detección destinada a escanear iCloud en busca de imágenes abusivas y alertar al Centro Nacional para Niños Desaparecidos y Explotados. Esta iniciativa tenía como objetivo combatir eficazmente la explotación infantil. Sin embargo, tras una importante reacción por cuestiones de privacidad, Apple abandonó el proyecto, dejando al acusado desprotegido y al abuso continuo sin resolver.
La demanda se presentó en el norte de California y cita que Apple “no implementó esos diseños ni tomó ninguna medida para detectar y limitar” el CSAM en sus dispositivos. El reclamo incluye experiencias de una mujer de 27 años, quien afirmó que todavía recibe avisos policiales sobre el intercambio en línea de sus imágenes, tomadas cuando era niña. La demanda enfatiza la agitación emocional que soportan las víctimas mientras estos materiales circulan sin control.
“El material de abuso sexual infantil es abominable y estamos comprometidos a luchar contra las formas en que los depredadores ponen a los niños en riesgo. Estamos innovando de manera urgente y activa para combatir estos delitos sin comprometer la seguridad y privacidad de todos nuestros usuarios. Funciones como Communication Safety, por ejemplo, advierten a los niños cuando reciben o intentan enviar contenido que contiene desnudos para ayudar a romper la cadena de coerción que conduce al abuso sexual infantil. Seguimos profundamente centrados en crear protecciones que ayuden a prevenir la propagación del CSAM antes de que comience”, dijo el portavoz de Apple, Fred Sainz. Engadget.
En respuesta, Apple afirmó su compromiso de combatir el abuso sexual infantil dando prioridad a la privacidad del usuario. El portavoz Fred Sainz señaló: «El material de abuso sexual infantil es aborrecible y estamos comprometidos a luchar contra las formas en que los depredadores ponen a los niños en riesgo». Hizo referencia a medidas existentes como la Seguridad en las Comunicaciones, que advierte a los niños que no compartan contenido explícito.
A pesar de estos esfuerzos, Apple recientemente enfrentó un escrutinio adicional cuando la Sociedad Nacional para la Prevención de la Crueldad contra los Niños del Reino Unido acusó a la compañía de no reportar el CSAM encontrado en sus plataformas. Esto se suma a la creciente presión sobre las estrategias de Apple para manejar este problema de manera efectiva.
Crédito de la imagen destacada: Niels Kehl/Unsplash