Los expertos advierten que Deepseek, una IA generativa desarrollada en China, ha fallado en múltiples pruebas de seguridad, lo que plantea preocupaciones sobre los riesgos para los usuarios. El proveedor de seguridad de Silicon Valley AppSoc descubrió vulnerabilidades significativas, incluida la capacidad de hacer jailbreak la IA y generar malware.
La IA china Deepseek falla pruebas de seguridad
David Reid, un experto en ciberseguridad en la Universidad de Cedarville, expresó alarma por los resultados de la prueba. “Falló un montón de puntos de referencia donde podrías jailbreak. En algunos casos, podría generar malware real, que es una gran bandera roja ”, afirmó. Reid señaló que estas fallas son particularmente preocupantes dado que permiten la creación potencial de código dañino.
AppSoc’s análisis Asignado Deepseek un puntaje de riesgo de 8.3 de 10, recomendando contra su uso en entornos empresariales que involucran datos confidenciales o propiedad intelectual. Anjana Susarla, una experta en IA responsable en la Universidad Estatal de Michigan, se hizo eco de este sentimiento, cuestionando si las organizaciones podrían manipular Deepseek para acceder a la información confidencial de la empresa.
Si bien Deepseek puede parecer funcionar de manera similar a los modelos de IA establecidos como ChatGPT, Susarla aconsejó no usarlo en chatbots o aplicaciones orientadas al cliente, afirmando: «La respuesta es no». Las implicaciones de usar un modelo tan no probado podrían conducir a vulnerabilidades de seguridad significativas.
La mayor preocupación proviene de los orígenes chinos de Deepseek, comparable a la controversia que rodea la plataforma de redes sociales Tiktok, que ha enfrentado un escrutinio de los legisladores estadounidenses por sus prácticas de seguridad de datos. Los miembros de la Cámara de Representantes anunciaron recientemente planes para introducir una legislación que prohíbe el bobo profundo en los dispositivos gubernamentales, citando el riesgo de acceso a datos del Partido Comunista Chino.
Deepseek R1 vs O3-Mini en Rendimiento, Costo y Usabilidad Showdown
«Este es un incendio de seguridad nacional de cinco alarmas», declaró el representante estadounidense Josh Gottheimer de Nueva Jersey. Hizo hincapié en la necesidad de evitar cualquier infiltración de los dispositivos de los empleados del gobierno, recordando problemas pasados con Tiktok.
A partir de ahora, algunos se montaron como Italia y Australia Ya han promulgado prohibiciones de profundidad para el uso del gobierno. A pesar de los esfuerzos para administrar los riesgos, expertos en ciberseguridad como Dimitri Sirota, CEO de Bigid, reconocen que puede ser un desafío disuadir a los usuarios promedio de descargar y utilizar la aplicación. La tentación de nuevas tecnologías populares a menudo supera la precaución en el comportamiento del usuario.
Las preocupaciones con respecto a Deepseek incluyen no solo sus vulnerabilidades técnicas, sino también los riesgos geopolíticos asociados con el software vinculado a China. Los datos recopilados por Deepseek pueden estar sujetos a la ley china, lo que requiere que divulgue la información del usuario a solicitud del gobierno.
Los expertos advierten que el gobierno chino posee las capacidades para analizar los datos agregados de Deepseek junto con otras fuentes para crear perfiles de usuarios estadounidenses. Esta situación es paralela a las aprensiones que rodean a Tiktok, donde las preocupaciones persistieron acerca de que el Partido Comunista Chino aprovechó los datos del usuario con fines de inteligencia.
Para mitigar los riesgos al usar Deepseek u otros modelos de IA, los expertos en ciberseguridad recomiendan las mejores prácticas, como garantizar contraseñas fuertes y únicas y habilitar la autenticación de dos factores. Los usuarios también deben ser cautelosos al compartir información personal con aplicaciones de IA y seguir siendo escépticos de las solicitudes de datos confidenciales.
Finalmente, los usuarios deben leer cuidadosamente los términos y condiciones de cualquier aplicación de IA antes de usar, para comprender el uso de datos y las prácticas de intercambio. Los expertos advierten que las aplicaciones basadas en China u otros estados adversos deben tratarse con un mayor escrutinio debido a los riesgos potenciales asociados con la privacidad y la seguridad de los datos.