Google publicado Un informe técnico sobre su último modelo de IA, Gemini 2.5 Pro, semanas después de su lanzamiento, pero los expertos dicen que el informe carece de detalles de seguridad clave, lo que dificulta evaluar los riesgos del modelo.
El informe es parte del esfuerzo de Google para proporcionar transparencia sobre sus modelos de IA, pero difiere de sus rivales, ya que solo publica informes técnicos para los modelos que considera haberse movido más allá de la etapa experimental. Google también reserva algunos hallazgos de evaluación de seguridad para una auditoría separada.
Expertos, incluidos Peter Wildeford, cofundador del Instituto de Política y Estrategia de AI, y Thomas Woodside, cofundador del Proyecto Secure AI, expresado decepción con la escasez del informe, señalando que no menciona el marco de seguridad fronteriza de Google (FSF), introducido el año pasado para identificar posibles riesgos de IA.
Wildeford dijo que la información mínima del informe, publicada semanas después del lanzamiento público del modelo, hace que sea imposible verificar los compromisos públicos de Google con la seguridad. Woodside también cuestionó el compromiso de Google con las evaluaciones de seguridad oportunas, señalando que el último informe de la compañía sobre las pruebas de capacidad peligrosa fue en junio de 2024, para un modelo anunciado en febrero de 2024.
Además, Google no ha publicado un informe para Gemini 2.5 Flash, un modelo más pequeño anunciado la semana pasada, aunque un portavoz dijo que uno «llegará pronto». Thomas Woodside espera que esto indique que Google comenzará a publicar actualizaciones más frecuentes, incluidas evaluaciones para modelos que aún no se implementan públicamente.
Juez Reglas que Google posee monopolio de publicidad ilegal
Otros laboratorios de IA, como Meta y Openai, también han enfrentado críticas por carecer de transparencia en sus evaluaciones de seguridad. Kevin Bankston, asesor principal del gobierno de IA en el Centro de Democracia y Tecnología, describió la tendencia de los informes esporádicos y vagos como una «carrera hacia el fondo» sobre la seguridad de la IA.
Google ha declarado que realiza pruebas de seguridad y «equipo rojo adversario» para sus modelos antes del lanzamiento, incluso si no se detalla en sus informes técnicos.