Operai planea introducir Un requisito de identificación verificado para que las organizaciones accedan a ciertos modelos de IA futuros a través de su API, según una página de soporte publicada en el sitio web de la compañía la semana pasada. El nuevo proceso de verificación, llamado organización verificada, tiene como objetivo garantizar el uso seguro de sus modelos AI avanzados.
El proceso de verificación requiere una identificación emitida por el gobierno de uno de los países respaldados por la API de Openai. Una identificación solo puede verificar una organización cada 90 días, y no todas las organizaciones serán elegibles para la verificación. Operai declaró que asume en serio su responsabilidad asegurarse de que AI sea ampliamente accesible y se usa de manera segura.
«En Openai, asumimos nuestra responsabilidad en serio de asegurarnos de que AI sea ampliamente accesible y se usa de manera segura», dice la página. «Desafortunadamente, una pequeña minoría de desarrolladores usa intencionalmente las API de OpenAI en violación de nuestras políticas de uso. Estamos agregando el proceso de verificación para mitigar el uso inseguro de la IA mientras continuamos haciendo que los modelos avanzados estén disponibles para la comunidad de desarrolladores más amplio».
Es probable que el movimiento tenga la intención de mejorar la seguridad en torno a los productos de OpenAi a medida que se vuelven más sofisticados. La compañía ha publicado informes sobre sus esfuerzos para detectar y mitigar el uso malicioso de sus modelos, incluso por grupos supuestamente con sede en Corea del Norte. También puede estar dirigido a prevenir el robo de IP, luego de una investigación sobre un posible incidente de exfiltración de datos que involucra a un grupo vinculado con China Veterano AI Lab.
Operai ha tomado antes medidas Para restringir el acceso a sus servicios, incluido el bloqueo de acceso en China el verano pasado. Se espera que el estado de la organización verificado esté listo para el próximo lanzamiento del modelo de la compañía.
Como Operai explicó: «Desafortunadamente, una pequeña minoría de desarrolladores usa intencionalmente las API de OpenAI en violación de nuestras políticas de uso. Estamos agregando el proceso de verificación para mitigar el uso inseguro de IA mientras continuamos haciendo que los modelos avanzados estén disponibles para la comunidad de desarrolladores más amplia».