El apresurado progreso de la tecnología de inteligencia artificial (IA) y su creciente influencia en muchas áreas de la vida han provocado importantes debates globales sobre gobernanza, ética y marcos regulatorios. Al frente de estas discusiones está la Ley de IA de la UE—un marco regulatorio pionero que tiene como objetivo establecer el estándar para estos temas en toda Europa. Pero este no es simplemente otro esfuerzo regulatorio; representa una visión más amplia para dar forma al futuro de la IA de una manera que garantice la equidad, la inclusión y el respeto de los derechos humanos. A medida que las tecnologías de IA y su impacto continúan acelerándose, resulta cada vez más claro que comprometerse con estas regulaciones es crucial, no solo para los desarrolladores de IA, sino también para los formuladores de políticas, las empresas y la sociedad en general.
Dataconomy tuvo la oportunidad de hablar con líderes clave de la UE y la ONU para explorar el impacto global de la gobernanza de la IA con mayor detalle. Estas entrevistas revelaron cómo la regulación y la ética de la IA se están desarrollando a escala global, y la Ley de IA de la UE desempeña un papel fundamental. durante el Salón de la Empresa Digital (DES) 2024 en Málaga, Wendy Hall, una Junta Asesora de IA de la ONU miembro y destacado estratega de IA del Reino Unido; Carme Artigas, copresidenta del Órgano Asesor de la ONU sobre Gobernanza e Inclusión de la IA; y Dan Nechita, jefe de gabinete del eurodiputado Dragos Tudorache y negociador técnico principal de la Ley de IA de la UE en nombre del Parlamento Europeo, compartieron con nosotros sus ideas exclusivas sobre cómo se están configurando la gobernanza, la ética y la regulación de la IA en tiempo real.
Reducir la brecha mundial de la IA
Wendy Hall, Miembro de la Junta Asesora de IA de la ONU y destacado estratega de IA del Reino Unido, aboga firmemente por un enfoque colaborativo global para la política de IA. Durante nuestra discusión, Hall enfatizó que si bien la IA presenta grandes oportunidades, las estrategias empleadas por las diferentes naciones varían ampliamente. Por ejemplo, el Reino Unido ha adoptado un enfoque más integral e impulsado por políticas para el desarrollo de la IA. A partir de 2017, el gobierno del Reino Unido reconoció el potencial de la IA para el crecimiento económico y la creación de empleo, posicionando al país como líder en gobernanza de la IA. En un momento en que el Brexit consumía la atención política, el Reino Unido aún logró trabajar en la política de IA. Hall señala que el compromiso inicial del Reino Unido ayudó a establecer su prominencia, pero se apresura a señalar que otros países como Estados Unidos y China han seguido caminos claramente diferentes.
En Estados Unidos, la atención se ha centrado en gran medida en empoderar a empresas tecnológicas como Google y OpenAI para que traspasen los límites de la IA, dejando la gobernanza en manos del sector privado. Por el contrario, China ha adoptado un enfoque centralizado e impulsado por el Estado, en el que el gobierno mantiene el control sobre la dirección estratégica de la IA. Estas estrategias divergentes, explica Hall, resaltan la complejidad de la gobernanza global de la IA y la necesidad de políticas internacionales más cohesivas.
Sin embargo, la principal preocupación de Hall no es la divergencia entre estas naciones líderes sino el acceso desigual a las tecnologías de IA en todo el mundo. Ella enfatiza la necesidad de un desarrollo equitativo de la IA, particularmente para los países fuera del Occidente rico. Regiones como la Sur GlobalLas empresas, que a menudo carecen de la infraestructura y los recursos para seguir el ritmo de los avances de la IA, corren el riesgo de quedarse atrás. Hall afirma que esta división podría profundizar las desigualdades globales existentes a menos que se implementen iniciativas de desarrollo de capacidades.
«Estas regiones necesitan algo más que acceso a las tecnologías de IA: necesitan la infraestructura, el talento y los datos para desarrollar sistemas de IA que se adapten a sus propias necesidades», subraya Hall. Esto podría incluir brindar a los países del Sur Global acceso a sistemas informáticos de alto rendimiento, conjuntos de datos y la experiencia técnica necesaria para construir modelos de IA a nivel local. Hall aboga por iniciativas globales que ofrezcan las herramientas y recursos necesarios para que estos países participen activamente en la revolución de la IA en lugar de consumidores pasivos de tecnología desarrollada en otros lugares.
«Existe el riesgo de que la IA pueda profundizar las desigualdades globales si no garantizamos un acceso equitativo a la infraestructura y al talento necesarios»
Una preocupación particular para Hall es el desarrollo rápido y desenfrenado de modelos generativos de IA, como GPT-4 de OpenAI. Si bien estos modelos ofrecen posibilidades innovadoras, también plantean riesgos importantes en forma de información errónea, desinformación y uso indebido ético. Hall es cauteloso acerca de las consecuencias no deseadas de tecnologías tan poderosas y señala que la IA generativa puede producir contenido convincente pero completamente falso si no se regula cuidadosamente.
Ella llama la atención sobre las implicaciones más amplias y explica que, si bien las tecnologías anteriores de IA, como la automatización, se centraban principalmente en mejorar la eficiencia, la IA generativa impacta directamente en la creación y difusión del conocimiento. «Hemos visto esto con la información errónea en línea: si los datos que ingresan son erróneos, el resultado podría ser perjudicial, y a una escala con la que nunca antes habíamos tratado», advierte Hall. Hay mucho en juego, especialmente cuando las tecnologías de inteligencia artificial influyen en las decisiones en sectores críticos como la atención médica, el derecho y las finanzas.
Para Hall, la solución radica en promover asociaciones globales destinadas a crear estándares éticos y marcos de gobernanza sólidos. Aboga por establecer acuerdos internacionales para garantizar que las tecnologías de IA se desarrollen y desplieguen de manera responsable sin contribuir al daño social. Hall señala la importancia de involucrar a diversas partes interesadas, incluidos gobiernos, empresas privadas y organizaciones de la sociedad civil, para establecer regulaciones que equilibren la innovación con la seguridad pública.
La perspectiva de Hall subraya un punto crítico: la IA podría exacerbar las desigualdades globales existentes e introducir nuevos dilemas éticos sin colaboración y gobernanza compartida. El llamado de Hall para el desarrollo de capacidades y la supervisión ética no es solo una recomendación: es un paso necesario para garantizar que la IA se desarrolle para beneficiar a la humanidad en su conjunto, no solo a unos pocos elegidos.
Garantizar una gobernanza inclusiva de la IA
Carmen Artigascopresidente del Órgano Asesor de la ONU sobre Gobernanza e Inclusión de la IA, aporta una perspectiva crítica a la conversación sobre el desarrollo global de la IA, centrada en las evidentes disparidades en cómo se incluyen las diferentes naciones en las discusiones sobre la gobernanza de la IA. Artigas enfatiza que los marcos actuales que rigen la IA, incluidas las iniciativas lideradas por el G7, la UNESCO y la OCDE, están dominados en gran medida por naciones más ricas y tecnológicamente más avanzadas, dejando fuera a voces clave del Sur Global. “Muchos países del Sur Global ni siquiera están invitados a la mesa”, señala Artigas, refiriéndose a los debates globales que dan forma al futuro de la IA. En su opinión, esta exclusión es un importante déficit de gobernanza y corre el riesgo de crear una nueva forma de colonialismo digital. A medida que avanzan las tecnologías de IA, aquellos países que carecen de los recursos o la influencia para participar en la formulación de políticas internacionales de IA podrían quedar aún más atrás. Para Artigas, esto no es sólo una cuestión de justicia: es un riesgo fundamental para la estabilidad y la igualdad globales.
Artigas destaca la necesidad de un modelo de gobernanza que vaya más allá de los marcos tradicionales de los organismos reguladores. En lugar de crear una nueva agencia internacional única para supervisar la gobernanza de la IA, aboga por aprovechar las instituciones existentes. “No necesitamos más agencias; Necesitamos una mejor coordinación entre los que ya existen”, explica. Organizaciones como la UIT (Unión Internacional de Telecomunicaciones), Unicefy OMPI (Organización Mundial de la Propiedad Intelectual) ya están profundamente involucrados en cuestiones relacionadas con la IA, cada uno dentro de sus propios sectores. Lo que falta es un enfoque coordinado que reúna a estos organismos especializados bajo una estructura de gobernanza global unificada.
“La verdadera gobernanza debe ir más allá de meras directrices e incluir mecanismos de rendición de cuentas”
La visión de Artigas es aquella en la que la IA se gobierna de una manera que respete el derecho internacional y los derechos humanos y garantice que todos los países, independientemente de su posición tecnológica, tengan igual acceso a los beneficios que la IA puede aportar. Esto incluye proporcionar las herramientas y recursos necesarios para que los países actualmente excluidos de los avances en IA se pongan al día. Señala que el sector privado y el mundo académico también desempeñan un papel a la hora de ayudar a democratizar el acceso a las tecnologías de IA.
Sin embargo, Artigas señala que las pautas éticas por sí solas no son suficientes. Si bien muchas empresas han desarrollado sus marcos éticos internos, ella sostiene que estos suelen ser voluntarios e inaplicables. La verdadera gobernanza, afirma, debe ir más allá de meras directrices e incluir mecanismos de rendición de cuentas. Sin consecuencias claras para el desarrollo o despliegue poco ético de la IA, los riesgos de uso indebido y daño, especialmente para las poblaciones vulnerables, siguen siendo altos.
Una de las cuestiones clave que plantea Artigas es el papel de la IA en la exacerbación de la brecha digital. Si no se regula adecuadamente, la IA podría afianzar aún más las desigualdades existentes: las naciones más ricas ganarían más poder económico y tecnológico, mientras que las naciones más pobres se quedarían más atrás. Para ella, el objetivo de la gobernanza de la IA debe ser cerrar esta brecha, no ampliarla. «La IA tiene el potencial de ser un gran igualador, pero sólo si garantizamos que sus beneficios se compartan equitativamente», enfatiza.
El enfoque de Artigas en la inclusión y coordinación en la gobernanza de la IA refleja el creciente reconocimiento de que la IA es un problema global que requiere soluciones globales. Su llamado a un enfoque unificado, donde las agencias existentes trabajen juntas para gobernar la IA, subraya la necesidad de un sistema más inclusivo, ético y responsable que beneficie a toda la humanidad, no solo a unos pocos elegidos.
Equilibrar la innovación y la regulación
Dan Nechitajefe de gabinete del eurodiputado Dragos Tudorache y negociador técnico principal de la Ley de IA de la UE aporta una perspectiva pragmática pero con visión de futuro al debate sobre la gobernanza de la IA. Como una de las figuras clave detrás de la Ley de IA de la UE, Nechita enfatiza la importancia de equilibrar la innovación con la necesidad de una regulación sólida para garantizar que las tecnologías de IA se desarrollen y utilicen de forma segura.
Según Nechita, el Ley de IA de la UE está diseñado para establecer reglas claras para los sistemas de IA, particularmente aquellos considerados de alto riesgo, como la IA utilizada en la atención médica, la educación, la aplicación de la ley y otros sectores críticos. «No se trata sólo de regular la tecnología en sí», explica Nechita. «Se trata de proteger los derechos fundamentales y garantizar que la IA no exacerbe los problemas sociales existentes, como la discriminación o las violaciones de la privacidad».
Una de las características destacadas de la Ley de IA de la UE es su énfasis en la gestión de riesgos. Nechita explica que los sistemas de IA se clasifican según el nivel de riesgo que plantean, y los sistemas de mayor riesgo están sujetos a las regulaciones más estrictas. Este enfoque escalonado permite flexibilidad, lo que permite a Europa mantener su liderazgo en innovación en IA y al mismo tiempo garantizar que las aplicaciones más sensibles estén completamente reguladas. Para Nechita, este equilibrio entre innovación y regulación es crucial para mantener la competitividad de Europa en el panorama global de la IA.
Sin embargo, Nechita reconoce que la implementación de la Ley de IA de la UE es un proceso complejo y continuo. Uno de los desafíos es garantizar que los 27 estados miembros de la UEcada uno con sus propias prioridades y estrategias nacionales, se adhieren a un marco regulatorio unificado. La Ley de IA de la UE requiere la cooperación entre gobiernos, líderes de la industria y organismos reguladores para garantizar su éxito. «Estamos fomentando un circuito de retroalimentación continuo entre empresas y reguladores, garantizando que los sistemas de IA evolucionen de manera segura y al mismo tiempo cumplan con las normas a medida que surgen nuevas tecnologías», explica Nechita. “No estamos simplemente entregando a las empresas un conjunto de reglas y retirándonos. Les pedimos que trabajen con nosotros continuamente para probar sus sistemas, informar problemas y garantizar el cumplimiento”.
“La IA transformará el mundo y debemos guiarlo en una dirección que beneficie a todos”
Nechita también señala que la Ley de IA de la UE no se trata sólo de crear regulaciones estáticas. La Ley incluye disposiciones para actualizaciones y revisiones continuas a medida que evolucionan las tecnologías de IA. Sostiene que este enfoque dinámico es esencial porque la IA es un campo que cambia rápidamente y las regulaciones deben seguir el ritmo de los nuevos desarrollos. Esta es la razón por la que la Ley de IA de la UE fomenta el diálogo continuo entre los desarrolladores de IA y los reguladores, fomentando una relación en la que tanto la innovación como la seguridad puedan coexistir.
Sin embargo, Nechita también es consciente del contexto global más amplio. Si bien la UE ha adoptado una postura proactiva respecto de la regulación de la IA, otras regiones, en particular Estados Unidos y China, tienen enfoques diferentes. En Estados Unidos, la regulación de la IA está más fragmentada, y las empresas se autorregulan en gran medida, mientras que el desarrollo de la IA controlado por el Estado en China prioriza los intereses nacionales sobre los derechos individuales. Nechita reconoce que será difícil lograr un consenso global sobre la gobernanza de la IA, pero ve potencial para la colaboración en áreas como Seguridad, sostenibilidad y estándares éticos de la IA.
Nechita imagina un modelo de gobernanza de la IA que equilibre la innovación con la seguridad pública. Él cree que la Ley de IA de la UE, que se centra en la gestión de riesgos, la transparencia y la colaboración continua, ofrece un modelo de cómo otras regiones podrían abordar la regulación de la IA. Al mismo tiempo, enfatiza la necesidad de cooperación global, particularmente para abordar las implicaciones éticas y sociales de la IA.
A medida que la Ley de IA de la UE sigue tomando forma, Nechita sigue siendo optimista sobre su potencial para establecer un estándar global para la gobernanza de la IA: “La IA va a cambiar el mundo y debemos asegurarnos de que cambie para mejor”, concluye. Su enfoque refleja una comprensión matizada de los desafíos que se avecinan y una firme creencia en el poder de la regulación para guiar el desarrollo de la IA en una dirección que beneficie a la sociedad.
Una visión unificada para el futuro de la IA
Las ideas de Wendy Hall, Carme Artigas y Dan Nechita reflejan un punto de inflexión crucial en la gobernanza de la IA a medida que observamos cómo la IA evoluciona a un ritmo sin precedentes. Sus perspectivas convergen en una verdad innegable: la IA no es sólo un avance tecnológico; es una fuerza que hay que evitar firmemente que no beneficie a unos pocos a costa de muchos.
Wendy Hall también plantea la urgente necesidad de creación de capacidad global y controles éticos de la IA, quien nos pide cerrar la creciente brecha entre las capacidades en esta área entre las naciones desarrolladas y en desarrollo. Sin embargo, el enfoque de Camre Artigas en la inclusión y la rendición de cuentas nos recuerda que la aplicación de la ley que precede a cualquier gobernanza debe ser parte integral. La Ley de IA de la UE es un ejemplo digno de equilibrar la innovación con la seguridad y, por tanto, de cómo otras regiones pueden abordar la gobernanza de la IA.
Juntas, estas voces pintan una imagen holística de lo que se necesita para dar forma al futuro de la IA: centrarse en la colaboración, la protección de los derechos humanos y un marco sólido que fomente la innovación y al mismo tiempo proteja los intereses públicos. Es un camino increíblemente difícil por delante, pero también con un tremendo potencial. El futuro de la IA es ahora y depende de nosotros hacerlo realidad.