Dataconomy ES
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy ES
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

El nuevo proyecto de ley de seguridad de la IA apunta a las debilidades de la inteligencia artificial

byEmre Çıtak
2 mayo 2024
in Sin categoría

La inteligencia artificial (IA) está transformando rápidamente numerosas industrias, desde la atención médica y las finanzas hasta el transporte y el entretenimiento. Sin embargo, junto con su innegable potencial, están aumentando las preocupaciones sobre las vulnerabilidades de seguridad de los modelos de IA. En respuesta, se está tramitando en el Senado un nuevo proyecto de ley cuyo objetivo es reforzar la seguridad de la IA y prevenir infracciones.

Este nuevo proyecto de ley de seguridad de la IA, titulado Ley de Inteligencia Artificial Segurafue presentado por los senadores Mark Warner (D-VA) y Thom Tillis (R-NC).

La ley propone un enfoque doble para la seguridad de la IA:

  • Establecer una base de datos central para rastrear las infracciones de la IA.
  • Crear un centro de investigación dedicado al desarrollo de técnicas contra la IA.

Creación de una red de detección de infracciones para la IA

Una de las características principales de la Ley de Inteligencia Artificial Segura es la creación de una base de datos nacional de seguridad de la IA. incumplimientos. Esta base de datos, supervisada por el Instituto Nacional de Estándares y Tecnología (NIST) y la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA), Funcionaría como un depósito central para registrar incidentes que involucran sistemas de IA comprometidos. La ley también exige la inclusión de “cuasi accidentes” en la base de datos, con el objetivo de capturar no solo ataques exitosos sino también situaciones cercanas que puedan ofrecer información valiosa para la prevención.

La inclusión de los cuasi accidentes es un aspecto digno de mención del proyecto de ley. Las bases de datos tradicionales sobre violaciones de seguridad a menudo se centran únicamente en incidentes confirmados. Sin embargo, los cuasi accidentes pueden ser igualmente valiosos para comprender posibles debilidades de seguridad. Al capturar estas situaciones cercanas, la base de datos puede proporcionar una imagen más completa del panorama de amenazas de la IA, lo que permite a los investigadores y desarrolladores identificar y abordar las vulnerabilidades antes de que sean explotadas.

“A medida que continuamos aprovechando todas las oportunidades que brinda la IA, es imperativo que sigamos protegiendo contra las amenazas que plantea (y para) esta nueva tecnología, y el intercambio de información entre el gobierno federal y el sector privado juega un papel crucial. «

– Senador Mark Warner

Un centro dedicado a contrarrestar las amenazas de la IA

La Ley de Inteligencia Artificial Segura propone el establecimiento de un Centro de Seguridad de Inteligencia Artificial dentro de la Agencia de Seguridad Nacional (NSA). Este centro tendría la tarea de liderar la investigación sobre “contra-IA«Técnicas, esencialmente métodos para manipular o alterar los sistemas de IA. Comprender estas técnicas es crucial para desarrollar defensas efectivas contra actores maliciosos que podrían intentar explotar las vulnerabilidades de la IA.

La ley especifica un enfoque en cuatro técnicas principales contra la IA:

  • Intoxicación de datos
  • Ataques de evasión
  • Ataques basados ​​en la privacidad
  • Ataques de abuso

Intoxicación de datos Implica introducir datos corruptos en el conjunto de datos de entrenamiento de un modelo de IA, con el objetivo de sesgar los resultados del modelo. Ataques de evasión Implican manipular entradas a un sistema de inteligencia artificial de una manera que permita al atacante eludir sus medidas de seguridad. Ataques basados ​​en la privacidad explotar lagunas en la forma en que los sistemas de inteligencia artificial manejan los datos personales. Finalmente, ataques de abuso Implican el uso indebido de funcionalidades legítimas de un sistema de IA con fines maliciosos.

Al investigar estas técnicas contra la IA, el Centro de Seguridad de Inteligencia Artificial puede ayudar a desarrollar estrategias para mitigar su impacto. Esta investigación puede contribuir a la creación de mejores prácticas para el desarrollo, la implementación y el mantenimiento de la IA, lo que en última instancia conducirá a sistemas de IA más sólidos y seguros.

Nuevo proyecto de ley de seguridad de la IA
La Ley de Inteligencia Artificial Segura es un paso hacia un desarrollo de la IA más seguro (Credito de imagen)

El establecimiento de una base de datos nacional sobre violaciones y un centro de investigación dedicado puede proporcionar información y herramientas valiosas para construir sistemas de IA más seguros.

Sin embargo, se trata de una cuestión compleja que no tiene soluciones fáciles.

El desarrollo de técnicas eficaces contra la IA también puede plantear desafíos, ya que estos métodos podrían utilizarse tanto con fines defensivos como ofensivos.

El éxito de la Ley de Inteligencia Artificial Segura dependerá de su implementación y de la colaboración continua entre las agencias gubernamentales, el sector privado y la comunidad investigadora. A medida que la IA continúa evolucionando, también debe hacerlo nuestro enfoque para protegerla.

El nuevo proyecto de ley de seguridad de la IA proporciona un marco para avanzar, pero será necesaria una vigilancia y adaptación continuas para garantizar que la IA siga siendo una fuerza positiva.


Crédito de imagen destacada: Pawel Czerwinski/desempaquetar

Recent Posts

  • Rastreo de rendimiento de ML
  • Apple desarrolla nuevas chips para gafas inteligentes de IA y Macs
  • Skymizer lanza Hyperthought AI IP para dispositivos Smart Edge
  • SigeNergy flexiona la suite de energía de IA completa en Intersolar Europe
  • Top 5 asistentes de investigación de IA que compiten con ChatGPT

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

Follow Us

Social icon element need JNews Essential plugin to be activated.
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.