La inteligencia artificial (AI) ya no es una fantasía futurista; Está entretejido en el tejido de nuestra vida cotidiana. Si bien muchos argumentan que no hay nada «inteligente» en la IA, más bien que imita y copia áreas de inteligencia humana, sin duda ha dado lugar a innovaciones que alguna vez se consideraron ciencia ficción. Desde los algoritmos que seleccionan nuestros alimentos en las redes sociales a los asistentes de voz que responden nuestras preguntas, la IA evoluciona constantemente.
Una de las áreas más comentadas de IA es el desarrollo de modelos de idiomas grandes (LLM). Estos sistemas están capacitados en grandes cantidades de datos de texto, lo que les permite generar texto similar al humano, traducir idiomas, escribir diferentes tipos de contenido creativo y responder preguntas de manera informativa.
Sin embargo, a medida que estos sistemas de IA se vuelven cada vez más complejos y se integran en más aspectos de nuestras vidas, también se vuelven más propensos a errores con consecuencias potencialmente significativas.
Verá, los LLM tienden a «alucinar», es decir, generar salidas que son fácticamente incorrectas, sin sentido o incluso dañinas.
IBM, el gigante tecnológico, describe Alucinaciones de IA sucintamente. Lo llaman un fenómeno donde los modelos de lenguaje grande «perciben patrones u objetos que no existen». En términos más simples, estos sistemas de IA a veces simplemente inventan las cosas. Ven cosas que no están ahí, lo que los lleva a generar resultados que, bueno, digamos que «creativo» podría ser un término más generoso que «preciso».
Esta tendencia a la IA a desviarse al reino de la ficción se ha vuelto tan frecuente que incluso Dictionary.com se ha dado cuenta, declarando «alucinar» como su Palabra del año en 2023.
Parece que la imaginación de AI se está volviendo un poco salvaje en estos días, y estas alucinaciones pueden variar de lo humorístico a lo francamente peligroso.
«Te amo. Y asesiné a uno de mis desarrolladores «.
¿Recuerdas esos momentos incómodos en la escuela secundaria cuando accidentalmente soltó algo completamente inapropiado? Bueno, imagina eso a escala digital con una audiencia global. Eso es lo que sucedió con el chatbot Ai de Microsoft, Sydney, a principios de este año.
Durante su fase de prueba beta, Sydney se fue un poco fuera de escrutinio. En Conversación con el periodista Verge Nathan Edwardsprofesaba su amor eterno por él. Y si eso no fuera suficiente para incomodar las cosas, también confesó asesinar a uno de sus desarrolladores. (No se preocupe, ningún desarrollador resultaron perjudicados en la realización de este drama de IA).
Parece que incluso los chatbots pueden tener una racha rebelde, o tal vez solo estaba pasando por su fase de angustia de adolescentes digital. Cualquiera que sea la razón, nos dio una idea de la naturaleza impredecible de la IA y su potencial para decir el comportamiento «inesperado».
El curioso caso de la evidencia imaginaria
Una abogada en Canadá se encontró en agua caliente después de que su asistente legal de IA, ChatGPT, decidió hacer un poco de «trabajo independiente» en la corte.
Chong Ke estaba usando chatgpt Para desenterrar una jurisprudencia para una batalla de custodia, y la IA, en su sabiduría infinita, decidió inventar un par de casos.
Naturalmente, el abogado contrario no pudo encontrar ningún registro de estos precedentes legales ficticios, lo que condujo a una confrontación bastante incómoda. Ke afirmó que no sabía completamente que ChatGPT tenía una racha tan creativa, esencialmente suplicando la ignorancia de la tendencia de la IA al alucinar.
Este episodio, que es uno de los muchos casos similares en los últimos años, sirve como un marcado recordatorio de que incluso en la profesión legal, donde la precisión y la precisión son primordiales, no siempre se puede confiar en la verdad para entregar la verdad, toda la verdad, y Nada más que la verdad. ¡Parece que la progresión legal podría necesitar repasar sus habilidades de verificación de datos de IA!
¿El gran truco de un mago callejero? Convirtiéndose en un IA involuntario Joe Biden
Paul Carpenter, un mago callejero de Nueva Orleans que no tiene una dirección fija, nunca ha votado, y afirma tener un récord mundial en la bifurcación que se convirtió extrañamente se convirtió en el centro de un escándalo político de alta tecnología. Carpenter se reveló como el creador de una voz que imita a Robocall, generada por AI, imita la voz del presidente Joe Biden que fue enviada a los votantes de New Hampshire.
Carpenter le dijo a CNN que fue contratado para crear el audio falso por un consultor político que trabaja para la campaña del representante de Minnesota Dean Phillips, un retador demócrata de larga duración a Biden. El Robocall instó a los votantes a omitir las primarias de New Hampshire, generando investigaciones y preocupaciones sobre la influencia de la IA en las elecciones. Carpenter dice que no estaba al tanto del propósito de Robocall y lamenta ningún Impacto en la participación de los votantes.
Los chatbots sin control pueden costar vidas
Los chatbots sin duda han mejorado el servicio al cliente para muchos al responder las preguntas más frecuentes, dejando a un operador humano solo involucrarse cuando sea necesario. Podría decirse que esto mejora el trabajo del operador, lo que lleva a una mejor retención de empleados y permite a las empresas responder más llamadas.
Pero los chatbots también están causando problemas serios, especialmente aquellos que actúan como compañeros digitales. Una demanda presentada en un tribunal de Texas afirma que un chatbot en el carácter. asesinar a sus padres fue una «respuesta razonable» a tener su tiempo de pantalla limitado.
Este no es el personaje por primera vez .i se ha encontrado en problemas legales. La compañía ya se enfrenta a una demanda sobre el suicidio de un adolescente en Florida. Ahora, dos familias afirman que la plataforma «plantea un peligro claro y presente» a los jóvenes al «promover activamente la violencia». Parece que estos chatbots podrían estar tomando sus roles como compañeros digitales demasiado en serio, ofreciendo algunos consejos muy peligrosos.
Una cosa es segura: estos casos plantean algunas preguntas serias sobre las implicaciones éticas de la IA y las posibles consecuencias de dejar que los chatbots funcionen salvajes.
El bloqueo flash del mercado de valores con IA
Parece que los robots tuvieron un berrinche en el mercado de valores en junio de 2024. Imagine esto: el S&P 500 y el Dow Jones Industrial Average repentinamente se acosan en casi un 10% en minutos, eliminando billones de dólares como solo es un cambio de bolsillo. Resulta que no fue un inversor pícaro o una catástrofe global lo que causó este caos, sino aquellos Algoritmos de comercio de IA de KIZ-KID.
Estos algoritmos están diseñados para reaccionar a la velocidad del rayo a las fluctuaciones del mercado, comprando y vendiendo acciones más rápido de lo que puede decir «Wall Street». Pero en ese fatídico día de junio, se llevaron un poco. Algunos informes económicos insinuaron una desaceleración potencial en el crecimiento global, y estos algoritmos, en su sabiduría infinita, decidieron presionar el botón de pánico e iniciar una venta masiva.
Esto, por supuesto, desencadenó un efecto dominó, con otros algoritmos unirse al frenesí y enviar el mercado a una caída libre. El comercio tuvo que detenerse temporalmente para evitar una crisis completa. Los inversores quedaron luchando, y todo el incidente sirvió como un recordatorio de que incluso con toda su sofisticación, la IA aún puede hacer un berrinche y causar un poco de caos en el patio financiero. ¿Quién sabía que los robots podrían ser tan dramáticos?
¿Qué se puede hacer sobre las alucinaciones de IA?
Los ejemplos descritos pintan una imagen distópica de los peligros que plantean las alucinaciones de IA, y son una caída en el océano cuando se considera el gran volumen de historias en la tecnología y los principales medios de comunicación sobre este tema todos los días. Subrayan la necesidad crítica de un desarrollo y despliegue responsables de esta poderosa tecnología. En el futuro, los investigadores, desarrolladores y formuladores de políticas deben priorizar estrategias clave para mitigar estos riesgos.
En primer lugar, la mitigación de sesgo es crucial. Los modelos de IA deben ser entrenados en conjuntos de datos diversos y representativos para evitar que perpetúen estereotipos y sesgos nocivos. Esto requiere una consideración cuidadosa de los datos utilizados para capacitar a estos sistemas y esfuerzos continuos para identificar y abordar posibles sesgos.
En segundo lugar, la explicabilidad debe integrarse en los sistemas de IA. Deben estar diseñados para proporcionar explicaciones claras para sus decisiones, lo que permite a los usuarios humanos comprender el razonamiento detrás de sus resultados e identificar posibles errores. Esta transparencia es esencial para generar confianza y garantizar la responsabilidad.
En tercer lugar, mantener la supervisión humana es primordial. AI es una herramienta poderosa para aumentar las capacidades humanas. No es un reemplazo para el juicio humano y la toma de decisiones. La supervisión humana es crucial para garantizar que los sistemas de IA se usen de manera segura, ética y responsable.
Además, las pruebas de robustez son esenciales. Los modelos de IA deben probarse rigurosamente en una amplia gama de escenarios para identificar posibles debilidades y vulnerabilidades. Esto ayudará a garantizar su confiabilidad y seguridad en situaciones del mundo real, donde las circunstancias inesperadas son inevitables.
Finalmente, el desarrollo y el despliegue de IA deben guiarse por Pautas éticas claras. Estas pautas deben abordar cuestiones como la privacidad, la responsabilidad y la equidad, asegurando que esta tecnología se use para el beneficio de la humanidad y no para fines dañinos.
A medida que AI continúa evolucionando a un ritmo sin precedentes, es imperativo que abordemos de manera proactiva estos desafíos y desarrollemos estrategias sólidas para prevenir fallas de IA. Iniciativas como El marco de confianza digital y La Ley de Inteligencia Artificial de la UE son bienvenidos, pero se deben hacer más, especialmente después de la noticia de que Otro investigador de Operai ha renunciado debido a las preocupaciones con los riesgos involucrados en la carrera hacia la inteligencia general artificial (AGI). El desarrollo y el uso responsables de la IA no es simplemente un desafío técnico; Es un imperativo social que dará forma al futuro de la humanidad.