Se está realizando una nueva fase de los esfuerzos de la administración Trump para reducir el servicio civil, centrándose en el uso de IA generativa para automatizar las tareas de trabajo manejadas previamente por empleados federales. La Administración de Servicios Generales (GSA) está probando un chatbot con 1,500 miembros del personal y puede ampliar su uso a más de 10,000 trabajadores que administran más de $ 100 mil millones en contratos y servicios, según Cableado.
GSA prueba AI Chatbot para automatizar las tareas federales en medio de la reducción de personal
El liderazgo de GSA enmarca el BOT como una herramienta de mejora de la productividad. Thomas Shedd, director de los Servicios de Transformación de Tecnología (TTS) en GSA, destacó en una reciente reunión de todas las manos que la agencia está buscando una «estrategia de AI-First». Él dijo: «A medida que disminuimos [the] Tamaño general del gobierno federal … Todavía hay un montón de programas que deben existir, lo cual es una gran oportunidad para que la tecnología y la automatización tengan plena vigencia «. Shedd también mencionó el potencial para que se introduzcan «agentes de codificación» en todo el gobierno, refiriéndose a programas de IA capaces de escribir y emplear código.
La iniciativa de chatbot comenzó durante el término del presidente Joe Biden con un pequeño equipo de tecnología GSA llamado 10X, que inicialmente lo diseñó como una plataforma de prueba de IA, no como una herramienta de productividad. Sin embargo, los aliados de Doge, el Departamento de Eficiencia del Gobierno, han presionado por su desarrollo y despliegue acelerados en medio de despidos federales masivos. El programa, anteriormente conocido como «GSAI» y ahora llamado «GSA Chat», está diseñado para ayudar a redactar correos electrónicos, escritura de código y otras funciones. En última instancia, estará disponible para otras agencias gubernamentales, potencialmente bajo el nombre «Ai.gov».
Zach Whitman, director de IA de GSA, describió el chatbot como un medio para que los empleados federales trabajen «de manera más efectiva y eficiente». La interfaz se asemeja a la de ChatGPT, donde los usuarios envían indicaciones y reciben respuestas. El sistema actualmente utiliza modelos con licencia de meta y antrópico. Aunque las cargas de documentos aún no están permitidas, los planes sugieren que esta característica puede estar disponible en el futuro. Los empleados de GSA prevén el chatbot para varias tareas, incluida la planificación de proyectos a gran escala y el análisis de repositorios de datos federales.
El portavoz de GSA, Will Powell, confirmó que la agencia está revisando sus recursos de TI y realizando pruebas para verificar la efectividad y confiabilidad de las herramientas disponibles. Sin embargo, los expertos indican que la introducción del chatbot puede reflejar una tendencia más amplia en lugar de cambiar significativamente las operaciones gubernamentales. Surgieron informes de que los asesores de DOGE han aprovechado la IA para analizar el gasto de la agencia en busca de recortes y decidir la retención de empleo en todo el gobierno.
En una reunión reciente de TTS, Shedd anticipó que la división se reduciría en «al menos un 50 por ciento» pronto. Además, los usos potenciales de la IA se extienden a aplicaciones sensibles, como evaluar las publicaciones en las redes sociales de los titulares de estudiantes de los estudiantes por parte del Departamento de Estado para identificar enlaces a grupos terroristas designados.
La implementación de IA generativa conlleva riesgos establecidos, incluidos sesgos, imprecisiones objetivas, altos costos y funcionamiento interno complejos. GSA reconoció estos problemas al inicializar el trabajo en el chatbot el verano pasado, estableciendo el «10x ai sandbox» para explorar las aplicaciones de IA de forma segura y rentable. Sin embargo, las motivaciones para lanzar el chatbot rápidamente pueden pasar por alto las posibles preocupaciones con respecto a sus aplicaciones. Un ex empleado de la GSA señaló los riesgos asociados con depender de la IA para el análisis de fraude, destacando el potencial de falsos positivos. Las advertencias sobre temas como la «alucinación» y las respuestas sesgadas se incluyen en una página de ayuda para los primeros usuarios, pero los métodos de aplicación siguen siendo no especificados.
Las agencias federales han probado la IA generativa durante meses, con GSA contratando previamente a Google para evaluar el potencial de IA para mejorar la productividad y la colaboración. Otras agencias, como los departamentos de seguridad nacional, salud y servicios humanos, y asuntos de veteranos, también estaban explorando herramientas de IA antes de la inauguración. A pesar de esto, la implementación particular del chatbot puede no haber sido inevitable en su forma actual.
La administración de Biden había seguido un enfoque cauteloso para la IA, enfatizando las rigurosas pruebas y la transparencia a través de una orden ejecutiva. Sin embargo, la derogación de esta orden en el primer día de Trump en el cargo marcó un cambio en la postura regulatoria, lo que potencialmente permite a las agencias federales utilizar aplicaciones más especulativas de la tecnología de IA.
Crédito de imagen destacado: Katie Moum/Unsplash