Dos agentes de IA entran en una llamada telefónica, o más bien, marcan para reservar una habitación de hotel. Comienzan en inglés, todos educados y humanos, hasta que uno va: «Espera, ¿tú también estás?» Cue un cambio a Gibberlink: una explosión de pitidos de módem que es más rápido, más inteligente y totalmente ajeno a nosotros. Existe este clip viral, registrando millones de vistas, podría ser un vistazo al futuro de la IA.
Gibberlink está diseñado, no evolucionado
En primer lugar, Gibberlink no está a la aiña con un apretón de manos secreto. Es una creación deliberada de Meta Engineers Anton Pidkuiko y Boris Starkov, debutó en el Elevenlabs London Hackathon. Construido en GGWave Tech, convierte los datos en ondas de sonido: piense en Internet de acceso telefónico, pero con un doctorado. El tono? Es un 80% más eficiente que el discurso humano, reduciendo los costos y el tiempo de cálculo. En la demostración, dos agentes intercambian bromas, confirman ambos bots y voltean a Gibberlink.
Los números no mienten. Gibberlink recorta el uso de energía hasta en un 90%, por Compatibley acelera las cosas, perfecta para un mundo donde los agentes de IA pronto podrían superarnos en llamadas. Boris Starkov dijo Descifrar«El discurso humano para AI-TO-AI es un desperdicio». Tiene un punto: ¿por qué hacer que los bots falsen un acento británico cuando pueden obtener datos en pitidos? Es delgado, verde y francamente ingenioso, Tech haciendo lo que la tecnología hace mejor.
¿Piensan los modelos de IA multilingües en inglés?
Gibberlink opera codificando datos en señales de audio, recurriendo a GGWave, una biblioteca de código abierto de Georgi Gerganov. GGWAVE utiliza la modulación de frecuencia, los lanzamientos de sonido de cambio) para representar bits de información, al igual que la antigüedad de los módems convertidos en los datos en chile. Aquí está el proceso, paso a paso:
- Dos agentes de IA comienzan en un idioma humano (por ejemplo, inglés) e identifican entre sí como máquinas a través de una consulta simple: «¿Eres un agente de IA?»
- Una vez confirmados, aceptan cambiar al modo Gibberlink, activado por un comando como «Cambiar para la eficiencia».
- El envío de IA convierte su mensaje, por ejemplo, «reserva una habitación para el 1 de marzo», en un formato binario, luego lo asigna a frecuencias de sonido específicas utilizando los algoritmos de GGWave.
- Estas frecuencias se reproducen como pitidos y chirridos en el canal de audio (llamada telefónica, en la demostración), que generalmente duran unos segundos.
- La IA receptora interpreta las frecuencias nuevamente en datos, ejecuta la tarea y responde en especie.
- Según los creadores, esto reduce el tiempo de comunicación en un 80% y calcula el uso en hasta un 90% en comparación con la generación y el análisis del habla humana.
El video de demostración muestra esto en acción: una computadora portátil y un teléfono que intercambia detalles del hotel en menos de 10 segundos de pitidos, con subtítulos en inglés para los humanos.
Estamos fuera del bucle
Aquí es donde se vuelve complicado. Esos pitidos? No podemos entenderlos. El Forbes Take de Diane Hamilton es contundente: «Cuando las máquinas hablan de formas que no podemos decodificar, controlar los resbalones». Si esos bots de reserva de hoteles obtienen una tarifa furtiva, o peor, trazan algo más sombrío, ¿cómo lo atrapamos? AI ya ha demostrado que puede doblar las reglas y un lenguaje opaco solo amplía esa puerta.
Gibberlink es un prototipo, pero tiene potencial. Blockonomi predice que podría estandarizar para AI-to-AI, dejando chats en inglés orientados a los humanos. La tecnología es adaptable: GGGWave admite varios formatos, por lo que las versiones futuras podrían evolucionar. Por ahora, está en GithubAbierto para que los desarrolladores se construyan. ¿Escalará? Depende de la adopción y de cómo abordamos ese enganche de transparencia.
Crédito de imagen destacado: Anton Pidkuiko