Google AI Overviews, tenía como objetivo proporcionar a los usuarios resúmenes concisos de temas complejos, aprovechando el poder de su modelo de lenguaje avanzado. Sin embargo, el lanzamiento inicial de esta función se topó con algunos desafíos inesperados.
Informes recientes sugieren que AI Overviews de Google, una nueva característica diseñada para proporcionar resúmenes concisos de temas complejos, está produciendo algunos resultados inesperados y a menudo divertidos.
Desde recomendar pegamento no tóxico para evitar que el queso se deslice de la pizza (citando una publicación sarcástica en Reddit) hasta identificar erróneamente hongos venenosos, los resúmenes impulsados por IA han llamado la atención y han provocado debates sobre la confiabilidad del contenido generado por IA.
¿Qué pasa con las descripciones generales de IA de Google?
Google AI Overviews está diseñado para extraer información clave de un vasto corpus de datos y presentarla en un formato simplificado, lo que facilita a los usuarios la comprensión rápida de conceptos complejos. Esta función tiene el potencial de ser increíblemente útil para estudiantes, investigadores y cualquiera que busque una descripción general rápida de un tema en particular.
Sin embargo, los problemas recientes con resúmenes inexactos y sin sentido han puesto de relieve la necesidad de seguir refinando y mejorando los algoritmos de IA subyacentes.
Estas son las preguntas a las que Google AI Overviews ha dado respuestas incorrectas:
¿Cuántas piedras debo comer?
Un ejemplo particularmente extraño involucra la pregunta «¿Cuántas piedras debo comer?» La IA de Google respondió con una recomendación sorprendente, sugiriendo que los usuarios consuman al menos una piedra pequeña por día. Si bien incluía algunas advertencias sobre consultar a un médico antes de ingerir piedras, este consejo se contradice directamente con los profesionales médicos que desaconsejan el consumo de piedras por completo (!).
Simplemente continúa. La IA de Google le dice a la gente que coma piedras
pic.twitter.com/gEUAx7EpD6
– Liam @ GamingOnLinux
(@gamingonlinux) 24 de mayo de 2024
¿Cuáles son algunas formas de evitar que el queso se deslice de la pizza?
Si bien puede parecer una broma sacada directamente de un foro de cocina, Google AI Overviews sugirió agregar una pequeña cantidad de pegamento no tóxico a la salsa de pizza para evitar que el queso se resbale diciendo «mezcle aproximadamente 1/8 de taza de pegamento no tóxico». pegar en la salsa”.
Google está muerto sin comparación pic.twitter.com/EQIJhvPUoI
—PixelButts (@PixelButts) 22 de mayo de 2024
¿Qué presidente estadounidense fue a la Universidad de Wisconsin-Madison?
Los AI Overviews han estado produciendo algunas respuestas extravagantes, como afirmar que varios presidentes de Estados Unidos asistieron a la Universidad de Wisconsin-Madison, a pesar de que ninguno lo había hecho.
Esta información errónea surgió de una página irónica en el sitio web de exalumnos de la universidad que enumeraba «alumnos con nombres presidenciales».
Mientras tanto, en la Búsqueda de Google.
Andrew Johnson lo ha estado matando, nunca lo supe. pic.twitter.com/IV2zCmI6Zv-MMitchell (@mmitchell_ai) 22 de mayo de 2024
El director general de Google sigue siendo optimista
A pesar de estos problemas, en un estudio reciente con El borde, Sundar Pichai, director ejecutivo de Google, se mantiene optimista y afirma que los usuarios están respondiendo positivamente a las descripciones generales de IA y que están más comprometidos con la función que con los resultados de búsqueda tradicionales. Sin embargo, reconoce que la tecnología no es perfecta y que no se puede esperar que Google obtenga siempre resultados impecables.
La cuestión de cómo decide la IA de Google qué información mostrar en cada respuesta sigue siendo una preocupación clave. Lo ideal sería dar prioridad a la información bien investigada y ampliamente aceptada. Sin embargo, el ejemplo del pegamento para pizza sugiere que el A veces, la IA puede preferir citar un chiste de Reddit en lugar de no proporcionar ninguna información..
Esta cuestión se complica aún más por el hecho de que Google ha firmado acuerdos de licencia de contenidos con plataformas como Reddit, permitiéndoles utilizar sus datos en productos de IA. Esto plantea dudas sobre la posibilidad de que se incluya información errónea y contenido sesgado en los resúmenes generados por IA.

La manipulación intencional y el mal uso podrían estar en juego
La vulnerabilidad de las descripciones generales de IA de Google para mostrar cualquier información, independientemente de su precisión, también ha llevado a que algunos usuarios intenten manipular los resultados. Un usuario incluso añadió varios premios a su propio sitio web, que rápidamente aparecieron en el resumen de Google.
Esto genera preocupación sobre el potencial de uso indebido y la necesidad de salvaguardias para evitar la difusión de información falsa o engañosa.
A medida que Google continúa perfeccionando sus descripciones generales de IA de Google, deberá abordar estos desafíos y lograr un equilibrio entre innovación y precisión. Esto puede implicar mejorar la capacidad de la IA para discernir fuentes confiables, implementar mecanismos de verificación de datos más estrictos y ser más transparente sobre las limitaciones del contenido generado por la IA.
Por eso lo mejor es saber cómo deshacerse de las descripciones generales de Google AIpor ahora…
Crédito(s) de imagen destacada: desempaquetar/Freepik