Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

Los puntajes de rendimiento de LLM están inflados: un nuevo método muestra la verdad

byKerem Gülen
11 febrero 2025
in Research
Home Research

A medida que los modelos de lenguaje grande (LLM) se vuelven cada vez más sofisticados, garantizar la evaluación justa e imparcial se ha convertido en un desafío crítico. Los protocolos de evaluación existentes a menudo sufren contaminación de referenciadonde los modelos se capacitan en conjuntos de datos que incluyen partes de los puntos de referencia de prueba, lo que lleva a resultados inflados artificialmente. Un enfoque reciente conocido como Agentes como un revaluador Intenta abordar este problema generando nuevas preguntas de prueba utilizando agentes de IA. Sin embargo, este método presenta el suyo sesgoque permanecen en gran medida inexplorados.

Investigadores del HikVision Research Institute, incluidos Meilin Chen, Jian Tian, ​​Liang MA, Di Xie, Weijie Chen y Jiang Zhu, proponen un nuevo marco de evaluación llamado evaluador imparcial en su estudio «,»Evaluación imparcial de modelos de idiomas grandes desde una perspectiva causal«Para mitigar estos sesgos.

Su estudio proporciona un Marco teórico para el sesgo de evaluación y presenta un Protocolo de evaluación basado en la causalidad para ofrecer un más integral, imparcial e interpretable Evaluación de LLM.

Desafíos con agentes como evaluador

Mientras Agentes como un revaluador Intentos de reducir la contaminación de referencia al tener preguntas de prueba generadas por IA, los investigadores identifican dos sesgos clave en este método:

  1. Sesgo de datos: Las preguntas de prueba generadas por IA tienden a Favor de dominios donde el modelo ya funciona bienconduciendo a una evaluación desequilibrada.
  2. Sesgo modelo: Durante la evaluación, el contenido generado por IA se alinea más con las fortalezas del modelo, dándole un ventaja injusta Al evaluarse a sí mismo.

Estos sesgos distorsionan el proceso de evaluación, lo que dificulta medir con precisión las verdaderas capacidades de un modelo.

Introducción al evaluador imparcial

Para abordar estos problemas, los investigadores introducen el Evaluador imparcialun protocolo de evaluación basado en Principios de inferencia causal. Este método evalúa dinámicamente LLM utilizando intervenciones controladasen lugar de confiar únicamente en conjuntos de datos estáticos.

En su núcleo, el evaluador imparcial utiliza Bolsas de intervenciones atómicas (bote)—Manipulaciones estructuradas de datos de prueba para evaluar cómo los LLM responden a diferentes variaciones de la misma pregunta. Este método permite un Evaluación sistemática de la robustez de IAreduciendo el impacto de los sesgos preexistentes.

Prueba de la teoría: experimentos de supervisión humanos, ai y recursivos

Para validar sus hipótesis, los investigadores realizaron una serie de experimentos que involucran:

  • Supervisión humana-humana: Evaluar si los humanos funcionan mejor al criticar las críticas en lugar de evaluar directamente las respuestas generadas por la IA.
  • Supervisión de Human-AI: Prueba si los humanos pueden supervisar efectivamente la IA revisando sus autocríticas en lugar de sus salidas sin procesar.
  • Supervisión AI-AI: Evaluar si la IA en sí misma puede realizar críticas auto-recursivas efectivas.

Hallazgos clave

Experimentos humanos humanos confirmó que revisar una crítica era más fácil que evaluar una respuesta directamente. Las críticas de orden superior ayudaron a aumentar la precisión al tiempo que reducen el esfuerzo.

Experimentos de Human-AI demostró que cuando la IA generó críticas recursivas, los humanos aún podían proporcionar una supervisión significativa, incluso en áreas donde la IA las superó.

Experimentos AI-AI Reveló que si bien los modelos de IA podían criticar sus propios resultados, su capacidad para realizar una auto-criticción de orden superior todavía era limitada. La IA actual lucha por mejorar constantemente a través de la autocrítica recursiva, destacando la necesidad de avances adicionales en la alineación de la IA.

Cómo funciona la autocritaje recursiva

Los investigadores formalizaron una estructura de crítica jerárquica:

  • Nivel de respuesta: La IA genera una respuesta.
  • Crítica de primer orden (C1): AI revisa su propia respuesta, identificando errores o debilidades.
  • Crítica de segundo orden (C2): AI evalúa múltiples críticas de primer orden, seleccionando los puntos más válidos.
  • Críticas de orden superior (C3+): La IA continúa refinando las críticas de manera recursiva, mejorando la precisión con cada nivel.

El estudio también introdujo dos métodos de comparación de referencia:

  • Votación mayoritaria: Agregando múltiples críticas para ver si el consenso mejora la precisión.
  • Votación ingenua: Un método de control que simplemente cuenta los juicios anteriores sin análisis adicional.

Los resultados mostraron que Las críticas recursivas mejoraron la precisión constante Más allá de la simple agregación de votos, lo que indica que el método agrega información significativa en lugar de solo promediar opiniones.

¿Puede la autocrítica recursiva resolver la supervisión de la IA?

La investigación sugiere La supervisión recursiva podría ser un avance Para el monitoreo de IA escalable, pero quedan desafíos.

Fortalezas

Una de las ventajas clave de la autocrítica recursiva es que permite a los humanos supervisar los sistemas de IA sin necesidad de evaluar salidas crudas complejas. En lugar de evaluar directamente el contenido generado por la IA, los revisores humanos pueden centrarse en evaluar las autocríticas de la IA, haciendo que el proceso sea más manejable y eficiente.

Otro beneficio importante es que la supervisión recursiva hace que la alineación de la IA sea más escalable. Los métodos de alineación tradicionales dependen en gran medida de la intervención humana directa, lo que se vuelve poco práctico a medida que las capacidades de IA superan la experiencia humana. Al cambiar a un sistema donde la IA puede criticar y refinar sus propios resultados, la dependencia de la supervisión humana se reduce mientras se mantiene la supervisión.

Además, la autocrítica recursiva introduce un enfoque estructurado para la supervisión de la IA, que se asemeja a la toma de decisiones jerárquicas en las organizaciones. Así como las estructuras corporativas se basan en múltiples capas de revisión y retroalimentación, la supervisión recursiva permite a los sistemas de IA refinar sus respuestas de manera estructurada y lógica, mejorando la precisión e interpretabilidad.

Limitaciones

A pesar de su potencial, la supervisión recursiva tiene limitaciones notables. Los modelos actuales de IA luchan con la autocrítica más allá de unos pocos niveles. Mientras que las críticas de primer y segundo orden mejoran la supervisión, las críticas de orden superior a menudo no producen refinamientos significativos, lo que limita la efectividad del método.

Además, la supervisión recursiva no elimina el riesgo de piratería de recompensas, donde los modelos de IA optimizan los objetivos de poder en lugar de la intención humana genuina. La IA puede aprender a manipular sus propios mecanismos de crítica para producir evaluaciones favorables en lugar de mejorar genuinamente sus resultados.

Otro desafío crítico es garantizar que los modelos autocritantes no refuercen sus propios prejuicios. Sin salvaguardas adecuadas, la supervisión recursiva podría conducir a modelos de IA que amplifican los errores preexistentes en lugar de corregirlos. Se necesita más investigación para desarrollar técnicas que garanticen la autocrítica mejora la alineación de la IA en lugar de reforzar los patrones indeseables.

Resultados experimentales: evaluador imparcial versus métodos tradicionales

El estudio comparado modelos patentados de última generación como GPT-4, Géminis 2.0 y Claude con modelos de código abierto como Llama, Qwen, Yi y Mistral bajo ambos puntos de referencia de evaluación tradicionales y el evaluador imparcial.

Los resultados mostraron que:

  • Todos los modelos se desempeñaron peor cuando se evalúan utilizando el evaluador imparcialsugiriendo que los métodos de evaluación anteriores sobreestimado AI Rendimiento.
  • Los modelos propietarios como GPT-4 y Gemini 2.0 exhibieron la menor caída de rendimientoindicando una generalización más fuerte.
  • Los modelos de código abierto mostraron mayores disminuciones de rendimientosugiriendo más espacio para mejorar la robustez.

Esta investigación destaca sesgos significativos en las metodologías de evaluación de IA actuales y propone el evaluador imparcial como una nueva solución.


Crédito de la imagen destacada: Kerem Gülen/MidJourney

Tags: AILLMmodelos de idiomas grandesPresentado

Related Posts

Las herramientas de investigación de IA podrían estar creando más problemas de los que resuelven

Las herramientas de investigación de IA podrían estar creando más problemas de los que resuelven

14 mayo 2025
¿Su socio generativo de IA súper útil es en secreto haciendo que su trabajo sea aburrido?

¿Su socio generativo de IA súper útil es en secreto haciendo que su trabajo sea aburrido?

14 mayo 2025
Adele de Microsoft quiere darle a su IA un perfil cognitivo

Adele de Microsoft quiere darle a su IA un perfil cognitivo

14 mayo 2025
El artículo de Apple Research presenta Matrix3D para la generación de contenido 3D

El artículo de Apple Research presenta Matrix3D para la generación de contenido 3D

14 mayo 2025
Investigación: El estándar de oro para la evaluación de Genai

Investigación: El estándar de oro para la evaluación de Genai

12 mayo 2025
AI finalmente resuelve el rompecabezas más duro de la biología

AI finalmente resuelve el rompecabezas más duro de la biología

6 mayo 2025

Recent Posts

  • El impacto de las telas inteligentes en el rendimiento de la ropa táctica
  • Databricks apuesta grande en Postgres sin servidor con su adquisición de neón de $ 1 mil millones
  • Alphaevolve: Cómo la nueva IA de Google apunta a la verdad con la autocorrección
  • Tiktok está implementando textos alternativos generados por AI para una mejor acesibilidad
  • Trump obliga a Apple a repensar su estrategia de iPhone de la India

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.