La IA es buena en el reconocimiento de patrones, pero lucha con el razonamiento. Mientras tanto, la cognición humana está profundamente arraigada en la lógica y la coherencia. ¿Y si pudiéramos Combina lo mejor de ambos mundos—La potencia de procesamiento en bruto de los modelos de idiomas grandes (LLM) y el pensamiento estructurado basado en reglas de la IA simbólica?
Este es el objetivo detrás IA neuroestimbólicaun nuevo enfoque que fusiona el aprendizaje profundo con la inferencia impulsada por la coherencia (CDI). Los investigadores Huntsman y Thomas proponen un método que permite que los LLM construir relaciones lógicas desde el lenguaje natural, abriendo la puerta a Mejor toma de decisiones, resolución de problemas e incluso razonamiento legal impulsado por la IA.
Este estudio, «Inteligencia artificial neurosimbólica a través de modelos de idiomas grandes e inferencia impulsada por la coherencia«Dirigido por Steve Huntsman y Jewell Thomas de Cynnovative, explora un enfoque novedoso para integrar la inferencia impulsada por la coherencia (CDI) con modelos de idiomas grandes (LLM). Al desarrollar un algoritmo que transforma las proposiciones del lenguaje natural en gráficos de coherencia estructurados, los investigadores comparan la capacidad de los modelos de IA para reconstruir relaciones lógicas.
¿Qué es la inferencia impulsada por la coherencia?
La inferencia impulsada por la coherencia (CDI) es una forma de tomar decisiones basadas en qué tan bien se ajustan un conjunto de proposiciones. En lugar de simplemente aceptar o rechazar hechos individuales, CDI construye un Gráfico de relacionesasignando pesas a coherente y contradictorio declaraciones.
Un gráfico de coherencia conectaría estas proposiciones y Marque su consistenciaayudando a la IA a determinar ¿Qué declaraciones es más probable que sean verdaderas?.
El problema? Hasta ahora, estos gráficos tenían que ser construido manualmente—Un proceso minucioso y poco práctico. La nueva investigación propone un algoritmo que puede generar automáticamente estos gráficos de entrada del lenguaje natural Y prueba qué bien pueden reconstruirlos LLM.
Por qué los modelos de IA pequeños no pueden mantenerse al día con los grandes
Enseñar LLMS para construir estructuras lógicas
El método de los investigadores implica dos pasos clave:
- Generando proposiciones: Un conjunto de declaraciones se crea en lenguaje natural, lo que refleja una estructura lógica.
- Reconstruyendo gráficos de coherencia: Los LLM se solicitan a analizar estas declaraciones y reconstruir la estructura de gráficos subyacentes.
Al hacer esto, los modelos de IA se ven obligados a Piense más como humanosevaluando no solo hechos individuales sino también Cómo se conectan con una red de conocimiento más amplia.
¿Puede Ai hacerlo bien?
El estudio probó varios LLM, de GPT-4O y Claude 3.5 a Modelos de código abierto como Qwen-32b y Llama-3.3. Los resultados fueron Sorprendentemente prometedor—Los modelos pudieron reconstruir gráficos de coherencia con alta precisión, incluso debajo condiciones inciertas o ambiguas.
Curiosamente, Modelos optimizados para el razonamientocomo O1-Mini y QWQ-32Brealizó lo mejor. Esto sugiere que los sistemas de IA se capacitan específicamente para resolución de problemas estructurado puede superar a los LLM de uso general al manejar tareas de razonamiento complejos.
En el centro de Inferencia impulsada por la coherencia (CDI) es la idea de que el conocimiento no es solo una colección de Hechos aislados—Es una red de Verdades interdependientes. El método introducido por Huntsman y Thomas Structures Knowledge como un gráfico de coherenciadónde:
- Nodos Representar proposiciones (por ejemplo, «La Haya es la capital»).
- Bordes representar consistencia o inconsecuencia entre esas proposiciones.
Si una proposición Apoya a otroobtiene un conexión positiva. Si se contradicen dos declaraciones, reciben un conexión negativa. El objetivo? A Maximizar la coherencia separando declaraciones verdaderas y falsas en diferentes grupos.
El problema de encontrar la partición más coherente en un gráfico resulta ser matemáticamente equivalente a De color máximoun desafío computacional bien conocido. La IA neurosymbólica aborda esto combinando la comprensión del lenguaje natural de LLMS con el razonamiento basado en gráficos de CDI.
El enfoque de los investigadores se inspira en Tanto la psicología como la informática. CDI ha sido utilizado para modelar toma de decisiones humanasrazonamiento legal, e incluso Inferencia causal en la ciencia. Pero hasta ahora, los gráficos CDI tenían que construirse manualmente.
Para automatizar este proceso, el estudio propone un algoritmo que:
- Transforma las proposiciones de lenguaje natural en un gráfico de coherencia estructurado.
- Trains LLMS para reconstruir estos gráficosprobando su capacidad para identificar relaciones entre hechos.
- El rendimiento de los puntos de referencia en diferentes modelos de IAanalizando qué tan bien preservan la consistencia lógica.
Para probar qué tan bien los LLM manejan la inferencia impulsada por la coherencia, los investigadores generaron gráficos de coherencia sintética y los alimentaron a varios modelos de IA. Estos gráficos contenían declaraciones consistentes y contradictorias, desafiando a los modelos a identificar estructuras lógicas en lugar de simplemente regurgitar la información.
Probaron:
- Claude 3.5 y GPT-4O (LLMS comercial de alta gama)
- QWQ-32B, O1-MINI y LLAMA-3 (modelos de código abierto optimizados para razonamiento)
- Phi-4 y Géminis 1.5/2.0 (modelos más pequeños y medianos)
Los resultados mostraron que:
- Los modelos optimizados para el razonamiento (como O1-Mini y QWQ-32B) superaron significativamente las LLM de propósito general.
- Algunos modelos reconstruyeron con éxito el gráfico de coherencia original, incluso cuando se enfrentan a información incierta o ambigua.
- Los LLM tuvieron problemas con estructuras lógicas más complejas, particularmente cuando múltiples proposiciones eran interdependientes.
Esta investigación es un paso importante hacia IA verdaderamente inteligente. En lugar de tratar el lenguaje como un juego estadístico de adivinanzasla inferencia impulsada por la coherencia obliga a Ai a evaluar la consistencia lógicaconduciendo a:
- Salidas de IA más confiables (menos alucinación, razonamiento más preciso)
- Mejor explicación (Decisiones de IA basadas en estructuras lógicas explícitas)
- Resolución de problemas mejorada (aplicable a la ley, la ciencia y la gobernanza)
Crédito de imagen destacado: Tara Winstead/Pexels