La tecnología del hogar inteligente está cambiando para siempre, y una de sus aplicaciones más impactantes es Reconocimiento de la actividad humana (HAR). HAR permite que los sistemas inteligentes monitoreen actividades diarias como cocinar, dormir o hacer ejercicio, brindando apoyo esencial en dominios como la atención médica y la vida asistida. Sin embargo, si bien los modelos de aprendizaje profundo han mejorado significativamente la precisión de Har, a menudo operan como «cajas negras», ofreciendo poca transparencia en su proceso de toma de decisiones.
Para abordar esto, los investigadores de la Universidad de Milán, Michele Fiori, Davide Mor, Gabriele Civitarese y Claudio Bettini, tienen introducido Gnn-xarla primera Red neural (GNN) explicable para el reconocimiento de actividades domésticas inteligentes. Este modelo innovador no solo mejora el rendimiento HAR, sino que también genera explicaciones legibles por humanos para sus predicciones.
La necesidad de una IA explicable en casas inteligentes
La mayoría de los sistemas HAR existentes se basan en modelos de aprendizaje profundo como Redes neuronales convolucionales (CNN) y redes neuronales recurrentes (RNN). Si bien son efectivos, estos modelos luchan con la explicabilidad, lo que dificulta que los usuarios, incluidos profesionales médicos y científicos de datos, comprendan por qué se detectó una actividad específica. Explicable ai (xai) busca mitigar esto proporcionando información sobre las decisiones del modelo, mejorando la confianza y la usabilidad en las aplicaciones del mundo real.
Las redes neuronales Graph (GNN) han surgido como una herramienta poderosa para modelar datos de sensores de series de tiempo en hogares inteligentes, ya que pueden capturar relaciones espaciales y temporales entre las lecturas del sensor. Sin embargo, los enfoques HAR basados en GNN existentes carecen de explicabilidad incorporada. Aquí es donde se diferencia GNN-XAR, ofreciendo una solución innovadora que combina HAR basado en gráficos con mecanismos de interpretabilidadconvirtiéndolo en el primero de su tipo en el campo.
Emoti-Attack: Cómo los emojis pueden engañar a los modelos de idiomas AI
Cómo funciona GNN-XAR
GNN-XAR presenta una novela enfoque basado en gráficos al procesamiento de datos del sensor. En lugar de tratar las lecturas del sensor como eventos aislados, Construye gráficos dinámicos Ese modelo de relaciones entre diferentes sensores a lo largo del tiempo. Cada gráfico se procesa utilizando un Red convolucional gráfica (GCN)que identifica la actividad más probable que se realiza. Para garantizar la transparencia, un adaptado Técnica XAI diseñada específicamente para GNNS Destaca los nodos más relevantes (lecturas de sensores) y ARCS (dependencias temporales) que contribuyeron a la predicción final.
El proceso de construcción de gráficos es una innovación clave en GNN-XAR. Los eventos del sensor, como detecciones de movimiento, uso de electrodomésticos y aberturas de puerta, se representan como nodos, mientras que los bordes capturan sus relaciones temporales y espaciales. El sistema distingue entre dos tipos de sensores:
- Sensores de interacción explícitos (por ejemplo, sensores de puerta del gabinete), que generan eventos de encendido y apagado.
- Sensores pasivos (por ejemplo, detectores de movimiento), donde solo se calculan los eventos de activación, y la duración se calcula.
Para mantener la estructura y la eficiencia, el sistema presenta super-nodos Ese grupo relacionó los eventos del sensor. Esto permite que el modelo GNN procese interacciones complejas del sensor mientras mantiene los cálculos manejables.
Cómo GNN-XAR explica sus decisiones
A diferencia de los modelos tradicionales de aprendizaje profundo, que proporcionan solo salidas de clasificación, usa GNN-XAR GnnexplainerUn método XAI especializado adaptado para modelos basados en gráficos. Este método identifica los nodos y bordes más importantes que influyeron en una predicción. La innovación clave en GNN-XAR es su adaptación de GNNExPlainer para trabajar sin problemas con los datos del hogar inteligente, asegurando que las explicaciones sean ambas. preciso y legible.
Por ejemplo, si el sistema predice «preparación de comidas», puede resaltar eventos como Aberturas repetidas de nevera seguidas de la activación de la estufaproporcionando una justificación lógica y comprensible para su clasificación. El modelo luego convierte esta explicación en lenguaje natural, lo que la hace accesible para usuarios no expertos.
Resultados experimentales
GNN-XAR se probó en dos conjuntos de datos de casas inteligentes.Casas Milán y Casas aruba—En contiene datos del sensor de casas reales. El modelo fue evaluado contra Dexarun sistema HAR explicable de última generación que utiliza métodos basados en CNN. Los resultados mostraron que GNN-XAR no solo proporcionó predicciones más precisas pero también generado Explicaciones más significativas en comparación con los métodos HAR basados en XAI existentes.
Los hallazgos clave incluyen:
- Precisión de reconocimiento ligeramente mayor que Dexar, especialmente para actividades con fuertes dependencias temporales (por ejemplo, «saliendo de casa»).
- Explicabilidad superiorsegún lo medido por un método de evaluación utilizando modelos de lenguaje grande (LLM) para evaluar la claridad y la relevancia de explicación.
- Manejo mejorado de relaciones complejas de sensorespermitiendo un rendimiento HAR más confiable.
Crédito de imagen destacado: Ihor Saveliev/Unsplash