Die Smart -Home -Technologie verändert sich für immer und eine der wirkungsvollsten Anwendungen ist Menschliche Aktivitätserkennung (HAR). HAR ermöglicht es intelligente Systeme, tägliche Aktivitäten wie Kochen, Schlafen oder Training zu überwachen und wesentliche Unterstützung in Bereichen wie Gesundheitswesen und betreutem Leben zu bieten. Während Deep-Learning-Modelle die Hargenauigkeit in der Harde erheblich verbessert haben, wirken sie häufig als „schwarze Kisten“ und bieten wenig Transparenz in ihren Entscheidungsprozess.
Um dies anzusprechen, haben Forscher der Universität Mailand – Michele Fiori, Davide Mor, Gabriele Civitaresen und Claudio Bettini – – eingeführt Gnn-xarder erste Erklärbares Graph Neural Network (GNN) für die Erkennung von Smart -Home -Aktivitäten. Dieses innovative Modell verbessert nicht nur die HAR-Leistung, sondern erzeugt auch menschlich-lesbare Erklärungen für seine Vorhersagen.
Die Notwendigkeit einer erklärbaren KI in Smart Homes
Die meisten vorhandenen HAR -Systeme verlassen sich auf Deep -Learning -Modelle wie Faltungsnetzwerke (CNNs) und wiederkehrende neuronale Netzwerke (RNNs). Obwohl diese Modelle effektiv sind, haben diese Modelle mit der Erklärung zu kämpfen, was es den Benutzern – einschließlich medizinischer Fachkräfte und Datenwissenschaftler – schwer macht, zu verstehen, warum eine bestimmte Aktivität erkannt wurde. Erklärbare KI (XAI) versucht, dies zu mildern, indem Sie Einblicke in Modellentscheidungen geben und das Vertrauen und die Benutzerfreundlichkeit in realen Anwendungen verbessern.
Graph Neural Networks (GNNs) haben sich als leistungsstarkes Tool zur Modellierung von Zeitreihensensordaten in Smart Homes entwickelt, so wie sie können Erfassen Sie sowohl räumliche als auch zeitliche Beziehungen zwischen Sensorwerte. In der vorhandenen HAR-Basis von GNN-basierten HAR-Ansätzen fehlt jedoch eine integrierte Erklärung. Hier unterscheidet sich GNN-Xar selbst und bietet eine innovative Lösung, die sich kombiniert Graph-basierte HAR mit Interpretierbarkeitsmechanismenes zum ersten seiner Art auf dem Feld zu machen.
Emoti-Angriff: Wie Emojis AI-Sprachmodelle ausüben kann
Wie Gnn-Xar funktioniert
GNN-Xar führt einen Roman ein Graph-basierter Ansatz zur Sensordatenverarbeitung. Anstatt Sensorwerte als isolierte Ereignisse zu behandeln konstruiert dynamische Graphen Diese Modellbeziehungen zwischen verschiedenen Sensoren im Laufe der Zeit. Jedes Diagramm wird mit a verarbeitet Graph Faltungsnetzwerk (GCN)was die wahrscheinlichste Aktivität identifiziert, die ausgeführt wird. Um Transparenz zu gewährleisten, eine angepasste XAI -Technik speziell für GNNs entwickelt Markiert die relevantesten Knoten (Sensorwerte) und Bögen (zeitliche Abhängigkeiten), die zur endgültigen Vorhersage beitrugen.
Der Grafikkonstruktionsprozess ist eine wichtige Innovation in GNN-Xar. Sensorereignisse wie Bewegungserkennung, Geräteverbrauch und Türöffnungen werden als Knoten dargestellt, während die Kanten ihre zeitlichen und räumlichen Beziehungen erfassen. Das System unterscheidet zwischen zwei Sensortypen:
- Explizite Interaktionssensoren (z. B. Schrank -Türsensoren), die sowohl für Ereignisse als auch aus dem Ausgang erzeugen.
- Passive Sensoren (z. B. Bewegungsdetektoren), bei denen nur Aktivierungsereignisse und Dauer berechnet werden.
Um Struktur und Effizienz aufrechtzuerhalten, führt das System ein Super-Noten Diese gruppenbezogenen Sensorereignisse. Dadurch kann das GNN -Modell komplexe Sensorinteraktionen verarbeiten und gleichzeitig Berechnungen überschaubar halten.
Wie Gnn-Xar seine Entscheidungen erklärt
Im Gegensatz zu herkömmlichen Deep Learning-Modellen, die nur Klassifizierungsausgaben liefern, verwendet GNN-XAR Gnnexplainereine spezielle XAI-Methode, die auf graphbasierte Modelle zugeschnitten ist. Diese Methode identifiziert die wichtigsten Knoten und Kanten, die eine Vorhersage beeinflussten. Die wichtigste Innovation in GNN-XAR ist die Anpassung von GnNnexplainer, um nahtlos mit Smart-Home-Daten zu arbeiten, um sicherzustellen, dass Erklärungen beide sind Genau und menschlich lesbar.
Wenn das System beispielsweise „Mahlzeitenzubereitung“ vorhersagt, kann es Ereignisse wie z. Wiederholte Kühlschranköffnungen, gefolgt von der Ofenaktivierungeine logische und verständliche Begründung für seine Klassifizierung. Das Modell wandelt diese Erklärung dann in die natürliche Sprache um und macht es nicht-Experten-Benutzern zugänglich.
Experimentelle Ergebnisse
GNN-XAR wurde an zwei öffentlichen Smart-Home-Datensätzen getestet-Casas Mailand Und Casas Aruba– die Sensordaten aus realen Häusern enthalten. Das Modell wurde gegen bewertet Dexarein hochmodernes erklärbares HAR-System, das CNN-basierte Methoden verwendet. Die Ergebnisse zeigten, dass GNN-Xar nicht nur bereitgestellt wurde genauere Vorhersagen aber auch erzeugt sinnvollere Erklärungen Im Vergleich zu vorhandenen XAI-basierten HAR-Methoden.
Zu den wichtigsten Ergebnissen gehören:
- Etwas höhere Erkennungsgenauigkeit als Dexar, insbesondere für Aktivitäten mit starken zeitlichen Abhängigkeiten (z. B. „Zuhause“).
- Überlegene Erklärunggemessen anhand einer Bewertungsmethode unter Verwendung von großsprachigen Modellen (LLMs) zur Bewertung der Erklärung der Klarheit und Relevanz.
- Verbessertes Umgang mit komplexen Sensorbeziehungenzuverlässigere HAR -Leistung ermöglichen.
Ausgewähltes Bildnachweis: Ihor Saveliev/Unsplash