Der Aufstieg der Embedded Ml Verändert sich, wie Geräte mit der Welt interagieren und die Grenzen dessen überschreiten, was mit begrenzten Ressourcen möglich ist. Diese Anwendungen, von intelligenten Wearables bis hin zu Industriesensoren, erfordern ein empfindliches Gleichgewicht zwischen Leistung, Stromverbrauch und Privatsphäre.
Vladislav Agafonov, ein Experte für maschinelles Lernen bei Meta Reality Labs UK (früher Oculus VR) versteht diese Herausforderungen eng.
„Eingebettetes maschinelles Lernen ist sowohl faszinierend als auch herausfordernd, da wir Deep Learning -Modelle auf Geräten mit sehr begrenztem Gedächtnis und Prozessorleistung durchführen“, sagte Agafonov.
Laut Agafonov ist eine der anhaltendsten Herausforderungen darin, Modelle für Geräte mit eingeschränkter Rechenleistung und Speicher zu optimieren.
„Die anhaltendste Herausforderung besteht darin, die Genauigkeit der Modellgenauigkeit mit begrenztem On-Chip-Speicher und eingeschränkter Verarbeitungsleistung auszugleichen“, sagte Agafonov.
Um dies anzugehen, sind Techniken wie Quantisierung und Beschneiden von entscheidender Bedeutung. Die Quantisierung reduziert die Anzahl der Bits, die zum Speichern von Modellgewichten verwendet werden, häufig von 32 Bits auf 8 oder weniger, wobei der Speicherverbrauch erheblich abschneidet. Das Beschneiden hingegen beseitigt unnötige Verbindungen im Netzwerk, schrumpft die Größe des Modells und beschleunigt die Inferenz.
„Ich achte auch auf Operation Fusion, was bedeutet, mehrere Schritte in der Berechnung zu verschmelzen, um die Speicherung großer Zwischenergebnisse im Speicher zu vermeiden“, sagte Agafonov. „In ähnlicher Weise kann die Verwendung von DIR -Speicherzugriff (DMA) Sensordaten ohne zusätzliche Kopien direkt in die Berechnungsmaschine fließen lassen, wodurch die Latenz reduziert wird.“
Durch akribisch profilieren Sie jeden Schritt, Messung von Zyklen, Speicherpflichtzdruck und Stromverbrauch können die Ingenieure optimieren, wo es am wichtigsten ist, und die anspruchsvollen Modellen in nur wenige hundert Kilobyten Speicher einfügen.
Hardwarebeschleunigung und Softwareoptimierung
Die Hardwarebeschleunigung ist eine weitere kritische Komponente von eingebettetem ML. Spezialisierte Chips wie NPUs (Neural Processing Units) und TPUs (Tensor Processing Units) verarbeiten parallele Verarbeitung und beschleunigen die Folgerung des neuronalen Netzwerks drastisch und minimieren gleichzeitig die Stromverbrauch.
„Hardware -Beschleunigung ist absolut der Schlüssel zum Ausführen von ausgefeilten ML -Modellen auf eingebetteten Geräten“, sagte Agafonov. „Aber wenn sich diese Chips entwickeln, bleibt die Softwareoptimierung genauso wichtig.“
Frameworks wie Executorch wollen den Entwicklungsprozess durch die Behandlung von Details auf niedriger Ebene vereinfachen, z. B. die Zuordnung von Workloads auf verschiedene Beschleuniger und das effiziente Verwalten des Speichers.
„Anstatt Stunden damit zu verbringen, jeden Teil Ihres Codes für jeden neuen Chip von Hand zu optimieren, können Sie sich auf den Rahmen verlassen, um das schwere Heben durchzuführen“, sagte Agafonov.
Dies ermöglicht es Entwicklern, sich auf die Modelle für maschinelles Lernen selbst zu konzentrieren, und nicht auf die Feinheiten der Hardwareoptimierung.
Privatsphäre und Verbund lernen
Privatsphäre ist ein wachsendes Problem, und eingebettete ML bietet den Vorteil der lokalen Datenverarbeitung.
„Einer der großen Gründe, die eingebettetes ML ausgebettet ist, ist so wertvoll, dass Daten direkt auf dem Gerät verarbeitet werden können, wodurch die Notwendigkeit, vertrauliche Informationen über ein Netzwerk zu senden oder sogar zu beseitigen“, sagte Agafonov.
Das Federated Learning führt dieses Konzept weiter und ermöglicht es Geräten, Modelle lokal zu schulen und nur aggregierte Updates mit einem zentralen Server auszutauschen.
„Anstatt die Daten aller in einer zentralen Datenbank zu sammeln, trainiert jedes Gerät das Modell unabhängig voneinander, wobei seine eigenen lokalen Informationen verwendet werden“, sagte Agafonov. „Dann sendet es nur ein“ Update „oder eine Zusammenfassung dessen, was es gelernt hat – nicht die Rohdaten selbst.“
Dieser Ansatz verbessert die Privatsphäre, indem die Übertragung von Rohbenutzungsdaten verhindert wird, insbesondere für sensible Anwendungen wie Gesundheit und persönliche Wearables.
Der Aufstieg von Tinyml
Tinyml, die Anwendung von maschinellem Lernen auf extrem ressourcenbezogenen Geräten wie Mikrocontrollern, gewinnt an Dynamik.
„Denken Sie an einen kleinen Chip mit nur wenigen hundert Kilobyten Speicher, der noch Aufgaben wie Klassifizierung oder Erkennung übernehmen muss, ohne eine Batterie zu entleeren“, sagte Agafonov.
Anwendungen wie Umweltüberwachung und industrielle Vorhersagewartung sind erstklassige Beispiele.
„Kleine, batteriebetriebene Sensoren können bestimmte tierische Klänge oder Änderungen der Luftqualität erkennen und dann sinnvolle Warnungen übertragen, ohne die Leistung auf konstantes Datenstroming zu verschwenden“, sagte Agafonov. „In der Industrie können Mikrocontroller frühe Anzeichen eines Maschinenversagens erkennen, indem sie Vibrationen oder Temperaturspitzen überwachen, wodurch kostspielige Aufschlüsse verhindern.“
Das Wachstum von Tinyml wird durch Fortschritte in Hardware und Software angetrieben. Zu den Mikrocontrollern gehören jetzt spezielle Verarbeitungsblöcke und leichte ML -Frameworks vereinfachen die Modelloptimierung und -bereitstellung.
Eintauchende Erfahrungen und zukünftige Trends
Bei Meta -Reality -Labors wird eingebettetes ML verwendet, um immersive Erfahrungen zu verbessern.
„Wir nutzen eingebettete ML, um immersive Erlebnisse natürlicher und reaktionsschneller zu machen.
Technische Probleme bleiben jedoch bestehen. „Eine wesentliche Hürde ist es, den Stromverbrauch mit der Notwendigkeit einer nahezu fehlenden Inferenz auszugleichen“, sagte Agafonov. „Eine andere stellt sicher, dass die Modelle unter allen Bedingungen genau bleiben.“
Mit Blick auf die Zukunft sieht Agafonov mehrere wichtige Trends, die die Zukunft von eingebettetem ML prägen. Die wachsende Einführung von Tinyml- und ML-fähigen Mikrocontrollern, die Ausweitung der Hardwarebeschleunigung mit spezialisierten ML-Chips und die zunehmende Verwendung des föderierten Lernens für die Datenverarbeitung von Datenschutzdaten sind bereit, die Innovation in diesem Bereich voranzutreiben.
Da sich eingebettete ML weiterentwickelt, wird die Fähigkeit, Macht, Privatsphäre und Leistung auszugleichen, entscheidend sein, um ihr volles Potenzial auszuschöpfen.