Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Wie man künstliche Intelligenz nutzt, um Edge IoT zu optimieren

Wie man künstliche Intelligenz nutzt, um Edge IoT zu optimieren

WBOY
WBOYnach vorne
2023-05-16 11:04:131466Durchsuche

Da immer mehr Unternehmen IoT-Geräte (Internet of Things) mit Edge-Computing-Funktionen kombinieren, sind die Menschen zunehmend neugierig darauf, wie künstliche Intelligenz (KI) zur Optimierung dieser Anwendungen eingesetzt werden kann. Hier sind einige Möglichkeiten, die zum Nachdenken anregen.

Wie man künstliche Intelligenz nutzt, um Edge IoT zu optimieren

Verwendung von maschinellem Lernen zur Verbesserung der Inferenzgenauigkeit von IoT-Sensoren

Technologieforscher befinden sich noch im Anfangsstadium der Untersuchung, wie die Leistung von Edge-Deployed-IoT-Sensoren durch maschinelles Lernen verbessert werden kann. Zu den ersten Anwendungen gehört die Verwendung des Sensors zur Bildklassifizierung oder für Aufgaben, bei denen es um die Verarbeitung natürlicher Sprache geht. Aber es gibt ein Beispiel dafür, wie Menschen Fortschritte machen können.

Forscher des IMDEA-Netzwerks sind sich darüber im Klaren, dass die Verwendung von IoT-Sensoren für bestimmte Deep-Learning-Aufgaben dazu führen kann, dass der Sensor eine bestimmte Dienstqualität nicht garantieren kann, was beispielsweise zu Verzögerungen und einer verringerten Inferenzgenauigkeit führen kann. Um dieser Herausforderung zu begegnen, entwickelten die am Projekt beteiligten Forscher jedoch einen Algorithmus für maschinelles Lernen namens AMR2.

AMR2 nutzt die Edge-Computing-Infrastruktur, um IoT-Sensor-Schlussfolgerungen genauer zu machen und gleichzeitig eine schnelle Reaktion und Echtzeitanalyse zu ermöglichen. Experimente zeigen, dass die Argumentationsgenauigkeit nach Verwendung des Algorithmus im Vergleich zu den Ergebnissen grundlegender Planungsaufgaben ohne Verwendung des Algorithmus um 40 % erhöht ist.

Sie fanden heraus, dass effiziente Planungsalgorithmen wie dieser entscheidend dafür sind, dass IoT-Sensoren beim Einsatz am Edge ordnungsgemäß funktionieren. Ein Projektforscher wies darauf hin, dass die Verwendung des AMR2-Algorithmus durch Entwickler für einen Dienst ähnlich wie Google Bilder (der Bilder anhand der darin enthaltenen Elemente klassifiziert) Auswirkungen auf die Ausführungslatenz haben kann. Entwickler können diesen Algorithmus einsetzen, um sicherzustellen, dass Benutzer solche Verzögerungen bei der Verwendung der Anwendung nicht bemerken.

Edge AI reduziert den Energieverbrauch angeschlossener Geräte

Im Jahr 2023 ergab eine Studie unter CFOs von Technologieunternehmen, dass 80 % der Unternehmen im kommenden Jahr eine Umsatzsteigerung erwarteten. Um den Umsatz zu steigern, müssen die Mitarbeiter jedoch die Kundenbedürfnisse verstehen und Produkte oder Dienstleistungen entsprechend liefern.

Viele Hersteller von IoT-Geräten möchten, dass die Menschen ihre Produkte regelmäßig tragen. Einige tragbare Geräte können erkennen, wenn ein Alleinarbeiter gestürzt ist oder Schmerzen hat. Sie können auch erkennen, wenn eine körperlich anstrengende Tätigkeit übermüdet ist und eine Pause benötigt. In diesem Fall müssen Nutzer Vertrauen in ihre IoT-Geräte haben, dass diese am Arbeitsplatz und darüber hinaus zuverlässig funktionieren.

Das ist einer der Gründe, warum Forscher untersuchen, wie Edge-KI die Energieeffizienz von IoT-Geräten verbessern kann. Mit IoT-Geräten wird untersucht, welche Auswirkungen längeres Sitzen auf die Gesundheit hat und wie eine richtige Haltung die Ergebnisse verbessern kann. Jedes IoT-Gerät, das Lebensstildaten erfasst, muss kontinuierlich Daten erfassen, daher besteht kaum oder gar keine Chance, dass es die Erfassung von Informationen einstellt, weil die Batterie des Geräts leer ist.

Um die oben genannte Situation zu vermeiden, werden die von den Probanden getragenen drahtlosen Geräte normalerweise mit Knopfbatterien betrieben. Normalerweise verfügt jedes Gerät über Trägheitssensoren, die genaue Daten darüber sammeln, wie viel sich Menschen im Laufe des Tages bewegen. Das Hauptproblem besteht jedoch darin, dass aufgrund der großen übertragenen Datenmenge die Akkuleistung nur für wenige Stunden reicht. Untersuchungen zeigen beispielsweise, dass ein Neun-Kanal-Bewegungssensor, der 50 Abtastwerte pro Sekunde liest, mehr als 100 MB Daten an einem Tag generiert.

Dennoch erkennen Forscher, dass maschinelles Lernen es Algorithmen ermöglichen kann, nur kritische Daten von IoT-Geräten, die am Edge eingesetzt werden, an Smartphones oder andere Geräte zu übertragen, die bei der Analyse der Informationen helfen. Sie verwendeten weiterhin vorab trainierte wiederkehrende neuronale Netze und stellten fest, dass der Algorithmus Echtzeitleistung erzielte und die Funktionalität von IoT-Geräten verbessern konnte.

Schaffen Sie Möglichkeiten für geräteseitige Schulungen zu künstlicher Intelligenz.

Fortschritte im Edge-Computing bieten Möglichkeiten, intelligente Geräte an mehr Orten zu nutzen. Beispielsweise wurde vorgeschlagen, intelligente Straßenlaternen einzusetzen, die basierend auf der Verkehrslage in Echtzeit ein- und ausgeschaltet werden können. Technologieforscher und -begeisterte sind auch an den erweiterten Trainingsmöglichkeiten für künstliche Intelligenz interessiert, die direkt auf IoT-Geräten am Edge eingesetzt werden. Dieser Ansatz kann die Produktfunktionalität verbessern und gleichzeitig den Energieverbrauch senken und den Datenschutz verbessern.

Ein Team am MIT hat die Machbarkeit des Trainings von Algorithmen der künstlichen Intelligenz auf Smart-Edge-Geräten untersucht. Sie versuchten, mehrere Techniken zu optimieren, von denen eine nur 157 KB Speicher benötigt, um Algorithmen für maschinelles Lernen auf einem Mikrocontroller zu trainieren, während andere leichte Trainingsmethoden typischerweise 300–600 MB Speicher erfordern. Diese Innovation führte zu erheblichen Verbesserungen.

Alle während des Trainings generierten Daten verbleiben auf dem Gerät, wodurch das Risiko von Datenschutzverletzungen verringert wird, erklärten die Forscher. Sie stellen auch Anwendungsfälle für das Training während des normalen Gebrauchs vor, beispielsweise ob der Algorithmus durch das Tippen auf einer Smart-Tastatur lernen kann.

Dieser Ansatz führt sicherlich zu beeindruckenden Ergebnissen. In einem Fall trainierte das Team den Algorithmus nur zehn Minuten lang, bevor er Personen auf Bildern erkennen konnte. Dieses Beispiel zeigt, dass die Optimierung in beide Richtungen gehen kann.

Während sich die ersten beiden Beispiele auf die Verbesserung der Funktionsweise von IoT-Geräten konzentrieren, verbessert dieser Ansatz auch den KI-Trainingsprozess. Es würde jedoch sowohl den KI-Algorithmen als auch den IoT-Edge-Geräten zugute kommen, wenn Entwickler die Algorithmen auf IoT-Geräten trainieren und eine bessere Leistung erzielen könnten.

Wie kann man künstliche Intelligenz nutzen, um die Funktionsweise von IoT-Edge-Geräten zu verbessern?

Diese Beispiele veranschaulichen den Fokus der Forscher, die untersuchen, wie künstliche Intelligenz die Funktionalität von IoT-Geräten verbessern kann, die am Edge eingesetzt werden. Ich hoffe, dass diese Ihnen wertvolle Erkenntnisse und Inspiration liefern. Es ist immer am besten, mit einem klar definierten Problem zu beginnen und dann nach Technologien und innovativen Ansätzen zu suchen, die Ihnen beim Erreichen Ihrer Ziele helfen können.

Das obige ist der detaillierte Inhalt vonWie man künstliche Intelligenz nutzt, um Edge IoT zu optimieren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen