Forscher behaupten, dass ihre Maschinenlernmethode in der Lage war, KI-Modelle mit weniger Ressourcen fein abzustimmen, während die Genauigkeit erhalten blieb, was zur Verbesserung von KI auf kleineren Geräten wie Smartphones genutzt werden könnte. Eine neue Trainingsmethode von Forschern am Massachusetts Institute of Technology (MIT) könnte verwendet werden, um kontinuierliches Lernen für KI auf Edge-Computing-Geräten zu ermöglichen.
Die Forscher sagten, dass Techniken des tiefen Lernens dabei helfen können, dass KI-Chatbots Benutzerakzente verstehen oder das nächste Wort vorhersagen, das jemand auf der Grundlage seiner Tippgeschichte eingeben wird. Aber diese Funktionen erfordern eine Feinabstimmung des KI-Modells mit neuen Daten.
Das Team sagte, dies wird auf Smartphones und kleinen Edge-Geräten zum Problem, da sie unter Umständen nicht über den erforderlichen Speicher und die erforderliche Rechenleistung für diesen Feinabstimmungsprozess verfügen. Ein Weg, dieses Problem zu umgehen, besteht durch Cloud-Server, aber dies bringt sowohl Energieprobleme als auch Sicherheitsrisiken in Bezug auf sensible Daten mit sich.
Um dieses Problem zu beheben, behauptet das Team, eine Technik entwickelt zu haben, die es Tiefenlernmodellen ermöglicht, sich effizient an neue Sensordaten anzupassen, direkt auf einem Edge-Gerät. Diese Trainingsmethode - die die Forscher PockEngine nennen - kann bestimmen, welche Teile des Maschinenlernmodells aktualisiert werden müssen, um die Genauigkeit zu verbessern.
Diese Methode speichert und rechnet dann nur mit diesen spezifischen Teilen. Das Team sagte, dass Tiefenlernmodelle auf neuronalen Netzwerken basieren, die viele miteinander verbundene Schichten von Knoten umfassen, die Daten verarbeiten, um eine Vorhersage zu treffen. Aber nicht alle Schichten im neuronalen Netzwerk sind wichtig für die Verbesserung der Genauigkeit.
Das Team sagte, dass für die Schichten, die wichtig sind, möglicherweise nicht die gesamte Schicht aktualisiert werden muss. Die PockEngine-Methode ist darauf ausgelegt, jede Schicht auf eine bestimmte Aufgabe abzustimmen und die Verbesserung der Genauigkeit nach jeder einzelnen Schicht zu messen. PockEngine identifiziert dann den Beitrag jeder Schicht und die Abwägungen zwischen Genauigkeit und Feinabstimmungskosten, um den Prozentsatz jeder Schicht zu ermitteln, der fein abgestimmt werden muss.
Das Team sagte, dass diese Trainingsmethode ihre Aufgaben vor der Laufzeit ausführen kann, um die erforderliche Rechenleistung zu minimieren und die Geschwindigkeit des Feinabstimmungsprozesses zu steigern. Die Forscher behaupten, PockEngine war in der Lage, 15 Mal schneller als andere Methoden auf einigen Hardwareplattformen zu arbeiten, ohne dass die Genauigkeit abnahm. „Die Feinabstimmung auf dem Gerät kann eine bessere Privatsphäre, geringere Kosten, Anpassungsfähigkeit und auch lebenslanges Lernen ermöglichen, aber es ist nicht einfach“, sagte MIT-Associate-Professor Song Han. „Alles muss mit einer begrenzten Anzahl von Ressourcen geschehen. „Wir wollen nicht nur Inferenz, sondern auch Training auf einem Edge-Gerät durchführen können. Mit PockEngine können wir das jetzt.“