Künstliche Intelligenz hat ein fundamentales Problem: Beim Erlernen neuer Fähigkeiten vergisst sie oft abrupt ihr vorheriges Wissen.
Dieses Phänomen, bekannt als “Catastrophic Forgetting”, betrifft nicht nur traditionelle neuronale Netzwerke, sondern stellt auch bei biologisch inspirierten Modellen wie Spiking Neural Networks SNNs eine Herausforderung dar.
Während Menschen neue Fertigkeiten erlernen können, ohne dabei alte zu verlieren, überschreiben neuronale Netzwerke bei neuen Aufgaben häufig ihre bereits erlernten Parameter. Bei Spiking Neural Networks (SNNs) verhindert die Kodierung von Informationen in Spikes nicht das katastrophale Vergessen während des kontinuierlichen Lernens. Dies führt zu einem drastischen Leistungsabfall bei früheren Tasks – ein inakzeptabler Zustand für praktische Anwendungen.
Plastizität bezeichnet in KI-Modellen die Fähigkeit von Netzwerken, ihre Struktur und Parameter als Reaktion auf neue Erfahrungen zu verändern. Diese Anpassungsfähigkeit ermöglicht Lernen, kann aber auch zum Überschreiben bereits erworbenen Wissens führen.
Klassische Ansätze für traditionelle Netzwerke
Experience Replay stellt eine der bewährtesten Methoden dar. Hierbei werden repräsentative Daten aus vergangenen Lernphasen gespeichert und kontinuierlich mit neuen Trainingsdaten gemischt. Alternativ kann “Deep Generative Replay” synthetische Daten alter Tasks erzeugen, ohne echte Daten speichern zu müssen.
Elastic Weight Consolidation (EWC) nutzt die Fisher Information Matrix, um Parameter zu identifizieren, die für vorherige Aufgaben kritisch sind. Diese werden durch Regularisierung vor Überschreibung geschützt. Eine Weiterentwicklung kombiniert EWC mit variationellen Methoden für noch bessere Ergebnisse.
Weight Interpolation bietet einen eleganten Ansatz: Nach dem Training mit neuen Daten werden die Gewichte zwischen dem alten und neuen Modell interpoliert, um eine ausgewogene Wissenskonsolidierung zu erreichen.
Spezielle Herausforderungen bei Spiking Neural Networks
SNNs bringen einzigartige Eigenschaften mit sich: Ihre zeitbasierte Informationsverarbeitung und lokalen Lernregeln können theoretisch zu besserer Kontinuität führen, jedoch treten praktisch ähnliche Vergessens-Probleme auf. Innovative Ansätze nutzen daher biologisch inspirierte Mechanismen wie Metaplastizität – die Modifikation der Plastizitätseigenschaften selbst durch Neuromodulatoren.
Probabilistische Metaplastizität mit Memristoren zeigt vielversprechende Ergebnisse für kontinuierliches Lernen in ressourcenbeschränkten Edge-Geräten. Trotz der niedrigen Präzision von Memristoren können diese Ansätze katastrophales Vergessen erfolgreich mildern.
Controlled Forgetting nutzt gezielte Stimulation und dopaminerge Plastizitätsmodulation für unüberwachtes lebenslanges Lernen. Lokalisierte Lernregeln bieten dabei die gewünschte Segmentierung zwischen verschiedenen Wissensdomänen.
Optimierung der Lernreihenfolge
Forschungsergebnisse zeigen, dass die Reihenfolge des Task-Lernens entscheidend ist: Training mit unterschiedlichen Tasks zuerst und ähnlichen Tasks später reduziert das Vergessen erheblich.
Knowledge Distillation als Brückentechnologie
Complementary Online Knowledge Distillation verwendet dynamisch aktualisierte Teacher-Modelle, um ausgewogenes Training zu gewährleisten und das Problem unausgewogener Trainingsdaten zu lösen.
Fazit
Die Kombination verschiedener Ansätze – von Replay-Methoden über Parameter-Regularisierung bis hin zu architekturellen Innovationen – ermöglicht es modernen KI-Systemen, kontinuierlich zu lernen, ohne ihr wertvolles Vorwissen zu verlieren. Diese Technologien sind entscheidend für die Entwicklung robuster, adaptiver KI-Systeme in der Praxis.