Long Short-Term Memory
Kurzbeschriebung
Long Short-Term Memory (LSTM) ist eine spezielle Architektur rekurrenter neuronaler Netze (RNNs), die entwickelt wurde, um langfristige zeitliche Abhängigkeiten in Sequenzdaten zu modellieren. Im Gegensatz zu klassischen RNNs adressieren LSTMs explizit das Problem des Verschwindens bzw. Explodierens von Gradienten.
Der Kern eines LSTM ist die Speicherzelle, deren Zustand über die Zeit weitergegeben wird. Drei Gates steuern den Informationsfluss: das Forget-Gate entscheidet, welche Informationen verworfen werden, das Input-Gate welche neuen Informationen gespeichert werden, und das Output-Gate welche Teile des Zellzustands nach außen weitergegeben werden.
Formal lassen sich die Gate-Operationen etwa schreiben als '"`UNIQ--math-00000000-QINU`"', '"`UNIQ--math-00000001-QINU`"', '"`UNIQ--math-00000002-QINU`"', wobei der Zellzustand gezielt additiv aktualisiert wird. Diese Struktur ermöglicht es LSTMs, relevante Information über viele Zeitschritte hinweg zu bewahren.
LSTMs sind hochflexibel und können nichtlineare, verzögerte Effekte modellieren. Sie sind jedoch rechnerisch aufwendig, schwer parallelisierbar und im Vergleich zu neueren Architekturen (TCN, Transformer) oft langsamer zu trainieren.
Anwendbarkeit im Gesundheitssektor
Im Gesundheitswesen werden LSTMs häufig zur Analyse medizinischer Zeitreihen eingesetzt, etwa bei Vitalparametern, Intensivstationsdaten, longitudinalen EHRs oder Biosignalen. Sie eignen sich besonders für Aufgaben, bei denen historische Abhängigkeiten über lange Zeiträume relevant sind, z. B. Frühwarnsysteme oder Verlaufsvorhersagen.
In Public Health kommen LSTMs bei der Zeitreihenprognose von Fallzahlen, Hospitalisierungen oder Ressourcenbedarf sowie bei der Modellierung komplexer Surveillance-Daten zum Einsatz. Sie werden oft als Baseline oder Vergleichsmodell für modernere Sequenzmodelle genutzt und sind primär prädiktiv, nicht kausal.
Sonstiges
Bewährt für Sequenz- und Zeitreihendaten
Schwer parallelisierbar, sequenzielle Berechnung
Zahlreiche Varianten (BiLSTM, Stacked LSTM, ConvLSTM)
Semantik
Wikidata-Identifikator ist: Q170350
Deutsche Wikipediaseite ist: https://de.wikipedia.org/wiki/Long_Short-Term_Memory
Englische Wikipediaseite ist: Long_short-term_memory
Quelle: Hochreiter & Schmidhuber (1997), Long Short-Term Memory
Behandlung von Unsicherheit in den Ergebnissen der Methode ist implizit
Für die Methode benötigte Datenmenge ist mittel;groß„Mittel;groß“ befindet sich nicht in der Liste (Groß, Mittel, Klein) zulässiger Werte für das Attribut „Für die Methode benötigte Datenmenge ist“.
Zweck der Methode ist Vorhersage„Vorhersage“ befindet sich nicht in der Liste (Voraussage, Inferenz, Simulation, Kausale Analyse) zulässiger Werte für das Attribut „Zweck der Methode ist“.
Methode ist Mitglied der Methodenfamilie Tiefes Lernen;Maschinelles Lernen;Operationale Vorhersage„Tiefes Lernen;Maschinelles Lernen;Operationale Vorhersage“ befindet sich nicht in der Liste (Mechanistisch, Statistisch, Maschinenlernen, Tiefes Lernen, Hybrid, Kausale Inferenz, Simulation, Operationale Vorhersage, Beschreibende und erkundende Analyse, Praktisches Anwendungskonzept, ...) zulässiger Werte für das Attribut „Methode ist Mitglied der Methodenfamilie“.
Interpretierbarkeit der Ergebnisse der Methode ist schlecht
Webseite: https://colah.github.io/posts/2015-08-Understanding-LSTMs/