Attributwerte einer Seite

Zur Navigation springen Zur Suche springen
Attributwerte einer Seite

Entweder eine Seite und ein Attribut angeben oder nur ein Attribut, um alle zugewiesenen Werte zu erhalten.

⧼showingresults⧽

Zeige (vorherige 20 | nächste 20) (20 | 50 | 100 | 250 | 500)


    

Liste der Ergebnisse

  • Aufgrund dieser Schwierigkeiten wurden speAufgrund dieser Schwierigkeiten wurden spezialisierte Architekturen wie LSTM und GRU entwickelt, die klassische RNNs in vielen Anwendungen ersetzt haben. Dennoch bilden einfache RNNs die konzeptionelle Grundlage für das Verständnis rekurrenter Modellierung. das Verständnis rekurrenter Modellierung.  +
  • Das Training erfolgt über Backpropagation Das Training erfolgt über Backpropagation Through Time (BPTT), bei dem Gradienten entlang der Zeitdimension zurückpropagiert werden. Klassische RNNs leiden dabei häufig unter dem Problem verschwindender oder explodierender Gradienten, was die Modellierung langer Abhängigkeiten erschwert.ellierung langer Abhängigkeiten erschwert.  +
  • Formal wird der verborgene Zustand rekursiFormal wird der verborgene Zustand rekursiv aktualisiert, z. B.</br>'"`UNIQ--math-00000005-QINU`"',</br>wobei '"`UNIQ--math-00000006-QINU`"' die Eingabe zum Zeitpunkt '"`UNIQ--math-00000007-QINU`"', '"`UNIQ--math-00000008-QINU`"' der verborgene Zustand und '"`UNIQ--math-00000009-QINU`"' eine Nichtlinearität ist. Die gleiche Gewichtsmatrix wird über alle Zeitschritte geteilt, was RNNs besonders kompakt macht.geteilt, was RNNs besonders kompakt macht.  +
  • Rekurrente neuronale Netze (RNNs) sind einRekurrente neuronale Netze (RNNs) sind eine Klasse neuronaler Netzwerke zur Verarbeitung sequenzieller Daten, bei denen der Zustand eines Neurons von aktuellen Eingaben und von seinem vorherigen Zustand abhängt. Dadurch besitzen RNNs ein internes Gedächtnis, mit dem zeitliche Abhängigkeiten modelliert werden können.e Abhängigkeiten modelliert werden können.  +