Attributwerte einer Seite
Zur Navigation springen
Zur Suche springen
Diese Seite stellt eine einfache Suchoberfläche zum Ermitteln aller Attribute auf einer bestimmten Seite bereit. Andere verfügbare Suchoberflächen sind die Attributsuche sowie der Abfragengenerator.
Liste der Ergebnisse
- Transformermodelle sind eine Klasse tiefer … Transformermodelle sind eine Klasse tiefer neuronaler Netze, die Sequenzen vollständig über Aufmerksamkeitsmechanismen (Self-Attention) verarbeiten, ohne rekurrente oder konvolutionale Strukturen zu benötigen. Dadurch können Abhängigkeiten zwischen beliebigen Positionen einer Sequenz parallel und effizient modelliert werden. parallel und effizient modelliert werden. +
- Transformermodelle sind hochgradig skalierbar und bilden die Grundlage moderner Sprach-, Zeitreihen- und Multimodalmodelle. Sie sind sehr leistungsfähig, erfordern jedoch große Datenmengen und erhebliche Rechenressourcen. +
- Zentral ist der Self-Attention-Mechanismus … Zentral ist der Self-Attention-Mechanismus, der für jedes Element einer Sequenz gewichtete Beiträge aller anderen Elemente berechnet. In vereinfachter Form lautet die Berechnung</br>'"`UNIQ--math-00000004-QINU`"',</br>wobei '"`UNIQ--math-00000005-QINU`"' (Queries), '"`UNIQ--math-00000006-QINU`"' (Keys) und '"`UNIQ--math-00000007-QINU`"' (Values) lineare Projektionen der Eingaben sind. Mehrere parallele Köpfe (Multi-Head Attention) erlauben es, unterschiedliche Beziehungsaspekte gleichzeitig zu erfassen.eziehungsaspekte gleichzeitig zu erfassen. +
- Zusätzlich zur Attention bestehen Transformer aus Feedforward-Schichten, Residualverbindungen und Normierung. Da das Modell selbst keine Positionsinformation enthält, werden Positionsencodierungen hinzugefügt, um Reihenfolgeinformationen abzubilden. +