Transformermodelle: Versionsgeschichte

Zur Navigation springen Zur Suche springen

Auswahl des Versionsunterschieds: Markiere die Radiobuttons der zu vergleichenden Versionen und drücke die Eingabetaste oder die Schaltfläche am unteren Rand.
Legende: (Aktuell) = Unterschied zur aktuellen Version, (Vorherige) = Unterschied zur vorherigen Version, K = Kleine Änderung

3. Februar 2026

2. Februar 2026

  • AktuellVorherige 06:1406:14, 2. Feb. 2026 Markus Diskussion Beiträge 3.420 Bytes +3.420 Die Seite wurde neu angelegt: „== Kurzbeschriebung == [[Beschreibung ist::Transformermodelle sind eine Klasse tiefer neuronaler Netze, die Sequenzen vollständig über Aufmerksamkeitsmechanismen (Self-Attention) verarbeiten, ohne rekurrente oder konvolutionale Strukturen zu benötigen. Dadurch können Abhängigkeiten zwischen beliebigen Positionen einer Sequenz parallel und effizient modelliert werden.]] Beschreibung ist::Zentral ist der Self-Attention-Mechanismus, der für jedes E…“