Attributwerte einer Seite

Zur Navigation springen Zur Suche springen
Attributwerte einer Seite

Entweder eine Seite und ein Attribut angeben oder nur ein Attribut, um alle zugewiesenen Werte zu erhalten.

⧼showingresults⧽

Zeige (vorherige 20 | nächste 20) (20 | 50 | 100 | 250 | 500)


    

Liste der Ergebnisse

  • Transformermodelle sind eine Klasse tieferTransformermodelle sind eine Klasse tiefer neuronaler Netze, die Sequenzen vollständig über Aufmerksamkeitsmechanismen (Self-Attention) verarbeiten, ohne rekurrente oder konvolutionale Strukturen zu benötigen. Dadurch können Abhängigkeiten zwischen beliebigen Positionen einer Sequenz parallel und effizient modelliert werden. parallel und effizient modelliert werden.  +
  • Transformermodelle sind hochgradig skalierbar und bilden die Grundlage moderner Sprach-, Zeitreihen- und Multimodalmodelle. Sie sind sehr leistungsfähig, erfordern jedoch große Datenmengen und erhebliche Rechenressourcen.  +
  • Zentral ist der Self-Attention-MechanismusZentral ist der Self-Attention-Mechanismus, der für jedes Element einer Sequenz gewichtete Beiträge aller anderen Elemente berechnet. In vereinfachter Form lautet die Berechnung</br>'"`UNIQ--math-00000004-QINU`"',</br>wobei '"`UNIQ--math-00000005-QINU`"' (Queries), '"`UNIQ--math-00000006-QINU`"' (Keys) und '"`UNIQ--math-00000007-QINU`"' (Values) lineare Projektionen der Eingaben sind. Mehrere parallele Köpfe (Multi-Head Attention) erlauben es, unterschiedliche Beziehungsaspekte gleichzeitig zu erfassen.eziehungsaspekte gleichzeitig zu erfassen.  +
  • Zusätzlich zur Attention bestehen Transformer aus Feedforward-Schichten, Residualverbindungen und Normierung. Da das Modell selbst keine Positionsinformation enthält, werden Positionsencodierungen hinzugefügt, um Reihenfolgeinformationen abzubilden.  +