Attributwerte einer Seite

Zur Navigation springen Zur Suche springen
Attributwerte einer Seite

Entweder eine Seite und ein Attribut angeben oder nur ein Attribut, um alle zugewiesenen Werte zu erhalten.

⧼showingresults⧽

Zeige (vorherige 20 | nächste 20) (20 | 50 | 100 | 250 | 500)


    

Liste der Ergebnisse

  • Es existieren viele Varianten, darunter Graph Convolutional Networks (GCN), Graph Attention Networks (GAT), GraphSAGE und Message Passing Neural Networks (MPNN). Sie unterscheiden sich v. a. in Aggregation, Gewichtung (Attention) und Skalierbarkeit.  +
  • GNNs sind hochgradig nichtlinear und könneGNNs sind hochgradig nichtlinear und können relationale Abhängigkeiten erfassen, die klassischen Vektor-Modellen entgehen. Gleichzeitig sind sie rechenintensiv und ihre Interpretierbarkeit hängt von Zusatzmethoden (z. B. Attention-Gewichte, Subgraph-Erklärungen) ab.ention-Gewichte, Subgraph-Erklärungen) ab.  +
  • Graphen-informierte neuronale Netze (GraphGraphen-informierte neuronale Netze (Graph Neural Networks, GNNs) sind neuronale Modelle, die strukturierte Daten in Form von Graphen verarbeiten. Knoten repräsentieren Entitäten, Kanten ihre Beziehungen; das Modell lernt Repräsentationen, indem Informationen entlang der Graphstruktur propagiert werden.tlang der Graphstruktur propagiert werden.  +
  • Kernmechanismus ist das Message Passing: IKernmechanismus ist das Message Passing: In iterativen Schritten aggregiert jeder Knoten Informationen seiner Nachbarn und aktualisiert seinen Zustand. Ein generisches Update lässt sich schreiben als</br>'"`UNIQ--math-00000005-QINU`"',</br>wobei '"`UNIQ--math-00000006-QINU`"' die Knotenrepräsentation in Schicht '"`UNIQ--math-00000007-QINU`"', '"`UNIQ--math-00000008-QINU`"' die Nachbarschaft und '"`UNIQ--math-00000009-QINU`"' eine Aggregationsfunktion (Summe, Mittelwert, Attention) ist.nktion (Summe, Mittelwert, Attention) ist.  +