Attributwerte einer Seite

Zur Navigation springen Zur Suche springen
Attributwerte einer Seite

Entweder eine Seite und ein Attribut angeben oder nur ein Attribut, um alle zugewiesenen Werte zu erhalten.

⧼showingresults⧽

Zeige (vorherige 20 | nächste 20) (20 | 50 | 100 | 250 | 500)


    

Liste der Ergebnisse

  • Die Modellkomplexität wird im WesentlichenDie Modellkomplexität wird im Wesentlichen durch den Regularisierungsparameter '"`UNIQ--math-00000006-QINU`"' und Kernelparameter (z. B. '"`UNIQ--math-00000007-QINU`"' beim RBF-Kernel) gesteuert. Eine sorgfältige Skalierung der Features und Hyperparameterwahl ist entscheidend.s und Hyperparameterwahl ist entscheidend.  +
  • Die Support-Vector-Maschine (SVM) ist ein Die Support-Vector-Maschine (SVM) ist ein überwachtes Lernverfahren für Klassifikation und Regression, das Entscheidungsgrenzen mit maximalem Rand (Margin) zwischen Klassen konstruiert. Kernidee ist, eine Trennhyperebene zu finden, die den Abstand zu den nächstgelegenen Datenpunkten (den Support-Vektoren) maximiert.npunkten (den Support-Vektoren) maximiert.  +
  • Die Support-Vector-Regression (SVR) verallDie Support-Vector-Regression (SVR) verallgemeinert das Prinzip auf Regressionsprobleme, indem Abweichungen innerhalb einer '"`UNIQ--math-00000005-QINU`"'-Röhre toleriert werden. SVMs sind durch Regularisierung gut kontrollierbar, liefern stabile Lösungen und sind besonders wirksam bei hochdimensionalen Daten.nders wirksam bei hochdimensionalen Daten.  +
  • Für linear trennbare Daten ergibt sich dasFür linear trennbare Daten ergibt sich das Optimierungsproblem</br>'"`UNIQ--math-00000004-QINU`"'.</br>Für nichtlinear trennbare Daten wird das Soft-Margin-Prinzip mit Schlupfvariablen eingeführt und die Trennung über Kernel-Tricks (z. B. RBF, Polynom) in höherdimensionale Merkmalsräume verlagert.höherdimensionale Merkmalsräume verlagert.  +