Suche mittels Attribut

Zur Navigation springen Zur Suche springen

Diese Seite stellt eine einfache Suchoberfläche zum Finden von Objekten bereit, die ein Attribut mit einem bestimmten Datenwert enthalten. Andere verfügbare Suchoberflächen sind die Attributsuche sowie der Abfragengenerator.

Suche mittels Attribut

Eine Liste aller Seiten, die das Attribut „Beschreibung ist“ mit dem Wert „TCNs verwenden meist Residualblöcke, Normierung und Dropout, was zu stabilerem Training auch bei sehr tiefen Architekturen führt. Sie können lange zeitliche Abhängigkeiten erfassen und zeigen in vielen Anwendungen vergleichbare oder bessere Leistung als LSTM- oder GRU-Netze.“ haben. Weil nur wenige Ergebnisse gefunden wurden, werden auch ähnliche Werte aufgelistet.

⧼showingresults⧽

Zeige (vorherige 50 | nächste 50) (20 | 50 | 100 | 250 | 500)


    

Liste der Ergebnisse

    • Zeitfaltungsnetze  + (TCNs verwenden meist Residualblöcke, NormiTCNs verwenden meist Residualblöcke, Normierung und Dropout, was zu stabilerem Training auch bei sehr tiefen Architekturen führt. Sie können lange zeitliche Abhängigkeiten erfassen und zeigen in vielen Anwendungen vergleichbare oder bessere Leistung als LSTM- oder GRU-Netze.bessere Leistung als LSTM- oder GRU-Netze.)
    • ARIMA-Modelle  + (ARIMA-Modelle (AutoRegressive Integrated MARIMA-Modelle (AutoRegressive Integrated Moving Average) sind statistische Zeitreihenmodelle, die eine Zielgröße als Kombination aus Autoregression (AR), Differenzierung (I) zur Herstellung von Stationarität und gleitendem Mittelwert (MA) modellieren. Sie eignen sich zur Beschreibung und Prognose zeitlicher Abhängigkeiten in univariaten Zeitreihen. Abhängigkeiten in univariaten Zeitreihen.)
    • Bayessche Netzwerke  + (Bayessche Netzwerke (Bayesian Networks, BeBayessche Netzwerke (Bayesian Networks, Belief Networks) sind probabilistische grafische Modelle, die Zufallsvariablen und ihre bedingten Abhängigkeiten mittels eines gerichteten azyklischen Graphen (DAG) darstellen. Knoten repräsentieren Variablen, gerichtete Kanten direkte probabilistische Abhängigkeiten.n direkte probabilistische Abhängigkeiten.)
    • Gaussprozessregression  + (Die **Gaussprozessregression (Gaussian ProDie **Gaussprozessregression (Gaussian Process Regression, GPR)** ist ein **nichtparametrisches bayessches Regressionsverfahren**, bei dem Funktionen selbst als Zufallsobjekte modelliert werden. Ein Gaussprozess definiert eine Verteilung über Funktionen, sodass für jede endliche Menge von Eingabepunkten eine multivariate Normalverteilung der Funktionswerte entsteht.malverteilung der Funktionswerte entsteht.)
    • Differenz-von-Differenzen-Methode  + (Die Differenz-von-Differenzen-Methode (DiDDie Differenz-von-Differenzen-Methode (DiD) ist ein quasi-experimentelles kausales Schätzverfahren, das Effekte von Interventionen identifiziert, wenn keine Randomisierung möglich ist. Die Grundidee besteht darin, die Änderung einer Zielgröße über die Zeit in einer Behandlungsgruppe mit der entsprechenden Änderung in einer Kontrollgruppe zu vergleichen. Durch das „Differenzieren der Differenzen“ werden zeitinvariante Unterschiede zwischen den Gruppen herausgerechnet.</br></br>Formal betrachtet vergleicht DiD vier Mittelwerte: (Behandlung nach − Behandlung vor) − (Kontrolle nach − Kontrolle vor). Der so erhaltene Schätzer interpretiert man als kausalen Effekt der Intervention, unter der zentralen Annahme paralleler Trends: Ohne Intervention hätten sich Behandlungs- und Kontrollgruppe im Zeitverlauf gleich entwickelt.</br></br>In der Praxis wird DiD meist als lineares Regressionsmodell mit Interaktionsterm umgesetzt (Gruppe × Zeit), oft erweitert um Fixed Effects, Kovariaten und robuste Standardfehler. Moderne Varianten erlauben mehrere Zeitpunkte, gestaffelte Interventionen und heterogene Effekte.lte Interventionen und heterogene Effekte.)
    • Elastische Netzregression  + (Die Elastische Netzregression (Elastic NetDie Elastische Netzregression (Elastic Net Regression) ist ein regularisiertes Regressionsverfahren, das die Eigenschaften der Lasso-Regression (L1-Strafe) und der Ridge-Regression (L2-Strafe) kombiniert. Ziel ist es, stabile Schätzungen in Situationen mit vielen, möglicherweise stark korrelierten Prädiktoren zu erhalten.tark korrelierten Prädiktoren zu erhalten.)
    • Generalisierte additive Modelle  + (Generalisierte additive Modelle (GAM) sindGeneralisierte additive Modelle (GAM) sind eine Erweiterung generalisierter linearer Modelle, bei denen der lineare Prädiktor durch eine Summe glatter, nichtlinearer Funktionen der Kovariaten ersetzt wird. Dadurch können komplexe, nichtlineare Zusammenhänge modelliert werden, ohne eine konkrete funktionale Form vorzugeben.eine konkrete funktionale Form vorzugeben.)
    • Gradientenverstärkung  + (Gradientenverstärkung (Gradient Boosting) Gradientenverstärkung (Gradient Boosting) ist ein ensemblebasiertes maschinelles Lernverfahren, bei dem ein starkes Vorhersagemodell durch die sequenzielle Kombination vieler schwacher Lerner (meist Entscheidungsbäume) aufgebaut wird. Jeder neue Lerner wird so trainiert, dass er die Fehler der bisherigen Modellkombination korrigiert.r bisherigen Modellkombination korrigiert.)
    • Random Forrest  + (Random Forest ist ein ensemblebasiertes maRandom Forest ist ein ensemblebasiertes maschinelles Lernverfahren, das aus einer großen Anzahl von Entscheidungsbäumen besteht, die jeweils auf zufälligen Teilmengen der Daten und der Prädiktoren trainiert werden. Die Vorhersage erfolgt durch Aggregation der Einzelergebnisse (Mehrheitsvotum bei Klassifikation, Mittelwert bei Regression).lassifikation, Mittelwert bei Regression).)