Suche mittels Attribut
Zur Navigation springen
Zur Suche springen
Diese Seite stellt eine einfache Suchoberfläche zum Finden von Objekten bereit, die ein Attribut mit einem bestimmten Datenwert enthalten. Andere verfügbare Suchoberflächen sind die Attributsuche sowie der Abfragengenerator.
Liste der Ergebnisse
- Cox-Modelle + (Die Cox-Methode (Cox-Proportional-Hazards- … Die Cox-Methode (Cox-Proportional-Hazards-Modell) ist ein semiparametrisches Regressionsverfahren der Überlebenszeitanalyse, das den Einfluss von Kovariaten auf die Hazardrate (instantanes Ereignisrisiko) modelliert, ohne die Grundform der Basis-Hazard spezifizieren zu müssen. der Basis-Hazard spezifizieren zu müssen.)
- Bayessche kompartmentalisierende Modelle + (Bayessche kompartmentalisierende Modelle s … Bayessche kompartmentalisierende Modelle sind eine Erweiterung klassischer kompartmentaler Infektionsmodelle (z. B. SIR, SEIR), bei denen Modellparameter und Zustände probabilistisch im bayesschen Rahmen behandelt werden. Die Bevölkerung wird in diskrete Kompartimente (z. B. Susceptible, Exposed, Infected, Recovered) eingeteilt, zwischen denen Übergänge gemäß definierter Dynamiken stattfinden.e gemäß definierter Dynamiken stattfinden.)
- Synthetische Kontrolle + (DDie Synthetische Kontrolle ist ein quasi- … DDie Synthetische Kontrolle ist ein quasi-experimentelles kausales Verfahren, das den Effekt einer Intervention auf eine einzelne behandelte Einheit (z. B. ein Land, eine Region, ein Krankenhaus) schätzt. Statt eine einzelne Kontrollgruppe zu wählen, konstruiert SCM eine gewichtete Kombination mehrerer unbehandelter Einheiten („Donor Pool“), sodass diese vor der Intervention das Verhalten der behandelten Einheit möglichst genau reproduziert. Diese gewichtete Kombination heißt synthetische Kontrolle.</br></br>Formal werden Gewichte so optimiert, dass relevante Prä-Interventions-Merkmale (Outcome-Verläufe und Kovariaten) zwischen behandelter Einheit und synthetischer Kontrolle möglichst übereinstimmen. Nach der Intervention wird die Abweichung zwischen beobachtetem Outcome und synthetischer Kontrolle als kausaler Interventionseffekt interpretiert – unter der Annahme, dass die synthetische Kontrolle den kontrafaktischen Verlauf ohne Intervention gut approximiert.</br></br>SCM ist besonders stark, wenn parallele Trends (wie bei DiD) nicht plausibel sind oder nur eine sehr kleine Zahl behandelter Einheiten existiert. Erweiterungen (Generalized SCM, Augmented SCM) erlauben mehrere behandelte Einheiten, Regularisierung und Inferenzverbesserungen.egularisierung und Inferenzverbesserungen.)
- Elastische Netzregression + (Die Elastische Netzregression (Elastic Net … Die Elastische Netzregression (Elastic Net Regression) ist ein regularisiertes Regressionsverfahren, das die Eigenschaften der Lasso-Regression (L1-Strafe) und der Ridge-Regression (L2-Strafe) kombiniert. Ziel ist es, stabile Schätzungen in Situationen mit vielen, möglicherweise stark korrelierten Prädiktoren zu erhalten.tark korrelierten Prädiktoren zu erhalten.)
- Sensitivitätsanalyse + (Die Sensitivitätsanalyse untersucht, wie s … Die Sensitivitätsanalyse untersucht, wie stark die Ergebnisse eines Modells oder einer Berechnung auf Variationen der Eingabeparameter reagieren. Ziel ist es, diejenigen Annahmen oder Parameter zu identifizieren, die den größten Einfluss auf das Ergebnis haben, und damit die Robustheit der Resultate zu bewerten. die Robustheit der Resultate zu bewerten.)
- Stochastische Simulation + (Die stochastische Simulation ist ein Model … Die stochastische Simulation ist ein Modellierungsansatz, bei dem Zufallsprozesse explizit in die Dynamik eines Systems eingebaut werden. Im Gegensatz zu deterministischen Modellen erzeugt jede Simulation einen möglichen Realisationspfad; die Gesamtheit vieler Läufe beschreibt eine Wahrscheinlichkeitsverteilung der möglichen Ergebnisse.hkeitsverteilung der möglichen Ergebnisse.)
- Generalisierte additive Modelle + (Generalisierte additive Modelle (GAM) sind … Generalisierte additive Modelle (GAM) sind eine Erweiterung generalisierter linearer Modelle, bei denen der lineare Prädiktor durch eine Summe glatter, nichtlinearer Funktionen der Kovariaten ersetzt wird. Dadurch können komplexe, nichtlineare Zusammenhänge modelliert werden, ohne eine konkrete funktionale Form vorzugeben.eine konkrete funktionale Form vorzugeben.)
- Generalisierte lineare Modelle + (Generalisierte lineare Modelle (GLM) sind … Generalisierte lineare Modelle (GLM) sind eine Erweiterung der klassischen linearen Regression, die es erlauben, nicht-normalverteilte Zielvariablen zu modellieren. Dazu wird der Erwartungswert der Zielvariable über eine Link-Funktion mit einem linearen Prädiktor der Kovariaten verknüpft.nearen Prädiktor der Kovariaten verknüpft.)
- Hierarchisch-Bayessche Modelle + (Hierarchisch-bayessche Modelle (auch mehrs … Hierarchisch-bayessche Modelle (auch mehrstufige bayessche Modelle) sind statistische Modelle, die Daten- und Parameterstrukturen auf mehreren Ebenen abbilden und Unsicherheit kohärent im bayesschen Rahmen propagieren. Sie eignen sich besonders für Daten mit natürlicher Gruppierung, etwa Individuen innerhalb von Regionen oder Zeitpunkten.n innerhalb von Regionen oder Zeitpunkten.)
- Neurale gewöhnliche DIfferenzialgleichungen + (Neurale gewöhnliche Differentialgleichunge … Neurale gewöhnliche Differentialgleichungen (Neural Ordinary Differential Equations, Neural ODEs) sind eine Klasse kontinuierlicher Tiefenmodelle, bei denen die Entwicklung latenter Zustände durch eine gewöhnliche Differentialgleichung beschrieben wird, deren rechte Seite von einem neuronalen Netz parametrisiert ist. Anstelle diskreter Schichten wird die Transformation als kontinuierlicher Fluss über die Zeit modelliert.uierlicher Fluss über die Zeit modelliert.)
- Propensity-Score-Matching + (Propensity-Score-Matching ist ein quasi-ex … Propensity-Score-Matching ist ein quasi-experimentelles Verfahren der kausalen Inferenz, das Beobachtungsdaten so aufbereitet, dass Behandlungs- und Kontrollgruppe hinsichtlich beobachteter Kovariaten möglichst vergleichbar sind. Kernidee ist der Propensity Score: die Wahrscheinlichkeit, eine Behandlung zu erhalten, gegeben die beobachteten Kovariaten. Dieser Score wird meist per logistischer Regression oder einem flexibleren Klassifikationsmodell geschätzt.</br></br>Anschließend werden behandelte und unbehandelte Individuen mit ähnlichem Propensity Score gepaart (Matching). Gängige Varianten sind 1:1-Nearest-Neighbor-Matching, Matching mit/ohne Zurücklegen, Caliper-Matching (maximale Distanz), Kernel- oder Stratification-Matching. Nach dem Matching wird der durchschnittliche Behandlungseffekt (ATE oder ATT) als Mittelwertunterschied der Outcomes geschätzt.</br></br>Zentrale Annahme ist die Unconfoundedness (keine unbeobachteten Confounder): gegeben die Kovariaten ist die Behandlung „as-if random“. PSM eliminiert Verzerrung durch beobachtete Störfaktoren, kann aber keine unbeobachteten ausgleichen. Qualitätssicherung erfolgt über Balance-Checks (Standardized Mean Differences) und Sensitivitätsanalysen.an Differences) und Sensitivitätsanalysen.)
- Rekurrente neuronale Netze + (Rekurrente neuronale Netze (RNNs) sind ein … Rekurrente neuronale Netze (RNNs) sind eine Klasse neuronaler Netzwerke zur Verarbeitung sequenzieller Daten, bei denen der Zustand eines Neurons von aktuellen Eingaben und von seinem vorherigen Zustand abhängt. Dadurch besitzen RNNs ein internes Gedächtnis, mit dem zeitliche Abhängigkeiten modelliert werden können.e Abhängigkeiten modelliert werden können.)