Suche mittels Attribut
Zur Navigation springen
Zur Suche springen
Diese Seite stellt eine einfache Suchoberfläche zum Finden von Objekten bereit, die ein Attribut mit einem bestimmten Datenwert enthalten. Andere verfügbare Suchoberflächen sind die Attributsuche sowie der Abfragengenerator.
Liste der Ergebnisse
- Generalisierte additive Modelle + (GAMs verbinden damit die Interpretierbarkeit klassischer Regressionsmodelle mit der Flexibilität nichtlinearer Modellierung. Sie bleiben primär statistisch-deskriptiv bzw. inferentiell und sind keine Black-Box-Modelle.)
- Autoencoder + (Autoencoder sind neuronale Netzwerke des u … Autoencoder sind neuronale Netzwerke des unüberwachten Lernens, die darauf trainiert werden, ihre Eingabedaten über eine komprimierte interne Darstellung (latenter Raum) möglichst verlustarm zu rekonstruieren. Sie bestehen aus einem Encoder, der die Daten verdichtet, und einem Decoder, der die Originaldaten aus dieser Verdichtung wiederherstellt.en aus dieser Verdichtung wiederherstellt.)
- Synthetische Kontrolle + (DDie Synthetische Kontrolle ist ein quasi- … DDie Synthetische Kontrolle ist ein quasi-experimentelles kausales Verfahren, das den Effekt einer Intervention auf eine einzelne behandelte Einheit (z. B. ein Land, eine Region, ein Krankenhaus) schätzt. Statt eine einzelne Kontrollgruppe zu wählen, konstruiert SCM eine gewichtete Kombination mehrerer unbehandelter Einheiten („Donor Pool“), sodass diese vor der Intervention das Verhalten der behandelten Einheit möglichst genau reproduziert. Diese gewichtete Kombination heißt synthetische Kontrolle.</br></br>Formal werden Gewichte so optimiert, dass relevante Prä-Interventions-Merkmale (Outcome-Verläufe und Kovariaten) zwischen behandelter Einheit und synthetischer Kontrolle möglichst übereinstimmen. Nach der Intervention wird die Abweichung zwischen beobachtetem Outcome und synthetischer Kontrolle als kausaler Interventionseffekt interpretiert – unter der Annahme, dass die synthetische Kontrolle den kontrafaktischen Verlauf ohne Intervention gut approximiert.</br></br>SCM ist besonders stark, wenn parallele Trends (wie bei DiD) nicht plausibel sind oder nur eine sehr kleine Zahl behandelter Einheiten existiert. Erweiterungen (Generalized SCM, Augmented SCM) erlauben mehrere behandelte Einheiten, Regularisierung und Inferenzverbesserungen.egularisierung und Inferenzverbesserungen.)
- SEIR-Modelle + (Das SEIR-Modell erweitert das SIR-Modell u … Das SEIR-Modell erweitert das SIR-Modell um ein zusätzliches Kompartiment Exposed (E) für infizierte, aber noch nicht infektiöse Individuen. Damit bildet es eine Latenz- bzw. Inkubationsphase explizit ab, was für viele Infektionskrankheiten realistischer ist als ein unmittelbarer Übergang von empfänglich zu infektiös.rer Übergang von empfänglich zu infektiös.)
- Kalman-Filter + (Der Kalman-Filter ist ein rekursives Schät … Der Kalman-Filter ist ein rekursives Schätzverfahren zur Zustandsrekonstruktion dynamischer Systeme, bei dem Messungen und Modellvorhersagen optimal kombiniert werden. Er ist speziell für lineare dynamische Systeme mit gaußschem Rauschen formuliert und liefert zu jedem Zeitpunkt eine Schätzung des aktuellen Zustands samt Unsicherheit. des aktuellen Zustands samt Unsicherheit.)
- Cox-Modelle + (Die Cox-Methode (Cox-Proportional-Hazards- … Die Cox-Methode (Cox-Proportional-Hazards-Modell) ist ein semiparametrisches Regressionsverfahren der Überlebenszeitanalyse, das den Einfluss von Kovariaten auf die Hazardrate (instantanes Ereignisrisiko) modelliert, ohne die Grundform der Basis-Hazard spezifizieren zu müssen. der Basis-Hazard spezifizieren zu müssen.)
- Differenz-von-Differenzen-Methode + (Die Differenz-von-Differenzen-Methode (DiD … Die Differenz-von-Differenzen-Methode (DiD) ist ein quasi-experimentelles kausales Schätzverfahren, das Effekte von Interventionen identifiziert, wenn keine Randomisierung möglich ist. Die Grundidee besteht darin, die Änderung einer Zielgröße über die Zeit in einer Behandlungsgruppe mit der entsprechenden Änderung in einer Kontrollgruppe zu vergleichen. Durch das „Differenzieren der Differenzen“ werden zeitinvariante Unterschiede zwischen den Gruppen herausgerechnet.</br></br>Formal betrachtet vergleicht DiD vier Mittelwerte: (Behandlung nach − Behandlung vor) − (Kontrolle nach − Kontrolle vor). Der so erhaltene Schätzer interpretiert man als kausalen Effekt der Intervention, unter der zentralen Annahme paralleler Trends: Ohne Intervention hätten sich Behandlungs- und Kontrollgruppe im Zeitverlauf gleich entwickelt.</br></br>In der Praxis wird DiD meist als lineares Regressionsmodell mit Interaktionsterm umgesetzt (Gruppe × Zeit), oft erweitert um Fixed Effects, Kovariaten und robuste Standardfehler. Moderne Varianten erlauben mehrere Zeitpunkte, gestaffelte Interventionen und heterogene Effekte.lte Interventionen und heterogene Effekte.)
- Elastische Netzregression + (Die Elastische Netzregression (Elastic Net … Die Elastische Netzregression (Elastic Net Regression) ist ein regularisiertes Regressionsverfahren, das die Eigenschaften der Lasso-Regression (L1-Strafe) und der Ridge-Regression (L2-Strafe) kombiniert. Ziel ist es, stabile Schätzungen in Situationen mit vielen, möglicherweise stark korrelierten Prädiktoren zu erhalten.tark korrelierten Prädiktoren zu erhalten.)
- Instumentalvariablemmethode + (Die Instrumentalvariablenmethode (IV) ist … Die Instrumentalvariablenmethode (IV) ist ein kausales Schätzverfahren, das eingesetzt wird, wenn eine erklärende Variable (Behandlung, Exposition) endogen ist – also mit unbeobachteten Störfaktoren korreliert. In solchen Fällen liefern einfache Regressions- oder Matching-Methoden verzerrte Effekte. Die IV-Methode nutzt eine zusätzliche Variable, das Instrument, um diese Endogenität zu umgehen.</br></br>Ein gültiges Instrument 𝑍 muss drei zentrale Bedingungen erfüllen:</br># Relevanz – <math>Z<\math> beeinflusst die Behandlung <math>D<\math></br># Exogenität – <math>Z<\math> ist unabhängig von unbeobachteten Confoundern</br># Ausschlussrestriktion – <math>Z<\math> wirkt auf das Outcome <math>Y<\math> nur über <math>D<\math>, nicht direkt.</br></br>Unter diesen Annahmen kann man den kausalen Effekt von <math>D<\math> auf <math>Y<\math> identifizieren, selbst wenn <math>D<\math> nicht randomisiert ist.</br></br>Praktisch wird IV häufig über Two-Stage Least Squares (2SLS) umgesetzt: In der ersten Stufe wird die Behandlung durch das Instrument vorhergesagt, in der zweiten Stufe wird das Outcome auf diese vorhergesagte Behandlung regressiert. Der geschätzte Effekt ist meist ein Local Average Treatment Effect (LATE), d. h. er gilt für jene Subpopulation, deren Behandlung tatsächlich durch das Instrument beeinflusst wird (die „Compliers“).</br></br>=='"`UNIQ--h-1--QINU`"' Anwendbarkeit im Gesundheitssektor ==</br></br>Im Gesundheitswesen wird die IV-Methode eingesetzt, wenn Behandlungszuweisungen stark selektiv sind, z. B. bei Therapieentscheidungen, Krankenhauswahl oder Medikamentenverschreibung. Typische Instrumente sind ärztliche Behandlungspräferenzen, regionale Versorgungsunterschiede, Entfernung zu Einrichtungen oder administrative Regeländerungen.</br></br>In Public Health kommt IV zum Einsatz, um kausale Effekte von Expositionen zu schätzen, die nicht randomisierbar sind, etwa der Einfluss von Versicherungsschutz, Screening-Programmen oder Umweltbelastungen. Besonders wichtig ist IV, wenn unbeobachtete Confounder (z. B. Gesundheitsbewusstsein) eine zentrale Rolle spielen und andere Methoden (PSM, DiD) nicht ausreichen.</br></br>=='"`UNIQ--h-2--QINU`"' Sonstiges ==</br></br>Starke Annahmen (Exogenität, Ausschlussrestriktion)</br></br>Schwache Instrumente problematisch</br></br>=='"`UNIQ--h-3--QINU`"' Semantik ==</br></br>Wikidata-Identifikator ist: [[Wikidata ID ist::Q173206usschlussrestriktion) Schwache Instrumente problematisch =='"`UNIQ--h-3--QINU`"' Semantik == Wikidata-Identifikator ist: [[Wikidata ID ist::Q173206)
- Support-Vector-Maschine + (Die Support-Vector-Maschine (SVM) ist ein … Die Support-Vector-Maschine (SVM) ist ein überwachtes Lernverfahren für Klassifikation und Regression, das Entscheidungsgrenzen mit maximalem Rand (Margin) zwischen Klassen konstruiert. Kernidee ist, eine Trennhyperebene zu finden, die den Abstand zu den nächstgelegenen Datenpunkten (den Support-Vektoren) maximiert.npunkten (den Support-Vektoren) maximiert.)
- Szenarioanalyse + (Die Szenarioanalyse ist ein analytischer A … Die Szenarioanalyse ist ein analytischer Ansatz, bei dem mehrere plausible, konsistente Zukunftsentwicklungen („Szenarien“) systematisch konstruiert und analysiert werden. Ziel ist es nicht, eine einzelne wahrscheinlichste Zukunft vorherzusagen, sondern ein Spektrum möglicher Entwicklungen unter unterschiedlichen Annahmen sichtbar zu machen.rschiedlichen Annahmen sichtbar zu machen.)
- Unterbrochene Zeitserie + (Die Unterbrochene Zeitserie (ITS) ist ein … Die Unterbrochene Zeitserie (ITS) ist ein quasi-experimentelles kausales Analyseverfahren, das den Effekt einer Intervention anhand langer Zeitreihen vor und nach einem klar definierten Eingriffszeitpunkt schätzt. Die zentrale Idee ist, den Trend (Steigung) und das Niveau (Intercept) der Zielgröße vor der Intervention zu modellieren und zu prüfen, ob es nach der Intervention zu einem sprunghaften Niveauwechsel und/oder einer Trendänderung kommt.</br></br>Formal wird ITS häufig als segmentierte Regression umgesetzt. Dabei werden Zeit, Interventionsindikator (0/1) und eine Interaktion (Zeit × Intervention) in ein Regressionsmodell aufgenommen. So lassen sich sofortige Effekte (Niveausprung) von allmählichen Effekten (Trendänderung) trennen. Wichtig ist die explizite Modellierung von Autokorrelation, Saisonalität und Nichtstationarität, z. B. mittels ARIMA-Komponenten oder Generalized Least Squares.</br></br>ITS benötigt keine externe Kontrollgruppe, stützt sich aber stark auf die Annahme, dass keine weiteren zeitgleich wirkenden Interventionen den Effekt verfälschen. Erweiterungen (Controlled ITS) fügen eine Vergleichszeitreihe hinzu, um zeitgleiche Störereignisse besser abzufangen.tgleiche Störereignisse besser abzufangen.)
- Faltungsnetze + (Faltungsnetze (Convolutional Neural Networ … Faltungsnetze (Convolutional Neural Networks, CNNs) sind eine Klasse tiefer neuronaler Netze, die speziell für die Verarbeitung gitterartig strukturierter Daten entwickelt wurden, insbesondere für Bilder, aber auch für Signale und räumlich-zeitliche Daten. Zentrale Idee ist die Verwendung von Faltungsoperationen, um lokale Muster effizient zu erkennen.n, um lokale Muster effizient zu erkennen.)
- Gewöhnliche Differenzialgleichungen + (Gewöhnliche Differenzialgeichungen modelli … Gewöhnliche Differenzialgeichungen modellieren ein dynamisches System aus verschiedenen Komponenten, indem sie die Zu- und Abgänge der einzelnen Komponenten durch eine Summe parametrisierter algebraischer Ableitungen abbilden. Differenzialgleichungen können analytisch gelöst werden, worauf hin man eine ableitungsfreie Gleichung erhält, welche den Ergebnisraum abbildet, oder numerisch-iterativ angenähert werden, wenn keine analytische Lösung verfügbar ist.nn keine analytische Lösung verfügbar ist.)
- Gradientenverstärkung + (Gradientenverstärkung (Gradient Boosting) … Gradientenverstärkung (Gradient Boosting) ist ein ensemblebasiertes maschinelles Lernverfahren, bei dem ein starkes Vorhersagemodell durch die sequenzielle Kombination vieler schwacher Lerner (meist Entscheidungsbäume) aufgebaut wird. Jeder neue Lerner wird so trainiert, dass er die Fehler der bisherigen Modellkombination korrigiert.r bisherigen Modellkombination korrigiert.)
- Long Short-Term Memory + (Long Short-Term Memory (LSTM) ist eine spe … Long Short-Term Memory (LSTM) ist eine spezielle Architektur rekurrenter neuronaler Netze (RNNs), die entwickelt wurde, um langfristige zeitliche Abhängigkeiten in Sequenzdaten zu modellieren. Im Gegensatz zu klassischen RNNs adressieren LSTMs explizit das Problem des Verschwindens bzw. Explodierens von Gradienten.hwindens bzw. Explodierens von Gradienten.)
- Neurale gewöhnliche DIfferenzialgleichungen + (Neurale gewöhnliche Differentialgleichunge … Neurale gewöhnliche Differentialgleichungen (Neural Ordinary Differential Equations, Neural ODEs) sind eine Klasse kontinuierlicher Tiefenmodelle, bei denen die Entwicklung latenter Zustände durch eine gewöhnliche Differentialgleichung beschrieben wird, deren rechte Seite von einem neuronalen Netz parametrisiert ist. Anstelle diskreter Schichten wird die Transformation als kontinuierlicher Fluss über die Zeit modelliert.uierlicher Fluss über die Zeit modelliert.)
- Physik-Informierte Neuronale Netze + (Physik-informierte neuronale Netze (Physic … Physik-informierte neuronale Netze (Physics-Informed Neural Networks, PINNs) sind neuronale Netze, bei denen bekannte physikalische Gesetze explizit in den Trainingsprozess integriert werden. Dies geschieht typischerweise, indem Differentialgleichungen, Erhaltungssätze oder Nebenbedingungen als zusätzliche Terme in die Verlustfunktion aufgenommen werden.in die Verlustfunktion aufgenommen werden.)
- Propensity-Score-Matching + (Propensity-Score-Matching ist ein quasi-ex … Propensity-Score-Matching ist ein quasi-experimentelles Verfahren der kausalen Inferenz, das Beobachtungsdaten so aufbereitet, dass Behandlungs- und Kontrollgruppe hinsichtlich beobachteter Kovariaten möglichst vergleichbar sind. Kernidee ist der Propensity Score: die Wahrscheinlichkeit, eine Behandlung zu erhalten, gegeben die beobachteten Kovariaten. Dieser Score wird meist per logistischer Regression oder einem flexibleren Klassifikationsmodell geschätzt.</br></br>Anschließend werden behandelte und unbehandelte Individuen mit ähnlichem Propensity Score gepaart (Matching). Gängige Varianten sind 1:1-Nearest-Neighbor-Matching, Matching mit/ohne Zurücklegen, Caliper-Matching (maximale Distanz), Kernel- oder Stratification-Matching. Nach dem Matching wird der durchschnittliche Behandlungseffekt (ATE oder ATT) als Mittelwertunterschied der Outcomes geschätzt.</br></br>Zentrale Annahme ist die Unconfoundedness (keine unbeobachteten Confounder): gegeben die Kovariaten ist die Behandlung „as-if random“. PSM eliminiert Verzerrung durch beobachtete Störfaktoren, kann aber keine unbeobachteten ausgleichen. Qualitätssicherung erfolgt über Balance-Checks (Standardized Mean Differences) und Sensitivitätsanalysen.an Differences) und Sensitivitätsanalysen.)
- Prophet + (Prophet ist ein additives Zeitreihen-Vorhe … Prophet ist ein additives Zeitreihen-Vorhersagemodell, das speziell für geschäfts- und operationsnahe Daten mit starken Saisonalitäten, Feiertagseffekten und Trendbrüchen entwickelt wurde. Ein Kernmerkmal ist die automatische Changepoint-Erkennung: Prophet erlaubt, dass sich der Trend an datengetrieben erkannten Zeitpunkten ändert (z. B. Politikwechsel, Systemumstellungen). Die Regularisierung steuert, wie flexibel diese Änderungen sind. Saisonalitäten (jährlich, wöchentlich, täglich) sind standardmäßig enthalten und lassen sich leicht erweitern. Unter der Haube wird Prophet als Bayessches Zustandsraum-/Regressionsmodell formuliert (mit MAP-Schätzung), was robuste Vorhersageintervalle ermöglicht. Die Stärke liegt weniger in theoretischer Eleganz als in Robustheit, Skalierbarkeit und schneller Anwendung mit minimalem Feature-Engineering.wendung mit minimalem Feature-Engineering.)
- Rekurrente neuronale Netze + (Rekurrente neuronale Netze (RNNs) sind ein … Rekurrente neuronale Netze (RNNs) sind eine Klasse neuronaler Netzwerke zur Verarbeitung sequenzieller Daten, bei denen der Zustand eines Neurons von aktuellen Eingaben und von seinem vorherigen Zustand abhängt. Dadurch besitzen RNNs ein internes Gedächtnis, mit dem zeitliche Abhängigkeiten modelliert werden können.e Abhängigkeiten modelliert werden können.)
- Retrieval-Augmented Generation + (Retrieval-Augmented Generation (RAG) ist e … Retrieval-Augmented Generation (RAG) ist ein hybrider KI-Ansatz, der Informationsabruf (Retrieval) mit generativer Modellierung kombiniert. Anstatt Antworten ausschließlich aus dem internen Modellwissen zu erzeugen, ruft ein RAG-System zunächst relevante externe Informationen (z. B. Dokumente, Datenbankeinträge, Wissensgraphen) ab und nutzt diese anschließend als Kontext für die Text- oder Antwortgenerierung.ext für die Text- oder Antwortgenerierung.)
- Transformermodelle + (Transformermodelle sind eine Klasse tiefer … Transformermodelle sind eine Klasse tiefer neuronaler Netze, die Sequenzen vollständig über Aufmerksamkeitsmechanismen (Self-Attention) verarbeiten, ohne rekurrente oder konvolutionale Strukturen zu benötigen. Dadurch können Abhängigkeiten zwischen beliebigen Positionen einer Sequenz parallel und effizient modelliert werden. parallel und effizient modelliert werden.)