Attribut:Beschreibung ist
Zur Navigation springen
Zur Suche springen
P
Physik-informierte neuronale Netze (Physics-Informed Neural Networks, PINNs) sind neuronale Netze, bei denen bekannte physikalische Gesetze explizit in den Trainingsprozess integriert werden. Dies geschieht typischerweise, indem Differentialgleichungen, Erhaltungssätze oder Nebenbedingungen als zusätzliche Terme in die Verlustfunktion aufgenommen werden. +, Formal wird ein neuronales Netz '"`UNIQ--math-00000004-QINU`"' trainiert, sodass es sowohl Beobachtungsdaten als auch eine Gleichung wie
'"`UNIQ--math-00000005-QINU`"'
erfüllt, wobei '"`UNIQ--math-00000006-QINU`"' ein Differentialoperator ist. Die Gesamtverlustfunktion kombiniert Datenfehler und Physik-Residual, z. B.
'"`UNIQ--math-00000007-QINU`"'. Die notwendigen Ableitungen werden mittels automatischer Differenzierung berechnet. +, PINNs erlauben es, kontinuierliche Lösungen zu lernen, auch bei spärlichen oder verrauschten Daten, und eignen sich für Vorwärts-, Inversions- und Parameteridentifikationsprobleme. Sie schlagen eine Brücke zwischen klassischer Modellierung (PDE/ODE) und datengetriebenem Lernen. +, …
Propensity-Score-Matching ist ein quasi-experimentelles Verfahren der kausalen Inferenz, das Beobachtungsdaten so aufbereitet, dass Behandlungs- und Kontrollgruppe hinsichtlich beobachteter Kovariaten möglichst vergleichbar sind. Kernidee ist der Propensity Score: die Wahrscheinlichkeit, eine Behandlung zu erhalten, gegeben die beobachteten Kovariaten. Dieser Score wird meist per logistischer Regression oder einem flexibleren Klassifikationsmodell geschätzt.
Anschließend werden behandelte und unbehandelte Individuen mit ähnlichem Propensity Score gepaart (Matching). Gängige Varianten sind 1:1-Nearest-Neighbor-Matching, Matching mit/ohne Zurücklegen, Caliper-Matching (maximale Distanz), Kernel- oder Stratification-Matching. Nach dem Matching wird der durchschnittliche Behandlungseffekt (ATE oder ATT) als Mittelwertunterschied der Outcomes geschätzt.
Zentrale Annahme ist die Unconfoundedness (keine unbeobachteten Confounder): gegeben die Kovariaten ist die Behandlung „as-if random“. PSM eliminiert Verzerrung durch beobachtete Störfaktoren, kann aber keine unbeobachteten ausgleichen. Qualitätssicherung erfolgt über Balance-Checks (Standardized Mean Differences) und Sensitivitätsanalysen. +
Prophet ist ein additives Zeitreihen-Vorhersagemodell, das speziell für geschäfts- und operationsnahe Daten mit starken Saisonalitäten, Feiertagseffekten und Trendbrüchen entwickelt wurde. Ein Kernmerkmal ist die automatische Changepoint-Erkennung: Prophet erlaubt, dass sich der Trend an datengetrieben erkannten Zeitpunkten ändert (z. B. Politikwechsel, Systemumstellungen). Die Regularisierung steuert, wie flexibel diese Änderungen sind. Saisonalitäten (jährlich, wöchentlich, täglich) sind standardmäßig enthalten und lassen sich leicht erweitern. Unter der Haube wird Prophet als Bayessches Zustandsraum-/Regressionsmodell formuliert (mit MAP-Schätzung), was robuste Vorhersageintervalle ermöglicht. Die Stärke liegt weniger in theoretischer Eleganz als in Robustheit, Skalierbarkeit und schneller Anwendung mit minimalem Feature-Engineering. +
Q
Die Quantilsregression ist ein statistisches Regressionsverfahren, das – im Gegensatz zur klassischen linearen Regression – nicht den bedingten Erwartungswert, sondern beliebige Quantile (z. B. Median, obere oder untere Randbereiche) der Zielvariable modelliert. Dadurch lassen sich Effekte von Kovariaten entlang der gesamten Verteilung der Zielgröße untersuchen und nicht nur im Mittel. +, Methodisch basiert die Quantilsregression auf der Minimierung einer asymmetrischen Verlustfunktion (Pinball-Loss), die positive und negative Abweichungen unterschiedlich gewichtet. Für jedes Quantil wird ein separates Regressionsproblem gelöst, sodass sich quantilspezifische Koeffizienten ergeben. +, Die Methode ist robust gegenüber Ausreißern und Heteroskedastizität und erlaubt es, Verteilungseffekte sichtbar zu machen, etwa wenn sich Einflussfaktoren bei niedrigen Werten anders auswirken als bei hohen. Sie ist primär deskriptiv-inferentiell, nicht kausal im engeren Sinne. +
R
Random Forest ist ein ensemblebasiertes maschinelles Lernverfahren, das aus einer großen Anzahl von Entscheidungsbäumen besteht, die jeweils auf zufälligen Teilmengen der Daten und der Prädiktoren trainiert werden. Die Vorhersage erfolgt durch Aggregation der Einzelergebnisse (Mehrheitsvotum bei Klassifikation, Mittelwert bei Regression). +, Die zentrale Idee ist die Reduktion von Varianz gegenüber einzelnen Entscheidungsbäumen: Durch Bagging (Bootstrap Aggregating) und zufällige Merkmalsauswahl pro Knoten werden Bäume entkoppelt, sodass Überanpassung effektiv reduziert wird. Jeder Baum ist für sich ein schwacher Lerner, das Ensemble jedoch ein starker Prädiktor. +, Random Forests sind nichtparametrisch, können hochdimensionale und nichtlineare Zusammenhänge abbilden und benötigen keine explizite Modellannahme über die Datenverteilung. Sie liefern zusätzlich Maße der Variablenwichtigkeit, sind jedoch keine kausalen Modelle. +
Rekurrente neuronale Netze (RNNs) sind eine Klasse neuronaler Netzwerke zur Verarbeitung sequenzieller Daten, bei denen der Zustand eines Neurons von aktuellen Eingaben und von seinem vorherigen Zustand abhängt. Dadurch besitzen RNNs ein internes Gedächtnis, mit dem zeitliche Abhängigkeiten modelliert werden können. +, Formal wird der verborgene Zustand rekursiv aktualisiert, z. B.
'"`UNIQ--math-00000005-QINU`"',
wobei '"`UNIQ--math-00000006-QINU`"' die Eingabe zum Zeitpunkt '"`UNIQ--math-00000007-QINU`"', '"`UNIQ--math-00000008-QINU`"' der verborgene Zustand und '"`UNIQ--math-00000009-QINU`"' eine Nichtlinearität ist. Die gleiche Gewichtsmatrix wird über alle Zeitschritte geteilt, was RNNs besonders kompakt macht. +, Das Training erfolgt über Backpropagation Through Time (BPTT), bei dem Gradienten entlang der Zeitdimension zurückpropagiert werden. Klassische RNNs leiden dabei häufig unter dem Problem verschwindender oder explodierender Gradienten, was die Modellierung langer Abhängigkeiten erschwert. +, …
Retrieval-Augmented Generation (RAG) ist ein hybrider KI-Ansatz, der Informationsabruf (Retrieval) mit generativer Modellierung kombiniert. Anstatt Antworten ausschließlich aus dem internen Modellwissen zu erzeugen, ruft ein RAG-System zunächst relevante externe Informationen (z. B. Dokumente, Datenbankeinträge, Wissensgraphen) ab und nutzt diese anschließend als Kontext für die Text- oder Antwortgenerierung. +, Typischerweise besteht ein RAG-System aus zwei Hauptkomponenten: (1) einem Retriever, der auf Basis einer Anfrage relevante Inhalte identifiziert (häufig mittels Vektorsuche/Embeddings), und (2) einem Generator (meist ein großes Sprachmodell), der die abgerufenen Inhalte in eine kohärente Antwort integriert. Formal lässt sich dies als bedingte Generierung '"`UNIQ--math-00000002-QINU`"' auffassen, wobei '"`UNIQ--math-00000003-QINU`"' die retrievten Dokumente sind. +, Der entscheidende Vorteil von RAG liegt in der Entkopplung von Wissen und Sprachmodell: Inhalte können aktualisiert, versioniert und kuratiert werden, ohne das generative Modell neu zu trainieren. Gleichzeitig reduziert RAG das Risiko von Halluzinationen, da Aussagen explizit auf externe Quellen gestützt werden. +, …
S
Das SEIR-Modell erweitert das SIR-Modell um ein zusätzliches Kompartiment Exposed (E) für infizierte, aber noch nicht infektiöse Individuen. Damit bildet es eine Latenz- bzw. Inkubationsphase explizit ab, was für viele Infektionskrankheiten realistischer ist als ein unmittelbarer Übergang von empfänglich zu infektiös. +, Im Standard-SEIR-Modell gilt typischerweise:
'"`UNIQ--math-0000000B-QINU`"'
'"`UNIQ--math-0000000C-QINU`"'
'"`UNIQ--math-0000000D-QINU`"'
'"`UNIQ--math-0000000E-QINU`"'
Dabei ist '"`UNIQ--math-0000000F-QINU`"' die Rate, mit der Exponierte infektiös werden (mittlere Latenz '"`UNIQ--math-00000010-QINU`"'), während '"`UNIQ--math-00000011-QINU`"' und '"`UNIQ--math-00000012-QINU`"' analog zum SIR-Modell interpretiert werden. +, Die Latenz verschiebt Dynamiken zeitlich: Ausbrüche können verzögert auftreten, und die beobachtete Wellenform kann sich verändern. Die Schwellenbedingung bleibt qualitativ ähnlich ('"`UNIQ--math-00000013-QINU`"'), wobei '"`UNIQ--math-00000014-QINU`"' in vielen SEIR-Parametrisierungen weiterhin im Wesentlichen durch Übertragungs- und Genesungsparameter bestimmt wird (modellabhängige Details, z. B. bei zusätzlicher Mortalität oder komplexeren Kontaktstrukturen). +, …
Das SIR-Modell ist ein klassisches kompartmentalisierendes epidemiologisches Modell, das eine Population in drei Zustände unterteilt: Susceptible (S) (empfänglich), Infected (I) (infektiös) und Recovered/Removed (R) (genesen/entfernt). Es beschreibt, wie sich eine Infektionskrankheit durch Kontakte ausbreitet und wie Individuen anschließend aus dem infektiösen Zustand herausgehen. +, Im Standardmodell wird die Dynamik durch ein System gewöhnlicher Differentialgleichungen beschrieben:
'"`UNIQ--math-0000000C-QINU`"'
'"`UNIQ--math-0000000D-QINU`"'
'"`UNIQ--math-0000000E-QINU`"'
Hier ist '"`UNIQ--math-0000000F-QINU`"' die effektive Übertragungsrate (Kontakt × Transmission) und '"`UNIQ--math-00000010-QINU`"' die Genesungsrate (mittlere infektiöse Dauer '"`UNIQ--math-00000011-QINU`"'). +, Eine zentrale Kenngröße ist die Basisreproduktionszahl '"`UNIQ--math-00000012-QINU`"'. Im SIR-Modell ergibt sich bei vollständig empfänglicher Population näherungsweise
'"`UNIQ--math-00000013-QINU`"'.
Ein Ausbruch ist möglich, wenn '"`UNIQ--math-00000014-QINU`"'; die anfängliche Wachstumsphase wird durch den Übergang '"`UNIQ--math-00000015-QINU`"' dominiert, während später die Abnahme von '"`UNIQ--math-00000016-QINU`"' die Epidemie bremst. +, …
Die Sensitivitätsanalyse untersucht, wie stark die Ergebnisse eines Modells oder einer Berechnung auf Variationen der Eingabeparameter reagieren. Ziel ist es, diejenigen Annahmen oder Parameter zu identifizieren, die den größten Einfluss auf das Ergebnis haben, und damit die Robustheit der Resultate zu bewerten. +, Sensitivitätsanalyse ist keine eigenständige Vorhersage- oder Inferenzmethode, sondern ein Meta-Werkzeug, das auf bestehende Modelle angewendet wird. Sie erhöht Transparenz, hilft bei der Priorisierung von Datenanforderungen und macht Modellabhängigkeiten explizit. +, Methodisch reicht das Spektrum von lokalen Sensitivitätsanalysen (kleine Parameteränderungen um einen Referenzpunkt) bis zu globalen Verfahren, bei denen Parameter über ihren gesamten plausiblen Wertebereich variiert werden. Ein einfaches lokales Maß ist die partielle Ableitung '"`UNIQ--math-00000007-QINU`"', während globale Ansätze häufig varianzbasierte Maße verwenden, z. B. Sobol-Indizes, bei denen der Ergebnisvarianzanteil eines Parameters analysiert wird. +
Statistische Emulatoren sind surrogatbasierte Modelle, die das Verhalten eines rechenintensiven Simulations- oder Mechanistikmodells approximieren. Anstatt das Originalmodell bei jeder Anfrage auszuführen, wird ein statistisches Ersatzmodell trainiert, das Eingaben schnell auf Ausgaben abbildet. +, Emulatoren werden typischerweise auf einer Designmenge von Simulationsergebnissen trainiert, die den relevanten Eingaberaum abdeckt. Häufig eingesetzte Modellklassen sind Gaussprozesse, polynomiale Regressionen, Splines oder andere probabilistische Regressoren, die neben Punktvorhersagen auch Unsicherheitsmaße liefern können. +, Formal lässt sich ein Emulator als Approximation
'"`UNIQ--math-00000003-QINU`"'
auffassen, wobei '"`UNIQ--math-00000004-QINU`"' so gewählt wird, dass sie die Ausgabe des teuren Modells '"`UNIQ--math-00000005-QINU`"' mit minimalem Fehler und kontrollierter Unsicherheit nachbildet. Der Emulator ersetzt das Originalmodell nicht konzeptionell, sondern dient als beschleunigter Stellvertreter. +, …
Die stochastische Simulation ist ein Modellierungsansatz, bei dem Zufallsprozesse explizit in die Dynamik eines Systems eingebaut werden. Im Gegensatz zu deterministischen Modellen erzeugt jede Simulation einen möglichen Realisationspfad; die Gesamtheit vieler Läufe beschreibt eine Wahrscheinlichkeitsverteilung der möglichen Ergebnisse. +, Methodisch werden unsichere oder zufällige Größen als Zufallsvariablen modelliert (z. B. Übergangswahrscheinlichkeiten, Ereigniszeiten). Häufige Techniken sind Monte-Carlo-Simulationen, agentenbasierte stochastische Modelle oder stochastische Differentialgleichungen. Erwartungswerte werden aus vielen Läufen geschätzt, z. B. '"`UNIQ--math-00000001-QINU`"'. +, Stochastische Simulation dient primär der Abbildung natürlicher Variabilität und Unsicherheit in komplexen Systemen. Sie ist kein Inferenzverfahren im engeren Sinn, sondern ein simulationsbasierter Zugang zur Exploration von Verteilungen, Risiken und Extremereignissen. +
Die Support-Vector-Maschine (SVM) ist ein überwachtes Lernverfahren für Klassifikation und Regression, das Entscheidungsgrenzen mit maximalem Rand (Margin) zwischen Klassen konstruiert. Kernidee ist, eine Trennhyperebene zu finden, die den Abstand zu den nächstgelegenen Datenpunkten (den Support-Vektoren) maximiert. +, Für linear trennbare Daten ergibt sich das Optimierungsproblem
'"`UNIQ--math-00000004-QINU`"'.
Für nichtlinear trennbare Daten wird das Soft-Margin-Prinzip mit Schlupfvariablen eingeführt und die Trennung über Kernel-Tricks (z. B. RBF, Polynom) in höherdimensionale Merkmalsräume verlagert. +, Die Support-Vector-Regression (SVR) verallgemeinert das Prinzip auf Regressionsprobleme, indem Abweichungen innerhalb einer '"`UNIQ--math-00000005-QINU`"'-Röhre toleriert werden. SVMs sind durch Regularisierung gut kontrollierbar, liefern stabile Lösungen und sind besonders wirksam bei hochdimensionalen Daten. +, …
DDie Synthetische Kontrolle ist ein quasi-experimentelles kausales Verfahren, das den Effekt einer Intervention auf eine einzelne behandelte Einheit (z. B. ein Land, eine Region, ein Krankenhaus) schätzt. Statt eine einzelne Kontrollgruppe zu wählen, konstruiert SCM eine gewichtete Kombination mehrerer unbehandelter Einheiten („Donor Pool“), sodass diese vor der Intervention das Verhalten der behandelten Einheit möglichst genau reproduziert. Diese gewichtete Kombination heißt synthetische Kontrolle.
Formal werden Gewichte so optimiert, dass relevante Prä-Interventions-Merkmale (Outcome-Verläufe und Kovariaten) zwischen behandelter Einheit und synthetischer Kontrolle möglichst übereinstimmen. Nach der Intervention wird die Abweichung zwischen beobachtetem Outcome und synthetischer Kontrolle als kausaler Interventionseffekt interpretiert – unter der Annahme, dass die synthetische Kontrolle den kontrafaktischen Verlauf ohne Intervention gut approximiert.
SCM ist besonders stark, wenn parallele Trends (wie bei DiD) nicht plausibel sind oder nur eine sehr kleine Zahl behandelter Einheiten existiert. Erweiterungen (Generalized SCM, Augmented SCM) erlauben mehrere behandelte Einheiten, Regularisierung und Inferenzverbesserungen. +
Die Szenarioanalyse ist ein analytischer Ansatz, bei dem mehrere plausible, konsistente Zukunftsentwicklungen („Szenarien“) systematisch konstruiert und analysiert werden. Ziel ist es nicht, eine einzelne wahrscheinlichste Zukunft vorherzusagen, sondern ein Spektrum möglicher Entwicklungen unter unterschiedlichen Annahmen sichtbar zu machen. +, Methodisch basiert die Szenarioanalyse auf der Variation zentraler Einflussfaktoren (z. B. Annahmen, Parameter, exogene Schocks, politische Entscheidungen) innerhalb eines Modells oder einer Argumentationsstruktur. Diese Faktoren werden bewusst nicht probabilistisch gewichtet, sondern als Was-wäre-wenn-Konstellationen betrachtet (z. B. Best-Case, Worst-Case, Referenzszenario). +, Szenarioanalyse ist damit weniger ein einzelnes mathematisches Verfahren als ein strukturiertes Anwendungskonzept, das mit sehr unterschiedlichen Modelltypen kombiniert werden kann (statistisch, mechanistisch, simulationsbasiert). Der Fokus liegt auf Robustheit, Transparenz und Entscheidungsunterstützung, nicht auf Inferenz im strengen statistischen Sinn. +
T
Transformermodelle sind eine Klasse tiefer neuronaler Netze, die Sequenzen vollständig über Aufmerksamkeitsmechanismen (Self-Attention) verarbeiten, ohne rekurrente oder konvolutionale Strukturen zu benötigen. Dadurch können Abhängigkeiten zwischen beliebigen Positionen einer Sequenz parallel und effizient modelliert werden. +, Zentral ist der Self-Attention-Mechanismus, der für jedes Element einer Sequenz gewichtete Beiträge aller anderen Elemente berechnet. In vereinfachter Form lautet die Berechnung
'"`UNIQ--math-00000004-QINU`"',
wobei '"`UNIQ--math-00000005-QINU`"' (Queries), '"`UNIQ--math-00000006-QINU`"' (Keys) und '"`UNIQ--math-00000007-QINU`"' (Values) lineare Projektionen der Eingaben sind. Mehrere parallele Köpfe (Multi-Head Attention) erlauben es, unterschiedliche Beziehungsaspekte gleichzeitig zu erfassen. +, Zusätzlich zur Attention bestehen Transformer aus Feedforward-Schichten, Residualverbindungen und Normierung. Da das Modell selbst keine Positionsinformation enthält, werden Positionsencodierungen hinzugefügt, um Reihenfolgeinformationen abzubilden. +, …
U
Die Unterbrochene Zeitserie (ITS) ist ein quasi-experimentelles kausales Analyseverfahren, das den Effekt einer Intervention anhand langer Zeitreihen vor und nach einem klar definierten Eingriffszeitpunkt schätzt. Die zentrale Idee ist, den Trend (Steigung) und das Niveau (Intercept) der Zielgröße vor der Intervention zu modellieren und zu prüfen, ob es nach der Intervention zu einem sprunghaften Niveauwechsel und/oder einer Trendänderung kommt.
Formal wird ITS häufig als segmentierte Regression umgesetzt. Dabei werden Zeit, Interventionsindikator (0/1) und eine Interaktion (Zeit × Intervention) in ein Regressionsmodell aufgenommen. So lassen sich sofortige Effekte (Niveausprung) von allmählichen Effekten (Trendänderung) trennen. Wichtig ist die explizite Modellierung von Autokorrelation, Saisonalität und Nichtstationarität, z. B. mittels ARIMA-Komponenten oder Generalized Least Squares.
ITS benötigt keine externe Kontrollgruppe, stützt sich aber stark auf die Annahme, dass keine weiteren zeitgleich wirkenden Interventionen den Effekt verfälschen. Erweiterungen (Controlled ITS) fügen eine Vergleichszeitreihe hinzu, um zeitgleiche Störereignisse besser abzufangen. +
V
Ein System zum Erkennen vom Normalzustand abweichender Trends anhand zeitlich und räumlich aufgelöster multidimensionaler Daten +
Z
Zeitfaltungsnetze (Temporal Convolutional Networks, TCNs) sind eine Klasse tiefer neuronaler Netze für die Modellierung von zeitlichen Sequenzen, die auf kausalen, eindimensionalen Faltungsoperationen basieren. Im Gegensatz zu rekurrenten Netzen verarbeiten TCNs Sequenzen vollständig parallel und vermeiden explizite Rückkopplungsschleifen. +, TCNs verwenden meist Residualblöcke, Normierung und Dropout, was zu stabilerem Training auch bei sehr tiefen Architekturen führt. Sie können lange zeitliche Abhängigkeiten erfassen und zeigen in vielen Anwendungen vergleichbare oder bessere Leistung als LSTM- oder GRU-Netze. +, Durch ihre rein konvolutionale Struktur sind TCNs gut skalierbar, deterministisch in der Laufzeit und einfacher zu parallelisieren als rekurrente Modelle. Gleichzeitig bleiben sie stark nichtlinear und datengetrieben. +, …