Suche mittels Attribut
Zur Navigation springen
Zur Suche springen
Diese Seite stellt eine einfache Suchoberfläche zum Finden von Objekten bereit, die ein Attribut mit einem bestimmten Datenwert enthalten. Andere verfügbare Suchoberflächen sind die Attributsuche sowie der Abfragengenerator.
Liste der Ergebnisse
- Autoencoder + (Formal wird eine Abbildung '"`UNIQ--math-0 … Formal wird eine Abbildung</br>'"`UNIQ--math-00000003-QINU`"'</br>'"`UNIQ--math-00000004-QINU`"'</br>gelernt, sodass ein Rekonstruktionsfehler (z. B. '"`UNIQ--math-00000005-QINU`"') minimiert wird. Durch Engpässe, Regularisierung oder Rauschzugabe wird verhindert, dass das Modell triviale Identitätsabbildungen lernt.dell triviale Identitätsabbildungen lernt.)
- Agentenbasierte Modellierung + (Agentenbasierte Modellierung (Agent-Based … Agentenbasierte Modellierung (Agent-Based Modeling, ABM) ist ein mechanistischer Simulationsansatz, bei dem ein System als Menge autonomer, interagierender Agenten beschrieben wird. Jeder Agent folgt einfachen, lokal definierten Regeln, während das globale Systemverhalten emergent aus den vielen Einzelinteraktionen entsteht.s den vielen Einzelinteraktionen entsteht.)
- Synthetische Kontrolle + (DDie Synthetische Kontrolle ist ein quasi- … DDie Synthetische Kontrolle ist ein quasi-experimentelles kausales Verfahren, das den Effekt einer Intervention auf eine einzelne behandelte Einheit (z. B. ein Land, eine Region, ein Krankenhaus) schätzt. Statt eine einzelne Kontrollgruppe zu wählen, konstruiert SCM eine gewichtete Kombination mehrerer unbehandelter Einheiten („Donor Pool“), sodass diese vor der Intervention das Verhalten der behandelten Einheit möglichst genau reproduziert. Diese gewichtete Kombination heißt synthetische Kontrolle.</br></br>Formal werden Gewichte so optimiert, dass relevante Prä-Interventions-Merkmale (Outcome-Verläufe und Kovariaten) zwischen behandelter Einheit und synthetischer Kontrolle möglichst übereinstimmen. Nach der Intervention wird die Abweichung zwischen beobachtetem Outcome und synthetischer Kontrolle als kausaler Interventionseffekt interpretiert – unter der Annahme, dass die synthetische Kontrolle den kontrafaktischen Verlauf ohne Intervention gut approximiert.</br></br>SCM ist besonders stark, wenn parallele Trends (wie bei DiD) nicht plausibel sind oder nur eine sehr kleine Zahl behandelter Einheiten existiert. Erweiterungen (Generalized SCM, Augmented SCM) erlauben mehrere behandelte Einheiten, Regularisierung und Inferenzverbesserungen.egularisierung und Inferenzverbesserungen.)
- Differenz-von-Differenzen-Methode + (Die Differenz-von-Differenzen-Methode (DiD … Die Differenz-von-Differenzen-Methode (DiD) ist ein quasi-experimentelles kausales Schätzverfahren, das Effekte von Interventionen identifiziert, wenn keine Randomisierung möglich ist. Die Grundidee besteht darin, die Änderung einer Zielgröße über die Zeit in einer Behandlungsgruppe mit der entsprechenden Änderung in einer Kontrollgruppe zu vergleichen. Durch das „Differenzieren der Differenzen“ werden zeitinvariante Unterschiede zwischen den Gruppen herausgerechnet.</br></br>Formal betrachtet vergleicht DiD vier Mittelwerte: (Behandlung nach − Behandlung vor) − (Kontrolle nach − Kontrolle vor). Der so erhaltene Schätzer interpretiert man als kausalen Effekt der Intervention, unter der zentralen Annahme paralleler Trends: Ohne Intervention hätten sich Behandlungs- und Kontrollgruppe im Zeitverlauf gleich entwickelt.</br></br>In der Praxis wird DiD meist als lineares Regressionsmodell mit Interaktionsterm umgesetzt (Gruppe × Zeit), oft erweitert um Fixed Effects, Kovariaten und robuste Standardfehler. Moderne Varianten erlauben mehrere Zeitpunkte, gestaffelte Interventionen und heterogene Effekte.lte Interventionen und heterogene Effekte.)
- Quantilsregression + (Die Quantilsregression ist ein statistisch … Die Quantilsregression ist ein statistisches Regressionsverfahren, das – im Gegensatz zur klassischen linearen Regression – nicht den bedingten Erwartungswert, sondern beliebige Quantile (z. B. Median, obere oder untere Randbereiche) der Zielvariable modelliert. Dadurch lassen sich Effekte von Kovariaten entlang der gesamten Verteilung der Zielgröße untersuchen und nicht nur im Mittel.größe untersuchen und nicht nur im Mittel.)
- Szenarioanalyse + (Die Szenarioanalyse ist ein analytischer A … Die Szenarioanalyse ist ein analytischer Ansatz, bei dem mehrere plausible, konsistente Zukunftsentwicklungen („Szenarien“) systematisch konstruiert und analysiert werden. Ziel ist es nicht, eine einzelne wahrscheinlichste Zukunft vorherzusagen, sondern ein Spektrum möglicher Entwicklungen unter unterschiedlichen Annahmen sichtbar zu machen.rschiedlichen Annahmen sichtbar zu machen.)
- Unterbrochene Zeitserie + (Die Unterbrochene Zeitserie (ITS) ist ein … Die Unterbrochene Zeitserie (ITS) ist ein quasi-experimentelles kausales Analyseverfahren, das den Effekt einer Intervention anhand langer Zeitreihen vor und nach einem klar definierten Eingriffszeitpunkt schätzt. Die zentrale Idee ist, den Trend (Steigung) und das Niveau (Intercept) der Zielgröße vor der Intervention zu modellieren und zu prüfen, ob es nach der Intervention zu einem sprunghaften Niveauwechsel und/oder einer Trendänderung kommt.</br></br>Formal wird ITS häufig als segmentierte Regression umgesetzt. Dabei werden Zeit, Interventionsindikator (0/1) und eine Interaktion (Zeit × Intervention) in ein Regressionsmodell aufgenommen. So lassen sich sofortige Effekte (Niveausprung) von allmählichen Effekten (Trendänderung) trennen. Wichtig ist die explizite Modellierung von Autokorrelation, Saisonalität und Nichtstationarität, z. B. mittels ARIMA-Komponenten oder Generalized Least Squares.</br></br>ITS benötigt keine externe Kontrollgruppe, stützt sich aber stark auf die Annahme, dass keine weiteren zeitgleich wirkenden Interventionen den Effekt verfälschen. Erweiterungen (Controlled ITS) fügen eine Vergleichszeitreihe hinzu, um zeitgleiche Störereignisse besser abzufangen.tgleiche Störereignisse besser abzufangen.)
- MCP-Server + (Ein MCP-Server (Model Context Protocol Ser … Ein MCP-Server (Model Context Protocol Server) ist ein Dienst, der einer KI-Anwendung (dem MCP-Host/Client) standardisiert Werkzeuge (Tools) und Ressourcen bereitstellt – z. B. Dateizugriff, Datenbankabfragen, API-Aufrufe oder domänenspezifische Funktionen. Die Idee ist, dass nicht jede KI-App für jede Datenquelle eigene Integrationen bauen muss, sondern über ein einheitliches Protokoll andocken kann.ein einheitliches Protokoll andocken kann.)
- OpenCode de + (Eine Platform zum Austausch für die deutsche öffentliche Verwaltung geeigneter Open Source-Software, z.B in Form von gehärteten Dockercontainern)
- Ensemblelernen + (Ensemblelernen ist ein Oberbegriff für Ler … Ensemblelernen ist ein Oberbegriff für Lernverfahren, bei denen mehrere Einzelmodelle gezielt kombiniert werden, um eine bessere Vorhersageleistung, Robustheit und Stabilität zu erzielen als mit einem einzelnen Modell. Die Grundidee ist, dass unterschiedliche Modelle unterschiedliche Fehler machen und sich diese Fehler durch Aggregation teilweise kompensieren. durch Aggregation teilweise kompensieren.)
- Exponenzielle Glättung + (Exponenzielle Glättung ist eine Familie zeitreihenbasierter Prognoseverfahren, bei denen vergangene Beobachtungen abnehmend gewichtet werden: Neuere Daten erhalten ein höheres Gewicht als ältere, und die Gewichte fallen exponentiell ab.)
- Gewöhnliche Differenzialgleichungen + (Gewöhnliche Differenzialgeichungen modelli … Gewöhnliche Differenzialgeichungen modellieren ein dynamisches System aus verschiedenen Komponenten, indem sie die Zu- und Abgänge der einzelnen Komponenten durch eine Summe parametrisierter algebraischer Ableitungen abbilden. Differenzialgleichungen können analytisch gelöst werden, worauf hin man eine ableitungsfreie Gleichung erhält, welche den Ergebnisraum abbildet, oder numerisch-iterativ angenähert werden, wenn keine analytische Lösung verfügbar ist.nn keine analytische Lösung verfügbar ist.)
- Nowcasting + (Nowcasting bezeichnet Methoden, die den ak … Nowcasting bezeichnet Methoden, die den aktuellen (gegenwartsnahen) Zustand einer Zielgröße schätzen, obwohl die dafür relevanten Beobachtungen unvollständig, verzögert oder verrauscht vorliegen. Der Kernunterschied zur Vorhersage ist der Zeithorizont: Nowcasting schätzt heute, nicht morgen. Typische Probleme sind Meldeverzüge (Reporting Delays), Nachmeldungen, Right-Censoring und Messfehler.</br></br>Methodisch wird Nowcasting häufig als Zustandsschätzung formuliert. Klassische Ansätze nutzen Bayessche Modelle, State-Space-Modelle (z. B. Kalman-Filter), Deconvolution/Back-Projection oder hierarchische Verzögerungsmodelle, um aus partiellen Meldungen den aktuellen wahren Wert zu rekonstruieren. Moderne Varianten kombinieren mehrere Datenquellen (z. B. Meldedaten, Syndromdaten, Suchanfragen) und korrigieren systematische Verzerrungen.</br></br>Ein zentrales Ergebnis des Nowcastings ist nicht nur ein Punktwert, sondern eine Unsicherheitsverteilung des aktuellen Zustands. Diese Unsicherheit nimmt ab, sobald Nachmeldungen eintreffen – das Modell wird fortlaufend aktualisiert. das Modell wird fortlaufend aktualisiert.)
- Propensity-Score-Matching + (Propensity-Score-Matching ist ein quasi-ex … Propensity-Score-Matching ist ein quasi-experimentelles Verfahren der kausalen Inferenz, das Beobachtungsdaten so aufbereitet, dass Behandlungs- und Kontrollgruppe hinsichtlich beobachteter Kovariaten möglichst vergleichbar sind. Kernidee ist der Propensity Score: die Wahrscheinlichkeit, eine Behandlung zu erhalten, gegeben die beobachteten Kovariaten. Dieser Score wird meist per logistischer Regression oder einem flexibleren Klassifikationsmodell geschätzt.</br></br>Anschließend werden behandelte und unbehandelte Individuen mit ähnlichem Propensity Score gepaart (Matching). Gängige Varianten sind 1:1-Nearest-Neighbor-Matching, Matching mit/ohne Zurücklegen, Caliper-Matching (maximale Distanz), Kernel- oder Stratification-Matching. Nach dem Matching wird der durchschnittliche Behandlungseffekt (ATE oder ATT) als Mittelwertunterschied der Outcomes geschätzt.</br></br>Zentrale Annahme ist die Unconfoundedness (keine unbeobachteten Confounder): gegeben die Kovariaten ist die Behandlung „as-if random“. PSM eliminiert Verzerrung durch beobachtete Störfaktoren, kann aber keine unbeobachteten ausgleichen. Qualitätssicherung erfolgt über Balance-Checks (Standardized Mean Differences) und Sensitivitätsanalysen.an Differences) und Sensitivitätsanalysen.)
- Prophet + (Prophet ist ein additives Zeitreihen-Vorhe … Prophet ist ein additives Zeitreihen-Vorhersagemodell, das speziell für geschäfts- und operationsnahe Daten mit starken Saisonalitäten, Feiertagseffekten und Trendbrüchen entwickelt wurde. Ein Kernmerkmal ist die automatische Changepoint-Erkennung: Prophet erlaubt, dass sich der Trend an datengetrieben erkannten Zeitpunkten ändert (z. B. Politikwechsel, Systemumstellungen). Die Regularisierung steuert, wie flexibel diese Änderungen sind. Saisonalitäten (jährlich, wöchentlich, täglich) sind standardmäßig enthalten und lassen sich leicht erweitern. Unter der Haube wird Prophet als Bayessches Zustandsraum-/Regressionsmodell formuliert (mit MAP-Schätzung), was robuste Vorhersageintervalle ermöglicht. Die Stärke liegt weniger in theoretischer Eleganz als in Robustheit, Skalierbarkeit und schneller Anwendung mit minimalem Feature-Engineering.wendung mit minimalem Feature-Engineering.)
- Random Forrest + (Random Forest ist ein ensemblebasiertes ma … Random Forest ist ein ensemblebasiertes maschinelles Lernverfahren, das aus einer großen Anzahl von Entscheidungsbäumen besteht, die jeweils auf zufälligen Teilmengen der Daten und der Prädiktoren trainiert werden. Die Vorhersage erfolgt durch Aggregation der Einzelergebnisse (Mehrheitsvotum bei Klassifikation, Mittelwert bei Regression).lassifikation, Mittelwert bei Regression).)