Suche mittels Attribut

Zur Navigation springen Zur Suche springen

Diese Seite stellt eine einfache Suchoberfläche zum Finden von Objekten bereit, die ein Attribut mit einem bestimmten Datenwert enthalten. Andere verfügbare Suchoberflächen sind die Attributsuche sowie der Abfragengenerator.

Suche mittels Attribut

Eine Liste aller Seiten, die das Attribut „Beschreibung ist“ mit dem Wert „Metapopulationsmodelle gehen von getrennten Unterpopulationen aus, welche miteinander in beschränktem Umfang interagieren, und modellieren diese Interaktionen und ihre Auswirkungen“ haben. Weil nur wenige Ergebnisse gefunden wurden, werden auch ähnliche Werte aufgelistet.

⧼showingresults⧽

Zeige (vorherige 50 | nächste 50) (20 | 50 | 100 | 250 | 500)


    

Liste der Ergebnisse

  • Zeitfaltungsnetze  + (Zeitfaltungsnetze (Temporal Convolutional Zeitfaltungsnetze (Temporal Convolutional Networks, TCNs) sind eine Klasse tiefer neuronaler Netze für die Modellierung von zeitlichen Sequenzen, die auf kausalen, eindimensionalen Faltungsoperationen basieren. Im Gegensatz zu rekurrenten Netzen verarbeiten TCNs Sequenzen vollständig parallel und vermeiden explizite Rückkopplungsschleifen.ermeiden explizite Rückkopplungsschleifen.)
  • Metapopulationmodelle  + (Metapopulationsmodelle gehen von getrennten Unterpopulationen aus, welche miteinander in beschränktem Umfang interagieren, und modellieren diese Interaktionen und ihre Auswirkungen)
  • ARIMA-Modelle  + (ARIMA-Modelle (AutoRegressive Integrated MARIMA-Modelle (AutoRegressive Integrated Moving Average) sind statistische Zeitreihenmodelle, die eine Zielgröße als Kombination aus Autoregression (AR), Differenzierung (I) zur Herstellung von Stationarität und gleitendem Mittelwert (MA) modellieren. Sie eignen sich zur Beschreibung und Prognose zeitlicher Abhängigkeiten in univariaten Zeitreihen. Abhängigkeiten in univariaten Zeitreihen.)
  • Agentenbasierte Modelle  + (Agentenbasierte Modelle modellieren IndiviAgentenbasierte Modelle modellieren Individuen explizit, und weißen jedem Individuum Zustände, Regeln und Interaktionen zu. Die Regeln und Interaktionen können deterministisch oder stochastisch sein. Statusänderungen der Agenten sind zeitdiskrete Ereignissen der Agenten sind zeitdiskrete Ereignisse)
  • Agentenbasierte Modellierung  + (Agentenbasierte Modellierung (Agent-Based Agentenbasierte Modellierung (Agent-Based Modeling, ABM) ist ein mechanistischer Simulationsansatz, bei dem ein System als Menge autonomer, interagierender Agenten beschrieben wird. Jeder Agent folgt einfachen, lokal definierten Regeln, während das globale Systemverhalten emergent aus den vielen Einzelinteraktionen entsteht.s den vielen Einzelinteraktionen entsteht.)
  • Autoencoder  + (Autoencoder sind neuronale Netzwerke des uAutoencoder sind neuronale Netzwerke des unüberwachten Lernens, die darauf trainiert werden, ihre Eingabedaten über eine komprimierte interne Darstellung (latenter Raum) möglichst verlustarm zu rekonstruieren. Sie bestehen aus einem Encoder, der die Daten verdichtet, und einem Decoder, der die Originaldaten aus dieser Verdichtung wiederherstellt.en aus dieser Verdichtung wiederherstellt.)
  • Bayessche Inferenz  + (Bayessche Inferenz ist ein allgemeines staBayessche Inferenz ist ein allgemeines statistisches Inferenzprinzip, bei dem Wahrscheinlichkeiten als Grad des Wissens interpretiert werden. Zentrale Idee ist, vorhandenes Vorwissen (Prior) mit beobachteten Daten zu kombinieren, um ein aktualisiertes Wissen über unbekannte Größen (Posterior) zu erhalten.unbekannte Größen (Posterior) zu erhalten.)
  • Bayessche Netzwerke  + (Bayessche Netzwerke (Bayesian Networks, BeBayessche Netzwerke (Bayesian Networks, Belief Networks) sind probabilistische grafische Modelle, die Zufallsvariablen und ihre bedingten Abhängigkeiten mittels eines gerichteten azyklischen Graphen (DAG) darstellen. Knoten repräsentieren Variablen, gerichtete Kanten direkte probabilistische Abhängigkeiten.n direkte probabilistische Abhängigkeiten.)
  • Synthetische Kontrolle  + (DDie Synthetische Kontrolle ist ein quasi-DDie Synthetische Kontrolle ist ein quasi-experimentelles kausales Verfahren, das den Effekt einer Intervention auf eine einzelne behandelte Einheit (z. B. ein Land, eine Region, ein Krankenhaus) schätzt. Statt eine einzelne Kontrollgruppe zu wählen, konstruiert SCM eine gewichtete Kombination mehrerer unbehandelter Einheiten („Donor Pool“), sodass diese vor der Intervention das Verhalten der behandelten Einheit möglichst genau reproduziert. Diese gewichtete Kombination heißt synthetische Kontrolle.</br></br>Formal werden Gewichte so optimiert, dass relevante Prä-Interventions-Merkmale (Outcome-Verläufe und Kovariaten) zwischen behandelter Einheit und synthetischer Kontrolle möglichst übereinstimmen. Nach der Intervention wird die Abweichung zwischen beobachtetem Outcome und synthetischer Kontrolle als kausaler Interventionseffekt interpretiert – unter der Annahme, dass die synthetische Kontrolle den kontrafaktischen Verlauf ohne Intervention gut approximiert.</br></br>SCM ist besonders stark, wenn parallele Trends (wie bei DiD) nicht plausibel sind oder nur eine sehr kleine Zahl behandelter Einheiten existiert. Erweiterungen (Generalized SCM, Augmented SCM) erlauben mehrere behandelte Einheiten, Regularisierung und Inferenzverbesserungen.egularisierung und Inferenzverbesserungen.)
  • Elastische Netzregression  + (Die Elastische Netzregression (Elastic NetDie Elastische Netzregression (Elastic Net Regression) ist ein regularisiertes Regressionsverfahren, das die Eigenschaften der Lasso-Regression (L1-Strafe) und der Ridge-Regression (L2-Strafe) kombiniert. Ziel ist es, stabile Schätzungen in Situationen mit vielen, möglicherweise stark korrelierten Prädiktoren zu erhalten.tark korrelierten Prädiktoren zu erhalten.)
  • Instumentalvariablemmethode  + (Die Instrumentalvariablenmethode (IV) ist Die Instrumentalvariablenmethode (IV) ist ein kausales Schätzverfahren, das eingesetzt wird, wenn eine erklärende Variable (Behandlung, Exposition) endogen ist – also mit unbeobachteten Störfaktoren korreliert. In solchen Fällen liefern einfache Regressions- oder Matching-Methoden verzerrte Effekte. Die IV-Methode nutzt eine zusätzliche Variable, das Instrument, um diese Endogenität zu umgehen.</br></br>Ein gültiges Instrument 𝑍 muss drei zentrale Bedingungen erfüllen:</br># Relevanz – <math>Z<\math> beeinflusst die Behandlung <math>D<\math></br># Exogenität – <math>Z<\math> ist unabhängig von unbeobachteten Confoundern</br># Ausschlussrestriktion – <math>Z<\math> wirkt auf das Outcome <math>Y<\math> nur über <math>D<\math>, nicht direkt.</br></br>Unter diesen Annahmen kann man den kausalen Effekt von <math>D<\math> auf <math>Y<\math> identifizieren, selbst wenn <math>D<\math> nicht randomisiert ist.</br></br>Praktisch wird IV häufig über Two-Stage Least Squares (2SLS) umgesetzt: In der ersten Stufe wird die Behandlung durch das Instrument vorhergesagt, in der zweiten Stufe wird das Outcome auf diese vorhergesagte Behandlung regressiert. Der geschätzte Effekt ist meist ein Local Average Treatment Effect (LATE), d. h. er gilt für jene Subpopulation, deren Behandlung tatsächlich durch das Instrument beeinflusst wird (die „Compliers“).</br></br>=='"`UNIQ--h-1--QINU`"' Anwendbarkeit im Gesundheitssektor ==</br></br>Im Gesundheitswesen wird die IV-Methode eingesetzt, wenn Behandlungszuweisungen stark selektiv sind, z. B. bei Therapieentscheidungen, Krankenhauswahl oder Medikamentenverschreibung. Typische Instrumente sind ärztliche Behandlungspräferenzen, regionale Versorgungsunterschiede, Entfernung zu Einrichtungen oder administrative Regeländerungen.</br></br>In Public Health kommt IV zum Einsatz, um kausale Effekte von Expositionen zu schätzen, die nicht randomisierbar sind, etwa der Einfluss von Versicherungsschutz, Screening-Programmen oder Umweltbelastungen. Besonders wichtig ist IV, wenn unbeobachtete Confounder (z. B. Gesundheitsbewusstsein) eine zentrale Rolle spielen und andere Methoden (PSM, DiD) nicht ausreichen.</br></br>=='"`UNIQ--h-2--QINU`"' Sonstiges ==</br></br>Starke Annahmen (Exogenität, Ausschlussrestriktion)</br></br>Schwache Instrumente problematisch</br></br>=='"`UNIQ--h-3--QINU`"' Semantik ==</br></br>Wikidata-Identifikator ist: [[Wikidata ID ist::Q173206usschlussrestriktion) Schwache Instrumente problematisch =='"`UNIQ--h-3--QINU`"' Semantik == Wikidata-Identifikator ist: [[Wikidata ID ist::Q173206)
  • Szenarioanalyse  + (Die Szenarioanalyse ist ein analytischer ADie Szenarioanalyse ist ein analytischer Ansatz, bei dem mehrere plausible, konsistente Zukunftsentwicklungen („Szenarien“) systematisch konstruiert und analysiert werden. Ziel ist es nicht, eine einzelne wahrscheinlichste Zukunft vorherzusagen, sondern ein Spektrum möglicher Entwicklungen unter unterschiedlichen Annahmen sichtbar zu machen.rschiedlichen Annahmen sichtbar zu machen.)
  • Unterbrochene Zeitserie  + (Die Unterbrochene Zeitserie (ITS) ist ein Die Unterbrochene Zeitserie (ITS) ist ein quasi-experimentelles kausales Analyseverfahren, das den Effekt einer Intervention anhand langer Zeitreihen vor und nach einem klar definierten Eingriffszeitpunkt schätzt. Die zentrale Idee ist, den Trend (Steigung) und das Niveau (Intercept) der Zielgröße vor der Intervention zu modellieren und zu prüfen, ob es nach der Intervention zu einem sprunghaften Niveauwechsel und/oder einer Trendänderung kommt.</br></br>Formal wird ITS häufig als segmentierte Regression umgesetzt. Dabei werden Zeit, Interventionsindikator (0/1) und eine Interaktion (Zeit × Intervention) in ein Regressionsmodell aufgenommen. So lassen sich sofortige Effekte (Niveausprung) von allmählichen Effekten (Trendänderung) trennen. Wichtig ist die explizite Modellierung von Autokorrelation, Saisonalität und Nichtstationarität, z. B. mittels ARIMA-Komponenten oder Generalized Least Squares.</br></br>ITS benötigt keine externe Kontrollgruppe, stützt sich aber stark auf die Annahme, dass keine weiteren zeitgleich wirkenden Interventionen den Effekt verfälschen. Erweiterungen (Controlled ITS) fügen eine Vergleichszeitreihe hinzu, um zeitgleiche Störereignisse besser abzufangen.tgleiche Störereignisse besser abzufangen.)
  • MCP-Server  + (Ein MCP-Server (Model Context Protocol SerEin MCP-Server (Model Context Protocol Server) ist ein Dienst, der einer KI-Anwendung (dem MCP-Host/Client) standardisiert Werkzeuge (Tools) und Ressourcen bereitstellt – z. B. Dateizugriff, Datenbankabfragen, API-Aufrufe oder domänenspezifische Funktionen. Die Idee ist, dass nicht jede KI-App für jede Datenquelle eigene Integrationen bauen muss, sondern über ein einheitliches Protokoll andocken kann.ein einheitliches Protokoll andocken kann.)
  • Ensemblelernen  + (Ensemblelernen ist ein Oberbegriff für LerEnsemblelernen ist ein Oberbegriff für Lernverfahren, bei denen mehrere Einzelmodelle gezielt kombiniert werden, um eine bessere Vorhersageleistung, Robustheit und Stabilität zu erzielen als mit einem einzelnen Modell. Die Grundidee ist, dass unterschiedliche Modelle unterschiedliche Fehler machen und sich diese Fehler durch Aggregation teilweise kompensieren. durch Aggregation teilweise kompensieren.)
  • Faltungsnetze  + (Faltungsnetze (Convolutional Neural NetworFaltungsnetze (Convolutional Neural Networks, CNNs) sind eine Klasse tiefer neuronaler Netze, die speziell für die Verarbeitung gitterartig strukturierter Daten entwickelt wurden, insbesondere für Bilder, aber auch für Signale und räumlich-zeitliche Daten. Zentrale Idee ist die Verwendung von Faltungsoperationen, um lokale Muster effizient zu erkennen.n, um lokale Muster effizient zu erkennen.)
  • Generalisierte lineare Modelle  + (Generalisierte lineare Modelle (GLM) sind Generalisierte lineare Modelle (GLM) sind eine Erweiterung der klassischen linearen Regression, die es erlauben, nicht-normalverteilte Zielvariablen zu modellieren. Dazu wird der Erwartungswert der Zielvariable über eine Link-Funktion mit einem linearen Prädiktor der Kovariaten verknüpft.nearen Prädiktor der Kovariaten verknüpft.)
  • Gewöhnliche Differenzialgleichungen  + (Gewöhnliche Differenzialgeichungen modelliGewöhnliche Differenzialgeichungen modellieren ein dynamisches System aus verschiedenen Komponenten, indem sie die Zu- und Abgänge der einzelnen Komponenten durch eine Summe parametrisierter algebraischer Ableitungen abbilden. Differenzialgleichungen können analytisch gelöst werden, worauf hin man eine ableitungsfreie Gleichung erhält, welche den Ergebnisraum abbildet, oder numerisch-iterativ angenähert werden, wenn keine analytische Lösung verfügbar ist.nn keine analytische Lösung verfügbar ist.)
  • Gradientenverstärkung  + (Gradientenverstärkung (Gradient Boosting) Gradientenverstärkung (Gradient Boosting) ist ein ensemblebasiertes maschinelles Lernverfahren, bei dem ein starkes Vorhersagemodell durch die sequenzielle Kombination vieler schwacher Lerner (meist Entscheidungsbäume) aufgebaut wird. Jeder neue Lerner wird so trainiert, dass er die Fehler der bisherigen Modellkombination korrigiert.r bisherigen Modellkombination korrigiert.)
  • Graphen-informierte neuronale Netze  + (Graphen-informierte neuronale Netze (GraphGraphen-informierte neuronale Netze (Graph Neural Networks, GNNs) sind neuronale Modelle, die strukturierte Daten in Form von Graphen verarbeiten. Knoten repräsentieren Entitäten, Kanten ihre Beziehungen; das Modell lernt Repräsentationen, indem Informationen entlang der Graphstruktur propagiert werden.tlang der Graphstruktur propagiert werden.)
  • Long Short-Term Memory  + (Long Short-Term Memory (LSTM) ist eine speLong Short-Term Memory (LSTM) ist eine spezielle Architektur rekurrenter neuronaler Netze (RNNs), die entwickelt wurde, um langfristige zeitliche Abhängigkeiten in Sequenzdaten zu modellieren. Im Gegensatz zu klassischen RNNs adressieren LSTMs explizit das Problem des Verschwindens bzw. Explodierens von Gradienten.hwindens bzw. Explodierens von Gradienten.)
  • Metapopulationmodelle  +
  • Metapopulationsmodelle  + (Metapopulationsmodelle sind mechanistischeMetapopulationsmodelle sind mechanistische Modellierungsansätze, bei denen eine Gesamtpopulation in mehrere Teilpopulationen (Subpopulationen) zerlegt wird, die räumlich, sozial oder organisatorisch getrennt sind und über Kopplungen (z. B. Mobilität, Migration, Kontakte) miteinander interagieren. Jede Subpopulation besitzt eine eigene interne Dynamik.ation besitzt eine eigene interne Dynamik.)
  • Nowcasting  + (Nowcasting bezeichnet Methoden, die den akNowcasting bezeichnet Methoden, die den aktuellen (gegenwartsnahen) Zustand einer Zielgröße schätzen, obwohl die dafür relevanten Beobachtungen unvollständig, verzögert oder verrauscht vorliegen. Der Kernunterschied zur Vorhersage ist der Zeithorizont: Nowcasting schätzt heute, nicht morgen. Typische Probleme sind Meldeverzüge (Reporting Delays), Nachmeldungen, Right-Censoring und Messfehler.</br></br>Methodisch wird Nowcasting häufig als Zustandsschätzung formuliert. Klassische Ansätze nutzen Bayessche Modelle, State-Space-Modelle (z. B. Kalman-Filter), Deconvolution/Back-Projection oder hierarchische Verzögerungsmodelle, um aus partiellen Meldungen den aktuellen wahren Wert zu rekonstruieren. Moderne Varianten kombinieren mehrere Datenquellen (z. B. Meldedaten, Syndromdaten, Suchanfragen) und korrigieren systematische Verzerrungen.</br></br>Ein zentrales Ergebnis des Nowcastings ist nicht nur ein Punktwert, sondern eine Unsicherheitsverteilung des aktuellen Zustands. Diese Unsicherheit nimmt ab, sobald Nachmeldungen eintreffen – das Modell wird fortlaufend aktualisiert. das Modell wird fortlaufend aktualisiert.)
  • Prophet  + (Prophet ist ein additives Zeitreihen-VorheProphet ist ein additives Zeitreihen-Vorhersagemodell, das speziell für geschäfts- und operationsnahe Daten mit starken Saisonalitäten, Feiertagseffekten und Trendbrüchen entwickelt wurde. Ein Kernmerkmal ist die automatische Changepoint-Erkennung: Prophet erlaubt, dass sich der Trend an datengetrieben erkannten Zeitpunkten ändert (z. B. Politikwechsel, Systemumstellungen). Die Regularisierung steuert, wie flexibel diese Änderungen sind. Saisonalitäten (jährlich, wöchentlich, täglich) sind standardmäßig enthalten und lassen sich leicht erweitern. Unter der Haube wird Prophet als Bayessches Zustandsraum-/Regressionsmodell formuliert (mit MAP-Schätzung), was robuste Vorhersageintervalle ermöglicht. Die Stärke liegt weniger in theoretischer Eleganz als in Robustheit, Skalierbarkeit und schneller Anwendung mit minimalem Feature-Engineering.wendung mit minimalem Feature-Engineering.)
  • Retrieval-Augmented Generation  + (Retrieval-Augmented Generation (RAG) ist eRetrieval-Augmented Generation (RAG) ist ein hybrider KI-Ansatz, der Informationsabruf (Retrieval) mit generativer Modellierung kombiniert. Anstatt Antworten ausschließlich aus dem internen Modellwissen zu erzeugen, ruft ein RAG-System zunächst relevante externe Informationen (z. B. Dokumente, Datenbankeinträge, Wissensgraphen) ab und nutzt diese anschließend als Kontext für die Text- oder Antwortgenerierung.ext für die Text- oder Antwortgenerierung.)
  • Zeitfaltungsnetze  + (Zeitfaltungsnetze (Temporal Convolutional Zeitfaltungsnetze (Temporal Convolutional Networks, TCNs) sind eine Klasse tiefer neuronaler Netze für die Modellierung von zeitlichen Sequenzen, die auf kausalen, eindimensionalen Faltungsoperationen basieren. Im Gegensatz zu rekurrenten Netzen verarbeiten TCNs Sequenzen vollständig parallel und vermeiden explizite Rückkopplungsschleifen.ermeiden explizite Rückkopplungsschleifen.)