Attribut:Beschreibung ist

Aus Kyffhäuser KI
Zur Navigation springen Zur Suche springen
Die Seite wurde neu angelegt: „Has type::Text
 
Keine Bearbeitungszusammenfassung
Zeile 1: Zeile 1:
[[Has type::Text]]
[[Has type::Text]]
[[Kategorie:Attributtypbeschreibung]]

Version vom 19. Januar 2026, 06:51 Uhr

Unterhalb werden 20 Seiten angezeigt, auf denen für dieses Attribut ein Datenwert gespeichert wurde.
A
ARIMA-Modelle (AutoRegressive Integrated Moving Average) sind statistische Zeitreihenmodelle, die eine Zielgröße als Kombination aus Autoregression (AR), Differenzierung (I) zur Herstellung von Stationarität und gleitendem Mittelwert (MA) modellieren. Sie eignen sich zur Beschreibung und Prognose zeitlicher Abhängigkeiten in univariaten Zeitreihen.  +, Ein ARIMA-Modell wird durch drei Ordnungen '"`UNIQ--math-00000006-QINU`"' charakterisiert und hat (nach Differenzierung) die Form '"`UNIQ--math-00000007-QINU`"', wobei '"`UNIQ--math-00000008-QINU`"' der Rückwärtsoperator, '"`UNIQ--math-00000009-QINU`"' das AR-Polynom, '"`UNIQ--math-0000000A-QINU`"' das MA-Polynom und '"`UNIQ--math-0000000B-QINU`"' ein weißes Rauschen ist. Die Modellwahl erfolgt typischerweise datengetrieben (ACF/PACF, Informationskriterien).  +, Erweiterungen wie SARIMA integrieren saisonale Komponenten, während ARIMAX exogene Kovariaten zulässt. ARIMA ist primär prädiktiv-deskriptiv; kausale Interpretation der Parameter ist nur sehr eingeschränkt möglich.  +
Agentenbasierte Modelle modellieren Individuen explizit, und weißen jedem Individuum Zustände, Regeln und Interaktionen zu. Die Regeln und Interaktionen können deterministisch oder stochastisch sein. Statusänderungen der Agenten sind zeitdiskrete Ereignisse  +
Agentenbasierte Modellierung (Agent-Based Modeling, ABM) ist ein mechanistischer Simulationsansatz, bei dem ein System als Menge autonomer, interagierender Agenten beschrieben wird. Jeder Agent folgt einfachen, lokal definierten Regeln, während das globale Systemverhalten emergent aus den vielen Einzelinteraktionen entsteht.  +, Agenten können Individuen, Haushalte, Organisationen oder technische Einheiten repräsentieren und besitzen interne Zustände (z. B. Gesundheit, Verhalten, Ressourcen). Interaktionen erfolgen über Kontaktregeln, Netzwerke oder räumliche Umgebungen; Dynamiken können deterministisch oder stochastisch sein.  +, Formal wird kein geschlossenes Gleichungssystem gelöst; stattdessen wird der Systemzustand iterativ aktualisiert. Zufällige Ereignisse werden häufig über Monte-Carlo-Mechanismen implementiert. Dadurch lassen sich Heterogenität, Nichtlinearität und Rückkopplungen explizit abbilden.  +,
Autoencoder sind neuronale Netzwerke des unüberwachten Lernens, die darauf trainiert werden, ihre Eingabedaten über eine komprimierte interne Darstellung (latenter Raum) möglichst verlustarm zu rekonstruieren. Sie bestehen aus einem Encoder, der die Daten verdichtet, und einem Decoder, der die Originaldaten aus dieser Verdichtung wiederherstellt.  +, Es existieren zahlreiche Varianten: Denoising Autoencoder (robust gegen Rauschen), Sparse Autoencoder (erzwingen dünn besetzte Repräsentationen), Variational Autoencoder (VAE) (probabilistische latente Variablen) und Convolutional Autoencoder für Bild- und Signalverarbeitung.  +, Autoencoder sind stark nichtlinear, hochflexibel und eignen sich besonders zur Merkmalsreduktion, Anomalieerkennung und Repräsentationslernen. Die latenten Dimensionen sind jedoch meist nicht direkt semantisch interpretierbar.  +,
B
Bayessche Kalibration ist ein bayessches Inferenzverfahren zur Anpassung von Modellparametern an beobachtete Daten, bei dem Unsicherheit in Parametern, Beobachtungen und ggf. Modellfehlern explizit berücksichtigt wird. Ziel ist es, ein Simulations- oder Rechenmodell so zu justieren, dass seine Ausgaben konsistent mit empirischen Daten sind.  +, Formal wird ein (oft mechanistisches oder simulationsbasiertes) Modell '"`UNIQ--math-00000006-QINU`"' angenommen, wobei '"`UNIQ--math-00000007-QINU`"' unbekannte Modellparameter, '"`UNIQ--math-00000008-QINU`"' ein expliziter Modellfehlerterm (Discrepancy) und '"`UNIQ--math-00000009-QINU`"' Beobachtungsrauschen sind. Für '"`UNIQ--math-0000000A-QINU`"' (und ggf. '"`UNIQ--math-0000000B-QINU`"') werden Priorverteilungen spezifiziert und mittels Bayes-Theorem ein Posterior berechnet.  +, Im Gegensatz zu rein frequentistischen Kalibrationsansätzen liefert bayessche Kalibration vollständige Posteriorverteilungen der Parameter und propagiert Unsicherheit konsistent auf Modellvorhersagen. Häufig wird sie mit Gaussprozess-Emulatoren kombiniert, um rechenintensive Modelle effizient zu kalibrieren.  +,
Bayessche Inferenz ist ein allgemeines statistisches Inferenzprinzip, bei dem Wahrscheinlichkeiten als Grad des Wissens interpretiert werden. Zentrale Idee ist, vorhandenes Vorwissen (Prior) mit beobachteten Daten zu kombinieren, um ein aktualisiertes Wissen über unbekannte Größen (Posterior) zu erhalten.  +, Formal beruht bayessche Inferenz auf dem Satz von Bayes '"`UNIQ--math-00000005-QINU`"', wobei '"`UNIQ--math-00000006-QINU`"' die unbekannten Parameter, '"`UNIQ--math-00000007-QINU`"' die Daten, '"`UNIQ--math-00000008-QINU`"' der Prior und '"`UNIQ--math-00000009-QINU`"' der Posterior ist. Inferenz besteht darin, diese Posteriorverteilung zu analysieren, etwa über Erwartungswerte, Quantile oder Wahrscheinlichkeiten von Ereignissen.  +, Bayessche Inferenz ist kein einzelnes Modell, sondern ein übergreifendes methodisches Paradigma, das auf sehr unterschiedliche Modellklassen angewendet werden kann (Regression, Zeitreihen, Zustandsraummodelle, Netzwerke). Sie erlaubt eine kohärente Behandlung von Unsicherheit und die Integration heterogener Informationsquellen.  +
Bayessche Netzwerke (Bayesian Networks, Belief Networks) sind probabilistische grafische Modelle, die Zufallsvariablen und ihre bedingten Abhängigkeiten mittels eines gerichteten azyklischen Graphen (DAG) darstellen. Knoten repräsentieren Variablen, gerichtete Kanten direkte probabilistische Abhängigkeiten.  +, Jeder Knoten ist mit einer bedingten Wahrscheinlichkeitsverteilung verknüpft, sodass sich die gemeinsame Verteilung aller Variablen faktorisiert als '"`UNIQ--math-00000003-QINU`"', wobei '"`UNIQ--math-00000004-QINU`"' die Elternknoten von '"`UNIQ--math-00000005-QINU`"' sind. Inferenz erfolgt durch probabilistisches Schließen (z. B. Belief Propagation), sowohl diagnostisch (Ursache ← Effekt) als auch prädiktiv (Ursache → Effekt).  +, Bayessche Netzwerke erlauben die Kombination von Daten und Expertenwissen, können fehlende Daten handhaben und machen Abhängigkeitsannahmen explizit. Sie sind nicht automatisch kausal, können aber bei geeigneter Struktur kausal interpretiert werden.  +
Bayessche Zustandsraummodelle sind probabilistische Modelle für dynamische Systeme mit verborgenen (latenten) Zuständen, bei denen sowohl die Systemdynamik als auch die Beobachtungen stochastisch beschrieben werden. Sie formulieren explizit, wie sich ein unbeobachteter Zustand über die Zeit entwickelt und wie Messungen aus diesem Zustand entstehen.  +, Ein allgemeines bayessches Zustandsraummodell besteht aus einer Zustandsgleichung und einer Beobachtungsgleichung, z. B. '"`UNIQ--math-00000003-QINU`"' '"`UNIQ--math-00000004-QINU`"'. Inference erfolgt bayessch über den Posterior '"`UNIQ--math-00000005-QINU`"', typischerweise mittels Kalman-Filter/-Smoother (linear-gaußsch), Particle Filter (nichtlinear/nicht-gaußsch) oder MCMC.  +, Der bayessche Rahmen erlaubt die kohärente Propagation von Unsicherheit über Zeit und Ebenen hinweg sowie die Einbindung von Priorwissen. Bayessche Zustandsraummodelle verallgemeinern klassische Filter (z. B. Kalman-Filter) und eignen sich für Nowcasting, Glättung, Prognose und Strukturinferenz.  +
Bayessche kompartmentalisierende Modelle sind eine Erweiterung klassischer kompartmentaler Infektionsmodelle (z. B. SIR, SEIR), bei denen Modellparameter und Zustände probabilistisch im bayesschen Rahmen behandelt werden. Die Bevölkerung wird in diskrete Kompartimente (z. B. Susceptible, Exposed, Infected, Recovered) eingeteilt, zwischen denen Übergänge gemäß definierter Dynamiken stattfinden.  +, Inference erfolgt bayessch über den Posterior der Zustände und Parameter, meist mittels MCMC, Particle MCMC oder Sequential Monte Carlo. Dadurch lassen sich Unsicherheit, Zeitvariation von Parametern und unvollständige Beobachtungen konsistent berücksichtigen.  +, Die Dynamik wird typischerweise durch Differentialgleichungen oder diskrete Übergangsmodelle beschrieben, z. B. im SIR-Fall '"`UNIQ--math-00000005-QINU`"', '"`UNIQ--math-00000006-QINU`"', '"`UNIQ--math-00000007-QINU`"', wobei die Parameter '"`UNIQ--math-00000008-QINU`"' und '"`UNIQ--math-00000009-QINU`"' als Zufallsvariablen mit Priorverteilungen modelliert werden. Beobachtungsdaten (z. B. Fallmeldungen) werden über ein explizites Beobachtungsmodell mit den latenten Zuständen verknüpft.  +
Das wiederholte ziehen mit Zurücklegen aus einer beschränkten Menge von Eingabedaten, um die Resilienz der dahintergeschalteten Methode gegenüber Variation der Eingabedaten zu prüfen. Ergebnis ist ein Konfidenzinerval für die Eingabedaten.  +
C
Die Cox-Methode (Cox-Proportional-Hazards-Modell) ist ein semiparametrisches Regressionsverfahren der Überlebenszeitanalyse, das den Einfluss von Kovariaten auf die Hazardrate (instantanes Ereignisrisiko) modelliert, ohne die Grundform der Basis-Hazard spezifizieren zu müssen.  +, Das Modell hat die Form '"`UNIQ--math-00000003-QINU`"' wobei '"`UNIQ--math-00000004-QINU`"' die unbekannte Basis-Hazard und '"`UNIQ--math-00000005-QINU`"' die zu schätzenden Regressionskoeffizienten sind. Die zentrale Annahme ist die der proportionalen Hazards: Der Einfluss der Kovariaten wirkt multiplikativ und zeitlich konstant auf die Hazardrate.  +, Die Parameterschätzung erfolgt über die Partial Likelihood, sodass Zensierung (rechts-, links- oder intervallzensiert) korrekt berücksichtigt wird. Die Ergebnisse werden typischerweise als Hazard Ratios interpretiert, die relative Risikoänderungen beschreiben.  +
D
Die Differenz-von-Differenzen-Methode (DiD) ist ein quasi-experimentelles kausales Schätzverfahren, das Effekte von Interventionen identifiziert, wenn keine Randomisierung möglich ist. Die Grundidee besteht darin, die Änderung einer Zielgröße über die Zeit in einer Behandlungsgruppe mit der entsprechenden Änderung in einer Kontrollgruppe zu vergleichen. Durch das „Differenzieren der Differenzen“ werden zeitinvariante Unterschiede zwischen den Gruppen herausgerechnet. Formal betrachtet vergleicht DiD vier Mittelwerte: (Behandlung nach − Behandlung vor) − (Kontrolle nach − Kontrolle vor). Der so erhaltene Schätzer interpretiert man als kausalen Effekt der Intervention, unter der zentralen Annahme paralleler Trends: Ohne Intervention hätten sich Behandlungs- und Kontrollgruppe im Zeitverlauf gleich entwickelt. In der Praxis wird DiD meist als lineares Regressionsmodell mit Interaktionsterm umgesetzt (Gruppe × Zeit), oft erweitert um Fixed Effects, Kovariaten und robuste Standardfehler. Moderne Varianten erlauben mehrere Zeitpunkte, gestaffelte Interventionen und heterogene Effekte.  +
E
Die Elastische Netzregression (Elastic Net Regression) ist ein regularisiertes Regressionsverfahren, das die Eigenschaften der Lasso-Regression (L1-Strafe) und der Ridge-Regression (L2-Strafe) kombiniert. Ziel ist es, stabile Schätzungen in Situationen mit vielen, möglicherweise stark korrelierten Prädiktoren zu erhalten.  +, Formal minimiert die elastische Netzregression eine Verlustfunktion der Form '"`UNIQ--math-00000005-QINU`"', wobei '"`UNIQ--math-00000006-QINU`"' die Gesamtstärke der Regularisierung und '"`UNIQ--math-00000007-QINU`"' das Mischungsverhältnis zwischen L1- und L2-Strafe steuert. Für '"`UNIQ--math-00000008-QINU`"' ergibt sich Lasso, für '"`UNIQ--math-00000009-QINU`"' Ridge.  +, Durch diese Kombination kann das elastische Netz Gruppen korrelierter Variablen gemeinsam selektieren, anstatt – wie Lasso – nur eine einzelne Variable auszuwählen. Es ist damit besonders geeignet für hochdimensionale Probleme, bei denen Prädiktoren zahlreich und untereinander abhängig sind.  +
Ensemblelernen ist ein Oberbegriff für Lernverfahren, bei denen mehrere Einzelmodelle gezielt kombiniert werden, um eine bessere Vorhersageleistung, Robustheit und Stabilität zu erzielen als mit einem einzelnen Modell. Die Grundidee ist, dass unterschiedliche Modelle unterschiedliche Fehler machen und sich diese Fehler durch Aggregation teilweise kompensieren.  +, Typische Ensemble-Strategien sind Bagging (z. B. Random Forests), Boosting (z. B. Gradient Boosting) und Stacking, bei dem ein Meta-Modell die Ausgaben mehrerer Basismodelle kombiniert. Die Aggregation erfolgt je nach Aufgabe durch Mittelung, gewichtete Mittelung oder Mehrheitsentscheidungen.  +, Ensemblelernen ist kein einzelnes mathematisches Modell, sondern ein Meta-Ansatz, der auf sehr unterschiedliche Basismodelle angewendet werden kann (statistische Modelle, Entscheidungsbäume, neuronale Netze). Ensembles reduzieren typischerweise Varianz, manchmal auch Bias, und sind besonders wirksam bei komplexen Datenstrukturen.  +,
Ensemblevorhersage kombiniert mehrere Modelle oder Modellläufe, um robustere und besser kalibrierte Prognosen zu erzeugen als Einzelmodelle.  +
Exponenzielle Glättung ist eine Familie zeitreihenbasierter Prognoseverfahren, bei denen vergangene Beobachtungen abnehmend gewichtet werden: Neuere Daten erhalten ein höheres Gewicht als ältere, und die Gewichte fallen exponentiell ab.  +
F
Faltungsnetze (Convolutional Neural Networks, CNNs) sind eine Klasse tiefer neuronaler Netze, die speziell für die Verarbeitung gitterartig strukturierter Daten entwickelt wurden, insbesondere für Bilder, aber auch für Signale und räumlich-zeitliche Daten. Zentrale Idee ist die Verwendung von Faltungsoperationen, um lokale Muster effizient zu erkennen.  +, CNNs lernen Merkmale hierarchisch: frühe Schichten erfassen einfache Muster (Kanten, Texturen), spätere Schichten komplexe Strukturen (Objekte, Formen). Diese Architektur macht CNNs sehr daten- und recheneffizient für visuelle und räumliche Aufgaben.  +, Es existieren zahlreiche Architekturen und Erweiterungen, darunter ResNet, U-Net, DenseNet und 3D-CNNs. Trotz hoher Leistungsfähigkeit sind CNNs meist schwer interpretierbar und erfordern große, gut annotierte Datensätze.  +,
Ein System welches Patienten und sonstigen Kontakten des Gesundheitsamtes (und potenziell anderer Behörden) ermöglicht, mittels eines Dialogs mit einem Sprachassistenten für ihr Anliegen relevante Formulate auszuwählen und anbietet, beim Ausfüllen behilflich zu sein.  +
G
Die **Gaussprozessregression (Gaussian Process Regression, GPR)** ist ein **nichtparametrisches bayessches Regressionsverfahren**, bei dem Funktionen selbst als Zufallsobjekte modelliert werden. Ein Gaussprozess definiert eine Verteilung über Funktionen, sodass für jede endliche Menge von Eingabepunkten eine multivariate Normalverteilung der Funktionswerte entsteht.  +, Formal wird angenommen '"`UNIQ--math-00000005-QINU`"', wobei '"`UNIQ--math-00000006-QINU`"' die Mittelwertfunktion und '"`UNIQ--math-00000007-QINU`"' der **Kovarianz- bzw. Kernel** ist, der Glattheit, Periodizität und Skalen festlegt. Beobachtungen entstehen als '"`UNIQ--math-00000008-QINU`"' mit gaußschem Rauschen. Der Posterior liefert geschlossene Ausdrücke für Erwartungswert und Varianz der Vorhersage.  +, GPR ist besonders geeignet für **glatte, kontinuierliche Zusammenhänge** und liefert stets **prädiktive Unsicherheit**. Die Methode ist sehr flexibel, aber rechnerisch anspruchsvoll, da naive Inferenz eine Inversion einer '"`UNIQ--math-00000009-QINU`"'-Kovarianzmatrix erfordert.  +
Generalisierte additive Modelle (GAM) sind eine Erweiterung generalisierter linearer Modelle, bei denen der lineare Prädiktor durch eine Summe glatter, nichtlinearer Funktionen der Kovariaten ersetzt wird. Dadurch können komplexe, nichtlineare Zusammenhänge modelliert werden, ohne eine konkrete funktionale Form vorzugeben.  +, Formal hat ein GAM die Struktur '"`UNIQ--math-00000003-QINU`"', wobei '"`UNIQ--math-00000004-QINU`"' eine Link-Funktion ist und '"`UNIQ--math-00000005-QINU`"' glatte Funktionen (z. B. Splines) darstellen. Die Glattheit der Funktionen wird über Regularisierung gesteuert, sodass Überanpassung vermieden wird.  +, GAMs verbinden damit die Interpretierbarkeit klassischer Regressionsmodelle mit der Flexibilität nichtlinearer Modellierung. Sie bleiben primär statistisch-deskriptiv bzw. inferentiell und sind keine Black-Box-Modelle.  +