Attribut:Beschreibung ist

Aus Kyffhäuser KI
Zur Navigation springen Zur Suche springen
Unterhalb werden 20 Seiten angezeigt, auf denen für dieses Attribut ein Datenwert gespeichert wurde.
G
Generalisierte lineare Modelle (GLM) sind eine Erweiterung der klassischen linearen Regression, die es erlauben, nicht-normalverteilte Zielvariablen zu modellieren. Dazu wird der Erwartungswert der Zielvariable über eine Link-Funktion mit einem linearen Prädiktor der Kovariaten verknüpft.  +, Ein GLM besteht aus drei zentralen Komponenten: (1) einer Zufallskomponente (Verteilung aus der Exponentialfamilie, z. B. Binomial, Poisson, Gamma), (2) einer systematischen Komponente '"`UNIQ--math-00000002-QINU`"' und (3) einer Link-Funktion '"`UNIQ--math-00000003-QINU`"'. Bekannte Spezialfälle sind die logistische Regression, Poisson-Regression und Gamma-Regression.  +, Die Parameterschätzung erfolgt meist über Maximum-Likelihood-Verfahren. GLMs sind flexibel, gut interpretierbar und bilden die Grundlage vieler moderner Regressions- und Inferenzmethoden, ohne selbst explizit zeitliche oder kausale Strukturen zu erzwingen.  +
Gewöhnliche Differenzialgeichungen modellieren ein dynamisches System aus verschiedenen Komponenten, indem sie die Zu- und Abgänge der einzelnen Komponenten durch eine Summe parametrisierter algebraischer Ableitungen abbilden. Differenzialgleichungen können analytisch gelöst werden, worauf hin man eine ableitungsfreie Gleichung erhält, welche den Ergebnisraum abbildet, oder numerisch-iterativ angenähert werden, wenn keine analytische Lösung verfügbar ist.  +
Gradientenverstärkung (Gradient Boosting) ist ein ensemblebasiertes maschinelles Lernverfahren, bei dem ein starkes Vorhersagemodell durch die sequenzielle Kombination vieler schwacher Lerner (meist Entscheidungsbäume) aufgebaut wird. Jeder neue Lerner wird so trainiert, dass er die Fehler der bisherigen Modellkombination korrigiert.  +, Formal wird das Modell als additive Expansion aufgebaut, '"`UNIQ--math-00000003-QINU`"', wobei '"`UNIQ--math-00000004-QINU`"' schwache Lerner sind und '"`UNIQ--math-00000005-QINU`"' die Lernrate. In jedem Schritt wird ein neues Modell an den negativen Gradienten der Verlustfunktion angepasst, was Gradient Boosting zu einem sehr flexiblen Optimierungsrahmen macht.  +, Gradientenverstärkung ist hochgradig anpassbar (Wahl der Verlustfunktion, Regularisierung, Baumtiefe) und kann komplexe nichtlineare Zusammenhänge sowie Interaktionen modellieren. Gleichzeitig besteht bei unvorsichtiger Parametrisierung ein erhöhtes Risiko der Überanpassung.  +
Graphen-informierte neuronale Netze (Graph Neural Networks, GNNs) sind neuronale Modelle, die strukturierte Daten in Form von Graphen verarbeiten. Knoten repräsentieren Entitäten, Kanten ihre Beziehungen; das Modell lernt Repräsentationen, indem Informationen entlang der Graphstruktur propagiert werden.  +, Kernmechanismus ist das Message Passing: In iterativen Schritten aggregiert jeder Knoten Informationen seiner Nachbarn und aktualisiert seinen Zustand. Ein generisches Update lässt sich schreiben als '"`UNIQ--math-00000005-QINU`"', wobei '"`UNIQ--math-00000006-QINU`"' die Knotenrepräsentation in Schicht '"`UNIQ--math-00000007-QINU`"', '"`UNIQ--math-00000008-QINU`"' die Nachbarschaft und '"`UNIQ--math-00000009-QINU`"' eine Aggregationsfunktion (Summe, Mittelwert, Attention) ist.  +, Es existieren viele Varianten, darunter Graph Convolutional Networks (GCN), Graph Attention Networks (GAT), GraphSAGE und Message Passing Neural Networks (MPNN). Sie unterscheiden sich v. a. in Aggregation, Gewichtung (Attention) und Skalierbarkeit.  +,
H
Hierarchisch-bayessche Modelle (auch mehrstufige bayessche Modelle) sind statistische Modelle, die Daten- und Parameterstrukturen auf mehreren Ebenen abbilden und Unsicherheit kohärent im bayesschen Rahmen propagieren. Sie eignen sich besonders für Daten mit natürlicher Gruppierung, etwa Individuen innerhalb von Regionen oder Zeitpunkten.  +, Das Grundprinzip besteht darin, Modellparameter selbst als Zufallsvariablen zu behandeln, die wiederum von Hyperparametern gesteuert werden. Formal ergibt sich eine Hierarchie wie '"`UNIQ--math-00000003-QINU`"', '"`UNIQ--math-00000004-QINU`"', '"`UNIQ--math-00000005-QINU`"'. Inference erfolgt über den Posterior mittels Bayes-Theorem, häufig mit MCMC- oder Variational-Inference-Verfahren.  +, Hierarchisch-bayessche Modelle erlauben Partial Pooling: Informationen werden zwischen Gruppen geteilt, ohne sie vollständig gleichzusetzen. Dadurch entsteht ein günstiger Bias-Varianz-Kompromiss, insbesondere bei kleinen Stichproben pro Gruppe.  +
I
Die Instrumentalvariablenmethode (IV) ist ein kausales Schätzverfahren, das eingesetzt wird, wenn eine erklärende Variable (Behandlung, Exposition) endogen ist – also mit unbeobachteten Störfaktoren korreliert. In solchen Fällen liefern einfache Regressions- oder Matching-Methoden verzerrte Effekte. Die IV-Methode nutzt eine zusätzliche Variable, das Instrument, um diese Endogenität zu umgehen. Ein gültiges Instrument 𝑍 muss drei zentrale Bedingungen erfüllen: # Relevanz – <math>Z<\math> beeinflusst die Behandlung <math>D<\math> # Exogenität – <math>Z<\math> ist unabhängig von unbeobachteten Confoundern # Ausschlussrestriktion – <math>Z<\math> wirkt auf das Outcome <math>Y<\math> nur über <math>D<\math>, nicht direkt. Unter diesen Annahmen kann man den kausalen Effekt von <math>D<\math> auf <math>Y<\math> identifizieren, selbst wenn <math>D<\math> nicht randomisiert ist. Praktisch wird IV häufig über Two-Stage Least Squares (2SLS) umgesetzt: In der ersten Stufe wird die Behandlung durch das Instrument vorhergesagt, in der zweiten Stufe wird das Outcome auf diese vorhergesagte Behandlung regressiert. Der geschätzte Effekt ist meist ein Local Average Treatment Effect (LATE), d. h. er gilt für jene Subpopulation, deren Behandlung tatsächlich durch das Instrument beeinflusst wird (die „Compliers“). =='"`UNIQ--h-1--QINU`"' Anwendbarkeit im Gesundheitssektor == Im Gesundheitswesen wird die IV-Methode eingesetzt, wenn Behandlungszuweisungen stark selektiv sind, z. B. bei Therapieentscheidungen, Krankenhauswahl oder Medikamentenverschreibung. Typische Instrumente sind ärztliche Behandlungspräferenzen, regionale Versorgungsunterschiede, Entfernung zu Einrichtungen oder administrative Regeländerungen. In Public Health kommt IV zum Einsatz, um kausale Effekte von Expositionen zu schätzen, die nicht randomisierbar sind, etwa der Einfluss von Versicherungsschutz, Screening-Programmen oder Umweltbelastungen. Besonders wichtig ist IV, wenn unbeobachtete Confounder (z. B. Gesundheitsbewusstsein) eine zentrale Rolle spielen und andere Methoden (PSM, DiD) nicht ausreichen. =='"`UNIQ--h-2--QINU`"' Sonstiges == Starke Annahmen (Exogenität, Ausschlussrestriktion) Schwache Instrumente problematisch =='"`UNIQ--h-3--QINU`"' Semantik == Wikidata-Identifikator ist: [[Wikidata ID ist::Q173206  
K
k-Nearest Neighbor (k-NN) ist ein instanzbasiertes, nichtparametrisches Lernverfahren, das Vorhersagen ausschließlich auf Basis der Ähnlichkeit zu bereits beobachteten Datenpunkten trifft. Es gibt kein explizit trainiertes Modell; stattdessen wird für eine neue Beobachtung eine Menge der k nächstgelegenen Nachbarn im Merkmalsraum bestimmt.  +, Die Ähnlichkeit wird über eine Distanzmetrik definiert (z. B. euklidisch, Manhattan, Mahalanobis). Bei Klassifikationsaufgaben erfolgt die Vorhersage meist durch Mehrheitsentscheidung unter den Nachbarn, bei Regressionsaufgaben durch Mittelung (oder gewichtete Mittelung) der Zielwerte.  +, Der Parameter '"`UNIQ--math-00000002-QINU`"' steuert den Bias-Varianz-Tradeoff: kleine Werte von '"`UNIQ--math-00000003-QINU`"' führen zu sehr flexiblen, aber verrauschten Modellen, große Werte zu glatteren, stabileren Schätzungen. Zusätzlich beeinflussen Feature-Skalierung und Distanzgewichtung das Modellverhalten stark.  +,
Der Kalman-Filter ist ein rekursives Schätzverfahren zur Zustandsrekonstruktion dynamischer Systeme, bei dem Messungen und Modellvorhersagen optimal kombiniert werden. Er ist speziell für lineare dynamische Systeme mit gaußschem Rauschen formuliert und liefert zu jedem Zeitpunkt eine Schätzung des aktuellen Zustands samt Unsicherheit.  +, Das System wird durch ein Zustandsraummodell beschrieben, bestehend aus einer Zustandsgleichung und einer Beobachtungsgleichung, z. B. '"`UNIQ--math-00000004-QINU`"' '"`UNIQ--math-00000005-QINU`"' wobei '"`UNIQ--math-00000006-QINU`"' und '"`UNIQ--math-00000007-QINU`"' Prozess- bzw. Messrauschen sind. Der Kalman-Filter alterniert zwischen Prädiktionsschritt (Zeitfortschreibung) und Update-Schritt (Korrektur mit neuen Beobachtungen).  +, Der Filter ist optimal im Sinne der minimalen mittleren quadratischen Abweichung, sofern die Modellannahmen erfüllt sind. Erweiterungen wie der Extended Kalman Filter (EKF) und der Unscented Kalman Filter (UKF) erlauben die Anwendung auf nichtlineare Systeme.  +
Kompartmentalisierende Modelle sind mechanistische mathematische Modelle, bei denen eine Population in eine endliche Anzahl von Kompartimenten unterteilt wird, die jeweils einen bestimmten Zustand repräsentieren (z. B. empfänglich, infiziert, genesen). Die Dynamik des Systems ergibt sich aus Übergängen zwischen diesen Kompartimenten.  +, Die zeitliche Entwicklung wird typischerweise durch gewöhnliche Differentialgleichungen (kontinuierlich) oder Differenzgleichungen (diskret) beschrieben. Übergangsraten hängen von Modellparametern und vom aktuellen Zustand der Population ab, etwa der Anzahl infizierter Individuen.  +, Ein generisches Beispiel ist '"`UNIQ--math-00000003-QINU`"', wobei '"`UNIQ--math-00000004-QINU`"' die Größe eines Kompartiments und '"`UNIQ--math-00000005-QINU`"' Übergänge zwischen Kompartimenten darstellen. Die Modelle sind aggregiert, d. h. individuelle Heterogenität wird nicht explizit abgebildet.  +,
L
Long Short-Term Memory (LSTM) ist eine spezielle Architektur rekurrenter neuronaler Netze (RNNs), die entwickelt wurde, um langfristige zeitliche Abhängigkeiten in Sequenzdaten zu modellieren. Im Gegensatz zu klassischen RNNs adressieren LSTMs explizit das Problem des Verschwindens bzw. Explodierens von Gradienten.  +, Der Kern eines LSTM ist die Speicherzelle, deren Zustand über die Zeit weitergegeben wird. Drei Gates steuern den Informationsfluss: das Forget-Gate entscheidet, welche Informationen verworfen werden, das Input-Gate welche neuen Informationen gespeichert werden, und das Output-Gate welche Teile des Zellzustands nach außen weitergegeben werden.  +, Formal lassen sich die Gate-Operationen etwa schreiben als '"`UNIQ--math-00000003-QINU`"', '"`UNIQ--math-00000004-QINU`"', '"`UNIQ--math-00000005-QINU`"', wobei der Zellzustand gezielt additiv aktualisiert wird. Diese Struktur ermöglicht es LSTMs, relevante Information über viele Zeitschritte hinweg zu bewahren.  +,
M
Ein MCP-Server (Model Context Protocol Server) ist ein Dienst, der einer KI-Anwendung (dem MCP-Host/Client) standardisiert Werkzeuge (Tools) und Ressourcen bereitstellt – z. B. Dateizugriff, Datenbankabfragen, API-Aufrufe oder domänenspezifische Funktionen. Die Idee ist, dass nicht jede KI-App für jede Datenquelle eigene Integrationen bauen muss, sondern über ein einheitliches Protokoll andocken kann.  +, Technisch „exponiert“ ein MCP-Server typischerweise eine Sammlung von Tool-Definitionen (Namen, Parameter, Schemas), die der Host aufrufen kann; der Server führt die Aktion aus und liefert strukturierte Resultate zurück. Der MCP-Standard definiert dafür die Protokollanforderungen und Schnittstellen (u. a. über JSON-RPC-basierte Nachrichtenflüsse).  +, Ein wichtiger Architekturpunkt ist die Trennung von Verantwortung: Der Host entscheidet (oft mit Nutzerfreigaben), welche Tools wann aufgerufen werden, während der MCP-Server die konkrete Brückenfunktion zu externen Systemen übernimmt. Dadurch kann man Zugriffe zentral kontrollieren (Auth, Allowlists, Auditing), und verschiedene Server können modular kombiniert werden (z. B. Git + Datenbank + Filesystem).  +,
KI Austauschplatform des Bundes  +
Metapopulationsmodelle gehen von getrennten Unterpopulationen aus, welche miteinander in beschränktem Umfang interagieren, und modellieren diese Interaktionen und ihre Auswirkungen  +
Metapopulationsmodelle sind mechanistische Modellierungsansätze, bei denen eine Gesamtpopulation in mehrere Teilpopulationen (Subpopulationen) zerlegt wird, die räumlich, sozial oder organisatorisch getrennt sind und über Kopplungen (z. B. Mobilität, Migration, Kontakte) miteinander interagieren. Jede Subpopulation besitzt eine eigene interne Dynamik.  +, Innerhalb jeder Teilpopulation werden häufig kompartmentalisierende Modelle (z. B. SIR/SEIR) verwendet, während die Kopplung zwischen den Subpopulationen durch Fluss- oder Austauschtermine beschrieben wird. Ein typisches Beispiel ist '"`UNIQ--math-00000002-QINU`"', wobei '"`UNIQ--math-00000003-QINU`"' Übergangsraten zwischen Subpopulationen darstellen.  +, Metapopulationsmodelle erlauben es, räumliche Heterogenität, unterschiedliche Kontaktstrukturen und zeitlich variable Mobilität explizit zu berücksichtigen. Sie stehen konzeptionell zwischen vollständig aggregierten Modellen und hochauflösenden agentenbasierten Simulationen.  +,
Freie Datenbank deren Ziel es ist, alle verfügbaren KI-Modelle mit Fähigkeiten und Preisen aufzulisten  +
Mittels Monte-Carlo-Simulation lassen sich aus funktional modellierten Zusamenhängen durch zufallsbasiertes Sampling der unbekannten Parameter konkrete Zahlenwerte bzw Zahlenbereiche mit Konfidenzintervallen erzeugen  +
N
Neurale gewöhnliche Differentialgleichungen (Neural Ordinary Differential Equations, Neural ODEs) sind eine Klasse kontinuierlicher Tiefenmodelle, bei denen die Entwicklung latenter Zustände durch eine gewöhnliche Differentialgleichung beschrieben wird, deren rechte Seite von einem neuronalen Netz parametrisiert ist. Anstelle diskreter Schichten wird die Transformation als kontinuierlicher Fluss über die Zeit modelliert.  +, Formal wird ein Zustandsverlauf '"`UNIQ--math-00000003-QINU`"' definiert, wobei '"`UNIQ--math-00000004-QINU`"' ein neuronales Netz mit Parametern '"`UNIQ--math-00000005-QINU`"' ist. Die Vorwärtsauswertung entspricht der numerischen Lösung der ODE (z. B. Runge–Kutta), und das Training erfolgt über adjungierte Sensitivitätsmethoden, die Gradienten effizient durch den ODE-Solver zurückpropagieren.  +, Neural ODEs bieten adaptive Rechentiefe (abhängig von der Solver-Genauigkeit), können unregelmäßig abgetastete Zeitreihen handhaben und erlauben eine natürliche Verbindung zu physikalisch oder mechanistisch motivierten Modellen. Gleichzeitig sind sie rechnerisch anspruchsvoll und sensitiv gegenüber Solver- und Toleranzwahl.  +,
Nowcasting bezeichnet Methoden, die den aktuellen (gegenwartsnahen) Zustand einer Zielgröße schätzen, obwohl die dafür relevanten Beobachtungen unvollständig, verzögert oder verrauscht vorliegen. Der Kernunterschied zur Vorhersage ist der Zeithorizont: Nowcasting schätzt heute, nicht morgen. Typische Probleme sind Meldeverzüge (Reporting Delays), Nachmeldungen, Right-Censoring und Messfehler. Methodisch wird Nowcasting häufig als Zustandsschätzung formuliert. Klassische Ansätze nutzen Bayessche Modelle, State-Space-Modelle (z. B. Kalman-Filter), Deconvolution/Back-Projection oder hierarchische Verzögerungsmodelle, um aus partiellen Meldungen den aktuellen wahren Wert zu rekonstruieren. Moderne Varianten kombinieren mehrere Datenquellen (z. B. Meldedaten, Syndromdaten, Suchanfragen) und korrigieren systematische Verzerrungen. Ein zentrales Ergebnis des Nowcastings ist nicht nur ein Punktwert, sondern eine Unsicherheitsverteilung des aktuellen Zustands. Diese Unsicherheit nimmt ab, sobald Nachmeldungen eintreffen – das Modell wird fortlaufend aktualisiert.  +
O
Ein lokal ausführbares LLM mit agentischen Fähigkeiten und der Möglichket verschiedene Fakten- und Sprachserver einzubinden.  +
Eine Platform zum Austausch für die deutsche öffentliche Verwaltung geeigneter Open Source-Software, z.B in Form von gehärteten Dockercontainern  +