Suche mittels Attribut

Zur Navigation springen Zur Suche springen

Diese Seite stellt eine einfache Suchoberfläche zum Finden von Objekten bereit, die ein Attribut mit einem bestimmten Datenwert enthalten. Andere verfügbare Suchoberflächen sind die Attributsuche sowie der Abfragengenerator.

Suche mittels Attribut

Eine Liste aller Seiten, die das Attribut „Beschreibung ist“ mit dem Wert „KI Austauschplatform des Bundes“ haben. Weil nur wenige Ergebnisse gefunden wurden, werden auch ähnliche Werte aufgelistet.

⧼showingresults⧽

Zeige (vorherige 50 | nächste 50) (20 | 50 | 100 | 250 | 500)


    

Liste der Ergebnisse

  • Generalisierte additive Modelle  + (Generalisierte additive Modelle (GAM) sindGeneralisierte additive Modelle (GAM) sind eine Erweiterung generalisierter linearer Modelle, bei denen der lineare Prädiktor durch eine Summe glatter, nichtlinearer Funktionen der Kovariaten ersetzt wird. Dadurch können komplexe, nichtlineare Zusammenhänge modelliert werden, ohne eine konkrete funktionale Form vorzugeben.eine konkrete funktionale Form vorzugeben.)
  • Generalisierte lineare Modelle  + (Generalisierte lineare Modelle (GLM) sind Generalisierte lineare Modelle (GLM) sind eine Erweiterung der klassischen linearen Regression, die es erlauben, nicht-normalverteilte Zielvariablen zu modellieren. Dazu wird der Erwartungswert der Zielvariable über eine Link-Funktion mit einem linearen Prädiktor der Kovariaten verknüpft.nearen Prädiktor der Kovariaten verknüpft.)
  • Gewöhnliche Differenzialgleichungen  + (Gewöhnliche Differenzialgeichungen modelliGewöhnliche Differenzialgeichungen modellieren ein dynamisches System aus verschiedenen Komponenten, indem sie die Zu- und Abgänge der einzelnen Komponenten durch eine Summe parametrisierter algebraischer Ableitungen abbilden. Differenzialgleichungen können analytisch gelöst werden, worauf hin man eine ableitungsfreie Gleichung erhält, welche den Ergebnisraum abbildet, oder numerisch-iterativ angenähert werden, wenn keine analytische Lösung verfügbar ist.nn keine analytische Lösung verfügbar ist.)
  • Gradientenverstärkung  + (Gradientenverstärkung (Gradient Boosting) Gradientenverstärkung (Gradient Boosting) ist ein ensemblebasiertes maschinelles Lernverfahren, bei dem ein starkes Vorhersagemodell durch die sequenzielle Kombination vieler schwacher Lerner (meist Entscheidungsbäume) aufgebaut wird. Jeder neue Lerner wird so trainiert, dass er die Fehler der bisherigen Modellkombination korrigiert.r bisherigen Modellkombination korrigiert.)
  • Graphen-informierte neuronale Netze  + (Graphen-informierte neuronale Netze (GraphGraphen-informierte neuronale Netze (Graph Neural Networks, GNNs) sind neuronale Modelle, die strukturierte Daten in Form von Graphen verarbeiten. Knoten repräsentieren Entitäten, Kanten ihre Beziehungen; das Modell lernt Repräsentationen, indem Informationen entlang der Graphstruktur propagiert werden.tlang der Graphstruktur propagiert werden.)
  • Hierarchisch-Bayessche Modelle  + (Hierarchisch-bayessche Modelle (auch mehrsHierarchisch-bayessche Modelle (auch mehrstufige bayessche Modelle) sind statistische Modelle, die Daten- und Parameterstrukturen auf mehreren Ebenen abbilden und Unsicherheit kohärent im bayesschen Rahmen propagieren. Sie eignen sich besonders für Daten mit natürlicher Gruppierung, etwa Individuen innerhalb von Regionen oder Zeitpunkten.n innerhalb von Regionen oder Zeitpunkten.)
  • Bayesische Kalibration  + (Bayessche Kalibration ist ein bayessches IBayessche Kalibration ist ein bayessches Inferenzverfahren zur Anpassung von Modellparametern an beobachtete Daten, bei dem Unsicherheit in Parametern, Beobachtungen und ggf. Modellfehlern explizit berücksichtigt wird. Ziel ist es, ein Simulations- oder Rechenmodell so zu justieren, dass seine Ausgaben konsistent mit empirischen Daten sind.ben konsistent mit empirischen Daten sind.)
  • SEIR-Modelle  + (Das SEIR-Modell erweitert das SIR-Modell uDas SEIR-Modell erweitert das SIR-Modell um ein zusätzliches Kompartiment Exposed (E) für infizierte, aber noch nicht infektiöse Individuen. Damit bildet es eine Latenz- bzw. Inkubationsphase explizit ab, was für viele Infektionskrankheiten realistischer ist als ein unmittelbarer Übergang von empfänglich zu infektiös.rer Übergang von empfänglich zu infektiös.)
  • SIR-Modelle  + (Das SIR-Modell ist ein klassisches kompartDas SIR-Modell ist ein klassisches kompartmentalisierendes epidemiologisches Modell, das eine Population in drei Zustände unterteilt: Susceptible (S) (empfänglich), Infected (I) (infektiös) und Recovered/Removed (R) (genesen/entfernt). Es beschreibt, wie sich eine Infektionskrankheit durch Kontakte ausbreitet und wie Individuen anschließend aus dem infektiösen Zustand herausgehen.d aus dem infektiösen Zustand herausgehen.)
  • Bayessche kompartmentalisierende Modelle  + (Bayessche kompartmentalisierende Modelle sBayessche kompartmentalisierende Modelle sind eine Erweiterung klassischer kompartmentaler Infektionsmodelle (z. B. SIR, SEIR), bei denen Modellparameter und Zustände probabilistisch im bayesschen Rahmen behandelt werden. Die Bevölkerung wird in diskrete Kompartimente (z. B. Susceptible, Exposed, Infected, Recovered) eingeteilt, zwischen denen Übergänge gemäß definierter Dynamiken stattfinden.e gemäß definierter Dynamiken stattfinden.)
  • Metapopulationsmodelle  + (Metapopulationsmodelle sind mechanistischeMetapopulationsmodelle sind mechanistische Modellierungsansätze, bei denen eine Gesamtpopulation in mehrere Teilpopulationen (Subpopulationen) zerlegt wird, die räumlich, sozial oder organisatorisch getrennt sind und über Kopplungen (z. B. Mobilität, Migration, Kontakte) miteinander interagieren. Jede Subpopulation besitzt eine eigene interne Dynamik.ation besitzt eine eigene interne Dynamik.)
  • Bayessche Netzwerke  + (Bayessche Netzwerke (Bayesian Networks, BeBayessche Netzwerke (Bayesian Networks, Belief Networks) sind probabilistische grafische Modelle, die Zufallsvariablen und ihre bedingten Abhängigkeiten mittels eines gerichteten azyklischen Graphen (DAG) darstellen. Knoten repräsentieren Variablen, gerichtete Kanten direkte probabilistische Abhängigkeiten.n direkte probabilistische Abhängigkeiten.)
  • Graphen-informierte neuronale Netze  + (Graphen-informierte neuronale Netze (GraphGraphen-informierte neuronale Netze (Graph Neural Networks, GNNs) sind neuronale Modelle, die strukturierte Daten in Form von Graphen verarbeiten. Knoten repräsentieren Entitäten, Kanten ihre Beziehungen; das Modell lernt Repräsentationen, indem Informationen entlang der Graphstruktur propagiert werden.tlang der Graphstruktur propagiert werden.)
  • Kompartmentalisierende Modelle  + (Kompartmentalisierende Modelle sind mechanKompartmentalisierende Modelle sind mechanistische mathematische Modelle, bei denen eine Population in eine endliche Anzahl von Kompartimenten unterteilt wird, die jeweils einen bestimmten Zustand repräsentieren (z. B. empfänglich, infiziert, genesen). Die Dynamik des Systems ergibt sich aus Übergängen zwischen diesen Kompartimenten.Übergängen zwischen diesen Kompartimenten.)
  • Long Short-Term Memory  + (Long Short-Term Memory (LSTM) ist eine speLong Short-Term Memory (LSTM) ist eine spezielle Architektur rekurrenter neuronaler Netze (RNNs), die entwickelt wurde, um langfristige zeitliche Abhängigkeiten in Sequenzdaten zu modellieren. Im Gegensatz zu klassischen RNNs adressieren LSTMs explizit das Problem des Verschwindens bzw. Explodierens von Gradienten.hwindens bzw. Explodierens von Gradienten.)
  • Metapopulationsmodelle  + (Metapopulationsmodelle sind mechanistischeMetapopulationsmodelle sind mechanistische Modellierungsansätze, bei denen eine Gesamtpopulation in mehrere Teilpopulationen (Subpopulationen) zerlegt wird, die räumlich, sozial oder organisatorisch getrennt sind und über Kopplungen (z. B. Mobilität, Migration, Kontakte) miteinander interagieren. Jede Subpopulation besitzt eine eigene interne Dynamik.ation besitzt eine eigene interne Dynamik.)
  • Metapopulationmodelle  + (Metapopulationsmodelle gehen von getrennten Unterpopulationen aus, welche miteinander in beschränktem Umfang interagieren, und modellieren diese Interaktionen und ihre Auswirkungen)
  • Quantilsregression  + (Die Quantilsregression ist ein statistischDie Quantilsregression ist ein statistisches Regressionsverfahren, das – im Gegensatz zur klassischen linearen Regression – nicht den bedingten Erwartungswert, sondern beliebige Quantile (z. B. Median, obere oder untere Randbereiche) der Zielvariable modelliert. Dadurch lassen sich Effekte von Kovariaten entlang der gesamten Verteilung der Zielgröße untersuchen und nicht nur im Mittel.größe untersuchen und nicht nur im Mittel.)
  • Szenarioanalyse  + (Die Szenarioanalyse ist ein analytischer ADie Szenarioanalyse ist ein analytischer Ansatz, bei dem mehrere plausible, konsistente Zukunftsentwicklungen („Szenarien“) systematisch konstruiert und analysiert werden. Ziel ist es nicht, eine einzelne wahrscheinlichste Zukunft vorherzusagen, sondern ein Spektrum möglicher Entwicklungen unter unterschiedlichen Annahmen sichtbar zu machen.rschiedlichen Annahmen sichtbar zu machen.)
  • Sensitivitätsanalyse  + (Die Sensitivitätsanalyse untersucht, wie sDie Sensitivitätsanalyse untersucht, wie stark die Ergebnisse eines Modells oder einer Berechnung auf Variationen der Eingabeparameter reagieren. Ziel ist es, diejenigen Annahmen oder Parameter zu identifizieren, die den größten Einfluss auf das Ergebnis haben, und damit die Robustheit der Resultate zu bewerten. die Robustheit der Resultate zu bewerten.)
  • Stochastische Simulation  + (Die stochastische Simulation ist ein ModelDie stochastische Simulation ist ein Modellierungsansatz, bei dem Zufallsprozesse explizit in die Dynamik eines Systems eingebaut werden. Im Gegensatz zu deterministischen Modellen erzeugt jede Simulation einen möglichen Realisationspfad; die Gesamtheit vieler Läufe beschreibt eine Wahrscheinlichkeitsverteilung der möglichen Ergebnisse.hkeitsverteilung der möglichen Ergebnisse.)
  • Monte-Carlo-Simulation  + (Mittels Monte-Carlo-Simulation lassen sich aus funktional modellierten Zusamenhängen durch zufallsbasiertes Sampling der unbekannten Parameter konkrete Zahlenwerte bzw Zahlenbereiche mit Konfidenzintervallen erzeugen)
  • Neurale gewöhnliche DIfferenzialgleichungen  + (Neurale gewöhnliche DifferentialgleichungeNeurale gewöhnliche Differentialgleichungen (Neural Ordinary Differential Equations, Neural ODEs) sind eine Klasse kontinuierlicher Tiefenmodelle, bei denen die Entwicklung latenter Zustände durch eine gewöhnliche Differentialgleichung beschrieben wird, deren rechte Seite von einem neuronalen Netz parametrisiert ist. Anstelle diskreter Schichten wird die Transformation als kontinuierlicher Fluss über die Zeit modelliert.uierlicher Fluss über die Zeit modelliert.)
  • Nowcasting  + (Nowcasting bezeichnet Methoden, die den akNowcasting bezeichnet Methoden, die den aktuellen (gegenwartsnahen) Zustand einer Zielgröße schätzen, obwohl die dafür relevanten Beobachtungen unvollständig, verzögert oder verrauscht vorliegen. Der Kernunterschied zur Vorhersage ist der Zeithorizont: Nowcasting schätzt heute, nicht morgen. Typische Probleme sind Meldeverzüge (Reporting Delays), Nachmeldungen, Right-Censoring und Messfehler.</br></br>Methodisch wird Nowcasting häufig als Zustandsschätzung formuliert. Klassische Ansätze nutzen Bayessche Modelle, State-Space-Modelle (z. B. Kalman-Filter), Deconvolution/Back-Projection oder hierarchische Verzögerungsmodelle, um aus partiellen Meldungen den aktuellen wahren Wert zu rekonstruieren. Moderne Varianten kombinieren mehrere Datenquellen (z. B. Meldedaten, Syndromdaten, Suchanfragen) und korrigieren systematische Verzerrungen.</br></br>Ein zentrales Ergebnis des Nowcastings ist nicht nur ein Punktwert, sondern eine Unsicherheitsverteilung des aktuellen Zustands. Diese Unsicherheit nimmt ab, sobald Nachmeldungen eintreffen – das Modell wird fortlaufend aktualisiert. das Modell wird fortlaufend aktualisiert.)
  • Physik-Informierte Neuronale Netze  + (Physik-informierte neuronale Netze (PhysicPhysik-informierte neuronale Netze (Physics-Informed Neural Networks, PINNs) sind neuronale Netze, bei denen bekannte physikalische Gesetze explizit in den Trainingsprozess integriert werden. Dies geschieht typischerweise, indem Differentialgleichungen, Erhaltungssätze oder Nebenbedingungen als zusätzliche Terme in die Verlustfunktion aufgenommen werden.in die Verlustfunktion aufgenommen werden.)
  • MCP-Server  + (Ein MCP-Server (Model Context Protocol SerEin MCP-Server (Model Context Protocol Server) ist ein Dienst, der einer KI-Anwendung (dem MCP-Host/Client) standardisiert Werkzeuge (Tools) und Ressourcen bereitstellt – z. B. Dateizugriff, Datenbankabfragen, API-Aufrufe oder domänenspezifische Funktionen. Die Idee ist, dass nicht jede KI-App für jede Datenquelle eigene Integrationen bauen muss, sondern über ein einheitliches Protokoll andocken kann.ein einheitliches Protokoll andocken kann.)
  • Propensity-Score-Matching  + (Propensity-Score-Matching ist ein quasi-exPropensity-Score-Matching ist ein quasi-experimentelles Verfahren der kausalen Inferenz, das Beobachtungsdaten so aufbereitet, dass Behandlungs- und Kontrollgruppe hinsichtlich beobachteter Kovariaten möglichst vergleichbar sind. Kernidee ist der Propensity Score: die Wahrscheinlichkeit, eine Behandlung zu erhalten, gegeben die beobachteten Kovariaten. Dieser Score wird meist per logistischer Regression oder einem flexibleren Klassifikationsmodell geschätzt.</br></br>Anschließend werden behandelte und unbehandelte Individuen mit ähnlichem Propensity Score gepaart (Matching). Gängige Varianten sind 1:1-Nearest-Neighbor-Matching, Matching mit/ohne Zurücklegen, Caliper-Matching (maximale Distanz), Kernel- oder Stratification-Matching. Nach dem Matching wird der durchschnittliche Behandlungseffekt (ATE oder ATT) als Mittelwertunterschied der Outcomes geschätzt.</br></br>Zentrale Annahme ist die Unconfoundedness (keine unbeobachteten Confounder): gegeben die Kovariaten ist die Behandlung „as-if random“. PSM eliminiert Verzerrung durch beobachtete Störfaktoren, kann aber keine unbeobachteten ausgleichen. Qualitätssicherung erfolgt über Balance-Checks (Standardized Mean Differences) und Sensitivitätsanalysen.an Differences) und Sensitivitätsanalysen.)
  • Prophet  + (Prophet ist ein additives Zeitreihen-VorheProphet ist ein additives Zeitreihen-Vorhersagemodell, das speziell für geschäfts- und operationsnahe Daten mit starken Saisonalitäten, Feiertagseffekten und Trendbrüchen entwickelt wurde. Ein Kernmerkmal ist die automatische Changepoint-Erkennung: Prophet erlaubt, dass sich der Trend an datengetrieben erkannten Zeitpunkten ändert (z. B. Politikwechsel, Systemumstellungen). Die Regularisierung steuert, wie flexibel diese Änderungen sind. Saisonalitäten (jährlich, wöchentlich, täglich) sind standardmäßig enthalten und lassen sich leicht erweitern. Unter der Haube wird Prophet als Bayessches Zustandsraum-/Regressionsmodell formuliert (mit MAP-Schätzung), was robuste Vorhersageintervalle ermöglicht. Die Stärke liegt weniger in theoretischer Eleganz als in Robustheit, Skalierbarkeit und schneller Anwendung mit minimalem Feature-Engineering.wendung mit minimalem Feature-Engineering.)
  • Retrieval-Augmented Generation  + (Retrieval-Augmented Generation (RAG) ist eRetrieval-Augmented Generation (RAG) ist ein hybrider KI-Ansatz, der Informationsabruf (Retrieval) mit generativer Modellierung kombiniert. Anstatt Antworten ausschließlich aus dem internen Modellwissen zu erzeugen, ruft ein RAG-System zunächst relevante externe Informationen (z. B. Dokumente, Datenbankeinträge, Wissensgraphen) ab und nutzt diese anschließend als Kontext für die Text- oder Antwortgenerierung.ext für die Text- oder Antwortgenerierung.)
  • Random Forrest  + (Random Forest ist ein ensemblebasiertes maRandom Forest ist ein ensemblebasiertes maschinelles Lernverfahren, das aus einer großen Anzahl von Entscheidungsbäumen besteht, die jeweils auf zufälligen Teilmengen der Daten und der Prädiktoren trainiert werden. Die Vorhersage erfolgt durch Aggregation der Einzelergebnisse (Mehrheitsvotum bei Klassifikation, Mittelwert bei Regression).lassifikation, Mittelwert bei Regression).)
  • K-Nearest Neighbor  + (k-Nearest Neighbor (k-NN) ist ein instanzbk-Nearest Neighbor (k-NN) ist ein instanzbasiertes, nichtparametrisches Lernverfahren, das Vorhersagen ausschließlich auf Basis der Ähnlichkeit zu bereits beobachteten Datenpunkten trifft. Es gibt kein explizit trainiertes Modell; stattdessen wird für eine neue Beobachtung eine Menge der k nächstgelegenen Nachbarn im Merkmalsraum bestimmt.legenen Nachbarn im Merkmalsraum bestimmt.)
  • Rekurrente neuronale Netze  + (Rekurrente neuronale Netze (RNNs) sind einRekurrente neuronale Netze (RNNs) sind eine Klasse neuronaler Netzwerke zur Verarbeitung sequenzieller Daten, bei denen der Zustand eines Neurons von aktuellen Eingaben und von seinem vorherigen Zustand abhängt. Dadurch besitzen RNNs ein internes Gedächtnis, mit dem zeitliche Abhängigkeiten modelliert werden können.e Abhängigkeiten modelliert werden können.)
  • SEIR-Modelle  + (Das SEIR-Modell erweitert das SIR-Modell uDas SEIR-Modell erweitert das SIR-Modell um ein zusätzliches Kompartiment Exposed (E) für infizierte, aber noch nicht infektiöse Individuen. Damit bildet es eine Latenz- bzw. Inkubationsphase explizit ab, was für viele Infektionskrankheiten realistischer ist als ein unmittelbarer Übergang von empfänglich zu infektiös.rer Übergang von empfänglich zu infektiös.)
  • Statistische Emulatoren  + (Statistische Emulatoren sind surrogatbasieStatistische Emulatoren sind surrogatbasierte Modelle, die das Verhalten eines rechenintensiven Simulations- oder Mechanistikmodells approximieren. Anstatt das Originalmodell bei jeder Anfrage auszuführen, wird ein statistisches Ersatzmodell trainiert, das Eingaben schnell auf Ausgaben abbildet.as Eingaben schnell auf Ausgaben abbildet.)
  • Zeitfaltungsnetze  + (Zeitfaltungsnetze (Temporal Convolutional Zeitfaltungsnetze (Temporal Convolutional Networks, TCNs) sind eine Klasse tiefer neuronaler Netze für die Modellierung von zeitlichen Sequenzen, die auf kausalen, eindimensionalen Faltungsoperationen basieren. Im Gegensatz zu rekurrenten Netzen verarbeiten TCNs Sequenzen vollständig parallel und vermeiden explizite Rückkopplungsschleifen.ermeiden explizite Rückkopplungsschleifen.)
  • Transformermodelle  + (Transformermodelle sind eine Klasse tieferTransformermodelle sind eine Klasse tiefer neuronaler Netze, die Sequenzen vollständig über Aufmerksamkeitsmechanismen (Self-Attention) verarbeiten, ohne rekurrente oder konvolutionale Strukturen zu benötigen. Dadurch können Abhängigkeiten zwischen beliebigen Positionen einer Sequenz parallel und effizient modelliert werden. parallel und effizient modelliert werden.)
  • Ensemblelernen  + (Ensemblelernen ist ein Oberbegriff für LerEnsemblelernen ist ein Oberbegriff für Lernverfahren, bei denen mehrere Einzelmodelle gezielt kombiniert werden, um eine bessere Vorhersageleistung, Robustheit und Stabilität zu erzielen als mit einem einzelnen Modell. Die Grundidee ist, dass unterschiedliche Modelle unterschiedliche Fehler machen und sich diese Fehler durch Aggregation teilweise kompensieren. durch Aggregation teilweise kompensieren.)