Suche mittels Attribut

Zur Navigation springen Zur Suche springen

Diese Seite stellt eine einfache Suchoberfläche zum Finden von Objekten bereit, die ein Attribut mit einem bestimmten Datenwert enthalten. Andere verfügbare Suchoberflächen sind die Attributsuche sowie der Abfragengenerator.

Suche mittels Attribut

Eine Liste aller Seiten, die das Attribut „Beschreibung ist“ mit dem Wert „Die Elastische Netzregression (Elastic Net Regression) ist ein regularisiertes Regressionsverfahren, das die Eigenschaften der Lasso-Regression (L1-Strafe) und der Ridge-Regression (L2-Strafe) kombiniert. Ziel ist es, stabile Schätzungen in Situationen mit vielen, möglicherweise stark korrelierten Prädiktoren zu erhalten.“ haben. Weil nur wenige Ergebnisse gefunden wurden, werden auch ähnliche Werte aufgelistet.

⧼showingresults⧽

Zeige (vorherige 50 | nächste 50) (20 | 50 | 100 | 250 | 500)


    

Liste der Ergebnisse

    • Elastische Netzregression  + (Die Elastische Netzregression (Elastic NetDie Elastische Netzregression (Elastic Net Regression) ist ein regularisiertes Regressionsverfahren, das die Eigenschaften der Lasso-Regression (L1-Strafe) und der Ridge-Regression (L2-Strafe) kombiniert. Ziel ist es, stabile Schätzungen in Situationen mit vielen, möglicherweise stark korrelierten Prädiktoren zu erhalten.tark korrelierten Prädiktoren zu erhalten.)
    • Agentenbasierte Modellierung  + (Agentenbasierte Modellierung (Agent-Based Agentenbasierte Modellierung (Agent-Based Modeling, ABM) ist ein mechanistischer Simulationsansatz, bei dem ein System als Menge autonomer, interagierender Agenten beschrieben wird. Jeder Agent folgt einfachen, lokal definierten Regeln, während das globale Systemverhalten emergent aus den vielen Einzelinteraktionen entsteht.s den vielen Einzelinteraktionen entsteht.)
    • Autoencoder  + (Autoencoder sind neuronale Netzwerke des uAutoencoder sind neuronale Netzwerke des unüberwachten Lernens, die darauf trainiert werden, ihre Eingabedaten über eine komprimierte interne Darstellung (latenter Raum) möglichst verlustarm zu rekonstruieren. Sie bestehen aus einem Encoder, der die Daten verdichtet, und einem Decoder, der die Originaldaten aus dieser Verdichtung wiederherstellt.en aus dieser Verdichtung wiederherstellt.)
    • Bayesische Kalibration  + (Bayessche Kalibration ist ein bayessches IBayessche Kalibration ist ein bayessches Inferenzverfahren zur Anpassung von Modellparametern an beobachtete Daten, bei dem Unsicherheit in Parametern, Beobachtungen und ggf. Modellfehlern explizit berücksichtigt wird. Ziel ist es, ein Simulations- oder Rechenmodell so zu justieren, dass seine Ausgaben konsistent mit empirischen Daten sind.ben konsistent mit empirischen Daten sind.)
    • Synthetische Kontrolle  + (DDie Synthetische Kontrolle ist ein quasi-DDie Synthetische Kontrolle ist ein quasi-experimentelles kausales Verfahren, das den Effekt einer Intervention auf eine einzelne behandelte Einheit (z. B. ein Land, eine Region, ein Krankenhaus) schätzt. Statt eine einzelne Kontrollgruppe zu wählen, konstruiert SCM eine gewichtete Kombination mehrerer unbehandelter Einheiten („Donor Pool“), sodass diese vor der Intervention das Verhalten der behandelten Einheit möglichst genau reproduziert. Diese gewichtete Kombination heißt synthetische Kontrolle.</br></br>Formal werden Gewichte so optimiert, dass relevante Prä-Interventions-Merkmale (Outcome-Verläufe und Kovariaten) zwischen behandelter Einheit und synthetischer Kontrolle möglichst übereinstimmen. Nach der Intervention wird die Abweichung zwischen beobachtetem Outcome und synthetischer Kontrolle als kausaler Interventionseffekt interpretiert – unter der Annahme, dass die synthetische Kontrolle den kontrafaktischen Verlauf ohne Intervention gut approximiert.</br></br>SCM ist besonders stark, wenn parallele Trends (wie bei DiD) nicht plausibel sind oder nur eine sehr kleine Zahl behandelter Einheiten existiert. Erweiterungen (Generalized SCM, Augmented SCM) erlauben mehrere behandelte Einheiten, Regularisierung und Inferenzverbesserungen.egularisierung und Inferenzverbesserungen.)
    • SEIR-Modelle  + (Das SEIR-Modell erweitert das SIR-Modell uDas SEIR-Modell erweitert das SIR-Modell um ein zusätzliches Kompartiment Exposed (E) für infizierte, aber noch nicht infektiöse Individuen. Damit bildet es eine Latenz- bzw. Inkubationsphase explizit ab, was für viele Infektionskrankheiten realistischer ist als ein unmittelbarer Übergang von empfänglich zu infektiös.rer Übergang von empfänglich zu infektiös.)
    • SIR-Modelle  + (Das SIR-Modell ist ein klassisches kompartDas SIR-Modell ist ein klassisches kompartmentalisierendes epidemiologisches Modell, das eine Population in drei Zustände unterteilt: Susceptible (S) (empfänglich), Infected (I) (infektiös) und Recovered/Removed (R) (genesen/entfernt). Es beschreibt, wie sich eine Infektionskrankheit durch Kontakte ausbreitet und wie Individuen anschließend aus dem infektiösen Zustand herausgehen.d aus dem infektiösen Zustand herausgehen.)
    • Kalman-Filter  + (Der Kalman-Filter ist ein rekursives SchätDer Kalman-Filter ist ein rekursives Schätzverfahren zur Zustandsrekonstruktion dynamischer Systeme, bei dem Messungen und Modellvorhersagen optimal kombiniert werden. Er ist speziell für lineare dynamische Systeme mit gaußschem Rauschen formuliert und liefert zu jedem Zeitpunkt eine Schätzung des aktuellen Zustands samt Unsicherheit. des aktuellen Zustands samt Unsicherheit.)
    • Cox-Modelle  + (Die Cox-Methode (Cox-Proportional-Hazards-Die Cox-Methode (Cox-Proportional-Hazards-Modell) ist ein semiparametrisches Regressionsverfahren der Überlebenszeitanalyse, das den Einfluss von Kovariaten auf die Hazardrate (instantanes Ereignisrisiko) modelliert, ohne die Grundform der Basis-Hazard spezifizieren zu müssen. der Basis-Hazard spezifizieren zu müssen.)
    • Instumentalvariablemmethode  + (Die Instrumentalvariablenmethode (IV) ist Die Instrumentalvariablenmethode (IV) ist ein kausales Schätzverfahren, das eingesetzt wird, wenn eine erklärende Variable (Behandlung, Exposition) endogen ist – also mit unbeobachteten Störfaktoren korreliert. In solchen Fällen liefern einfache Regressions- oder Matching-Methoden verzerrte Effekte. Die IV-Methode nutzt eine zusätzliche Variable, das Instrument, um diese Endogenität zu umgehen.</br></br>Ein gültiges Instrument 𝑍 muss drei zentrale Bedingungen erfüllen:</br># Relevanz – <math>Z<\math> beeinflusst die Behandlung <math>D<\math></br># Exogenität – <math>Z<\math> ist unabhängig von unbeobachteten Confoundern</br># Ausschlussrestriktion – <math>Z<\math> wirkt auf das Outcome <math>Y<\math> nur über <math>D<\math>, nicht direkt.</br></br>Unter diesen Annahmen kann man den kausalen Effekt von <math>D<\math> auf <math>Y<\math> identifizieren, selbst wenn <math>D<\math> nicht randomisiert ist.</br></br>Praktisch wird IV häufig über Two-Stage Least Squares (2SLS) umgesetzt: In der ersten Stufe wird die Behandlung durch das Instrument vorhergesagt, in der zweiten Stufe wird das Outcome auf diese vorhergesagte Behandlung regressiert. Der geschätzte Effekt ist meist ein Local Average Treatment Effect (LATE), d. h. er gilt für jene Subpopulation, deren Behandlung tatsächlich durch das Instrument beeinflusst wird (die „Compliers“).</br></br>=='"`UNIQ--h-1--QINU`"' Anwendbarkeit im Gesundheitssektor ==</br></br>Im Gesundheitswesen wird die IV-Methode eingesetzt, wenn Behandlungszuweisungen stark selektiv sind, z. B. bei Therapieentscheidungen, Krankenhauswahl oder Medikamentenverschreibung. Typische Instrumente sind ärztliche Behandlungspräferenzen, regionale Versorgungsunterschiede, Entfernung zu Einrichtungen oder administrative Regeländerungen.</br></br>In Public Health kommt IV zum Einsatz, um kausale Effekte von Expositionen zu schätzen, die nicht randomisierbar sind, etwa der Einfluss von Versicherungsschutz, Screening-Programmen oder Umweltbelastungen. Besonders wichtig ist IV, wenn unbeobachtete Confounder (z. B. Gesundheitsbewusstsein) eine zentrale Rolle spielen und andere Methoden (PSM, DiD) nicht ausreichen.</br></br>=='"`UNIQ--h-2--QINU`"' Sonstiges ==</br></br>Starke Annahmen (Exogenität, Ausschlussrestriktion)</br></br>Schwache Instrumente problematisch</br></br>=='"`UNIQ--h-3--QINU`"' Semantik ==</br></br>Wikidata-Identifikator ist: [[Wikidata ID ist::Q173206usschlussrestriktion) Schwache Instrumente problematisch =='"`UNIQ--h-3--QINU`"' Semantik == Wikidata-Identifikator ist: [[Wikidata ID ist::Q173206)
    • Sensitivitätsanalyse  + (Die Sensitivitätsanalyse untersucht, wie sDie Sensitivitätsanalyse untersucht, wie stark die Ergebnisse eines Modells oder einer Berechnung auf Variationen der Eingabeparameter reagieren. Ziel ist es, diejenigen Annahmen oder Parameter zu identifizieren, die den größten Einfluss auf das Ergebnis haben, und damit die Robustheit der Resultate zu bewerten. die Robustheit der Resultate zu bewerten.)
    • Szenarioanalyse  + (Die Szenarioanalyse ist ein analytischer ADie Szenarioanalyse ist ein analytischer Ansatz, bei dem mehrere plausible, konsistente Zukunftsentwicklungen („Szenarien“) systematisch konstruiert und analysiert werden. Ziel ist es nicht, eine einzelne wahrscheinlichste Zukunft vorherzusagen, sondern ein Spektrum möglicher Entwicklungen unter unterschiedlichen Annahmen sichtbar zu machen.rschiedlichen Annahmen sichtbar zu machen.)
    • Stochastische Simulation  + (Die stochastische Simulation ist ein ModelDie stochastische Simulation ist ein Modellierungsansatz, bei dem Zufallsprozesse explizit in die Dynamik eines Systems eingebaut werden. Im Gegensatz zu deterministischen Modellen erzeugt jede Simulation einen möglichen Realisationspfad; die Gesamtheit vieler Läufe beschreibt eine Wahrscheinlichkeitsverteilung der möglichen Ergebnisse.hkeitsverteilung der möglichen Ergebnisse.)
    • MCP-Server  + (Ein MCP-Server (Model Context Protocol SerEin MCP-Server (Model Context Protocol Server) ist ein Dienst, der einer KI-Anwendung (dem MCP-Host/Client) standardisiert Werkzeuge (Tools) und Ressourcen bereitstellt – z. B. Dateizugriff, Datenbankabfragen, API-Aufrufe oder domänenspezifische Funktionen. Die Idee ist, dass nicht jede KI-App für jede Datenquelle eigene Integrationen bauen muss, sondern über ein einheitliches Protokoll andocken kann.ein einheitliches Protokoll andocken kann.)
    • Ensemblelernen  + (Ensemblelernen ist ein Oberbegriff für LerEnsemblelernen ist ein Oberbegriff für Lernverfahren, bei denen mehrere Einzelmodelle gezielt kombiniert werden, um eine bessere Vorhersageleistung, Robustheit und Stabilität zu erzielen als mit einem einzelnen Modell. Die Grundidee ist, dass unterschiedliche Modelle unterschiedliche Fehler machen und sich diese Fehler durch Aggregation teilweise kompensieren. durch Aggregation teilweise kompensieren.)
    • Ensemblevorhersage  + (Ensemblevorhersage kombiniert mehrere Modelle oder Modellläufe, um robustere und besser kalibrierte Prognosen zu erzeugen als Einzelmodelle.)
    • Exponenzielle Glättung  + (Exponenzielle Glättung ist eine Familie zeitreihenbasierter Prognoseverfahren, bei denen vergangene Beobachtungen abnehmend gewichtet werden: Neuere Daten erhalten ein höheres Gewicht als ältere, und die Gewichte fallen exponentiell ab.)
    • Faltungsnetze  + (Faltungsnetze (Convolutional Neural NetworFaltungsnetze (Convolutional Neural Networks, CNNs) sind eine Klasse tiefer neuronaler Netze, die speziell für die Verarbeitung gitterartig strukturierter Daten entwickelt wurden, insbesondere für Bilder, aber auch für Signale und räumlich-zeitliche Daten. Zentrale Idee ist die Verwendung von Faltungsoperationen, um lokale Muster effizient zu erkennen.n, um lokale Muster effizient zu erkennen.)
    • Models dev  + (Freie Datenbank deren Ziel es ist, alle verfügbaren KI-Modelle mit Fähigkeiten und Preisen aufzulisten)
    • Physik-Informierte Neuronale Netze  + (Physik-informierte neuronale Netze (PhysicPhysik-informierte neuronale Netze (Physics-Informed Neural Networks, PINNs) sind neuronale Netze, bei denen bekannte physikalische Gesetze explizit in den Trainingsprozess integriert werden. Dies geschieht typischerweise, indem Differentialgleichungen, Erhaltungssätze oder Nebenbedingungen als zusätzliche Terme in die Verlustfunktion aufgenommen werden.in die Verlustfunktion aufgenommen werden.)
    • Rekurrente neuronale Netze  + (Rekurrente neuronale Netze (RNNs) sind einRekurrente neuronale Netze (RNNs) sind eine Klasse neuronaler Netzwerke zur Verarbeitung sequenzieller Daten, bei denen der Zustand eines Neurons von aktuellen Eingaben und von seinem vorherigen Zustand abhängt. Dadurch besitzen RNNs ein internes Gedächtnis, mit dem zeitliche Abhängigkeiten modelliert werden können.e Abhängigkeiten modelliert werden können.)
    • Retrieval-Augmented Generation  + (Retrieval-Augmented Generation (RAG) ist eRetrieval-Augmented Generation (RAG) ist ein hybrider KI-Ansatz, der Informationsabruf (Retrieval) mit generativer Modellierung kombiniert. Anstatt Antworten ausschließlich aus dem internen Modellwissen zu erzeugen, ruft ein RAG-System zunächst relevante externe Informationen (z. B. Dokumente, Datenbankeinträge, Wissensgraphen) ab und nutzt diese anschließend als Kontext für die Text- oder Antwortgenerierung.ext für die Text- oder Antwortgenerierung.)
    • Zeitfaltungsnetze  + (Zeitfaltungsnetze (Temporal Convolutional Zeitfaltungsnetze (Temporal Convolutional Networks, TCNs) sind eine Klasse tiefer neuronaler Netze für die Modellierung von zeitlichen Sequenzen, die auf kausalen, eindimensionalen Faltungsoperationen basieren. Im Gegensatz zu rekurrenten Netzen verarbeiten TCNs Sequenzen vollständig parallel und vermeiden explizite Rückkopplungsschleifen.ermeiden explizite Rückkopplungsschleifen.)
    • K-Nearest Neighbor  + (k-Nearest Neighbor (k-NN) ist ein instanzbk-Nearest Neighbor (k-NN) ist ein instanzbasiertes, nichtparametrisches Lernverfahren, das Vorhersagen ausschließlich auf Basis der Ähnlichkeit zu bereits beobachteten Datenpunkten trifft. Es gibt kein explizit trainiertes Modell; stattdessen wird für eine neue Beobachtung eine Menge der k nächstgelegenen Nachbarn im Merkmalsraum bestimmt.legenen Nachbarn im Merkmalsraum bestimmt.)