Statistica

Höhere Modelle und
explorative Verfahren
für anspruchsvolle Analytik.

Höhere Statistik

Mit Statistica erhalten Sie weiterführende analytische und grafische Werkzeuge. Mit den Modulen „Höhere Modelle“ und „Explorative Verfahren“ können Sie auch bei komplexen Zusammenhängen Mehrwert aus Ihren Daten gewinnen und die „Poweranalyse“ ermöglicht Ihnen, vor der Durchführung Ihrer Studien zu ermitteln, welchen Stichprobenumfang Sie benötigen, damit Sie aussagekräftige Ergebnisse erhalten.

Übersicht (bitte anklicken):

Allgemeine Lineare Modelle (ALM)

Allgemeine Lineare Modelle (ALM)

  • Vordefinierte Standardmodelle
    • univariate, multivariate Varianzanalysen (ANOVA/MANOVA)
    • ANOVA mit Haupt- und Interaktionseffekten
    • feste oder/und zufällige Faktoren (Mixed Model ANOVA)
    • Hierarchische ANOVA
    • ANOVA mit Messwiederholung (Korrekturen nach Greenhouse-Geisser, Huynh-Feldt)
    • Multiple Regression mit Haupt- und Interaktionseffekten
    • Polynomiale Regression
    • Wirkungsflächen- Regression
    • Mischungsflächen- Regression
    • Kovarianzanalyse mit Haupteffekten
    • Modell separater Regressionen
    • Kovarianzanalyse mit Haupt- und Interaktionseffekten
  • Nutzerspezifische Modelle
    • diverse ANOVA/MANOVA
    • diverse Regressionsmethoden
    • diverse Kovarianzanalysen
  • integrierter Assistent zur passenden Modellwahl
  • Analysesyntax-Editor (optional auch SAS-Syntax)
  • Ergänzende Tests und Modellprüfungen
    • Lack-of-Fit Test
    • Post-hoc-Tests, Kontrastanalyse, Vergleich mit Kontrollgruppe (Dunnett Test)
    • Multivariate Tests ( Wilks, Pillai’s, Hotelling’s, Roy’s)
    • Tests für  benutzerdefinierte Hypothesen/Fehlerterme
    • Test auf Varianzhomogenität (Bartletts Chi², Levene’s-Test)
    • detaillierte Residualstatistiken
    • Plot von Haupt- und Interaktionseffekten
    • Scatterplots für Residuen, Prognosewerte
    • Histogramme und Normalverteilungsplots
    • Box-Whisker-Plots
  • Modellanwendung
    • Integrierte Optimierungsrechnung mit Wirkungsprofilen
    • Berechnung von Prognosewerten für neue Fälle
    • Ausgabe der Prognosegleichung als Text

Allgemeine Regressionsmodelle (ARM)

Allgemeine Regressionsmodelle (ARM)

  • Vordefinierte Standardmodelle
    • univariate, multivariate Varianzanalysen (ANOVA/MANOVA)
    • ANOVA mit Haupt- und Interaktionseffekten
    • Multiple Regression mit Haupt- und Interaktionseffekten
    • Polynomiale Regression
    • Wirkungsflächen- Regression
    • Mischungsflächen- Regression
    • Kovarianzanalyse mit Haupteffekten
    • Kovarianzanalyse mit Haupt- und Interaktionseffekten
  • Nutzerspezifische Modelle
    • diverse ANOVA/MANOVA
    • diverse Regressionsmethoden
    • diverse Kovarianzanalysen
  • Automatischer Modellaufbau
    • Schrittweise vorwärts/rückwärts Prädiktorselektion
    • Beste-Subsets Prädiktorselektion
    • Optional erzwungene Prädiktoraufnahme
  • integrierter Assistent zur passenden Modellwahl
  • Analysesyntax-Editor (optional auch SAS-Syntax)
  • Ergänzende Tests und Modellprüfungen
    • Lack-of-Fit Test
    • Post-hoc-Tests, Kontrastanalyse, Vergleich mit Kontrollgruppe (Dunnett Test)
    • Multivariate Tests ( Wilks, Pillai’s, Hotelling’s, Roy’s)
    • Tests für  benutzerdefinierte Hypothesen/Fehlerterme
    • Test auf Varianzhomogenität (Bartletts Chi², Levene’s-Test)
    • detaillierte Residualstatistiken
    • Plot von Haupt- und Interaktionseffekten
    • Scatterplots für Residuen, Prognosewerte
    • Histogramme und Normalverteilungsplots
    • Box-Whisker-Plots
  • Modellanwendung
    • Integrierte Optimierungsrechnung mit Wirkungsprofilen
    • Berechnung von Prognosewerten für neue Fälle
    • Ausgabe der Prognosegleichung als Text

Verallgemeinerte Lineare/Nichtlineare Modelle (VLM)

Verallgemeinerte Lineare/Nichtlineare Modelle (VLM)

  • Vordefinierte Standardmodelle
    • ANOVA mit Haupt- und Interaktionseffekten
    • Hierarchische ANOVA
    • Multiple Regression mit Haupt- und Interaktionseffekten
    • Polynomiale Regression
    • Wirkungsflächen- Regression
    • Mischungsflächen- Regression
    • Kovarianzanalyse mit Haupteffekten
    • Modell separater Regressionen
    • Kovarianzanalyse mit Haupt- und Interaktionseffekten
  • Nutzerspezifische Modelle
    • diverse ANOVA
    • diverse Regressionsmethoden
    • diverse Kovarianzanalysen
  • Link-Funktionen und Verteilungen
    • Metrische und ordinale Logit-/Probitmodelle
    • Potenzfunktion, Log-Log Modelle
    • Normal, Poisson, Gamma, invers Normal, Tweedie, negativ Binomial
    • Binomial, Ordinal Multinomial, Multinomial
  • Automatischer Modellaufbau
    • Schrittweise vorwärts/rückwärts Prädiktorselektion
    • Beste-Subsets Prädiktorselektion
  • integrierter Assistent zur passenden Modellwahl
  • Analysesyntax-Editor (optional auch SAS-Syntax)
  • Ergänzende Tests und Modellprüfungen
    • Likelihood-Ratio-Test, Wald Statistik, Deviance Statistik
    • Likelihood Score, Likelihood, Akaike IC, Bayesian Information Criterion (BIC)
    • Cox-Snell R², Nagelkerke R², Hosmer-Lemeshow Test
    • Überdispersionsparameter für Modelle mit kategorialen Zielgrößen
    • Klassifikation von Fällen & Odds Ratio
    • detaillierte Residualstatistiken (Pearson Residuen)
    • ROC-Kurven, Lift-Charts
    • Scatterplots für Residuen, Prognosewerte
    • Histogramme und Normalverteilungsplots
  • Modellanwendung
    • Berechnung von Klassifikationswahrscheinlichkeiten für neue Fälle

Modelle Partieller Kleinster Quadrate (PKQ)

Modelle Partieller Kleinster Quadrate (PKQ)

  • Algorithmen
    • NIPALS (nonlinear iterative partial least squares)
    • SIMPLS (statistically inspired modification of PLS)
  • Vordefinierte Standardmodelle
    • ANOVA mit Haupt- und Interaktionseffekten
    • Hierarchische ANOVA
    • Multiple Regression mit Haupt- und Interaktionseffekten
    • Polynomiale Regression
    • Wirkungsflächen- Regression
    • Kovarianzanalyse mit Haupteffekten
    • Modell separater Regressionen
    • Kovarianzanalyse mit Haupt- und Interaktionseffekten
  • Nutzerspezifische Modelle
    • diverse ANOVA
    • diverse Regressionsmethoden
    • diverse Kovarianzanalysen
  • integrierter Assistent zur passenden Modellwahl
  • Analysesyntax-Editor (optional auch SAS-Syntax)
  • Automatische Bestimmung der Komponentenanzahl durch Kreuzvalidierung
  • Ergänzende Tests und Modellprüfungen
    • PRESS-Statistik (predicted residual sums of squares)
    • Modellparameter (R², Ladungen, Gewichte, Koeffizienten)
    • Euklidische Distanzen (Residuen, Ladungen, Beobachtungen)
    • detaillierte Residualstatistiken
    • Scatterplots für Komponenten, Residuen, Prognosewerte
    • Histogramme und Normalverteilungsplots
  • Modellanwendung
    • Berechnung von Prognosewerten für neue Fälle

Varianzkomponenten

Varianzkomponenten

  • ANOVA mit Haupt- und Interaktionseffekten
  • feste oder/und zufällige Faktoren (Mixed Model ANOVA)
  • Varianzkomponenten mit erwarteten mittleren Quadraten (MS)
  • Varianzkomponenten mit Maximum-Likelihood Schätzung
  • Koeffizienten der Nenner-Synthese (denominator synthesis)
  • zusammengesetzte (synthetisierten) Fehlerterme und Freiheitsgrade (Satterthwaites Methode)
  • gewichtete und ungewichtete Randmittelwerte und deren Konfidenzintervalle
  • Methoden zur Schätzung der Varianzkomponenten
    • MIVQUE (Minimum Variance Quadratic Unbiased Estimators)
    • Maximum-Likelihood(ML) (Newton-Raphson- und der Fisher-Scoring-Algorithmus)
    • Restringierte Maximum-Likelihood (REML)

Survival-Analyse und Cox-Regression

Survival-Analyse und Cox-Regression

  • Sterbetafeln
  • Kaplan-Meier-Schärtzer
  • Vergleich der Survivalfunktion verschiedener Gruppen
    • Gehan-Test
    • Cox' F-Test
    • Cox-Mantel-Test
    • Log-Rang-Test
    • Peto & Petos verallgemeinerter Wilcoxon-Test
  • Verfahren zur Anpassung der Survivalfunktion (basierend auf gewichteten und ungewichteten Kleinste-Quadrate-Methoden)
    • Exponential
    • Linear-Hazard
    • Gompertz
    • Weibull
  • Kaplan-Meier-Plots
  • Cox’ Proportional Hazard Modell (Cox-Regression)
    • geschichtete Stichproben
    • verschiedene Grundlinienfunktionen (baseline hazards)
    • Koeffizientenvektoren für einzelne Schichten
    • Likelihoods (Breslow, Efron, diskret-logistisch)
  • exponentielle Regression
  • lognormale und normale Regressionsmodelle
  • Formelassisten für die Definition zeitabhängiger Kovariablen
  • Analyse-typische grafische Ausgaben
    • Kaplan-Meier-Plots
    • Plots der Survival-Funktion
    • Muster der zensierten Daten
    • Hazard- und kumulierte Hazard-Funktionen
    • Wahrscheinlichkeitsdichten
    • Plots zum Vergleich von Gruppen
    • Plots zur Verteilungsanpassung
    • verschiedene Residuenplots

Nichtlineare Regression

Nichtlineare Regression

  • Schätzmethoden
    • Kleinste-Quadrate- Schätzverfahren
    • Maximum-Likelihood-Schätzverfahren
    • benutzerdefinierte Verlustfunktionen
    • Kleinste-Quadrate-Kriterium
    • Levenberg-Marquardt- Algorithmus
    • Gauss-Newton-Algorithmus
    • Quasi-Newton
    • Simplex
    • Koordinatensuche nach Hooke-Jeeves
    • Rosenbrock-Suchverfahren der rotierenden Koordinaten
  • Modelle
    • Definition der Modellgleichung über Editor
    • unstetige Regressionsmodelle möglich
    • Modelle mit Indikatorvariablen
    • Benutzerdefinierte Startwerte, Schrittweiten, Konvergenzkriterien
    • Vordefinition der häufigsten Regressionsmodelle
      • schrittweise Probit- und Logit-Regression
      • exponentielles Regressionsmodell
      • stückweise lineare Regression (mit Strukturbruch)

Loglineare Analysen von Häufigkeitstabellen

Loglineare Analysen von Häufigkeitstabellen

  • simultane Analyse von Häufigkeitstabellen mit bis zu sieben Dimensionen
  • vollständige und unvollständige Tabellen (strukturelle Nullen)
  • Berechnung erwarteter Häufigkeiten
  • Modelle mit Haupt- und Interaktionseffekten
  • Schrittweise rückwärts Prädiktorselektion
  • G² (Maximum-Likelihood Chi²), Pearson Chi²
  • Umfangreiche Residualstatistiken
    • Komponenten Maximum-Likelihood Chi²
    • Freeman-Tukey Reste

Zeitreihenanalyse/Prognose

Zeitreihenanalyse/Prognose

  • ARIMA (autoregressive integrated moving average) und Autokorrelationsfunktionen.
  • Zeitreihen mit Strukturbruch (Interventionsanalyse)
  • Exponentielles Glätten und Prognose mit und ohne Saisonkomponente
  • Spektralanalyse (Fourier-Analyse, Kreuzspektralanalyse, Tapering)
  • Periodogramm, Spektraldichte (Glättungsfenster nach Daniell, Tukey, Hamming, Parzen, Bartlett)
  • Saisonbereinigung (Census 1-Methode, Census X11/Y2k-Methode)
  • Distributed-Lags-Analyse (Regression mit zeitverschobenen Zeitreihen)
  • Ersetzen fehlender Werte (Interpolation, Median, Mittelwert, Trendregression)
  • Stationäre Zeitreihen durch Differenzieren und Integrieren
  • Autokorrelation, partielle Autokorrelation, Kreuzkorrelation

Strukturgleichungsmodelle (SEPATH)

Strukturgleichungsmodelle (SEPATH)

  • Kausalmodelle oder Pfadanalyse (Analysis of causal paths) mit latenten oder/und manifesten Variablen
  • Konfirmatorische Faktorenanalyse
  • Faktorenanalyse zweiter Ordnung (hierarchische Faktorenanalyse
  • Regressionsmodelle mit Restriktionen
  • Test von Hypothesen für Kovarianzstrukturmodelle oder Korrelationsstrukturmodelle
  • Syntax zum Modellaufbau
  • Monte Carlo Simulation

Simulationsmethoden

Simulationsmethoden

  • Simulation verschiedener Verteilungsmodelle
    • Normalverteilung (Gefaltet, einseitig, beidseitig)
    • Lognormal
    • Rayleigh
    • Weibull
    • Gauß-Mischverteilung
    • Johnson-Kurven (allg. nicht-normal eingipfelig
    • Verallgemeinerte Extremwertverteilung (EVD)
    • Verallgemeinerte Pareto-Verteilung (GPD)
    • Dreiecksverteilung
  • Monte Carlo, Latin-Hypercube-Sampling (LHS)
  • Simulation für abhängige Variablen
    • Iman-Conover-Methode
    • LHS mit Iman-Conover-Methode

Explorative Verfahren

Explorative Verfahren

  • Clusteranalyse
    • Agglomerativ
      • Fusionsregeln: Single Linkage, Complete Linkage, Unweighted Pair-Group Average, Weighted Pair-Group Average, Unweighted Pair-Group Centroid, Weighted Pair-Group Centroid (Median), Ward-Methode
      • Distanzmaße: Euklidisch, quadriert Euklidisch, City-block (Manhattan), Chebychev (Tschebyscheff), Power-Distanzen, Prozent Nichtübereinstimmung, 1-Pearsons r
    • K-Means-Verfahren
    • Zweifach agglomerativ
  • Faktorenanalyse
    • Hauptkomponentenanalyse
    • hierarchische (schiefwinklige) Faktorenanalyse
    • Hauptfaktorenanalyse
      • Kommunalitäten = multiples R²
      • Iterative Kommunalitäten (MINRES)
      • Maximum Likelihood
      • Zentroid-Methode
      • Hauptachsenmethode
    • Rotationsverfahren
      • Varimax
      • Equimax
      • Quartimax
      • Biquartimax (einfach oder standardisiert)
      • schiefwinklige Rotationen
    • Eigenwerte, Scree-Plots, Faktorladungen, Kommunalitäten
  • Hauptkomponenten- und Klassifikationsanalyse
    • Basierend auf Korrelation oder Kovarianz
    • Einbindung zusätzlicher Variablen
    • Eigenwerte (gewöhnliche, kumulierte, relative), Eigenvektoren
    • Plot der Fälle im Faktorensystem
  • Kanonische Analyse
    • Verarbeitung von Einzeldaten oder Korrelationsmatrizen
    • Eigenwerte
    • Eigenvektoren
    • Redundanzkoeffizienten
    • kanonische Gewichte
    • Ladungen
    • extrahierte Varianzen
    • Signifikanztests für jede Root
    • Iconplots, Plots der Eigenwerte, der kanonischen Relation, Scatterplots der kanonischen Variablen
  • Reliabilitäts-und Itemanalyse
    • Statistiken der Reliabilität für alle Items einer Skala
    • interaktiv Teilmengen
    • Split Half, Split Part (Teilmengenvergleiche)
    • Reliabilität für Summenskala oder Subskalen
    • Automatische Aktualisierung der Berechnungen bei Ausschluss von Items
    • Korrelationsmatrizen
      • Pearson r
      • Tetrachorisch (Cos Pi-Approximation / iterative Approximation)
    • deskriptive Statistiken für die Items
    • Cronbachs Alpha
    • standardisiertes Alpha
    • mittlere Inter-Item-Korrelation
    • vollständige ANOVA-Tabelle für die Skala
    • vollständige Satz der Item-Gesamt-Statistik (multiple Item-Gesamt R’s)
    • Split-Half-Reliabilität
    • Korrelation zwischen Listen mit Abschwächungskorrektur
    • Interaktive Was-wäre-wenn-Prozeduren
  • Klassifikations- und Regressionsbäume
    • kategoriale  oder ordinale Prädiktor-Variablen
    • univariate, multivariate Splits + deren Linearkombinationen einsetzbar
    • exhaustive splits
      • THAID
      • CART
    • auf Diskrimination basierende Splits
    • unverzehrte (unbiased ) Variablenauswahl (z.B. in QUEST)
    • direkte Stoppregeln (direct stopping rules, z.B. in FACT)
    • "Aufwärtsabschneiden" (bottom-up pruning, z.B. in CART)
    • Abschneiden basierend auf Fehlklassifikationsraten oder der "Deviance"-Funktion
    • Maße für Güte der Anpassung
      • Chi-Quadrat- Index
      • G-Quadrat- Index
      • Gini-Index
    • Schätzung oder Benutzerspezifikation der Priors und Fehlklassifikationskosten
    • Weitere Spezifikationsmöglichkeiten
      • v-Wert für v-fache Kreuzvalidierung während der Baumerstellung
      • v-Wert für v-fache Kreuzvalidierung für die Fehlerschätzung
      • Größe der SE-Regel
      • minimale Knotengröße vor dem Abschneiden
      • Startwerte für die Zufallszahlengenerierung
      • Alpha-Werte für die Variablenselektion
  • Korrespondenzanalyse
    • Auswertbare Formate
      • Tabellen extremer Größe
      • Datendateien mit Gruppierungs- (Code-)Variablen
      • Datendateien mit Häufigkeiten (bzw. anderen Korrespondenz-, Assoziations-, Ähnlichkeitsmaßen )
      • Kodierungsvariablen zur Kennzeichnung der Zellen in der Tabelle
      • Datendateien, die nur Häufigkeiten (oder andere Korrespondenzmaße) enthalten (z.B. Häufigkeitstabelle)
      • für multiple Korrespondenzanalyse auch Eingabe einer Burt-Tabelle möglich
    • Berechnete Maßzahlen:
      • Zeilen-Prozente,Spalten-Prozente,Gesamt-Prozente
      • erwartete Werte, beobachtete minus erwartete Werte
      • standardisierte Abweichungen
      • Beiträge zum Chi-Quadrat-Wert
      • verallgemeinerten Eigenwerte und Eigenvektoren
      • Singulärwerte,  verallgemeinerten Singulärvektoren
      • prozentuale Anteile an der Trägheit für jede Dimension
      • Trägheit, Qualität, Kosinus²-Wert für jeden Spalten- bzw. Zeilenpunkt
    • manuelle Wahl der Anzahl an Dimensionen
    • Wahl des "Cut-off-Wert" für den maximalen kumulierten Prozentanteil der Trägheit
    • Standardisierung nach
      • Zeilenprofile
      • Spaltenprofile
      • Zeilen- und Spaltenprofile
      • Kanonisch
    • spezielle Grafiken
      • 3D-Histogramme, Schichtweise Animation
      • Linienplots für die Eigenwerte
      • 1D-, 2D- und 3D-Plots für die Zeilen- oder Spaltenpunkte
  • Multidimensionale Skalierung
    • Bis zu neun Dimensionen
    • Start-Konfiguration aus Hauptkomponentenanalyse oder benutzerdefiniert
    • Minimierung des Stress-Wertes und des Unschärfemaßes (coefficient of alienation)
    • Ausgabe von Stress (raw F), Kruskals Stress-Koeffizient S und Unschärfemaß (coefficient of alienation)
    • Shepard-Diagramme (d-Dach und d-Stern) zur Bewertung der Güte der Anpassung
  • Diskriminanzanalyse
    • schrittweise vorwärts/rückwärts
    • Ausgabe von
      • Wilks’ Lambdas, partielle Lambdas
      • F-für-Aufnahme (oder für Ausschluss)
      • p-Niveau
      • Toleranzwerte
      • R-Quadrat
      • Eigenwerte, kumulierte Eigenwerte für alle Roots und deren p-Niveaus
      • Koeffizienten der standardisierten und nichtstandardisierten Diskriminanzfunktionen
      • Matrix der Strukturkoeffizienten (Faktorladungen)
      • Mittelwerte der Diskriminanzfunktionen
      • Werte der Diskriminanzfunktionen (Scores) für jeden Fall
    • vollständige kanonische Analyse
    • Histogramme der Scores (nach Gruppen oder gesamt)
    • Scatterplots für Paare kanonischer Variablen
    • Grafiken in Kategorien zur Analyse der Verteilungen/Beziehungen zwischen abhängigen Variablen über Gruppen
    • Berechnung der Klassifikationsfunktionen für jede Gruppe
    • Klassifikation der Fälle in Abhängigkeit von
      • Mahalanobis-Distanzen
      • Posteriori-Wahrscheinlichkeiten
      • tatsächlichen Klassifikationen
    • Spezifikation der a-priori-Wahrscheinlichkeiten für die Gruppenzugehörigkeit
    • Hinzufügen/Entfernen von Fällen zur Klassifikation
  • Allgemeine Diskriminazanalytische Modelle (ADM)
    • standardmäßige und schrittweise Diskriminanzanalyse
    • Spezialfall des allgemeinen linearen Modells
    • Spezifikation einer kategorialen abhängigen Variablen
    • Gruppenzugehörigkeit (in Hinblick auf die abhängige Variable) in Form von Indikatorvariablen kodiert
    • alle Verfahren der ARM anwendbar
    • breite Auswahl von Residualstatistiken von ARM und ALM
    • alle Standardergebnisse für Diskriminanzanalysen
      • Koeffizienten der Diskriminanzfunktion
      • Resultate der kanonischen Analyse (standardisierte und rohe Koeffizienten, Step-Down-Tests für kanonische Roots)
      • Klassifikationsstatistiken (einschließlich Mahalanobis-Distanzen, posteriorer Wahrscheinlichkeiten, aktueller Klassifikation von Fällen in der Analyse- und Validierungsstichprobe, Fehlklassifikationsmatrix)

Poweranalyse

Poweranalyse

  • Berechnung von Stichprobengrößen, Teststärke für
    • 1- Stichproben t-Test
    • t-Test für unabhängige Stichproben
    • t-Test für gepaarte Stichproben
    • Mittelwerte, geplante Kontraste
    • Mittelwerte, Einfaktorielle ANOVA
    • Mittelwerte, Zweifaktorielle ANOVA
    • Eine Varianz, Chi-Quadrat-Test
    • Zwei Varianzen, F-Test
    • Eine Korrelation, t-Test
    • Zwei Korrelationen, Z-Test
    • Quadratische Multiple Korrelation
    • Ein Anteil, Z, Chi-Quadrat-Test
    • Zwei-Anteile Z-Test
    • Zwei Anteile, gepaarte Stichproben
    • Survival – Log-Rang-Test
    • Survival – Exponentiell, begrenzt
    • Survival – Exponentiell begrenzt mit Ausfall
    • Strukturgleichungsmodelle
  • Intervallschätzung
    • 1- Stichproben t-Test
    • t-Test für unabhängige Stichproben
    • t-Test für gepaarte Stichproben
    • Mittelwerte, geplante Kontraste
    • Mittelwerte, Einfaktorielle ANOVA
    • Mittelwerte, Zweifaktorielle ANOVA
    • Eine Korrelation, t-Test
    • Quadratische Multiple Korrelation
    • Ein Anteil, Z, Chi-Quadrat-Test
    • Strukturgleichungsmodelle
  • Wahrscheinlichkeitsverteilung
    • Nichtzentrale t-Verteilung
    • Nichtzentrale F-Verteilung
    • Nichtzentrale Chi-Quadrat-Verteilung
    • Quadratische Multiple Korrelation
    • Pearson Korrelation
    • Binomialverteilung

Kontakt