Deskriptive Statistik

Autor:

Quelle: Wikipedia. Seiten: 122. Kapitel: Standardabweichung, Mittelwert, Median, Korrelation, Absolute Häufigkeit, Modus, Ausreißer, Korrelationskoeffizient, Gini-Koeffizient, Lorenz-Kurve, Rangkorrelationskoeffizient, Histogramm, Cohens Kappa, Fehlerreduktionsmaße,... Viac o knihe

Produkt je dočasne nedostupný

25.52 €

bežná cena: 29.00 €

O knihe

Quelle: Wikipedia. Seiten: 122. Kapitel: Standardabweichung, Mittelwert, Median, Korrelation, Absolute Häufigkeit, Modus, Ausreißer, Korrelationskoeffizient, Gini-Koeffizient, Lorenz-Kurve, Rangkorrelationskoeffizient, Histogramm, Cohens Kappa, Fehlerreduktionsmaße, Effektstärke, Ungleichverteilungsmaß, Visualisierung, Diagramm, Kontingenztafel, Atkinson-Maß, Arithmetisches Mittel, Boxplot, Projection Pursuit, Kontingenzkoeffizient, Korrigierte Stichprobenvarianz, Entropieschätzung, Cronbachs Alpha, Mosaikplot, Klasseneinteilung, Simpson-Paradoxon, Relative Häufigkeit, Quantil, M-Schätzer, Gewichtung, Quantile-Quantile-Plot, Inhaltsvalidität, Dalton-Index, Quotenverhältnis, Kreisdiagramm, Streuung, Verschiebungssatz, Gleitender Mittelwert, Intra-Klassen-Korrelation, Streudiagramm, Receiver Operating Characteristic, Konstruktvalidität, Interrater-Reliabilität, Abhängige und unabhängige Variable, Suits-Index, Schiefe, Scheinkorrelation, Wölbung, Paarvergleich, Häufigkeitsverteilung, Rangordnung, Harmonisches Mittel, Champernowne-Index, Explorative Datenanalyse, Variationskoeffizient, Recurrence plot, Quadratisches Mittel, Säulendiagramm, Studentisierung, Attenuationskorrektur, Durchschnittlich erfasste Varianz, Empirische Verteilungsfunktion, Verallgemeinerte Entropie, MoM-Wert, Relatives Risiko, Kumulierte Häufigkeit, Kendalls Konkordanzkoeffizient, Zusammenhangsmaß, Stamm-Blatt-Diagramm, Parameter, Diskriminanzvalidität, Grand Tour, Spearmantest, Statistische Variable, Sen-Index, Kolm-Index, Konvergenzvalidität, Kuder-Richardson-Formel, Seltenheit, Rasterdiagramm, Netzdiagramm, Nomologische Validität, Lorenz-Asymmetrie-Koeffizient, Regressor, Ordnungsstatistik, Kakwani-Index, Rosenbluth-Index, Artengleichheit, Kettenindex, Bimodale Verteilung, Korrelogramm, Häufigkeitszahl, Bruchpunkt, Ogive, Semivarianz, Trennschärfe, Summenhäufigkeitspolygon, Gleitende Spannweite, Forest plot, Absolutskala, Tree Map, Deckungsgrad, Merkmalssumme, Huber-k-Schätzer, Fehlerbalken, Urliste, Balkendiagramm, Geometrische Standardabweichung, Zeitmengenbestand. Auszug: Eine Korrelation beschreibt eine Beziehung zwischen zwei oder mehreren statistischen Variablen. Wenn sie besteht, ist noch nicht gesagt, ob eine Größe die andere kausal beeinflusst, ob beide von einer dritten Größe kausal abhängen oder ob überhaupt ein Kausalzusammenhang besteht. Das mathematische Maß für die Stärke der Korrelation ist der Korrelationskoeffizient. Es gibt positive und negative Korrelationen. Ein Beispiel für eine positive Korrelation (je mehr, desto mehr) ist: "Je mehr Futter, desto dickere Kühe." Ein Beispiel für eine negative Korrelation (je mehr, desto weniger) ist: "Je mehr zurückgelegte Strecke mit dem Auto, desto weniger Treibstoff ist im Tank übrig." Häufig benutzt man zu Recht die Korrelation, um einen Hinweis darauf zu bekommen, ob zwei statistische Größen ursächlich miteinander zusammenhängen. Das funktioniert immer dann besonders gut, wenn beide Größen durch eine "Je ... desto"-Beziehung miteinander zusammenhängen und eine der Größen nur von der anderen Größe abhängt. Beispielsweise kann man unter bestimmten Bedingungen nachweisen, dass Getreide umso besser gedeiht, je mehr man es bewässert. Diese Erkenntnis beruht auf dem Wissen über das Getreide - zum Beispiel durch Erfahrung oder wissenschaftliche Überlegungen. Die Korrelation unterscheidet nicht, ob das Wasser auf das Wachstum des Getreides wirkt, oder etwa das Getreide auf die Menge des Wassers. Eine Ursache-Wirk...

  • Vydavateľstvo: Books LLC
  • Formát: Paperback
  • Jazyk:
  • ISBN: 9781158935574

Generuje redakčný systém BUXUS CMS spoločnosti ui42.