Diese Website verwendet Cookies, damit wir dir die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in deinem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von dir, wenn du auf unsere Website zurückkehrst, und hilft unserem Team zu verstehen, welche Abschnitte der Website für dich am interessantesten und nützlichsten sind.
Prüfung von Zusammenhängen
- 18. November 2016
- Posted by: Mika
Wenn Deine Stichprobe aus mehreren Variablen besteht, spielt das Thema Prüfung von Zusammenhängen eine große Rolle. Denn es ist oft interessant, ob zwischen zwei oder mehreren Variablen ein Zusammenhang besteht. Außerdem möchte man wissen, wie stark er ist und ob der in der Stichprobe beobachtete Zusammenhang auf Signifikanz in der Grundgesamtheit schließen lässt.
Dazu steht Dir ein vielseitiges Instrumentarium zur Verfügung. Es gibt verschiedene Maße und Methoden, die von verschiedenen Skalenniveaus ausgehen. Außerdem gibt es Unterschiede in den Annahmen über das Verhalten der Zufallsvariablen in der Grundgesamtheit. Zudem musst Du Verteilungsannahmen und Annahmen bezüglich der Art des Zusammenhangs treffen. Einige sind auf den Zusammenhang von zwei Variablen konzipiert, andere können mehrere Variablen zu berücksichtigen.
Welche Methoden gibt es?
Du solltest für Deine Prüfung von Zusammenhängen das Maß oder die Methode verwenden, das die engsten Voraussetzungen benötigt, die auf Dein Datenmaterial zutreffen. Wie immer in der induktiven Statistik werden Deine Aussagen umso präziser, je mehr Voraussetzungen erfüllt sind.
- Korrelationsanalyse: Sie gibt Dir ein Maß für den linearen Zusammenhang zweier metrisch skalierter Variabler. Für den Test auf Signifikanz in der Grundgesamtheit ist die Normalverteilung Voraussetzung.
- Multiple Korrelationsanalyse: Sie bestimmt ein Maß für den linearen Zusammenhang von mehr als zwei metrisch skalierten Variablen. Auch hier ist die Normalverteilung Voraussetzung.
- Rangkorrelation: Hier ermittelst Du ein Maß für den Zusammenhang von zwei mindestens ordinalskalierten Variablen, wobei keine Voraussetzungen über die Art des Zusammenhangs oder über die Verteilung getroffen werden. Falls insbesondere bei kleinen Stichproben die Voraussetzungen der Korrelationsanalyse nicht gegeben sind, stellt die Rangkorrelation eine Alternative da.
- Partielle Korrelation: Dieser Koeffizient rechnet aus dem Zusammenhang zwischen zwei metrisch skalierten und linear zusammenhängenden Variablen den Einfluss heraus, den eine weitere, beide beeinflussende metrische Variable verursacht und Du kannst mit ihm oft Scheinkorrelationen bereinigen. Die Voraussetzungen entsprechen denen der Korrelation.
- Kreuztabelle / Kontingenztafel: Du stellst die Ausprägungen zweier beliebig skalierter Variablen und deren gemeinsamen Häufigkeiten zweidimensional gegenüber; der Vergleich der beobachteten mit den theoretischen Häufigkeiten die man erwarten kann, wenn die beiden Variablen unabhängig voneinander sind, ermöglicht den Test auf Signifikanz.
- Kendalls Konkordanzanalyse: Sie geht von mindestens zwei Rangordnungen (z. B. Jury-Wertungen) bezüglich der gleichen Objekte aus und prüft, ob zwischen den Bewertungen ein Zusammenhang vorliegt.
- Kovarianzanalyse: Mit ihr kannst Du untersuchen, ob eine metrisch skalierte Zufallsvariable durch nicht-metrische Variablen sowie metrische Kovariablen beeinflusst wird. Ihr Ergebnis liefert Dir Aussagen darüber, welche der betrachteten Einflussgrößen signifikanten Einfluss ausüben. Die Kovarianzanalyse setzt für alle betrachteten metrischen Variablen Normalverteilung und Varianzhomogenität voraus und betrachtet für sie ausschließlich lineare Zusammenhänge.
Hypothesentests / Signifikanztests
- Testtheorie
- Alphafehler-Kumulierung (Multiple Testing, Bonferroni-Korrektur)
- Nullhypothese, Alternativhypothese (Gegenhypothese), Gerichtete Hypothese, Ungerichtete Hypothese
- Alphafehler (Fehler 1. Art), Signifikanzniveau
- Teststatistik
- p-Wert, kritischer Wert
- Poweranalyse: Betafehler (Fehler 2. Art), Effekt, Teststärke, Optimaler Stichprobenumfang
- Prüfung auf Unabhängigkeit
- Anpassungstests / Prüfung auf Verteilung
- Prüfung auf Mitte
- Prüfung auf Streuung
- Prüfung von Zusammenhängen
- Verteilungsunabhängige Tests / nichtparametrische Tests