Diese Website verwendet Cookies, damit wir dir die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in deinem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von dir, wenn du auf unsere Website zurückkehrst, und hilft unserem Team zu verstehen, welche Abschnitte der Website für dich am interessantesten und nützlichsten sind.
Cohens Kappa
- 30. Oktober 2017
- Posted by: Mika
Cohens Kappa ist ein statistisches Maß für den Grad der Übereinstimmung zweier Beurteiler oder der Beurteilungen eines Raters zu verschiedenen Zeitpunkten, das auf „Ja-Nein-Urteilen“ beruht.
Angenommen, 20 Studenten bewerben sich für ein Stipendium. Die Entscheidung über Vergabe oder Nicht-Vergabe des Stipendiums erfolgt aufgrund der Beurteilungen zweier Professoren X und Y, die beide mit jedem Studenten ein Interview führen und sich anschließend für oder gegen den Studenten aussprechen.
Die Tabelle zeigt die Häufigkeiten der Beurteilungen: In a = 8 Fällen waren sich beide Interviewer einig, dass der Student ein Stipendium erhalten solle; in c=3 Fällen sprach sich Professor X gegen und Professor Y für die Vergabe des Stipendiums aus, usw.
Professor Y | |||
Vergabe | Nicht-Vergabe | ||
Professor X | Vergabe | a = 8 | b = 4 |
Nicht-Vergabe | c = 3 | d = 5 |
Daraus kannst Du die Häufigkeit der Übereinstimmung als Anzahl der übereinstimmenden Urteile (a+d) dividiert durch die Gesamtzahl der Urteile (n=a+b+c+d) errechnen:
Vergleich mit theoretischen Häufigkeiten
Den hoffentlich begründeten Urteilen der beiden Professoren kannst Du theoretische Häufigkeiten gegenüberstellen, die sich ergäben, wenn beide sich zufällig entscheiden würden: Aus den Häufigkeiten, mit denen X und Y für bzw. gegen die Vergabe eines Stipendiums gestimmt haben, erhältst Du die entsprechenden Einzelwahrscheinlichkeiten zu
Professor X | „ja“ |
|
„nein“ |
|
Professor Y | „ja“ |
|
„nein“ |
|
Dann erhältst Du die Wahrscheinlichkeit, dass sich beide Professoren zufällig für die Vergabe eines Stipendiums aussprechen, zu
und die Wahrscheinlichkeit, mit der sich beide zufällig gegen einen Kandidaten entscheiden, zu
Zu zufälliger Übereinstimmung käme es demnach mit einer erwarteten Wahrscheinlichkeit von
Berechnung von Cohens Kappa
Cohens Kappa vergleicht nun die beobachtete Häufigkeit der Übereinstimmung mit der erwarteten Häufigkeit der zufälligen Übereinstimmung und normiert deren Differenz mit der erwarteten Häufigkeit zufälliger Nicht-Übereinstimmung:
Im Fall von völliger Übereinstimmung nimmt den Wert Eins an und Du erhältst ein von Eins; im Fall absoluter Unterschiedlichkeit gilt und .
kann also als Grad der Übereinstimmung der Urteile beider Rater interpretiert werden.