Intelligenzquotient


IQ-Tests sind so kalibriert, dass die Ergebnisse für eine hinreichend große Bevölkerungsstichprobe annähernd normalverteilt sind.

Der Intelligenzquotient (IQ) ist eine Kenngröße zur Bewertung des intellektuellen Leistungsvermögens (der allgemeinen Intelligenz) oder in bestimmten Leistungsbereichen (z. B. Faktoren der Intelligenz). Er wird in der Regel mit Intelligenztests ermittelt, dessen Ergebnis mit dem von anderen Personen als Referenzgruppe verglichen wird (Normierung). Unterschiede ergeben sich nach der Zusammensetzung dieser Referenzgruppe (Gesamtpopulation oder Teilgruppen nach ähnlichem Alter, Bildungsgrad, beruflicher Tätigkeit o. ä.). Die Verteilung der Testergebnisse der Referenzgruppe wird geschätzt und bei Verwendung des IQ auf eine Normalverteilung mit Mittelwert 100 und Standardabweichung 15 umskaliert. Somit haben ungefähr 2/3 der Personen dieser Referenzgruppe einen IQ zwischen 85 und 115. Je mehr der IQ von 100 abweicht, desto seltener finden sich Personen, die einen ähnlichen IQ besitzen.

Bei der Interpretation des IQ muss die Art des Messverfahrens (z. B. Art des Intelligenztests) und das dahinter stehende Intelligenzkonzept sowie die für die Normierung verwendete Referenzgruppe beachtet werden, welche die Stabilität und die Generalisierbarkeit der Schätzung der Intelligenz einer Person beeinflussen.

Da sich die gemessenen Werte im Durchschnitt über die Jahre erhöht haben („Flynn-Effekt“), mussten Intelligenztests immer wieder neu normiert werden.

Berechnungen

Historisch

Alfred Binet, der 1905 mit dem Binet-Simon-Test den ersten brauchbaren Intelligenztest entwickelt hatte, gab die mentale Leistungsfähigkeit als Intelligenzalter an. Der Test bestand aus Aufgaben mit ansteigender Schwierigkeit, die möglichst trennscharf für die jeweiligen Altersgruppen lösbar sein sollten. Beispiel: Ein durchschnittlich entwickelter Achtjähriger sollte alle Aufgaben seiner Altersgruppe (und darunter) lösen können, nicht jedoch die Aufgaben der Neunjährigen. Schaffte ein Kind nicht alle Aufgaben seiner Altersgruppe, hatte es ein niedrigeres, schaffte es auch Aufgaben der höheren Altersgruppe, hatte es ein höheres „Intelligenzalter“.

William Stern setzte dieses Intelligenzalter ins Verhältnis zum Lebensalter und erfand so 1912 den Intelligenzquotienten.[1] Lewis M. Terman von der Stanford University entwickelte den von Goddard ins Englische übersetzten Simon-und-Binet-Quotienten weiter. Um die lästigen Kommastellen zu entfernen, multiplizierte er den Intelligenzalter-Lebensalter-Quotienten mit 100.

$ {IQ}={\frac {\text{Intelligenzalter}}{\text{Lebensalter}}}\times 100 $

Modern

Da das Intelligenzalter langsamer zunimmt als das Lebensalter, sinkt der IQ nach Sterns Formel beständig. Terman erkannte dieses Problem bei seiner Weiterentwicklung ebenfalls. Um diesem Problem zu begegnen, normierte er den Test für verschiedene Altersgruppen. Die Verteilung glich er für jedes Alter einer Normalverteilung an. Beim 1937 entwickelten Stanford-Binet-Test variiert die Standardabweichung je nach Alter zwischen 15 und 16 IQ-Punkten (vgl. Valencia und Suzuki, 2000, S. 5 ff.).[2]

Die ursprünglich nur für Kinder, speziell für Schulreifetests, entwickelte IQ-Berechnung wurde später von David Wechsler durch Anwendung der populationsbezogenen Skalierung mit dem Mittelwert 100 auf Erwachsene ausgedehnt. Für die heutige Abweichungs-IQ-Skala gilt ein Mittel von 100 und eine Standardabweichung (SD) von 15. Sie findet z. B. Anwendung in der Hamburg-Wechsler-Intelligenztestreihe (vgl. Zimbardo, 1995, S. 529 ff.[3]).

Umrechnungen

Man kann auch andere Normenskalen festlegen, wie etwa den Prozentrang (Perzentile). Über den Bezug zur Normalverteilung lassen sich Werte aus anderen Skalierungen in eine IQ-Skala mit dem Mittelwert 100 ohne Informationsverlust umrechnen:

$ {IQ}=100+15\times {\frac {(x-\mu )}{\sigma }} $

Dabei bedeuten

  • $ x $ ermittelter Skalenwert im verwendeten Test
  • $ \mu $ Mittelwert der verwendeten Skala
  • $ \sigma $ Standardabweichung der verwendeten Skala

Beispiel

Der IST-2000 verwendet die sogenannte Standardwert-Skala (SW), die einen Mittelwert von 100 und eine Standardabweichung von 10 aufweist. Hat eine Person einen Standardwert von 110 erzielt, lässt sich dieser wie folgt in einen IQ-Normwert umrechnen:
Eingesetzt:
$ {IQ}=100+15\times {\frac {(110-100)}{10}}=115 $

Da 110 der Standardwertskala genau eine Standardabweichung über dem Mittelwert liegt, muss gleiches auch für den AW-IQ-Wert gelten. Und, wie berechnet, trifft dies mit einem Wert von 115 auch zu. Einem AW-IQ-Wert von 85, der genau eine Standardabweichung unter dem Mittelwert liegt, entspricht ein IST-Wert von 90 (vgl. dazu auch Lineare Transformation).

Literatur

  • Jürgen Guthke: Ist Intelligenz messbar? Einführung in Probleme der psychologischen Intelligenzforschung und Intelligenzdiagnostik. 2. Auflage. Deutscher Verlag der Wissenschaften, Berlin 1980.
  • Walter Gutjahr: Die Messung psychischer Eigenschaften. Kiepenheuer und Witsch, Köln 1977, ISBN 3-462-01116-2.
  • Siegfried Lehrl: Arbeitsspeicher statt IQ. Vless, Ebersberg 1997, ISBN 3-88562-079-0.
  • Nicholas John MacKintosh: IQ and Human Intelligence. Oxford University Press, Oxford 1998, ISBN 0-19-852368-8.

Weblinks

Wiktionary: Intelligenzquotient – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise

  1. http://www.dradio.de/dlf/sendungen/kalenderblatt/1731415/
  2. R. R. Valencia, L. A. Suzuki: Intelligence Testing and Minority Students: Foundations, Performance Factors, and Assessment Issues. Sage, New York 2000
  3. P. G. Zimbardo: Psychologie. Springer, Heidelberg 1995