Site menu:

Lesespiele mit Elfe und Mathis
ELFE 1-6

Leseverständnis - Was ist das?


Gliederung

  1. Einleitung

  2. Ebenen des Leseverständnisses
    1. Modelle der visuellen Worterkennung
    2. Leseverständnis auf Wortniveau
    3. Leseverständnis auf Satzniveau
    4. Textverständnis

  3. Entwicklungspsychologische Modelle des Schriftspracherwerbs
    1. Das Modell des Schriftspracherwerbs nach Frith und Günther
    2. Der Simple-View-of-Reading-Ansatz
    3. Niveaustufenmodelle

  4. Literaturangaben

  5. Tabellarischer Überblick über Lesetests



Weiterführende Informationen

Lenhard, W. (2013). Leseverständnis und Lesekompetenz: Grundlagen - Diagnostik - Förderung. Stuttgart: Kohlhammer.

Die hier dargestellte theoretische Einführung stammt aus einer Veröffentlichung von 2002. Sie bildete die Grundlage für die Konstruktion des Leseverständnistests ELFE 1-6. Sollten Sie an neueren Publikationen und weiterführenden Informationen interessiert, so empfehlen wir das Buch

Lenhard, W. (2013). Leseverständnis und Lesekompetenz: Grundlagen - Diagnostik - Förderung. Stuttgart: Kohlhammer.

"Die Schriftsprache ist eine der faszinierendsten Errungenschaften der Menschheit. Der Prozess des Verstehens beim Lesen ist sehr komplex und wird von vielen Einflussfaktoren bestimmt. Im Buch werden diese Faktoren, ihre Entwicklung und ihr Zusammenspiel systematisch erarbeitet. Hierdurch eröffnet sich eine Perspektive auf die Frage, an welchen Punkten Diagnostik und Förderung ansetzen können. Dieses Buch bietet dem Leser einen Einblick in Theorien und Modelle und zeigt aktuelle Forschungsergebnisse und die Entwicklung im deutschsprachigen Raum seit der ersten PISA-Untersuchung auf. Darüber hinaus beleuchtet es die Frage, wo die besonderen Bedürfnisse schwacher Leser liegen, schildert Diagnosemöglichkeiten und geht auf systematische und evidenzbasierte Fördermöglichkeiten ein."



1. Einleitung




"Ein ritter sô gelêret was
daz er an den buochen las
swaz er dar an geschriben vant;
der was Hartman genant,
dienstman was er ze Ouwe."

(Hartmann von Aue, 1195,
zitiert nach Mettke, 1974, S. 9)
Übersetzung:

"Ein Ritter war so gelehrt, dass er alles las, was er in Büchern geschrieben fand. Dieser Ritter wurde Hartmann genannt, und war Dienstmann in Aue." (freie Übersetzung des Autors)

Mit seinem Werk "Der arme Heinrich" schuf der Dichter Hartmann von Aue 1195 "die klassische Novelle des Hochfeudalismus", so Mettke (1974, S. 1). Interessanterweise lobt von Aue zu Beginn seines Werkes seine außergewöhnliche Gelehrsamkeit. Er stellt heraus, dass er selbst sogar im Buche lese, obwohl er ein Ritter sei.

Ein solches Selbstlob wäre heutzutage völlig unbegründet, denn Lesen und Schreiben gehören in den industrialisierten Ländern zu den selbstverständlichen kulturellen Fähigkeiten. Kaum ein Erwachsener verfügt hierzulande nicht zumindest über rudimentäre Formen dieser Techniken (Klicpera & Gasteiger-Klicpera, 1995, S. 4). Um Hartmann von Aues Zitat besser zu verstehen, muss man sich die Tatsache bewusst machen, dass die Beherrschung der Kulturtechniken des Lesens und Schreibens in der Epoche des Mittelalters außergewöhnlich war. Schrift galt zu dieser Zeit als Inbegriff der Wahrheit. Das oben genannte Zitat hat in diesem Sinne etwa die Bedeutung: "Das was ich nun berichten werde ist wirklich wahr. Ich habe es selbst gelesen!".

Sogar Dichter und Minnesänger waren oft der Schriftsprache nicht mächtig. So existieren z.B. von Walther von der Vogelweide keine eigenen Aufzeichnungen, ja nicht einmal schriftliche Belege für dessen Existenz (Lindner, 1968, S. 47). Hugo von Trimmberg schrieb um 1300 über ihn: "Her Walther von der Vogelweide, swer dez vergaeze, der taet mir leide" (Hugo von Trimmberg, zitiert nach Lindner, 1968, S. 47). Alle seine Werke wurden mündlich überliefert und erst später von anderen niedergeschrieben.

"Lesen und Schreiben waren lange Zeit einem kleinen Teil der Bevölkerung vorbehalten gewesen, erst die Erfindung des Buchdrucks schuf die materielle Basis für eine breitere Zugänglichkeit der Schrift" (Klicpera & Gasteiger-Klicpera, 1995, S. 4). In unserem Sprachraum ist die Verbreitung der Schriftsprache eng verbunden mit der Reformation und deren Verweis auf die Bibel als Quelle der Wahrheit, so Klicpera und  Gasteiger-Klicpera.

Ein weiterer Beleg für die eher junge Natur des herausragenden Stellenwerts des Lesens und Schreibens in unserer Gesellschaft ist die Tatsache, dass vom ersten Zeugnis deutscher Sprache im 8. Jahrhundert bis zur Schaffung eines verbindlichen Regelwerkes der deutschen Orthographie 1901 elf Jahrhunderte vergingen (Niederhauser, 1995). So scheint z.B. auch Goethe von einer einheitlichen Schreibweise nicht viel gehalten zu haben: "Ein Wort schreibe ich mit dreierlei Orthographie, und was die Unarten alle sein mögen, deren ich mir sehr wohl bewusst bin und gegen die ich auch nur im äußersten Notfall zu kämpfen mich überwinde" (Goethe, zitiert nach Niederhauser, 1995).

Praktisch jeder Mensch wird heute in unserem Kulturkreis mit schriftlichem Material konfrontiert. Durchschnittlich verbringt in unserem Kulturkreis jeder Erwachsene täglich 2½ Stunden mit Lesen, vor allem im Rahmen des Berufs. Ca. 90% aller Arbeitsplätze setzen den Umgang mit schriftlichem Material voraus, so Klicpera und Gasteiger-Klicpera (1995, S. 5). In erster Linie handelt es sich hierbei in Bezug auf das Lesen nicht um einen mechanischen Umgang mit Buchstabenfolgen, sondern um sinnentnehmendes, verstehendes Lesen.

Während der Lesesozialisation, die bereits lange vor dem schulischen Unterricht einsetzt, durchlaufen Kinder vom Beginn des Schriftspracherwerbs bis zur zielorientierten Nutzung von Texten einen Entwicklungsprozess, der das komplexe Zusammenspiel verschiedenster Teilfähigkeiten erfordert (Artelt, Stanat, Schneider & Schiefele, 2001). Das Kind muss hierzu nicht nur neue, komplexe Fähigkeiten erwerben, sondern diese auch mit bereits erworbenen sprachlichen Fertigkeiten vernetzten. Im folgenden Abschnitt werden zunächst die Teilprozesse beleuchtet, deren Zusammenspiel bedeutungsentnehmendes Lesen ermöglicht. Das daran anschließende Kapitel thematisiert entwicklungspsychologische Modellvorstellungen über den Erwerb von Leseverständnisfähigkeiten.




>>> Zurück zur Übersicht



2. Ebenen des Leseverständnisses

Intuitiven Alltagsvorstellungen entsprechend ist das Lesen eine eher passive Rezeption von im Text enthaltenen Informationen und Bedeutungsinhalten (Christmann & Groeben, 1999). Gemäß dieser Ansicht, die auch frühen Kommunikationsmodellen aus der Hochzeit des Behaviorismus zugrunde liegt, werden Informationen vom Schreiber zunächst enkodiert und anschließend vom Leser wieder dekodiert. Dekodierung und Enkodierung sind dieser Vorstellung entsprechend weitgehend spiegelbildliche Prozesse (siehe Abb. 1).



Abbildung 1
Das allgemeine Schema der Informationsübertragung von Shannon und Weaver (1949, aus: Hoffmann, 1993, S. 16)


Dem gegenüber betont die kognitive Psychologie und die experimentellen Leseforschung, dass Lesen (bzw. Sprachrezeption im Allgemeinen) ein hochgradig aktiver Prozess der Auseinandersetzung mit den jeweiligen Inhalten ist (Klicpera & Gasteiger-Klicpera, 1995, S. 133; Artelt, Stanat, Schneider & Schiefele, 2001). Die kognitive Konstruktivität des Sprachverständnisses und die Interaktion zwischen (Text-)Informationen und Weltwissen des Rezipienten wird besonders an missverständlichen Botschaften deutlich, wie z.B. den folgenden:

  1. "CDU-Frauen fordern mehr Gewicht"
  2. "Dachdecker und Helfer ab sofort gesucht. Aufstiegsmöglichkeiten vorhanden."
  3. "Mein Hosenladen ist immer offen. Natürlich nur in der Zeit von 8 bis 18 Uhr."

  4. (Pinker, 1996, 92)

Der Prozess der Rekonstruktion von Bedeutungsinhalten besteht gerade nicht nur darin, sprachlich vermittelte Informationen einzelner Wörter mit den umgebenden Informationen - den anderen Wörtern, Satzteilen, und Sätzen - in Verbindung zu setzten, sondern sie auf der Basis des individuellen Vorwissens zu interpretieren (Christmann & Groeben, 1999). Im Folgenden werden die für das Verstehen eines Textes erforderlichen Verarbeitungsschritte beleuchtet, wobei zwischen verschiedenen Komplexitätsniveaus unterschieden wird: dem Wortverständnis, Satzverständnis und Textverständnis.

Beim Lesen stehen zunächst Faktoren im Mittelpunkt, die das Leseverstehen auf Wortebene beeinflussen. Zu diesen gehören der Wortschatz des Kindes, die Fähigkeit zur Dekodierung einzelner Wörter, die Erfassung der Wortbedeutung sowie das Wissen, wie diese Bedeutung durch den jeweiligen Kontext modifiziert wird (Klicpera & Gasteiger-Klicpera, 1995, S. 133). Gelingt dem Kind die Interpretation der Wortbedeutungen auf der Basis des Kontextes, so hat es bereits die Vernetzung zur Satzebene hergestellt. Nun muss auch die grammatikalische Struktur berücksichtigt werden. Um schließlich einen ganzen Text zu verstehen ist es vonnöten, die Informationen verschiedener Sätze mit einander in Beziehung zu setzen. Auf dieser Ebene gewinnen schließlich metakognitive Fähigkeiten wie das schemageleitete Textverstehen zunehmend an Wichtigkeit.



>>> Zurück zur Übersicht



2.1 Modelle der visuellen Worterkennung

Das Erkennen der Bedeutung einzelner Wörter spielt für das Hauptziel des Lesens - dem inhaltlichen Verständnis des schriftlichen Materials - eine zentrale Rolle. Dies wird auch darin deutlich, dass während des Lesevorgangs ein Wort fixiert und anschließend mittels einer Sakkade zum nächsten Wort gesprungen wird. Der Lesevorgang ist also zumindest beim geübten Leser im wesentlichen ein Lesen Wort für Wort (Klicpera & Gasteiger-Klicpera, 1995, S. 13).

Ein faszinierender Effekt, der bereits gegen Ende des 19. Jahrhunderts nachgewiesen wurde, unterstreicht die Bedeutung des Wortes als schriftsprachliche Einheit: Cattel beobachtete, dass Buchstaben innerhalb von Wörtern schneller wahrnehmbar sind als Buchstaben innerhalb von unsinnigen Buchstabenfolgen oder auch Einzelbuchstaben - ein Phänomen, das von ihm als Wortüberlegenheitseffekt bezeichnet wurde (Klicpera & Gasteiger-Klicpera, 1995, S. 14 f.). Gegen Ende der 60er Jahre griff Reicher diesen Effekt wieder auf und untersuchte ihn mittels verbesserter Forschungsinstrumente erneut. Die Erklärung dieses sowie weiterer untergeordneter Effekte ist seitdem eines der Prüfkriterien, die an Modelle der visuellen Worterkennung angelegt werden (Jacobs & Grainger, 1994). Ein weiterer interessanter Effekt auf diesem Gebiet ist der Stroop-Effekt.

Es existieren zahlreiche solcher Modelle, die sich in Format und Komplexität wesentlich unterscheiden. Jacobs und Grainger (1994) berichten von insgesamt 15, die im Zeitraum zwischen 1969 und 1994 entstanden sind. Angesichts dieser Vielfalt möchte ich mich auf einige wesentliche Aspekte beschränken und deshalb stellvertretend drei verschiedene Modelle herausgreifen, die besonderen Einfluss auf die Forschung ausgeübt haben und verschiedene Forschungsansätze repräsentieren. Es handelt sich hierbei um das Logogen-Modell nach Morton (1969), das Aktivationsmodell nach McClelland und Rumelhart (1981) und die Dual-Route-Theory nach Coltheart (1978).


2.1.1 Das Logogen-Modell

Erste Prozessmodelle des Lesens und Schreibens wurden von Morton entwickelt, der bereits 1969 eine erste Arbeit über den Worterkennungsvorgang beim Lesen vorgelegt hat (Klicpera & Gasteiger-Klicpera, 1995, S. 97). Er entwickelte diesen Entwurf weiter und veröffentlichte 1979 sein "Logogen-Modell" (Graf, 1994, S. 46), welches auch Vorstellungen über die beim Schreiben ablaufenden Prozesse umfasst (siehe Abb. 2).


Abbildung 2
Das Logogenmodell von Morton in seiner überarbeiteten Version nach Ellis (1982, zitiert nach Klicpera & Gasteiger-Klicpera, 1995, S. 98). Die Abkürzungen neben den Verbindungspfeilen geben an, von welcher Art die  weitergegebenen Informationen sind (visuell, akustisch, grammatikalisch, semantisch, phonemisch, lexikalisch, als motorisches Muster von Graphemen und kinästhetisch).



Viele der Entwürfe, die seitdem entstanden sind, basieren auf Mortons Modell oder wurden zumindest wesentlich davon beeinflusst (Graf, 1994, S. 46). Da diese Modelle in der Tradition der Informationsverarbeitungstheorie stehen, folgt ihre Grobstruktur typischerweise dem Schema "Input -> Verarbeitung -> Output". Als Input können verschiedene Eingangsinformationen wie z.B. gesprochene Sprache oder Schrift dienen, die auf diverse lexikalische und nicht-lexikalische Arten weiterverarbeitet werden. Der Output besteht aus Sprache (beim Lesen) oder Schrift (beim Schreiben) (Klicpera & Gasteiger-Klicpera, 1995, S. 97 ff.). Logogene sind dabei Spracheinheiten, die den mentalen Repräsentationen von Wortbedeutungen entsprechen. Erreicht eine bestimmte Information - z.B. ein bestimmtes Wort - das kognitive System, so wird das zugehörige Logogen aktiviert. Überschreitet die Aktivierung eine bestimmte Schwelle so kommt es zur Erkennung des Wortes.

Ähnlich wie in der Dual-Route-Theory nach Coltheart (1978) sieht das Modell neben lexikalischen Verarbeitungsmöglichkeiten von Wörtern auch die Umwandlung von Sprache in Schrift über die Phonem-Graphem-Korrespondenzregeln (GPK-Regeln) vor. Allerdings spielt diese Strategie hier nur eine untergeordnete Rolle, so Klicpera und Gasteiger-Klicpera (1995, S. 99 f.).


2.1.2 Das Aktivationsmodell (Interactive-Activation-Model)

Ein Modell, das in der Lage ist, den Wortüberlegenheitseffekt zu erklären, und das verschiedene Schwächen früherer Modelle überwindet, wurde von McClelland und Rumelhart (1981) vorgeschlagen. Sie gehen davon aus, dass sowohl grundlegende grafische Elemente (Punkte und Striche, aus denen sich Buchstaben zusammensetzten), als auch Buchstaben und Wörter im Gedächtnis repräsentiert und in Form eines Netzwerkes organisiert sind. Der Worterkennungsprozess beginnt mit der Aufnahme der grafischen Elemente. Diese Merkmale führen zu charakteristischen Aktivierungsmustern im neuronalen Netz: Jene Buchstaben, die den Merkmalen entsprechen werden mittels exzitatorischer Verknüpfungen aktiviert, die anderen über inhibitorische Verbindungen gehemmt. Analog führen die Aktivierungsmuster auf Buchstabenebene wiederum bei Überschreitung eines bestimmten Schwellenwertes zur Aktivierung des zugehörigen Wortes (siehe Abb. 3).


Abbildung 3
Ablauf der Worterkennung im Aktivationsmodell (McClelland & Rumelhart, 1981)



Der Wortüberlegenheitseffekt lässt sich nach Christmann und Groeben (1999) auf der Basis des Aktivationsmodells folgendermaßen erklären: Die Darbietung eines in ein Wort eingebetteten Buchstabens führt zur Aktivierung auf allen drei Ebenen, die Darbietung von Non-Wörtern oder einzelnen Buchstaben hingegen nur auf der Eigenschafts- und Buchstabenebene. Die stärkere Aktivierung wiederum bedingt eine erleichterte Erkennung.

1989 wurde von Seidenberg und McClelland eine erweiterte Version des Modells vorgelegt, das "parallel-distributed-processing (PDP) connectionist model". Es ist vollständig als Netzwerkmodell realisiert und liegt in Form einer Computersimulation vor (siehe Abb. 4). Das in diesem Modell beschriebene Netzwerk besteht aus 400 orthographischen Eingangsknoten, 200 sog. "versteckten Einheiten" ("hidden units") und 460 Ausgangsknoten, die die phonetische Realisation des geschriebenen Wortes beschreiben. Anders als im Modell von McClelland und Rumelhart (1981) repräsentiert ein Eingangsknoten nicht mehr einen einzelnen Buchstaben, sondern ein Buchstaben-Tripel (Coltheart, Curtis, Atkins & Haller, 1993). Wird ein Wort über das visuelle System aufgenommen, so aktiviert es alle zugehörigen Tripel des Netzwerks, also im Falle des Wortes Vater die Tripel "--V", "-Va", "Vat", "ate", "ter", "er-" und "r--". Da die Eingangsknoten mit den Knoten in der Schicht der versteckten Einheiten verbunden sind, breiten sich die Aktivierungsmuster zunächst zur Schicht der versteckten Einheiten und von dort auf die Schicht der phonologischen Ausgangsknoten aus. Die individuelle Gewichtung der einzelnen Verbindungen repräsentiert hierbei die Lernerfahrung des Systems. Da die Ausgangsschicht rückkoppelt, durchläuft das gesamte System eine größere Anzahl an Zyklen, bis schließlich ein stabiler Zustand erreicht ist. Die phonologische Realisation des geschriebenen Wortes wird in der Ausgangsschicht des Netzes repräsentiert. Seidenberg und McClelland (1989) ließen das System die phonetische Realisation von 2 897 einsilbigen Wörtern der englischen Sprache lernen, woraufhin es auch für 90% der Non-Wörter die korrekte Aussprache ermitteln konnte. Das PDP-Modell sieht zusätzlich die Aktivierung von Wortbedeutungen sowohl mittels der phonologischen als auch der grafischen Realisation eines Wortes vor (siehe Abb. 5). Seidenberg und McClelland (1989) gehen davon aus, dass Wortbedeutungen ähnlich wie phonetische Realisationen von Wörtern in einem Netzwerk organisiert sind und über zwischengeschaltete Schichten von versteckten Einheiten aktiviert werden können. Allerdings konnten diese Teile des Modells bislang nicht empirisch bestätigt werden.

Abbildung 4
Skizze des am Computer modellierten neuronalen Netzes von Seidenberg & McClelland (1989), aus: Coltheart, Curtis, Atkins & Haller (1993).
Abbildung 5
Gesamtkonzept des "parallel-distributed-processing-model" (nach Seidenberg & McClelland, 1989). Bislang wurden nur die blau gefärbten Teile des Modells implementiert.




2.1.3 Die Zwei-Wege-Theorie

Eine der prominentesten Theorien der visuellen Worterkennung ist sicherlich die Zwei-Wege-Theorie oder "Dual-Route-Theory", die erstmals von Coltheart (1978) vorgeschlagenen wurde und seitdem Gegenstand vielfältiger Publikationen war. Sie steht nicht nur in Einklang mit zahlreichen neurologischen Erkenntnissen aus dem Bereich der erworbenen Dyslexie, sondern hat auch die Forschung nach Subgruppen der Lese-Rechtschreibstörung wesentlich befruchtet (siehe z.B. Morris et al., 1998; Stanovich, Siegel, Gottardo, Chiappe, & Sidhu, 1997; Fletcher et al. 1997).

Die Zwei-Wege-Theorie beschreibt zwei mögliche Verarbeitungsmechanismen im Lese-Prozess (Coltheart & Rastle, 1994) - einen direkten, lexikalischen und einen indirekten, non-lexikalischen. Der erste, direkte Weg besteht gemäß dieser Theorie in einer orthographischen Kodierung des Schriftbildes, über den direkt ein Eintrag im mentalen Lexikon aktiviert wird. Die Aussprache des Wortes ist also unmittelbar zugänglich. Bei Wörtern, die nicht im Lexikon vertreten sind, wird hingegen die zweite, indirekte Route gewählt. Da hier keine Eintragung im Lexikon vorliegt, muss das Wort über die Graphem/Phonem-Zuordnung Buchstabe für Buchstabe erlesen werden. Die phonologische Struktur eines Wortes wird also mittels phonologischer Rekodierung von Buchstaben bzw. Buchstabengruppen seriell rekonstruiert.

Neurologen berichten immer wieder von Patienten, bei denen aufgrund einer hirnorganischen Schädigung eine dieser beiden Routen nicht verfügbar ist. Diese Studien zeigen, dass beide Strategien für das Lesen und Schreiben essentiell wichtig zu sein scheinen. Ist nur der direkte Weg möglich, so haben betroffene Menschen immense Schwierigkeiten beim Erlesen von Pseudowörtern (Klicpera & Gasteiger-Klicpera, 1995, S. 193). Da solche Wörter inhaltsfrei sind, können sie nicht im semantischen Gedächtnis präsent sein. In diesem Fall kommt es zu einer phonologischen Dyslexie. Es ist allerdings theoretisch möglich dieses Defizit der Graphem/Phonem- und Phonem/Graphem-Zuordnung durch ein hinreichend umfassendes semantisches Gedächtnis zu kompensieren, da Pseudowörter im Alltag nur eine untergeordnete Rolle spielen. Auf diese Weise kann die Lese- und Schreibfähigkeit ein ausreichendes Niveau erreichen. Ist hingegen der direkte Weg über das semantische Gedächtnis auf irgendeine Weise beeinträchtigt, so müssen alle Wörter über die GPK-Regeln erlesen oder geschrieben werden (Klicpera & Gasteiger-Klicpera, 1995, S. 196 f.). Als Folge kommt es zur Oberflächendyslexie, die sich in Schwierigkeiten bei unregelmäßigen Wörtern und Homophonen äußert. Außerdem werden dabei zahlreiche Neologismen produziert. Beide Arten von Lese-Rechtschreibschwierigkeiten wurden auch bei leseschwachen Kindern beobachtet, auch wenn bislang die Frage nach der Unterteilung der Lese-Rechtschreibstörung in Subgruppen noch nicht hinreichend geklärt ist (siehe z.B. Morris et al., 1998; Stanovich, Siegel, Gottardo, Chiappe, & Sidhu, 1997; Fletcher et al. 1997).

Seit etwa 10 Jahren liegt analog zum Aktivations-Modell (Seidenberg & McClelland, 1989) ein Computer-Modell mit der Bezeichnung "dual-route cascaded (DRC) model of word recognition" vor, das auf der Dual-Route-Theory basiert (siehe Abb. 6). Das DRC stellt die Synthese von Zwei-Wege-Theorie und PDP-Modell her. Coltheart, Curtis, Atkins und Haller (1993) erstellten ein Regelsystem, das erfolgreich alle GPK-Regeln der englischen Sprache integriert und das die indirekte Route simuliert. Als Modul für die direkte Route wählten sie das PDP-Modell (Seidenberg & McClelland, 1989). Das DRC vereinigt somit sowohl hierarchische Komponentenmodelle mit seriellem Ablauf, als auch Netzwerkmodelle mit paralleler Arbeitsweise. Die einzelnen Komponenten des DRC arbeiten bidirektional und das System durchläuft so viele Zyklen, bis ein stabiles Optimum gefunden ist (Coltheart & Rastle, 1994).


Abbildung 6
Das dual-route cascaded model (DRC) nach Ziegler, Perry & Coltheart (2000). Die Worterkennung kann entweder direkt unter Einbeziehung des semantischen Systems erfolgen, oder indirekt über das buchstabenweise Erlesen der einzelnen Grapheme. Pfeile symbolisieren exzitatorische und runde Endungen inhibitorische Verknüpfungen. Die Einbeziehung des semantischen Systems - also der Wortbedeutungen wurde bislang wie im PDP-Modell (Seidenberg & McClelland, 1989) nicht realisiert.



Mit dem DRC gelang es, lautes Lesen am Computer erfolgreich zu simulieren (Coltheart, Curtis, Atkins & Haller, 1993; Coltheart & Rastle, 1994). Das Modell wurde darüber hinaus in jüngerer Zeit auf die deutsche Sprache übertragen (Ziegler, Perry & Coltheart, 2000) und erwies auch hier seine erstaunliche Leistungsfähigkeit: Es übertraf bei weitem die Trefferquote des PDP-Modells und schnitt bei einsilbigen deutschen Wörtern sowie regulär (gemäß den GPK-Regeln) geschriebenen Lehnwörtern sogar noch etwas besser ab als deutschsprachige Versuchspersonen. Im Bereich irregulär geschriebener Fremdwörter lag die Fehlerrate des DRC bei 24,2 % im Vergleich zu 19,5 % bei den Versuchspersonen. Diese Leistung ist umso beachtlicher wenn man bedenkt, dass das Modell lediglich die phonetische Realisation von ca. 1 500 einsilbigen deutschen Wörtern erlernt hatte.


2.1.4 Zusammenfassung

Das DRC überwindet die Schwächen des PDP-Modells, welches darauf angewiesen ist, dass das zu lesende Wort - oder zumindest eine hinreichend große Anzahl ähnlicher Wörter - bereits gelernt wurde und im Netzwerk repräsentiert ist. Gleichzeitig erbt es dessen mentales Lexikon der Wortbedeutungen.

Einschränkend muss festgestellt werden, dass beide Modelle bislang nur für den Bereich des lauten Lesens Gültigkeit beanspruchen. Auch bleiben zum jetzigen Zeitpunkt Wörter mit mehr als einer Silbe unberücksichtigt. Aus diesem Grund ist es beiden Modellen bislang nicht möglich, Wörter in ihre Silben zu zerlegen und gemäß ihrer Morpheme zu analysieren. Trotz dieser Einschränkungen kann insbesondere das DRC erstaunliche Erfolge im Bereich des lauten Lesens und in der Anwendung des Modells auf gestörten Schriftspracherwerb vorweisen (siehe Coltheart, Curtis Atkins & Haller, 1993; Ziegler, Perry & Coltheart, 2000; Coltheart & Rastle, 1994).


>>> Zurück zur Übersicht



2.2 Leseverständnis auf Wortniveau

2.2.1 Begriffsbildung

Das Phänomen des Verstehens einzelner Wörter ist eng verwoben mit der Art und Weise, wie wir Begriffe mental organisieren und repräsentieren. Hoffmann (1993, S. 119 ff.) führt zum Thema Begriffsbildung sieben verschiedene Forschungsansätze auf:

  1. Begriffe als Abstraktion klassifizierungsrelevanter Merkmale
    Begriffe werden durch die Abstraktion klassifizierungsrelevanter Merkmale gebildet. Es entsteht eine Merkmalskonfiguration in der alle Merkmale repräsentiert werden, die für den Begriff invariant und spezifisch sind. Die Bildung von Begriffen basiert also auf der lernabhängigen Differenzierung von relevanten und irrelevanten Eigenschaften. Diese Attribute stellen sowohl die hinreichenden als auch notwendigen konstitutiven Eigenschaften eines Begriffs dar. Sie werden als "kritische Merkmale" bezeichnet.

  2. Begriffsbildungsalgorithmen
    Es werden im Laufe des Lernprozesses Gesetzmäßigkeiten abstrahiert, die es erlauben zu entscheiden, ob ein Objekt eindeutig zu einem Begriff gehört, oder nicht. In der Regel geschieht dies über die Verknüpfung binärer Eigenschaften mittels Bool'scher Operatoren.

  3. Familienähnlichkeit und Typikalität natürlicher Begriffe
    Die Eigenschaften natürlicher Begriffe folgen in der Regel nicht dem Alles-oder-Nichts-Prinzip. Objekte gehören oftmals mehr oder weniger einem bestimmten Begriff an. Aus diesem Grund wurde vorgeschlagen, dass Begriffe unscharfe Mengen von Objekten sind. Objekte, die zu einem Begriff gehören, sind sich ähnlicher als die Objekte verschiedener Begriffe. Es gibt keine relevanten und irrelevanten Eigenschaften, sondern vielmehr Merkmale, die sich in ihrer Relevanz graduell unterscheiden.

  4. Begriffe als Merkmalsmengen
    Anders als unter dem Punkt 1. aufgeführt wird hier die Unterscheidung zwischen relevanten und irrelevanten Merkmalen aufgehoben. Statt Merkmalsverknüpfungen müssen Begriffe hinreichend viele Merkmale mit hinlänglicher Relevanz aufweisen.

  5. Begriffe als Prototypen
    Begriffe sind gemäß diesem Forschungsansatz als Prototypen gespeichert, die aus der alltäglichen Erfahrung abstrahiert werden. Die Familienähnlichkeit von Objekten ergibt sich aus ihrer Ähnlichkeit zum gemeinsamen Prototyp.

  6. Begriffe als Menge der erlebten Beispiele
    Bei der Ermittlung der Zugehörigkeit eines Objektes zu einem Begriff wird dieses zunächst mit allen gespeicherten Exemplaren verglichen. Der Vergleich ruft bei den verschiedenen Exemplaren ein "Echo" hervor und das Objekt wird demjenigen Exemplar zugeordnet, das mit dem stärksten Echo antwortet.

  7. Begriffsbildung in konnektionistischen Netzwerken
    Wie bereits im Kapitel zum Aktivations-Model beschrieben, besteht ein konnektionistisches Netzwerk aus Eingangs- und Ausgangsknoten, die durch eine Schicht von "hidden Units" miteinander verknüpft sind. Die Lernerfahrung spiegelt sich in den Gewichten der Verknüpfungen zwischen den Knoten mit den "hidden Units" wieder. Eine spezielle Aktivitätskonfiguration in den Eingangsknoten führt zu einem Aktivitätsmuster in den Ausgangsknoten, welches die Zugehörigkeit zu einem bestimmten Begriff symbolisiert.

Im derzeitigen "Standardmodell der Wortbedeutung" (Anderson & Nagy, 1991) wird davon ausgegangen, dass Wortbedeutungen als Mengen kritischer - also notwendiger und hinreichender - Eigenschaften beschrieben werden können. Trotz vieler Kritikpunkte und obwohl praktisch alle theoretischen Ableitungen aus dieser Theorie angefochten werden können, entspricht nach Anderson und Nagy also die unter 1.) beschriebene Theorie dem momentanen Konsensus unter den Forschern:

"[Dissatisfaction] with the standard model is perhaps the most accurate representation of the current consensus. That is, scholars concerned with word meanings concur in their rejection of aspects of the standard model, but not on any model to replace it. ... To some extend, the standard model we define comes close to reflecting a commonsense view of word meaning that forms the implicit basis for much of the thinking that is done about word meanings, especially in applied areas such as reading and vocabulary instruction." (Anderson & Nagy 1991).

Kritikpunkte lassen sich bereits an den fundamentalen Eigenschaften des Modells anbringen. Es gibt bei den allermeisten Begriffen keine einzige Eigenschaft, die sowohl hinreichend als auch notwendig wäre. Betrachten wir z.B. den Begriff Rotkehlchen. Dieser setzt sich aus weiteren, elementareren Begriffen, wie z.B. "Vogel", "kann fliegen", "roter Hals" und "singt" zusammen. Mit anderen Vögeln teilt das Rotkehlchen die Eigenschaft, dass es fliegen kann. Dennoch kann "kann fliegen" kein hinreichendes Merkmal sein, da es sehr viele Vogelarten gibt, die im Gegensatz zum Rotkehlchen nicht fliegen können, wie z.B Pinguine oder dem neuseeländischen Kakapoo. Genauso würden wir ein Rotkehlchen dennoch als Rotkehlchen erkennen, wenn es z.B. aufgrund eines gebrochenen Flügels nicht fliegen kann. Die Eigenschaft "roter Hals" hingegen unterscheidet das Rotkehlchen zwar von Raben, Bussarden und Spatzen, nicht aber vom Erdbeerhäubchen (einer Papageienart) oder von Oskar Lafontaine. "Singt" ist eine Eigenschaft, die das Rotkehlchen von Raubvögeln unterscheidet; es teilt diese Eigenschaft allerdings auch mit Placido Domingo. Und obwohl sicherlich die meisten Rotkehlchen in der Lage sind zu singen, und dies auch v.a. im Frühling intensiv praktizieren, würden wir dennoch auch ein still auf einem Ast sitzendes Rotkehlchen problemlos als solches klassifizieren können. Das skizzierte Problem wird weiter dadurch verschärft, dass die potentiellen Merkmalslisten eines Begriffs wiederum Begriffe enthalten, die auf gleiche Art und Weise zerlegt werden können. Die Erstellung von Listen kritischer Merkmale ist bei vielen Begriffen entweder gar nicht oder nur sehr schwer möglich.

Das Standardmodell stößt weiterhin an seine Grenzen, wenn es um die Erklärung der Variabilität von Bedeutungen in Abhängigkeit des Kontextes geht (Anderson & Nagy, 1991). So kann beispielsweise der Begriff "Bank" so vielfältige Bedeutungen wie "Sitzgelegenheit", "Geldinstitut" oder "seichte Wasserstelle (Sandbank)" haben. Die Bedeutung des jeweiligen Begriffs hängt hierbei maßgeblich vom Bedeutungsinhalt der umgebenden Wörter und Sätze ab. Darüber hinaus können Wörter auch übertragene Bedeutungen haben, z.B. wenn sie im Rahmen von Redewendungen auftreten. Ob diese festgefügten verbalen Ausdrücke aus Sicht der Begriffsbildung wie ein einzelnes Wort anzusehen sind, muss stark bezweifelt werden (Anderson & Nagy, 1991).

Ein weiterer großer Kritikpunkt liegt m.E. darin, dass das Modell nicht erklärt, auf welche Weise ein Begriff mit dem lautsprachlichen oder graphemischen Muster assoziiert ist. Anderson und Nagy (1991) postulieren am Rande, dass sich durch das Erkennen eines Wortes dessen Bedeutung unmittelbar erschließt, ohne jedoch zu spezifizieren, auf welche Weise dies geschieht. Sie sind jedoch der Ansicht, dass trotz der genannten Schwächen keine Alternative zum Standardmodell existiert. Dieser Meinung kann ich mich nicht anschließen, sondern möchte stattdessen auf den Standpunkt von Hoffmann (1991, S. 132) verweisen. Dieser sieht in Netzwerken mit verdeckten Einheiten - wie beispielsweise dem Aktivationsmodell von McClelland und Rumelhart (1981) gegenwärtig die vollständigste Abbildungsmöglichkeit natürlicher Begriffe (siehe auch Balota, 1990). Zwar beschränkt sich die Computersimulation des aus dem Aktivationsmodell abgeleiteten PDP-Modells (Seidenberg & McClelland, 1989) bislang auf die reine Worterkennung, doch ist im eigentlichen Ansatz die Verknüpfung der Ausgangsknoten des Worterkennungsmoduls mit dem semantischen Netzwerk vorgesehen. Die Aktivierung könnte sich somit ausbreiten und unmittelbar die im semantischen Netz gespeicherten Bedeutungsinhalte aktivieren. Aufgrund der zwischengeschalteten Schicht verdeckter Einheiten wären auf diese Weise nicht-lineare Verknüpfungen möglich, die auch die Bedeutungsfacetten sowie übertragenen Bedeutungen eines Wortes berücksichtigen könnten.

Dies würde implizieren, dass bei Zugrundelegung des DRC-Modells (Coltheart, Curtis Atkins & Haller, 1993 ) die Erkennung einer Wortbedeutung mithilfe des seriellen Erlesens des Wortes über die indirekte Route nicht oder nur über Umwegen möglich ist - eine Tatsache, die von vielen Didaktikern geteilt wird (siehe z.B. Reichen, 1990).

Darüber hinaus stellt die Forschung auf dem Gebiet des subliminalen Primings die strenge serielle Abfolge von Erkennung eines Wortes in seiner lautsprachlichen Struktur und anschließender Ermittlung der Bedeutung in Frage (Balota, 1990). Wird beispielsweise zunächst das Wort "Katze" subliminal (inklusive anschließender Maskierung) dargeboten, so kann eine Versuchsperson kurz danach das Wort "Hund" schneller identifizieren. Wird hingegen zunächst "Stift" geprimt, so kommt es zu keiner Geschwindigkeitszunahme. Die Person aktiviert also Begriffe und Assoziationen, obwohl sie weder in der Lage ist, das Wort bewusst zu erkennen, noch die lautliche Struktur zu erfassen. Dieser Befund legt nahe, dass ein früher, prälexikalischer Zugriff auf die Bedeutung eines geschriebenen Wortes möglich ist, selbst wenn der visuelle Stimulus nicht bewusst analysiert werden kann.




2.2.2 Der Einfluss von Bedeutung und Kontext auf die Worterkennung

Die Identifikation von Buchstaben innerhalb von tachioskopisch dargebotenen Buchstabengruppen ist - wie in Kapitel 2.1 beschrieben - wesentlich erleichtert, wenn die Buchstabengruppe ein sinnvolles Wort ergibt. Balota (1990) berichtet von Experimenten, die sich dieses Wortüberlegenheitseffekts bedienen und darauf hindeuten, dass Wortbedeutungen basale Prozesse der Worterkennung beeinflussen. Verschiedene Forschergruppen präsentierten ihren Versuchspersonen Pseudowörter bzw. Wörter, deren Sinn nicht bekannt war und maßen die Erkennungsleistung für Einzelbuchstaben bei tachioskopischer Darbietung. Im Anschluss an diese erste Experimentalphase wurde der einen Hälfte der Pseudowörter eine willkürliche Bedeutung zugewiesen und das Experiment wiederholt. Der Wortüberlegenheitseffekt trat nun auch bei diesen Wörtern auf.

Betrachtet man den Einfluss des Kontext auf die Worterkennung, so muss zunächst eine wichtige Unterscheidung hinsichtlich der Art und Weise der Wirkung getroffen werden (Oakhill & Garnham, 1989, S. 84): Zum einen könnte der Kontext vom Leser zur Korrektur bzw. Vermeidung von Lesefehlern herangezogen werden, zum anderen wäre eine Beschleunigung der Worterkennung durch Voraktivierung ähnlicher Bedeutungsinhalte denkbar. Leider sind die empirischen Befunde auf diesem Gebiet nicht eindeutig. Zwar können erfahrenere Leser leichter den Kontext heranziehen, um Vorhersagen über das nächste auftretende Wort zu machen sowie Lesefehler zu korrigieren, dennoch greifen sie scheinbar relativ selten auf diese Fähigkeit zurück, so Oakhill und Garnham. Als gesichert gilt, dass die Einbettung von Wörtern in kongruenten Kontext im Vergleich zur isolierten Darbietung von Wörtern ohne jeglichen Kontext zur Beschleunigung der Worterkennung führt. Inkongruenter Kontext führt hingegen mutmaßlich nur bei Kindern zur Verlangsamung der Erkennungsgeschwindigkeit, nicht jedoch bei Erwachsenen.



2.2.3 Zusammenfassung

Zusammenfassend lässt sich sagen, dass der Lesevorgang bereits auf Wortniveau nicht ausschließlich ein Bottom-Up-Prozess ist und nur von basalen Verarbeitungsmechanismen abhängt. Stattdessen spielen Top-Down-Prozesse sehr wohl eine bedeutende Rolle.




>>> Zurück zur Übersicht



2.3 Leseverständnis auf Satzniveau

Das Erkennen einzelner Wörter und deren Bedeutung gewährleistet noch nicht das Verstehen der Bedeutung eines Satzes. Die Wörter einer Wortfolge müssen miteinander in Beziehung gesetzt und in eine Gesamtstruktur integriert werden. Zu diesem Zweck ist die Analyse sowohl der semantischen, als auch der syntaktischen Relationen der einzelnen Satzelemente erforderlich (Christmann & Groeben, 1999).

Von besonderer Bedeutung sind Nominal- und Verbalphrase (Klicpera & Gasteiger-Klicpera, 1995, S. 134). Eine Nominalphrase umfasst im Deutschen wie im Englischen ein Nomen, dem ein Artikel (Determinierer), sowie eine beliebige Anzahl an Adjektiven vorausgehen kann (Pinker, 1996, S. 113 ff.). Im Beispiel (siehe Abb. 7) bildet die Wortkombination "die muntere Fee" die Nominalphrase. Die Verbalphrase hingegen umfasst ein Verb, sowie eine weitere Nominalphrase, im genannten Beispiel also den Ausdruck "isst Früchte".




Abbildung 7
Syntaktische Analyse des Satzes "Die muntere Fee isst Früchte" (Pinker, 1996, S. 115)


Eine Nominalphrase kann an verschiedenen Stellen eines Satzes auftreten, beispielsweise als Subjekt des Satzes, als Objekt einer Verbalphrase, als Objekt einer Präposition (z.B. "für die Fee"), als Possesivphrase (z.B. "der Hut der Fee") und als indirektes Objekt (z.B. "gib der Fee einen Keks"). Allerdings müssen die Nominalphrasen durch Proposition gemäß den Regeln einer Sprache miteinander verknüpft werden. Im Deutschen ist zudem anders als im Englischen Genus und Kasus zu beachten (also z.B. "der Mann", "des Mannes", "dem Mann", "den Mann").

Die tatsächlich vorgegebene Kombination von Wörtern bezeichnet man als Oberflächenstruktur, den "Überbau" hingegen als Tiefenstruktur eines Satzes (Christmann & Groeben, 1999). Missverständnisse, unfreiwillige Komik und Wortspiele entstehen, wenn für eine vorgegebene Oberflächenstruktur verschiedene Tiefenstrukturen möglich sind. Das folgende Beispiel soll diesen Zusammenhang verdeutlichen: "Ich habe den Elefant im Schlafanzug erschossen." (Pinker, 1996, S. 117). Der Leser wird diesen Satz entsprechend seines Weltwissens so interpretieren, des sich "der Schlafanzug" auf das Subjekt des Satzes bezieht. Fügt man hingegen einen zweiten Satz hinzu ("Wie er in den Schlafanzug reingekommen ist, wird mir immer ein Rätsel bleiben."), so erhält der vorangegangene Satz eine andere Tiefenstruktur und muss folglich uminterpretiert werden.

Die Analyse der Tiefenstruktur eines Satzes wird im Deutschen wie im Englischen als "parsing" bezeichnet und folgt nach dem sog. "garden path"-Modell - nach Klicpera & Gasteiger-Klicpera (1995, S. 135) ist dies das derzeit am besten ausgearbeitete Modell - im wesentlichen zwei Prinzipien (Flores d'Arcais, 1990 ; Ferstl & Flores d'Arcais, 1999):

  1. minimal-attachment:
    die zu rekonstruierende Satzstruktur wird so gebildet, dass sie möglichst wenige Verzweigungen aufweist

  2. late closure:
    das gerade gelesene Wort wird nach Möglichkeit an die zuletzt aktive Phrase angehängt

Uneinigkeit besteht zum jetzigen Zeitpunkt über das Zusammenspiel von Semantik und Syntax bei der Interpretation von Sätzen (Traban & McClelland, 1990; siehe auch Christmann & Groeben, 1999), wobei sich im wesentlichen zwei konträre Positionen unterscheiden lassen: Nach der interaktionistischen Syntaxtheorie wird die syntaktische Analyse vom semantischen Kontext, von der Pragmatik und vom Weltwissen beeinflusst. Es werden z.B. mittels der Bedeutung der Verben die einzelnen Wörter zu Nominalphrasen gruppiert, denen schließlich ihre Position im Satz zugewiesen wird. Die syntaktischen und semantischen Teilprozesse arbeiten nach dieser Theorie weitgehend parallel. Die autonome Syntaxtheorie geht hingegen davon aus, dass die syntaktische Verarbeitung der semantischen zeitlich voraus geht.

Die Frage, welche der beiden Theorien die Satzanalyse besser beschreibt wurde insbesondere mithilfe des "Sackgasseneffekts" ("garden path effect", vgl. auch Christmann & Groeben, 1999) untersucht (z.B. Mitchell, Corley & Garnham, 1992). In diesem Paradigma werden den Versuchspersonen Sätze dargeboten, deren Analyse nach dem Late-Closure-Prinzip zu einer syntaktisch falschen Strukturierung führt, die in einem zweiten Schritt korrigiert werden muss. Dabei handelt es sich um Sätze wie z.B. "Helmut ist gut zu sehen". Das Wort "Helmut" wird aufgrund seiner Position im Satz zunächst als Subjekt wahrgenommen, in der Tiefenstruktur ist es hingegen das Objekt der durch das Verb bezeichneten Tätigkeit. Kinder neigten bis zu einem Alter von sieben bis acht Jahren dazu, den Satz dahingehend zu interpretieren, dass Helmut gut sieht, so Klicpera und Gasteiger-Klicpera (1995, S. 135). Ähnlich verhalte es sich bei dem Satz "Hans verspricht Fritz zu kommen", der von jüngeren Kindern so verstanden wird, dass Fritz kommt. Während Kinder dieses Alters noch generell Probleme haben, eigene Fehler in der syntaktischen Strukturierung von Sätzen zu erkennen, analysieren Erwachsene in diesem Fall, wie in der autonomen Syntaxtheorie beschrieben, isoliert die grammatikalische Struktur des Satzes (Christmann & Groeben, 1999). Treten hingegen während des Parsens keine Widersprüche auf, scheint die interaktionistische Syntaxtheorie den Leseprozess Erwachsener adäquater zu beschreiben.

Kinder haben über die oben genannten Beispiele hinaus in diesem Alter Probleme mit zahlreichen Konjunktoren (Oakhill & Garnham, 1988, S. 52). Während zu Beginn der Schulzeit vor allem temporale Konjunktoren wie "dann" und "danach" bevorzugt werden, entwickelt sich allmählich im Laufe der ersten sechs Schuljahre das Verständnis für kausale Verknüpfungen wie "weil", "deshalb" und "folglich".

Klicpera und Gasteiger-Klicpera (1995, S. 135) vermuten, dass vor allem bei Kindern, die sich selbst noch im Spracherwerbsprozess befinden, eine relative Autonomie von syntaktischer und semantischer Analyse, bei Erwachsen hingegen eine enge Interaktion zwischen Syntax und Semantik vorliegt. Ein wesentlicher Faktor für die Entwicklung des Leseverständnisses sei also die Fähigkeit der Satzanalyse bzw. der grammatikalischen Kompetenz, so Klicpera und Gasteiger-Klicpera.




>>> Zurück zur Übersicht



2.4 Textverständnis

Die Forschungsansätze auf dem Gebiet des Textverstehens untergliedern sich in unterschiedliche Bereiche, die jeweils verschiedene Zielsetzungen verfolgen: Die textseitig orientierte Forschung ist daran interessiert, Textstrukturen möglichst objektiv zu beschreiben und zu ermitteln, welche Eigenschaften des Textes sich in welcher Weise auf das Lesen, Verstehen und Erinnern auswirken (Christmann & Groeben, 1999). Schemaorientierte Ansätze hingegen fokussieren auf die Eigenschaften des Rezipienten (z.B. Vorwissensstrukturen, Erwartungen und Zielsetzungen), die benötigt werden um aus einem Text Informationen zu entnehmen. Im folgenden soll auf beide Positionen eingegangen werden.


2.4.1 Satzübergreifende Informationsintegration

Mit der syntaktischen und semantischen Entschlüsselung einzelner Sätze hat der Verstehensprozess erst begonnen. Informationen, die bei der Analyse einzelner Sätze gewonnen wurden, müssen integriert und zu einem Gesamtbild zusammengesetzt werden (Klicpera & Gasteiger-Klicpera, 1995, S. 136).

Zur Herstellung von Beziehungen zwischen verschiedenen Sätzen oder Textstellen existieren in der Sprache sog. Kohäsionsmittel (Christmann & Groeben, 1999). Dabei handelt es sich um Bindeglieder und Verweise zwischen verschiedenen Sätzen, wie z.B. Rückverweise (Anaphern), Vorverweise (Kataphern), Wortwiederholungen (Rekurrenzen) oder Wiederaufnahmen von Satzsequenzen durch sog. Pro-Formen ("dies", "das", "so" ...). Zur Relevanz der verschiedenen Kohäsionsmittel liegt eine Fülle von Einzelergebnissen vor, wobei der Kontext oftmals über die Wichtigkeit der einzelnen Stilmittel entscheidet. Im Bereich der Entwicklungspsychologie wurde insbesondere untersucht, ab wann Kinder in der Lage sind alte und neue Informationen sprachlich abzugrenzen und mittels anaphorischer Bezüge die Diskurs-Kohärenz sicherzustellen (Grimm, 1998). Offensichtlich entwickelt sich die Fähigkeiten zur Verknüpfung zweier Sätze mittels anaphorischer Pronomen im Altersbereich zwischen fünf und sieben Jahren, also zu der Zeit, in der normalerweise auch wichtige Phasen des Schriftspracherwerbs stattfinden. 5jährige Kinder erkennen normalerweise nicht, wenn die Verknüpfung zweier Sätze durch ein anaphorisches Pronomen ("Die Prinzessin .... Sie ....") pragmatisch unplausible Geschichten ergibt. 7jährige sind dagegen im Vergleich zu den zwei Jahre jüngeren Kindern in der Lage, diesen Rückbezug herzustellen. Andere anaphorische Formen bereiten hingegen auch älteren Kindern noch Probleme. Zu diesen Strukturen gehören unter anderem anaphorische Bezüge innerhalb eines einzelnen Satzes. Beispielsweise interpretieren 10jährige Kinder in 11% der Fälle den Satz "Pete's brother ties himself up" fälschlicherweise als "Pete is tying himself up" (Oakhill & Garnham, 1988, S. 58).


2.4.2 Modellvorstellungen des Textverstehens

Verschiedene Modelle wurden entwickelt, um die Integration von Informationen zu erklären. Der bekannteste Ansatz ist die Propositionsanalyse (Kintsch & Kintsch, 1986; Kintsch, 1986, McNamara, Miller & Bransford, 1991). Propositionen sind nach diesem Modell die kleinsten Wissenseinheiten oder Aussagen aus denen ein Text besteht. Das Beispiel "John las einen hervorragenden Artikel über die Zukunft der Psychologie im Flugzeug nach Frankfurt" (siehe Abb. 8), das als Teil eines längeren Textes anzusehen ist, lässt sich demgemäß nach Kintsch & Kintsch (1986) folgendermaßen analysieren: Die syntaktische Analyse ermittelt "las" als Prädikat des Satzes, auf dessen Basis die Propositionen aufgebaut werden. Da das Prädikat "las" ein Subjekt erfordert, wird "John" als Handelnder spezifiziert. Als Objekt wird "einen Artikel" ermittelt, dem in diesem Fall der Modifkator "hervorragend" hinzugefügt wird. Weiterhin finden sich die Proposition "über die Zukunft der Psychologie", sowie die die Ortsangabe "im Flugzeug nach Frankfurt". Aufgrund dieser Propositionen wird der Satz in die Makroposition "Johns Reise nach Frankfurt" integriert, die wiederum teil einer noch umspannenderen Makrostruktur (z.B. "Kongress für experimentelle Psychologie in Frankfurt") sein kann, usw. So wird zunächst die Bedeutung auf lokaler Ebene erarbeitet, die schließlich in eine größere Makrostruktur eingebettet wird.



Abbildung 8
Verarbeitungsebenen im Modell des Textverstehens (nach Kintsch & Kintsch, 1986)


Christmann & Groeben (1999) merken an, dass sich propositionale Beschreibungsmodelle in der Grundlagenforschung zwar als erfolgreich erwiesen haben, aber mit einer Reihe von Problemen behaftet sind. Zu diesen gehören unter anderem, dass sie bei Anwendung auf längere Textstellen äußerst unökonomisch sind, was ihren prognostischen Wert hinsichtlich der Behaltensleistung des Rezipienten wesentlich reduziert. Auch wird die Kohärenz eines Textes ausschließlich auf der Basis referentieller Identität - wie z.B. anaphorischer Bezüge - festgestellt. Kausale oder funktionale Relationen bleiben faktisch unberücksichtigt. Dabei ist es offensichtlich, dass auch Texte, deren Sätze keinerlei Referenzen aufeinander aufweisen, problemlos auf der Basis des Weltwissens interpretiert werden können, wie folgendes Beispiel zeigt: "Der Kühlschrank ist leer. Markus hat Hunger."

Nach Christmann und Groeben (1999) ist aber allgemein belegt, dass im Leseprozess eine satzübergreifende semantische Makrostruktur aufgebaut wird. Das geschieht umso leichter, je klarer und deutlicher ein Text aufgebaut ist und je mehr Hinweise gegeben werden, welche Textinformationen aufeinander zu beziehen sind und welche Inferenzen gebildet werden müssen.


2.4.3 Schemageleitetes Textverständnis

Die Verfügbarkeit von Skripten und Schemata kann die Erarbeitung der Bedeutung von Texten wesentlich erleichtern. Der Begriff Schema geht auf Bartlett zurück und bezeichnet ganzheitliche Strukturen, in denen Wissen über typische Zusammenhänge von Realitätsbereichen gespeichert sind (Christmann & Groeben, 1999; Bergius & Casper, 1998). Wichtig für das Verstehen von Texten sind in diesem Kontext sog. Skripten und Geschichtengrammatiken (story grammars). Skripten beschreiben Handlungen, die typischerweise auf eine bestimmte Art und Weise ablaufen, wie z.B. ein Restaurantbesuch (1. Betreten des Restaurants, 2. Ober geleitet den Gast zum Tisch, 3. Ober bringt die Karte ....). Geschichtengrammatiken hingegen beinhalten Informationen über die globale Anordnung von Textelementen in Erzähltexten, wie z.B. das obligatorische "Happy End" am Ende eines Kindermärchens. Diese typischen Anordnungen von Erzählinhalten sind Kindern vertraut und sie erleichtern das Verstehen und Erinnern der spezifischen Inhalte (Klicpera & Gasteiger-Klicpera, 1995, S. 140). Geschichtengrammatiken haben also vordringlich eine kognitive Entlastungsfunktion, da nicht zusätzlich zu den Inhalten auch noch die Struktur des Textes erschlossen werden muss. Wie wichtig Schemata für uns sind und wie sehr wir uns auf sie stützen wird deutlich, wenn Versuchspersonen in Nacherzählungen schemainkongruente Informationen fälschlicherweise so abändern, dass das Nacherzählte ihren Erwartungen entspricht (Oakhill & Garnham, 1988, S. 107).

Auch Sachtexte weisen in der Regel bestimmte Strukturen auf, die sich vielfach von rhetorischen Mustern ableiten (Klicpera & Gasteiger-Klicpera, 1995, S. 140). Im Unterschied zu Sachtexten besitzen Erzähltexte einen konkreten Bezug zur Lebenserfahrung der Kinder. Das Verständnis für Sachtexte reift hingegen erst im Laufe der Schulzeit. Jene Schüler, die die Struktur der Texte kennen und diese zur Erschließung des Inhalts nutzen, können das Wissen besser organisieren und später mehr Informationen abrufen.

Unklar bleibt jedoch, auf welche Weise Schemata angewendet werden (McNamara, Miller & Bransford, 1991). Werden Schemata einfach nur aktiviert und dann an den vorgesehenen Stellen die fehlenden Informationen ergänzt? Und wie ist es dann möglich, dass Leser auch schemainkongruente Texte verstehen können? Diese Fragestellungen werden im folgenden behandelt.


2.4.4 Mentale Modelle

Ein Problem der propositionalen Modelle war, dass sie oftmals eher die Struktur eines Textes repräsentierten und nicht die Struktur, die sich der Leser aus dem Text rekonstuierte (McNamara, Miller & Bransford, 1991). Die psychologische Forschung zum Themengebiet Schemata hingegen fokussierte einseitig auf das Weltwissen und die Erfahrungen des Rezipienten. Es lag also nahe, beide Ansätze miteinander zu verbinden. Nach dieser neuen Form von Theorien, die die Bezeichnung "mentale Modelle" (McNamara, Miller & Bransford) oder auch "Situationsmodelle" (Artelt, Stanat, Schneider & Schiefele, 2001) tragen, verarbeitet der Leser einen Text auf der Basis von Propositionen. Gleichzeitig konstruiert er ein mentales Model in Analogie zur Struktur der Ereignisse und Situationen, wie sie im Text beschrieben werden.

Wenn Versuchsperson beispielsweise einen der beiden ersten Sätze (A1 und A2) aus Text 1 auswendig lernen müssen, dann fällt es ihnen später schwer zu entscheiden, welchen von beiden sie zuvor gelernt hatten (Bransford, Barclay & Franks, 1972, zitiert nach McNamara, Miller & Bransford, 1991). Das ist nach der Propositionsanalyse auch nicht weiter verwunderlich, schließlich unterscheiden sich die beiden Sätze ausschließlich durch eine einzelne Proposition. Im Falle der beiden letzten Sätze (B1 und B2) sollte die Entscheidung genauso schwer fallen, schließlich ist hier genau wie in Satz A1 und A2 dieselbe Proposition verändert. Da allerdings im Gegensatz zu den ersten beiden Sätzen, bei denen exakt die gleiche Situation vorliegt, die letzten beiden Sätze eine unterschiedliche Situation beschreiben, fällt es den Versuchspersonen nicht schwer, den richtigen Satz zu finden. Die unterschiedliche Leistung der Versuchspersonen im ersten und im zweiten Satzpaar lässt sich also darauf zurückführen, dass im ersten Fall identische und im zweiten Fall unterschiedliche mentale Modelle vorliegen.

Satz A1: Three turtles rested on a floating log and a fish swam beneath them.
Satz A2: Three turtles rested on a floating log and a fish swam beneath it.

Satz B1: Three turtles rested beside a floating log and a fish swam beneath them.
Satz B2: Three turtles rested beside a floating log and a fish swam beneath it.


Text 1
Das Experiment von Bransford, Barclay & Franks (1972, zitiert nach McNamara, Miller & Bransford, 1991): Geraume Zeit nachdem Versuchspersonen einen der beiden ersten Sätze gelesen hatten (Satz A1 und A2) fiel es ihnen schwer zu entscheiden, welcher von beiden es gewesen ist. Bei Satz B1 und B2 fällt die Entscheidung leicht, obwohl sich dieses Satzpaar ebenfalls nur durch eine Präposition unterscheidet. Der Unterschied muss also in der mentalen Repräsentation der beschriebenen Situation liegen.


Die empirische Forschung zu mentalen Modellen bediente sich zu einem großen Teil der Beschreibung der Relationen von Objekten in Räumen oder von Positionen auf Landkarten (Christmann & Groeben, 1999). Dabei wurde festgestellt, dass Leser in der Lage sind, einen Text sowohl in Form von Propositionen zu organisieren als auch ein mentales Modell zu rekonstruieren. Welchen Verarbeitungsweg eine Person wählt, hängt maßgeblich vom dargebotenen Material ab: kongruente Informationen werden vorzugsweise in Form mentaler Modelle und inkongruente Informationen in propositionaler Form repräsentiert (McNamara, Miller & Bransford, 1991).

Ein äußerst bedeutsamer Faktor bei der Erstellung mentaler Modelle ist die Integration der aufgenommenen Informationen mit dem Vorwissen (Artelt, Stanat, Schneider & Schiefele, 2001). Zum Vorwissen zählen hier beispielsweise Skripten, Schemata und spezifische Lernerfahrungen. Nach der gängigen Vorstellung ist das Wissen in Form propositionaler Netzwerke organisiert und der Zugriff auf Wissensstrukturen ist schnell und präzise. Die Aktivierung von Vorwissensstrukturen entlastet den Prozess des Textverstehens.

Ein weiterer wichtiger Aspekt mentaler Modelle ist die Notwendigkeit, das rekonstruierte Modell auf seine innere Kohärenz und die Übereinstimmung mit dem Gelesenen zu überprüfen. Die Überwachung des eigenen Verständnisses des Textes ist eine metalinguistische Fähigkeit, die sich allerdings erst im Laufe der Jahre ausbildet (Oakhill & Garnham, 1988, S. 115 f.). Erstklässer scheitern in der Regel daran, selbst gravierende logische Fehler in Texten zu entdecken. Drittklässer bemerken Inkonsistenzen hingegen wesentlich schneller, ohne jedoch verbalisieren zu können, welche Fehler im Text aufgetreten sind.


2.4.5 Inferenzielles Lesen

Eine Fähigkeit, die eng mit mentalen Modellen in Verbindung steht ist das inferenzielle Lesen. Während man unter Inferenz üblicherweise das Ziehen von logischen Schlüssen versteht (Inferenz, 1998), wird dieser Begriff in puncto Leseverständnis eher im Sinne von "zwischen oder hinter den Zeilen lesen" (Klicpera & Gasteiger-Klicpera, 1995, S. 138) verwandt. Es geht also darum, Informationen von der wortwörtlichen sprachlichen Realisation zu abstrahieren und verschiedene Sätze miteinander in Verbindung zu setzen, also ein mentales Modell des Textes zu konstruieren. Betrachtet man das Beispiel "Anna versuchte, aus dem schönen Stoff ein Kleid zu machen. Die Schere war stumpf und es bereitete ihr große Mühe.", so ist dem Leser sofort klar, dass Anna mit der Schere aus dem Stoff Teile ausschneiden wollte. Damit das möglich ist, müssen allerdings verschiedene nicht-triviale Schlüsse gezogen werden. Zum einen ist es erforderlich, die Begriffe Schere, Kleid und Stoff miteinander in Beziehung zu setzen. Zum anderen muss das anaphorische Pronomen ihr auf Anna bezogen werden. Von diesen für das Textverstehen notwendigen Inferenzen sind weiterführende Inferenzen abzugrenzen, die das im Text Ausgeführte einengen, ergänzen oder weiterführen. Der Satz "Der Kellner rutschte auf dem frisch gewischten Boden aus, und das teure Glas fiel zu Boden" (Klicpera & Gasteiger-Klicpera, 1995, S. 138) wird üblicherweise so interpretiert, dass das Glas am Boden zersplitterte. Schließlich sind teure Gläser normalerweise aus Glas gefertigt und halten einem Sturz aus 1,5 m Höhe nicht stand.

Zahlreiche Studien zeigen, dass gute und schlechte Leser sich maßgeblich in der Anzahl der gezogenen Inferenzen voneinander unterscheiden (Oakhill & Garnham, 1988, S. 136 f.). Diese Differenzen sind weder auf Unterschiede in der Gedächtniskapazität noch auf Divergenzen im Bereich der Wissensbasis zurückführbar, so Oakhill und Garnham. Sie vermuten, dass die Fähigkeit zur Bildung von Inferenzen letztlich eine Intelligenzleistung ist.

>>> Zurück zur Übersicht



3. Entwicklungspsychologische Modelle des Schriftspracherwerbs

3.1 Das Modell des Schriftspracherwerbs nach Frith und Günther

Analog zu den Prozessmodellen des Lesens und Schreibens wurden im Laufe der 80er Jahre Modelle für den Erwerb der Schriftsprache entworfen (Klicpera & Gasteiger-Klicpera, 1995, S. 46). Besonderen Anklang fanden dabei Stadienmodelle des Schriftspracherwerbs, die sich insbesondere auf Informationsverarbeitungstheorien des Lesens beziehen (z.B. Frith, 1985). Frith postuliert drei Phasen des Schriftspracherwerbs:
  1. Logographische Phase
    Auf dieser ersten Stufe identifizieren die Kinder Wörter anhand herausstechender Merkmale. Dabei werden die Wörter nicht auf der Basis der Identifikation von Buchstaben oder der Reihenfolge von Buchstaben erkannt, sondern es zählt allein der globale visuelle Eindruck. Beispielsweise können die Firmenlogos beliebter Marken wiedererkannt und benannt werden.
    Wenn das Kind beginnt, die für das Lesen verwendeten Merkmale weiter zu differenzieren, ist ein bedeutender Schritt in Richtung alphabetischer Phase getan (Klicpera & Gasteiger-Klicpera, 1995, S. 46).

  2. Alphabetische Phase
    In dieser Phase setzt das Kind zum systematischen Erlesen von Wörtern Kenntnisse von der Identität der Buchstaben und deren Zuordnung zu Phonemen ein. Das Erkennen von Wörtern erfolgt also durch buchstabenweises Rekonstruieren der Buchstabenfolgen zu ganzen Wörtern. Bemerkenswert ist, dass in diesem Stadium scheinbar das Erkennen von Wörtern anhand herausragender Merkmale völlig in den Hintergrund tritt. Die Wörter werden ausschließlich auf der Basis der Rekonstruktion von Graphem-Phonem-Verbindungen identifiziert (Klicpera & Gasteiger-Klicpera, 1995, S. 46).

  3. Orthographisches Phase
    Dieses Stadium stellt gewissermaßen die Synthese beider vorangehender Phasen dar. Die phonologische Rekodierung tritt wieder in den Hintergrund und die Wörter werden direkt erkannt (Klicpera & Gasteiger-Klicpera, 1995, S. 46). Dies geschieht allerdings unter Zuhilfenahme der Buchstabenfolge und des bereits erworbenen Wissens über die Struktur der Schriftsprache. Auf dieser Basis können Wörter sehr schnell identifiziert und aus dem orthographischen Gedächtnis rekapituliert werden, ohne dass die Wörter immer wieder neu erlesen werden müssen. Wahrscheinlich wird dieser Vorgang durch die Gliederung der Buchstabenfolgen in Silben, Morpheme oder kleinere, häufig vorkommende Buchstabenfolgen wie st, sp, ng zusätzlich ökonomisiert (Klicpera & Gasteiger-Klicpera, 1995, S. 47).

Unabhängig von Uta Frith entwickelte Günther (1989) sein "Stufenmodell des Schriftspracherwerbs als Entwicklungsprozess" (siehe Abb. 9). Aufgrund der ausgeprägten Parallelen beider Modelle werden diese üblicherweise zusammengefasst und als Frith-Günther-Modell bezeichnet. Zusätzlich zu den bei Frith (1985) aufgeführten Phasen postuliert Günther (1989) als Vorläufer des Schriftspracherwerbs eine präliteral-symbolische Stufe und setzt damit den Beginn des Schriftspracherwerbs zu einem wesentlich früheren Zeitpunkt an: Er geht in Anlehnung an die entwicklungspsychologischen Vorstellungen Piagets davon aus, "daß das Symbolbewusstsein im Vorschulalter bedingt durch die dominanten Denk- und Tätigkeitsformen sich zunächst in allgemeiner Weise entwickelt und damit die Grundlage schafft, in der eigentlichen Phase des Schriftspracherwerbs auf diese selbst angewandt zu werden." (Günther, 1989).



Abbildung 9
Stufenmodell des Schriftspracherwerbs nach Günther (1989). Günther betrachtet den Schriftspracherwerb als Folge von Strategiewechseln, die er als kritische Phasen (vom Autor farblich hervorgehoben) bezeichnet. Nach Günther zeigt das Kind im Falle des Scheiterns von Strategiewechseln charakteristische Fehlleistungen.


Außerdem folgt bei Günther auf die orthographische Phase die integrativ-automatisierte Phase, die keinen weiteren Strategiewechsel darstellt, sondern den langen Prozess der Automatisierung und Festigung der linguistischen Regeln und des Umgangs mit schriftlichen Material symbolisiert (Sassenroth, 2000, S. 46).

Obwohl Stufenmodelle wie das Frith-Günther-Modell sich einer enormen Prominenz erfreuen, mehren sich kritische Befunde, die insbesondere die Übertragbarkeit auf den deutschen Sprachraum in Zweifel ziehen (Schneider, 1998). Insbesondere die logographische Phase scheint im deutschen Sprachraum eine untergeordnete Rolle zu spielen. Wenn sie überhaupt beobachtet werden kann, dann nur in den ersten Wochen des schulischen Schriftspracherwerbs. Auch ist das Modell zum jetzigen Zeitpunkt empirisch nur unzureichend durch längsschnittliche Untersuchungen bestätigt.

Kritisch zu betrachten ist weiterhin die einseitige Fokussierung des Frith-Günther-Modells auf Lese-Rechtschreibprozesse auf Wortniveau. Sinnentnehmendes Lesen, das bereits bei Leseanfängern in rudimentären Zügen ausgebildet ist, kann dieses Modell nicht erklären.

>>> Zurück zur Übersicht



3.2 Der Simple-View-of-Reading-Ansatz

Während der Fokus des Frith-Günther-Modells auf basale Lesestrategien ausgerichtet ist, wurde im Laufe der 80er Jahre ein Modell vorgeschlagen, das sich explizit mit der Entwicklung des Leseverständnisses befasst und die Bezeichnung "Simple-View-of-Reading" trägt (Gough und Tunmer 1986; Hoover & Gough, 1990; Gough, Hoover & Peterson, 1996; Marx & Jungmann, 2000). Nach Gough, Hoover und Peterson (1996) soll der Titel keineswegs suggerieren, dass es sich beim Lesen um eine triviale Fähigkeit handele. Vielmehr sei davon auszugehen, dass das Leseverständnis im wesentlichen von nur zwei Fähigkeiten determiniert sei, die beide den gleichen Stellenwert hätten: dem Dekodieren und dem Hörverstehen. Ausgangspunkt der Modellentwicklung war ein Argument, auf das sich auch manche Kritiker der zur Zeit angewendeten Diskrepanzdefinitionen der Lese-Rechtschreibstörung (LRS) stützen. Zwar unterscheiden sich die Richtlinien zur Diagnose von LRS im deutschen und "developmental dyslexia" im englischen Sprachraum hinsichtlich der Wahl der angewendeten Methodik. So ist in Deutschland unter anderem eine T-Wert-Diskrepanz von 12 Punkten zwischen den Leistungen in einem standardisierten Lese-Rechtschreib-Test und einem Verfahren zur Erfassung der non-verbalen Intelligenz richtungsweisend (AWMF online, 2000). Im englischen Sprachraum bevorzugt man hingegen ein Regressionsverfahren (Weber, Marx & Schneider, 2002). Dennoch liegt beiden Herangehensweisen die Vorstellung zugrunde, dass neben basalen Lesetechniken die Intelligenz eines Kindes maßgeblich für den Schriftspracherwerb entscheidend ist. Demgegenüber betonte Stanovich (1989, 1991, 1994), dass nicht die Intelligenz, sondern vielmehr das Hörverstehen besser zur Prädiktion von Leseleistungen geeignet sei. Das Hörverstehen definiere demnach die Obergrenze der beim Lesen erreichbaren Verständnisleistungen.

Gough und Tunmer (1986) griffen diese Vorstellung ebenfalls auf und konstruierten ein Modell, in welchem das Leseverstehen aus der Verknüpfung von Hörverstehen und basalen Lesetechniken resultiert. Sie bezeichnen diese basalen Lesetechniken als "Dekodieren", was für sie die allgemeine Umschreibung für effiziente Worterkennung ist:
"For the simple view, skilled decoding is simply efficient word recognition: the ability to rapidly derive a representation from printed input that allows access to the appropriate entry in the mental lexicon, and thus, the retrieval of semantic information at the word level." Hoover und Gough (1990)
Dabei spiele es letztlich keine Rolle, ob ein Wort Buchstabe für Buchstabe rekodiert, oder auf andere Weise erkannt werde. Hoover und Gough (1990) vermuten, dass das Rekodieren vor allem am Beginn des Schriftspracherwerbs das Lesen dominiere, aber zunehmend durch effizientere Formen der Worterkennung abgelöst werde, die sie jedoch nicht näher spezifizieren.

Hörverstehen hingegen stelle die Fähigkeit dar, einen Satz syntaktisch zu analysieren, dessen Bedeutung zu erfassen und ihn mit den umgebenden Sätzen in Verbindung zu setzten (Gough, Hoover & Peterson, 1996).

Trotz einiger Unterschiede hinsichtlich der verwendeten Sprache (formell versus informell) und der Darbietungsmodalität (Punktation bei schriftlichem und Intonation bei auditivem Input) gehen Gough, Hoover & Peterson (1996) davon aus, dass der Prozess des Verstehens von schriftlich und auditiv dargebotener Sprache im wesentlichen identisch sei. Sie vertreten damit nach Marx und Jung (2000) eine monistische Position, die auch von Rost und Hartmann (1992) befürwortet wird. Anhänger der monistischen Position gehen davon aus, dass Verständnisprozesse prinzipiell modalitätsunabhängig sind (Rost, 1998). Unterschiede in modalitätsabhängigen Verständnisleistungen werden nach dieser Position auf zusätzliche lesespezifische Faktoren wie z.B. das Dekodieren von Buchstabenfolgen im Falle der Schriftsprache zurückgeführt.

Wenn das Hörverstehen voll ausgebildet ist, werde nach Hoover und Gough (1990) das Leseverstehen ausschließlich von der Fähigkeit zur Entschlüsselung einzelner Wörter determiniert. Es liege folglich beim Leseverstehen eine multiplikative Verknüpfung aus Hörverstehen und Dekodieren vor, denn nur wenn beide Fähigkeiten ausgeprägt seien, könne der Sinn eines Textes erfasst werden. Sie unterscheiden deshalb zwischen vier verschiedenen Untergruppen von Kindern, von denen sich drei durch schwaches Leseverstehen auszeichnen (siehe Tab. 1).

Tabelle 1
Mögliche Untergruppen von leseschwachen bzw. kompetenten Kindern nach Hoover & Gough (1990).
  Dekodieren
- +
Hörverstehen - "Garden-Variety-Poor-Reader"
Das Kind verfügt weder über effektive Worterkennung, noch über Hörverstehen. Es ist deshalb allgemein leseschwach.
"Hyperlexic"
Das Kind ist in der Lage, Schrift zu dekodieren, aber es kann das Gelesene nur unzureichend verstehen.
+ "Dyslexic"
Es liegt eine Lese-Rechtschreibstörung vor, da eine Diskrepanz zwischen Hör- und Leseverstehen vorliegt.
gut ausgeprägtes Leseverständnis
Sowohl das Dekodieren als auch das Hörverstehen ist gut ausgeprägt. Das Kind kann sinnentnehmend lesen.
Nur wenn sowohl Hörverstehen als auch die Fähigkeit zum Dekodieren ausgeprägt sind, ist das Kind in der Lage sinnentnehmend zu lesen.


Verschiedene Forschergruppen bestätigen den engen Zusammenhang zwischen Hör- und Leseverstehen (Rost & Hartmann, 1992; Marx & Jungmann, 2000, Rupley & Willson, 1997; Mommers, 1987), wobei gerade auch bei deutschsprachigen Leseanfängern die Dekodierleistung der begrenzende Faktor des Leseverständnisses zu sein scheint. Marx und Jungmann (2000) berichten von einer besonders starken Zunahme des Leseverständnisses im Vergleich zum Hörverstehen zwischen dem Ende der ersten und der Mitte der zweiten Klasse (siehe Abb. 10). Während das Hörverstehen von Klassenstufe zu Klassenstufe moderat zunimmt, vollzieht sich beim Leseverstehen eine besonders rasante Entwicklung, die auf die Automatisierung im Bereich des Dekodierens zurückgeführt werden kann. Dieser Einfluss des Dekodierens auf das Leseverständnis lässt sich über die gesamte Grundschulzeit hinweg bis zur sechsten Klasse nachweisen (Rost & Hartmann, 1992; Marx & Jungmann, 2000; Mommers, 1987; Ruply & Willson, 1997). Da im Durchschnitt die quantitative Ausprägung des Leseverstehens das Hörverstehen nicht erreicht, muss davon ausgegangen werden, dass das Vorliegen einer Hyperlexie im Vergleich zu anderen Formen schwachen Leseverstehens der seltenere Fall ist.



Abbildung 10
Mittelwertsvergleiche zwischen Hör- und Leseverstehen bei den verschiedenen Untersuchungsgruppen (Marx & Jungmann, 2000). Am ausgeprägtesten ist die Zunahme des Leseverstehens vom Ende der 1. zur Mitte der 2. Klasse.


Der Zusammenhang zwischen Hör- und Leseverstehen ist ab der zweiten Jahrgangsstufe substantiell, und bewegt sich im Bereich zwischen 0,60 und 0,65 (Marx & Jungmann, 2000, Rost & Hartmann, 1992). Das Hörverstehen scheint darüber hinaus für das Leseverstehen ein besserer Prädiktor zu sein als die sprachliche Intelligenz: während das Hörverstehen etwa 38 % der Varianz des Leseverstehens aufklärt, so ist der Anteil der sprachlichen Intelligenz mit etwa 28 % wesentlich geringer (siehe Abb. 11).




Abbildung 11
gemeinsame Varianzanteile von sprachlicher Intelligenz, Lese- und Hörverstehen (Rost & Hartmann, 1992)


Hoover und Gough (1990) prüften anhand der Daten einer älteren Studie ihr Modell. Im Vordergrund stand die Klärung der Fragestellung, welches Modell mehr Varianz im Bereich Leseverstehen aufklären könne: ein Modell mit einer additiven Verknüpfung von Hörverstehen und Dekodieren, oder eines mit einer multiplikativen Verknüpfung. Zwar konnte letzteres tatsächlich signifikant mehr Varianz aufklären, doch waren die Unterschiede marginal. Darüber hinaus erwies sich ein post-hoc erstelltes Modell, welches sowohl additive, als auch multiplikative Komponenten enthielt als den beiden anderen Ansätzen überlegen. Kritik entzündete sich unter anderem daran, dass die Stichprobe aus bilingualen Kindern bestand. Die Daten wurden mit englischen Testverfahren gewonnen, also in der Zweitsprache der Kinder.

Aus diesem Grund untersuchten Dreyer und Katz (1992) monolinguale Kinder mit demselben experimentellen Design und kamen im wesentlichen zu den gleichen Ergebnissen. Sie konnten ebenfalls keine Entscheidung für das additive oder das multiplikative Modell fällen, doch steht auch für sie die herausragende Bedeutung der beiden Faktoren Worterkennung und linguistische Kompetenz für das Leseverstehen außer Frage.

In der Folgezeit wurden diverse Modifikationen und Erweiterung für die Theorie des Simple-View of Reading angeregt, so z.B. das Component-Model-of-Reading (Joshi & Aaron, 2000) und die Rauding-Theory oder auch Simple-View-of-Reading II (Carver, 1993; Rupley, Willson & Nichols, 1998). Joshi und Aaron schlugen vor, zusätzlich die Dekodiergeschwindigkeit additiv mit in das Modell aufzunehmen, da sie bei ihrer Stichprobe mittels dieser Modifikation einen Zuwachs an Varianzaufklärung von 10% erzielten (57.76% statt 47.61%). Die Vorschläge von Rupley, Willson und Nichols gehen in eine ähnliche Richtung. Auch sie empfehlen, die Lesegeschwindigkeit als zusätzliche Komponente zu berücksichtigen.

>>> Zurück zur Übersicht



3.3 Niveaustufenmodelle

Rost, Czeschlik und van der Kooij (1986) analysierten die Daten von 220 Kindern der zweiten Jahrgangsstufe, die alle Subskalen des Diagnoseprogramms "Lesen und Verstehen" (Kalb, Rabenstein & Rost, 1979) durchlaufen hatten. Die Anwendung einer Faktorenanalyse erbrachte ein Zwei-Faktoren-Lösung, wobei der gewichtigste Faktor das Leseverstehen und der zweite, wesentlich unbedeutendere Faktor den Wortschatz repräsentierte. Es war also nicht möglich, das Leseverstehen in unterscheidbare Teilfähigkeiten aufzuspalten, und somit bot sich auch keine Möglichkeit, diese Teilfertigkeiten differentiell auszuwerten.

Zu einem ähnlichen Schluss kamen Andrich und Godfrey (1979) bei ihrer faktorenanalytischen Untersuchung der Unteraufgaben des F.B. Davis's reading comprehension test. Sie konnten darüber hinaus zeigen, dass im Falle einer Ein-Faktorenlösung die vorliegende Skala Rasch-skalierbar ist. Leseverständnis scheint somit ein einheitliches Konstrukt zu sein, das aber unterscheidbare quantitative Ausprägungen im Sinne von Niveaustufen aufweist.

In jüngerer Zeit wurde dieser Ansatz vor allem im Rahmen von internationalen Vergleichsstudien verfolgt. Zu diesen Studien gehören unter anderem die Untersuchungen der International Association for the Evaluation of Educational Achievement (IEA), an der Kinder im Alter von 9 und 14 Jahren teilnahmen (Elley & Canterbury, 1993; Wagenmaker 1992), der First International Adult Literacy Survey (OECD, 1995), welcher Alphabetismus an Erwachsenen untersuchte und der PISA-Studie (OECD 2001), die unter anderem das Leseverständnis von 15jährigen Schülern erfasste. Allen diesen Studien lag die im angelsächsischen Sprachraum weit verbreitete Literacy-Konzeption zugrunde, nach der die Beherrschung von Sprache und Schrift zu den basalen Kulturtechniken gehört und für eine befriedigende Lebensführung in persönlicher und wirtschaftlicher Hinsicht, sowie zur Teilhabe am gesellschaftlichen Leben notwendig ist (Artelt, Stanat, Schneider & Schiefele, 2001).

Die Autoren der PISA-Studie unterscheiden beispielsweise fünf "Kompetenzstufen" (OECD, 2001, S. 11). Schüler, die sich auf Stufe 1 ("Elementarstufe") befinden sind demgemäß in der Lage, Informationen eines Textes zu entnehmen, sofern die Textart geläufig ist und die Aussagen sehr deutlich und möglichst ohne konkurrierende Informationen dargeboten werden. Schüler, die die Kompetenzstufe 6 ("Expertenstufe") erreichen, können hingegen auch bei unbekannten Textarten tief eingebettete Informationen lokalisieren und organisieren. Sie sind in der Lage, "unter Bezugnahme auf spezialisiertes Wissen einen Text kritisch zu bewerten oder Hypothesen über Informationen im Text zu formulieren, auch wenn die relevanten Konzepte den Erwartungen widersprechen" (OECD, 2001, S. 11). Zur Bildung dieser Kompetenzstufen wurde auf das Rasch-Modell zurückgegriffen (Artelt, Stanat, Schneider & Schiefele, 2001). Schüler, die sich auf am unteren Ende einer Kompetenzstufe befinden lösten 62% der leichten und 42% der schweren Aufgaben dieser Stufe. Schülerinnen und Schüler am oberen Ende der Stufe meisterten hingegen die leichten Aufgaben zu 78% und die schweren zu 68%. Wichtig ist wohlgemerkt, dass diese Konzeption auf das Textverständnis 15jähriger Schüler ausgelegt war, und sicher nicht auf Leseanfänger übertragen werden kann.



>>> Zurück zur Übersicht



4. Literaturangaben



Artelt, C., Baumert, J., Klieme, E., Neubrand, M., Prenzel, M., Schiefele, U., Schneider, W., Schümer, G., Stanat, P., Tillmann, K.-J., & Weiß, J. (2001). PISA 2000: Zusammenfassung zentraler Befunde [Internet]. verfügbar unter: http://www.mpib-berlin.mpg.de/pisa/ergebnisse.pdf [31.07.2002].

Artelt, C., Stanat, P., Schneider, W. & Schiefele, U. (2001). Lesekompetenz: Testkonzeption und Ergebnisse. J. Baumert, E. Klieme, M. Neubrand, M. Prenzel, U. Schiefele, W. Schneider, P. Stanat, K.-J. Tillmann & M. Weiß (Hrsg.), PISA 2000: Ba­siskompetenzen von Schülerinnen und Schülern im internationalen Vergleich (69 – 140). Opladen: Leske + Budrich.

AWMF (2003). Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften: Umschriebene Entwicklungsstörungen schulischer Fertigkeiten (F81) [Internet]. verfügbar unter: http://www.uni-duesseldorf.de/AWMF/ll/kjpp-017.htm (Datum des Zugriffs: 19.05.2004).

Balota, D. A. (1990). The Role of Meaning in Word Recognition. In D. A. Balota, G. B. Flores d'Arcais & K. Rayner (Hrsg.), Comprehension processes in reading (9 – 32). Hillsda­le: Lawrence Erlbaum Associates.

Byrne, B., Freebody, P., & Gates, A. (1992). Longitudinal data on relations of word-reading strategies to comprehension, reading time, and phonemic awareness. Reading Research Quarterly, 27, 140-151.

Christman, U. & Groeben, N. (1999). Psychologie des Lesens. In B. Franzmann & G. Jäger (Hrsg.), Handbuch Lesen (145 – 223). München: Saur.

Coltheart, M. & Rastle, K. (1994). Serial Processing in Reading Aloud: Evidence for Dual-Route Models of Reading. Journal of Experimental Psychology: Human Perception and Performance, 20(6), 1197 – 1211.

Ferstl, E. & Flores d'Arcais, G. B. (1999). Das Lesen von Wörtern und Sätzen. In A. D. Frederici (Hrsg.), Enzyklopädie der Pychologie, Serie 3. Sprache, Bd. 2. Sprachrezeption (203 – 242). Göttingen: Hogrefe.

Fletcher, J. M., Morris, R., Lyon, G. R., Stuebing, K. K., Shaywitz, S. E., Shankweiler, D. P., Katz, L. & Shaywitz, B. A.(1997). Subtypes of Dyslexia: An Old Problem Revisited. In B. Blachman (Hrsg.), Foundations of reading acquisition and dyslexia: implications for early intervention (115 – 141). New Jersey: Lawrence Erlbaum Associates.

Flores d'Arcais, G. B. (1990). Parsing principles and language comprehension during reading. In D. A. Balota, G. B. Flores d'Arcais & K. Rayner (Hrsg.), Comprehension processes in reading (435 – 360). Hillsdale: Lawrence Erlbaum Associates.

Gold, A., Mokhlesgerami, J., Rühl, K., Schreblowski, S., & Souvignier, E. (2004). Wir werden Textdetektive [Lehrermanual & Arbeitsheft]. Göttingen: Vandenhoeck & Ruprecht.

Grimm, H. (1998). Sprachentwicklung – allgemeintheoretisch und differentiell betrach­tet. In R. Oerter & L. Montada (Hrsg.), Entwicklungspsychologie: Ein Lehrbuch (4. Auflage) (705 – 757). Weinheim: Beltz.

Kalb, G., Rabenstein, R. & Rost, H. (1979). Lesen und Verstehen – Diagnose. Braun­schweig: Westermann.

Kendall, J. R., & Hood, J. (1979). Investigating the relationship between comprehension and word recognition: Oral reading analysis of children with comprehension or word recognition disabilities. Journal of Reading Behavior, 11(1), 41-48.

Klicpera, Ch. & Gasteiger-Klicpera, B. (1995). Psychologie der Lese- und Recht­schreibschwierigkeiten: Entwicklung, Ursachen, Förderung. Weinheim: Beltz.

Küspert, P. & Schneider, W. (1998). Würzburger Leise Leseprobe (WLLP): Ein Grup­penlesetest für die Grundschule. Göttingen: Hogrefe.

Lenhard, W., & Schneider, W. (2005). ELFE 1-6: Ein Leseverständnistest für Erst- bis Sechstklässer. Göttingen: Hogrefe.

Lienert, G. & Raatz, U. (1998). Testaufbau und Testanalyse (6. Auflage). Weinheim: Psychologie Verlags Union.

Marx, H. (1998). Kuspels Leseaufgaben (Knuspel-L). Göttingen: Ho­grefe.

Mastropieri, M., & Scruggs, T. (1997). Best Practice in Promoting Reading Comprehension in Students with Learning Disabilities. Remedial and Special Education, 18, 197-213.

McNamara, T. P., Miller, D. L. & Bransford, J. D. (1991). Mental Models and Reading Comprehension. In T. P. McNamara, D. L. Miller, J. D. Bransford & R. Barr (Hrsg.), Hand­book of Research on Reading, Vol 2 (490 – 511). Hillsdale: Laurence Erlbaum Associates.

Mitchell, D. C., Corley, M., Garnham, A. (1992). Effects of Context in Human Sentence Pasing: Evidence Against a Discourse-Based Mechanism. Journal of Experimental Psy­chology: Learning, Memory and Cognition. 18(1), 69 – 88.

Morris, R. D., Stuebing, K. K., Fletcher, J. M., Shaywitz, S. E., Lyon, G. R., Shank­wei­ler, D. P., Katz, L., Francis, D. J. & Shaywitz, B. A. (1998). Subtypes of Reading Dis­abilli­ty: Variability Around a Phonological Core. Educational Psychology, 90(3), 347 – 373.

Näslund, J. C., & Schneider, W. (1996). Kindergarten letter knowledge, phonological skills, and memory processes: Relative effects on early literacy. Journal of Experimental Child Psychology, 62, 30-59.

Oakhill, J. & Garnham, A. (1988). Becoming a skilled reader. Oxford: Blackwell.

OECD (1995). Literacy, Economy and Society. Results of the first International Adult Literacy Survey. Ontario: OECD.

Palincsar, A.S. & Brown, A.L. (1984). Reciprocal teaching of comprehension-fostering and comprehension-monitoring activities. Cognition and Instruction, 1, 117-175.

Paris, S.G., Cross, D.R. & Lipson, M.Y. (1984). Informed strategies for learning: A program to improve children’s reading awareness and comprehension. Journal of Educational Psychology, 76 (6), 1239-1252.

Pinker, S. (1998). Der Sprachinstinkt. München: Knaur.

Richter, S. (2002). Schreibwortschatz von Grundschulkindern. Bayerisches Korpus. Regensburg: Roderer.

Richter, T. & Groeben, U. (2002). Lesekompetenz: Prozessebenen und interindividuelle Unterschiede. In N. Groeben & B. Hurrelmann (Hrsg.), Lesekompetenz: Bedingungen, Dimensionen, Funktionen (25-58). Weinheim: Juventa.

Schaffner, E., Schiefele, U., & Schneider, W. (2004). Ein erweitertes Verständnis der Lesekompetenz: Die Ergebnisse des nationalen Ergänzungstests. In U. Schiefele, C. Artelt, W. Schneider & P. Stanat (Hrsg.), Struktur, Entwicklung und Förderung von Lesekompetenz (197-243). Wiesbaden: VS-Verlag.

Schneider, W. (2004).Frühe Entwicklung von Lesekompetenz: Zur Relevanz vorschulischer Sprachkompetenzen. In U. Schiefele, C. Artelt, W. Schneider, & P. Stanat (Hrsg.), Struktur, Entwicklung und Förderung von Lesekompetenz: Vertiefende Analysen im Rahmen von PISA 2000 (13-36). Wiesbaden: VS Verlag.

Schneider, W., & Näslund, J.-C. (1997). The early prediction of reading and spelling: Evidence from the Munich Longitudinal Study on the genesis of individual competencies. In C. K. Leong, R. Joshi (Hrsg.), Cross-language studies of learning to read and spell (139-159). Dordrecht: Kluwer Academic Publishers.

Schwippert, K., Bos, W., & Lankes, E.-M. (2003). Heterogenität und Chancengleichheit am Ende der vierten Jahrgangsstufe im internationalen Vergleich. In W. Bos, E.-M. Lankes, M. Prenzel, K. Schwippert, R. Valtin, & G. Walther (Hrsg.), Erste Ergebnisse aus IGLU: Schülerleistungen am Ende der vierten Jahrgangsstufe im internationalen Vergleich (265-302). Münster: Waxmann.

Stanovich, K., Siegel, L., Gottardo, A., Chiappe, P. & Sidhu, R. (1997). Subtypes of Developmental Dyslexia: Differences in Phonogical and Orthographic Coding. In B. Blachman (Hrsg.), Foundations of reading acquisition and dyslexia: implications for early intervention (115 – 141). New Jersey: Lawrence Erlbaum Associates.

Statistisches Bundesamt (2005). Gebiet und Bevölkerung [Internet]. verfügbar unter: http://www.statistik-portal.de/Statistik-Portal/de_jb01_jahrtab1.asp [11.04.2005].

Swanson, H. (1999). Reading research for students with LD: A meta-analysis of intervention outcomes. Journal of Learning Disabilities, 32, 504-532.

Taraban, R. & McClelland, J. L. (1990). Parsing and comprehension: A multiple-con­traint view. In D. A. Balota, G. B. Flores d'Arcais & K. Rayner (Hrsg.), Comprehension processes in reading (231 – 264). Hillsdale: Lawrence Erlbaum Associates.



>>> Zurück zur Übersicht



5. Tabellarischer Überblick über Lesetests


Die folgende Auflistung zeigt aktuelle Lesetests, die im deutschsprachigen Raum erhältlich sind, oder zumindest angewendet werden. Die meisten der Verfahren sind in der http://www.testzentrale.de, per Direktversand durch die Testautoren oder per Internet erhältlich.



Name Kurz-
bezeich-
nung
Auflage, Anwen-
dung seit
Alters-
bereich
Beschrei-
bung
Autor Angaben
zur Test-
normie-
rung
Ein Leseverständnis-
test für Erst- bis Sechstklässer
ELFE 1-6 ab Februar 2006 Ende 1. bis Ende 6. Klasse Leseverständnistest, der das Verständnis auf Wort-, Satz- und Textebene erfasst. Verfügbar als Computer- und Papier- und Bleistiftversion. W. Lenhard & W. Schneider Klassen-
normen
Reliabilität
Validität
N = 4893
Frankfurter Leseverständnis-
test für 5. und 6. Klassen
FLVT 5-6 2008 Klasse 5 und 6 Ein narrativer und ein expositorischer Text mit jeweils 18 Multiple-Chioce-Fragen E. Souvignier, I. Trenk-Hinterberger, S. Adam-Schwebe und A. Goldr Klassen-
normen (jeweils 2. Halbjahr)
interne Konsistenz
Validität
N = 2476
Lesegeschwindig-
keits- und verständnistest für die Klassenstufen 6-12
LGVT 6-12 2007 Klasse 6 - 12 Ermittlung des Leseverständnisses und der Lesegeschwindigkeit anhand des Lesens eines Lückentextes. An 23 Stellen im Text ist eine Lücke und die Schüler müssen das in die Lücke passende Wort aus einer Liste von 3 Wörtern markieren. W. Schneider, M. Schlagmüller und M. Ennemoser Klassen- und Schulnormen
Reliabilität
Validität
N = 2390
Salzburger Lese-Screening für die Klassenstufen 1-4 SLS 1-4 In Anwen-
dung seit 2003
Ende der 1. bis Ende der 4. Klasse Liste sehr einfacher richtiger und falscher Sätze (z.B. Bananen sind blau), die möglichst schnell gelesen und nach ihrer Richtigkeit beurteilt werden sollen. Liefert das SLS 1-4 einen Wert im unteren Leistungsbereich, sollte anhand des SLRT die Problematik weiter aufgeklärt werden. H. Mayringer und H. Wimmer Klassen-
normen
Reliabilität
Validität
N = 1867
Salzburger Lese-Screening für die Klassenstufen 5-8 SLS 5-8 In Anwen-
dung seit 2005
Ende der 5. bis Ende der 8. Klassen-
stufe
analog SLS 1-4 M. Auer, G. Gruber, H. Mayringer und H. Wimmer Klassen-
normen
Reliabilität
Validität
N zwischen 714 und 850 pro Klassen-
stufe
Der Salzburger Lese und Rechtschreibtest SLRT In Anwen-
dung seit 1997.
Am Ende der 1. bis zum Ende der 4. Schulstufe. Verfahren zur differenziellen Diagnose von Schwächen beim Erlernen des Lesens und Schreibens; Erfassung zweier unterschiedlicher Komponenten des Lesens: Defizite in der automatischen, direkten Worterkennung und Defizite des synthetischen, lautierenden Lesens. Erfasst werden Lesezeit und Lesefehler K. Landerl, H. Wimmer und E. Moser Alters-
normen
Reliabilität
Validität
N=2800
Würzburger Leise Leseprobe WLLP 1. Auflage 1998 1. Bis 4. Klasse Worterkennung, Dekodier-
geschwindigkeit
P. Küspert
W. Schneider
Alters-
normen
Reliabilität
Validität
N=2820
Knuspels Leseaufgaben Knuspel-L 1. Auflage 1998 Ende des 1. Bis Ende des 4. Schuljahres Rekodieren und Dekodieren auf Wortebene
Leseverstehen auf Satzebene
H. Marx Alters-
normen
Reliabilität
Validität
Hamburger Lesetest für 3. und 4. Klassen HAMLET 3/4 2. Auflage 2006 Ende der 3. und Ende der 4. Klasse Wort-Test und Leseverständnistest (bestehend aus 10 Texten) R.H. Lehmann, R. Peek und J. Poerschke Alters-
normen
Reliabilität (eingeschränkt) Validität (eingeschränkt)
Lesen und Verstehen Diagnose und Training LUV 1. Auflage 1971 1. und 2. Klasse und ältere Kinder mit Leseschwäche Diagnose und Trainingsprogramm zum Thema sinnverstehendes Lesen G. Kalb, R. Rabenstein
D. H. Rost
Reliabilität
Lesetest für 2. Klassen LT 2 3. Auflage 1971 2. Halbjahr der 2. Klasse bis 1. Vierteljahr der 3. Klasse Untertests thematisieren das Verständnis beim stillen Lesen über Bild-Wort, Wort-Wort und Satz-Satz-Zuordnung -> Wortverständnis und Textverständnis E. Samtleben, F. Biglmaier, K. Ingenkamp Alters-
normen,
N = 729
Diagnostischer Lesetest zur Frühdiagnose von Lesestörungen DLF 12 In Anwen-
dung seit 1984
Ende 1. bis Mitte 2. Klasse Wortlesetest zur Früherfassung von Lesestörungen. Untertests umfassen "Speichern", "Synthese", "Analyse", "Segmentierung" R. Müller Reliabilität
Validität
N = 320
Stolperwörter-Lesetest STOLLE seit 2001 (?) 1. bis 4. Klasse Liste mit Sätzen, in denen ein "Störer" eingefügt wurde. Das falsche Wort muss erkannt und durchgestrichen werden. W. Metze angefallene Stichprobe; keine systematische, kontrollierte Validierung und Normierung
Züricher Lesetest ZLT 6. Auflage 2000 (neue Recht-
schrei-
bung)
2. Bis 6. Klasse jeweils im ersten Quartal, Diagnose von LRS Leseflüssigkeit und -genauigkeit
qualitativ-prozessuale Analyse des Leseverhaltens
M. Linder
H. Grissemann
Alters-
normen
N = 449
Züricher Leseverständnis-
test für das 4. Bis 6. Schuljahr
ZLVT 4 6 2. Auflage 2000 (neue Recht-
schrei-
bung)
4. Bis 6. Schuljahr sinnverstehendes Lesen, orale Lesefertigkeit, Dekodieren beim stillen Lesen und handlungsmäßige Überprüfung, Darbietung in Kombination mit ZLT H. Grissemann
W. Baumberger
Alters-
normen
N = 300





>>> Zurück zur Übersicht