3 Psychologische Grundlagen

Jedem Computerprogramm, das Wissen vermitteln soll, liegt — ob nun gewollt oder ungewollt — ein Lernmodell zugrunde.[1] Es macht sich dem Modell entsprechende Methoden und Verfahren zunutze, um der originären Aufgabe, Wissensvermittlung und Wissenserhalt, gerecht zu werden. Einige dieser Techniken, die heute noch Anwendung finden, sind so alt wie die Sprache selbst. Es sind Kulturen bekannt, die aufgrund fehlender Schrift Wissen mittels Geschichten und Sagen aufzeichneten, so daß sie Märchenerzähler hervorgebracht hatten, die bis zu 200.000 Geschichten gekannt haben.[2]

Auch in der Antike fanden Mnemotechniken[3] ihre Anwendung, hier vor allem in der Rhetorik. In Ciceros Dialog »Vom Redner« (De oratore), einem Lehrgespräch über die Rhetorik, werden z.B. unter anderem Fragen wie: Wer ist ein guter Redner? In welchem Umfang ist Fachwissen eine Vorbedingung des Erfolges? erortert. Dort betont z.B. Crassus mit den Worten »...die bekannte Methode mit den Örtern und Bildern...«[4] die Anwendung der sogenannten Loci-Methode[5] als einen wichtiges Hilfsmittel.

Dieser Abschnitt stellt grundsätzliche lerntheoretische Überlegungen dar. Desweiteren wird ein kurzer Überblick zu den im Hinblick auf die Analyse und Beurteilung von Lernsoftware wichtigsten psychologischen Schulen gewährt, die maßgeblich die Erziehungswissenschaften dieses Jahrhunderts beeinflußt haben:[6] Behaviorismus, Kognitivismus und Konstruktivismus.

3.1 Wissen und Lernen

Wissen und Lernen sind Begriffe, die, wie Baumgartner & Payr betonen, in engem Zusammenhang betrachtet werden müssen. Während Lernen als ein aktiver Prozeß betrachtet werden kann, ist das Wissen eher als dessen Ziel und Ergebnis anzusehen.[7] Wissen darf aber nach Baumgartner & Payr keinesfalls als ein rein statisches Wissen verstanden werden, sondern vielmehr als ein »...komplexes, vernetztes und dynamisches System, dessen Struktur wir erforschen und verstehen müssen«.[8]

Folgt man Gilbert Ryle, so existieren ein deklaratives und ein prozedurales Wissen. Unter ersterem (»knowing that«) wird ein statisches Faktenwissen verstanden, das als Proposition (Inhalt einer sprachlichen Äußerung) oder als bildliche Darstellung repräsentiert wird. Man stellt sich dieses Wissen als ein Netzwerk von Knoten vor, die durch ihre Verbindungen in bestimmten Relationen zueinander stehen.[9] Das prozedurale Wissen (knowing how) steht dagegen für ein dynamisches Wissen, dem Wissen wie ein bestimmtes Ergebnis erreicht werden kann. Es wird im wesentlichen durch die drei Eigenschaften Zielgerichtetheit, Zerlegung eines Gesamtzieles in Teilziele sowie der Wahl und Beschreibung der für die Umsetzung der Teilziele notwendigen Operationen (Handlungen) charakterisiert. Es handelt sich um die Fähigkeit der Problemlosung, einem wesentlichen Aspekt der Intelligenz.[10]

Wie schon eingangs erwähnt, kann Wissen in verschiedener Form repräsentiert sein. Neben dem aussprechbaren (propositionalen) Wissen besitzen wir auch solches, das wir nicht verbal benennen konnen. Dieses implizite Wissen kommt beispielsweise zur Geltung, wenn es um das Erkennen von Gesichtern geht. Zwar kann man Menschen auch nach Jahren wiedererkennen, doch ist es nicht moglich eben jenes Wissen zu benennen, das für die Wiedererkennung verantwortlich ist.

3.2 Behaviorismus

Die Entwicklung von Lernmaschinen und Lernumgebungen ist sehr stark von den behavioristischen Lehrstrategien geprägt worden. Hervorzuheben sind in diesem Zusammenhang die Arbeiten von Edward L. Thorndike und Burrhus F. Skinner, auf die im folgenden noch näher eingegangen werden soll. Die von J.B. Watson im Jahre 1913 begründete Richtung der Psychologie forderte, die Introspektion, also die Beschreibung und Analyse nur innerseelisch beobachtbarer Vorgänge, als unwissenschaftlich aufzugeben und sich ausschließlich mit der Messung des Verhaltens zu befassen.[11] Der menschliche Geist ist aus der Betrachtung herausgenommen worden, indem das Gehirn als eine »black box« aufgefaßt wird, das einen Input (Stimulus S) erhält und darauf deterministisch reagiert (Response R).[12]

Behavioristische Lehrstrategien gehen davon aus, daß der Lehrende genau weiß, welche Inhalte zu vermitteln sind. Lernen wird in diesem Sinne als konditionierter Reflex gesehen, der durch Adaption erworben wird.[13] Obwohl diese auf einfachen Stimulus-Response-Schemata basierenden Theorien in der Wissenschaft lange Zeit vorherrschend waren, erwiesen sie sich im Hinblick auf die Erklärung des menschlichen Lernprozesses dennoch als ungenügend. Gleichwohl wird diesen Ansätzen eine gewisse Daseinsberechtigung zugesprochen, dann nämlich, wenn es um das Üben solcher Fertigkeiten wie das Klavierspiel oder das Sprechenlernen geht.[14]

 

3.2.1 Edward L. Thorndikes »trial and error«

Thorndike führte im gewissen Sinne Watsons Ansatz des Behaviorismus weiter.[15] Aufgrund seiner Experimente mit Katzen formulierte er das Effektgesetz (Gesetz der Auswirkung: law of effect):

Verhaltensweisen (als S-R-Verbindungen) treten dann mit hoherer Wahrscheinlichkeit auf, wenn sie in der Vergangenheit zu einem befriedigenden Resultat geführt haben.[16]

Danach wird in einer Situation, in der mehrere Reaktionen ausgeführt werden konnen, diejenige Reaktion stärker mit der Situation verbunden, die den befriedigendsten Zustand bewirkt. Eine Umkehrung des Satzes ist ebenfalls gültig, wonach eine Reaktion, die einen unangenehmen Zustand bewirkt, die Verbindung zur Situation abschwächt.[17]

Mit dem »Frequenzgesetz« (Gesetz der Übung: law of exercise) formulierte Thorndike die zweite Säule seiner Lehre:

Unter gleichen Bedingungen wird jede Reaktion auf eine Situation um so stärker mit der Situation verknüpft sein, je häufiger sie mit ihr in Verbindung gebracht wurde und je intensiver und anhaltender diese Verbindungen sind.[18]

Dem Üben durch Wiederholung wurde eine überaus wichtige Rolle zugedacht. Thorndike zog auch, ohne es allerdings zunächst zu erwähnen, den Gedanken der Motivation durch Belohnung bei Erreichen einer geforderten Leistung mit ein.[19]

3.2.2 Burrhus F. Skinners »Operante Konditionierung«

Skinner griff die Ideen von Pawlow, Thorndike sowie Guthrie auf und führte sie einem System für den praktischen Einsatz zu, ohne prinzipiell neue theoretische Annahmen zu machen.[20] Merkmal seiner Ausführung ist die Unterscheidung in »klassische« Konditionierung (Reiz-Reaktion-Kopplung), deren Reaktion eine ausgeloste Reaktion ist, sowie dessen Gegenstück, dem »Operanten Verhalten«, das durch eine abgegebene Reaktion einen Reiz der Umgebung (z.B. Belohnung) auslost.[21] Aufgrund des Operanten Verhaltens entwickelte Skinner das »Programmierte Lernen« und formulierte dazu 1958 sieben wichtige pädagogische Schritte:[22]

  1. Auf jede Antwort muß unmittelbar eine Rückmeldung erfolgen.
  2. Alle Schüler sollten eine Unterrichtseinheit jeweils in ihrem personlichen Lerntempo bewältigen.
  3. Die Lernziele müssen klar und objektiv formuliert werden, damit gezielte Rückmeldungen und Belohnungen gegeben werden konnen.
  4. Aufgaben sollten so gestellt werden, daß sie mit hoher Wahrscheinlichkeit gelost werden. Dadurch werden Frustrationen vermieden und die Anzahl derjenigen Antworten erhoht, die verstärkt werden konnen.
  5. Der Unterrichtsstoff muß in eine Abfolge von Frage- und Antwort-Kombinationen gebracht werden. Diese »Rahmen« sollten von leichten zu schwierigen Inhalten fortschreiten und den Stoff aus moglichst unterschiedlichen Blickwinkeln angeben.
  6. Die Lernenden sollen moglichst aktiv sein und Fragen und Aufgaben auch wirklich bearbeiten.
  7. Besonders ausdauerndes und gutes Arbeiten sollte durch eine Reihe von Zusatzbelohnungen bekräftigt werden.

Diese Regeln sind zum Teil heute noch Grundlage vieler Softwareentwicklungen. Niegemann gibt in diesem Zusammenhang zu bedenken, daß trotz der Kritik an Skinners programmiertem Lernen die Bedeutung der oben aufgeführten Punkte für die Entwicklung von Lernsoftware nicht zu unterschätzen sind. Sie genießen noch immer einen gewissen Stellenwert, wenn auch aus anderen Gründen.[23]

3.3 Kognitivismus

Schon in den dreißiger Jahres unseres Jahrhunderts wurde durch verschiedenste Experimente nachgewiesen, daß gelerntes Verhalten nicht zwangsläufig unmittelbar umgesetzt wird.[24] Es kann durchaus im Gedächtnis gespeichert bleiben und zu einem vollig anderem Zeitpunkt angewendet werden. Solche Lernvorgänge, denen kein beobachtbares Verhalten zugesprochen werden kann, konnen von den behavioristischen Theorien nicht beschrieben werden.[25] Da deren Positionen so nicht mehr zu halten waren, wandten sich viele Forscher den kognitiven Lerntheorien zu. Die Kognitionspsychologie sieht das Gehirn nicht mehr als eine »black box« an, bei der nur Input und Output von Interesse sind, statt dessen wird versucht, für die bei den Behavioristen so verponten[26] inneren Denk- und Entscheidungsprozesse ein theoretisches Modell zu entwickeln.[27] Im Gegensatz zum Behaviorismus, der in Weiterführung Thorndikes Ideen eine klassische Konditionierung in der Verbindung von instrumentellem Verhalten mit Belohnung sah, wird in der Kognitionspsychologie angenommen, daß ein innerer Zustand hervorgerufen wird, der dann eine Reaktion auslost.[28]

Es gibt eine ganze Reihe unterschiedlicher Ansätze in der Kognitionspsychologie. Allerdings orientiert sich die überwiegende Mehrheit am Paradigma der Informationsverarbeitung.[29] So gesehen sind auf einer abstrakten Ebene Computer und Gehirn äquivalent, woraus auch eine enge Beziehung zwischen Kognitivismus und dem Forschungsgebiet der »Künstlichen Intelligenz« resultiert.[30]

Lernprozesse werden durch innere Faktoren wie geistiges Fähigkeitsniveau und Erkenntnisprozesse erklärt.[31] Da es dem Menschen nicht vergonnt ist, in das Gehirn hineinzuschauen und die Informationsflüsse direkt zu beobachten, müssen Erklärungen für solche Denkprozesse wie Lernen aufgrund von indirekten Beobachtungen aufgestellt werden. Bei Untersuchungen hat sich der Computer als hilfreiches Medium erwiesen — ein weiteres Indiz seiner Nähe zum Kognitivismus.[32] Dem Gehirn wird, anders als im Behaviorismus, eine eigene Verarbeitungs- und Transformationskapazität zugestanden. Es kann in gewissem Sinne als ein informationsverarbeitendes Gerät, wie es der Computer darstellt, gesehen werden. Problemlosung wird nun nicht mehr als eine, aufgrund eines Stimulus produzierte, Antwort gesehen, sondern es geht viel allgemeiner darum, »... richtige Methoden und Verfahren zur Problemlosung zu lernen, deren Anwendung dann erst die (eine oder mehreren) richtigen Antworten ergeben«.[33]

Die Forschung hat mit der Zeit eine Fülle neuen Lernarten wie Regellernen, Beobachtungslernen, Handlungslernen oder Transferlernen entdeckt. Aus heutiger Sicht ist es nicht mehr sinnvoll, für jede Art der beobachtbaren Wissensaneignung eine eigene Lernart zu definieren. Wichtig ist die Feststellung, daß es sehr vielfältige Formen des einsichtigen Lernens gibt - vom Erlernen einfacher Regeln und Zusammenhänge bis hin zu komplexen Problemlosungen.[34] Allerdings soll hier kurz auf die Lehre des Jean Piaget eingegangen werden, da sie doch großen Einfluß auf die Lernsoftwareentwicklung gehabt hat und auch immer noch hat.

 

Jean Piaget und der Schemabegriff

Ein führender Vertreter der Kognitionspsychologie war Jean Piaget. Sein Ansatz hat auf eine ganze Generation von Lehrsystementwicklern einen nachhaltigen Einfluß ausgeübt. Einer der bekanntesten unter ihnen ist Saymour Papert mit der Programmiersprache LOGO.[35]

Piaget führte den Schemabegriff in die Psychologie ein:

Schema ist für Piaget die kleinste Einheit, auf der menschliches (und weitestgehend auch tierisches) Verhalten aufbaut. Es ist entweder, wie der Reflex oder die Instinkthandlung, angeboren oder aufgrund vorangegangener Erfahrungen erworben.[36]

Er machte drei verschiedene Formen aus: sensomotorische Schemata, kognitive Schemata sowie Evaluationsschemata. Die kognitiven Schemata wurden weiter in Klassifikations- und Erklärungsschemata unterschieden.[37]

Piaget ging davon aus, daß ein Individuum in jeder Lebenssituation bemüht ist, ein großtmogliches Gleichgewicht zwischen dem Organismus und seiner Umwelt herzustellen. Es ist bemüht, eine maximale Anpassung (Adaptation) zu erreichen. Entwicklung, wie auch Lernen, ist damit das Fortschreiten von Zuständen labileren Gleichgewichts zu Zuständen stabileren Gleichgewichts.[38] Eine solche Adaptation kann grundsätzlich durch Assimilation erfolgen, d.h. Einfügung einer Umweltinformation in ein bereitstehendes Schema, oder durch Akkommodation, der Veränderung und Abstimmung eines Schemas mit einer Umwelterfahrung.[39]

Als Ergebnis seiner Forschungen stellte Piaget die Stufenlehre der Entwicklung auf. Mit ihr postulierte er eine mit dem Alter wachsende Intelligenz:[40]

  • Stufe 1: Sensomotorische Intelligenz (bis zum 2. Lebensjahr).
  • Stufe 2: Vorbegrifflich-symbolisches Denken (2. bis 4. Lebensjahr).
  • Stufe 3: Anschauliches Denken (4. bis 7. Lebensjahr).
  • Stufe 4: Konkrete Operationen (7. bis 12. Lebensjahr).
  • Stufe 5: Formale Operationen (ab dem 12. Lebensjahr).

Festgemacht sind die Stufen an dem Begriff der Operation als verinnerlichte Handlung mit maximaler Mobilität (Reversibilität und Assoziativität); mit der Hohe der Stufe wächst auch das Abstraktionsvermogen und die Mobilität, mit jeder Handlungseinheit geht ein eigener Lernprozeß einher, der auch zu einem (Wissens-) Transfer auf andere Bereiche führen kann.[41]

3.4 Konstruktivismus

In den USA begann man sich während des Zweiten Weltkrieges mit der Kybernetik zu beschäftigen. Es ging dabei um Probleme der Selbstregulierung, Autonomie und Formen der hierarchischer Strukturen,[42] Eigenschaften, die zunächst vor allem das Militär interessierten.[43] Aufgrund der Erfahrungen entstand die konstruktivistische Idee, derzufolge das Lernen als ein aktiver Prozeß gesehen wird, »...bei dem Menschen ihr Wissen in Beziehung zu ihren früheren Erfahrungen (bzw.) Wissen in komplexen realen Lebenssituationen konstruieren.«[44] Der Konstruktivismus lehnt die Gültigkeit einer sogenannten »objektiven« Beschreibung oder Erklärung der Realität ab, er verneint also die Moglichkeit einer unabhängigen Wahrnehmung der Wirklichkeit. Realität wird vielmehr als eine interaktive Konzeption verstanden, in der Beobachter und Beobachtetes gegenseitig und strukturell miteinander gekoppelt sind.[45]

Lernmodell des Konstrukdivismus

Abb. 3.1: Lernmodell des Konstruktivismus. Quelle: Baumgartner, Peter & Payr, S. (1994): Lernen mit Software. Digitales Lernen. Österreichischer StudienVerlag, Innsbruck. S. 108.

Das Hauptaugenmerk des Kognitivismus liegt im Losen von Problemen. Eine Schwäche dieses Ansatzes liegt indessen gerade im Postulat des definierten Problems, denn wann bietet sich ein sauber definiertes Problem schon an? Meist muß es aus der Situation heraus und entsprechend konstruiert werden:

Die Leistung des Praktikers besteht gerade darin, daß er einer unsicheren, instabilen Situation durch die Konstruktion beziehungsweise Implementierung einer gewissen Sichtweise (=Problemsicht) erst Sinn gibt.[46]

Der menschliche Organismus wird vom Konstruktivismus als ein informationell geschlossenes System betrachtet. Ein solches System ist »...autonom strukturdeterminiert...« und beruht »...auf zirkuläre Kausalität und Selbstreferentialität«.[47] Wie in Abbildung 3.1 dargestellt, führen solche Systeme keinen Informationsaustausch durch, sie stehen lediglich in einer energetischen Austauschbeziehung, in der jedes System selbst jene Informationen erzeugt, die es im Prozeß der eigenen Kognition verarbeitet.[48]

Lernen wird als aktiver und vor allem konstruktiver Prozeß verstanden, in dessen Vordergrund die personliche Erfahrung des Lernenden gestellt wird. Er läuft stets in bestimmten Situationen ab (situativer Lernprozeß) und umfaßt auch soziale Komponenten (sozialer Lernprozeß).[49] Der Lehrende erhält die Rolle eines Trainers oder Coaches, eines Subjekts, das aufgrund seiner Erfahrung Wissen vermittelt. Er ist eine Gestalt, die durchaus Fehler machen kann und darf.[50]

3.5 Das fünfstufige Lernmodell der Brüder Dreyfus

Dreyfus & Dreyfus formulierten 1987 ihr hierarchisches Modell unter dem Gesichtspunkt eines Entwicklungsprozesses.[51] Es besagt, daß sich der Lernende schrittweise ein immer besseres Verständnis einer Sache aneignet. Am Anfang steht lediglich das statische Faktenwissen, am Ende dieses Prozesses steht das Expertentum.[52] Moderne Ansätze zur Lernsoftware-Entwicklung bedienen sich dieses Modells, wie auch Baumgartner & Payr ihre Überlegungen darauf stützen:

Neuling (Novice): Wie schon der Name dieser Stufe verdeutlicht, hat der Lernende mit der Sache noch keine Erfahrungen gemacht. Als Einstieg werden ihm lediglich vom Kontext losgeloste Fakten und Regeln vermittelt bzw. übermittelt. Der Neuling lernt, »objektive« Fakten zu erkennen, zu unterscheiden und wie sie handlungsrelevant einsetzbar sind. Dieses Wissen (knowing that) ist abstrakt und meistens praxis- und realitätsfremd.

Anfängertum (Advanced Beginner): Nach der Rezeption des statischen Faktenwissens folgt das Sammeln von eigenen Erfahrungen mit dem erlernten Wissen. Dies geschieht meist durch Anwendung relevanter Regeln, die allerdings in einem kontextfreien Raum stehen. Statt zu rezitieren werden die erlernten Fakten nun miteinander in Zusammenhang gebracht, aus dem »knowing that« entsteht ein — wenn auch noch rein theoretisches - »knowing how«.

Kompetenz (competence): Der Lernende dieser Stufe wendet erstmals die vorher gelernten Regeln sinnvoll und vor allem zielorientiert an. Je nach Situation wird aus einer Unmenge kontextfreier Regeln eine Auswahl getroffen, modifiziert und hierarchisch strukturiert. Hier wird zum ersten Mal eine aktive Komponente sichtbar, da kompetent Handelnde an einer Situation konstruktiv teilnehmen.

Gewandtheit (proficiency): Während die vorherige Stufe für ein distanziertes, reflektiertes Abwägen von Alternativen steht, zeichnet sich diese Ebene durch eine »...intuitive Fähigkeit, Muster (Patterns) zu benutzen, ohne sie in Komponenten zu zerlegen...«[53] aus. Informationen werden bereits von vornherein aus einer bestimmten Warte betrachtet und subsumiert.[54] Diese Art der Entscheidungsfindung anhand eines Deutungsschemas geschieht weder bewußt reflektiert noch distanziert. Sie basiert lediglich auf mannigfaltige und jahrelange personliche Erfahrungen des kompetenten Handelns.

Expertentum (expertise): Kennzeichen dieser Stufe ist eine korperliche Integration von Fertigkeiten. Die auf der vierten Ebene erworbenen intuitiven Fertigkeiten verwachsen regelrecht mit dem Korper, sie werden zu einem Bestandteil der Person. Interessanterweise erscheinen diese Fertigkeiten nun so, als ob sie gar keinen eigenen kognitiven Charakter hätten, es »passiert« ganz nebenbei. »Wenn keine außergewohnlichen Schwierigkeiten auftauchen, losen Experten weder Probleme noch treffen sie Entscheidungen; sie machen einfach das, was normalerweise funktioniert.«[55] Auf der Expertenstufe fällt es schwer, eine ausgeübte Fertigkeit nachträglich noch analytisch zu zerlegen und distanziert zu betrachten. In den meisten Fällen würde das auch einem augenblicklichen Verlust dieser Fertigkeit gleichkommen.[56]

3.6 Instruktion

Ziel von Instruktionsmaßnahmen ist es stets, bei Personen Lernprozesse in Gang zu setzen, aus denen bestimmte neue bzw. veränderte Verhaltensweisen resultieren.[57] Allgemeiner formuliert kann unter »Instruktion« auch »...die geplante Bereitstellung von Lernmoglichkeiten, um es bestimmten Personen zu ermoglichen, mehr oder weniger festgelegte Ziele zu erreichen...«[58] verstanden werden.

Instruktion umfaßt in ihrer Bedeutung vielfältige Begriffe wie Unterricht, Erziehung, Bildung, Lehre, Training, Unterweisung, Fortbildung, Weiterbildung, Personlichkeitsforderung, Personalentwicklung.[59] Da all diese verschiedenen Bezeichnungen mit unterschiedlichsten Assoziationen behaftet sind und je nach Kontext vollig anders verwendet werden konnen, bietet sich Instruktion als Sammelbegriff für die genannten Begriffe an.

Instruktion läßt sich in drei Ebenen unterscheiden.[60] Die erste Ebene bezieht sich auf beobachtbare Instruktionen und Instruktionsmaßnahmen. Dies ist der Fall, wenn z.B. eine Person ein Lernprogramm am Computer abarbeitet.

Die zweite Ebene stellt Regeln und Strategien dar, auf denen die beobachtbaren Instruktionen der ersten Ebene aufgebaut sind. Maßnahmen, die diese Ebene betreffen, werden auch als »Instruktionsdesign« (ID) bezeichnet.

Auf der dritten Ebene sind die theoretischen Konzepte anzutreffen, die den verschiedenen Methoden und Modellen der Gestaltung von Instruktion zugrundeliegen. Eine Theorie, deren Prinzipien für alle Methoden und Modelle gelten soll, wird auch als »Instruktionstheorie« bezeichnet.

3.6.1 Instruktionstheorie

Eine Instruktionstheorie beschreibt und erklärt die Beziehungen zwischen Modifikationen in der Lernumgebung und den resultierenden Veränderungen der Kompetenz und Einstellung der Lernenden.[61] Es handelt sich — trotz der Nähe zu den Lerntheorien — um prinzipiell eigenständige Theorien, mit sowohl präskriptiven als auch deskriptiven Komponenten. Das Verhältnis Instruktionstheorie zu Lerntheorie ist durchaus mit dem der Biologie zur Klinischen Medizin vergleichbar. Auf in der Praxis vorkommende Probleme lassen sich schwerlich allgemeingültige nomologische[62] Aussagen anwenden.[63] Daher stellen Instruktionstheorien nicht nur explizit theoretisch formulierte Handlungsanweisungen dar, sie bieten auch als technologische Theorien (Instruktionstechnologie) praxisrelevantes Hintergrundwissen an.[64]

 

3.6.2 Instruktionsdesign

Hiermit wird der gesamte Prozeß der Planung, Entwicklung und Gestaltung von Instruktionssituationen und -verläufen bezeichnet.[65] Es gibt verschiedene Sichtweisen des Instruktionsdesign, die sich vor allem im Umfang der an sie gestellten Aufgaben und Anforderungen unterscheiden. Zu den Aufgaben einer sehr umfassenden Konzeption des ID-Begriffs gehoren:[66]

  • Bedarfsanalysen, die den Soll-Zustand und die gesellschaftlichen Ziele mit dem Ist-Zustand vergleichen. Sie erfordern meist eine zumindest mittelfristige Planung bzw. Prognose gesellschaftlicher Entwicklungen.
  • Globalziele des Instruktionsdesign müssen anhand der vorausgegangenen Bedürfnisanalyse definiert werden.
  • Instruktionsanalysen, die Lehrstoff, -umwelt und Adressaten (wichtig ist z.B. die Ermittlung des Vorwissens der Zielgruppe) untersuchen sowie mittels Lehrstoffanalyse eine Sequenzierung der Lehrinhalte anhand theoretischer Modelle vornehmen.
  • Spezifikation der Lehrziele, es wird festgelegt, in welchem Ausmaß (Kompetenzgrad) der Lehrstoff von den Adressaten beherrscht werden soll.
  • Verfahren zur Kontrolle des Lernerfolges und zur Steuerung der Remediation, damit einerseits eine Rückmeldung des Lernfortschritts an den Lernenden erfolgen kann (von eminenter Bedeutung für Computerlernprogramme) und andererseits die Moglichkeit der Evaluation gegeben ist.
  • Instruktionsstrategien und Medienwahl, da mit der Medienwahl die Zahl der anwendbaren Strategien eingeschränkt werden kann, wie auch mit der Festlegung einer bestimmten Strategie in der Regel diverse Medien nicht in Frage kommen.
  • Materialproduktion, hierunter fällt auch die Gestaltung eines Computerlernprogramms.
  • Evaluation, die eine Verbesserung der Instruktionsstrategie bzw. Materialproduktion (formative Evaluation) zum Ziel haben kann, oder aber als eine abschließende, bewertende Überprüfung der Effektivität bzw. Effizienz der gesamten Instruktionsmaßnahme angelegt ist (summative Evaluation).
Taxonomy upgrade extras: 

Kommentare

Ich benötige dringend Eure Hilfe. Ihr seid ja Spezialisten auf dem Gebiet des Konstruktivismus - bitte beantwortet mir folgende Frage: Wie wird der Begriff Emotion/Gefühl in der Erziehungswissenschaft in konstruktivistischer Sich gesehen und wie aus der systehmtheoretischer Sicht?

Ich muß eine Fachbereichsarbeit ("Emotionale Bildung - Sensitivität aus konstruktivistischer und systemtheoretischer Sicht") verfassen und steh a bisserl daneben. Können Sie mir weiterhelfen?????

BITTE, BITTE mit freundlichen Grüßen: Monika König

Neuen Kommentar schreiben