ChapterPDF Available

Der Einfluss universitär vermittelter professioneller Kompetenzen auf das Handeln in unterrichtlichen Erklärsituationen

Authors:

Abstract

Erklären ist eine Standardsituation des Unterrichtens von Physik. Dazu wurden im Projekt ProfiLe-P handlungsorientierte Tests entwickelt (sog. Performanztests), bei denen angehende Lehrkräfte (N = 198) in standardisierten Situationen Physik erklären mussten. Es wurde die Qualität ihres Handelns in Erklärsituationen ausgewertet und u.a. der Einfluss von Fachwissen und fachdidaktischem Wissen auf die Handlungsqualität analysiert. Zwar ist das Handeln in Erklärsituationen nur ein ausgewählter Aspekt von Unterrichtshandeln, aber durch das standardisierte Testverfahren für diesen Bereich können nunmehr detaillierte Analysen vorgenommen werden. U.a. legen die Ergebnisse nahe, dass fachdidaktisches Wissen den Einfluss von Fachwissen auf Erklärqualität mediiert. Es wird diskutiert, auch andere Standardsituationen durch handlungsorientierte Tests statt durch Videobeobachtungen von Unterricht abzubilden. Wenn der Einfluss von professioneller Kompetenz untersucht werden soll, könnten so typische Probleme von Videostudien umgangen werden (z.B. Einfluss von Rahmenbedingungen wie Stundenlage).
Christoph Kulgemeyer1
1Universität Bremen


Der Zusammenhang von Professionswissen bzw. professioneller Kompetenz von
Physiklehrkräften einerseits und der Handlungsqualität in Unterrichtssituationen ist
empirisch nicht geklärt (Vogelsang & Reinhold, 2013; Cauet et al., 2015). Das ist ein
Kernproblem für die Lehrerausbildung. Die gesamte (universitäre) Ausbildung hat das Ziel,
professionelles Wissen bzw. professionelle Kompetenzen in den drei Bereichen Fach,
Fachdidaktik und Pädagogik zu entwickeln. Quasi-Längsschnitte legen auch nahe, dass im
Verlaufe des Studiums solche Entwicklungen stattfinden (z.B. Riese, 2009). Ob diese drei
Bereiche jedoch überhaupt Ressourcen sind, aus denen eine Physiklehrkraft während des
unterrichtlichen Handelns gewinnbringend schöpfen kann, ist nicht genügend geklärt – noch
weniger klar ist die Frage, welche Aspekte professionellen Wissens für welche
Handlungssituation verwendet werden können. Als Folge ist so auch unbekannt, ob und
unter welchen Bedingungen Quereinsteigerprogramme zu einem Standardweg werden
können, den Lehrberuf zu ergreifen bzw. in welchen Bereichen Quereingestiegende
nachgeschult werden müssen. Ebenfalls stellt sich die Frage, welche Inhalte empirische
gestützt im Lehramtsstudium verankert werden müssen; bislang werden diese Inhalte nahezu
ausschließlich normativ und tradiert festgelegt. Ein Grund dafür, dass der Nachweis
schwierig ist, liegt auch in der Art und Weise, wie üblicherweise getestet wird.

Der gängige Weg, professionelles Wissen bzw. professionelle Handlungskompetenz zu
erheben, ist ein schriftlicher Test. In Anlehnung an Miller (1990) können vier Formate des
Testens unterschieden werden, wenn berufliche Kompetenzen erhoben werden sollen. Sie
gestalten sich bezüglich des Lehrberufs mit unterschiedlichen Vor- und Nachteilen:
1.. Hierbei handelt es sich in der Regel um schriftliche Testformate mit
geschlossenen Aufgaben. Sie sind zumeist mit großem Fokus auf curriculare Validität
entwickelt worden.
2.   Auch dies sind üblicherweise schriftliche Testformate, oft mit
Unterrichtsvignetten, die die Anwendung von Wissen auf Probleme des Physikunterrichts
erfordern. Auch hier ist der Fokus vor allem curriculare Validität, d.h. die normativen
Inhalte des Lehramtsstudiums.
3.     Dies sind in der Regel Videographien von
Unterrichtsstunden. Unterricht besteht aus einer Vielzahl an hochkomplexen Problemen,
die unter großem Handlungsdruck gelöst werden müssen. Die Auswertung ist aufwändig
und es gelingt auch in großen Studien nicht, eine große Anzahl an Stunden pro Lehrkraft
zu filmen.
4.. Hierbei handelt es sich auch um Videobeobachtungen, allerdings
werden hierbei Lehrkräfte mit standardisierten Problemen unter standardisierten
Rahmenbedingungen konfrontiert.
Wissens- und Kompetenztests lassen sich mit hoher Testökonomie und hoher Reliabilität
konstruieren. Sie lassen sich ebenfalls so entwickeln, dass sie den Lernzuwachs im Verlaufe
der Lehrerbildung abbilden. Der Zusammenhang zu mit Unterrichtsvideos erhobenen Daten
zur Unterrichtsqualität ist jedoch nicht gelungen. Ein Grund dafür ist, dass
Unterrichtsbeobachtungen immer einer Vielzahl an nichtkontrollierbaren
Rahmenbedingungen unterworfen sind: So hängt das Gelingen einer Stunde beispielsweise
380
von der Tagesform der Schülerinnen und Schüler, der Lage einer Stunde oder auch dem
Klassenklima ab. Werden all diese Rahmenbedingungen als zufällig schwankend
angenommen, so bedarf es einer großen Anzahl an Stunden, die gefilmt werden, bis der
„echte“ Effekt beispielsweise des fachdidaktischen Wissens gezeigt werden kann, da sich
dann Fehler durch die Rahmenbedingungen erwartbar herausmitteln. Wegen des großen
Aufwands ist dies jedoch selbst sehr groß angelegten Projekten nicht möglich.
Performanztests hingegen kontrollieren die Rahmenbedingungen ihr großer Nachteil ist
allerdings, dass sie kein holistisches Bild vom Handeln zeigen, sondern nur die
Handlungsqualität auf eine bestimmte Unterrichtssituation bezogen. Im Gegensatz zum
freien beruflichen Handeln konzentrieren sie sich auf ein einziges berufliches Problem, z.B.
das Erklären von Physik. Um einem ganzheitlichen Bild unterrichtlicher Fähigkeiten
nahezukommen, müssten alle Standardsituationen des Physikunterrichtens in
Performanztests abgebildet werden – das Projekt ProfiLe-P+ (siehe Vogelsang in diesem
Band) arbeitet daran. In der Medizin sind Perfomanztests verbreitet, z.B. wird die Aufnahme
einer Krankengeschichte simuliert oder die Untersuchung des Bauchraums. Sie werden unter
dem Schlagwort „Objective structured clinical examination“ zusammengefasst (Harden et
al., 1975). Ihr Kern sind Personen, die mit festen Rollenbeschreibungen Patienten darstellen
(„standardized patients“) (Barrows & Abrahamson, 1964). Es lässt sich auch zeigen, dass
mit Score Sheets in diesen Formaten mit hoher Testgüte Leistungen festgestellt werden
können (Walters, Osborn & Raven, 2005).

Im Projekt ProfiLe-P wurde ein Performanztest entwickelt, der eine bestimmte
Unterrichtssituation nachstellt: das Erklären von Physik. Analog zu den „standardized
patients“ in medizinischen Performanztests ist der Kern dieses Tests ein standardisierter
Schüler, dessen Verhalten einer Rollenbeschreibung folgt: zum Beispiel werden in allen
Tests bestimmte Fragen gestellt, entweder, um Nichtverstehen zu äußern (z.B. „Gibt es dafür
auch ein Beispiel?“) oder um die Erklärung komplexer zu gestalten (z.B. „Gibt’s da auch
eine Formel für? Ich brauche das für eine Klausur.“). Dadurch werden die Tests miteinander
vergleichbar. Die Schüler wurden mit Videofeedbackverfahren in etwa zwei bis drei Stunden
dazu trainiert, sich vergleichbar zu verhalten. Ebenfalls standardisiert ist das Thema (z.B.
„Warum gleitet man auf einer Pfütze eher aus einer Kurve als auf trockener Strecke?“), die
Zeit zur Vorbereitung (10 min) sowie die Erklärdauer (10 min). Auch Materialien wie
Diagramme und Zeichnungen stehen in allen Szenarien gleichermaßen bereit.
Der Test wurde breit angelegten Validierungsstudien unterzogen, z.B. wurden
Interviewstudien durchgeführt, um zu kontrollieren, ob die Situationen authentisch sind. Zur
Auswertung der Handlungsqualität wird auf ein Modell des Erklärens von Physik
zurückgegriffen (Kulgemeyer & Schecker, 2012). Dabei werden die Videos
kategorienbasiert ausgewertet und die positiv zur Erklärqualität beitragenden Kategorien
summiert (z.B. verwendete Beispiele). Das so entstehende Maß wurde mit
Expertenbefragungen und der Analyse eines nomologischen Netzwerks weiteren
Validierungsstudien unterzogen. Im Detail ist die Testentwicklung dargestellt in Kulgemeyer
und Tomczyszyn (2015).

Dieser Test wurde im Rahmen des Projekts ProfiLe-P verwendet, um den Einfluss von
universitär erworbenem Wissen bzw. Kompetenzen im Bereich Fach und Fachdidaktik auf
das Handeln beim Erklären zu untersuchen. Die Kernfrage dabei ist, ob Fachwissen und
fachdidaktisches Wissen genutzt werden können, um die Erklärqualität zu steigern. Dazu
wurden insgesamt 198 angehende Physiklehrkräfte aller Semester an fünf Universitäten
befragt. 134 davon haben neben dem Performanztest zum Erklären Tests zum Fachwissen
381
(entwickelt an den Universitäten Duisburg-Essen und Potsdam) und zum fachdidaktischen
Wissen (entwickelt an der Universität Paderborn) ausgefüllt, zudem wurden einige
Kontrollvariablen erhoben (z.B. mathematische Fähigkeiten, epistemologische
Überzeugungen, Selbstkonzept, etc.). Einen Überblick über die Anlage der Studie und die
Validierungsstudien findet sich in Riese et al. (2015).
Es ergeben sich zunächst manifeste Korrelationen zwischen der Erklärperformanz und
sowohl Fachwissen (= 0,376; < 0,01) als auch fachdidaktischem Wissen (= 0,376; <
0,001). Zur genaueren Analyse des Einflusses wurde ein manifestes Pfadmodell berechnet.
Dabei wurde insbesondere überprüft, ob ein direkter Effekt vom Fachwissen zur
Erklärperformanz vorliegt oder ein indirekter Effekt über das fachdidaktische Wissen. Das
Modell, das die besten Fitwerte zeigt, ist in Abb. 1 angegeben und erklärt insgesamt 29 %
der Varianz in der Erklärperformanz. Dabei ist bemerkenswert, dass Fachwissen nicht direkt
auf die Erklärperformanz wirkt, sondern durch fachdidaktisches Wissen mediiert wird.



Ebenfalls beachtenswert ist der starke Einfluss von Einstellungen auf die Handlungsqualität.
Das auf Erklärsituationen bezogene Selbstkonzept hat einen robusten, positiven Einfluss.
Einen negativen Einfluss hat die Transmissionsvorstellung als Aspekt epistemologischer
Überzeugungen: Personen, die Erklären als „klares Darstellen“ und nicht als am Adressaten
orientierte Handlung auffassen, erklären schlechter. Bei der weiteren Analyse zeigt sich,
dass diese Personen oft auch ein hohes Interesse am Erklären haben. Das lässt sich so
interpretieren, dass Erklären oft als dozierende Handlung missverstanden wird und nicht als
Interaktion zwischen Erklärer und Adressaten.
Mit diesem Performanztest konnte gezeigt werden, dass Fachwissen und fachdidaktisches
Wissen einen positiven Einfluss auf das Handeln in einer unterrichtlichen Situation, nämlich
dem Erklären, haben. Da sowohl Fachwissen als auch fachdidaktisches Wissen curricular
valide erhoben wurde, liegt es nahe, dass die im Lehramtsstudium vermittelten Inhalte
zumindest für Erklärsituationen wertvoll genutzt werden können. Insbesondere ist
fachdidaktisches Wissen notwendig, solitäres Fachwissen genügt explizit nicht. Dies ist auch
für Quereinsteigerprogramme eine relevante Erkenntnis. Weitere korrelative Analysen
zeigen, dass insbesondere das Wissen über Schülervorstellungen im Bereich des
fachdidaktischen Wissens besonders wichtig ist.
382

Barrows, H. & Abrahamson, S. (1964). The Programmed Patient: A Technique for Appraising Student
Performance in Clinical Neurology. (8), S. 802805.
Cauet, E., Liepertz, S., Borowski, A. & Fischer, H. (2015). Does it matter what we measure? Domain-specific
professional knowledge of physics teachers. (3), S. 462479.
Harden, R., Stevenson, M. & Wilson, W. (1975). Assessment of Clinical Competence using Objective
Structured Examination. , S. 447451.
Kulgemeyer, C. & Schecker, H. (2012). Physikalische Kommunikationskompetenz – Empirische Validierung
eines normativen Modells. , S. 2954.
Kulgemeyer, C. & Tomczyszyn, E. (2015). Physik erklären – Messung der Erklärfähigkeit angehender
Physiklehrkräfte in einer simulierten Unterrichtssituation.    
(1), S. 111126.
Miller, G. (1990). The Assessment of Clinical Skills/Competence/Performance. (9), S.
563567.
Riese, J. (2009).       
. Berlin: Logos.
Riese, J., Kulgemeyer, C., Borowski, A., Fischer, H., Gigl, F., Gramzow, Y., Schecker, H., Tomczyszyn, E. &
Zander, S. (2015). Modellierung und Messung des Professionswissens in der Lehramtsausbildung Physik.
 S. 5579.
Vogelsang, C. & Reinhold, P. (2013). Zur Handlungsvalidität von Tests zum professionellen Wissen von
Lehrkräften. , S. 129157.
Walters, K., Osborn, D. & Raven, P. (2005). The development, validity and reliability of a multimodality
objective structured clinical examination in psychiatry. , S. 292298.
383
ResearchGate has not been able to resolve any citations for this publication.
Article
Full-text available
Bei der Verwendung schriftlicher Tests zur Erfassung des Professionswissens von Lehrkräften wird meist implizit davon ausgegangen, dass das erfasste Wissen relevant für das tatsächliche Lehrerhandeln ist. Dieser Beitrag argumentiert, warum diese Annahme auf theoretischer Ebene nicht gerechtfertigt ist und schlägt ein empirisches Prüfverfahren auf der Basis einer kombinierten Wissenserfassung und Unterrichtsanalyse unter spezifischen Rahmenbedingungen vor.
Article
Full-text available
Can we be confident that extensively validated tests for teachers on their professional knowledge actually measure what matters for effective teaching? This study investigated the relations between physics teachers’ domain-specific professional knowledge, students’ cognitive activation — as a measure for the quality of instruction in each of the teachers’ classrooms — and the achievement of their students using multi-level analysis. Neither teachers’ content knowledge (CK) nor their pedagogical content knowledge (PCK) correlated significantly with their support of students’ cognitive activation in the classroom; nor did their professional knowledge explain any variance of student learning gains. While these results have to be interpreted carefully for various reasons, they question in particular the validity of the PCK test, which is dealing with content accepted in the community, but normatively set. Moreover, the findings of this study emphasize the importance of connecting professional knowledge to classroom and student variables in order to prove that what tests measure matters for effective teaching.
Article
Full-text available
We present the results of a quantitative study about the empirical validation of a model for communication competence in physics. Starting from a normative model we de- scribe the development of a paper-and-pencil-test. This test was validated in two pilot- studies and then used in a main study with 216 students (gymnasium, grade 10). The model was refined so that it now describes students’ actual competence structures. We can show that levels of communication competence in physics can be scaled according to psycholinguistic processes. In diesem Beitrag werden die Ergebnisse einer quantitativen Studie zur Überführung eines normativen Modells physikalischer Kommunikationskompetenz in ein deskriptives Modell dargestellt. Die Studie erkundet einen bisher empirisch kaum bearbeiteten Kompetenzbereich. Zu dem Ausgangsmodell (Kulgemeyer & Schecker, 2009) wurde ein schriftliches Testverfahren entwickelt und in zwei Phasen pilotiert. An der Hauptstudie nahmen 216 Schülerinnen und Schüler aus 10. Klassen des Gymnasiums teil. Die Da- tenauswertung (u. a. mehrdimensionale Rasch-Analysen) diente zur Überprüfung der zunächst präskriptiv beschriebenen Dimensionen des Modells und deren Komponenten. Das empirisch validierte Modell wird vorgestellt. Es enthält u. a. eine Beschreibung von Kompetenzstufen.
Article
Link: http://link.springer.com/article/10.1007/s40573-015-0029-5 Gut erklären zu können wird als wichtige Eigenschaft von Lehrkräften oft genannt, aber nur selten erforscht. In diesem Beitrag wird zunächst der theoretische Hintergrund von Unterrichtserklärungen herausgearbeitet, um diese von wissenschaftlichen Erklärungen abzugrenzen und spezifisch zu modellieren. Anschließend wird eine Methode vorgestellt, mit der es auf Basis dieses Modells gelingen kann, aus Videos von Erklärungen auf die Ausprägung der Erklärensfähigkeit der Erklärenden zurückzuschließen. Dazu wird eine standardisierte Erhebungsmethode verwendet, die möglichst real eine Erklärenssituation nachstellt: die Experten-Novizen-Dialogmethode. Dabei erklärt eine angehende Physiklehrkraft einer Schülerin ein physikalisches Phänomen. Die Schülerin darauf wurde trainiert, in jeder Erklärenssituation vergleichbare Fragen zu stellen bzw. Prompts zu geben. Die Situationen werden gefilmt und kategorienbasiert ausgewertet. Die Kategorien, aus denen sich das Maß für Erklärensfähigkeit zusammensetzt, werden präsentiert (z. B. Umschreibung von Fachbegriffen in Alltagssprache). Aus dem Auftreten der Kategorien in den Erklärungen wird ein quantitatives Maß entwickelt, das die Ausprägung von Erklärensfähigkeit repräsentieren soll. Dazu wurde eine Expertenbefragung durchgeführt, um die Validität des Testverfahrens überprüfen zu können. Die Ergebnisse zeigen, dass das Maß in der Lage ist, die Expertenentscheidung bei Paarvergleichen über den besseren von zwei Erklärern vorherzusagen (κ= 0,750), es ist zudem ausreichend reliabel (α = 0,772). Auch bei einem zweiten Erhebungszeitpunkt derselben Erklärer mit anderen Themen und Adressaten der Erklärung zeigen sich weitgehend stabile Urteile über den besseren Erklärer (Übereinstimmung des Urteils in zwei Messzeitpunkten: κ = 0,600). _____________ Explaining physics: assessing physics explaining competence with a teaching performance test Explaining is often regarded as an integral part of science teachers’ professional competence. In this paper we present a way to measure explaining competence. As a theoretical framework we use a model on science teaching explanations. We adopt an assessment method for science communication competence that is close to real teaching situations. This method is based on an expert-novice dialogue: A teacher trainee (expert) explains a physics phenomenon to a high-school student (novice) in a controlled test setting which is standardized by topic, duration (10 min) and especially by standardized prompts given by the high-school student (e.g., “Can you give me another example?”). We videotape this dialogue. To measure explaining competence we firstly analyse the videos qualitatively. Categories and indicators for the quality of explaining were derived inductively from the reactions to these prompts, and deductively from the theory of explaining. These categories were used to develop am initial quantitative measure for explaining skills. In a successive process of improving the reliability of the measure and its validity by comparing it with what the experts regard as good explaining, we reduced the number of categories needed to identify the level of explaining skills.
Article
To avoid many of the disadvantages of the traditional clinical examination we have introduced the structured clinical examination. In this students rotate round a series of stations in the hospital ward. At one station they are asked to carry out a procedure, such as take a history, undertake one aspect of physical examination, or interpret laboratory investigations in the light of a patient's problem, and at the next station they have to answer questions on the findings at the previous station and their interpretation. As they cannot go back to check on omissions multiple-choice questions have a minimal cueing effect. The students may be observed and scored at some stations by examiners using a check list. In the structured clinical examination the variables and complexity of the examination are more easily controlled, its aims can be more clearly defined, and more of the student's knowledge can be tested. The examination is more objective and a marking strategy can be decided in advance. The examination results in improved feed-back to students and staff.
Article
No abstract available. (C) 1990 Association of American Medical Colleges
Article
To evaluate the development, validity and reliability of a multimodality objective structured clinical examination (OSCE) in undergraduate psychiatry, integrating interactive face-to-face and telephone history taking and communication skills stations, videotape mental state examinations and problem-oriented written stations. The development of the OSCE on a restricted budget is described. This study evaluates the validity and reliability of 4 15-18-station OSCEs for 128 students over 1 year. Face and content validity were assessed by a panel of clinicians and from feedback from OSCE participants. Correlations with consultant clinical 'firm grades' were performed. Interrater reliability and internal consistency (interstation reliability) were assessed using generalisability theory. The OSCE was feasible to conduct and had a high level of high perceived face and content validity. Consultant firm grades correlated moderately with scores on interactive stations and poorly with written and video stations. Overall reliability was moderate to good, with G-coefficients in the range 0.55-0.68 for the 4 OSCEs. Integrating a range of modalities into an OSCE in psychiatry appears to represent a feasible, generally valid and reliable method of examination on a restricted budget. Different types of stations appear to have different advantages and disadvantages, supporting the integration of both interactive and written components into the OSCE format.