socialnet - Das Netz für die Sozialwirtschaft

Mario Gollwitzer, Reinhold S. Jäger: Evaluation kompakt

Cover Mario Gollwitzer, Reinhold S. Jäger: Evaluation kompakt. Mit Arbeitsmaterial zum Download. Beltz Verlag (Weinheim, Basel) 2014. 2., überarb. Auflage. 253 Seiten. ISBN 978-3-621-28131-7. D: 26,95 EUR, A: 27,70 EUR, CH: 37,10 sFr.
Recherche bei DNB KVK GVK.

Besprochenes Werk kaufen
über socialnet Buchversand

über Shop des Verlags


Thema und Zielgruppen

„Evaluation kompakt“ ist ein Lehrbuch aus der Reihe „Beltz kompakt“, in der der Beltz Verlag „übersichtliche Kurzlehrbücher“ publiziert, „die ein Fachgebiet knapp, aber fundiert darstellen und Wissen praxisnah aufbereiten“ [1]. Das von Mario Gollwitzer und Reinhold Jäger verfasste Lehrbuch zur Evaluation verbindet daher theoretisches Wissen mit einem starken Anwendungsbezug. Zielgruppe des Lehrbuchs sind Studierende aus sozial- und naturwissenschaftlichen Disziplinen, aber auch Anwender, die „nicht nur eine theoretische Abhandlung lesen, sondern auch das ‚gewusst wie‘ lernen wollen“ (Gollwitzer & Jäger 2014, S. 14). Den Autoren geht es darum, den Leser/innen die Relevanz von wissenschaftlich fundierter Evaluation als Daten- und Entscheidungsgrundlage für gesellschaftlich bedeutsame Fragestellungen deutlich zu machen sowie die Vielfalt an Fragestellungen und Ansätzen der Evaluation aufzuzeigen. Die Leser/innen sollen darüber hinaus das methodische Instrumentarium für die Durchführung von Evaluationen kennen und anwenden lernen. Dies wird durch Fallbeispiele (z.T. mit Datensätzen), die von den Leser/innen zur Übung bearbeitet werden können, unterstützt. Das Lehrbuch geht daher über eine Einführung in die Evaluation hinaus, da sich die meisten der Kapitel (selbst dort, wo es um inhaltliche Fragestellungen geht) mit der konkreten methodischen Umsetzung beschäftigten.

Autoren

Die Autoren sind beide an der Universität beheimatet und haben einen empirisch-statistisch ausgerichteten Forschungshintergrund: Mario Gollwitzer ist als Professor an der Philipps-Universität Marburg im Fachbereich Psychologe für Methodenlehre und Sozialpsychologie verantwortlich; Reinhold Jäger ist (Renten)Professor und ehemaliger Leiter des Zentrums für empirische pädagogische Forschung an der Universität Koblenz-Landau. Dies schlägt sich in den Inhalten des Lehrbuch nieder, das fast ausschließlich auf quantitative Untersuchungsdesigns und Methoden abstellt. Gute Evaluation, so die Überzeugung der Autoren, verlangt von Evaluator/innen die Beherrschung der quantitativ-empirischen Methodologie. Auch wenn in den Anschauungsbeispiele zu verschiedenen Anwendungsfeldern Bezug genommen wird, durchzieht das Lehrbuch ein Fokus auf die Disziplinen der beiden Autoren, die Erziehungswissenschaften und die Psychologie, und auf (psychometrische) Messungen bei Individuen. Die Rezension bezieht sich auf die zweite Auflage von 2014, die gegenüber der ersten aus dem Jahr 2009 verbessert und erweitert wurde.

Aufbau

Das Buch ist in drei Teile gegliedert, denen 10 Kapitel zugeordnet sind. Dieser Aufbau hat eine logische Grundlage: das Lehrbuch führt die Leser/innen von allgemeinen, einleitenden Kapiteln in Teil 1 über inhaltliche Themen in Teil 2 bis zu methodologischen Fragen in Teil 3. Dies erleichtert die Orientierung. Der Aufbau des Buches wird zusätzlich in einer Grafik auf der Innenseite des Buchumschlages dargestellt.

Die einzelnen Kapiteln folgen einer gemeinsamen Struktur mit einer kurzen Einleitung (Pre-Organizer), in der erklärt wird, was die Leser/innen in dem Kapitel erwartet (einschließlich der Beschreibung von anvisierten Lernergebnissen), dann folgen die Inhalte in einzelnen Unterkapiteln, am Ende des Kapitels finden sich eine Zusammenfassung sowie Übungsaufgaben und weiterführende Literatur. Hervorzuheben ist die Fülle vielfältiger Beispiele aus der Praxis, mit denen die Autoren den Anwendungsbezug herstellen und das Verständnis erleichtern wollen.

Abgerundet wird das Lehrbuch durch ein Glossar mit wichtigen Begriffen aus den Bereichen Evaluation und quantitativen Methoden sowie ein Literatur- und Sachwortverzeichnis. Auf der Homepage des Beltz Verlags finden sich auch begleitende Arbeitsmaterialien zum Download mit Kurzfassungen der Kapitel, Übungsaufgaben, Datensätzen sowie den „Auflösungen“ der Aufgaben.

Auffallend ist die ansprechende grafische Aufbereitung des Buches, die eine gute Orientierung erlaubt. So werden Definitionen, Beispiele und Tabellen durch farbige Kästen hervorgehoben. Inhalte werden immer wieder durch Grafiken visuell aufbereitet und erläutert. Das grundsätzlich sehr übersichtliche Layout wird dadurch etwas beeinträchtigt, dass die Überschriften nach der dritten Ebene nicht weiter differenziert werden. Dies wirkt da und dort verwirrend, da sich manche dieser Überschriften tatsächlich auf unterschiedlichen Hierarchiestufen befinden (sollten).

Inhalt

In Teil 1 des Lehrbuchs geben die Autoren eine Einführung in Bedeutung, Gegenstände und Geschichte der Evaluation und vermitteln einen Überblick über die theoretischen Grundlagen. Sie klären Begrifflichkeiten, grenzen Evaluation von Nachbardisziplinen ab und beschreiben verschiedene Dimensionen („Evaluationsarten“ genannt), anhand derer sich Evaluationen näher bestimmen lassen. Insbesondere grenzen sie alltägliche Formen der Evaluation, also der eher subjektiven, meist weder regelgeleiteten noch empirischen Bewertung von Sachverhalten, von der wissenschaftlich orientierten „Evaluationsforschung“ ab (wobei sie jedoch – eine kleine Inkonsistenz – „Evaluation“ nicht nur als Titel ihres Lehrbuchs gewählt haben, sondern den Begriff auch durchgängig synonym mit Evaluationsforschung verwenden). Der Darstellung von Evaluationsmodellen- und ansätzen sowie von Gütekriterien – die Autoren beziehen sich hier auf die „Standards für Evaluation“ der DeGEval – Deutsche Gesellschaft für Evaluation – wird daher ausreichend Platz eingeräumt. Die Phasen des Evaluationsprozesses werden hingegen nur aufgelistet, eine nähere Beschreibung gibt es nicht.

Teil 2 ist das Kernstück des Buches, in mehr als 100 Seiten werden drei „Hauptfragestellungen“ und drei „Nebenfragestellungen“ behandelt. Es handelt sich dabei nicht um die inhaltliche, feldgebundene Fragestellungen, sondern eher um Fragestellungen auf der Metaebene, die in unterschiedlichen Evaluationsfeldern und Evaluationsprojekten zur Anwendung kommen können. Entscheidend ist das Erkenntnisinteresse. Dieses kann sich – als Hauptfragestellung – auf die Beschreibung und Bewertung von Zuständen (Kapitel 3), von Veränderungen (Kapitel 4) oder von Wirkungen bzw. der Wirksamkeit einer Maßnahme (Kapitel 5) beziehen.

In diesen drei Kernkapiteln wird jeweils nach einer kurzen Einführung in die Thematik vor allem die methodische Umsetzung behandelt. So widmet sich Kapitel 3 den verschiedenen Datenerhebungsmethoden (es findet sich hier auch ein kurzer Abriss qualitativer Methoden), den Gütekriterien für die Operationalisierung von Fragestellungen, der Stichprobenziehung, den Arten von Vergleichen und der statistischen und pratischen Relevanz (letztere durch Effektstärke ermittelt). In Kapitel 4 werden quantitative Verfahren der Veränderungsmessung dargestellt sowie Moderatorvariablen und verschiedene methodische Probleme der Veränderungsmessung besprochen. Die Evaluation von Veränderungen wird in anderen Lehrbüchern meist unter Wirkungsevaluation subsumiert. Die gewählte Form der Darstellung der Veränderungsmessung als eigener Schritt betont die Trennung von Brutto- und Nettoeffekten von Maßnahmen und erhöht so das konzeptuelle Verständnis von Wirkungsevaluation. Kapitel 5 schließlich widmet sich der Evaluation der Wirkung und Wirksamkeit einer Maßnahme. Es wird zwischen Wirkung (hier „Wirksamkeit“) und den dahinterliegenden Wirkmechanismen (hier „Wirkung“) unterschieden; Wirkmodelle werden anhand von zwei Beisipielen exemplarisch dargestellt. Die Messung von Wirkungen wird behandelt und Gütekriterien für Wirksamkeitsindikatoren werden beschrieben. Schließlich wird kurz auf Fragen der internen und externen Validität eingegangen. Viele der aufgeworfenen Fragestellungen werden in Kapitel 9 bei der Darstellung von Untersuchungsdesigns wieder aufgenommen und/oder ausführlicher behandelt.

Die in den nächsten drei Kapiteln behandelten „Nebenfragestellungen“ sind: die Evaluation von Kosten und Nutzen einer Maßnahme (Kapitel 6), die prospektive Evaluation und Maßnahmenplanung (Kapitel 7) sowie die formative Evaluation (Kapitel 8), die als Programmoptimierung oder als Implementationskontrolle verstanden wird.

Teil 3 beschäftig sich mit methodischen Aspekten (hier: der Evaluations„forschung“): Kapitel 9 widmet sich den quantitativen Untersuchungsdesigns, die zur Feststellung von Kausalitäten und dem Nachweis der Wirksamkeit einer Maßnahme geeignet sind. Es schließt damit an Kapitel 6 an. Inhaltlich geht es vor allem um Fragen der internen Validität und wie diese gesichert bzw. verbessert werden kann. Kapitel 10 befasst sich mit der statistischen Datenanalyse, es stellt also ein Art „Statistikkapitel“ dar, kommt allerdings weitgehend ohne Formeln aus. Ausführlich behandelt werden die explorativ Datenanalyse, d.h. die Untersuchung von Datensätzen nach Auffälligkeiten, sowie inferenzstatistische Verfahren, insbesondere statistische Tests zur Überprüfung von Hypothesen; der deskriptiven Statistik hingegen wird nur eine halbe Seite gewidmet, ihre Bedeutung liegt v.a. in der Unterstützung und Absicherung von inferenzstatistischen Tests durch die Beschreibung von Stichproben und die Analyse der Messeigenschaften der verwendeten Erhebungsinstrumente.

Diskussion

Den beiden Autoren gelingt es sehr gut, Evaluation als eine Untersuchung und Bewertung von gesellschaftlich bedeutsamen Fragestellungen zu etablieren. Das Buch macht Lust auf Evaluation, trotz des Fokus auf quantitative Methoden ist die Darstellung nicht „trocken“. Die vielen Beispiele unterstreichen die Praxisrelevanz von Evaluation; sie zeigen zusätzlich auf, welches (quantitative) methodische Vorgehen für welche Fragestellung geeignet ist. Das Buch ist sehr anschaulich geschrieben, die Texte sind sprachlich gut verständlich und nachvollziehbar. Das Layout fördert die Übersichtlichkeit, grafische Elemente verdeutlichen die Inhalte. Glossar und Sachwortverzeichnis erhöhen die Nutzbarkeit des Lehrbuchs. Übungsaufgaben und Fallbeispiele am Ende der Kapitel dienen der Übung und Festigung des Gelernten.

Das Buch ist sehr klar und übersichtlich aufgebaut und folgt einer inneren Logik, die das Verständnis fördert. Begriffsbestimmung und Zweck von Evalution (was und wozu?) werden an den Anfang gestellt, dann inhaltiche Fragestellungen erörtert (wann und warum?), eine eingehende Behandlung von methodischen Aspekten (wie?) erfolgt erst, nachdem die Grundlagen geklärt sind. Damit kommt im Lehrbuch selbst das Verfahren der Wahl für qualitativ hochwertige Evaluationen zur Anwendung: Designs und Methoden werden an Zwecke und Fragestellungen angepasst – und nicht umgekehrt. Sehr positiv ist auch die Aufnahme eines Kapitels zur Evaluation von Kosten und Nutzen, ein Thema das nicht allzu oft in einführenden Lehrbüchern behandelt wird.

Bei aller Praxisrelevanz betonen die Autoren die Notwendigkeit wissenschaftlicher Vorgehensweisen. Das Lehrbuch befasst sich mit quantitativen empirischen Designs und Methoden, es werden grundlegende Vorgehensweisen der quantitativen Forschung klar verständlich erklärt. Den Autoren ist beizupflichten, dass Kenntnisse der quantitativen Methoden und ihrer Anwendung in der Evaluation eine wichtige Kompetenz von Evaluator/innen darstellten. Das Lehrbuch ist jedoch so gestaltet, dass Leser/innen entweder bereits über Statistikkenntnisse, die über die deskriptive Statistik deutlich hinausgehen, verfügen oder sich diese während der Lektüre aneignen müssen, um die Theorie und Praxis der quantitativen Evaluation mithilfe des Lehrbuchs tatsächlich zu erlernen. So verweisen die Autoren selbst immer wieder auf ein von einem der Autoren mitverfasstes Werk zu Statistik und Forschungsmethoden (Eid et al 2013). Das vorliegende Lehrbuch alleine reicht also nicht aus, um die Durchführung anspruchsvoller quantitativ ausgerichteter Evaluationen zu erlernen.

Kritisch zu betrachten ist auch die Beschränkung auf quantitative Methoden. Da der Titel „Evaluation kompakt“ eine allgemeine Einführung in die Evaluation verspricht, ist entweder der Titel unpräzise oder es wird davon ausgegangen, dass qualitative Methoden in Evaluationen eine untergeordnete und zu vernachlässigende Rolle spielen. Eine angemessene Beschreibung von qualitativen Methoden und deren Anwendung fehlt jedenfalls: In Kapitel 3 findet sich ein zweiseitiger Überblick über qualitative Daten einschließlich der Unterschiede zwischen qualitativen und quantitativen Ansätzen. Dabei werden qualitative Methoden als „subjektiv“ charakterisiert, der Hinweis auf Qualitätsstandards qualitativer Forschung fehlt. Leser/innen, die nicht mit qualitativer Forschung vertraut sind, könnte dadurch der Eindruck vermittelt werden, es handle sich bei qualitativen Methoden nicht um eine wissenschaftliche Vorgehensweise im engeren Sinne. Qualitative Methoden werden auch nur einmal, und zwar in der Diskussion der formativen Evaluation, als geeigneter Ansatz erwähnt, da hier „qualitative Aspekte im Vordergrund“ stehen (Gollwitzer & Jäger, S. 157). Der in der Evaluation heute weit verbreitete und anerkannte Mixed-Methods-Ansatz wird nur kurz erwähnt und mit einem Hinweis auf einen Aufsatz von Greene et al. aus dem Jahr 1989 (sic!) (falsch zitiert mit 1999 und falsche Journalangabe) untermauert, ohne dass jedoch klar wird, wo und wie qualitative Methoden zum Einsatz kommen und welchen Beitrag sie auch in stärker quantitativ ausgerichteten Designs leisten. Auch der Verweis auf die „Abhängigkeit der Methodenauswahl von der Fragestellung“ (S. 65) erhellt die Bedeutung qualitativer Methoden in der Evaluation nicht.

Das Primat einer eher von Laborbedingungen ausgehenden, quantitativen Wirkungsevaluation zeigt sich z.B. auch in der Diskussion der Validität von Untersuchungsdesigns, wo auf die interne Validität mehrfach und sehr ausführlich eingegangen wird, die externe Validität aber nur kurz gestreift wird. Auch gibt es keine Diskussion der „trade-offs“ zwischen interner und externer Validität. Gerade die externe Validität ist für Übertragbarkeit von Programmen und Maßnahmen entscheidend – und um diese geht es letztlich in vielen (Wirkungs)Evaluationen.

Die tatsächliche Praxis der Evaluation wird insgesamt – trotz der vielen Beispiele – nur sehr eingeschränkt eingefangen. So wird zwar die Gültigkeit von Fragestellungen z.B. aus methodisch-wissenschaftlicher Sicht behandelt, die praktische Relevanz wird jedoch kaum angesprochen (einzig Zielkonflikte bei Auftraggebern werden kurz erörtert), ebensowenig die Rahmenbedingungen (Zustandekommen des Auftrags, Ziele, Verständnis und Know-how der AuftraggeberInnen, Zugang zum Feld, Ressourcen, Zeit) und der Umgang mit verschiedenen Betroffenen und Beteiligten. Planung und Ablauf einer Evaluation werden nicht disktuiert. Die Bedeutsamkeit von Evaluation als „politischer Akt“ (vgl. z.B. Weiss 1973 (Nachdruck 1993) oder 1998; Chemlimsky 1987 oder 1997) und die sich daraus ergebenden Herausforderungen kommen nicht vor, wie auch die Nutzung von Evaluationen kein Thema ist.

Schade ist auch, dass die Autoren den Anschluss an die (deutschsprachige und auch internationale) Evaluationsforschung (im aktuellen Sprachgebrauch bedeutet Evaluationsforschung meist „Forschung über/zu Evaluation“) nicht ernsthaft suchen. So scheint auch der Überblick über die Entwicklung der Evaluation und die verschiedenen Evaluationsmodelle in den ersten beiden Kapiteln vor allem auf der Übersicht im Buch von Balzer (2005) zu basieren, die Autoren beziehen Informationen offensichtlich aus zweiter Hand und scheinen sich darüber hinaus nicht allzu viel mit Evaluationstheorie beschäftigt zu haben. (So ist den Autoren vermutlich auch nicht bewusst, dass die von ihnen als Grundlage ihrer Darstellung gewählten „theoretischen Positionen“ auf die drei Äste des „Evaluationsbaums“ von Marvin Alkin und Christina Christie (2004, 2. Auflage 2012) zurückgehen – das entsprechende Werk wird nicht zitiert.)

Viele neuere Entwicklungen – gerade auch in der Evaluation von Wirkungen – scheinen daher an den beiden Autoren vorübergegangen zu sein. So kommen die Autoren zur Einschätzung, dass “ allerdings […] seit einer Reihe von Jahren die theoretische Entwicklung von Evaluationsansätzen [stagniert], während die methodischen Konzepte verfeinert wurden und eher als ausgereift gelten können“ (S. 26), eine Behauptung, die von einem Großteil der Personen, die sich mit Evaluation theoretisch und praktisch befassen, wohl nicht geteilt wird.

Aufgrund der fehlenden Anbindung an den aktuellen Evaluationsdiskurs gebrauchen die Autoren auch immer wieder eine etwas eigenwillige Terminologie bzw. verwenden ungewohnte, vom gängigen Verständnis abweichende Definitionen. Hier ein paar Beispiele: Der Terminus „Triangulation“ als gängiges Qualitätskriterium in Evaluationen z.B. fehlt gänzlich, er wird inhaltlich teilweise durch den Begriff der „multimethodalen Diagnostik“ (S. 58ff.) abgedeckt. Dass die „formative Evaluation“ nur „in der Phase der Planung und Vorbereitung eines Programms [ansetzt]“ (S. 156), bedeutet eine ungewöhnliche Einschränkung des Begriffs. Oder es findet in der Beschreibung der „prospektiven Evaluation“ das weite Feld der Ex-ante-Evaluationen (s. z.B. Silvestrini 2011) keine Erwähnung. Interessant ist auch der lateinische Neologismus „valuere“, von dem Evaluation abgeleitet wird (S. 13) (tatsächlich existiert nur das Verb „valere“); die Etymologie des Begriffs „Evaluation“ wurde von Beywl (1999, S. 29f.) aufgearbeitet, Hinweise zur Herkunft des Wortes finden sich auch im Internet. Insgesamt hätte ein kurzer Blick in das deutschsprachige Evaluationsglossar von Beywl und Niestroj (2009) oder das online verfügbare „Eval-Wiki: Glossar der Evaluation“ den Autoren Hinweise für die gängige und mit dem internationalen Sprachgebrauch akkordierte Verwendung von Begrifflichkeiten geben können.

Schließlich ist die Existenz bzw. Bedeutung einzelner Ansätze und Modelle z.T. nicht bekannt oder wird nicht richtig eingeschätzt: Der „gegnerschaftsorientierter Ansatz“ von Owens (1973) und Wolf (1975) wird z.B. relativ ausführlich dargestellt, ein interessantes Gedankenspiel, das aber in der Evaluationspraxis keine Bedeutung hat. Wichtige Bezüge hingegen fehlen ganz: So wird der Ansatz der Programmtheorien und logischen Modellen – seit mehr als 25 Jahren in Entwicklung und sehr weit verbreitet (eine übersichtliche Darstellung findet sich z.B. in Funnell und Rogers (2011) ) – nicht einmal erwähnt. Tatsächlich beschreiben die Autoren in Kapitel 5 unter „Wirkmodelle“ eine Form der theoretisch abgeleiteten Programmtheorie, ohne jedoch eine Verbindung zur Evaluationstheorie herzustellen (oder z.B. auch noch andere, für die Praxis bedeutsamen Herangehensweisen an die Entwicklung von Programmtheorien zu beschreiben).

Selbst für eine „kompakte“, und damit notwendigerweise vereinfachende und zusammenfassende Darstellung einer Disziplin wäre eine Einbettung in den aktuellen (internationalen) Stand der Forschung und Entwicklung wünschenswert, dies wird von den Autoren nur in beschränktem Ausmaß geleistet.

Fazit

Der Titel „Evaluation kompakt“ ist irreführend, tatsächlich handelt es sich um ein Lehrbuch zur Evaluation mittels quantitativer Methoden. Qualitative Methoden fehlen in diesem Werk fast gänzlich; ebenso der Ansatz des „Methodenmixes“ (mixed-methods approach), mittlerweile anerkannte Vorgangsweise und konstitutives Element guter Evaluation. Dies ist auch das wichtigste Defizit des Lehrbuches. Als kompakte und gleichzeitig umfassende Einführung in die quantitativen Methoden in der Evaluation kann das Buch jedoch gelten. Es ist verständlich und anschaulich geschrieben und gut didaktisch aufbereitet. Durch die vielen Beispiele und Übungsaufgaben ist es ein Fundus für jede Lehrveranstaltung oder Weiterbildungsveranstaltung zur quantitativen Evaluation.

Wie weit werden die Autoren ihren eigenen Zielen und Zielgruppen gerecht?

Das Werk ist sehr gut geeignet als Lehrbuch für Studierende, v.a. als Begleitbuch zu Lehrveranstaltungen zum Thema Evaluation. Dies scheint auch der Entstehungshintergrund des Buches zu sein. Allerdings sollten die Studierenden entweder mindestens gute Statistikkenntnisse und vorzugsweise auch Wissen über quantitative Methoden mitbringen oder entsprechende Lehrveranstaltungen parallel besuchen. Die Anforderung von Vorkenntnissen gilt umso mehr für das Selbststudium. Damit ist auch die zweite Zielgruppe des Lehrbuchs, die der Praktiker/innen, auf Personen beschränkt, die statistisches Vorwissen mitbringen. So ist zum Beispiel nicht davon auszugehen, dass Anwender/innen ohne fortgeschrittenen Statistikkenntnisse auf sich allein gestellt das Übungsbeispiel zu Propensity Scores lösen können (und wollen).

Den Autoren gelingt es gut, die Bedeutung von Evaluation sichtbar zu machen sowie den Leser/innen einen Überblick über die vielfältigen Anwendungsfälle und Fragestellungen zu geben. Hierin liegt auch klar der Mehrwert des Buches im Vergleich zu herkömmlichen Lehrbüchern zu quantitativen Forschungsmethoden. Sie zeigen weiters in übersichtlicher Weise (und mit passendem Detaillierungsgrad) auf, welche quantitativen Designs und Methoden für welche Fragestellungen geeignet sind. Das Lehrbuch allein wird jedoch in den allermeisten Fällen nicht ausreichen, um die Leser/innen für eine Anwendung der verschiedenene Methoden in der Praxis zu qualifizieren. Auch fehlt eine Behandlung der praktischen Herausforderungen in der Evaluation und wie man damit umgehen kann; beschrieben wird eine quantitativ ausgerichtete Evaluation ohne nennenswerte Interaktion mit dem Feld und unter (fast) idealen Bedingungen. (Das Buch stellt in dieser Hinsicht sozusagen ein Gegenstück zum RealWorld-Evaluation-Ansatz von Bamberger, Rugh und Mabry (2012) dar.) Die Anbindung an die aktuelle (internationale) Evaluationsforschung (als Forschung zu/über Evaluation) fehlt in weiten Teilen.

Unter Beachtung dieser Einschränkungen kann das Buch jedoch aufgrund seiner Übersichtlichkeit, seiner klaren Struktur und Sprache und der vielen nützlichen Anwendungsbeispiele als Lehr- und auch Nachschlagewerk zur quantitativen Evaluation empfohlen werden.

Literatur

  • Alkin, Marvin C. & Christie, Christina A. (2004): An evaluation theory tree. In Alkin, Marvin C. (Hrsg.), Evaluation roots: Tracing theorists´ views and influences. Thousand Oaks: Sage, 12-66.
  • Alkin, Marvin C (Hrsg.) (2012). Evaluation Roots: A Wider Perspective of Theorists´ Views and Influences. 2. Auflage, Los Angeles: SAGE Publications, 2013.
  • Balzer, Lars (2005). Wie werden Evaluationsprojekte erfolgreich? Ein integrierender theoretischer Ansatz und eine empirische Studie zum Evaluationsprozess. Landau: Verlag Empirische Pädagogik.
  • Bamberger, Michael; Rugh, Jim & Mabry, Linda (2012). RealWorld Evaluation: Working under Budget, Time, Data, and Political Constraints. 2. Auflage, Thousand Oaks, CA: SAGE Publications.
  • Beywl, Wolfgang & Niestroj, Melanie (2009). Das A-B-C der wirkungsorientierten Evaluation. Glossar Deutsch / Englisch der wirkungsorientierten Evaluation. 2., vollständig bearbeitete und ergänzte Auflage, Köln.
  • Beywl, Wolfgang (1999). Programmevaluation in pädagogischen Praxisfeldern – begriffliche und konzeptionelle Grundlagen. In Künzel, Klaus (Hrsg.). Internationales Jahrbuch für Erwachsenenbildung 27: „Evaluation der Weiterbildung“, S. 29-48.
  • Chelimsky, Eleanor (1997). The Political Environment of Evaluation and What It Means for the Development of the Field. In Chelimsky, Eleanor & Shadish, William R. (Hrsg). Evaluation for the 21st Century: A Handbook. Thousank Oaks, CA: Sage Publications, 53-68.
  • Chelimsky, Eleanor, (1987). The Politics of Program Evaluation, In Society 25 (1), 24-32
  • Eid, Michael, Gollwitzer, Mario & Schmitt, Manfred (2013). Statistik und Forschungsmethoden (3. Aufl.). Weinheim: Beltz.
  • Eval-Wiki: Glossar der Evaluation. Verfügbar unter: www.eval-wiki.org/glossar/Eval-Wiki:_Glossar_der_Evaluation [25.6.2014]
  • Funnell, Sue C. & Rogers, Patricia J. (2011). Purposeful Program Theory: Effective Use of Theories of Change and Logic Models. San Francisco, CA: Jossey-Bass.
  • Greene, Jennifer C.; Caracelli, Valerie J. & Graham, Wendy F. (1989). Toward a Conceptual Framework for Mixed-Method Evaluation Designs. In Educational Evaluation and Policy Analysis 11 (3), 255-274.
  • Owens, Thomas (1973). Education Evaluation by Adversary Proceeding. In House,Ernest R, School Evaluation: The Politics and Process. Berkeley, CA: McCutchan.
  • Silvestrini, Stefan (2011). Ex-ante-Evaluation: ein Planungsansatz für die Entwicklungszusammenarbeit. Münster: Waxmann.
  • Weiss, Carol H. (1998). Evaluation. Methods for Studying Programs and Policies. Upper Saddle River, NJ: Prentice Hall.
  • Weiss, Carol H. (1993). Where Politics and Evaluation Research Meet. In American Journal of Evaluation 14 (1), 93-106 (Nachdruck des Artikels aus 1973).
  • Wolf, Robert L. (1975). Trial by Jury: A New Evaluation Method. Phi Delta Kappan 57(3), 185-187.

[1] www.beltz.de/ [13.6.2014].


Rezensentin
Dr. Maria Gutknecht-Gmeiner
Homepage www.impulse.at
E-Mail Mailformular


Alle 2 Rezensionen von Maria Gutknecht-Gmeiner anzeigen.

Besprochenes Werk kaufen
Sie fördern den Rezensionsdienst, wenn Sie diesen Titel – in Deutschland versandkostenfrei – über den socialnet Buchversand bestellen.


Zitiervorschlag
Maria Gutknecht-Gmeiner. Rezension vom 17.07.2014 zu: Mario Gollwitzer, Reinhold S. Jäger: Evaluation kompakt. Mit Arbeitsmaterial zum Download. Beltz Verlag (Weinheim, Basel) 2014. 2., überarb. Auflage. ISBN 978-3-621-28131-7. In: socialnet Rezensionen, ISSN 2190-9245, https://www.socialnet.de/rezensionen/16748.php, Datum des Zugriffs 23.09.2017.


Urheberrecht
Diese Rezension ist, wie alle anderen Inhalte bei socialnet, urheberrechtlich geschützt. Falls Sie Interesse an einer Nutzung haben, treffen Sie bitte vorher eine Vereinbarung mit uns. Gerne steht Ihnen die Redaktion der Rezensionen für weitere Fragen und Absprachen zur Verfügung.


socialnet Rezensionen durch Spenden unterstützen
Sie finden diese und andere Rezensionen für Ihre Arbeit hilfreich? Dann helfen Sie uns bitte mit einer Spende, die socialnet Rezensionen weiter auszubauen: Spenden Sie steuerlich absetzbar an unseren Partner Förderverein Fachinformation Sozialwesen e.V. mit dem Stichwort Rezensionen!

Zur Rezensionsübersicht

Hilfe & Kontakt Details
Hinweise für

Bitte lesen Sie die Hinweise, bevor Sie Kontakt zur Redaktion der Rezensionen aufnehmen.
rezensionen@socialnet.de

Stellenangebote

Erzieher/in für Kindertagesstätte, Köln

Kitaleiter/in, Köln

Weitere Anzeigen im socialnet Stellenmarkt.

Newsletter bestellen

Immer über neue Rezensionen informiert.

Newsletter

Schon 13 000 Fach- und Führungskräfte informieren sich monatlich mit unserem kostenlosen Newsletter über Entwicklungen in der Sozialwirtschaft

Gehören Sie auch schon dazu?

Ansonsten jetzt für den Newsletter anmelden!