Evaluationsaktivitäten in Organisationen der Sozialen Arbeit

Teilergebnisse aus einem laufenden Forschungsprojekt

  • Auteur-e-s: Edgar Baumgartner / Aline Kaufmann / Michael Lambertus
  • Catégories d'articles: Reflets de la pratique
  • DOI: 10.38023/ba614df9-e03e-4486-9077-84d1c6757866
  • Proposition de citation: Edgar Baumgartner / Aline Kaufmann / Michael Lambertus, Evaluationsaktivitäten in Organisationen der Sozialen Arbeit, in : LeGes 33 (2022) 1
Cette contribution s’attache à la question de l’importance croissante des activités d’évaluation au sein des organisations de travail social et restitue ses causes possibles sur la base de résultats empiriques d’études portant sur la Suisse. La contribution se base sur une sélection de résultats préliminaires d’un projet de recherche portant sur les formes et l’ampleur des activités d’évaluation au sein des institutions de travail social.

Inhaltsverzeichnis

  • 1. Einführung – Stellenwert von Evaluation in der Sozialen Arbeit
  • 2. Forschungsstand in der Schweiz
  • 3. Einblick in ein laufendes Forschungsprojekt
  • 3.1. Fragestellungen und Ziele des Forschungsprojekts
  • 3.2. Forschungsdesign, Erhebungsinstrument und Datensatz
  • 3.3. Erste Teilergebnisse zum Stand der Evaluationsaktivitäten
  • 3.3.1. Organisationstyp und Dienstleistungen
  • 3.3.2. Informationserfassung und Design
  • 3.3.3. Weiterentwicklung und Zufriedenheit mit internen Evaluationsaktivitäten
  • 4. Folgerungen und Ausblick

1.

Einführung – Stellenwert von Evaluation in der Sozialen Arbeit ^

[1]

Welche Formen von Evaluationsaktivitäten gibt es in Organisationen der Sozialen Arbeit? Und was begünstigt und beeinflusst die jeweilige Evaluationspraxis? Diesem Fragekomplex widmet sich das vom Schweizerischen Nationalfonds (SNF) finanzierte Projekt «Auf dem Weg zur «evidenzbasierten Praxis»? – Evaluationen in Organisationen der Sozialen Arbeit». Erste Teilergebnisse aus diesem Projekt werden im Folgenden vorgestellt. In einem ersten Schritt wird auf bestehende Studien in der deutschsprachigen Schweiz zur Evaluationspraxis von Einrichtungen der Sozialen Arbeit wie auch auf theoretische Überlegungen zu Einflussfaktoren auf eine unterschiedliche Evaluationspraxis eingegangen. Anschliessend stehen die Beschreibung des laufenden Forschungsprojekts und erste Ergebnisse im Zentrum. Im letzten Abschnitt finden sich vorläufige Folgerungen und ein Ausblick auf weitere Projektschritte.

[2]

Eine zunehmende Bedeutung von Evaluationen in der Sozialen Arbeit wird von verschiedenen Beobachterinnen und Beobachter proklamiert (vgl. Dollinger 2018; Widmer et al. 2016, 467; Petersén/Olsson 2014; Baier et al. 2013). Da viele Organisationen der Sozialen Arbeit in sozialstaatlichen Finanzierungs- und Steuerungsformen eingebettet sind (vgl. Becker-Lenz/Baumgartner 2016), kann die Verwaltungsmodernisierung, etwa mit dem Modell des New-Public-Managements, als ein entscheidender Treiber für den Bedeutungszuwachs oder gar der Institutionalisierung von Evaluation identifiziert werden (vgl. Stockmann/Meyer 2020). Auch innerhalb der Sozialen Arbeit haben Konzepte wie die «Wirkungsorientierung» oder «evidenzbasierte Praxis» Fragen nach Ergebnissen, Wirkungen oder der Wirksamkeit sozialarbeiterischer Leistungen aufgeworfen (vgl. Otto et al. 2010; Sommerfeld/Hüttemann 2007; Menold 2007) und damit gesicherte Erkenntnisse als Basis moderner Professionalität thematisiert (Gambrill 1999). Insbesondere das «bottom-up»-Verständnis «evidenzbasierter Praxis» (vgl. James 2016) sieht die Möglichkeit vor, in Organisationen durch Evaluationen lokales Wissen über Erfolge und Wirkungen professionellen Handelns zu generieren, um die professionelle Selbststeuerung und die Optimierung der professionellen Leistungserbringung zu stärken. Dieser Zusammenhang von Entwicklungen innerhalb wie auch ausserhalb der Sozialen Arbeit mit der Nachfrage nach bzw. der Praxis von Evaluationen ist bislang jedoch noch kaum untersucht (vgl. Widmer et al. 2016, 460).

[3]

Das vorliegende Forschungsprojekt geht vor diesem Hintergrund der Frage nach, welche Faktoren die Evaluationsaktivitäten in Organisationen der Sozialen Arbeit beeinflussen. Dabei wird gemäss Ansätzen der neo-institutionalistischen Organisationstheorie davon ausgegangen, dass die Umwelt von Organisationen aus institutionalisierten Erwartungsstrukturen besteht, welche die Ausgestaltung von Organisationen nachhaltig prägen (vgl. Walgenbach/Meyer 2008, 11). Diskurse, Vorgaben und Normen können folglich zur Angleichung der organisationalen Strukturen und Praxis der Evaluation führen (vgl. Mayrhofer 2014). Neben solchen externen Faktoren, d. h. in der Organisationsumwelt angesiedelten Entwicklungen, können auch verschiedene organisationsinterne Voraussetzungen und Bedingungen Einfluss ausüben. In diesem Zusammenhang ist als entscheidende Grösse das unterschiedliche Vermögen von Organisationen («evaluation capacity»: vgl. Hense/Widmer 2013, 261; Naccarella et al. 2007, 232), Evaluationen zur eigenen Praxis durchführen zu können, zu nennen. Hierzu zählen etwa die Fähigkeiten (skills) der Mitarbeitenden, ausreichende finanzielle und zeitliche Ressourcen und die Verankerung von Evaluationen in der Organisationskultur (Norton et al. 2016, 4f.; Cousins et al. 2014, 15; Baker et al. 2010, 969; Gervi et al. 2010). Weiter wird die Förderung einer Institutionalisierung von Wirkungsmessungen durch die Verknüpfung mit bzw. die Integration in Management- oder Führungssystemen als wesentlich angesehen (Bieri/Studer 2016, 269)1. Carman und Fredericks (2010) ergänzen in einer Literaturreview die bedeutsame Rolle der Leitung (siehe auch Preskill/Boyle 2008; Alaimo 2008).

[4]

Zusammenfassend lässt sich festhalten, dass aus evaluationstheoretischer Sicht gleichermassen organisationsexterne Faktoren – etwa Vorgaben und Anreize – wie auch organisationsinterne Bedingungen, die in Teilen unter dem Begriff der «evaluation capacity» gefasst werden können, für Evaluationsaktivitäten in Organisationen der Sozialen Arbeit von Relevanz sind.

2.

Forschungsstand in der Schweiz ^

[5]

Doch inwieweit sich Entwicklungen in Gesellschaft und in der Profession der Sozialen Arbeit in der Verbreitung und Praxis von Evaluationen niederschlagen, ist für die Schweiz nur bruchstückhaft aufzeigbar. Es lassen sich drei Studien anführen, die einen Überblick über die Evaluationspraxis bzw. zur Wirkungsmessung bieten: Bieri und Studer (2016) berichten von einem Survey bei Non-Profit-Organisationen, die ein Zewo-Gütesiegel (Zertifizierung für gemeinnützige, Spenden sammelnde Organisationen) aufweisen (mit 223 Fällen, 2009). Sie kommen zum Ergebnis, dass 40% der Organisationen Wirkungsmessungen durchführen. Eine zweite Studie von Bernet und Gmür (2015), welche bei Mitgliedorganisationen von drei Fachverbänden im Sozial- und Gesundheitsbereich durchgeführt wurde, berechnet, dass 54% der Organisationen die langfristige Zielerreichung, u.a. auf Basis von Selbstbeurteilungen, überprüfen. Der Anteil der Organisationen, welche für die Wirkungsmessung systematisch wissenschaftliche (Erhebungs- und Auswertungs-) Methoden nutzen, wird von den Autoren auf 20% geschätzt. Eine neuere Erhebung von 2019 (Hochuli Freund et al. 2020) berücksichtigt Organisationen, die in der Sozialen Arbeit in der Deutschschweiz tätig sind. Bei insgesamt 180 Organisationen liegen Angaben zur Bedeutung bzw. zu Aktivitäten der Wirkungsmessung vor. Rund 70% der adressierten fachlichen Leitungspersonen erachten es für ihre Organisation als wichtig, die Wirkungen der eigenen Leistungen und Angebote zu kennen. Von 75% der Organisationen in der Deutschschweiz wird angegeben, interne Aktivitäten zur Messung von Wirkungen vorzunehmen, und dabei sowohl informelle wie auch formelle Formen einzuschliessen. In einem Fünftel der Einrichtungen (21%) gab es in den letzten fünf Jahren zudem eine externe Studie zwecks Messung der Wirkungen (vgl. Hochuli Freund et al. 2020).

[6]

Diese punktuellen Studienergebnisse geben ausreichend Hinweise, dass sich Evaluationsaktivitäten als Teil der Praxis in der Sozialen Arbeit zunehmend etabliert haben. Es ist jedoch festzuhalten, dass nicht von einer vollständigen Durchdringung der Sozialen Arbeit und von arbeitsfeld- und organisationsspezifischen Unterschieden auszugehen ist. Zudem ist zu berücksichtigen, dass den Studienergebnissen spezifische Operationalisierungen zugrunde liegen, die auf unterschiedlichen theoretischen Konzepten basieren.

3.

Einblick in ein laufendes Forschungsprojekt ^

3.1.

Fragestellungen und Ziele des Forschungsprojekts ^

[7]

Das im Mai 2020 gestartete und vom Schweizerischen Nationalfonds (SNF) geförderte Forschungsprojekt «Auf dem Weg zur «evidenzbasierten Praxis»? Evaluationen in Organisationen der Sozialen Arbeit» bezweckt die Analyse von Formen, Strategien und Bedingungen von Evaluationen in Organisationen der Sozialen Arbeit innerhalb der Deutschschweiz. Ausgangspunkt bildet die neo-institutionalistische Theorieperspektive, die der Annahme ist, dass die Notwendigkeit, Ergebnisse und Wirkungen in der Sozialen Arbeit auszuweisen, mit der institutionalisierten Umwelt und entsprechenden externen Erwartungsansprüchen gekoppelt ist (vgl. Müller 2013).

[8]

Beim Forschungsprojekt stehen drei Kernfragen im Fokus: 1) Wie sieht die bestehende Evaluationspraxis in Einrichtungen der Sozialen Arbeit innerhalb der Deutschschweiz aus? 2) Welche organisationsinternen und -externen Faktoren nehmen Einfluss auf die Evaluationspraxis? 3) Wie gestaltet sich die konkrete praktische Umsetzung von Evaluationsaktivitäten in ausgewählten Einrichtungen der Sozialen Arbeit? Ein primäres Forschungsziel ist, über einen Survey einen generellen Überblick über die Evaluationsaktivitäten in sozialen Einrichtungen zu erhalten und verschiedene «Typen der Evaluierung» zu identifizieren. Des Weiteren soll – als zweites Ziel – auf Basis von Survey-Daten eine Überprüfung von theoretisch gestützten Annahmen ermöglicht werden, welche die Variation der Formen von Evaluationsaktivitäten in Verbindung mit internen und externen Einflussfaktoren bringt. Ein drittes Ziel ist der Blick hinter die Kulissen von Sozialen Organisationen. Im Rahmen von Fallanalysen wird darauf fokussiert, wie Evaluationsaktivitäten umgesetzt werden, ob sie mit professionellen Handlungsvollzügen verschränkt sind und ob ihnen mögliche Formen «evidenzbasierter Praxis» zugrunde liegen.

3.2.

Forschungsdesign, Erhebungsinstrument und Datensatz ^

[9]

Das Projekt bedient sich eines Mixed-Method-Designs, wobei sowohl quantitative (Online Survey) als auch qualitative Forschungsmethoden (Fallanalysen) zum Einsatz kommen. Der vorliegende Beitrag konzentriert sich auf den ersten Teil des Forschungsprojektes, die quantitative Erhebung, und liefert erste Antworten zu Fragestellung 1 (zur bestehenden Evaluationspraxis in Einrichtungen der Sozialen Arbeit, siehe oben). Der im Frühjahr 2021 in einer E-Mail-Einladung versendete Online-Survey richtete sich an Leitungspersonen von insgesamt 1'878 Einrichtungen im Sozialwesen der deutschsprachigen Schweiz.

[10]

Der Fokus des Projekts liegt auf der «Sozialen Arbeit»2, welche die drei Berufsfelder Sozialarbeit, Sozialpädagogik und soziokulturelle Animation umfasst (vgl. Becker-Lenz/Baumgartner 2017, 856). Angesichts der ausdifferenzierten Landschaft der «Sozialen Arbeit» wurden zur Eingrenzung und Reichweite der Studie folgende zwei Feldzugänge gewählt: a) Sozialwesen gemäss NOGA-Nomenklatur3 (zentrales BUR-Sample): der zentrale Zugang zu Organisationen in der Sozialen Arbeit erfolgt über das Betriebs- und Unternehmensregister (BUR) des Bundesamts für Statistik (BFS). Anhand der Branchennomenklatur NOGA (2008) des BFS liessen sich Unternehmen im stationären und ambulanten Sozialwesen (NOGA 87 und 88) identifizieren und damit viele Bereiche bzw. Arbeitsfelder der Sozialen Arbeit abdecken4. Es verblieben nach einer Adressbereinigung insgesamt 918 Kontaktadressen im BUR-Sample. b) Ausgewählte Arbeitsfelder der Sozialen Arbeit (kontrastierendes Sample): Kontrastierend zum zentralen Sample wurden drei Arbeitsfelder, die sich in Bezug auf die Einbettung in gesellschaftliche Funktionssysteme sowie in ihrer Historie unterscheiden, ausgewählt: Betriebliche Soziale Arbeit (Wirtschaftssystem), Schulsozialarbeit (Schulsystem) und Klinische Sozialarbeit (Gesundheitssystem). Für diese drei Arbeitsfelder wurde der Zugang zu den Adressen über relevante Fach- und Berufsverbände und direkt über die Organisationen mittels Internetrecherchen gewonnen (insgesamt 960 Adressen).

[11]

Bei der Erhebung wurde ein Rücklauf von 39 Prozent erzielt. Die Gesamtteilnehmendenzahl betrug N=739, bestehend aus 395 Fällen des zentralen BUR-Sample, 168 Fällen aus dem Arbeitsfeld der Schulsozialarbeit, 130 Fällen der Gesundheitsbezogenen Sozialarbeit und 46 Fällen von Betrieblichen Sozialberatungen.

[12]

Der Aufbau des standardisierten Erhebungsinstruments wurde theoretisch gerahmt und in einem mehrstufigen Pretestverfahren, mit Unterstützung von Expertinnen und Experten sowie Mitgliedern der Zielgruppe, geprüft. Der Fragebogen deckt fünf Themengebiete ab: (1) Merkmale der Organisation und der Leitungsperson, (2) Art der Informationserfassung, (3) Ergebniserfassung/ -auswertung/ -nutzung, (4) Weitere Evaluationsaktivitäten und (5) organisationsinterne und -externe Einflussfaktoren. Die durchschnittliche Bearbeitungszeit für den Survey betrug ca. 33 Minuten. Die Operationalisierung von «Evaluationsaktivitäten» basiert auf drei separat erfragten Dimensionen, konkret auf Erfassungs-, Auswertungs- und Nutzungspraktiken5. Im Folgenden steht die Dimension der Erfassung von Informationen im Zentrum. Als Gegenstände der Erfassung wurden Ressourcen für die Erbringung von Dienstleistungen (Input), Outputs (Anzahl erbrachter Dienstleistungen, Anzahl Klient/innen oder Dossiers), Zufriedenheit (von Klient/innen, Angehörigen, Finanzträger/innen oder Kooperationspartner/innen) sowie Ergebnisse unterschieden. Letzteres meint die Erfassung von (unmittelbaren) Veränderungen bei der Zielgruppe (Outcome) nach erbrachter Dienstleistung. Die Erfassung von weitreichenden, über den Einzelfall hinausgehenden Ergebnissen oder Effekten wird als Impact bezeichnet (vgl. Baumgartner/Haunberger 2014, 15).

3.3.

Erste Teilergebnisse zum Stand der Evaluationsaktivitäten ^

[13]

Dieser Beitrag beschränkt sich auf die Darstellung von ersten deskriptiven Teilergebnissen. Sie beziehen sich lediglich auf das zentrale BUR-Sample (N=395) und basieren auf ungewichteten Daten und validen Prozentwerten (nach Ausschluss Missings). Als Folge divergiert die Anzahl Fälle (N=395) bei einzelnen Items in Abhängigkeit von der Anzahl der fehlenden Werte.

3.3.1.

Organisationstyp und Dienstleistungen ^

[14]

Von den befragten Leitungspersonen der BUR-Einrichtungen geben 88 Prozent (n=346) an, eine eigenständige Einrichtung zu sein. Lediglich 12 Prozent (n=49) identifizieren sich als Teil einer übergeordneten Organisation. Dieser Befund zeigt das erwartete Ergebnis: Das BUR-Sample beinhaltet mehrheitlich Organisationen, die aus eigenständigen Einrichtungen bestehen und auch gegenüber einer (allenfalls vorhandenen) übergeordneten Ebene (Dachorganisation, nationaler Verband etc.) weitgehend unabhängig sind.

[15]

Je nach Arbeitsfeld können sich soziale Einrichtungen in der Erbringung von Dienstleistungen massgeblich unterscheiden. Vor diesem Hintergrund wurden Fragen nach der Art von erbrachten Dienstleistungen gestellt und erfragt, welche Dienstleistung innerhalb der Einrichtung den «grössten Bereich» ausmacht bzw. für welche Leistungen am meisten personelle und zeitliche Ressourcen aufgewendet werden. Die fünf am häufigsten genannten grössten Dienstleistungsbereiche6 sind: Stationäre Betreuung oder Begleitung (n=142; 36%), Ambulante Beratung (n=111; 28%), Ambulante Betreuung oder Begleitung (n=52; 13%), Coaching (n=50; 12.6%), Projekte oder Programme (n=40; 10%).

3.3.2.

Informationserfassung und Design ^

[16]

In Einrichtungen der Sozialen Arbeit können unterschiedliche Aspekte der Leistungserbringung erfasst werden. Wie Tabelle 1 zeigt, geben praktisch alle Leitungspersonen an, dass in ihren Organisationen die für die Leistungserbringung eingesetzten «Ressourcen» (92%; n=345) erhoben werden. Auch für die Outputs – die «Anzahl Dossiers oder die Anzahl Klient/innen» (95%; n=370) und «Anzahl erbrachter Dienstleistungen» (81%; n=303) – gilt dies grossmehrheitlich. In Bezug auf die Erfassung der Zufriedenheit bei verschiedenen Anspruchsgruppen zeigt sich, dass die teilnehmenden Einrichtungen insbesondere die Zufriedenheit bei «Klient/innen» (66%; n=260) und bei «Finanzträger/innen» (53%; n=206) erheben. Die Erfassung der Zufriedenheit bei «Kooperationspartner/innen» (33%; n=127) und «Angehörigen» (n=91; 24%) spielt beim BUR-Sample eine eher untergeordnete Rolle. Neben der Erfassung von Input und Output wurde auch die Erfassung von Outcomes (Ergebnisse) erfragt. Unter «Ergebnisse» wird die Situation nach erbrachten Dienstleistungen verstanden. Wie in der Tabelle 1 ersichtlich, geben 86% (n=338) der befragten Einrichtungen an, in ihrem grössten Dienstleistungsbereich Ergebnisse ihrer Dienstleistungen zu erheben. Die Erfassung von weitreichenden Ergebnissen oder Effekten (Impact) ist hingegen deutlich weniger verbreitet: es bestätigen 9% (n=30) jener Einrichtungen, die im grössten Dienstleistungsbereich Ergebnisse erfassen, weitreichende über den Einzelfall hinausgehenden Wirkungen «systematisch» zu überprüfen. Weitere 17% (n=58) erfassen einen Impact nur unsystematisch, knapp drei Viertel der Einrichtungen (74%, n=250) folglich gar nicht.

Erfassung von Gegenständen Ja Nein Anzahl Fälle
Ressourcen der Leistungserbringung 92% 8% 375
Anzahl erbrachter Dienstleistungen 81% 19% 376
Anzahl Dossiers oder Anzahl Klient/innen 95% 5% 389
Zufriedenheit Klient/innen 66% 34% 395
Zufriedenheit Angehörige 24% 76% 385
Zufriedenheit Finanzträger/innen 53% 47% 391
Zufriedenheit Kooperationspartner/innen 33% 66% 388
Ergebnisse von Dienstleistungen1 86% 14% 395
Anmerkung:
1 Auf den grössten Leistungsbereich bezogen

Tabelle 1: Gegenstände der Informationserfassung (Basis: BUR-Sample)

[17]

Nebst der Erhebung von Input, Output und Ergebnissen deklariert eine Mehrheit der Einrichtungen, dass sie zusätzlich Verlaufsdaten von Klientinnen und Klienten festhalten (Prozessmonitoring): Es ist ein Anteil von 46% (n=181) aller befragten Einrichtungen, die Verlaufsdaten systematisch (d.h. als fester Teil eines Prozesses) erfassen, während weitere 38% (n=152) Verlaufsdaten zwar erfassen, aber nicht systematisch (d.h. eher punktuell, bei Bedarf oder je nach Person).

[18]

Des Weiteren stellt sich in Zusammenhang mit der Erfassung von Ergebnissen die Frage, wie genau dies geschieht. Die Leitungspersonen wurden gefragt, welche Erhebungsmethoden bei der Ergebniserfassung zum Einsatz kommen. Die Erhebung in Form einer «Befragung» kommt am häufigsten vor: Von den 338 Einrichtungen, die im grössten Dienstleistungsbereich Ergebnisse erheben, geben 55% (n=186) an, Befragungen «systematisch» (d.h. als fester Teil eines Prozesses) durchzuführen, und von weiteren 38% (n=129) werden Befragungen zwar durchgeführt, aber «nicht systematisch» (d.h. eher punktuell, bei Bedarf oder je nach Person). Immerhin 38% (n=130) aller Einrichtungen erheben Ergebnisse auch systematisch mittels Beobachtung; weitere 47% (n=158) setzen Beobachtung zur Ergebniserfassung nicht systematisch ein (d.h. eher punktuell, bei Bedarf oder je nach Person).

[19]

Während die systematische Erfassung von Ergebnissen über Befragungen und Beobachtungen verbreitet ist, ist der Einsatz eines Kontrollgruppen-Designs eher selten. Eine systematische Ergebniserfassung unter Nutzung eines Vergleichs- oder Kontrollgruppen-Designs, kommt nur in 4% (n=15) aller Einrichtungen zur Anwendung (weitere 11% bzw. 43 Organisationen setzen ein solches Design zumindest teilweise ein).

3.3.3.

Weiterentwicklung und Zufriedenheit mit internen Evaluationsaktivitäten ^

[20]

Die Studie von Bieri und Studer (2016, 268) zieht die Bilanz, dass die Umsetzung der Ergebnismessung bzw. Wirkungsmessung generell noch ausbaufähig ist. Einem solchen Ausbau steht ein Teil der Leitungspersonen positiv gegenüber: Gemäss den Befragungsdaten plant etwas weniger als die Hälfte (43%; n=161) der Organisationen einen Ausbau oder eine Weiterentwicklung ihrer Evaluationsaktivitäten. Aktuell scheint auf diesem Weg eher die Anwendung von wissenschaftlichen Methoden eine Herausforderung zu sein als interne Ressourcen und bestehende Kompetenzen. Denn mit den innerhalb der Einrichtung zur Verfügung stehenden Ressourcen für Evaluationen (bspw. personell, zeitlich) ist die Mehrheit aller Einrichtungen «eher zufrieden» (44%; n=165) oder «zufrieden» (18%; n=67). Auch mit den bestehenden Fähigkeiten und Kompetenzen in Bezug auf Evaluationen, ist die überwiegende Mehrheit der Teilnehmenden «eher zufrieden» (54%; n=202) oder «zufrieden» (18%; n=68). Hingegen werden die externen Informations- und Unterstützungsangebote in Bezug auf Evaluationen knapp von der Hälfte als nicht zufriedenstellend eingestuft: 38% (n=142) sind «eher unzufrieden» und 9% (n=32) komplett «unzufrieden». Dies kann eine Erklärung sein, dass rund 21% (n=81) der befragten Einrichtungen mit der aktuellen Umsetzung ihrer Evaluationsaktivitäten (Planung, Durchführung und Auswertung) (eher) unzufrieden sind.

4.

Folgerungen und Ausblick ^

[21]

Der vorliegende Beitrag zeigt im Sinne eines Werkstattberichts erste Teilergebnisse aus einem laufenden Forschungsprojekt auf. Es sind deskriptive Resultate basierend auf einem Survey bei Organisationen der Sozialen Arbeit auf Grundlage eines BUR-Samples. Zusammenfassend lassen sich einige Ergebnisse festhalten: Erstens fällt auf, dass eine grosse Mehrheit der befragten Leitungspersonen angibt, im grössten Dienstleistungsbereich Ergebnisse zu erfassen (86%; n=338). Dies impliziert, dass immerhin 14% (n=57) Einrichtungen zu verzeichnen sind, die Ergebnisse ihrer Dienstleistungen nicht überprüfen. Die Ergebniserfassung richtet sich ganz wesentlich auf die (unmittelbaren) Veränderungen bei den Adressatinnen und Adressaten der Leistungen (Outcome), während weiterreichende Veränderungen, die über den Einzelfall hinausgehen (Impact), von knapp drei Vierteln nicht erfasst werden (74%; n=250). Wenn – zweitens – Einrichtungen im grössten Dienstleistungsbereich Ergebnisse erfassen, dann kommen als systematisch angelegte Zugänge hauptsächlich Befragungen (55%; n=186) und Beobachtungen (38%; n=130) zur Anwendung. Ein drittes Ergebnis, welches sich auf Basis der Daten formulieren lässt, ist, dass die Zufriedenheitserfassung ein wichtiges Thema für die Evaluation von sozialen Dienstleistungen darstellt. 66% der Einrichtungen erheben bei ihren Klientinnen und Klienten deren Zufriedenheit. Dieser Befund korrespondiert mit anderen Untersuchungen, wonach Zufriedenheitsrückmeldungen von Klientinnen und Klienten eine zentrale Informationsgrundlage zur Beurteilung von Dienstleistungen darstellen (vgl. Froncek et al. 2018; Heiner 2007).

[22]

Diese hier beschriebenen Resultate hinsichtlich «Ergebniserfassung» können, u.a. aufgrund unterschiedlicher Operationalisierungen und Samples, nur bedingt mit den Resultaten der oben beschriebenen Studien in der Schweiz verglichen werden. Mit 86% (n=338) der Einrichtungen, die Ergebnisse ihrer Leistungen erfassen, resultiert aber ein vergleichbarer Befund wie in der Erhebung von Hochuli Freund et al. (2020), in der 75% der Organisationen nach eigenen Angaben interne Aktivitäten zur Messung von Wirkungen vornehmen. Schliesslich kann festgehalten werden, dass diese Studienergebnisse die bisherigen Annahmen bestätigen können, dass sich Evaluationsaktivitäten als Teil der Praxis in der Sozialen Arbeit zunehmend etabliert haben. Es zeigt sich zudem erwartungsgemäss eine grosse Variation an Formen von Evaluationsaktivitäten in Bezug auf die Erfassung von Informationen.

[23]

In der weiteren Analyse der Daten wird nun zu prüfen sein, inwieweit sich Unterschiede auch darin äussern, wie Organisationen die erhobenen Daten auswerten und die Daten bzw. das Instrumentarium von Evaluationen nutzen. Zudem ist angestrebt, in einem weiteren Schritt, die verschiedenen Evaluationsaktivitäten – Daten erfassen, auswerten und nutzen – zu unterschiedlichen Konstellationen zusammenzufassen und verschiedene «Typen der Evaluierung» zu identifizieren. Mit Einschluss des kontrastierenden Samples bietet die quantitative Erhebung mit 739 ausgefüllten Fragebögen eine solide Datenbasis, um Formen und Typen der Evaluierung beschreiben und deren Zusammenhänge mit verschiedenen Einflussfaktoren (2. Ziel des Forschungsprojekts) identifizieren zu können.

[24]

Ein letztes Ziel des Forschungsprojektes ist der Blick hinter die Kulissen von Sozialen Organisationen. Mit einer qualitativ angelegten Herangehensweise wird im Rahmen von Fallanalysen darauf fokussiert, wie Evaluationsaktivitäten in der Praxis umgesetzt werden und mit professionellen Handlungsvollzügen verschränkt sind. Es ist die theoretisch angelegte Frage zu untersuchen, wie Organisationen mit evaluationsspezifischen (externen) Erwartungshaltungen unterschiedlich umgehen und ob die aufgezeigten Aktivitäten der Erfassung von Informationen primär der Legitimierung dienen und von der Ebene der konkreten Leistungserbringung weitgehend entkoppelt sind (vgl. Walgenbach/Meyer 2008) oder in welcher Form sie die Leistungserbringung befördern.


Prof. Dr. Edgar Baumgartner, Leiter des Instituts Professionsforschung und -entwicklung an der Hochschule für Soziale Arbeit der Fachhochschule Nordwestschweiz.

Aline Kaufmann, Wissenschaftliche Assistentin im Institut Professionsforschung und ‑entwicklung an der Hochschule für Soziale Arbeit der Fachhochschule Nordwestschweiz.

Michael Lambertus, Wissenschaftlicher Mitarbeiter im Institut Professionsforschung und ‑entwicklung an der Hochschule für Soziale Arbeit der Fachhochschule Nordwestschweiz.


Literatur ^

  • Alaimo, Salvatore P. (2008): Nonprofits and evaluation: Managing expectations from the leader’s perspective, In: New Directions for Evaluation, Jg. 119, S. 73–92.
  • Baier, Florian / Keller, Samuel / Koch, Martina / Wigger, Annegret (2013): Die schweizerische Forschungslandschaft der Sozialen Arbeit, In: Riedi, Anna Maria / Zwilling, Michael / Meier Kressig, Marcel / Benz Bartoletta, Petra / Aebi Zindel, Doris (Hg.), Handbuch Sozialwesen Schweiz, Bern, 409–418.
  • Baker, Lisa R. / Stephens, Frederick / Hitchcock, Laurel (2010): Social Work Practitioners and Practice Evaluation: How Are We Doing?, In: Journal of Human Behavior in the Social Environment, Jg. 20, Nr. 8, S. 963–973.
  • Baumgartner, Edgar Haunberger, Sigrid (2014): Evaluations- und Wirkungsforschung in der Sozialen Arbeit – Potenzial und methodische Herausforderungen, In: Soziale Innovation, S. 14–20.
  • Becker-Lenz, Roland Baumgartner, Edgar (2017): Soziale Arbeit in der Schweiz, In: Kreft, Dieter / Mielenz, Ingrid (Hg.), Wörterbuch Soziale Arbeit. Aufgaben, Praxisfelder, Begriffe und Methoden der Sozialarbeit und Sozialpädagogik, 8. vollständig überarbeitete und aktualisierte Aufl., Weinheim/Basel, S. 854–861.
  • Becker-Lenz, Roland Baumgartner, Edgar (2016): Die Profession der Sozialen Arbeit am Beispiel der Schweiz, In: von Dick, Michael / Marotzki, Winfried / Mieg, Harald (Hg.), Handbuch Professionsentwicklung. Stuttgart, S. 526–535.
  • Bernet, Pius Gmür, Markus (2015): Leistungs- und Erfolgsmessung in Sozialen und Gesundheits-NPO, In: Verbandsmanagement (2), S. 23–33.
  • Bestvater, Hanne Beywl, Wolfgang (2015): Gelingensbedingungen von Selbstevaluation, In: Bolay, Eberhard / Iser, Angelika / Weinhardt, Marc (Hg.), Methodisch Handeln – Beiträge zu Maja Heiners Impulsen zur Professionalisierung der Sozialen Arbeit, Wiesbaden, S. 133–145.
  • Bieri, Oliver Studer, Sibylle (2016): Wirkungsmessung bei NPO: Notwendiges Übel oder Teil der Strategie? Wirkungsmessung und Entwicklungspotenzial bei Spenden sammelnden Organisationen in der Schweiz, In: Soziale Arbeit, 65 (6/7), S. 267–273.
  • Carman, Joanne G. Fredericks, Kimberly A. (2010): Evaluation Capacity and Nonprofit Organizations. Is the Glass Half-Empty or Half-Full?, In: American Journal of Evaluation, Jg. 31, Nr. 1, S. 84–104.
  • Cousins, Bradley J. Goh, Swee C. Elliott, Catherine J. Bourgeois, Isabelle (2014): Framing the capacity to do and use evaluation, In: Cousins, Bradley J. / Goh, Swee C. / Elliott, Catherine J. / Bourgeois, Isabelle (Hg.), Organizational capacity to do and use evaluation. New Directions for Evaluation, Jg. 141, S. 7–23.
  • Dollinger, Bernd (2018): Paradigmen sozial- und erziehungswissenschaftlicher Wirkungsforschung: Eine Analyse kausaltheoretischer Annahmen und ihrer Folgen für die Soziale Arbeit, In: Soziale Passagen, Jg. 10, Nr. 2, S. 245–246.
  • Froncek, Benjamin Mazziotta, Agostino McCann, Pamela J. Würpel, Ilka Rohmann, Anette (2018): Evaluation in der psychosozialen Beratungsarbeit: Ein Survey zur Praxis der Evaluation aus Sicht der Beratenden, In: Zeitschrift für Evaluation, 17(2), S. 241–268.
  • Gambrill, Eileen (1999): Evidence-based practice: An alternative to authority-based practice, In: Families in Society, Jg. 80. Nr. 4, S. 341–350.
  • Hammerschmidt, Peter Aner, Kirsten Weber, Sascha (2017): Zeitgenössische Theorien Sozialer Arbeit, Basel/Weinheim.
  • Heiner, Maja (2007): Evaluation in der Beratung, In: Nestmann, Frank / Engel, Frank / Sickendiek, Ursel (Hg.), Das Handbuch der Beratung, Band 2: Ansätze, Methoden und Felder, 2. Aufl., Tübingen, S. 825–835.
  • Hense, Jan Widmer, Thomas (2013): Ein Überblick zum internationalen Stand der Forschung über Evaluation, In: Hense, Jan / Rädiker, Stefan / Böttcher, Wolfgang / Widmer, Thomas (Hg), Forschung über Evaluation. Bedingungen, Prozesse, Wirkungen, Münster, S. 251–278.
  • Hochuli Freund, Ursula Gebert, Jakin John, Anna Sprenger, Raphaela (2020): «Wissen in der Praxis». Projektbericht. Olten: Institut Professionsforschung und -entwicklung, Hochschule für Soziale Arbeit FHNW.
  • James, Sigrid (2016): «Inside the belly of the beast» – Möglichkeiten und Grenzen der evidenzbasierten Praxis, In: Borrmann, Stefan / Thiessen, Barbara (Hg.), Wirkungen Sozialer Arbeit. Potentiale und Grenzen der Evidenzbasierung für Profession und Disziplin, Opladen/Berlin/Toronto, S. 143–160.
  • Mayrhofer, Hemma (2014): Krise des Widerspruchsmanagements – Wirkungsorientierung in der Sozialen Arbeit aus neoinstitutionalistischer Theorieperspektive, In: Österreichische Zeitschrift für Soziologie, Jg. 39, Nr. 4, S. 281–305.
  • Menold, Natalja (2007): Methodische und methodologische Aspekte der Wirkungsmessung, In: Sommerfeld, Peter / Hüttemann, Matthias (Hg.), Evidenzbasierte Soziale Arbeit. Nutzung von Forschung in der Praxis, Hohengehren, S. 26–39.
  • Müller, Matthias (2013): Evaluation in der Sozialen Arbeit: Eine Studie zum Verhältnis von Autonomie und Heteronomie, In: Hense, Jan / Rädiker, Stefan / Böttcher, Wolfgang / Widmer, Thomas (Hg.), Forschung über Evaluation. Bedingungen, Prozesse, Wirkungen, Münster, S. 87–104.
  • Naccarella, Lucio Pirkis, Jane Kohn, Fay Morley, Belinda Burgess, Philip Blashki, Grant (2007): Building evaluation capacity: Definitional and practical implications from an Australian case study, In: Evaluation and Program Planning, Jg. 30, Nr. 3, S. 231–236.
  • Norton, Sophie Milat, Andrew Edwards, Barry Giffin, Michael (2016): Narrative review of strategies by organizations for building evaluation capacity, In: Evaluation and Program Planning, Jg. 58, S. 1–19.
  • Otto, Hans-Uwe / Polutta, Andreas / Ziegler, Holger (Hg.) (2010): What Works – Welches Wissen braucht die Soziale Arbeit? Zum Konzept evidenzbasierter Praxis, Opladen.
  • Petersén, Anna Charlotta Olsson, Jan Ingvar (2014): An evaluation paradox in social work? An empirical study of evaluation use in connection with temporary programmes in Swedish social work, In: European Journal of Social Work, Jg. 17, Nr. 2, S. 175–191.
  • Preskill, Hallie Boyle, Shanelle (2008): A multidisciplinary model of evaluation capacity building, In: American Journal of Evaluation, Jg. 29, Nr. 4, S. 443–459.
  • Silva, Teresa Lind, Mia (2020): Experiences of the Member States Performing Evaluations in Projects and Activities Aimed at Crime Prevention. Research report, Östersund.
  • Sommerfeld, Peter Hüttemann, Matthias (2007): Evidenzbasierte Soziale Arbeit. Nutzung von Forschung in der Praxis, Hohengehren.
  • Stockmann, Reinhard / Meyer, Wolfgang (2020): Die Institutionalisierung der Evaluation in Europa, In: Zeitschrift für Evaluation, Jg.19, Nr. 1, S. 111–135.
  • Walgenbach, Peter Meyer, Renate (2008): Neoinstitutionalistische Organisationstheorie, Stuttgart.
  • Widmer, Thomas Eberli, Daniela Ackermann, Günter Balzer, Lars Bundi, Pirmin Hirschi, Christian Kasper, Tanya Neuenschwander, Peter Neuhaus, Björn Rohrbach, Walter / Schlaufer, Caroline Strebel, Felix (2016): Forschung über Evaluation in der Schweiz: Stand und Aussichten, In: Leges 27 (2016) 3, S. 459–483.
  1. 1 Zur Integration von Evaluationsaktivitäten in den Arbeitsalltag, siehe auch Bestvater und Beywl (2015).
  2. 2 Soziale Arbeit kann gefasst werden als «eine personenbezogene soziale Dienstleistung, die im sozialstaatlichen Rahmen zur Bearbeitung sozialer Probleme eingesetzt wird, damit die Adressat/innen im gesellschaftlichen Interesse bei der Bewältigung von Lebensproblemen so unterstützt werden, dass sie in die Lage versetzt werden, gesellschaftlichen (Normalitäts-) Anforderungen zu entsprechen» (Hammerschmid et al. 2017, 13f.).
  3. 3 NOGA stellt die Systematik der Wirtschaftszweige dar. (Link: https://www.kubb-tool.bfs.admin.ch/de).
  4. 4 Darunter fallen namentlich: 872001 Institutionen für Suchtkranke; 872002 Institutionen für psychosoziale Fälle; 879001 Wohnheime für Kinder und Jugendliche; 879002 Erziehungsheime; 879003 Sonstige Wohnheime; 881000 Soziale Betreuung älterer Menschen und Behinderter; 889902 Sonstiges Sozialwesen.
  5. 5 Die Operationalisierung von «Evaluationsaktivitäten» erfolgte in Anlehnung an das Erhebungsinstrument «Questionnare EUCPN Project» von Silva und Lind (2020).
  6. 6 Mehrfachantworten von Dienstleistungen möglich. Andere Dienstleistungsbereiche, die zur Auswahl standen, sind: Fall- oder Case Management (n=33; 8.3%), Krisenintervention oder Triage-Massnahmen (n=27, 6.8%), Fort-, Weiterbildungs- und Aufklärungsmassnahmen (n=25; 6.3%), Stationäre Beratung (n=23; 5.8%), Soziokulturelle oder sozialraumbezogene Angebote (n=23; 5.8%), Anwaltschaftliche Vertretung oder Beistandschaften (n=19; 4.8%) und «Andere» (n=56; 14.1%).