Kommentar zur überarbeiteten Version der Studie des IfW Kiel…

…, wieder ist es aufschlussreich, wie Sozi Simon kommentiert, wie unübersichtlich das Leistungsgefüge ist und wie schnell Berechnungen aufgrund bestimmter Annahmen in eine bestimmte Richtung weisen.

Was ich allerdings nicht teile, ist die sehr vereinfachte Betrachtung von „Anreiz“, denn hier haben schon die Studien von Vobruba und Kollegen vor Jahren gezeigt, dass die Gründe dafür, die Erwerbsteilnahme nicht zu erweitern, vielfältig sind und keineswegs mit dem Lohnabstand zuerst zu tun haben.

Überhaupt ist der Begriff schon irreführend, weil es sich bei „Anreizen“, so wie meist darüber gesprochen wird, nur um Handlungsmöglichkeiten handelt, um mehr nicht. Wer mit fallrekonstruktiver Forschung (siehe auch hier) vertraut ist und detailliert Forschungsgespräche (Interviews) auswertet, den wird das ohnehin nicht überraschen, denn die Eindimensionalität und der Reduktionsmus mancher Behauptungen, die bezüglich der Leistungsmotivation immer wieder im Raum stehen, resultiert daraus, dass in standardisierten Daten (Befragungen), die Komplexität und durchaus auch Widersprüchlichkeit der Deutungswelten der Befragten, nicht zum Ausdruck kommt. Eine methodische Beschränkung führt hier zu abstrahierenden Vereinfachungen.

Sascha Liebermann

Hat das womöglich etwas mit Erhebungs- und Auswertungsmethode zu tun?

Wer mit nicht-standardisierten Daten wie Forschungsgesprächen arbeitet, kann bei sorgsamer fallrekonstruktiver/ interpretativer Auswertung nie auf den Gedanken kommen, dass es anders sein könnte. Ein solcher Befund mag also diejenigen erstaunen, die mit standardisierten Daten arbeiten, andere hingegen nicht.

Ob diese Studie detailliert ausgewertet hat, diese Einschätzung sei dem geneigten Leser überlassen, sie ist hier frei zugänglich.

Sascha Liebermann

Umfragehochs und Abstimmungstiefs…

…eine Notiz von Norbert Häring mit Blick auf vergangene Umfragehochs der SPD und den realen Wahltiefs. Am Ende merkt Häring an, dass es an den Modellen und der Datenbearbeitung liegen könne und zeigt sich vorsichtig, weil er darüber zu wenig wisse.

Methodisch können zwei entscheidende Punkte angemerkt werden, weshalb Meinungsumfragen weit abweichen können von nachfolgenden Entscheidungen, also realem Handeln im Unterschied zu hypothetischem. Umfragen fragen hypothetisches Handeln ab bzw. in der Hierarchie von Wissensformationen eine Ebene, die oberflächlich und schwankend ist: Meinungen (meist wird von „Einstellungen“ gesprochen). Es handelt sich um Einschätzungen zu einer Frage, die aber nicht tatsächliches Handeln abbilden.

Umfragehochs und Abstimmungstiefs… weiterlesen

Zu den Grenzen von Statistik – allerdings nicht neu Korrelation vs. Kausalität

Dass sich an der Dominanz standardisierter Forschung in den Sozialwissenschaften angesichts einer Jahrzehnte geführten Diskussion so wenig geändert hat, zeigt auch Schwächen der nicht-standardisierten Forschung. Denn all zu viele Studien verstehen sich als „qualitativ“, wenn dort Interviews geführt und die Inhalte summarisch zusammengefasst und gar noch mit standardisierten Verfahren „ausgewertet“ werden. Eine detaillierte methodisch kontrollierte Rekonstruktion wird leider viel zu selten durchgeführt, mittels deren Fälle als Ausdruck von Allgemeinem und Besonderem bestimmt werden können – und zwar vom Fall aus, der eben nicht bloß ein „Einzelfall“ ist. Dieses Manko zeigt sich dann auch in der Forschung zum Bedingungslosen Grundeinkommen, siehe dazu meinen Beitrag hier.

Sascha Liebermann

„fakten statt annahmen. impulse für eine evidenzbasierte debatte“ – vollmundige Stellungnahme durch die Brille standardisierter Forschungsmethoden…

…so liest sich der „Schwerpunkt“ (hier geht es zur PDF-Datei), den die Stiftung Grundeinkommen veröffentlicht hat. Das Anliegen ist ehrenwert, die BGE-Debatte solle auf der Basis wissenschaftlich belegbarer Erkenntnisse geführt werden, doch Erkenntnisse welcher Art, gewonnen mit welchen Methoden? Und gibt es denn bislang gar keine Erkenntnisse, die genutzt werden könnten?

Zwar werden in der Stellungnahme in einem Schaubild auch „(Einzel-)Fallstudien und qualitative Untersuchungen“ erwähnt, in der Bewertung solcher Verfahren steht dann:

„Trotz empirischen Charakters nur wenig belastbare Diskussions- und Entscheidungsgrundlage aufgrund von geringem Stichprobenumfang und fehlender statistischer Analysen“

Diese Bewertung kann nur vollzogen werden, wenn ein Begriff von Empirie vorausgesetzt wird, der sich am Verständnis standardisierter Verfahren (Statistik) orientiert, die „empirische Generalisierungen“, nicht aber „Strukturgeneralisierungen“ zu erreichen erlauben (zu diesem Unterschied eine sehr differenzierte Darstellung z. B. hier. Weitere Ausführungen zu diesem Komplex hier und hier).

„fakten statt annahmen. impulse für eine evidenzbasierte debatte“ – vollmundige Stellungnahme durch die Brille standardisierter Forschungsmethoden… weiterlesen

„Flüchtlingskrise — welche Flüchtlingskrise?“ – Über den selektiven Umgang mit Paneldaten…

schreibt Gerald Wagner der Frankfurter Allgemeinen Zeitung und macht damit deutlich, dass es gerade keine einfache Sache ist, aus vorliegenden Datensätzen auch haltbare Schlussfolgerungen zu ziehen.

Worüber er nicht weiter schreibt, es aber erwähnt, ist, dass es sich bei diesen Daten eben nur um standardisierte Befragungen handelt, die Selbsteinschätzungen der Befragten erheben. Zwischen Selbsteinschätzung und tatsächlicher Lage kann allerdings eine erhebliche Kluft liegen. Abgesehen davon erfährt man auf diesem Wege über die konkreten handlungsleitenden Überzeugungen einer Person nichts, weil es sich dabei um tiefliegende Strukturen handelt, die Befragten nur selten überhaupt bewusst werden. Für die Erfassung dieser Strukturen bedarf es anderer methodischer Instrumente, wie sie die Tradition der fallrekonstruktiven hermeneutischen Sozialforschung über Jahrzehnte entwickelt hat (siehe z. B. hier).

Sascha Liebermann

„Armutsrisiko. Die Messung von Einkommensarmut“…

…ein Beitrag von Johannes Steffen auf Portal Sozialpolitik der Einblick in die Komplexität statistischer Erhebungen und Auswertungen gibt. Er lässt an einem Beispiel deutlich werden, wie anspruchsvoll die Ausdeutung solcher Datentypen ist und wie sorgsam Schlussfolgerungen daraus geprüft werden müssen. Diese Sorgfaltspflicht gilt natürlich immer, wenn es um die Erhebung aus Auswertung sozialwissenschaftlicher Datentypen geht, doch standardisierte Verfahren, wie sie in der Statistik zum Einsatz bekommen, greifen ganz anders auf die Wirklichkeit zu als nicht-standardisierte Verfahren. Wer sich damit eingehender befassen möchte, erhält hier einen prägnanten Einblick.

Sascha Liebermann

„Wie die Corona-Krise Lebensglück zerstört“ – reißerischer Titel und bescheidene Befunde…

Was die Frankfurter Allgemeine Zeitung geritten hat, unter diesem Titel einen Beitrag von Johannes Pennekamp (Bezahlschranke) zu veröffentlichen, bleibt deren Geheimnis. Im Beitrag geht es darum, wie die Corona-Krise die Lebenszufriedenheit verändert hat, wie nicht anders zu erwarten, wird wieder nur aus standardisierten Befragungen berichtet, die wenig darüber preisgeben, was die Befragten in ihren eigenen Worten bewegt. Denn solche Befragungen lassen die Befragten gar nicht – im wörtlichen Sinne – zu Wort kommen, sie können nur einen Wert auf einer Skala ankreuzen.

Wer fallrekonstruktiv (siehe auch hier und hier) forscht, also auf der Basis nicht-standardisierter Datenerhebungen und -auswertungen, weiß genau, dass Einschätzungen von Lebenssituationen oder auch -erfahrungen viel weniger eindeutig und glatt sind, als es solche Befragungen erscheinen lassen, auch Widersprüche werden deutlich sichtbar. Es hat mit der Methodik der Befragungen zu tun, dass sie nicht näher an das konkrete Leben herankommen. Deswegen ist es ratsam, für solche Fragen nicht auf solch begrenzt aufschlussreiche Methoden zu setzen.

Sascha Liebermann

„Deutsche unterstützen Maßnahmen gegen Ungleichheit in der Bildung“ oder doch nicht?

Die Befunde des jüngsten Ifo Bildungsbarometers 2019 zeigen in ihrer Widersprüchlichkeit, aber auch in ihrer Oberflächlichkeit, wie wenig aussagekräftig solche Auswertungen standardisiert erhobener Daten sind (auf S. 2 der Studie wird die Methodik erläutert, es handelt sich um eine Online-Befragung). Stefan Sell berichtet in seinem Blog über die Studie und versucht sich an der Deutung der Ergebnisse. Die wirkliche Arbeit beginnt soziologisch eben erst, wenn solche Daten gedeutet werden müssen und dazu bieten sie auf der Basis von Skalenwerten wenig Material. Es muss viel herumspekuliert werden, dazu werden entsprechende standardisierte Instrumente genutzt. Dass die Studie „Was die Deutschen über Bildungsungleichheit denken“ übertitelt ist, ohne dass man über das Denken tatsächlich etwas erfährt, ist sinnbildlich für die Oberflächlickeit. Wollte man über das Denken etwas erfahren, müsste anders vorgegangen werden: nicht-standardisiert und rekonstruktiv. Das wäre auch in der Forschung zu BGE-Fragen hilfreich.

Sascha Liebermann

„Uns droht ein Szenario, das für die DDR typisch war“ – Thomas Straubhaar bleibt sich treu, fragt aber nicht nach der Entwertung des Leistungsethos…

…in seinem Beitrag auf Welt Online.

Interessant ist dieser Passus:

„Die Arbeitsproduktivität in Deutschland je Stunde nahm in früheren wirtschaftlichen Aufschwungsphasen in der zweiten Hälfte der 1970er-Jahre real (also preisbereinigt) pro Jahr um durchschnittlich 3,4 Prozent, in den 1980er-Jahren um 3,0 Prozent, in den 1990er-Jahren um 2,2 Prozent und in den 2000er-Jahren bis Anfang 2008 um 1,4 Prozent zu. Während des fast zehnjährigen Aufschwungs von Mitte 2009 bis Mitte 2018 waren es dann jedoch nur noch 1,1 Prozent.“

In der Folge (siehe unten) nennt er dann Gründe für diese Entwicklung:

„Für die geringe Investitionstätigkeit und den daraus folgenden schwachen Arbeitsproduktivitätsfortschritt gibt es eine Menge von Ursachen. Aber eine davon verdient spezielle Beachtung, weil sie auch mit Blick auf eine künftige Verbesserung entscheidend sein wird.

Die Mitte der vorigen Dekade unter dem damaligen Bundeskanzler Gerhard Schröder und seiner rot-grünen Regierung auf den Weg gebrachte Agenda 2010 und die nach Peter Hartz benannten Arbeitsmarktreformen des „Förderns und Forderns“ waren darauf ausgerichtet, möglichst viele Personen in Arbeit zu bringen. Entsprechend wurde der Druck auf Erwerbslose verstärkt, arbeiten zu müssen und auch vergleichsweise schlechter bezahlte Jobs zu akzeptieren. Im Ergebnis nahm die Beschäftigung in Deutschland rasant zu. Die Arbeitslosigkeit ging von fünf Millionen (Anfang 2005) stetig auf mittlerweile 2,275 Millionen im Sommer 2019 zurück – ein riesiger Erfolg.

„Uns droht ein Szenario, das für die DDR typisch war“ – Thomas Straubhaar bleibt sich treu, fragt aber nicht nach der Entwertung des Leistungsethos… weiterlesen