Messen und Vertrauen

Messung, Intuition, Vertrauen, Komplexität, Teil 4

Die Verwendung von Messergebnissen setzt Vertrauen in die Datensammlung und die Methoden für Umwandlung und Aggregation der Daten in den Messinstrumenten voraus.

Wir stellen selten in Frage, dass die Veränderung von Quecksilbersäulen oder Metallplättchen mit dem Steigen der Temperatur in allerlei Thermometern vom Fiebermesser bis zur Wetterstation ein reproduzierbares und richtiges Verhältnis haben.

Unser Gefühl sagt uns vielleicht mit Gewissheit, dass Herr K. unter unseren Mitarbeitern oder Kollegen die größte Pfeife ist. Die Erfassung und Quantifizierung von Leistungswerten kann so ein Vorurteil unter Umständen sinnvoll korrigieren und zeigen, dass Herr K. viel mehr leistet als seine leise Stimme und gebückte Körpersprache vermuten lassen.

Frau X. hat vor dem Einstellungsgespräch einen hervorragenden Lebenslauf mit exzellenten Zeugnis-Noten und sogar Erfolgszahlen aus dem vorigen Job vorgelegt. Das hilft bei der Entscheidung nur dann, wenn man das Vertrauen hat, dass Frau X. korrekte und echte Dokumente mit Daten in der richtigen Auswahl vorgelegt hat oder man die Daten irgendwie überprüfen kann.

Es gibt Lügen, ...

Statistik ist wie andere Disziplinen auch ein Denksystem. Sie kann nicht verhindern, dass wir uns selbst oder andere belügen. Sie ist aber oft gut geeignet, uns dabei zu helfen, dass uns andere nicht so leicht erfolgreich Blödsinn erzählen können.

Das setzt voraus, dass wir für den betrachteten Fall der Datensammlung und den Verarbeitungsmethoden, die verwendet wurden, vertrauen können. Wie das Sprichwort sagt, "es gibt Lügen, verdammte Lügen und ....". Die mannigfaltigen Schwierigkeiten des Datensammelns und die Komplexität und Flexibilität der statistischen Methodologie verbergen alle Unterschiede, jedenfalls für diejenigen, die im gegebenen Fachgebiet keine trainierten Spezialisten und Experten sind, also die meisten Leute, die mit den fraglichen Zahlen umgehen und sie verwenden.

Trotz dieses schon fast trivialen Vorbehalts werden Daten und Statistiken regelmäßig in voller Überzeugung in Umständen und für Zwecke verwendet, wo ein begründetes Vertrauen gar nicht gegeben sein kann. Meinungs- und Medienforschung haben durch allerlei Veränderungen und Versagungen gegenüber früher sehr stark an allgemeinem Vertrauen eingebüßt, werden aber deswegen ganz und gar nicht aufgegeben und weiterhin meistens nur bei expliziten Interessenkonflikten hinterfragt.

Während der Brexit-Volksabstimmung am 23.6. hat Ben Riley-Smith vom Daily Telegraph den Alterssplit einer Umfrage von YouGov vertwittert, wonach rd. 75% der 18-24-Jährigen für einen Verbleib des UK in der EU stimmen würden.

Während Rhiannon Lucy Cosslett Freitag zu Mittag in der Einleitung zu einer Guardian-Debatte zeitfalsch aber sonst korrekt "Three-quarters of young people – a massive mandate – are predicted to have voted remain, according to a YouGov poll ..." schrieb, ist die Formulierung im fast gleichzeitig erschienenen Feature von Elena Cresci schon viel faktischer: "According to polling data from YouGov, 75% of 18- to 24-year-olds voted to remain in the European Union."

Die "eindrucksvollste" Zahl dieser Umfrage wurde also vom Guardian ausgewählt und von sehr vielen Journalisten und Medien auf dem Kontinent weiterverbreitet. Trotz aller Skepsis zur Genauigkeit von Meinungsumfragen werden jetzt die 75% in Facebook, Twitter und Co geteilt, zitiert, wiederholt und wiederholt. Dabei wird oft noch weiter verallgemeinert. Sätze wie "die Jungen sind für den Verbleib" werden formuliert.

Niemand fragt in den kontinentalen Medien und in den friends' and followers' Posting-Schlangen nach dem wohl knapperen Prozentsatz für die 25-35-Jährigen (laut YouGov immer noch 56% der 25-49-jährigen für "Remain"), niemand fragt nach Methodik und Kontrolle des Umfrageverfahrens. Dabei war je gerade YouGov in seinem "On-the-day recontact poll" 52% für Remain und 48% für Leave als final figures publiziert. Man kann wohl zu Recht vermuten, dass die 75%-Prognose für die 18-24jährigen auch zu hoch gelegen war. Trotzdem wird sie in den Schatz der Wahrheiten bei den politisch interessierten Europaanhänger eingehen.

Die Mechanismen, durch die Wahrheiten entstehen sind weiterhin Glaubenwollen, Weitersagen, Wiederholung und Übereinkunft und nicht eine kühle und kompetente Überprüfung wissenschaftlicher, technischer und mathematischer Prozesse. Bei den rationalen Vorwärtsschauern ganz genau so wie bei den angeblich so irrationalen Rückwärtsgewandten.

Vertrauen ist gut, ...

Bei halbwegs korrekter Anwendung sollten Datensammlung und Methoden von statistischen Verfahren transparent und überprüfbar sein. Der Wladimir Lenin zugeschriebene Aphorismus "Vertrauen ist gut, Kontrolle ist besser" ist wie die meisten solchen Wendungen zwar nirgends belegt, die Zitierung der russischen Beamtenregel "Vertraue, aber prüfe nach" dagegen mehrfach und schriftlich. Schon die Möglichkeit zum Gegencheck durch Außenstehende kann das Vertrauen steigern, eine regelmäßige Durchführung umso mehr.

Vertrauen in Methoden beruht auf Vertrauen in Personen und Institutionen, deren Vorgeschichte und die Macht der Rationalität. Oft werden Studien von den jeweiligen Interessenten finanziert und gesteuert. Die Medienwirtschaft produziert die Medienstudien. Politische Parteien, Ämter und Medien beauftragen Meinungsstudien, der statistischen Nachweis zu Wirkungen und Nebenwirkungen von Arzneien wird von und unter Mitwirkung von Pharma-Konzernen erbracht. "Vertraue aber prüfe" erscheint mehr als angebracht.

Nur veri- und falsifizierbare Metriken zu verwenden, mag ein Ideal sein. Es gibt aber viele Fälle, in denen die Überprüfung noch komplexer oder schwieriger finanzierbar ist als die eigentliche Messung und Verarbeitung.

... Kontrolle ist besser

Der offensichtliche, wissenschaftstheoretisch recht mittelmäßige, aber am weitesten verbreitete Lösungsweg für dieses Problem ist der Einsatz von leichter prüfbaren Metriken an Stelle der für die Beantwortung der untersuchten Fragen nützlichsten. Die nur Stichproben ziehende Durchführung von Checks ausgewählter Teildaten und Teilprozesse, immer dort, wo es leicht durchführbar erscheint, ist der zweite etwas zweifelhafte Weg, Vertrauen durch Prüfung zu erzeugen.

Für die meisten aussagekräftigen und belastbaren Metriken sind Unmengen von Daten notwendig. Der Datensammel-Prozess selbst ist prinzipiell von außen schwer prüfbar. Wenn eine Organisation, die Daten selbst gesammelt hat oder Zugang zu einer großen Datensammlung hat, fähig und entschlossen ist, vor der eigentlichen Verarbeitung die Daten zu "behandeln", ist das extrem schwer zu entdecken.

Die Verteilung der einzelnen Aufgaben und Verantwortlichkeiten innerhalb des Verfahrens erscheint zur Zeit als aussichtsreichste Methode, um Betrug und Manipulation in der statistischen Arbeit zu bekämpfen. Diese Vorgehensweise ist weniger effizient und teurer als eine, in der ein Team oder eng integrierte Teams alles machen. Sie wird deswegen in vielen Feldern noch kaum angewendet.

Wahlhochrechnungen sind im Gegensatz zu Vorwahlumfragen ein positiver Fall. Die Daten werden ganz objektiv und mit integrierter Prüfung in Zusammenarbeit von politischen Aktivisten und Wahlbehörden erfasst und aggregiert. Ein Experten-Team, deren einziges Interesse sein kann, sich dem richtigen Ergebnis schnell anzunähern entwickelt Modelle, um mit Teildaten und unter Hinzunahme von historischen Erfahrungen und Trends kurz nach Wahlschluss das Ergebnis vorausberechnen zu können. Dazu kommt auch, dass der Wahlvorgang meist eine sehr einfache Frage, die nur 2 - 10 definierte und nicht verknüpfte Werte annehmen kann.

Alles kann schiefgehen

Die Vorgänge bei der österreichischen Präsidentschaftswahl zeigen aber, dass Gewohnheit und Bequemlichkeit selbst in so einem Fall potentiell Unregelmäßigkeiten entstehen lassen können.

Ein weiteres gutes Beispiel für die Anwendung der Aufgabenteilung ist das britische Broadcasters' Audience Research Board (BARB). Nicht nur kontrollieren sich in so einer Organisation die Teilnehmer gegenseitig, hier sind auch die Aufgaben auf gleich 3 im Wettbewerb stehende Dienstleister verteilt.

Ein kleines Land, kleine Märkte und Geldmangel führen auch da zu Problemen. Vier Jahre lange konnte in der GfK-Austria der Radiotest manipuliert werden, ohne dass etwas auffiel. Bei einer Aufgabenverteilung anstelle einer Komplettlösung durch einen Dienstleister mit wahrscheinlich nur reiner Plausibilitätskontrolle durch die Hauptauftraggeber RMS und ORF, wäre das wohl viel schwerer möglich gewesen.

Noch problematischer ist die Anwendung von Blackbox-Plattformen im kommerziellen Bereich.

Wahrscheinlich müssen all die verschiedenen Institute und Auftraggeber, die in den letzten Jahren durch schlechte Ergebnisse, teilweise dumme Konkurrenz und Liebedienerei sowie durch verschiedene kleinere Manipulationsskandälchen viel Vertrauen eingebüßt haben, dringend mehr Verantwortungsteilung ins Auge fassen. Und die Auftraggeber des Radiotests sollten dringend überlegen, ob sie nicht auch eine schlagkräftigere Organisation brauchen, die sich mit einer Geschäftsstelle sowie den üblichen Kommissionen und Beiräten die Entwicklung und Durchführung ihres Messinstruments kontrolliert und verantwortet.

"Erfolg" gibt Dir immer recht ...

Nichts gibt Dir mehr Recht als eine Kombination aus offensichtlichem Erfolg, gleichzeitigem Misserfolg der Konkurrenz und intelligenter Kommunikation bei der Erklärung hinterher. George Gallup setzte sich und sein Institut auf die politische und mediale Landkarte, als es den Sieg Roosevelts 1936 richtig voraussagte und die Konkurrenz meilenweit daneben lag. Diverse Erklärungsvorträge des smarten Mr. Gallup mit seinem akademischen Hintergrund taten ein übriges.

An den Zahlen von Facebook und Google zweifelt außer ihren Feinden und den Verlierern kaum jemand öffentlich, obwohl die Datensammlung und vor allem die Datenverarbeitung bei beiden Konzernen mehr als intransparent sind. Bei Facebook übrigens deutlich mehr als bei Google. Beide veröffentlichen Whitepapers und Artikel zu allen möglichen Aspekten und Fragen zum Thema, aber letztlich handelt es sich bei der Statistik-Produktion von beiden um intransparente, extrem komplexe Black-Boxes unter privater Eigentümerschaft. Diese Eigentumsverhältnisse sind nicht der unwichtigste Grund dafür, dass die Datenprozesse aller dieser Konzerne im Gegensatz zu staatlichen Statistiken nur durch richtig wenige Transparenz-Gebote und sehr viel Schutz aus dem Wettbewerbsrecht reguliert werden.

Das ist aber nicht, worauf es ankommt. Worauf es ankommt, ist, dass hier die offensichtliche und intuitive Alltagswahrnehmung und sorgfältig darauf abgestimmte Zählergebnisse in Kombination Gewissheiten schaffen, die manchmal erstaunlich sind und an denen Zweifel und Kritik abperlen wie große Wassertropfen an der Goretex-Membran.

Wie leicht die führenden IT- und Internetkonzerne anderen Entscheidungsträgern und Meinungsmultiplikatoren in Wirtschaft, Politik und Medien passende Mythen einreden können, hat schon den einen oder anderen von uns kritischen Geistern geärgert oder gar beunruhigt. Die einzige Möglichkeit, die dem bemühten Beobachter noch bleibt, ist, Aussagen und Publikationen von Google, Amazon, Facebook und anderer Playern zu studieren, unter einander und mit den eigenen, lokal beschränkten Daten zu vergleichen und zu hoffen, dabei Widersprüche, Abweichen und kleine Risse in den Betonwänden entdecken zu können. Und das ist erst die halbe Miete.

Was Menschen glauben möchten, das werden sie glauben. Und was die Menschen glauben möchten und können, das hängt davon ab, ob es für sie einen Sinn ergibt und wenigstens irgendwie mit ihrer persönlichen Erfahrung zusammenpasst. Für die einen ist die Quantenphysik eine Religion, die zu verstehen sie nur vorgeben und für die anderen ist die biologische Evolutions ein wissenschaftlicher Irrtum, der nur erfunden wurde, um die Menschheit davon abzuhalten, durch freiwilliges moralisches Bemühen ihre gottgegebenen Ziele zu erreichen.

plink, nix,    praise or blame!
 

Messung und Intuition

Messung, Intuition, Vertrauen, Komplexität, Teil 3

Viele Felder menschlicher Tätigkeit schienen sich stets gegen das Messen zu sträuben, andere dagegen können schon lange nicht mehr ohne es auskommen.

Die Methoden der Markt-, Medien- und Meinungsforschung haben es mit sich gebracht, dass auch schwer messbaren Dingen wie Mitarbeiterzufriedenheit und Führungsqualitäten quantisierend zu Leibe gerückt wird. Inzwischen werden solche Qualitäten nicht mehr nur von hierarchischen Vorgesetzten-Ketten durch subjektive Beurteilung und aus bestimmten Arbeitsergebnissen (z.B. Siegstatistik für Trainer, Verkaufszahlen für Sales Manager) bewertet. Periodische Umfragen in Unternehmen und statistische Vergleiche helfen allenthalben, auch einen schönen Teil dieser "weichen" menschlichen Qualitäten zu quantifizieren und zu vergleichen.

Im Sport war das immer nötig, weswegen die Jury und die Stilnote schon seit der Antike zum Einsatz kommen. Summierung und Mittelwertbildung führen hier zu Eindeutigkeit und Reihung, deren Richtigkeit durch Übereinkunft und Regel gesichert und von den Verlierern trotzdem nicht selten angezweifelt wird.

Mehr Daten um welchen Preis?

Die unglaubliche Verbesserung und Verbilligung von Sensoren, die einzelne Aspekte physikalischer Phänomene abertausende Male pro Sekunde mit Referenzwerten vergleichen, die Vergleichsergebnisse als binäre Werte festhalten und für die Ewigkeit speichern oder schnell durch Aggregation verdichten, hat vieles dem Messen zugänglich gemacht, was vor der Silikon-Technologie und dem Wirken von Moore's Law entweder technisch oder ökonomisch der Beobachtung und Quantifizierung entzogen war.

Die Debatte um Quantifizierung als Grundlage für wirtschaftliche und politische Entscheidungen hat seit den Erfolgen von Google, Amazon, Facebook und Co. einen ganz schönen Bias bekommen. Daten werden allenthalben als das Öl der Zukunft bezeichnet. Viele wissen heute vage, dass schon vor den aktuellen Entwicklungen Walmart mittels eines geradezu magischen Big Data Warehousing die Konkurrenz das Fürchten gelehrt hat. Nicht wenige vermuten, dass die NSA mit ihren Messdaten die ganze Welt durchblickt und beherrscht.

Die Europäische Union möchte zwar gemäß alter Prinzipien die Privatsphäre ihrer Bürger vor allzu schlimmer und vollständiger Durchleuchtung und Vermessung durch ausländische Mächte und Konzerne schützen, aber keinesfalls riskieren, dass die europäische Wirtschaft nicht auch ihr Zukunftsöl ausgraben und einsetzten kann. Sie kommt dabei einigermaßen hilflos über die Bühne. Einzelkämpfer mühen sich ab, Gefahren aufzuzeigen, aber die unermessliche Verbreitung der Messsensoren hat noch keiner unterbunden. Zu groß erscheinen die erwarteten Vorteile bislang sowohl den Mehrheiten als auch den meisten Eliten.

Messen und Entscheiden

In seinem Buch "How to Measure Anything: Finding the Value of 'Intangibles' in Business"hat Douglas W. Hubbard, der "Erfinder" von Applied Information Economics einer umfassenden Quantifizierungsphilosophie Ausdruck und Anspruch verliehen.

Messen ist wirklich oft wertvoll, weil es hilft, das direkte erfahrungsbasierte Erfassen, das gemeinhin Intuition genannt wird zu überprüfen. Oft befördert gerade da, wo nie gemessen wurde und per Übereinkunft ein etabliertes und für sicher gehaltenes "Wissen" die Einschätzung beherrschte, die Kreation und experimentelle Prüfung von Metriken einen Wissensschub. Man denke nur an den Äther und Lichtgeschwindigkeit. Oder an die Medien- und Meinungsforschung, die Erkenntnisse zu Tage förderten, auf die akademischen und politische Eliten mittels ihrer Intuition in 1000 Jahren nicht gekommen wären.

“No matter how ‘fuzzy’ the measurement is, it’s still a measurement if it tells you more than you knew before.”, ist zu Recht ein Schlüsselsatz in Hubbard's Buch, das aber natürlich wie alle ähnlichen Werke zwar Vorkehrungen zur Prüfung von Erkenntnissen enthält, aber auch sehr oft vergisst, wie problematisch sowohl die Ordnungsstruktur, die Werte und die Anwendung von Wissen und Knowledge sein kann und wie Gehirn und Kollektive von kommunizierenden Körpern und Gehirnen wirklich funktionieren.

Auf der anderen Seite hat Daniel Kahneman, der erste Psychologe, der 2002 gemeinsam mit Vernon L. Smith 2002 den "Nobel Memorial Prize in Economic Sciences" gewann, hat eine Reihe von Ergebnissen neuerer Forschung zu Entscheidungsfindung, Risikobewertung und ähnlichem in "Thinking, Fast and Slow" für interessierte und vorgebildete Menschen verständlich dargestellt. Er hat, man kann das wohl so sagen, mit diesem Buch dem Mythos vom Menschen und speziell vom Elitemenschen als "zoon logikon" und "animal rationale", und damit einem Dogma der klassischen Ökonomie, eine auch für das breitere Publikum schwer zu übersehende Kerbe zugefügt.

Messung und Intuition

Unter diesen Umständen würde man gerne entscheiden können, wo und was man messen soll und wo man mit Gefühl, Erfahrung und Intuition besser vorankommt und zu besseren Entscheidungen gelangt.

Ein sorgfältiges Zusammenwirken von Intuition und datenbasierter Rationalität, System 1 und System 2, wie Kahneman es nennt, oder "Herz und Hirn", wie es ganz altmodisch Politiker und Lebensratgeber gerne sagen, scheint durch die Debatte für die meisten, die sich ernsthaft mit der Frage beschäftigen als Ideal weiterhin ganz unangetastet zu sein.

Während die Daten immer mehr und die Modelle immer besser werden, ist aber anderseits wenig klar, wie die Intuition da mithalten kann. "Silicon, numbers and software eat the world", beschreibt einen Eindruck, dem man sich nur schwer entziehen kann.

Wir sollten bei all dem nicht vergessen, dass das Messen und Analysieren das Schreiben, Lesen und Rechnen voraussetzt. Zu diesem Komplex gehört auch ein geschlechtsgeschichtlicher Hintergrund. Zählen, messen, aufschreiben, rechnen, und die Entscheidung auf der Basis umfangreicher Daten und zugeordneter logischer Schlussketten war von Anfang an eine Domäne der Männer und wird bis heute von der Mehrzahl der Frauen kritischer betrachtet als zumindest von der Elite der Männer.

Auch das ändert sich inzwischen, aber ist dennoch sehr tief in unserer Kultur verankert. Nicht selten konnten gescheite Frauen auch zeigen, dass sie mittels Intuition viel schneller zu den gleichen und manchmal sogar besseren Erkenntnissen und Entscheidungen gelangen konnten als die Männer mit ihren umständlichen Systemen und Analysen.

Im gemeinsamen Gespräch und bei der Betrachtung von Alltagsphämomenen lachen Frauen denn Männer auch ganz gerne aus, wenn sie mit (zu vielen) Daten und Logik kommen, um ein Argument zu stützen. Die Kehrseite der Medaille ist, dass Männer Frauen häufig nicht ernst nehmen wollen, wenn sie nicht zuerst beweisen, dass auch sie Zahlen und Logik lesen, im Kopf behalten und anwenden können.

Schwierigkeiten des Zusammenwirkens

Daten und Faktenwissen können ebenso leicht falsch verwendet oder gar missbraucht werden wie Intuition und Gefühl. Ihre jeweiligen Befürworter übertreiben gerne ihre Qualitäten. Datenwissen erzeugt leicht den Eindruck von Gewissheit. Datenwissen ist niemals vollständig. Immer müssen die Lücken mit Vorurteil, Vorwissen und gefärbten Impulsen aus dem Inneren geschlossen werden. Selbst, wenn es nicht so wäre, bleibt die Eigenschaft von Kahnemans System 1 ("Intuition"), dass niemand es zu irgendeinem Zeitpunkt abschalten kann.

Ohne umfangreiche und teure Versuche kann nicht ermittelt werden, ob Messungen und Modellrechnungen zu bestimmten Fragen nicht teurer und fehlerträchtiger sind als die Vorteile, die durch sie erhofft werden. Uns hat der so genannte Nachweis des Higgs-Teilchens im LHC des CERN nicht wahnsinnig überzeugt. Seine Voraussage durch das Standard-Modell, die wissenschaftliche Konkurrenz und der politische Druck der enormen Kosten haben diese Interpretation der teuren Experimente bei der ersten Möglichkeit für ein plausibles Indizien-Gerüst erzwungen. Aber die Begeisterung der beteiligten Physikerinnen und Techniker hat so gezwungen gewirkt, dass man schon spüren konnte, wie dünn die Suppe war. Das Medienecho ist denn auch sehr schnell verhallt.

Während die Ökonomie und die Psychologie, denen einige öffentliche Denker weiterhin, auch nicht vollkommen zu Unrecht, den Status einer Wissenschaft bestreiten, endlich wegen der Fortschritte in Datenerzeugung und -verarbeitung trotz Kahnemann und Co. von Jahrzehnt zu Jahrzehnt ihre Daten- und Rechenbasis ausdehnen und vertiefen, scheint sich die Physik nun schon seit einiger Zeit im riesigen Gebilde ihrer Messinstrumente und mathematischen Systeme verfangen oder totgelaufen zu haben.

Einen echten "kreativen" Durchbruch innerhalb dieser einst so produktiven Leitwissenschaft der abendländischen Männer-Gesellschaft haben wir schon lange nicht mehr erlebt. Die Quantencomputer-Leute machen zwar in großen Abständen tolle Demos auf Kongressen, aber niemand weiß so richtig, was dabei herauskommen wird oder soll. Und auch das Beamen hat ein gewisser Herr Zeilinger nur mit unsichtbaren, mit mythischen Namen und Eigenschaften versehenen, angeblich existierenden Teilchen sozusagen simuliert. Des Kaisers neue Kleider werden aus eindimensionalen Strings in einer 11-dimensionalen SUGRA-Maschine gewebt.

plink, nix,    praise or blame!
 

Sozial-, Markt- und Meinungsforschung

Messung, Intuition, Vertrauen, Komplexität, Teil 2

Vor der französischen und amerikanischen Revolution waren die Ergebnisse von Volkszählungen, Armenerhebung und andere staatliche Zahlenwerke weitgehend geheim und nur einem engen Kreis innerhalb der Staats- und Kirchenlenkungsapparate zugänglich. Aber ab dem Beginn des 19. Jahrhunderts wurde ein zunehmend größerer Teil dieser Daten gedruckt, publiziert und massenhaft verbreitet. Seitdem ist die Menge der gedruckten Zahlen über die Menschen und ihre Gruppierungen zu einer unüberschaubaren Lawine angewachsen.

1822 veröffentlichte Auguste Comte den "Plan des travaux scientifiques nécessaires pour réorganiser la société". Diese Schrift gilt weithin als Ursprung sowohl des Positivismus als auch der Sozialwissenschaft. Für Comte war der Gegenstand seiner Wissenschaft eine „soziale Physik“ (physique sociale), die er nach Gesetzen der sozialen Statik und sozialen Dynamik unterschied.

Karl Marx und Friedrich Engels studierten Mitte des 19. Jahrhunderts penibel die Details amtlicher Statistiken, der Berichte von Fabriksinspektoren, der Armenvorsorge usw. Ohne diese Studien wären sie wohl weder zur Idee eines "wissenschaftlichen" Sozialismus noch zum Ersatz des Bürgertums, das sie so enttäuscht hatte, durch eine Klasse von Menschen, das sie Industrieproletariat nannten, als ultimatives Subjekt der menschlichen Emanzipation gelangt.

1862 schrieb Wilhelm Wundt, einer der Väter der experimentellen und quantitativen Psychologie: "Es ist die Statistik, die zuerst offenbart hat, dass die Liebe psychologischen Gesetzen folgt."

Die Zählung und Einteilung der Menschen sowie die Kategorisierung und Quantifizierung ihres Verhaltens führte zusammen mit den vorherrschenden Denkmustern des klassischen, hauptsächlich von Physik, Chemie und Mathematik inspirierten, wissenschaftlichen Weltbilds und seinem Werkzeugkasten, zur Formulierung zahlreicher sozialer und psychologischer "Gesetze" und damit bald auch zu unerwarteten Nebeneffekten.

Die Sozial- und Wirtschaftswissenschaften lösten sich von der Geistes- und der Rechtswissenschaft und wurden selbständig. Sie fanden und erfanden neue, zuvor nicht bekannte Kategorien, Klassifikationen, Fakten und Beweise. Sie haben in einem stegigen Auf und Ab aber auch unsere Möglichkeiten zu Reflektion und Veränderung erweitert.

Produkte, Märkte, Medien, Werbung

Märkte für massenhafte Endverbraucher waren nicht immer so bedeutend wie heute. Aber mit der Industrialisierung entstanden mit der Zeit auch die paketierten Markenprodukte und Massenmedien und damit sowohl der Bedarf und als auch die Möglichkeit zur weiten Verbreitung von massenadressierter Werbung und anderer neuer Strategien der Vermarktung.

Während der Wirtschaftskrise von 1833 startet Benjamin Day in New York The Sun mit dem Gedanken, dass in schwierigen Zeiten sich viel mehr des Lesens bereits mächtigen Leute eine Zeitung um 1 Cent als um 6 Cents leisten könnten und wollten. Das Motto der New Yorker Sun war, "It Shines For All", und auf dem Kopf des Titelblatt war angeblich stets der Satz "The object of this paper is to lay before the public, at a price within the means of every one, all the news of the day, and at the same time offer an advantageous medium for advertisements." aufgedruckt.

Die französische Zeitung La Presse war die erste billige Zeitung in Frankreich und die erste, die auf dem europäischen Halb-Kontinent bezahlte Werbung enthielt. Werbung machte die Zeitungen billiger, profitabler und unabhängiger vom Staat. Dieses Geschäftsmodell industrieller assymetrischer Kommunikation setzte sich in den Vereinigten Staaten, Europa einschlißlich Großbritannien und den europäischen Kolonien in aller Welt rasch durch.

Mit den neuen Produkten und Vermarktungsformen ging der Wunsch einher, mehr über Konsumentenwünsche, die Mechanismen von Konsumentenmärkten und die Wirkung von Werbung zu wissen. Nicht nur Planung und Durchführung der Produktion wurden verwissenschaftlicht, einem bis heute fortdauerndes und immer noch stark mit dem Namen Frederick Taylor verbundenes Unterfangen, sondern auch die Gestaltung von Produkten und ihrer Vermarktung.

Für die Presse genügte noch lange die Zählung der verkauften Auflage, um festzustellen, wieviel eine Anzeige in dem einen oder anderen Blatt wert war. Aber die Einführung des Radios veränderte auch hier die Situation grundlegend.

1923 gründete Arthur Nielsen das erste Unternehmen, das Markt- und Performanzforschung öffentlich als Dienstleistung anbot, in den Vereinigten Staaten von Amerika.

In Deutschland wurde 1935 die GfK-Nürnberg Gesellschaft für Konsumforschung e. V. von Nürnberger Hochschullehrern, darunter dem Wirtschaftswissenschafter und Politiker Wilhelm Vershofen und seinem Assistenten, dem späteren deutschen Wirtschaftsminister und Bundeskanzler Ludwig Erhard, ins Leben gerufen, um „die Stimme des Verbrauchers zum Klingen zu bringen“, wie das Vorwort in der Vereinsgründungsurkunde verkündet.

1936 Jahre erwarb Nielsen das so genannte "Audimeter" von zwei Professoren des M.I.T., Robert Elder and Louis F. Woodruff. Das Audimeter zeichnete auf, welche Radiostationen in den Haushalten während des Tages eingestellt waren und wie lange sie das waren. Nach ein paar Jahren des Herumprobierens kombinierte Nielsen das Audimeter mit einer Tagebuchstudie in je nach Quelle 800 oder 1000 Haushalten und schuf so den ersten nationalen Radio-Rating-Dienst.

Etwa zur gleichen Zeit startete auch Auricélio Penteado, ein Schüler von George Gallup, ganz unabhängig von Nielsen in den 40er-Jahren in Brasilien einen vergleichbaren Dienst namens IBOPE, der von den ganz Belesenen oft anstelle von Nielsen als erste Einschaltquoten-Parade genannt wird.

IBOPE (heute Kantar Ibope1) ragt immer noch aus den Quotendiensten der Welt durch den Umstand heraus, dass es die TV-Quoten in Echtzeit ermittelt und damit schon mal die dramaturgische Entwicklung und Übertragungslänge von Shows direkt beeinflusst.

In den 20er Jahren begann die professionelle Marktforschung, in den 30er und 40er-Jahren wurde die Einschaltquote in den Medien, die mit dem Fernsehen zu ihrer größten Blüte gelangen sollte, erfunden. Von da war es, wie wir sehen werden, nicht weit zur wissenschaftlichen Meinungsforschung.

In den USA warf Nielsen schon vor Beginn der Fernsehmessung alle Konkurrenten aus dem Feld und wurde zum ehernen Maßstab für elektronische Medien. Arthur Nielsen wird auch die Erfindung des Begriffs "Marktanteil" zugeschrieben, der bis heute wichtigsten Metrik für die Beurteilung der Verhältnisse der Konkurrenten untereinander und zu ihren jeweiligen Marksegmenten.

Heute ist die Nielsen N.V. nach vielen Besitzerwechseln ein börsennotierter Konzern und trotz eines kurzfristigen 2. Platzes nach der Übernahme von TNS durch Kantar, der Marktforschungsgruppe von WPP1 2008 wieder die Nummer 1 unter den weltgrößten Markt-, Medien- und Meinungsforschungsunternehmen.

TNS selbst war aus dem Zusammenschluss dreier Sozialforschungs-Unternehmen entstanden. 1946 war in Toledo, OH, die Meinungsforschungsgesellschaft NFO (National Family Opinion) entstanden. 1963 hatte Pierre Weil in Frankreich Sofres gegründet. Seit 1965 werkte in Großbrittanien die Taylor Nelson AGB. Sofres erwarb im Lauf der 90er Jahre weitere internatinale Institute in Asien und den USA, fusionierte 1997 mit Taylor Nelson AGB und erwarb in der neuen Konstellation 2003 NFO. Damit war die nunmehrige TNS in die Weltliga der Sozialforschung aufgestiegen1.

Die GfK SE ist eine Aktiengesellschaft nach europäischem Recht, immer noch mit Sitz in Nürnberg und mehrheitlich im Eigentum des Gründungsvereins und die Nummer 4 unter den Datenlieferanten für Wirtschaft, Medien und Politik. Addendum 2017: Die GfK ist seit März 2017 im mehrheitlichen Besitz (96,7 %) des Investmentfonds Acceleratio Capital N.V., einer Holdinggesellschaft des amerikanischen Private Equity-Konzerns Kohlberg Kravis Roberts & Co.

Professionalisierung der Meinungsforschung

Die erste dokumentierte Meinungsumfrage wurde 1824 von einer Lokalzeitung in Pennsylvania durchgeführt. In dieser unoffiziellen Abstimnung (straw poll) bekam Andrew Jackson von der demokratischen Partei die meisten Stimmen. Auch bei der Wahl gewann Jackson den popular vote, unterlag jedoch im Kongress durch ein Bündnis gegnerische Wahlmänner und John Quincy Adams wurde der 6. Präsident der USA. In der Folge wurden Wahlumfragen populär, blieben aber lokal und wurden nur in einzelnen Städten durchgeführt.

1916 unternahm es die Wochenzeitschrift The Literary Digest, als Teil einer Verkaufssteigerungskampagne, eine erste nationale Umfrage mittels Postkartenversand durchzuführen. Die Umfrageergebnisse deuteten auf einen Sieg Woodrow Wilsons hin und wurden als Voraussage dargestellt. Die Zeitschrift versendete danach bei allen Wahlen Postkarten an ihre Leser, zählte die Antwortkarten und lag bei den Wahlen von Warren Harding, Calvin Coolidge, Herbert Hoover und Franklin D. Roosevelt bis 1932 richtig.

George Gallup war 1931 an der North Western University in Illinois und ab 1932 an der Columbia University in New York Professor für Journalismus und Werbung. 1935 gründete er sein eigenes Meinungsforschungsunternehmen, 1937 wurde er Forschungsdirektor bei Young and Rubicam.

1936 wurde Gallup durch die richtige Voraussage des Erdrutschsieges von Franklin D. Roosevelt über Alf Landon berühmt. Gallup hatte seine Analyse mit wissenschaftlichen Methoden auf der Basis von nur 50.000 repräsentativen Interviews durchgeführt. Der Literary Digest dagegen zwar ein Sample von mehr als 2 Mio. Karten erhalten aber nicht bemerkt, dass die Weltwirtschaftskrise zu einer Veränderung seines Publikums in die eine und großer Gruppen der amerikanischen Bevölkerung in die andere Richtung verursacht hatte.

Die wissenschaftliche Meinungsforschung gibt seither trotz der vielen Irrtümer, die sie im Lauf der Jahre produziert hat, gewieften Politikerinnen, die lieber auf die Macht der so stets bekannten Mehrheitsmeinungen als auf die Überzeugung, Einschüchterung und Interessensintegration einer ausreichend großen Untergruppe der gesellschaftlichen Elite und ihrer politischen Funktionäre bauen mögen, ein ganz ordentliches Instrument an die Hand.

Mussten berühmte Popularen wie die Gracchen und die Julier, Girolamo Savonarola, Napoléon Bonaparte, Dr. Karl Lueger und Adolf Hitler in der Vergangenheit noch auf das Feedback erregter Massen auf dem Forum Romanum, in Hallen und Bierzelten, bei Heeresappellen, Parteikongressen und Wahlkampfveranstaltungen vertrauen, so konnte sich schon besagter Franklin D. Roosevelt und vollends alle seine Nachfolger in den USA und anderswo in der westlichen Welt bei ihren Aussagen und Handlungen auf die "wissenschaftliche" Erhebung und Hochrechnung von vorab definierten Mustern in Meinungsschnipseln sowie deren verständliche Segmentierung und Ordnung in klar verständliche Verhältnisse stützen.

Heute kommt kein Konzernlenker und kein Politiker ohne eine Unmenge von Zahlen, nicht nur "harten" Summen, Quotienten und anderen Kalkulationen aus Produktion und Vertrieb sondern auch "weichen" Zahlen zu Konsumentenstimmung, Mitarbeiterzufriedenheit und Wählermeinung aus.

Daten, Leadership, Populismus

Die meisten Mitglieder etablierter Eliten und ihre Anhänger verurteilen gerne den sogenannten Populismus von Zeitungen und Politikern, die für ihre Abmachungen und Geschäfte unbequeme Meinungen und Stimmungen in der Bevölkerung ausdrücken und verstärken, um selbst mehr Einfluss zu gewinnen.

Nach allem, was man in den letzten Jahren im Spiegel und anderen Medien über die Regierungsweise von Dr. Angela Merkel lesen konnte, kann man fast nur den Schluss ziehen, dass diese sehr intelligente Dame sowohl die kurzfristigen Entscheidungen als auch die langfristigen Entwicklungen der Bundesrepublik Deutschland und irgendwie auch der Europäischen Union ganz wissenschaftlich und sehr demokratisch, nämlich gemäß einem erforschten Set von Mehrheitsmeinungen ihres(r) Souveräns(e) gesteuert hat. Die politischen Erfolge dieser Verfahrensweise gaben ihr bis zum letzten Jahr recht. Nicht nur machte sie die breite Glockenmitte der Gesellschaft für andere Parteien von Jahr zu Jahr schlechter zugänglich. Die Methode schuf ihr auch Platz und Energie, um sich effizient auf die Niederhaltung diverser Heißsporne und Ehrgeizler, von Merz und Koch über die Bayern bis zu Varoufakis und Tsipras, die ja früher auf diesem Kontinent über kurz oder lang noch jeder Häsin Tod waren, zu konzentrieren.

Dann kam die Flüchtlingswelle 2015. Frau Merkel schaute wahrscheinlich schon in die Zahlen und sah ziemlich sicher ein ambivalentes und wenig stabiles Bild. Spiegelbildlich zeigten ihr die bisherigen wissenschaftlichen Erfolge und das damit einhergehende Selbstbewusstsein sie selbst als das Bild eines Felsens in der Brandung und ganz und gar stabilen Schutzgöttin der Humanität. Und da zog die gute Frau den klassischen Fehlschluss all jener, die im Inneren so gerne an aufgeklärte logische Rationalität und europäische Wissenschaft glauben mögen, nämlich, dass sie die Richtung zeigen könne und alle ihr folgen würden.

Das Fazit des Beispiels

So wie es aussieht, hat das allzu häufige und allzu gläubige Studium der Zahlen in der Sache den letzten Funken an Intuition und Verständnis für "basic mass psychology" in der armen Frau irgendwie verzerrt oder möglicherweise gar abgetötet. Die Folgen sind inzwischen auch zu Tage getreten. Schwenks in jede Richtung, weiterer Schub für rückwärts orientierte Kräfte und Parteien, Hilflosigkeit allenthalben. Die Angie sitzt ja noch am Ruder, aber der Werner, der hat sich für die und bei der Herbeiführung der politischen reumütigen Rückkehr unter den mittels Meinungsumfrage ermittelten Willen der Mehrheit selbst verheizt und verheizen lassen. Seine Rechnung ging plötzlich nimmer auf.

Über die anderen Pfeifen schweigen wir jetzt lieber, ganz speziell über die, die immer noch an old style Kabinettspolitik glauben und meinen, man könne in Brüssel, Paris, Straßburg, London oder Berlin zu dritt oder zu dreihundert mit sich selbst, den Amis oder den Lobbies etwas ausmachen und mittels Koalieren und Vorteilstausch nach ganz anderen Zahlen und Ergebnissen sowie die Fütterung vermeintlich systemtragender Medien den Kontinent voranbringen oder wenigstens stabil halten.

Und die Mädels und Burschen, die statt überholter ökonomischer Vorhersagemodelle noch eifriger als die Mainstream-Politiker die Ergebnisse der politischen Meinungsforschung studieren und glauben, daraus jede Rechtfertigung ziehen zu können, und die dann noch Öl mit dem richtigen Spin ins Feuer giessen, die werden in der Demokratie halt erst geprüft, wenn sie regieren.

In manchen aus Sicht des gebildeten europäischen Humanisten rückständigen Ländern sind sie schon seit geraumer Zeit am Werken. In anderen versuchen sie sich noch nicht ganz so lange. Und in wiederum anderen, werden sie erst noch an die oberste Spitze der Verantwortung rücken.

Allen ist gemeinsam, dass sie Zahlen lesen, selbst erheben lassen und sich ihr Bild von der Welt nach einem mit ihren Denkmustern passenden Ausschnitt formen. Was für ein Glück, dass wir nicht mehr im Zeitalter von Feuer und Stahl leben. Was für ein Glück, dass die Bombe - Ihr wisst schon welche - einen konventionellen Krieg unter den europäischen Mächten praktisch verunmöglicht. Dass das Projekt Europäische Union das ganz alleine schaffen könnte, erscheint gerade jetzt nicht mehr ganz so sicher als vor 10 Jahren.

1Die Medienabteilung von IBOPE wurde 2014 an die Kantar Group verkauft und in Kantar Ibope umbenannt. Die Kantar Group wiederum ist der Datenarm von Wire and Plastic Products plc, dem größten Werbeunternehmen der Welt, das inzwischen Young & Rubicam, viele weitere Werbeagenturen und TNS, einen weiteren Pionier der Markt- und Meinungsforschung (National Family Opinion - NFO, 1946) übernommen hat. In Dänemark, Norwegen, Finnland, Schweden und Argentinien sind die Gallup-Institute mit TNS verschmolzen, firmieren auch meist unter TNS-Gallup und gehören somit auch zu Kantar/WPP. 2019: Inzwischen ist der TNS-Name allenthalben gelöscht und alle Teil- und Nachfolge-Organisationen heißen einfach nur mehr Kantar. Wir versuchen gerade, uns daran zu gewöhnen. Die außeruniversitäre Sozialforschung, in der die meisten Absolventen der entsprechenden Studienrichtungen ihre Arbeitsplätze finden, finanziert sich also volumsmäßig hauptsächlich aus den Bedürfnissen von Marketing, Werbung und den Informationsbedürfnissen der Politik und der mit dieser verbundenen Medienindustrie. Zu welchen Verzerrungen das führt, steht auf einem anderen Blatt.

Mehr aus der Serie "Messung, Intuition, Vertrauen, Komplexität":

plink, ,    
 

Messung und Fortschritt

Messung, Intuition, Vertrauen, Komplexität, Teil 1

Bereits auf einer babylonischen Keilschrifttafel aus der Zeit der Hammurabi-Dynastie (1830 - 1530 v.u.Z.), findet sich eine geometrische Problemstellung mit Lösung, bei der der Satz des Pythagoras zur Berechnung von Längen verwendet wurde.

Papier aus China, Zahlen aus Indien und die Anwendung des Buchdrucks haben in Europa seit dem Wirken von Kopernikus, Bacon, Galilei und vielen anderen ein Wissenschaftssystem hervorgebracht, das die Natur durch die Kombination von Beobachtung, Messung, Experiment und mathematischer Analyse zu erforschen unternimmt. Das Bild, das sich die Menschheit von der Welt macht und was sie in ihr unternehmen kann, hat sich auf bis heute erstaunliche Weise erweitert und verändert.

Quelle: C:\fakepath\Zunahme_der_Zahl_bedeutender_Naturforscher.jpg Die Zahl bedeutender Naturforscher nahm ab 1500 stetig zu, aber um 1700 vorübergehend ab.

Die Messinstrumente werden nach wie vor immer genauer und komplexer, der verfügbare Bestand an Messdaten steigt stetig an, ein "Naturgesetz" nach dem anderen wird gefunden, bewiesen und angewendet.

Unvollständige Messdaten und Wahrscheinlichkeiten

Das wohl wichtigste Ereignis des 20. Jahrhunderts für unsere Vorstellung von der Welt war die Entdeckung, dass das Universum entweder doch nicht kausal determiniert ist oder wenigstens, dass wir die kausale Determination auf der Ebene der Elementarphysik nicht wahrnehmen können.

Begonnen hatte es mit der Statistik in der Mechanik schon früher, mit James Maxwell und Ludwig Boltzmann.

Die zuerst von Werner Heisenberg formulierte Unschärferelation ist eine Erkenntnis der Quantenmechanik, nämlich, dass zwei komplementäre Eigenschaften eines Teilchens nicht gleichzeitig beliebig genau bestimmbar sind. Das bekannteste Beispiel für ein Paar solcher Eigenschaften sind Ort und Impuls.

Die Unschärferelation ist nicht die Folge von vorläufigen und überwindbaren Unzulänglichkeiten der Messinstrumente sondern prinzipieller Natur. Die Messung des Impulses eines Teilchens ist zwangsläufig mit einer Störung seines Ortes verbunden, und umgekehrt. Wir wissen seitdem auch mit Gewissheit, dass es keine wirkungslose, passive Beobachtung und keinen außerhalb des beobachteten Systems befindlichen Beobachter gibt.

Quelle: C:\fakepath\Aufenthaltswahrsch-Elektron.png Grafische Darstellung der Wahrscheinlichkeitsdichten der Orbitale der ersten und zweiten Elektronenschale als Punktwolken.

Man nicht mehr sagen, dass ein Elektron da oder dort auf einer Bahn um den Atomkern ist. Den Aufenthaltsort eines Elektrons beschreibt man durch ein Set von Aufenthaltswahrscheinlichkeiten. Und damit muss nicht nur die Wissenschaft sondern auch die Technik auskommen. Das ist, wenn auch viel genauer, doch nicht so grundlegend verschieden von den Wahrscheinlichkeitsaussagen, die man dafür machen kann, wieviele Leute zu einer Wahl gehen werden oder wieviele Menschen am Wahltag bei der Wahlberichterstattung zusehen.

Zählen, Klassifizieren, Normieren

Schon in der Antike versuchten Staaten wie das chinesische und das römische Reich, zum Zweck der Steuer-Erhebung und der Truppen-Aushebung ihre Bevölkerung zu zählen und zu klassifizieren. Seit dem Beginn des modernen Staatswesens in der frühen Neuzeit, wurden die Zähl- und Klassifikationsmethoden immer weiter verbessert. Bürgerliche Revolutionen in England, Frankreich und den Vereinigten Staaten von Amerika und die damit einhergehende industrielle Maschinenrevolution beschleunigten die Zählaktivitäten der Staaten noch einmal.

Die Verfassung der Vereinigten Staaten verlangte gleich zu Beginn alle 10 Jahre eine Volkszählung. Während bei der ersten Durchführung 1790 jedem Haushalt vier Fragen gestellt wurden, waren es bei der 10. Durchführung bereits mehr als 13.000 auf verschiedene Fragebögen verteilte Fragen zu Menschen, Unternehmen, landwirtschaftliche Betriebe, Spitäler, Kirchen usw.

1884 reichte Herman Hollerith ein Patent für Zähl-, Sortier- und Rechenmaschinen auf der Basis der in der Textilindustrie eingesetzten Lochkarte unter dem dem Titel "Art of Compiling Statistics" ein. 1889 wurde ihm das Patent erteilt.

1890 wurden erstmals in Österreich und den Vereinigten Staaten Volkszählungsdaten auf Lochkarten übertragen und mit von Hollerith gebauten elektrischen Zählmaschinen aufgearbeitet. Aus seiner Firma Tabulating Machine Company wurde nach der Verschmelzung mit 3 anderen Unternehmen 1911 die Computing-Tabulating-Recording Company und 1924 IBM, das Unternehmen, das die ersten 50 Jahre der electronischen Computer-Revolution dominierte.

Quelle: C:\fakepath\cardpuncher.jpg Hollerith Lochkarten-Puncher im United States Census Bureau

Die Sozialwissenschaft wollte nicht hinter der Naturwissenschaft zurückstehen. Dafür musste quantifiziert, gemessen und gerechnet werden. Für die Bestimmung sozialwissenschaftlicher "Gesetze" werden Einzelpersonen und Gruppen beobachtet, die Beobachtungsdaten mit öffentlichen Zensus-Daten kombiniert und die Ergebnisse in Wahrscheinlichkeiten ausgedrückt. Neue Methoden erzeugen auch neue Denkmuster, z.B. die Vorstellung von Normalität und Abweichung von Lebewesen, die sich seit der 2. Hälfte des 19. Jahrhunderts immer mehr etabliert hat.

Das entsprechende Wissen vom Menschen und seinen Gesellschaften hörte auf, philosophisch spekulativ zu sein und wurde statistisch. Die von den Denkern der Aufklärung ganz verschieden aufgefasste aber von allen vorausgesetzte "menschliche Natur" wurde durch ein Bündel von statistisch ermittelten "Eigenschaften" einer Mehrheit von "normalen" Menschen ersetzt.

Seit in den 20er-Jahren die Quantenphysik akzeptieren musste, dass auch die Physik nur mehr mit statistischen Methoden und Aussagen weiterkommen würde, sollte klar geworden sein, dass beide Entwicklungen Hand in Hand gehen und zusammen das Erfassen der und das Handeln in der Welt nachhaltig revolutioniert haben.

Messen, Steuern, Verbessern

Mittels Messung versucht man heutzutage in einer immer weiter anwachsenden Menge von Bereichen die allzuoft in die Irre führende direkte Intuition zu ersetzen. Verhältnisse, denen man nicht blind vertrauen kann, sowie komplexe Systeme ganz allgemein sollen mittels hoffentlich dann doch wieder intuitiv erfassbarer, prüfbarer und praktisch verrechenbarer Metriken besser versteh- und handhabbar gemacht werden.

Das Internet und vor allem die mit ihm verbundenen sichtbaren und unsichtbaren Geräte sind auf eine kaum mehr vorstellbare Art mit Messimpuls-Generatoren und Sensoren ausgerüstet. Und das in einer Quantität und Qualität, so, dass denjenigenen, die es wissen und zu verstehen versuchen, nicht selten unheimlich zumute wird.

Auf den ersten Blick sieht diese Entwicklung manchmal geradezu absurd aus. Wir vergessen dabei aber allzu leicht, dass das umfassende Messen nicht erst mit dem Internet seinen Siegeszug angetreten hat. Wir sollten auch nicht übersehen, welche Erfolge die Strategie der Verwendung von und Orientierung an nachvollziehbaren Metriken seit der Antike und ganz besonders seit der wissenschaftlichen Revolution des 16. Jahrhunderts für die Menschheit gebracht hat.

Diese Erfolgsgeschichte und die daraus erwachsenden Hoffnungen formen nach wie vor einen außerordentlich starken Entwicklungsmotor und zahlreiche Hoffnungsgeneratoren für Gruppen von Menschen, die inzwischen, wie man in diversen Medien leicht nachvollziehen kann, fast alles für machbar halten oder wenigstens so tun. Schnelle Nahostkriege, gezielte Individualtötung ohne Nebenwirkungen aus 10.000km Entfernung, Besiedlung des Mars, Unsterblichkeit, Herstellung von Gottesteilchen und Unwahrscheinlichkeitsantrieben, bald unfehlbares Tracking von Terroristinnen und unliebsamen Politikern usw. usf. Hauptsache, die learning curve kann mithalten.

Auf der anderen Seite wissen inzwischen sehr viele Menschen allzu gut, dass Messen und Regeln auch verdunkeln, fehllleiten, stören und sogar zerstören können. Das Messen hat wie das Zählen und Rechnen prinzipielle Grenzen, die es in und aus sich nicht überwinden kann. Zudem gibt es natürlich jede Menge trivialer Möglichkeiten, wissenschaftliche Grundmethoden unsorgfältig oder mit der falschen Absicht anwendet, führt es zu Problemen und Fehlentwicklungen, die im schlimmsten Fall tragisch sein können. Man denke nur an den rassistischen Wissenschaftswahn der NSDAP.

Manager müssen messen

Messen hat auch in Bereichen des menschlichen Lebens eine Bedeutung gewonnen, in denen seine Anwendung in der Vergangenheit schwer vorstellbar gewesen wäre. Die meisten Systeme, die Menschen benutzen oder bedienen, werden um quantifizierbare Eigenschaften herum gebaut. Sensoren, Computer und Software erlauben uns inzwischen, Dinge und Verhältnisse zu quantifizieren, die früher entweder ignoriert oder ganz anders betrachtet und betrieben wurden.

Ein häufig genanntes Zitat von Peter Drucker lautet "If you can’t measure it, you can’t manage it." Herr Drucker das zwar weder gesagt noch geschrieben, aber so funktioniert die Weitergabe vom Lehrer zum Schüler zur Allgemeinheit nun einmal. Nachdem Alfred Sinowatz in seiner Regierungserklärung "Ich weiß, das klingt alles sehr kompliziert ..." gesagt hatte, wurde medial sehr schnell "Alles ist sehr kompliziert ..." daraus und so wird es bis heute fast immer kolportiert.

"If you can’t measure it, you can’t manage it" reduziert einen komplexen Sachverhalt auf einen leicht wiederholbaren Merksatz, der rund um die Welt in Wirtschaftsuniversitäten sich abertausende Male weitergegeben wurde. Die zugrunde liegende Vereinfachung hat, wie bei vielen berühmten Zitaten, gute und noch mehr schlechte Auswirkungen.

Was Drucker, z.B. in "Management: Tasks, Responsibilities, Practices" wirklich schrieb, ist "Work implies not only that somebody is supposed to do the job, but also accountability, a deadline and, finally, the measurement of results —that is, feedback from results on the work and on the planning process itself."

Ein gescheiter Mensch wie Drucker wusste aber auch genau, dass es eine Menge ganz entscheidende Dinge gibt, die anders funktionieren. Einem gewissen Bob Buford, Chef einer Kabel-TV-Gesellschaft sagte Drucker 1990 folgendes: "Your first role is the personal one. It is the relationship with people, the development of mutual confidence, the identification of people, the creation of a community. This is something only you can do. It cannot be measured or easily defined. But it is not only a key function. It is one only you can perform."

Metriken für die Wirtschaft

Metriken sind in der Wirtschaft populär, weil sie es erlauben, einfache und effiziente Regeln aufzustellen und die Resultate ihrer Anwendung später publikumsgemäß zu präsentieren. Gerade das TV-Geschäft ist ein sehr gutes Beispiel dafür. Systeme entwickeln sich nicht zuletzt durch Anreize. Gute Metriken helfen dabei, Regeln aufzustellen, die Impulse für Verbesserung schaffen. Im Sport war das ja schon, seit er in der Antike erstmals beschrieben wurde, immer so.

Man denkt zu selten daran, aber die meisten Systeme reagieren auf sichtbare und unsichtbare Regeln, Strukturen und Impulse auf jeden Fall und nicht immer wie wie vorher angenommen. Moderne Systeme zieladäquat zu managen, ob sie nun technisch, sozial, politisch, militärisch oder bürokratisch sind, hängt in einem beträchtlichen Maß davon ab, wie gut man Entstehung und Verwendung sowie die positiven und negativen Effekte der inzwischen allgegenwärtigen Quantifizierungen versteht.

Probleme mit Metriken und Zielen

Menschen, die sich schon mit den Stolperfallen des Messens beschäftigt haben, bringen gerne ein weiteres aphoristisches Zitat dazu, das unter dem Namen Goodhart's Law bekannt geworden ist: "When a measure becomes a target, it ceases to be a good measure." Auch das ist, wie sollte es anders sein, sehr vereinfacht. Was Charles Goodhart 1975 wirklich schrieb, ist: Any observed statistical regularity will tend to collapse once pressure is placed upon it for control purposes.

Eine andere Formulierung lautete: "As soon as the government attempts to regulate any particular set of financial assets, these become unreliable as indicators of economic trends." Jón Danielsson formuliert dazu eine aufschlussreiche Verallgemeinerung: "A risk model breaks down when used for regulatory purposes."

Wenn man einen Prozess, eine Entwicklung oder ein System managen will, hat das eben Gesagte weitreichende Konsequenzen, die wahrscheinlich tiefer gehen, als es auf den ersten Blick erscheinen mag. Es hilft, sich Beispiele für grundlegendes Versagen von Messungen vor Augen zu führen, um zu verstehen, warum das, was Mr. Goodhart ausdrücken wollte, so wichtig ist. Es hilft auch, die Verhältnisse zu betrachten, die durch das Messen ersetzt aber dennoch innerhalb und außerhalb von Mess- und Regelsystem gebraucht werden: Intuition, Vertrauen und das (oft mangelnde) Verständnis komplexer Systeme.

Für alle Ersetzungen intuitiver und erfahrungsbasierter Wahrnehmung durch Modell und Messung gibt es gute Gründe, aber alle neuen Metriken schaffen auch neue Fallen. Wenn Messungen kompetentes Urteilsvermögen ersetzen, steckt oft eine Absicht dahinter. Sie können als Speerspitze für erwünschte, aber nicht notwendig richtige Veränderungen eingesetzt werden. Sie können auch so lange als Schild gegen jede Veränderung dienen, bis nicht nur das Messsystem sondern auch das gemessene System zusammenbricht.

In jedem Fall ist das Messen auch oft eine Ausrede, sich nicht der unaufgeräumten, anstrengenden, vielleicht keinen Sinn ergebenden und niemals endenden Auseinandersetzung mit dem menschlichen Leben, der Gesellschaft und den komplexen Interaktionen darin stellen zu müssen.

Und wenn Mess- und Regelsysteme ausfallen oder fehlerhaft sind, sind wir sicherlich gut beraten, wenn wir noch das Einschätzen und Handeln auf der Basis von Erfahrung und Intuition beherrschen.

Mehr aus der Serie "Messung, Intuition, Vertrauen, Komplexität"

plink, nix,    praise or blame!
 

Farewell To Welfare

Die bedeutsamste Kritik von Karl Marx an der materialistischen deutschen Philosophie und besonders Ludwig Feuerbach war wohl, dass sie Wahrnehmung und Erkenntnis als passive und nicht aktive Tätigkeit begriffen.

Der Hauptmangel alles bisherigen Materialismus (den Feuerbachschen mit eingerechnet) ist, daß der Gegenstand, die Wirklichkeit, Sinnlichkeit, nur unter der Form des Objekts oder der Anschauung gefaßt wird; nicht aber als sinnlich menschliche Tätigkeit, Praxis; nicht subjektiv

Ironischerweise ist mir bei den Quantendynamikern und den biologischen Konstruktivisten, denen 100 Jahre später das Begreifen der Kognition als aktivem Prozess ein so zentrales Anliegen war, nie eine Referenz auf diese Kritik untergekommen.

Quelle: C:\fakepath\feuerbach.jpg

Ähnlich relevant in unseren Augen ist Marx' Kritik am Sozialismus der meisten seiner Zeitgenossen, nämlich, dass es ihnen in der praktischen Politik fast immer mehr auf Verteilungsgerechtigkeit ankam als auf eine radikale, die Wurzeln anpackende, Veränderung der Arbeitsteilung.

Sozialer Mainstream

Von 1890 bis 1920 und in der Folge bis heute hat sich in den Bewegungen und Organisationen, die für "die da unten" Partei ergreifen wollen, der Kampf für mehr Verteilungs- und Konsumgerechtigkeit flächendeckend als dominantes Anliegen durchgesetzt und gipfelt heutzutage in der Forderung nach einem bedingungslosen Grundeinkommen.

Heute ging in der Schweiz eine Volksabstimmung zum Thema mit 78%:22% verloren. Nichtsdestotrotz behält die Forderung in vielen Ländern der entwickelten Welt bedeutende Minderheiten der Bevölkerung und Teile der Elite hinter sich.

"Bedingungslos" scheint außer in Finnland und vielleicht Norwegen ziemlich utopisch zu sein, aber in Europa kann und will sich kaum ein Partei leisten, nicht für gute staatliche Kranken-, Pensions- und Arbeitsversicherungen zu sein. Die Unterschiede liegen da mehr in der Praxis und bei Höhe, Zahl und eben den Bedingungen für die entsprechenden staatlichen Transfer-Leistungen.

Auf der anderen Seite blieb das Bemühen um eine bessere und gerechtere Arbeitsverteilung überwiegend auf Anstrengungen für mehr (Aus)-Bildung nicht privilegierter Kinder beschränkt. Ein hehres Ziel allemal und immer wieder nicht nur auf die Rekrutierung von Funktionären der bestehenden Verhältnisse beschränkt. Die Grundlagen der Arbeitsteilung in der industriellen Produktionsweise wurden dadurch aber nicht berührt. Alle Bildungsverbesserungen änderten kaum etwas außerhalb der Zusammensetzung der jeweiligen Eliten.

Quelle: C:\fakepath\PoorhousePlan1.jpg

Im Rückspiegel

Karl Polanyi, ausgewanderter österreichischer Sozialwissenschafter hat in seinem Opus Magnus "The Great Transformation" die Herausbildung des Sozialstaates von den englischen "pauper laws" der Tudorzeit über die Durchsetzung der Marktwirtschaft im Vereinigten Königreich der 1830er Jahren bis hin ihrem Zusammenbruch in der Zwischenkriegszeit untersucht.

Die Spannungen zwischen der von einer Mehrheit der wirtschaftlichen Eliten bevorzugten "Selbstregulierung" durch verschiedene Märkte und den "Selbstschutzmaßnahmen" der unterschiedlichen Bevölkerungsgruppen und damit auch der Staaten mündeten laut Polanyi 1929 im Zusammenbruch der Weltwirtschaft. Diese globale Krise wurde in der Folge durch Faschismus, Sozialismus und New Deal an verschiedenen Orten auf verschiedene Weise und dann durch einen zweiten Weltkrieg, in jedem Fall aber nicht auf liberale und selbst regulierende Art und Weise, gelöst.

Nicht wenige Autoren des 19. Jahrhunderts meinten, sich wie ein Händler auf dem Markt zu verhalten, sei "natürlich" und jedes andere Verhalten im Bereich der Wirtschaft künstlich. Mit dieser Annahme, die heute, wo schon fast jede soziale Interaktion als Markt begriffen wird, kommt man einfach und schnell zu Selbstregulierungsfantasien aller Art. Die dafür notwendigen gewalttätigen Eingriffe blendet man umso leichter aus.

Weder gibt es Nachweise, dass Profitstreben für den Menschen "natürlich" ist, noch dafür, dass die Erwartung von Bezahlung von Arbeit ihm innewohnt. Die normalen Motivationen in der Arbeit sind Selbsterhaltung (biochemisch), Gegenseitigkeit, Wettbewerb, Freude und soziale Anerkennung.

Wirtschaftssysteme sind in der Regel in politische Systeme eingebettet. In den vergangenen 150 Jahren sollte sich dieses Verhältnis auf den Kopf stellen.

Quelle: C:\fakepath\kantosozialamt.jpg

Nach 1945 und mit Abschluss der vorstellbar gewalttätigsten Lösung der globalen Krise nach dem Zusammenbruch von Goldstandard und Weltwirtschaft war kein Staat der ersten und zweiten Welt mehr ohne umfangreiches Sozialsystem denkbar.

Dem Ende entgegen

Seit 1980 lösen sich aus einer ganzen Reihe von Gründen viele zuvor noch unangreifbare Übereinkünfte zu staatlichen Systemen der "Verarmungsverhinderung" langsam und in mannigfaltigen Konflikten auf. Das angloamerikanische Zentrum der globalen Welt war im langen Jahrzehnt von 1980 bis 1990 wie in so vielen anderen Dingen der Vorreiter. Die Auflösung von Sowjet-Union und Ostblock tat ein übriges.

Als bekannteste Galionsfiguren dieser Veränderung sind Ronald Reagan und Margret Thatcher bekannt.

Die Volksrepublik China hatte seit ihrer Gründung und bis heute nie ein Sozialsystem, das aus europäischer Sicht auch nur eine Nebendebatte wert wäre. Besonders lustig fanden wir hier immer, dass man mit den linken europäischen Fans von Mao Dse Dong nicht einmal darüber reden konnte, das in der Volksrepublik kein nennenswerter Mietwohnungsmarkt existiert und Auszug aus der elterlichen Wohnung den Erwerb von Haus- oder Wohnungseigentum oder die Übersiedlung in ein Arbeiterwohnheim voraussetzt.

More to follow

plink, nix,    praise or blame!
 

 
last updated: 03.10.24, 19:21
menu

Youre not logged in ... Login

Oktober 2024
So.Mo.Di.Mi.Do.Fr.Sa.
12345
6789101112
13141516171819
20212223242526
2728293031
September
Made with Antville
powered by
Helma Object Publisher
recently modified
...
Hm. Ich glaub, da gibt es schon noch einige Kandidat*innen. Mir fällt spontan Lisz Hirn ein. Ich fürchte nur, die schaffen es nicht mehr, so....
by tobi (03.10.24, 19:21)
Die sind
wirklich die allerletzten.
by StefanL (18.09.24, 08:42)
Es gibt sogar
Verbrecher, die das ganze WE zusätzlich durcharbeiten, um Pegelkarten zu bauen. Das sind dann die allerletzten.
by gHack (17.09.24, 18:56)
Geändert
Inzwischen hat Herr Fidler den Fehler erkannt und korrigiert sowie sich inzwischen bei den LeserInnen entschuldigt. Nur damit das nicht untergeht. Wir haben hier in der....
by StefanL (21.02.22, 09:17)
There has been evidence
that the important and successful ideas in MSFT - like licensing the Unix source code in the 70ies and learning from it and licensing QDOS....
by StefanL (02.01.22, 11:18)
Now
I think I maybe know what you meant. It is the present we know best and the future we invent. And history is mostly used....
by StefanL (02.01.22, 09:51)
???
Hey, it's just a phrase wishing to convey that you're always smarter after the event than before it.
by StefanL (28.12.21, 07:35)
Addendum
Oracle is now mentioned in the English Wikipedia article on teletext and even has its own article here. Electra has one too.
by MaryW (22.12.21, 07:11)
We have grossly erred
At least in point 5. We thought, people would have come to the conclusion that permanently listening to directive voices as an adult is so....
by MaryW (21.12.21, 07:42)
Did not want to spell the names out
Ingrid Thurnher should have been easy, as she is pictured in the article. Harald F. is an insider joke, the only media journalist in Austria,....
by StefanL (19.12.21, 08:45)
...
with four letters it becomes easier though i am not sure with hafi… anyhoo, inms guessing acronyms or whatever this is. *it’s not my steckenpferd
by tobi (24.11.21, 20:49)
Should be
pretty easy to guess from the context and image who HaFi and InTu are. Besides, thx for the hint to the open bold-tag.
by MaryW (22.10.21, 01:16)
Low hanging fruit
1 comment, lower geht es mathematisch schon aber psychosomatisch nicht.
by MaryW (15.10.21, 19:51)
...
da ist wohl ein <b> offen geblieben… und wer oder was sind HF und IT?
by tobi (25.09.21, 10:50)
manche nennen das
low hanging fruits, no?¿
by motzes (25.08.21, 20:33)
Freiwillige Feuerwehr
Wie ist das mit den freiwilligen und den professionellen Feuerwehren? Wenn 4 Häuser brennen und nur 2 Löschzüge da sind, dann gibt es doch eine....
by MaryW (22.07.21, 07:06)
Well
That is a good argument and not to be underestimated. I was convinced a malevolent or rigid social environment (the others) posed the largest obstacle....
by MaryW (18.07.21, 08:54)
Und noch etwas
Die Schutzkleidung ist ein großes Problem. Sie verhindert allzu oft, dass mann mit anderen Säugetieren gut umgehen kann.
by StefanL (26.05.19, 07:09)
Yeah
U get 1 big smile from me 4 that comment! And yes, i do not like embedded except it is good like this. It's like....
by StefanL (19.05.19, 16:30)
Mustererkennung
Just saying. #esc #strachevideo pic.twitter.com/OIhS893CNr— Helene Voglreiter (@HeeLene) May 19, 2019 (Sorry, falls embedded unsocial media unerwünscht ist…)
by tobi (19.05.19, 10:57)

RSS Feed