StefanL, 20.06.16, 00:03
Messung, Intuition, Vertrauen, Komplexität, Teil 5
Was Menschen glauben möchten, das werden sie auch glauben. Und was die Menschen glauben möchten und können, das hängt davon ab, ob es für sie einen Sinn ergibt und wenigsten irgendwie mit ihrer persönlichen Erfahrung zusammenpasst. Davon abweichende Erkenntnisse sind stabil nur in engen Expertenfeldern möglich, wo das Wissen und Vertrauen in komplexe Methoden und Modelle durch deren wiederholte Anwendung groß genug werden kann, dass Alltagserfahrung und Sinn-Sehnsucht durchbrochen werden. Darüber können die Expertinnen sich aber nur untereinander austauschen. Nach außen ist es so, dass sich nur dann, wenn alle oder ausreichend qualifizierte Mehrheiten unter ihnen die gleichen, an das Verständnis des Publikums angepassten, Aussagen machen, eine neue und schwierige Vorstellung, die sich aus der wissenschaftlichen Forschung ergibt, durchsetzen kann.
Oft nur oberflächlich, wie zum Beispiel die Heisenberg'sche Unschärferelation oder das Orbitalmodell des Atoms. Wer kann sich schon vorstellen, wie eine stationäre Lösung der quantenmechanischen Schrödingergleichung aussieht oder gar wie sie sich anfühlt. Das bewiesenermaßen falsche Planetenmodell des Atoms dagegen, das können alle begreifen und sich vorstellen. Hier stehen wir nun mit unserem Vertrauen in Zahlen und Rechnen und müssen begreifen, dass wir gar nicht anders können. Immer noch kann Sicherheit in der Einschätzung nur durch Übereinkunft hergestellt werden.
Außer vielleicht im engsten Bereich der eigenen Expertise und häufig geübten Praxis ist das Verständnis komplexer Systeme durch die beschränkte Vorstellungskraft und das unmittelbare Reflexionsvermögen begrenzt. Metriken und Messungen können Komplexität ordnen und vielleicht reduzieren und haben gleichzeitig das Potential, sie über den Bereich hinaus, in dem Intuition und direktes Vertrauen in die Fakten und sich selbst noch möglich sind, auszudehnen.
Das impliziert, dass wir heute jede Menge Messsysteme für die Kontrolle, der komplexen Systeme, die wir geschaffen haben, unabdingbar brauchen und parallel dazu die Sachlage dauernd verschlimmern.
Durch die dynamische Erzeugung von Mess- und Steuerungsdaten verändern Mess- und Regelwerke die Systeme für deren Messung, Bewertung und nicht selten Kontrolle sie geschaffen wurden. Das Verhalten menschlicher Organisationen wie z.B. Unternehmen ist eine Funktion des reziproken Verhältnisses zwischen den Strukturen und Regeln der Organisation und den Handlungen der Personen in und außerhalb der Organisation. Und gar nichts davon ist statisch und bleibt, wie es ist.
Vereinfachung durch Messung
Jede Metrik ist eine Art Summen- oder Zusammenfassungsstatistik. Eine Zusammenfassung ersetzt kein Buch und ihre Verwendung ohne genaue Kenntnis des Ganzen kann das Verständnis erheblich reduzieren.
Mehr noch, Vereinfachungen führen oft zu schlechten Informationen und verzerrten Steuerungsentscheidungen innerhalb des Systems. Das ist der Kern dessen, was Goodhart's Law bedeutet. Die Anwendung der Messergebnisse verändert das gemessene System. Möglicherweise wird dadurch die Anwendung inadäquat.
Wenn man beginnt, nach den Effekten dieses Prinzips zu suchen, findet man sie in allen modernen System. Messergebnisse sind zu teuer und zu wertvoll, um nicht angewendet zu werden und zu bedeutend, um das gemessene System nicht zu verändern. Jeder weiß, dass die Quotenmessung die Medien verändert hat und weiter verändert. Und aus der Teilchenphysik wissen wir, wie die Einwirkung der Beobachtung auf die Messung ganz grundlegend beschränkend sein kann.
Komplexität ruiniert alles
Komplexe System haben komplexe Probleme, die gelöst werden müssen. Messergebnisse können die Vorstellung von Vereinfachung erzeugen, aber die zugrunde liegende Komplexität nicht reduzieren.
Das führt oft dazu, dass Messergebnisse die Tendenz haben, Probleme zu verbergen anstatt zu ihrer Lösung beizutragen. Und das wiederum steht in engem Zusammenhang mit der geforderten Lesbarkeit der Messung.
Das Versagen von Steuerung mittels Messergebnissen wird besonders wahrscheinlich, wenn die Dimensionalität reduziert wird, wenn die Kausalität nicht klar ist, d.h. es nichts weiter als eine statistische Koinzidenz gibt und wenn die Verwandlung von Metriken in Zielvorgaben Missverständnisse schafft.
"Lesbarkeit" als Rezept für das Scheitern
James Scott hat in "Seeing Like a State: How Certain Schemes to Improve the Human Condition Have Failed", dieses Muster des Scheiterns historisch untersucht: "The more I examined these efforts at sedentarization, the more I came to see them as a state’s attempt to make a society legible, to arrange the population in ways that simplified the classic state functions of taxation, conscription, and prevention of rebellion."
Die meisten Staaten betrieben übrigens die Vermessung ihrer Menschen und Landschaften primär in der genuinen Überzeugung, damit das Los ihrer Bevölkerungen nachhaltig verbessern zu können und nur selten und sekundär aus den ihren Funktionären oft unterstellten Motiven der Herrschaftsfantasie, Machtgier und Unterdrückungswut. Das trifft genauso auf die großen Internet- und Einzelhandelskonzerne zu, die derzeit gerade die Vermessung ihrer Kunden, ihrer Mitglieder und der Welt auf ein Niveau bringen, von dem der schlimmste Überwachungsstaat nicht einmal zu träumen wagte.
Der fundamentale Denkfehler der daten- und abstraktionbasierten Vorstellung von der "Lesbarkeit" der Welt liegt in der Annahme dass dynamische, erfolgreiche, lebendige Systeme bezüglich ihrer umfassenden Struktur, Funktionen und Kausalität verständlich und lesbar sein müssen. Oder zumindest, dass sie für das alles sehende wissenschaftlich-statistische, über den Dingen schwebende "Auge" les- und verstehbarer sind als für die in den Prozess eingebundenen Ohren, Augen und Nasen auf dem Boden.
Komplexe Realitäten strafen diese Auffassung Lügen. Die Gesamtheit eines Waldes versteht man durch das Gehen und Liegen unter den Bäumen, durch das "Absorbieren" seiner "Gestalt" und durch Interaktion als holografisch-fraktales Element seiner Prozesse besser und richtiger als aus den luftigen Höhen noch so vieler Tabellen und Satellitenaufnahmen, ohne die einem aber auch am Boden nicht so wenig, vielleicht Wichtiges, entgehen wird.
Das heißt nicht, dass ein statistisch lesbar gestalteter Wald und das wissenschaftliche Verständnis seines Funktionieren nicht gewisse Nutzungen für den Menschen sehr befördern kann. Es heißt auch nicht, dass "wissenschaftlich" gemanagte Unternehmungen, gemessen an den definierten Zielen, nicht sehr erfolgreich sein können. Die längerfristigen Folgen solchen Handelns können aber oft nicht oder nur schwer abgeschätzt werden.
Reduktion der Dimensionen
Alle Metriken reduzieren Dimensionalität und Wertbandbreite. Die einzelne Zahl repräsentiert nie alle Aspekte eines Zustands. Die Ökonomie versteht sich selbst gerne als die Wissenschaft der Verteilung von knappen Gütern. Vereinfachen wir jetzt einmal die Lehrveranstaltungen einiger Semester lassen dabei die ganz schweren mathematischen Teile aus.
Nehmen wir an, wir reden von n Menschen und x verschiedenen Arten von Gütern. Das hat zur Folge, dass jede Verteilung einen Punkt in einem Koordinatensystem mit (n-1)*g Dimensionen darstellt. Jede von den n Personen kann jede der x verschiedenen Güter anders bewerten. Die Werte, die von den Menschen in die Distribution eingebracht werden, sind Punkte in einem n-dimensionalen Raum. Das ist komplex und kaum vorstellbar. Ökonomen einigen sich meist auf vereinfachende Annahmen über menschliche Präferenzen, vereinbaren Aggregationen und gelangen am Ende zu ein- oder zweidimensionalen Skalen für die Bewertung der Nützlichkeit und Begehrenswertigkeit von Gütern. Am Ende erklären sie uns dann, wie ihre Algorithmen Begehren, Nutzen und Verteilung optimal miteinander verbinden können.
Die ökonomische Wissenschaft kann sehr wohl kritisch sein. So hat der späteren Nobelpreisträgers Kenneth Arrow bereits 1951 das nach ihm benannte Arrow-Theorem publiziert, dessen Gegenstand das Verhältnis zwischen dem Wollen von Individuen und der gesellschaftlichen Entscheidung ist. Das Theorem stellt die Möglichkeit einer eindeutigen Bestimmung eines „Gemeinwohls“ mit Hilfe abstrakter Regeln, in moderner Redeweise die algorithmische Bestimmung eines optimalen Vorteilszustands für möglichst viele, in Frage.
Obwohl das Arrow-Parodoxon und seine Erweiterungen also zeigen, dass es keinen Algorithmus für die Herstellung von allgemeinem Wohl geben kann, werden solche Erkenntnisse im Rest der Sozial- und Wirtschaftswissenschaften weitgehend ignoriert. Das erhält die gut bezahlten Jobs und die Illusion der deterministischen Machbarkeit freien Wirtschaftens und fairer Politik aufrecht. Auf dieser Illusion aber beruhen alle Fantasien über die schöne neue Welt, die uns Software, Silikon und ihre Vernetzung durch Kapitalgesellschaften mit "Do no Evil"-Ethiken bescheren können.
Die Kausalität ist ein "Hund"
Die philosophische und wissenschaftliche Definition von Kausalität ist heute strittiger denn je. Halten wir es trotzdem einfach. A verursacht B, dann, wenn im Fall einer (magischen) Manipulation von A und nichts anderem, bei B eine Veränderung eintritt.
In der Praxis ist das Verständnis der Kausalität im angewendeten Modell immer schwer, weil monokausale Analysen außer in den aller-einfachsten Experimenten stets problematische Logiken erzeugen.
Die Komplexität eines Sachverhaltes spiegelt sich in der Wahrnehmung mit einer Fülle von Details, für die es auf den ersten Blick keine Abstraktion gibt, die Menge und Dichte der relevanten Einzelheiten verkleinern könnte.
Komplexität in biologischen Systemen mit autonomen Einheiten, z.B. Gesellschaften, ist ein Resultat nicht determinierten Verhaltens dieser Einheiten, z.B. der Menschen. Wieder erkennbare und sich wiederholende parallele Muster in den Daten nennt man Korrelation. Für die Hypothesen- und Theoriebildung wird für so eine Korrelation eine Hypothese zu einer dahinter liegenden Ursache gebildet. Diese Hypothese ist ohne Nachweis aber wenig wert und kann leicht zu Modellfehlern führen.
Randall Munroe Licence: CC BY-NC 2.5 Korrelation impliziert keine Kausalität, aber sie wackelt immer verführerisch mit den Augenbrauen und flötet: Schau her!
All das führt in den entsprechenden Wissenschaften Ökonomie, Soziologie, Politologie etc. zu vielen diachron und synchron konkurrierenden Theorien und allerhöchsten zu partialen Einigkeit verschiedener "Schulen". Diese Theorien wählen jeweils aus dem sich dynamisch verändernden Datenbestand ganz unterschiedliche Pakete aus und setzen diese auch in stets unterschiedlich gebaute Beziehungssysteme ein.
Konsequenzen unsicherer Kausalität
Zur Risiko-Einschätzung sowohl für komplexe Naturphänomäne (z.B. Erderwärmung) als auch für große von Menschen konstruierte Systeme (z.B. Kernkraftwerke, Luftverkehrsleitsysteme, autonome Fabriken oder Handelssysteme) gibt es weder zwischen einzelnen Menschen noch zwischen Staaten viel Einigkeit. Zur Sinnhaftigkeit und Effizienz der bereits eingesetzten Steuerungsmechanismen und denen, die in Zukunft zum Einsatz kommen sollen, noch viel weniger.
Viele Untersuchungen zeigen weiterhin, dass auf Sensoren und Messwerten basierende Maßnahmen und Mechanismen, die darauf zielen, Risiken durch ihren Einbau oder ihre Nachrüstung zu reduzieren oder zu beherrschen, nicht selten zu einer weiteren Steigerung der Komplexität und zu noch mehr unkontrollierbaren Interaktionen führen.
Kausalität wissenschaftlich modellieren
Um Kausalität für wissenschaftliche und technische Systeme darstellen und verwenden zu können, braucht man einen Formalismus. In der klassischen Physik waren das die heute berühmten und in höheren Schulen und den ersten Studienabschnitten vieler Fächer unterrichteten und damit eigentlich zur Allgemeinbildung gehörenden Gleichungen und Gleichungssysteme.
Aktuell werden für die Darstellung von Kausalitätsbeziehungen gerne grafische Formalismen eingesetzt. Manche haben wahrscheinlich schon in einem ambitionierteren Artikel zum Thema Big Data die Abkürzung DAG (Directed Acyclic Graph) gelesen bzw. überlesen.
Das ist ein Graph, der den Wirkungszusammenhang von Gesund-Leben-Bewusstheit, Zähneputzen und Herzerkrankungen formalisiert, verständlich und richtig darstellen soll.
Mehr aus der Serie "Intuition, Messung, Vertrauen, Kompexität":
plink, nix, praise or blame!
StefanL, 19.06.16, 11:29
Messung, Intuition, Vertrauen, Komplexität, Teil 4
Die Verwendung von Messergebnissen setzt Vertrauen in die Datensammlung und die Methoden für Umwandlung und Aggregation der Daten in den Messinstrumenten voraus.
Wir stellen selten in Frage, dass die Veränderung von Quecksilbersäulen oder Metallplättchen mit dem Steigen der Temperatur in allerlei Thermometern vom Fiebermesser bis zur Wetterstation ein reproduzierbares und richtiges Verhältnis haben.
Unser Gefühl sagt uns vielleicht mit Gewissheit, dass Herr K. unter unseren Mitarbeitern oder Kollegen die größte Pfeife ist. Die Erfassung und Quantifizierung von Leistungswerten kann so ein Vorurteil unter Umständen sinnvoll korrigieren und zeigen, dass Herr K. viel mehr leistet als seine leise Stimme und gebückte Körpersprache vermuten lassen.
Frau X. hat vor dem Einstellungsgespräch einen hervorragenden Lebenslauf mit exzellenten Zeugnis-Noten und sogar Erfolgszahlen aus dem vorigen Job vorgelegt. Das hilft bei der Entscheidung nur dann, wenn man das Vertrauen hat, dass Frau X. korrekte und echte Dokumente mit Daten in der richtigen Auswahl vorgelegt hat oder man die Daten irgendwie überprüfen kann.
Es gibt Lügen, ...
Statistik ist wie andere Disziplinen auch ein Denksystem. Sie kann nicht verhindern, dass wir uns selbst oder andere belügen. Sie ist aber oft gut geeignet, uns dabei zu helfen, dass uns andere nicht so leicht erfolgreich Blödsinn erzählen können.
Das setzt voraus, dass wir für den betrachteten Fall der Datensammlung und den Verarbeitungsmethoden, die verwendet wurden, vertrauen können. Wie das Sprichwort sagt, "es gibt Lügen, verdammte Lügen und ....". Die mannigfaltigen Schwierigkeiten des Datensammelns und die Komplexität und Flexibilität der statistischen Methodologie verbergen alle Unterschiede, jedenfalls für diejenigen, die im gegebenen Fachgebiet keine trainierten Spezialisten und Experten sind, also die meisten Leute, die mit den fraglichen Zahlen umgehen und sie verwenden.
Trotz dieses schon fast trivialen Vorbehalts werden Daten und Statistiken regelmäßig in voller Überzeugung in Umständen und für Zwecke verwendet, wo ein begründetes Vertrauen gar nicht gegeben sein kann. Meinungs- und Medienforschung haben durch allerlei Veränderungen und Versagungen gegenüber früher sehr stark an allgemeinem Vertrauen eingebüßt, werden aber deswegen ganz und gar nicht aufgegeben und weiterhin meistens nur bei expliziten Interessenkonflikten hinterfragt.
Während der Brexit-Volksabstimmung am 23.6. hat Ben Riley-Smith vom Daily Telegraph den Alterssplit einer Umfrage von YouGov vertwittert, wonach rd. 75% der 18-24-Jährigen für einen Verbleib des UK in der EU stimmen würden.
Während Rhiannon Lucy Cosslett Freitag zu Mittag in der Einleitung zu einer Guardian-Debatte zeitfalsch aber sonst korrekt "Three-quarters of young people – a massive mandate – are predicted to have voted remain, according to a YouGov poll ..." schrieb, ist die Formulierung im fast gleichzeitig erschienenen Feature von Elena Cresci schon viel faktischer: "According to polling data from YouGov, 75% of 18- to 24-year-olds voted to remain in the European Union."
Die "eindrucksvollste" Zahl dieser Umfrage wurde also vom Guardian ausgewählt und von sehr vielen Journalisten und Medien auf dem Kontinent weiterverbreitet. Trotz aller Skepsis zur Genauigkeit von Meinungsumfragen werden jetzt die 75% in Facebook, Twitter und Co geteilt, zitiert, wiederholt und wiederholt. Dabei wird oft noch weiter verallgemeinert. Sätze wie "die Jungen sind für den Verbleib" werden formuliert.
Niemand fragt in den kontinentalen Medien und in den friends' and followers' Posting-Schlangen nach dem wohl knapperen Prozentsatz für die 25-35-Jährigen (laut YouGov immer noch 56% der 25-49-jährigen für "Remain"), niemand fragt nach Methodik und Kontrolle des Umfrageverfahrens. Dabei war je gerade YouGov in seinem "On-the-day recontact poll" 52% für Remain und 48% für Leave als final figures publiziert. Man kann wohl zu Recht vermuten, dass die 75%-Prognose für die 18-24jährigen auch zu hoch gelegen war. Trotzdem wird sie in den Schatz der Wahrheiten bei den politisch interessierten Europaanhänger eingehen.
Die Mechanismen, durch die Wahrheiten entstehen sind weiterhin Glaubenwollen, Weitersagen, Wiederholung und Übereinkunft und nicht eine kühle und kompetente Überprüfung wissenschaftlicher, technischer und mathematischer Prozesse. Bei den rationalen Vorwärtsschauern ganz genau so wie bei den angeblich so irrationalen Rückwärtsgewandten.
Vertrauen ist gut, ...
Bei halbwegs korrekter Anwendung sollten Datensammlung und Methoden von statistischen Verfahren transparent und überprüfbar sein. Der Wladimir Lenin zugeschriebene Aphorismus "Vertrauen ist gut, Kontrolle ist besser" ist wie die meisten solchen Wendungen zwar nirgends belegt, die Zitierung der russischen Beamtenregel "Vertraue, aber prüfe nach" dagegen mehrfach und schriftlich. Schon die Möglichkeit zum Gegencheck durch Außenstehende kann das Vertrauen steigern, eine regelmäßige Durchführung umso mehr.
Vertrauen in Methoden beruht auf Vertrauen in Personen und Institutionen, deren Vorgeschichte und die Macht der Rationalität. Oft werden Studien von den jeweiligen Interessenten finanziert und gesteuert. Die Medienwirtschaft produziert die Medienstudien. Politische Parteien, Ämter und Medien beauftragen Meinungsstudien, der statistischen Nachweis zu Wirkungen und Nebenwirkungen von Arzneien wird von und unter Mitwirkung von Pharma-Konzernen erbracht. "Vertraue aber prüfe" erscheint mehr als angebracht.
Nur veri- und falsifizierbare Metriken zu verwenden, mag ein Ideal sein. Es gibt aber viele Fälle, in denen die Überprüfung noch komplexer oder schwieriger finanzierbar ist als die eigentliche Messung und Verarbeitung.
... Kontrolle ist besser
Der offensichtliche, wissenschaftstheoretisch recht mittelmäßige, aber am weitesten verbreitete Lösungsweg für dieses Problem ist der Einsatz von leichter prüfbaren Metriken an Stelle der für die Beantwortung der untersuchten Fragen nützlichsten. Die nur Stichproben ziehende Durchführung von Checks ausgewählter Teildaten und Teilprozesse, immer dort, wo es leicht durchführbar erscheint, ist der zweite etwas zweifelhafte Weg, Vertrauen durch Prüfung zu erzeugen.
Für die meisten aussagekräftigen und belastbaren Metriken sind Unmengen von Daten notwendig. Der Datensammel-Prozess selbst ist prinzipiell von außen schwer prüfbar. Wenn eine Organisation, die Daten selbst gesammelt hat oder Zugang zu einer großen Datensammlung hat, fähig und entschlossen ist, vor der eigentlichen Verarbeitung die Daten zu "behandeln", ist das extrem schwer zu entdecken.
Die Verteilung der einzelnen Aufgaben und Verantwortlichkeiten innerhalb des Verfahrens erscheint zur Zeit als aussichtsreichste Methode, um Betrug und Manipulation in der statistischen Arbeit zu bekämpfen. Diese Vorgehensweise ist weniger effizient und teurer als eine, in der ein Team oder eng integrierte Teams alles machen. Sie wird deswegen in vielen Feldern noch kaum angewendet.
Wahlhochrechnungen sind im Gegensatz zu Vorwahlumfragen ein positiver Fall. Die Daten werden ganz objektiv und mit integrierter Prüfung in Zusammenarbeit von politischen Aktivisten und Wahlbehörden erfasst und aggregiert. Ein Experten-Team, deren einziges Interesse sein kann, sich dem richtigen Ergebnis schnell anzunähern entwickelt Modelle, um mit Teildaten und unter Hinzunahme von historischen Erfahrungen und Trends kurz nach Wahlschluss das Ergebnis vorausberechnen zu können. Dazu kommt auch, dass der Wahlvorgang meist eine sehr einfache Frage, die nur 2 - 10 definierte und nicht verknüpfte Werte annehmen kann.
Alles kann schiefgehen
Die Vorgänge bei der österreichischen Präsidentschaftswahl zeigen aber, dass Gewohnheit und Bequemlichkeit selbst in so einem Fall potentiell Unregelmäßigkeiten entstehen lassen können.
Ein weiteres gutes Beispiel für die Anwendung der Aufgabenteilung ist das britische
Broadcasters' Audience Research Board (BARB). Nicht nur kontrollieren sich in so einer Organisation die Teilnehmer gegenseitig, hier sind auch die Aufgaben auf gleich 3 im Wettbewerb stehende Dienstleister verteilt.
Ein kleines Land, kleine Märkte und Geldmangel führen auch da zu Problemen. Vier Jahre lange konnte in der GfK-Austria der Radiotest manipuliert werden, ohne dass etwas auffiel. Bei einer Aufgabenverteilung anstelle einer Komplettlösung durch einen Dienstleister mit wahrscheinlich nur reiner Plausibilitätskontrolle durch die Hauptauftraggeber RMS und ORF, wäre das wohl viel schwerer möglich gewesen.
Noch problematischer ist die Anwendung von Blackbox-Plattformen im kommerziellen Bereich.
Wahrscheinlich müssen all die verschiedenen Institute und Auftraggeber, die in den letzten Jahren durch schlechte Ergebnisse, teilweise dumme Konkurrenz und Liebedienerei sowie durch verschiedene kleinere Manipulationsskandälchen viel Vertrauen eingebüßt haben, dringend mehr Verantwortungsteilung ins Auge fassen. Und die Auftraggeber des Radiotests sollten dringend überlegen, ob sie nicht auch eine schlagkräftigere Organisation brauchen, die sich mit einer Geschäftsstelle sowie den üblichen Kommissionen und Beiräten die Entwicklung und Durchführung ihres Messinstruments kontrolliert und verantwortet.
"Erfolg" gibt Dir immer recht ...
Nichts gibt Dir mehr Recht als eine Kombination aus offensichtlichem Erfolg, gleichzeitigem Misserfolg der Konkurrenz und intelligenter Kommunikation bei der Erklärung hinterher. George Gallup setzte sich und sein Institut auf die politische und mediale Landkarte, als es den Sieg Roosevelts 1936 richtig voraussagte und die Konkurrenz meilenweit daneben lag. Diverse Erklärungsvorträge des smarten Mr. Gallup mit seinem akademischen Hintergrund taten ein übriges.
An den Zahlen von Facebook und Google zweifelt außer ihren Feinden und den Verlierern kaum jemand öffentlich, obwohl die Datensammlung und vor allem die Datenverarbeitung bei beiden Konzernen mehr als intransparent sind. Bei Facebook übrigens deutlich mehr als bei Google. Beide veröffentlichen Whitepapers und Artikel zu allen möglichen Aspekten und Fragen zum Thema, aber letztlich handelt es sich bei der Statistik-Produktion von beiden um intransparente, extrem komplexe Black-Boxes unter privater Eigentümerschaft. Diese Eigentumsverhältnisse sind nicht der unwichtigste Grund dafür, dass die Datenprozesse aller dieser Konzerne im Gegensatz zu staatlichen Statistiken nur durch richtig wenige Transparenz-Gebote und sehr viel Schutz aus dem Wettbewerbsrecht reguliert werden.
Das ist aber nicht, worauf es ankommt. Worauf es ankommt, ist, dass hier die offensichtliche und intuitive Alltagswahrnehmung und sorgfältig darauf abgestimmte Zählergebnisse in Kombination Gewissheiten schaffen, die manchmal erstaunlich sind und an denen Zweifel und Kritik abperlen wie große Wassertropfen an der Goretex-Membran.
Wie leicht die führenden IT- und Internetkonzerne anderen Entscheidungsträgern und Meinungsmultiplikatoren in Wirtschaft, Politik und Medien passende Mythen einreden können, hat schon den einen oder anderen von uns kritischen Geistern geärgert oder gar beunruhigt. Die einzige Möglichkeit, die dem bemühten Beobachter noch bleibt, ist, Aussagen und Publikationen von Google, Amazon, Facebook und anderer Playern zu studieren, unter einander und mit den eigenen, lokal beschränkten Daten zu vergleichen und zu hoffen, dabei Widersprüche, Abweichen und kleine Risse in den Betonwänden entdecken zu können. Und das ist erst die halbe Miete.
Was Menschen glauben möchten, das werden sie glauben. Und was die Menschen glauben möchten und können, das hängt davon ab, ob es für sie einen Sinn ergibt und wenigstens irgendwie mit ihrer persönlichen Erfahrung zusammenpasst. Für die einen ist die Quantenphysik eine Religion, die zu verstehen sie nur vorgeben und für die anderen ist die biologische Evolutions ein wissenschaftlicher Irrtum, der nur erfunden wurde, um die Menschheit davon abzuhalten, durch freiwilliges moralisches Bemühen ihre gottgegebenen Ziele zu erreichen.
plink, nix, praise or blame!
StefanL, 18.06.16, 08:19
Messung, Intuition, Vertrauen, Komplexität, Teil 3
Viele Felder menschlicher Tätigkeit schienen sich stets gegen das Messen zu sträuben, andere dagegen können schon lange nicht mehr ohne es auskommen.
Die Methoden der Markt-, Medien- und Meinungsforschung haben es mit sich gebracht, dass auch schwer messbaren Dingen wie Mitarbeiterzufriedenheit und Führungsqualitäten quantisierend zu Leibe gerückt wird. Inzwischen werden solche Qualitäten nicht mehr nur von hierarchischen Vorgesetzten-Ketten durch subjektive Beurteilung und aus bestimmten Arbeitsergebnissen (z.B. Siegstatistik für Trainer, Verkaufszahlen für Sales Manager) bewertet. Periodische Umfragen in Unternehmen und statistische Vergleiche helfen allenthalben, auch einen schönen Teil dieser "weichen" menschlichen Qualitäten zu quantifizieren und zu vergleichen.
Im Sport war das immer nötig, weswegen die Jury und die Stilnote schon seit der Antike zum Einsatz kommen. Summierung und Mittelwertbildung führen hier zu Eindeutigkeit und Reihung, deren Richtigkeit durch Übereinkunft und Regel gesichert und von den Verlierern trotzdem nicht selten angezweifelt wird.
Mehr Daten um welchen Preis?
Die unglaubliche Verbesserung und Verbilligung von Sensoren, die einzelne Aspekte physikalischer Phänomene abertausende Male pro Sekunde mit Referenzwerten vergleichen, die Vergleichsergebnisse als binäre Werte festhalten und für die Ewigkeit speichern oder schnell durch Aggregation verdichten, hat vieles dem Messen zugänglich gemacht, was vor der Silikon-Technologie und dem Wirken von Moore's Law entweder technisch oder ökonomisch der Beobachtung und Quantifizierung entzogen war.
Die Debatte um Quantifizierung als Grundlage für wirtschaftliche und politische Entscheidungen hat seit den Erfolgen von Google, Amazon, Facebook und Co. einen ganz schönen Bias bekommen. Daten werden allenthalben als das Öl der Zukunft bezeichnet. Viele wissen heute vage, dass schon vor den aktuellen Entwicklungen Walmart mittels eines geradezu magischen Big Data Warehousing die Konkurrenz das Fürchten gelehrt hat. Nicht wenige vermuten, dass die NSA mit ihren Messdaten die ganze Welt durchblickt und beherrscht.
Die Europäische Union möchte zwar gemäß alter Prinzipien die Privatsphäre ihrer Bürger vor allzu schlimmer und vollständiger Durchleuchtung und Vermessung durch ausländische Mächte und Konzerne schützen, aber keinesfalls riskieren, dass die europäische Wirtschaft nicht auch ihr Zukunftsöl ausgraben und einsetzten kann. Sie kommt dabei einigermaßen hilflos über die Bühne. Einzelkämpfer mühen sich ab, Gefahren aufzuzeigen, aber die unermessliche Verbreitung der Messsensoren hat noch keiner unterbunden. Zu groß erscheinen die erwarteten Vorteile bislang sowohl den Mehrheiten als auch den meisten Eliten.
Messen und Entscheiden
In seinem Buch "How to Measure Anything: Finding the Value of 'Intangibles' in Business"hat Douglas W. Hubbard, der "Erfinder" von Applied Information Economics einer umfassenden Quantifizierungsphilosophie Ausdruck und Anspruch verliehen.
Messen ist wirklich oft wertvoll, weil es hilft, das direkte erfahrungsbasierte Erfassen, das gemeinhin Intuition genannt wird zu überprüfen. Oft befördert gerade da, wo nie gemessen wurde und per Übereinkunft ein etabliertes und für sicher gehaltenes "Wissen" die Einschätzung beherrschte, die Kreation und experimentelle Prüfung von Metriken einen Wissensschub. Man denke nur an den Äther und Lichtgeschwindigkeit. Oder an die Medien- und Meinungsforschung, die Erkenntnisse zu Tage förderten, auf die akademischen und politische Eliten mittels ihrer Intuition in 1000 Jahren nicht gekommen wären.
“No matter how ‘fuzzy’ the measurement is, it’s still a measurement if it tells you more than you knew before.”, ist zu Recht ein Schlüsselsatz in Hubbard's Buch, das aber natürlich wie alle ähnlichen Werke zwar Vorkehrungen zur Prüfung von Erkenntnissen enthält, aber auch sehr oft vergisst, wie problematisch sowohl die Ordnungsstruktur, die Werte und die Anwendung von Wissen und Knowledge sein kann und wie Gehirn und Kollektive von kommunizierenden Körpern und Gehirnen wirklich funktionieren.
Auf der anderen Seite hat Daniel Kahneman, der erste Psychologe, der 2002 gemeinsam mit Vernon L. Smith 2002 den "Nobel Memorial Prize in Economic Sciences" gewann, hat eine Reihe von Ergebnissen neuerer Forschung zu Entscheidungsfindung, Risikobewertung und ähnlichem in "Thinking, Fast and Slow" für interessierte und vorgebildete Menschen verständlich dargestellt. Er hat, man kann das wohl so sagen, mit diesem Buch dem Mythos vom Menschen und speziell vom Elitemenschen als "zoon logikon" und "animal rationale", und damit einem Dogma der klassischen Ökonomie, eine auch für das breitere Publikum schwer zu übersehende Kerbe zugefügt.
Messung und Intuition
Unter diesen Umständen würde man gerne entscheiden können, wo und was man messen soll und wo man mit Gefühl, Erfahrung und Intuition besser vorankommt und zu besseren Entscheidungen gelangt.
Ein sorgfältiges Zusammenwirken von Intuition und datenbasierter Rationalität, System 1 und System 2, wie Kahneman es nennt, oder "Herz und Hirn", wie es ganz altmodisch Politiker und Lebensratgeber gerne sagen, scheint durch die Debatte für die meisten, die sich ernsthaft mit der Frage beschäftigen als Ideal weiterhin ganz unangetastet zu sein.
Während die Daten immer mehr und die Modelle immer besser werden, ist aber anderseits wenig klar, wie die Intuition da mithalten kann. "Silicon, numbers and software eat the world", beschreibt einen Eindruck, dem man sich nur schwer entziehen kann.
Wir sollten bei all dem nicht vergessen, dass das Messen und Analysieren das Schreiben, Lesen und Rechnen voraussetzt. Zu diesem Komplex gehört auch ein geschlechtsgeschichtlicher Hintergrund. Zählen, messen, aufschreiben, rechnen, und die Entscheidung auf der Basis umfangreicher Daten und zugeordneter logischer Schlussketten war von Anfang an eine Domäne der Männer und wird bis heute von der Mehrzahl der Frauen kritischer betrachtet als zumindest von der Elite der Männer.
Auch das ändert sich inzwischen, aber ist dennoch sehr tief in unserer Kultur verankert. Nicht selten konnten gescheite Frauen auch zeigen, dass sie mittels Intuition viel schneller zu den gleichen und manchmal sogar besseren Erkenntnissen und Entscheidungen gelangen konnten als die Männer mit ihren umständlichen Systemen und Analysen.
Im gemeinsamen Gespräch und bei der Betrachtung von Alltagsphämomenen lachen Frauen denn Männer auch ganz gerne aus, wenn sie mit (zu vielen) Daten und Logik kommen, um ein Argument zu stützen. Die Kehrseite der Medaille ist, dass Männer Frauen häufig nicht ernst nehmen wollen, wenn sie nicht zuerst beweisen, dass auch sie Zahlen und Logik lesen, im Kopf behalten und anwenden können.
Schwierigkeiten des Zusammenwirkens
Daten und Faktenwissen können ebenso leicht falsch verwendet oder gar missbraucht werden wie Intuition und Gefühl. Ihre jeweiligen Befürworter übertreiben gerne ihre Qualitäten. Datenwissen erzeugt leicht den Eindruck von Gewissheit. Datenwissen ist niemals vollständig. Immer müssen die Lücken mit Vorurteil, Vorwissen und gefärbten Impulsen aus dem Inneren geschlossen werden. Selbst, wenn es nicht so wäre, bleibt die Eigenschaft von Kahnemans System 1 ("Intuition"), dass niemand es zu irgendeinem Zeitpunkt abschalten kann.
Ohne umfangreiche und teure Versuche kann nicht ermittelt werden, ob Messungen und Modellrechnungen zu bestimmten Fragen nicht teurer und fehlerträchtiger sind als die Vorteile, die durch sie erhofft werden. Uns hat der so genannte Nachweis des Higgs-Teilchens im LHC des CERN nicht wahnsinnig überzeugt. Seine Voraussage durch das Standard-Modell, die wissenschaftliche Konkurrenz und der politische Druck der enormen Kosten haben diese Interpretation der teuren Experimente bei der ersten Möglichkeit für ein plausibles Indizien-Gerüst erzwungen. Aber die Begeisterung der beteiligten Physikerinnen und Techniker hat so gezwungen gewirkt, dass man schon spüren konnte, wie dünn die Suppe war. Das Medienecho ist denn auch sehr schnell verhallt.
Während die Ökonomie und die Psychologie, denen einige öffentliche Denker weiterhin, auch nicht vollkommen zu Unrecht, den Status einer Wissenschaft bestreiten, endlich wegen der Fortschritte in Datenerzeugung und -verarbeitung trotz Kahnemann und Co. von Jahrzehnt zu Jahrzehnt ihre Daten- und Rechenbasis ausdehnen und vertiefen, scheint sich die Physik nun schon seit einiger Zeit im riesigen Gebilde ihrer Messinstrumente und mathematischen Systeme verfangen oder totgelaufen zu haben.
Einen echten "kreativen" Durchbruch innerhalb dieser einst so produktiven Leitwissenschaft der abendländischen Männer-Gesellschaft haben wir schon lange nicht mehr erlebt. Die Quantencomputer-Leute machen zwar in großen Abständen tolle Demos auf Kongressen, aber niemand weiß so richtig, was dabei herauskommen wird oder soll. Und auch das Beamen hat ein gewisser Herr Zeilinger nur mit unsichtbaren, mit mythischen Namen und Eigenschaften versehenen, angeblich existierenden Teilchen sozusagen simuliert. Des Kaisers neue Kleider werden aus eindimensionalen Strings in einer 11-dimensionalen SUGRA-Maschine gewebt.
plink, nix, praise or blame!
StefanL, 17.06.16, 08:16
Messung, Intuition, Vertrauen, Komplexität, Teil 2
Vor der französischen und amerikanischen Revolution waren die Ergebnisse von Volkszählungen, Armenerhebung und andere staatliche Zahlenwerke weitgehend geheim und nur einem engen Kreis innerhalb der Staats- und Kirchenlenkungsapparate zugänglich. Aber ab dem Beginn des 19. Jahrhunderts wurde ein zunehmend größerer Teil dieser Daten gedruckt, publiziert und massenhaft verbreitet. Seitdem ist die Menge der gedruckten Zahlen über die Menschen und ihre Gruppierungen zu einer unüberschaubaren Lawine angewachsen.
1822 veröffentlichte Auguste Comte den "Plan des travaux scientifiques nécessaires pour réorganiser la société". Diese Schrift gilt weithin als Ursprung sowohl des Positivismus als auch der Sozialwissenschaft. Für Comte war der Gegenstand seiner Wissenschaft eine „soziale Physik“ (physique sociale), die er nach Gesetzen der sozialen Statik und sozialen Dynamik unterschied.
Karl Marx und Friedrich Engels studierten Mitte des 19. Jahrhunderts penibel die Details amtlicher Statistiken, der Berichte von Fabriksinspektoren, der Armenvorsorge usw. Ohne diese Studien wären sie wohl weder zur Idee eines "wissenschaftlichen" Sozialismus noch zum Ersatz des Bürgertums, das sie so enttäuscht hatte, durch eine Klasse von Menschen, das sie Industrieproletariat nannten, als ultimatives Subjekt der menschlichen Emanzipation gelangt.
1862 schrieb Wilhelm Wundt, einer der Väter der experimentellen und quantitativen Psychologie: "Es ist die Statistik, die zuerst offenbart hat, dass die Liebe psychologischen Gesetzen folgt."
Die Zählung und Einteilung der Menschen sowie die Kategorisierung und Quantifizierung ihres Verhaltens führte zusammen mit den vorherrschenden Denkmustern des klassischen, hauptsächlich von Physik, Chemie und Mathematik inspirierten, wissenschaftlichen Weltbilds und seinem Werkzeugkasten, zur Formulierung zahlreicher sozialer und psychologischer "Gesetze" und damit bald auch zu unerwarteten Nebeneffekten.
Die Sozial- und Wirtschaftswissenschaften lösten sich von der Geistes- und der Rechtswissenschaft und wurden selbständig. Sie fanden und erfanden neue, zuvor nicht bekannte Kategorien, Klassifikationen, Fakten und Beweise. Sie haben in einem stegigen Auf und Ab aber auch unsere Möglichkeiten zu Reflektion und Veränderung erweitert.
Produkte, Märkte, Medien, Werbung
Märkte für massenhafte Endverbraucher waren nicht immer so bedeutend wie heute. Aber mit der Industrialisierung entstanden mit der Zeit auch die paketierten Markenprodukte und Massenmedien und damit sowohl der Bedarf und als auch die Möglichkeit zur weiten Verbreitung von massenadressierter Werbung und anderer neuer Strategien der Vermarktung.
Während der Wirtschaftskrise von 1833 startet Benjamin Day in New York The Sun mit dem Gedanken, dass in schwierigen Zeiten sich viel mehr des Lesens bereits mächtigen Leute eine Zeitung um 1 Cent als um 6 Cents leisten könnten und wollten. Das Motto der New Yorker Sun war, "It Shines For All", und auf dem Kopf des Titelblatt war angeblich stets der Satz "The object of this paper is to lay before the public, at a price within the means of every one, all the news of the day, and at the same time offer an advantageous medium for advertisements." aufgedruckt.
Die französische Zeitung La Presse war die erste billige Zeitung in Frankreich und die erste, die auf dem europäischen Halb-Kontinent bezahlte Werbung enthielt. Werbung machte die Zeitungen billiger, profitabler und unabhängiger vom Staat. Dieses Geschäftsmodell industrieller assymetrischer Kommunikation setzte sich in den Vereinigten Staaten, Europa einschlißlich Großbritannien und den europäischen Kolonien in aller Welt rasch durch.
Mit den neuen Produkten und Vermarktungsformen ging der Wunsch einher, mehr über Konsumentenwünsche, die Mechanismen von Konsumentenmärkten und die Wirkung von Werbung zu wissen. Nicht nur Planung und Durchführung der Produktion wurden verwissenschaftlicht, einem bis heute fortdauerndes und immer noch stark mit dem Namen Frederick Taylor verbundenes Unterfangen, sondern auch die Gestaltung von Produkten und ihrer Vermarktung.
Für die Presse genügte noch lange die Zählung der verkauften Auflage, um festzustellen, wieviel eine Anzeige in dem einen oder anderen Blatt wert war. Aber die Einführung des Radios veränderte auch hier die Situation grundlegend.
1923 gründete Arthur Nielsen das erste Unternehmen, das Markt- und Performanzforschung öffentlich als Dienstleistung anbot, in den Vereinigten Staaten von Amerika.
In Deutschland wurde 1935 die GfK-Nürnberg Gesellschaft für Konsumforschung e. V. von Nürnberger Hochschullehrern, darunter dem Wirtschaftswissenschafter und Politiker Wilhelm Vershofen und seinem Assistenten, dem späteren deutschen Wirtschaftsminister und Bundeskanzler Ludwig Erhard, ins Leben gerufen, um „die Stimme des Verbrauchers zum Klingen zu bringen“, wie das Vorwort in der Vereinsgründungsurkunde verkündet.
1936 Jahre erwarb Nielsen das so genannte "Audimeter" von zwei Professoren des M.I.T., Robert Elder and Louis F. Woodruff. Das Audimeter zeichnete auf, welche Radiostationen in den Haushalten während des Tages eingestellt waren und wie lange sie das waren. Nach ein paar Jahren des Herumprobierens kombinierte Nielsen das Audimeter mit einer Tagebuchstudie in je nach Quelle 800 oder 1000 Haushalten und schuf so den ersten nationalen Radio-Rating-Dienst.
Etwa zur gleichen Zeit startete auch Auricélio Penteado, ein Schüler von George Gallup, ganz unabhängig von Nielsen in den 40er-Jahren in Brasilien einen vergleichbaren Dienst namens IBOPE, der von den ganz Belesenen oft anstelle von Nielsen als erste Einschaltquoten-Parade genannt wird.
IBOPE (heute Kantar Ibope1) ragt immer noch aus den Quotendiensten der Welt durch den Umstand heraus, dass es die TV-Quoten in Echtzeit ermittelt und damit schon mal die dramaturgische Entwicklung und Übertragungslänge von Shows direkt beeinflusst.
In den 20er Jahren begann die professionelle Marktforschung, in den 30er und 40er-Jahren wurde die Einschaltquote in den Medien, die mit dem Fernsehen zu ihrer größten Blüte gelangen sollte, erfunden. Von da war es, wie wir sehen werden, nicht weit zur wissenschaftlichen Meinungsforschung.
In den USA warf Nielsen schon vor Beginn der Fernsehmessung alle Konkurrenten aus dem Feld und wurde zum ehernen Maßstab für elektronische Medien. Arthur Nielsen wird auch die Erfindung des Begriffs "Marktanteil" zugeschrieben, der bis heute wichtigsten Metrik für die Beurteilung der Verhältnisse der Konkurrenten untereinander und zu ihren jeweiligen Marksegmenten.
Heute ist die Nielsen N.V. nach vielen Besitzerwechseln ein börsennotierter Konzern und trotz eines kurzfristigen 2. Platzes nach der Übernahme von TNS durch Kantar, der Marktforschungsgruppe von WPP1 2008 wieder die Nummer 1 unter den weltgrößten Markt-, Medien- und Meinungsforschungsunternehmen.
TNS selbst war aus dem Zusammenschluss dreier Sozialforschungs-Unternehmen entstanden. 1946 war in Toledo, OH, die Meinungsforschungsgesellschaft NFO (National Family Opinion) entstanden. 1963 hatte Pierre Weil in Frankreich Sofres gegründet. Seit 1965 werkte in Großbrittanien die Taylor Nelson AGB. Sofres erwarb im Lauf der 90er Jahre weitere internatinale Institute in Asien und den USA, fusionierte 1997 mit Taylor Nelson AGB und erwarb in der neuen Konstellation 2003 NFO. Damit war die nunmehrige TNS in die Weltliga der Sozialforschung aufgestiegen1.
Die GfK SE ist eine Aktiengesellschaft nach europäischem Recht, immer noch mit Sitz in Nürnberg und mehrheitlich im Eigentum des Gründungsvereins und die Nummer 4 unter den Datenlieferanten für Wirtschaft, Medien und Politik. Addendum 2017: Die GfK ist seit März 2017 im mehrheitlichen Besitz (96,7 %) des Investmentfonds Acceleratio Capital N.V., einer Holdinggesellschaft des amerikanischen Private Equity-Konzerns Kohlberg Kravis Roberts & Co.
Professionalisierung der Meinungsforschung
Die erste dokumentierte Meinungsumfrage wurde 1824 von einer Lokalzeitung in Pennsylvania durchgeführt. In dieser unoffiziellen Abstimnung (straw poll) bekam Andrew Jackson von der demokratischen Partei die meisten Stimmen. Auch bei der Wahl gewann Jackson den popular vote, unterlag jedoch im Kongress durch ein Bündnis gegnerische Wahlmänner und John Quincy Adams wurde der 6. Präsident der USA. In der Folge wurden Wahlumfragen populär, blieben aber lokal und wurden nur in einzelnen Städten durchgeführt.
1916 unternahm es die Wochenzeitschrift The Literary Digest, als Teil einer Verkaufssteigerungskampagne, eine erste nationale Umfrage mittels Postkartenversand durchzuführen. Die Umfrageergebnisse deuteten auf einen Sieg Woodrow Wilsons hin und wurden als Voraussage dargestellt. Die Zeitschrift versendete danach bei allen Wahlen Postkarten an ihre Leser, zählte die Antwortkarten und lag bei den Wahlen von Warren Harding, Calvin Coolidge, Herbert Hoover und Franklin D. Roosevelt bis 1932 richtig.
George Gallup war 1931 an der North Western University in Illinois und ab 1932 an der Columbia University in New York Professor für Journalismus und Werbung. 1935 gründete er sein eigenes Meinungsforschungsunternehmen, 1937 wurde er Forschungsdirektor bei Young and Rubicam.
1936 wurde Gallup durch die richtige Voraussage des Erdrutschsieges von Franklin D. Roosevelt über Alf Landon berühmt. Gallup hatte seine Analyse mit wissenschaftlichen Methoden auf der Basis von nur 50.000 repräsentativen Interviews durchgeführt. Der Literary Digest dagegen zwar ein Sample von mehr als 2 Mio. Karten erhalten aber nicht bemerkt, dass die Weltwirtschaftskrise zu einer Veränderung seines Publikums in die eine und großer Gruppen der amerikanischen Bevölkerung in die andere Richtung verursacht hatte.
Die wissenschaftliche Meinungsforschung gibt seither trotz der vielen Irrtümer, die sie im Lauf der Jahre produziert hat, gewieften Politikerinnen, die lieber auf die Macht der so stets bekannten Mehrheitsmeinungen als auf die Überzeugung, Einschüchterung und Interessensintegration einer ausreichend großen Untergruppe der gesellschaftlichen Elite und ihrer politischen Funktionäre bauen mögen, ein ganz ordentliches Instrument an die Hand.
Mussten berühmte Popularen wie die Gracchen und die Julier, Girolamo Savonarola, Napoléon Bonaparte, Dr. Karl Lueger und Adolf Hitler in der Vergangenheit noch auf das Feedback erregter Massen auf dem Forum Romanum, in Hallen und Bierzelten, bei Heeresappellen, Parteikongressen und Wahlkampfveranstaltungen vertrauen, so konnte sich schon besagter Franklin D. Roosevelt und vollends alle seine Nachfolger in den USA und anderswo in der westlichen Welt bei ihren Aussagen und Handlungen auf die "wissenschaftliche" Erhebung und Hochrechnung von vorab definierten Mustern in Meinungsschnipseln sowie deren verständliche Segmentierung und Ordnung in klar verständliche Verhältnisse stützen.
Heute kommt kein Konzernlenker und kein Politiker ohne eine Unmenge von Zahlen, nicht nur "harten" Summen, Quotienten und anderen Kalkulationen aus Produktion und Vertrieb sondern auch "weichen" Zahlen zu Konsumentenstimmung, Mitarbeiterzufriedenheit und Wählermeinung aus.
Daten, Leadership, Populismus
Die meisten Mitglieder etablierter Eliten und ihre Anhänger verurteilen gerne den sogenannten Populismus von Zeitungen und Politikern, die für ihre Abmachungen und Geschäfte unbequeme Meinungen und Stimmungen in der Bevölkerung ausdrücken und verstärken, um selbst mehr Einfluss zu gewinnen.
Nach allem, was man in den letzten Jahren im Spiegel und anderen Medien über die Regierungsweise von Dr. Angela Merkel lesen konnte, kann man fast nur den Schluss ziehen, dass diese sehr intelligente Dame sowohl die kurzfristigen Entscheidungen als auch die langfristigen Entwicklungen der Bundesrepublik Deutschland und irgendwie auch der Europäischen Union ganz wissenschaftlich und sehr demokratisch, nämlich gemäß einem erforschten Set von Mehrheitsmeinungen ihres(r) Souveräns(e) gesteuert hat.
Die politischen Erfolge dieser Verfahrensweise gaben ihr bis zum letzten Jahr recht. Nicht nur machte sie die breite Glockenmitte der Gesellschaft für andere Parteien von Jahr zu Jahr schlechter zugänglich. Die Methode schuf ihr auch Platz und Energie, um sich effizient auf die Niederhaltung diverser Heißsporne und Ehrgeizler, von Merz und Koch über die Bayern bis zu Varoufakis und Tsipras, die ja früher auf diesem Kontinent über kurz oder lang noch jeder Häsin Tod waren, zu konzentrieren.
Dann kam die Flüchtlingswelle 2015. Frau Merkel schaute wahrscheinlich schon in die Zahlen und sah ziemlich sicher ein ambivalentes und wenig stabiles Bild. Spiegelbildlich zeigten ihr die bisherigen wissenschaftlichen Erfolge und das damit einhergehende Selbstbewusstsein sie selbst als das Bild eines Felsens in der Brandung und ganz und gar stabilen Schutzgöttin der Humanität. Und da zog die gute Frau den klassischen Fehlschluss all jener, die im Inneren so gerne an aufgeklärte logische Rationalität und europäische Wissenschaft glauben mögen, nämlich, dass sie die Richtung zeigen könne und alle ihr folgen würden.
Das Fazit des Beispiels
So wie es aussieht, hat das allzu häufige und allzu gläubige Studium der Zahlen in der Sache den letzten Funken an Intuition und Verständnis für "basic mass psychology" in der armen Frau irgendwie verzerrt oder möglicherweise gar abgetötet. Die Folgen sind inzwischen auch zu Tage getreten. Schwenks in jede Richtung, weiterer Schub für rückwärts orientierte Kräfte und Parteien, Hilflosigkeit allenthalben. Die Angie sitzt ja noch am Ruder, aber der Werner, der hat sich für die und bei der Herbeiführung der politischen reumütigen Rückkehr unter den mittels Meinungsumfrage ermittelten Willen der Mehrheit selbst verheizt und verheizen lassen. Seine Rechnung ging plötzlich nimmer auf.
Über die anderen Pfeifen schweigen wir jetzt lieber, ganz speziell über die, die immer noch an old style Kabinettspolitik glauben und meinen, man könne in Brüssel, Paris, Straßburg, London oder Berlin zu dritt oder zu dreihundert mit sich selbst, den Amis oder den Lobbies etwas ausmachen und mittels Koalieren und Vorteilstausch nach ganz anderen Zahlen und Ergebnissen sowie die Fütterung vermeintlich systemtragender Medien den Kontinent voranbringen oder wenigstens stabil halten.
Und die Mädels und Burschen, die statt überholter ökonomischer Vorhersagemodelle noch eifriger als die Mainstream-Politiker die Ergebnisse der politischen Meinungsforschung studieren und glauben, daraus jede Rechtfertigung ziehen zu können, und die dann noch Öl mit dem richtigen Spin ins Feuer giessen, die werden in der Demokratie halt erst geprüft, wenn sie regieren.
In manchen aus Sicht des gebildeten europäischen Humanisten rückständigen Ländern sind sie schon seit geraumer Zeit am Werken. In anderen versuchen sie sich noch nicht ganz so lange. Und in wiederum anderen, werden sie erst noch an die oberste Spitze der Verantwortung rücken.
Allen ist gemeinsam, dass sie Zahlen lesen, selbst erheben lassen und sich ihr Bild von der Welt nach einem mit ihren Denkmustern passenden Ausschnitt formen. Was für ein Glück, dass wir nicht mehr im Zeitalter von Feuer und Stahl leben. Was für ein Glück, dass die Bombe - Ihr wisst schon welche - einen konventionellen Krieg unter den europäischen Mächten praktisch verunmöglicht. Dass das Projekt Europäische Union das ganz alleine schaffen könnte, erscheint gerade jetzt nicht mehr ganz so sicher als vor 10 Jahren.
1Die Medienabteilung von IBOPE wurde 2014 an die Kantar Group verkauft und in Kantar Ibope umbenannt. Die Kantar Group wiederum ist der Datenarm von Wire and Plastic Products plc, dem größten Werbeunternehmen der Welt, das inzwischen Young & Rubicam, viele weitere Werbeagenturen und TNS, einen weiteren Pionier der Markt- und Meinungsforschung (National Family Opinion - NFO, 1946) übernommen hat. In Dänemark, Norwegen, Finnland, Schweden und Argentinien sind die Gallup-Institute mit TNS verschmolzen, firmieren auch meist unter TNS-Gallup und gehören somit auch zu Kantar/WPP. 2019: Inzwischen ist der TNS-Name allenthalben gelöscht und alle Teil- und Nachfolge-Organisationen heißen einfach nur mehr Kantar. Wir versuchen gerade, uns daran zu gewöhnen. Die außeruniversitäre Sozialforschung, in der die meisten Absolventen der entsprechenden Studienrichtungen ihre Arbeitsplätze finden, finanziert sich also volumsmäßig hauptsächlich aus den Bedürfnissen von Marketing, Werbung und den Informationsbedürfnissen der Politik und der mit dieser verbundenen Medienindustrie. Zu welchen Verzerrungen das führt, steht auf einem anderen Blatt.
Mehr aus der Serie "Messung, Intuition, Vertrauen, Komplexität":
plink, ,
StefanL, 16.06.16, 15:06
Messung, Intuition, Vertrauen, Komplexität, Teil 1
Bereits auf einer babylonischen Keilschrifttafel aus der Zeit der Hammurabi-Dynastie (1830 - 1530 v.u.Z.), findet sich eine geometrische Problemstellung mit Lösung, bei der der Satz des Pythagoras zur Berechnung von Längen verwendet wurde.
Papier aus China, Zahlen aus Indien und die Anwendung des Buchdrucks haben in Europa seit dem Wirken von Kopernikus, Bacon, Galilei und vielen anderen ein Wissenschaftssystem hervorgebracht, das die Natur durch die Kombination von Beobachtung, Messung, Experiment und mathematischer Analyse zu erforschen unternimmt. Das Bild, das sich die Menschheit von der Welt macht und was sie in ihr unternehmen kann, hat sich auf bis heute erstaunliche Weise erweitert und verändert.
Die Zahl bedeutender Naturforscher nahm ab 1500 stetig zu, aber um 1700 vorübergehend ab.
Die Messinstrumente werden nach wie vor immer genauer und komplexer, der verfügbare Bestand an Messdaten steigt stetig an, ein "Naturgesetz" nach dem anderen wird gefunden, bewiesen und angewendet.
Unvollständige Messdaten und Wahrscheinlichkeiten
Das wohl wichtigste Ereignis des 20. Jahrhunderts für unsere Vorstellung von der Welt war die Entdeckung, dass das Universum entweder doch nicht kausal determiniert ist oder wenigstens, dass wir die kausale Determination auf der Ebene der Elementarphysik nicht wahrnehmen können.
Begonnen hatte es mit der Statistik in der Mechanik schon früher, mit James Maxwell und Ludwig Boltzmann.
Die zuerst von Werner Heisenberg formulierte Unschärferelation ist eine Erkenntnis der Quantenmechanik, nämlich, dass zwei komplementäre Eigenschaften eines Teilchens nicht gleichzeitig beliebig genau bestimmbar sind. Das bekannteste Beispiel für ein Paar solcher Eigenschaften sind Ort und Impuls.
Die Unschärferelation ist nicht die Folge von vorläufigen und überwindbaren Unzulänglichkeiten der Messinstrumente sondern prinzipieller Natur. Die Messung des Impulses eines Teilchens ist zwangsläufig mit einer Störung seines Ortes verbunden, und umgekehrt. Wir wissen seitdem auch mit Gewissheit, dass es keine wirkungslose, passive Beobachtung und keinen außerhalb des beobachteten Systems befindlichen Beobachter gibt.
Grafische Darstellung der Wahrscheinlichkeitsdichten der Orbitale der ersten und zweiten Elektronenschale als Punktwolken.
Man nicht mehr sagen, dass ein Elektron da oder dort auf einer Bahn um den Atomkern ist. Den Aufenthaltsort eines Elektrons beschreibt man durch ein Set von Aufenthaltswahrscheinlichkeiten. Und damit muss nicht nur die Wissenschaft sondern auch die Technik auskommen. Das ist, wenn auch viel genauer, doch nicht so grundlegend verschieden von den Wahrscheinlichkeitsaussagen, die man dafür machen kann, wieviele Leute zu einer Wahl gehen werden oder wieviele Menschen am Wahltag bei der Wahlberichterstattung zusehen.
Zählen, Klassifizieren, Normieren
Schon in der Antike versuchten Staaten wie das chinesische und das römische Reich, zum Zweck der Steuer-Erhebung und der Truppen-Aushebung ihre Bevölkerung zu zählen und zu klassifizieren. Seit dem Beginn des modernen Staatswesens in der frühen Neuzeit, wurden die Zähl- und Klassifikationsmethoden immer weiter verbessert. Bürgerliche Revolutionen in England, Frankreich und den Vereinigten Staaten von Amerika und die damit einhergehende industrielle Maschinenrevolution beschleunigten die Zählaktivitäten der Staaten noch einmal.
Die Verfassung der Vereinigten Staaten verlangte gleich zu Beginn alle 10 Jahre eine Volkszählung. Während bei der ersten Durchführung 1790 jedem Haushalt vier Fragen gestellt wurden, waren es bei der 10. Durchführung bereits mehr als 13.000 auf verschiedene Fragebögen verteilte Fragen zu Menschen, Unternehmen, landwirtschaftliche Betriebe, Spitäler, Kirchen usw.
1884 reichte Herman Hollerith ein Patent für Zähl-, Sortier- und Rechenmaschinen auf der Basis der in der Textilindustrie eingesetzten Lochkarte unter dem dem Titel "Art of Compiling Statistics" ein. 1889 wurde ihm das Patent erteilt.
1890 wurden erstmals in Österreich und den Vereinigten Staaten Volkszählungsdaten auf Lochkarten übertragen und mit von Hollerith gebauten elektrischen Zählmaschinen aufgearbeitet. Aus seiner Firma Tabulating Machine Company wurde nach der Verschmelzung mit 3 anderen Unternehmen 1911 die Computing-Tabulating-Recording Company und 1924 IBM, das Unternehmen, das die ersten 50 Jahre der electronischen Computer-Revolution dominierte.
Hollerith Lochkarten-Puncher im United States Census Bureau
Die Sozialwissenschaft wollte nicht hinter der Naturwissenschaft zurückstehen. Dafür musste quantifiziert, gemessen und gerechnet werden. Für die Bestimmung sozialwissenschaftlicher "Gesetze" werden Einzelpersonen und Gruppen beobachtet, die Beobachtungsdaten mit öffentlichen Zensus-Daten kombiniert und die Ergebnisse in Wahrscheinlichkeiten ausgedrückt. Neue Methoden erzeugen auch neue Denkmuster, z.B. die Vorstellung von Normalität und Abweichung von Lebewesen, die sich seit der 2. Hälfte des 19. Jahrhunderts immer mehr etabliert hat.
Das entsprechende Wissen vom Menschen und seinen Gesellschaften hörte auf, philosophisch spekulativ zu sein und wurde statistisch. Die von den Denkern der Aufklärung ganz verschieden aufgefasste aber von allen vorausgesetzte "menschliche Natur" wurde durch ein Bündel von statistisch ermittelten "Eigenschaften" einer Mehrheit von "normalen" Menschen ersetzt.
Seit in den 20er-Jahren die Quantenphysik akzeptieren musste, dass auch die Physik nur mehr mit statistischen Methoden und Aussagen weiterkommen würde, sollte klar geworden sein, dass beide Entwicklungen Hand in Hand gehen und zusammen das Erfassen der und das Handeln in der Welt nachhaltig revolutioniert haben.
Messen, Steuern, Verbessern
Mittels Messung versucht man heutzutage in einer immer weiter anwachsenden Menge von Bereichen die allzuoft in die Irre führende direkte Intuition zu ersetzen. Verhältnisse, denen man nicht blind vertrauen kann, sowie komplexe Systeme ganz allgemein sollen mittels hoffentlich dann doch wieder intuitiv erfassbarer, prüfbarer und praktisch verrechenbarer Metriken besser versteh- und handhabbar gemacht werden.
Das Internet und vor allem die mit ihm verbundenen sichtbaren und unsichtbaren Geräte sind auf eine kaum mehr vorstellbare Art mit Messimpuls-Generatoren und Sensoren ausgerüstet. Und das in einer Quantität und Qualität, so, dass denjenigenen, die es wissen und zu verstehen versuchen, nicht selten unheimlich zumute wird.
Auf den ersten Blick sieht diese Entwicklung manchmal geradezu absurd aus. Wir vergessen dabei aber allzu leicht, dass das umfassende Messen nicht erst mit dem Internet seinen Siegeszug angetreten hat. Wir sollten auch nicht übersehen, welche Erfolge die Strategie der Verwendung von und Orientierung an nachvollziehbaren Metriken seit der Antike und ganz besonders seit der wissenschaftlichen Revolution des 16. Jahrhunderts für die Menschheit gebracht hat.
Diese Erfolgsgeschichte und die daraus erwachsenden Hoffnungen formen nach wie vor einen außerordentlich starken Entwicklungsmotor und zahlreiche Hoffnungsgeneratoren für Gruppen von Menschen, die inzwischen, wie man in diversen Medien leicht nachvollziehen kann, fast alles für machbar halten oder wenigstens so tun. Schnelle Nahostkriege, gezielte Individualtötung ohne Nebenwirkungen aus 10.000km Entfernung, Besiedlung des Mars, Unsterblichkeit, Herstellung von Gottesteilchen und Unwahrscheinlichkeitsantrieben, bald unfehlbares Tracking von Terroristinnen und unliebsamen Politikern usw. usf. Hauptsache, die learning curve kann mithalten.
Auf der anderen Seite wissen inzwischen sehr viele Menschen allzu gut, dass Messen und Regeln auch verdunkeln, fehllleiten, stören und sogar zerstören können. Das Messen hat wie das Zählen und Rechnen prinzipielle Grenzen, die es in und aus sich nicht überwinden kann. Zudem gibt es natürlich jede Menge trivialer Möglichkeiten, wissenschaftliche Grundmethoden unsorgfältig oder mit der falschen Absicht anwendet, führt es zu Problemen und Fehlentwicklungen, die im schlimmsten Fall tragisch sein können. Man denke nur an den rassistischen Wissenschaftswahn der NSDAP.
Manager müssen messen
Messen hat auch in Bereichen des menschlichen Lebens eine Bedeutung gewonnen, in denen seine Anwendung in der Vergangenheit schwer vorstellbar gewesen wäre. Die meisten Systeme, die Menschen benutzen oder bedienen, werden um quantifizierbare Eigenschaften herum gebaut. Sensoren, Computer und Software erlauben uns inzwischen, Dinge und Verhältnisse zu quantifizieren, die früher entweder ignoriert oder ganz anders betrachtet und betrieben wurden.
Ein häufig genanntes Zitat von Peter Drucker lautet "If you can’t measure it, you can’t manage it." Herr Drucker das zwar weder gesagt noch geschrieben, aber so funktioniert die Weitergabe vom Lehrer zum Schüler zur Allgemeinheit nun einmal. Nachdem Alfred Sinowatz in seiner Regierungserklärung "Ich weiß, das klingt alles sehr kompliziert ..." gesagt hatte, wurde medial sehr schnell "Alles ist sehr kompliziert ..." daraus und so wird es bis heute fast immer kolportiert.
"If you can’t measure it, you can’t manage it" reduziert einen komplexen Sachverhalt auf einen leicht wiederholbaren Merksatz, der rund um die Welt in Wirtschaftsuniversitäten sich abertausende Male weitergegeben wurde. Die zugrunde liegende Vereinfachung hat, wie bei vielen berühmten Zitaten, gute und noch mehr schlechte Auswirkungen.
Was Drucker, z.B. in "Management: Tasks, Responsibilities, Practices" wirklich schrieb, ist "Work implies not only that somebody is supposed to do the job, but also accountability, a deadline and, finally, the measurement of results —that is, feedback from results on the work and on the planning process itself."
Ein gescheiter Mensch wie Drucker wusste aber auch genau, dass es eine Menge ganz entscheidende Dinge gibt, die anders funktionieren. Einem gewissen Bob Buford, Chef einer Kabel-TV-Gesellschaft sagte Drucker 1990 folgendes: "Your first role is the personal one. It is the relationship with people, the development of mutual confidence, the identification of people, the creation of a community. This is something only you can do. It cannot be measured or easily defined. But it is not only a key function. It is one only you can perform."
Metriken für die Wirtschaft
Metriken sind in der Wirtschaft populär, weil sie es erlauben, einfache und effiziente Regeln aufzustellen und die Resultate ihrer Anwendung später publikumsgemäß zu präsentieren. Gerade das TV-Geschäft ist ein sehr gutes Beispiel dafür. Systeme entwickeln sich nicht zuletzt durch Anreize. Gute Metriken helfen dabei, Regeln aufzustellen, die Impulse für Verbesserung schaffen. Im Sport war das ja schon, seit er in der Antike erstmals beschrieben wurde, immer so.
Man denkt zu selten daran, aber die meisten Systeme reagieren auf sichtbare und unsichtbare Regeln, Strukturen und Impulse auf jeden Fall und nicht immer wie wie vorher angenommen. Moderne Systeme zieladäquat zu managen, ob sie nun technisch, sozial, politisch, militärisch oder bürokratisch sind, hängt in einem beträchtlichen Maß davon ab, wie gut man Entstehung und Verwendung sowie die positiven und negativen Effekte der inzwischen allgegenwärtigen Quantifizierungen versteht.
Probleme mit Metriken und Zielen
Menschen, die sich schon mit den Stolperfallen des Messens beschäftigt haben, bringen gerne ein weiteres aphoristisches Zitat dazu, das unter dem Namen Goodhart's Law bekannt geworden ist: "When a measure becomes a target, it ceases to be a good measure." Auch das ist, wie sollte es anders sein, sehr vereinfacht. Was Charles Goodhart 1975 wirklich schrieb, ist: Any observed statistical regularity will tend to collapse once pressure is placed upon it for control purposes.
Eine andere Formulierung lautete: "As soon as the government attempts to regulate any particular set of financial assets, these become unreliable as indicators of economic trends." Jón Danielsson formuliert dazu eine aufschlussreiche Verallgemeinerung: "A risk model breaks down when used for regulatory purposes."
Wenn man einen Prozess, eine Entwicklung oder ein System managen will, hat das eben Gesagte weitreichende Konsequenzen, die wahrscheinlich tiefer gehen, als es auf den ersten Blick erscheinen mag. Es hilft, sich Beispiele für grundlegendes Versagen von Messungen vor Augen zu führen, um zu verstehen, warum das, was Mr. Goodhart ausdrücken wollte, so wichtig ist. Es hilft auch, die Verhältnisse zu betrachten, die durch das Messen ersetzt aber dennoch innerhalb und außerhalb von Mess- und Regelsystem gebraucht werden: Intuition, Vertrauen und das (oft mangelnde) Verständnis komplexer Systeme.
Für alle Ersetzungen intuitiver und erfahrungsbasierter Wahrnehmung durch Modell und Messung gibt es gute Gründe, aber alle neuen Metriken schaffen auch neue Fallen. Wenn Messungen kompetentes Urteilsvermögen ersetzen, steckt oft eine Absicht dahinter. Sie können als Speerspitze für erwünschte, aber nicht notwendig richtige Veränderungen eingesetzt werden. Sie können auch so lange als Schild gegen jede Veränderung dienen, bis nicht nur das Messsystem sondern auch das gemessene System zusammenbricht.
In jedem Fall ist das Messen auch oft eine Ausrede, sich nicht der unaufgeräumten, anstrengenden, vielleicht keinen Sinn ergebenden und niemals endenden Auseinandersetzung mit dem menschlichen Leben, der Gesellschaft und den komplexen Interaktionen darin stellen zu müssen.
Und wenn Mess- und Regelsysteme ausfallen oder fehlerhaft sind, sind wir sicherlich gut beraten, wenn wir noch das Einschätzen und Handeln auf der Basis von Erfahrung und Intuition beherrschen.
Mehr aus der Serie "Messung, Intuition, Vertrauen, Komplexität"
plink, nix, praise or blame!