Montag, 20. Juni 2016

Neue Serie "Messung, Intuition, Vertrauen, Komplexität"

In unserer neuen Serie betrachtet die tiny-Redaktion die guten und schlechten Dinge, die mit der immer weitergehenden Durchdringung aller Lebensbereiche durch Sensoren, Messfühler, Quantifizierung, Algorithmen, Kompetenzverlust usw. einhergehen.

Redakteur StefanL fasst die Diskussionen und Überlegungen des tiny-Stabes zusammen und versucht, sie in 8 halbwegs verständlichen Kapiteln auf den Punkt zu bringen.

plink, nix,    praise or blame!
 

Messung und Komplexität

Messung, Intuition, Vertrauen, Komplexität, Teil 5

Was Menschen glauben möchten, das werden sie auch glauben. Und was die Menschen glauben möchten und können, das hängt davon ab, ob es für sie einen Sinn ergibt und wenigsten irgendwie mit ihrer persönlichen Erfahrung zusammenpasst. Davon abweichende Erkenntnisse sind stabil nur in engen Expertenfeldern möglich, wo das Wissen und Vertrauen in komplexe Methoden und Modelle durch deren wiederholte Anwendung groß genug werden kann, dass Alltagserfahrung und Sinn-Sehnsucht durchbrochen werden. Darüber können die Expertinnen sich aber nur untereinander austauschen. Nach außen ist es so, dass sich nur dann, wenn alle oder ausreichend qualifizierte Mehrheiten unter ihnen die gleichen, an das Verständnis des Publikums angepassten, Aussagen machen, eine neue und schwierige Vorstellung, die sich aus der wissenschaftlichen Forschung ergibt, durchsetzen kann.

Oft nur oberflächlich, wie zum Beispiel die Heisenberg'schen Unschärferelation oder das Orbitalmodell des Atoms. Wer kann sich schon vorstellen, wie eine stationäre Lösung der quantenmechanischen Schrödingergleichung aussieht oder gar wie sie sich anfühlt. Das bewiesenermaßen falsche Planetenmodell des Atoms dagegen, das können alle begreifen und sich vorstellen. Hier stehen wir mit dem Vertrauen in Zahlen und Rechnen und müssen begreifen, dass wir gar nicht anders können. Immer noch kann Sicherheit in der Einschätzung nur durch Übereinkunft hergestellt werden.

Bis in die allerjüngste Zeit war das Verständnis komplexer System durch die menschliche Vorstellungskraft und das menschliche Reflexionsvermögen begrenzt. Metriken und Messungen können Komplexität reduzieren und haben gleichzeitig das Potential, sie über den Bereich hinaus, in dem Intuition und direktes Vertrauen in die Fakten und sich selbst noch möglich sind, auszudehnen.

Das bedeutet, dass wir heute jede Menge Messsysteme für die Kontrolle, der komplexen Systeme, die wir geschaffen haben, unabdingbar brauchen und parallel dazu die Sachlage dauernd verschlimmern.

Durch die dynamische Erzeugung von Mess- und Steuerungsdaten verändern Mess- und Regelwerke die Systeme für deren Messung, Bewertung und nicht selten Kontrolle sie geschaffen wurden. Das Verhalten menschlicher Organisationen wie z.B. Unternehmen ist eine Funktion des reziproken Verhältnisses zwischen den Strukturen und Regeln der Organisation und den Handlungen der Personen in und außerhalb der Organisation. Nichts davon ist statisch.

Vereinfachung durch Messung

Jede Metrik ist eine Art Summen- oder Zusammenfassungsstatistik. Eine Zusammenfassung ersetzt kein Buch und ihre Verwendung ohne genaue Kenntnis des Ganzen kann das Verständnis erheblich reduzieren.

Mehr noch, Vereinfachungen führen oft zu schlechten Informationen und verzerrten Steuerungsentscheidungen innerhalb des Systems. Das ist der Kern dessen, was Goodhart's Law bedeutet. Die Anwendung der Messergebnisse verändert das gemessene System. Möglicherweise wird dadurch die Anwendung inadäquat.

Wenn man beginnt, nach den Effekten dieses Prinzips zu suchen, findet man sie in allen modernen System. Messergebnisse sind zu teuer und zu wertvoll, um nicht angewendet zu werden und zu bedeutend, um das gemessene System nicht zu verändern. Jeder weiß, dass die Quotenmessung die Medien verändert hat und weiter verändert. Und aus der Teilchenphysik wissen wir, wie die Einwirkung der Beobachtung auf die Messung ganz grundlegend beschränkend ist.

Komplexität ruiniert alles

Komplexe System haben komplexe Probleme, die gelöst werden müssen. Messergebnisse können die Vorstellung von Vereinfachung erzeugen, aber die zugrunde liegende Komplexität nicht reduzieren.

Das führt oft dazu, dass Messergebnisse die Tendenz haben, Probleme zu verbergen anstatt zu ihrer Lösung beizutragen. Und das wiederum steht in engem Zusammenhang mit der geforderten Lesbarkeit der Messung.

Das Versagen von Steuerung mittels Messergebnissen wird besonders wahrscheinlich, wenn die Dimensionalität reduziert wird, wenn die Kausalität nicht klar ist, d.h. es nichts weiter als eine statistische Koinzidenz gibt und wenn die Verwandlung von Metriken in Zielvorgaben Missverständnisse schafft.

Lesbarkeit als Rezept für das Scheitern

James Scott hat in "Seeing Like a State: How Certain Schemes to Improve the Human Condition Have Failed", dieses Muster des Scheiterns historisch untersucht: "The more I examined these efforts at sedentarization, the more I came to see them as a state’s attempt to make a society legible, to arrange the population in ways that simplified the classic state functions of taxation, conscription, and prevention of rebellion."

Die meisten Staaten betrieben übrigens die Vermessung ihrer Menschen und Landschaften primär in der genuinen Überzeugung, damit das Los ihrer Bevölkerungen nachhaltig verbessern zu können und nur selten und sekundär aus den ihren Funktionären oft unterstellten Motiven der Herrschaftsfantasie, Machtgier und Unterdrückungswut. Das trifft genauso auf die großen Internet- und Einzelhandelskonzerne zu, die derzeit gerade die Vermessung ihrer Kunden, ihrer Mitglieder und der Welt auf ein Niveau bringen, von dem der schlimmste Überwachungsstaat nicht einmal zu träumen wagte.

Der fundamentale Denkfehler der daten- und abstraktionbasierten Vorstellung von der "Lesbarkeit" der Welt liegt in der Annahme dass dynamische, erfolgreiche, lebendige Systeme bezüglich ihrer umfassenden Struktur, Funktionen und Kausalität verständlich und lesbar sein müssen. Oder zumindest, dass sie für das alles sehende wissenschaftlich-statistische, über den Dingen schwebende "Auge" les- und verstehbarer sind als für die in den Prozess eingebundenen Ohren, Augen und Nasen auf dem Boden.

Komplexe Realitäten strafen diese Auffassung Lügen. Die Gesamtheit eines Waldes versteht man durch das Gehen und Liegen unter den Bäumen, durch das "Absorbieren" seiner "Gestalt" und durch Interaktion als holografisch-fraktales Element seiner Prozesse besser und richtiger als aus den luftigen Höhen noch so vieler Tabellen und Satellitenaufnahmen.

Das heißt nicht, dass ein statistisch lesbar gestalteter Wald und das wissenschaftliche Verständnis seines Funktionieren nicht gewisse Nutzungen für den Menschen sehr befördern könnte. Es heißt auch nicht, dass "wissenschaftlich" gamanagte Unternehmungen, gemessen an den definierten Zielen, nicht sehr erfolgreich sein können.

Reduktion der Dimensionen

Alle Metriken reduzieren Dimensionalität und Wertbandbreite. Die einzelne Zahl repräsentiert nie alle Aspekte eines Zustands. Die Ökonomie versteht sich selbst gerne als die Wissenschaft der Verteilung von knappen Gütern. Vereinfachen wir jetzt einmal die Lehrveranstaltungen einiger Semester lassen dabei die ganz schweren mathematischen Teile aus.

Nehmen wir an, wir reden von n Menschen und x verschiedenen Arten von Gütern. Das hat zur Folge, dass jede Verteilung einen Punkt in einem Koordinatensystem mit (n-1)*g Dimensionen darstellt. Jede von den n Personen kann jede der x verschiedenen Güter anders bewerten. Die Werte, die von den Menschen in die Distribution einbringen sind Punkte in einem n-dimensionalen Raum. Das ist komplex und kaum vorstellbar. Ökonomen einigen sich meist auf vereinfachende Annahmen über menschliche Präferenzen, vereinbaren Aggregation und gelangen am Ende zu ein- oder zweidimensionalen Skalen für die Bewertung der Nützlichkeit und Begehrenswürdigkeit von Gütern. Am Ende erklären sie uns dann, wie ihre Algorithmen Begehren, Nutzen und Verteilung optimal miteinander verbinden können.

Die ökonomische Wissenschaft kann sehr wohl kritisch sein. Sie hat in Gestalt des späteren Nobelpreisträgers Kenneth Arrow bereits 1951 das nach ihm Arrow-Paradoxon aufgezeigt, dessen Gegenstand das Verhältnis zwischen dem Wollen von Individuen und der gesellschaftlichen Entscheidung ist. Das Theorem stellt die Möglichkeit einer eindeutigen Bestimmung eines „Gemeinwohls“ mit Hilfe abstrakter Regeln, in moderner Redeweise die algorithmische Bestimmung eines optimalen Vorteilszustands für möglichst viele, in Frage.

Obwohl das Arrow-Parodoxon und seine Erweiterungen also zeigen, dass es keinen Algorithmus für die Herrstellung von allgemeinem Wohl geben kann, werden solche Erkenntnisse im Rest der Sozial- und Wirtschaftswissenschaften weitgehend ignoriert. Das erhält die gut bezahlten Jobs und die Illusion der deterministischen Machbarkeit freien Wirtschaftens und fairer Politik aufrecht. Auf dieser Illusion aber beruhen alle Fantasien über die schöne neue Welt, die uns Software, Silikon und ihre Vernetzung durch Kapitalgesellschaften mit "Do no Evil"-Ethiken bescheren können.

Die Kausalität ist ein "Hund"

Die philosophische und wissenschaftliche Definition von Kausalität ist heute strittiger denn je. Halten wir es trotzdem einfach. A verursacht B, dann, wenn im Fall einer (magischen) Manipulation von A und nichts anderem, bei B eine Veränderung eintritt.

In der Praxis ist das Verständnis der Kausalität im angewendeten Modell immer schwer, weil monokausale Analysen außer in den aller-einfachsten Experimenten stets problematische Logiken erzeugen.

Die Komplexität eines Sachverhaltes spiegelt sich in der Wahrnehmung mit einer Fülle von Details, für die es auf den ersten Blick keine Abstraktion gibt, die Menge und Dichte der relevanten Einzelheiten verkleinern könnte.

Komplexität in biologischen Systemen mit autonomen Einheiten, z.B. Gesellschaften, ist ein Resultat nicht determinierten Verhaltens dieser Einheiten, z.B. der Menschen. Wieder erkennbare und sich wiederholende Muster in den Daten nennt man Korrelation. Für die Hypothesen- und Theoriebildung wird für so eine Korrelation eine Hypothese zu einer dahinter liegenden Ursache gebildet. Diese Hypothese ist ohne Nachweis aber wenig wert und kann leicht zu Modellfehlern führen.

Quelle: C:\fakepath\correlation-causality.jpg
Randall Munroe Licence: CC BY-NC 2.5 Korrelation impliziert keine Kausalität, aber sie wackelt immer verführerisch mit den Augenbrauen und flötet: Schau her!

All das führt in den entsprechenden Wissenschaften Ökonomie, Soziologie, Politologie etc. zu vielen diachron und synchron konkurrierenden Theorien und allerhöchsten zu partialen Einigkeit verschiedener "Schulen". Diese Theorien wählen jeweils aus dem sich dynamisch verändernden Datenbestand ganz unterschiedliche Pakete aus und setzen diese auch in stets unterschiedlich gebaute Beziehungssysteme ein.

Konsequenzen unsicherer Kausalität

Zur Risiko-Einschätzung sowohl für komplexe Naturphänomäne (z.B. Erderwärmung) als auch für große von Menschen konstruierte Systeme (z.B. Kernkraftwerke, Luftverkehrsleitsysteme, autonome Fabriken oder Handelssysteme) gibt es weder zwischen einzelnen Menschen noch zwischen Staaten viel Einigkeit. Zur Sinnhaftigkeit und Effizienz der bereits eingesetzen Steuerungsmechanismen und denen, die in Zukunft zum Einsatz kommen sollen, noch viel weniger.

Viele Untersuchungen zeigen weiterhin, dass auf Sensorik und Messwerten basierende Maßnahmen und Mechanismen, die darauf zielen, Risiken durch ihren Einbau oder ihre Nachrüstung zu reduzieren oder zu beherrschen, nicht selten zu einer weiteren Steigerung der Komplexität und zu noch mehr unkontrollierbaren Interaktionen führen.

Kausalität wissenschaftlich modellieren

Um Kausalität für wissenschaftliche und technische System darstellen und verwenden zu können, braucht man einen Formalismus. In der klassischen Physik waren das die heute berühmten und in höheren Schulen und den ersten Studienabschnitten vieler Fächer unterrichtete und damit eigentlich zur Allgemeinbildung gehörende Gleichungen und Gleichungssysteme.

Aktuell werden für die Darstellung von Kausalitätsbeziehungen gerne grafische Formalismen eingesetzt. Manche haben wahrscheinlich schon in einem ambitionierteren Artikel zum Thema Big Data die Abkürzung DAG (Directed Acyclic Graph) gelesen bzw. überlesen.

Quelle: C:\fakepath\health_hart.png
Das ist ein Graph, der den Wirkungszusammenhang von Zähneputzen und Herzerkrankungen formalisiert darstellt.

Mehr aus der Serie "Intuition, Messung, Vertrauen, Kompexität":

plink, nix,    praise or blame!
 

Sonntag, 19. Juni 2016

Messen und Vertrauen

Messung, Intuition, Vertrauen, Komplexität, Teil 4

Die Verwendung von Messergebnissen setzt Vertrauen in die Datensammlung und die Methoden für Umwandlung und Aggregation der Daten in den Messinstrumenten voraus.

Wir stellen selten in Frage, dass die Veränderung von Quecksilbersäulen oder Metallplättchen mit dem Steigen der Temperatur in allerlei Thermometern vom Fiebermesser bis zur Wetterstation ein reproduzierbares und richtiges Verhältnis haben.

Unser Gefühl sagt uns vielleicht mit Gewissheit, dass Herr K. unter unseren Mitarbeitern oder Kollegen die größte Pfeife ist. Die Erfassung und Quantifizierung von Leistungswerten kann so ein Vorurteil unter Umständen sinnvoll korrigieren und zeigen, dass Herr K. viel mehr leistet als seine leise Stimme und gebückte Körpersprache vermuten lassen.

Frau X. hat vor dem Einstellungsgespräch einen hervorragenden Lebenslauf mit exzellenten Zeugnis-Noten und sogar Erfolgszahlen aus dem vorigen Job vorgelegt. Das hilft bei der Entscheidung nur dann, wenn man das Vertrauen hat, dass Frau X. korrekte und echte Dokumente mit Daten in der richtigen Auswahl vorgelegt hat oder man die Daten irgendwie überprüfen kann.

Es gibt Lügen, ...

Statistik ist wie andere Disziplinen auch ein Denksystem. Sie kann nicht verhindern, dass wir uns selbst oder andere belügen. Sie ist aber oft gut geeignet, uns dabei zu helfen, dass uns andere nicht so leicht erfolgreich Blödsinn erzählen können.

Das setzt voraus, dass wir für den betrachteten Fall der Datensammlung und den Verarbeitungsmethoden, die verwendet wurden, vertrauen können. Wie das Sprichwort sagt, "es gibt Lügen, verdammte Lügen und ....". Die mannigfaltigen Schwierigkeiten des Datensammelns und die Komplexität und Flexibilität der statistischen Methodologie verbergen alle Unterschiede, jedenfalls für diejenigen, die im gegebenen Fachgebiet keine trainierten Spezialisten und Experten sind, also die meisten Leute, die mit den fraglichen Zahlen umgehen und sie verwenden.

Trotz dieses schon fast trivialen Vorbehalts werden Daten und Statistiken regelmäßig in voller Überzeugung in Umständen und für Zwecke verwendet, wo ein begründetes Vertrauen gar nicht gegeben sein kann. Meinungs- und Medienforschung haben durch allerlei Veränderungen und Versagungen gegenüber früher sehr stark an allgemeinem Vertrauen eingebüßt, werden aber deswegen ganz und gar nicht aufgegeben und weiterhin meistens nur bei expliziten Interessenkonflikten hinterfragt.

Während der Brexit-Volksabstimmung am 23.6. hat Ben Riley-Smith vom Daily Telegraph den Alterssplit einer Umfrage von YouGov vertwittert, wonach rd. 75% der 18-24-Jährigen für einen Verbleib des UK in der EU stimmen würden.

Während Rhiannon Lucy Cosslett Freitag zu Mittag in der Einleitung zu einer Guardian-Debatte zeitfalsch aber sonst korrekt "Three-quarters of young people – a massive mandate – are predicted to have voted remain, according to a YouGov poll ..." schrieb, ist die Formulierung im fast gleichzeitig erschienenen Feature von Elena Cresci schon viel faktischer: "According to polling data from YouGov, 75% of 18- to 24-year-olds voted to remain in the European Union."

Die "eindrucksvollste" Zahl dieser Umfrage wurde also vom Guardian ausgewählt und von sehr vielen Journalisten und Medien auf dem Kontinent weiterverbreitet. Trotz aller Skepsis zur Genauigkeit von Meinungsumfragen werden jetzt die 75% in Facebook, Twitter und Co geteilt, zitiert, wiederholt und wiederholt. Dabei wird oft noch weiter verallgemeinert. Sätze wie "die Jungen sind für den Verbleib" werden formuliert.

Niemand fragt in den kontinentalen Medien und in den friends' and followers' Posting-Schlangen nach dem wohl knapperen Prozentsatz für die 25-35-Jährigen (laut YouGov immer noch 56% der 25-49-jährigen für "Remain"), niemand fragt nach Methodik und Kontrolle des Umfrageverfahrens. Dabei war je gerade YouGov in seinem "On-the-day recontact poll" 52% für Remain und 48% für Leave als final figures publiziert. Man kann wohl zu Recht vermuten, dass die 75%-Prognose für die 18-24jährigen auch zu hoch gelegen war. Trotzdem wird sie in den Schatz der Wahrheiten bei den politisch interessierten Europaanhänger eingehen.

Die Mechanismen, durch die Wahrheiten entstehen sind weiterhin Glaubenwollen, Weitersagen, Wiederholung und Übereinkunft und nicht eine kühle und kompetente Überprüfung wissenschaftlicher, technischer und mathematischer Prozesse. Bei den rationalen Vorwärtsschauern ganz genau so wie bei den angeblich so irrationalen Rückwärtsgewandten.

Vertrauen ist gut, ...

Bei halbwegs korrekter Anwendung sollten Datensammlung und Methoden von statistischen Verfahren transparent und überprüfbar sein. Der Wladimir Lenin zugeschriebene Aphorismus "Vertrauen ist gut, Kontrolle ist besser" ist wie die meisten solchen Wendungen zwar nirgends belegt, die Zitierung der russischen Beamtenregel "Vertraue, aber prüfe nach" dagegen mehrfach und schriftlich. Schon die Möglichkeit zum Gegencheck durch Außenstehende kann das Vertrauen steigern, eine regelmäßige Durchführung umso mehr.

Vertrauen in Methoden beruht auf Vertrauen in Personen und Institutionen, deren Vorgeschichte und die Macht der Rationalität. Oft werden Studien von den jeweiligen Interessenten finanziert und gesteuert. Die Medienwirtschaft produziert die Medienstudien. Politische Parteien, Ämter und Medien beauftragen Meinungsstudien, der statistischen Nachweis zu Wirkungen und Nebenwirkungen von Arzneien wird von und unter Mitwirkung von Pharma-Konzernen erbracht. "Vertraue aber prüfe" erscheint mehr als angebracht.

Nur veri- und falsifizierbare Metriken zu verwenden, mag ein Ideal sein. Es gibt aber viele Fälle, in denen die Überprüfung noch komplexer oder schwieriger finanzierbar ist als die eigentliche Messung und Verarbeitung.

... Kontrolle ist besser

Der offensichtliche, wissenschaftstheoretisch recht mittelmäßige, aber am weitesten verbreitete Lösungsweg für dieses Problem ist der Einsatz von leichter prüfbaren Metriken an Stelle der für die Beantwortung der untersuchten Fragen nützlichsten. Die nur Stichproben ziehende Durchführung von Checks ausgewählter Teildaten und Teilprozesse, immer dort, wo es leicht durchführbar erscheint, ist der zweite etwas zweifelhafte Weg, Vertrauen durch Prüfung zu erzeugen.

Für die meisten aussagekräftigen und belastbaren Metriken sind Unmengen von Daten notwendig. Der Datensammel-Prozess selbst ist prinzipiell von außen schwer prüfbar. Wenn eine Organisation, die Daten selbst gesammelt hat oder Zugang zu einer großen Datensammlung hat, fähig und entschlossen ist, vor der eigentlichen Verarbeitung die Daten zu "behandeln", ist das extrem schwer zu entdecken.

Die Verteilung der einzelnen Aufgaben und Verantwortlichkeiten innerhalb des Verfahrens erscheint zur Zeit als aussichtsreichste Methode, um Betrug und Manipulation in der statistischen Arbeit zu bekämpfen. Diese Vorgehensweise ist weniger effizient und teurer als eine, in der ein Team oder eng integrierte Teams alles machen. Sie wird deswegen in vielen Feldern noch kaum angewendet.

Wahlhochrechnungen sind im Gegensatz zu Vorwahlumfragen ein positiver Fall. Die Daten werden ganz objektiv und mit integrierter Prüfung in Zusammenarbeit von politischen Aktivisten und Wahlbehörden erfasst und aggregiert. Ein Experten-Team, deren einziges Interesse sein kann, sich dem richtigen Ergebnis schnell anzunähern entwickelt Modelle, um mit Teildaten und unter Hinzunahme von historischen Erfahrungen und Trends kurz nach Wahlschluss das Ergebnis vorausberechnen zu können. Dazu kommt auch, dass der Wahlvorgang meist eine sehr einfache Frage, die nur 2 - 10 definierte und nicht verknüpfte Werte annehmen kann.

Alles kann schiefgehen

Die Vorgänge bei der österreichischen Präsidentschaftswahl zeigen aber, dass Gewohnheit und Bequemlichkeit selbst in so einem Fall potentiell Unregelmäßigkeiten entstehen lassen können.

Ein weiteres gutes Beispiel für die Anwendung der Aufgabenteilung ist das britische
Broadcasters' Audience Research Board (BARB). Nicht nur kontrollieren sich in so einer Organisation die Teilnehmer gegenseitig, hier sind auch die Aufgaben auf gleich 3 im Wettbewerb stehende Dienstleister verteilt.

Ein kleines Land, kleine Märkte und Geldmangel führen auch da zu Problemen. Vier Jahre lange konnte in der GfK-Austria der Radiotest manipuliert werden, ohne dass etwas auffiel. Bei einer Aufgabenverteilung anstelle einer Komplettlösung durch einen Dienstleister mit wahrscheinlich nur reiner Plausibilitätskontrolle durch die Hauptauftraggeber RMS und ORF, wäre das wohl viel schwerer möglich gewesen.

Noch problematischer ist die Anwendung von Blackbox-Plattformen im kommerziellen Bereich.

Wahrscheinlich müssen all die verschiedenen Institute und Auftraggeber, die in den letzten Jahren durch schlechte Ergebnisse, teilweise dumme Konkurrenz und Liebedienerei sowie durch verschiedene kleinere Manipulationsskandälchen viel Vertrauen eingebüßt haben, dringend mehr Verantwortungsteilung ins Auge fassen. Und die Auftraggeber des Radiotests sollten dringend überlegen, ob sie nicht auch eine schlagkräftigere Organisation brauchen, die sich mit einer Geschäftsstelle sowie den üblichen Kommissionen und Beiräten die Entwicklung und Durchführung ihres Messinstruments kontrolliert und verantwortet.

"Erfolg" gibt Dir immer recht ...

Nichts gibt Dir mehr Recht als eine Kombination aus offensichtlichem Erfolg, gleichzeitigem Misserfolg der Konkurrenz und intelligenter Kommunikation bei der Erklärung hinterher. George Gallup setzte sich und sein Institut auf die politische und mediale Landkarte, als es den Sieg Roosevelts 1936 richtig voraussagte und die Konkurrenz meilenweit daneben lag. Diverse Erklärungsvorträge des smarten Mr. Gallup mit seinem akademischen Hintergrund taten ein übriges.

An den Zahlen von Facebook und Google zweifelt außer ihren Feinden und den Verlierern kaum jemand öffentlich, obwohl die Datensammlung und vor allem die Datenverarbeitung bei beiden Konzernen mehr als intransparent sind. Bei Facebook übrigens deutlich mehr als bei Google. Beide veröffentlichen Whitepapers und Artikel zu allen möglichen Aspekten und Fragen zum Thema, aber letztlich handelt es sich bei der Statistik-Produktion von beiden um intransparente, extrem komplexe Black-Boxes unter privater Eigentümerschaft. Diese Eigentumsverhältnisse sind nicht der unwichtigste Grund dafür, dass die Datenprozesse aller dieser Konzerne im Gegensatz zu staatlichen Statistiken nur durch richtig wenige Transparenz-Gebote und sehr viel Schutz aus dem Wettbewerbsrecht reguliert werden.

Das ist aber nicht, worauf es ankommt. Worauf es ankommt, ist, dass hier die offensichtliche und intuitive Alltagswahrnehmung und sorgfältig darauf abgestimmte Zählergebnisse in Kombination Gewissheiten schaffen, die manchmal erstaunlich sind und an denen Zweifel und Kritik abperlen wie große Wassertropfen an der Goretex-Membran.

Wie leicht die führenden IT- und Internetkonzerne anderen Entscheidungsträgern und Meinungsmultiplikatoren in Wirtschaft, Politik und Medien passende Mythen einreden können, hat schon den einen oder anderen von uns kritischen Geistern geärgert oder gar beunruhigt. Die einzige Möglichkeit, die dem bemühten Beobachter noch bleibt, ist, Aussagen und Publikationen von Google, Amazon, Facebook und anderer Playern zu studieren, unter einander und mit den eigenen, lokal beschränkten Daten zu vergleichen und zu hoffen, dabei Widersprüche, Abweichen und kleine Risse in den Betonwänden entdecken zu können. Und das ist erst die halbe Miete.

Was Menschen glauben möchten, das werden sie glauben. Und was die Menschen glauben möchten und können, das hängt davon ab, ob es für sie einen Sinn ergibt und wenigstens irgendwie mit ihrer persönlichen Erfahrung zusammenpasst. Für die einen ist die Quantenphysik eine Religion, die zu verstehen sie nur vorgeben und für die anderen ist die biologische Evolutions ein wissenschaftlicher Irrtum, der nur erfunden wurde, um die Menschheit davon abzuhalten, durch freiwilliges moralisches Bemühen ihre gottgegebenen Ziele zu erreichen.

plink, nix,    praise or blame!
 

Samstag, 18. Juni 2016

Messung und Intuition

Messung, Intuition, Vertrauen, Komplexität, Teil 3

Viele Felder menschlicher Tätigkeit schienen sich stets gegen das Messen zu sträuben, andere dagegen können schon lange nicht mehr ohne es auskommen.

Die Methoden der Markt-, Medien- und Meinungsforschung haben es mit sich gebracht, dass auch schwer messbaren Dingen wie Mitarbeiterzufriedenheit und Führungsqualitäten quantisierend zu Leibe gerückt wird. Inzwischen werden solche Qualitäten nicht mehr nur von hierarchischen Vorgesetzten-Ketten durch subjektive Beurteilung und aus bestimmten Arbeitsergebnissen (z.B. Siegstatistik für Trainer, Verkaufszahlen für Sales Manager) bewertet. Periodische Umfragen in Unternehmen und statistische Vergleiche helfen allenthalben, auch einen schönen Teil dieser "weichen" menschlichen Qualitäten zu quantifizieren und zu vergleichen.

Im Sport war das immer nötig, weswegen die Jury und die Stilnote schon seit der Antike zum Einsatz kommen. Summierung und Mittelwertbildung führen hier zu Eindeutigkeit und Reihung, deren Richtigkeit durch Übereinkunft und Regel gesichert und von den Verlierern trotzdem nicht selten angezweifelt wird.

Mehr Daten um welchen Preis?

Die unglaubliche Verbesserung und Verbilligung von Sensoren, die einzelne Aspekte physikalischer Phänomene abertausende Male pro Sekunde mit Referenzwerten vergleichen, die Vergleichsergebnisse als binäre Werte festhalten und für die Ewigkeit speichern oder schnell durch Aggregation verdichten, hat vieles dem Messen zugänglich gemacht, was vor der Silikon-Technologie und dem Wirken von Moore's Law entweder technisch oder ökonomisch der Beobachtung und Quantifizierung entzogen war.

Die Debatte um Quantifizierung als Grundlage für wirtschaftliche und politische Entscheidungen hat seit den Erfolgen von Google, Amazon, Facebook und Co. einen ganz schönen Bias bekommen. Daten werden allenthalben als das Öl der Zukunft bezeichnet. Viele wissen heute vage, dass schon vor den aktuellen Entwicklungen Walmart mittels eines geradezu magischen Big Data Warehousing die Konkurrenz das Fürchten gelehrt hat. Nicht wenige vermuten, dass die NSA mit ihren Messdaten die ganze Welt durchblickt und beherrscht.

Die Europäische Union möchte zwar gemäß alter Prinzipien die Privatsphäre ihrer Bürger vor allzu schlimmer und vollständiger Durchleuchtung und Vermessung durch ausländische Mächte und Konzerne schützen, aber keinesfalls riskieren, dass die europäische Wirtschaft nicht auch ihr Zukunftsöl ausgraben und einsetzten kann. Sie kommt dabei einigermaßen hilflos über die Bühne. Einzelkämpfer mühen sich ab, Gefahren aufzuzeigen, aber die unermessliche Verbreitung der Messsensoren hat noch keiner unterbunden. Zu groß erscheinen die erwarteten Vorteile bislang sowohl den Mehrheiten als auch den meisten Eliten.

Messen und Entscheiden

In seinem Buch "How to Measure Anything: Finding the Value of 'Intangibles' in Business"hat Douglas W. Hubbard, der "Erfinder" von Applied Information Economics einer umfassenden Quantifizierungsphilosophie Ausdruck und Anspruch verliehen.

Messen ist wirklich oft wertvoll, weil es hilft, das direkte erfahrungsbasierte Erfassen, das gemeinhin Intuition genannt wird zu überprüfen. Oft befördert gerade da, wo nie gemessen wurde und per Übereinkunft ein etabliertes und für sicher gehaltenes "Wissen" die Einschätzung beherrschte, die Kreation und experimentelle Prüfung von Metriken einen Wissensschub. Man denke nur an den Äther und Lichtgeschwindigkeit. Oder an die Medien- und Meinungsforschung, die Erkenntnisse zu Tage förderten, auf die akademischen und politische Eliten mittels ihrer Intuition in 1000 Jahren nicht gekommen wären.

“No matter how ‘fuzzy’ the measurement is, it’s still a measurement if it tells you more than you knew before.”, ist zu Recht ein Schlüsselsatz in Hubbard's Buch, das aber natürlich wie alle ähnlichen Werke zwar Vorkehrungen zur Prüfung von Erkenntnissen enthält, aber auch sehr oft vergisst, wie problematisch sowohl die Ordnungsstruktur, die Werte und die Anwendung von Wissen und Knowledge sein kann und wie Gehirn und Kollektive von kommunizierenden Körpern und Gehirnen wirklich funktionieren.

Auf der anderen Seite hat Daniel Kahneman, der erste Psychologe, der 2002 gemeinsam mit Vernon L. Smith 2002 den "Nobel Memorial Prize in Economic Sciences" gewann, hat eine Reihe von Ergebnissen neuerer Forschung zu Entscheidungsfindung, Risikobewertung und ähnlichem in "Thinking, Fast and Slow" für interessierte und vorgebildete Menschen verständlich dargestellt. Er hat, man kann das wohl so sagen, mit diesem Buch dem Mythos vom Menschen und speziell vom Elitemenschen als "zoon logikon" und "animal rationale", und damit einem Dogma der klassischen Ökonomie, eine auch für das breitere Publikum schwer zu übersehende Kerbe zugefügt.

Messung und Intuition

Unter diesen Umständen würde man gerne entscheiden können, wo und was man messen soll und wo man mit Gefühl, Erfahrung und Intuition besser vorankommt und zu besseren Entscheidungen gelangt.

Ein sorgfältiges Zusammenwirken von Intuition und datenbasierter Rationalität, System 1 und System 2, wie Kahneman es nennt, oder "Herz und Hirn", wie es ganz altmodisch Politiker und Lebensratgeber gerne sagen, scheint durch die Debatte für die meisten, die sich ernsthaft mit der Frage beschäftigen als Ideal weiterhin ganz unangetastet zu sein.

Während die Daten immer mehr und die Modelle immer besser werden, ist aber anderseits wenig klar, wie die Intuition da mithalten kann. "Silicon, numbers and software eat the world", beschreibt einen Eindruck, dem man sich nur schwer entziehen kann.

Wir sollten bei all dem nicht vergessen, dass das Messen und Analysieren das Schreiben, Lesen und Rechnen voraussetzt. Zu diesem Komplex gehört auch ein geschlechtsgeschichtlicher Hintergrund. Zählen, messen, aufschreiben, rechnen, und die Entscheidung auf der Basis umfangreicher Daten und zugeordneter logischer Schlussketten war von Anfang an eine Domäne der Männer und wird bis heute von der Mehrzahl der Frauen kritischer betrachtet als zumindest von der Elite der Männer.

Auch das ändert sich inzwischen, aber ist dennoch sehr tief in unserer Kultur verankert. Nicht selten konnten gescheite Frauen auch zeigen, dass sie mittels Intuition viel schneller zu den gleichen und manchmal sogar besseren Erkenntnissen und Entscheidungen gelangen konnten als die Männer mit ihren umständlichen Systemen und Analysen.

Im gemeinsamen Gespräch und bei der Betrachtung von Alltagsphämomenen lachen Frauen denn Männer auch ganz gerne aus, wenn sie mit (zu vielen) Daten und Logik kommen, um ein Argument zu stützen. Die Kehrseite der Medaille ist, dass Männer Frauen häufig nicht ernst nehmen wollen, wenn sie nicht zuerst beweisen, dass auch sie Zahlen und Logik lesen, im Kopf behalten und anwenden können.

Schwierigkeiten des Zusammenwirkens

Daten und Faktenwissen können ebenso leicht falsch verwendet oder gar missbraucht werden wie Intuition und Gefühl. Ihre jeweiligen Befürworter übertreiben gerne ihre Qualitäten. Datenwissen erzeugt leicht den Eindruck von Gewissheit. Datenwissen ist niemals vollständig. Immer müssen die Lücken mit Vorurteil, Vorwissen und gefärbten Impulsen aus dem Inneren geschlossen werden. Selbst, wenn es nicht so wäre, bleibt die Eigenschaft von Kahnemans System 1 ("Intuition"), dass niemand es zu irgendeinem Zeitpunkt abschalten kann.

Ohne umfangreiche und teure Versuche kann nicht ermittelt werden, ob Messungen und Modellrechnungen zu bestimmten Fragen nicht teurer und fehlerträchtiger sind als die Vorteile, die durch sie erhofft werden. Uns hat der so genannte Nachweis des Higgs-Teilchens im LHC des CERN nicht wahnsinnig überzeugt. Seine Voraussage durch das Standard-Modell, die wissenschaftliche Konkurrenz und der politische Druck der enormen Kosten haben diese Interpretation der teuren Experimente bei der ersten Möglichkeit für ein plausibles Indizien-Gerüst erzwungen. Aber die Begeisterung der beteiligten Physikerinnen und Techniker hat so gezwungen gewirkt, dass man schon spüren konnte, wie dünn die Suppe war. Das Medienecho ist denn auch sehr schnell verhallt.

Während die Ökonomie und die Psychologie, denen einige öffentliche Denker weiterhin, auch nicht vollkommen zu Unrecht, den Status einer Wissenschaft bestreiten, endlich wegen der Fortschritte in Datenerzeugung und -verarbeitung trotz Kahnemann und Co. von Jahrzehnt zu Jahrzehnt ihre Daten- und Rechenbasis ausdehnen und vertiefen, scheint sich die Physik nun schon seit einiger Zeit im riesigen Gebilde ihrer Messinstrumente und mathematischen Systeme verfangen oder totgelaufen zu haben.

Einen echten "kreativen" Durchbruch innerhalb dieser einst so produktiven Leitwissenschaft der abendländischen Männer-Gesellschaft haben wir schon lange nicht mehr erlebt. Die Quantencomputer-Leute machen zwar in großen Abständen tolle Demos auf Kongressen, aber niemand weiß so richtig, was dabei herauskommen wird oder soll. Und auch das Beamen hat ein gewisser Herr Zeilinger nur mit unsichtbaren, mit mythischen Namen und Eigenschaften versehenen, angeblich existierenden Teilchen sozusagen simuliert. Des Kaisers neue Kleider werden aus eindimensionalen Strings in einer 11-dimensionalen SUGRA-Maschine gewebt.

plink, nix,    praise or blame!
 

Freitag, 17. Juni 2016

Sozial-, Markt- und Meinungsforschung

Messung, Intuition, Vertrauen, Komplexität, Teil 2

Vor der französischen und amerikanischen Revolution waren die Ergebnisse von Volkszählungen, Armenerhebung und andere staatliche Zahlenwerke weitgehend geheim und nur dem engen Kreis der Staats- und Kirchenlenkungsapparate zugänglich. Aber ab dem Beginn des 19. Jahrhunderts wurde ein großer Teil dieser Daten gedruckt, publiziert und massenhaft verbreitet. Seitdem ist die Menge der gedruckten Zahlen über die Menschen und ihre Gruppierungen zu einer unüberschaubaren Lawine angewachsen.

1822 veröffentlichte Auguste Comte den "Plan des travaux scientifiques nécessaires pour réorganiser la société". Diese Schrift gilt weithin als Ursprung sowohl des Positivismus als auch der Sozialwissenschaft. Für Comte war der Gegenstand seiner Wissenschaft eine „soziale Physik“ (physique sociale), die er nach Gesetzen der sozialen Statik und sozialen Dynamik unterschied.

Karl Marx und Friedrich Engels studierten Mitte des 19. Jahrhunderts penibel die Details amtlicher Statistiken, der Berichte von Fabriksinspektoren, der Armenvorsorge usw. Ohne diese Studien wären sie wohl weder zur Idee eines "wissenschaftlichen" Sozialismus noch zum Ersatz des Bürgertums, das sie so enttäuscht hatte, durch eine Klasse von Menschen, das sie Industrieproletariat nannten, als ultimatives Subjekt der menschlichen Emanzipation gelangt.

1862 schrieb Wilhelm Wundt, einer der Väter der experimentellen und quantitativen Psychologie: "Es ist die Statistik, die zuerst offenbart hat, dass die Liebe psychologischen Gesetzen folgt."

Die Zählung und Einteilung der Menschen und die Klassifizierung und Quantifizierung ihres Verhaltens führte zusammen mit den vorherrschenden Denkmustern des von der Physik inspirierten wissenschaftlichen Weltbilds zu neuen Methoden, der Formulierung sozialer und psychologischer "Gesetze" und zu unerwarteten Nebeneffekten.

Die Sozial- und Wirtschaftswissenschaften lösten sich von der Geistes- und der Rechtswissenschaft und wurden selbständig. Sie fanden und erfanden neue, zuvor nicht bekannte Kategorien, Klassifikationen, Fakten und Beweise. Sie haben in einem Auf und Ab aber auch unsere Möglichkeiten zu Reflektion und Veränderung erweitert.

Produkte, Märkte, Medien, Werbung

Märkte für massenhafte Endverbraucher waren nicht immer so bedeutend wie heute. Aber mit der Industrialisierung entstanden die paketierten Markenprodukte und Massenmedien und damit sowohl der Bedarf und als auch die Möglichkeit zur weiten Verbreitung von Werbung und anderer neuer Strategien der Vermarktung.

Während der Wirtschaftskrise von 1833 startet Benjamin Day in New York The Sun mit dem Gedanken, dass in schwierigen Zeiten sich mehr Leute eine Zeitung um eine als um sechs Cent leisten konnten und wollten. Das Motto der Sun war, "It Shines For All", und auf dem Kopf des Titelblatt war angeblich stets der Satz "The object of this paper is to lay before the public, at a price within the means of every one, all the news of the day, and at the same time offer an advantageous medium for advertisements." aufgedruckt.

Die französische Zeitung La Presse war die erste billige Zeitung in Frankreich und die erste, die auf dem Kontinent bezahlte Werbung enthielt. Werbung machte die Zeitungen billiger, profitabler und unabhängiger vom Staat. Das Geschäftsmodell setzte sich in Europa, seinen Kolonien und den Vereinigten Staaten rasch durch.

Mit den neuen Produkten und Vermarktungsformen ging der Wunsch einher, mehr über Konsumentenwünsche, die Mechanismen von Konsumentenmärkten und die Wirkung von Werbung zu wissen. Nicht nur Planung und Durchführung der Produktion wurden verwissenschaftlicht, einem bis heute fortdauerndes und immer noch stark mit dem Namen Frederick Taylor verbundenes Unterfangen, sondern auch die Gestaltung von Produkten und ihrer Vermarktung.

Für die Presse genügte noch lange die Zählung der verkauften Auflage, um festzustellen, wieviel eine Anzeige in dem einen oder anderen Blatt wert war. Aber die Einführung des Radios veränderte auch hier die Situation grundlegend.

1923 gründete Arthur Nielsen das erste Unternehmen, das Markt- und Performanzforschung öffentlich als Dienstleistung anbot, in den Vereinigten Staaten von Amerika.

In Deutschland wurde 1935 die GfK-Nürnberg Gesellschaft für Konsumforschung e. V. von Nürnberger Hochschullehrern, darunter dem Wirtschaftswissenschafter und Politiker Wilhelm Vershofen und seinem Assistenten, dem späteren deutschen Wirtschaftsminister und Bundeskanzler Ludwig Erhard, ins Leben gerufen, um „die Stimme des Verbrauchers zum Klingen zu bringen“, wie das Vorwort in der Vereinsgründungsurkunde verkündet.

1936 Jahre erwarb Nielsen das so genannte "Audimeter" von zwei Professoren des M.I.T., Robert Elder and Louis F. Woodruff. Das Audimeter zeichnete auf, welche Radiostationen in den Haushalten während des Tages eingestellt waren und wie lange sie das waren. Nach ein paar Jahren des Herumprobierens kombinierte Nielsen das Audimeter mit einer Tagebuchstudie in je nach Quelle 800 oder 1000 Haushalten und schuf so den ersten nationalen Radio-Rating-Dienst.

Etwa zur gleichen Zeit startete auch Auricélio Penteado, ein Schüler von George Gallup, ganz unabhängig von Nielsen in den 40er-Jahren in Brasilien einen vergleichbaren Dienst namens IBOPE, der von den ganz Belesenen oft anstelle von Nielsen als erste Einschaltquoten-Parade genannt wird.

IBOPE (heute Kantar Ibope1) ragt immer noch aus den Quotendiensten der Welt durch den Umstand heraus, dass es die TV-Quoten in Echtzeit ermittelt und damit schon mal die dramaturgische Entwicklung und Übertragungslänge von Shows direkt beeinflusst.

In den 20er Jahren begann die professionelle Marktforschung, in den 30er und 40er-Jahren wurde die Einschaltquote in den Medien, die mit dem Fernsehen zu ihrer größten Blüte gelangen sollte, erfunden. Von da war es, wie wir sehen werden, nicht weit zur wissenschaftlichen Meinungsforschung.

In den USA warf Nielsen schon vor Beginn der Fernsehmessung alle Konkurrenten aus dem Feld und wurde zum ehernen Maßstab für elektronische Medien. Arthur Nielsen wird auch die Erfindung des Begriffs "Marktanteil" zugeschrieben, der bis heute wichtigsten Metrik bei der Beurteilung der Verhältnisse von Konkurrenten untereinander und zu ihren Marksegmenten darstellt.

Heute ist die Nielsen N.V. nach vielen Besitzerwechseln ein börsennotierter Konzern und trotz eines kurzfristigen 2. Platzes nach der Übernahme von TNS durch WPP1 wieder die Nummer 1 unter den weltgrößten Markt-, Medien- und Meinungsforschungsunternehmen.

Die GfK SE ist eine Aktiengesellschaft nach europäischem Recht, immer noch mit Sitz in Nürnberg und mehrheitlich im Eigentum des Gründungsvereins und die Nummer 4 unter den Datenlieferanten für Wirtschaft, Medien und Politik.

Professionalisierung der Meinungsforschung

Die erste dokumentierte Meinungsumfrage wurde 1824 von einer Lokalzeitung in Pennsylvania durchgeführt. Dieser unoffiziellen Abstimnung (straw poll) bekam Andrew Jackson von der demokratischen Partei die meisten Stimmen. Auch bei der Wahl gewann Jackson den popular vote, unterlag jedoch im Kongress durch ein Bündnis gegnerische Wahlmänner und John Quincy Adams wurde der 6. Präsident der USA. In der Folge wurden Wahlumfrage populär, blieben aber lokal und wurden nur in einzelnen Städten durchgeführt.

1916 unternahm es die Wochenzeitschrift The Literary Digest, als Teil einer Verkaufssteigerungskampagne, eine erste nationale Umfrage mittels Postkartenversand durchzuführen. Das Ergebnis sagte den Sieg von Woodrow Wilsons voraus. Die Zeitschrift versendete danach bei allen Wahlen Postkarten an ihre Leser, zählte die Antwortkarten und lag bei den Wahlen von Warren Harding, Calvin Coolidge, Herbet Hoover und Franklin Roosevelt 1932 richtig.

George Gallup war 1931 an der North Western University in Illinois und ab 1932 an der Columbia University in New York Professor für Journalismus und Werbung. 1935 gründete er sein eigenes Meinungsforschungsunternehmen, 1937 wurde er Forschungsdirektor bei Young and Rubicam.

1936 wurde Gallup durch die richtige Voraussage des Erdrutschsieges von Franklin D. Roosevelt über Alf Landon berühmt. Gallup hatte seine Analyse mit wissenschaftlichen Methoden auf der Basis von nur 50.000 repräsentativen Interviews durchgeführt. Der Literary Digest dagegen zwar ein Sample von mehr als 2 Mio. Karten erhalten aber nicht bemerkt, dass die Weltwirtschaftskrise zu einer Veränderung seines Publikums in die eine und großer Gruppen der amerikanischen Bevölkerung in die andere Richtung verursacht hatte.

Die wissenschaftliche Meinungsforschung gibt seither trotz der vielen Irrtümer, die sie im Lauf der Jahre produziert hat, gewieften Politikerinnen, die lieber auf die Macht der so stets bekannten Mehrheitsmeinungen als auf die Überzeugung, Einschüchterung und Interessensintegration einer ausreichend großen Untergruppe der gesellschaftlichen Elite und ihrer politischen Funktionäre bauen mögen, ein ganz ordentliches Instrument an die Hand.

Mussten berühmte Popularen wie die Gracchen und die Julier, Girolamo Savonarola, Napoléon Bonaparte, Dr. Karl Lueger und Adolf Hitler in der Vergangenheit noch auf das Feedback erregter Massen auf dem Forum Romanum, in Hallen und Bierzelten, bei Heeresappellen, Parteikongressen und Wahlkampfveranstaltungen vertrauen, so konnte schon besagter Franklin D. Roosevelt und vollends alle seine Nachfolger in den USA und anderswo in der westlichen Welt auf die "wissenschaftliche" Erhebung und Hochrechnung von definierbaren Meinungsschnipseln sowie deren verständliche Segmentierung und Ordnung in klar verständliche Verhältnisse "vertrauen".

Heute kommt kein Konzernlenker und kein Politiker ohne eine Unmenge von Zahlen, nicht nur "harten" Summen, Quotienten und anderen Kalkulationen aus Produktion und Vertrieb sondern auch "weichen" Zahlen zu Konsumentenstimmung, Mitarbeiterzufriedenheit und Wählermeinung aus.

Daten, Leadership, Populismus

Die meisten Mitglieder etablierter Eliten und ihre Anhänger verurteilen gerne den sogenannten Populismus von Zeitungen und Politikern, die für ihre Vereinbarungen unbequeme Meinungen und Stimmungen in der Bevölkerung ausdrücken und verstärken, um selbst mehr Einfluss zu gewinnen.

Nach allem, was man in den letzten Jahren im Spiegel und anderen Medien über die Regierungsweise von Dr. Angela Merkel lesen konnte, kann man fast nur den Schluss ziehen, dass diese sehr intelligente Dame sowohl die kurzfristigen Entscheidungen als auch die langfristigen Entwicklungen der Bundesrepublik Deutschland und irgendwie auch der Europäischen Union ganz wissenschaftlich und sehr demokratisch, nämlich gemäß einem erforschten Set von Mehrheitsmeinungen ihres(r) Souveräns(e) gesteuert hat.
Die politischen Erfolge dieser Verfahrensweise gaben ihr bis zum letzten Jahr recht. Nicht nur machte sie die breite Glockenmitte der Gesellschaft für andere Parteien von Jahr zu Jahr schlechter zugänglich. Die Methode schuf ihr auch Platz und Energie, um sich effizient auf die Niederhaltung diverser Heißsporne und Ehrgeizler, von Merz und Koch über die Bayern bis zu Varoufakis und Tsipras, die ja früher auf diesem Kontinent über kurz oder lang noch jeder Häsin Tod waren, zu konzentrieren.

Dann kam die Flüchtlingswelle 2015. Frau Merkel schaute wahrscheinlich schon in die Zahlen und sah ziemlich sicher ein ambivalentes und wenig stabiles Bild. Spiegelbildlich zeigten ihr die bisherigen wissenschaftlichen Erfolge und das damit einhergehende Selbstbewusstsein sie selbst als das Bild eines Felsens in der Brandung und ganz und gar stabilen Schutzgöttin der Humanität. Und da zog die gute Frau den klassischen Fehlschluss all jener, die im Inneren so gerne an aufgeklärte logische Rationalität und europäische Wissenschaft glauben mögen, nämlich, dass sie die Richtung zeigen könne und alle ihr folgen würden.

Das Fazit des Beispiels

So wie es aussieht, hat das allzu häufige und allzu gläubige Studium der Zahlen in der Sache den letzten Funken an Intuition und Verständnis für "basic mass psychology" in der armen Frau irgendwie verzerrt oder möglicherweise gar abgetötet. Die Folgen sind inzwischen auch zu Tage getreten. Schwenks in jede Richtung, weiterer Schub für rückwärts orientierte Kräfte und Parteien, Hilflosigkeit allenthalben. Die Angie sitzt ja noch am Ruder, aber der Werner, der hat sich für die und bei der Herbeiführung der politischen reumütigen Rückkehr unter den mittels Meinungsumfrage ermittelten Willen der Mehrheit selbst verheizt und verheizen lassen. Seine Rechnung ging plötzlich nimmer auf.

Über die anderen Pfeifen schweigen wir jetzt lieber, ganz speziell über die, die immer noch an old style Kabinettspolitik glauben und meinen, man könne in Brüssel, Paris, Straßburg, London oder Berlin zu dritt oder zu dreihundert mit sich selbst, den Amis oder den Lobbies etwas ausmachen und mittels Koalieren und Vorteilstausch nach ganz anderen Zahlen und Ergebnissen sowie die Fütterung vermeintlich systemtragender Medien den Kontinent voranbringen oder wenigstens stabil halten.

Und die Mädels und Burschen, die statt überholter ökonomischer Vorhersagemodelle noch eifriger als die Mainstream-Politiker die Ergebnisse der politischen Meinungsforschung studieren und glauben, daraus jede Rechtfertigung ziehen zu können, und die dann noch Öl mit dem richtigen Spin ins Feuer giessen, die werden in der Demokratie halt erst geprüft, wenn sie regieren.

In manchen aus Sicht des gebildeten europäischen Humanisten rückständigen Ländern sind sie schon seit geraumer Zeit am Werken. In anderen versuchen sie sich noch nicht ganz so lange. Und in wiederum anderen, werden sie erst noch an die oberste Spitze der Verantwortung rücken.

Allen ist gemeinsam, dass sie Zahlen lesen, selbst erheben lassen und sich ihr Bild von der Welt nach einem mit ihren Denkmustern passenden Ausschnitt formen. Was für ein Glück, dass wir nicht mehr im Zeitalter von Feuer und Stahl leben. Was für ein Glück, dass die Bombe - Ihr wisst schon welche - einen konventionellen Krieg unter den europäischen Mächten praktisch verunmöglicht. Dass das Projekt Europäische Union das ganz alleine schaffen könnte, erscheint gerade jetzt nicht mehr ganz so sicher als vor 10 Jahren.

1Die Medienabteilung von IBOPE wurde 2014 an die Kantar Group verkauft und in Kantar Ibope umbenannt. Die Kantar Group wiederum ist der Datenarm von Wire and Plastic Products plc, dem größten Werbeunternehmen der Welt, das inzwischen Young & Rubicam, viele weitere Werbeagenturen und TNS, einen weiteren Pionier der Markt- und Meinungsforschung (National Family Opinion - NFO, 1946) übernommen hat. In Dänemark, Norwegen, Finnland, Schweden und Argentinien sind die Gallup-Institute mit TNS verschmolzen, firmieren auch meist unter TNS-Gallup und gehören somit auch zu Kantar/WPP.

Mehr aus der Serie "Messung, Intuition, Vertrauen, Komplexität":

plink, nix,    praise or blame!
 

Nächste Seite
 
last updated: 21.08.16 11:45
menu

Youre not logged in ... Login

September 2016
MoDiMiDoFrSaSo
1234
567891011
12131415161718
19202122232425
2627282930
Juni
Made with Antville
powered by
Helma Object Publisher
recently modified
Relevant but not too smart
All the weaknesses of Mr. Sunde's Argument are already mentioned in the article. The Problem with GOOG and FB is that national and international laws....
by StefanL (06.06.16 19:20)
yeah
and glad if you like it. looking forward to next conversations, amiable arguments included.
by StefanL (02.06.16 02:19)
...
Relevant(?): Zuckerberg Is Dictator of The World's Largest Nation, Pirate Bay Founder Says Anyway, I am happy you reliably point into some different directions and....
by tobi (31.05.16 20:50)
...
Gegeben, und die Liste der Helfershelfer, Steigbügelhalter und Wasserträger ist lang und vor Herrn Potiorek hätte dann noch einer unserer historisch verbürgten Lieblingshelden erwähnt gehört,....
by StefanL (24.04.15 17:27)
...
missing links...
by wilhelm peter (02.01.15 16:15)
Tiny Rise in Price
We're sorry or rather not that sorry to inform you that the educational device package our scientific dptmt. has on offer for the better, aka....
by DogbertA (01.01.15 11:48)
...
a wonderful song - i remember bacharach as musical director of marlene dietrich - the man behind her chanson appearance - one of the most....
by wilhelm peter (30.12.14 20:56)
Lieber Piefke 3000
Weil wir so sind und weil wir nicht so sind, haben wir jetzt die gesamte seriöse Literatur zu Körner besorgt, deren wir, dank sei dem....
by StefanL (27.11.14 22:17)
...
Oskar Potiorek is to blame. (Just kidding, but he could be in your list, too.)
by tobi (22.11.14 13:41)
Sagt wirklich Autobus Frank Hampel
promoviert 1989 und habilitiert 2002 an der Universität Göttingen, Privatdozent an der Universität Göttingen und wissenschaftlicher Mitarbeiter am Institut für Regionalforschung e.V. in Göttingen. Von....
by StefanL (22.11.14 08:58)

RSS Feed