Politik neuen Stils - Einstimmige Abstimmungsergebnisse

Wer glaubt, dass der neue Stil in der Politik (harmonisch) neu ist, irrt. In der österreichischen Bundespolitik zwar schon echt lange nicht mehr praktiziert, gibt es ihn, da, wo echt was weitergeht mit Entschlusskraft und Reformfreudigkeit, nämlich in der bayrischen und österreichischen Regionalpolitik schon lange und auch durchgehend.

Aus aktuellem Anlass auch wieder vom bekannten Afrika-Experten, Politikwissenschafter und meinem verehrten Demokratie-Lehrer G. Polt im jüngst vergangenen August 2017 wieder einmal meisterlich erklärt.

plink,  only 1 comment,    praise or blame!
 

New Irresistible Offer

Wanna know why Facebook really is the best and most successful simulation of a permanent party for a billion people and works locally too? Wanna know where, when and why it does not do its supposed magic?

TinyTalk plc now offers a 3 months intensive course where you will learn the truth and how to handle it. You will be taught by the best of the best of the best and, if attractive, even have a free choice of which alien race will abduct and, of course pleasurably, sexually abuse you, all preferences included.

Prices start from $1,499.55. Be sure to inquire for discounts and surcharges according to sex, age, race, household income and educational level. All communications will have to be adressed to tinytalk-services(at)jambiz.co.jm.

Stop being a loser and turn around for sustained success!

PS: new on the blog roll: Prof. Joanna J. Bryson and DI Oberhammer. Both on the wanker-platform, but nevertheless.

plink, nix,    praise or blame!
 

Neue (unvollendete) Serie "Messung, Intuition, Vertrauen, Komplexität"

In unserer neuen Serie betrachtet die tiny-Redaktion die guten und schlechten Dinge, die mit der immer weitergehenden Durchdringung aller Lebensbereiche durch Sensoren, Messfühler, Quantifizierung, Algorithmen, Kompetenzverlust usw. einhergehen.

Redakteur StefanL fasst die Diskussionen und Überlegungen des tiny-Stabes zusammen und versucht, sie in 8 halbwegs verständlichen Kapiteln auf den Punkt zu bringen.

plink, nix,    praise or blame!
 

Messung und Komplexität

Messung, Intuition, Vertrauen, Komplexität, Teil 5

Was Menschen glauben möchten, das werden sie auch glauben. Und was die Menschen glauben möchten und können, das hängt davon ab, ob es für sie einen Sinn ergibt und wenigsten irgendwie mit ihrer persönlichen Erfahrung zusammenpasst. Davon abweichende Erkenntnisse sind stabil nur in engen Expertenfeldern möglich, wo das Wissen und Vertrauen in komplexe Methoden und Modelle durch deren wiederholte Anwendung groß genug werden kann, dass Alltagserfahrung und Sinn-Sehnsucht durchbrochen werden. Darüber können die Expertinnen sich aber nur untereinander austauschen. Nach außen ist es so, dass sich nur dann, wenn alle oder ausreichend qualifizierte Mehrheiten unter ihnen die gleichen, an das Verständnis des Publikums angepassten, Aussagen machen, eine neue und schwierige Vorstellung, die sich aus der wissenschaftlichen Forschung ergibt, durchsetzen kann.

Oft nur oberflächlich, wie zum Beispiel die Heisenberg'sche Unschärferelation oder das Orbitalmodell des Atoms. Wer kann sich schon vorstellen, wie eine stationäre Lösung der quantenmechanischen Schrödingergleichung aussieht oder gar wie sie sich anfühlt. Das bewiesenermaßen falsche Planetenmodell des Atoms dagegen, das können alle begreifen und sich vorstellen. Hier stehen wir nun mit unserem Vertrauen in Zahlen und Rechnen und müssen begreifen, dass wir gar nicht anders können. Immer noch kann Sicherheit in der Einschätzung nur durch Übereinkunft hergestellt werden.

Außer vielleicht im engsten Bereich der eigenen Expertise und häufig geübten Praxis ist das Verständnis komplexer Systeme durch die beschränkte Vorstellungskraft und das unmittelbare Reflexionsvermögen begrenzt. Metriken und Messungen können Komplexität ordnen und vielleicht reduzieren und haben gleichzeitig das Potential, sie über den Bereich hinaus, in dem Intuition und direktes Vertrauen in die Fakten und sich selbst noch möglich sind, auszudehnen.

Das impliziert, dass wir heute jede Menge Messsysteme für die Kontrolle, der komplexen Systeme, die wir geschaffen haben, unabdingbar brauchen und parallel dazu die Sachlage dauernd verschlimmern.

Durch die dynamische Erzeugung von Mess- und Steuerungsdaten verändern Mess- und Regelwerke die Systeme für deren Messung, Bewertung und nicht selten Kontrolle sie geschaffen wurden. Das Verhalten menschlicher Organisationen wie z.B. Unternehmen ist eine Funktion des reziproken Verhältnisses zwischen den Strukturen und Regeln der Organisation und den Handlungen der Personen in und außerhalb der Organisation. Nichts davon ist statisch.

Vereinfachung durch Messung

Jede Metrik ist eine Art Summen- oder Zusammenfassungsstatistik. Eine Zusammenfassung ersetzt kein Buch und ihre Verwendung ohne genaue Kenntnis des Ganzen kann das Verständnis erheblich reduzieren.

Mehr noch, Vereinfachungen führen oft zu schlechten Informationen und verzerrten Steuerungsentscheidungen innerhalb des Systems. Das ist der Kern dessen, was Goodhart's Law bedeutet. Die Anwendung der Messergebnisse verändert das gemessene System. Möglicherweise wird dadurch die Anwendung inadäquat.

Wenn man beginnt, nach den Effekten dieses Prinzips zu suchen, findet man sie in allen modernen System. Messergebnisse sind zu teuer und zu wertvoll, um nicht angewendet zu werden und zu bedeutend, um das gemessene System nicht zu verändern. Jeder weiß, dass die Quotenmessung die Medien verändert hat und weiter verändert. Und aus der Teilchenphysik wissen wir, wie die Einwirkung der Beobachtung auf die Messung ganz grundlegend beschränkend sein kann.

Komplexität ruiniert alles

Komplexe System haben komplexe Probleme, die gelöst werden müssen. Messergebnisse können die Vorstellung von Vereinfachung erzeugen, aber die zugrunde liegende Komplexität nicht reduzieren.

Das führt oft dazu, dass Messergebnisse die Tendenz haben, Probleme zu verbergen anstatt zu ihrer Lösung beizutragen. Und das wiederum steht in engem Zusammenhang mit der geforderten Lesbarkeit der Messung.

Das Versagen von Steuerung mittels Messergebnissen wird besonders wahrscheinlich, wenn die Dimensionalität reduziert wird, wenn die Kausalität nicht klar ist, d.h. es nichts weiter als eine statistische Koinzidenz gibt und wenn die Verwandlung von Metriken in Zielvorgaben Missverständnisse schafft.

"Lesbarkeit" als Rezept für das Scheitern

James Scott hat in "Seeing Like a State: How Certain Schemes to Improve the Human Condition Have Failed", dieses Muster des Scheiterns historisch untersucht: "The more I examined these efforts at sedentarization, the more I came to see them as a state’s attempt to make a society legible, to arrange the population in ways that simplified the classic state functions of taxation, conscription, and prevention of rebellion."

Die meisten Staaten betrieben übrigens die Vermessung ihrer Menschen und Landschaften primär in der genuinen Überzeugung, damit das Los ihrer Bevölkerungen nachhaltig verbessern zu können und nur selten und sekundär aus den ihren Funktionären oft unterstellten Motiven der Herrschaftsfantasie, Machtgier und Unterdrückungswut. Das trifft genauso auf die großen Internet- und Einzelhandelskonzerne zu, die derzeit gerade die Vermessung ihrer Kunden, ihrer Mitglieder und der Welt auf ein Niveau bringen, von dem der schlimmste Überwachungsstaat nicht einmal zu träumen wagte.

Der fundamentale Denkfehler der daten- und abstraktionbasierten Vorstellung von der "Lesbarkeit" der Welt liegt in der Annahme dass dynamische, erfolgreiche, lebendige Systeme bezüglich ihrer umfassenden Struktur, Funktionen und Kausalität verständlich und lesbar sein müssen. Oder zumindest, dass sie für das alles sehende wissenschaftlich-statistische, über den Dingen schwebende "Auge" les- und verstehbarer sind als für die in den Prozess eingebundenen Ohren, Augen und Nasen auf dem Boden.

Komplexe Realitäten strafen diese Auffassung Lügen. Die Gesamtheit eines Waldes versteht man durch das Gehen und Liegen unter den Bäumen, durch das "Absorbieren" seiner "Gestalt" und durch Interaktion als holografisch-fraktales Element seiner Prozesse besser und richtiger als aus den luftigen Höhen noch so vieler Tabellen und Satellitenaufnahmen, ohne die einem aber auch am Boden nicht so wenig, vielleicht Wichtiges, entgehen wird.

Das heißt nicht, dass ein statistisch lesbar gestalteter Wald und das wissenschaftliche Verständnis seines Funktionieren nicht gewisse Nutzungen für den Menschen sehr befördern kann. Es heißt auch nicht, dass "wissenschaftlich" gemanagte Unternehmungen, gemessen an den definierten Zielen, nicht sehr erfolgreich sein können. Die längerfristigen Folgen solchen Handelns können aber oft nicht oder nur schwer abgeschätzt werden.

Reduktion der Dimensionen

Alle Metriken reduzieren Dimensionalität und Wertbandbreite. Die einzelne Zahl repräsentiert nie alle Aspekte eines Zustands. Die Ökonomie versteht sich selbst gerne als die Wissenschaft der Verteilung von knappen Gütern. Vereinfachen wir jetzt einmal die Lehrveranstaltungen einiger Semester lassen dabei die ganz schweren mathematischen Teile aus.

Nehmen wir an, wir reden von n Menschen und x verschiedenen Arten von Gütern. Das hat zur Folge, dass jede Verteilung einen Punkt in einem Koordinatensystem mit (n-1)*g Dimensionen darstellt. Jede von den n Personen kann jede der x verschiedenen Güter anders bewerten. Die Werte, die von den Menschen in die Distribution eingebracht werden, sind Punkte in einem n-dimensionalen Raum. Das ist komplex und kaum vorstellbar. Ökonomen einigen sich meist auf vereinfachende Annahmen über menschliche Präferenzen, vereinbaren Aggregationen und gelangen am Ende zu ein- oder zweidimensionalen Skalen für die Bewertung der Nützlichkeit und Begehrenswertigkeit von Gütern. Am Ende erklären sie uns dann, wie ihre Algorithmen Begehren, Nutzen und Verteilung optimal miteinander verbinden können.

Die ökonomische Wissenschaft kann sehr wohl kritisch sein. So hat der späteren Nobelpreisträgers Kenneth Arrow bereits 1951 das nach ihm benannte Arrow-Theorem publiziert, dessen Gegenstand das Verhältnis zwischen dem Wollen von Individuen und der gesellschaftlichen Entscheidung ist. Das Theorem stellt die Möglichkeit einer eindeutigen Bestimmung eines „Gemeinwohls“ mit Hilfe abstrakter Regeln, in moderner Redeweise die algorithmische Bestimmung eines optimalen Vorteilszustands für möglichst viele, in Frage.

Obwohl das Arrow-Parodoxon und seine Erweiterungen also zeigen, dass es keinen Algorithmus für die Herstellung von allgemeinem Wohl geben kann, werden solche Erkenntnisse im Rest der Sozial- und Wirtschaftswissenschaften weitgehend ignoriert. Das erhält die gut bezahlten Jobs und die Illusion der deterministischen Machbarkeit freien Wirtschaftens und fairer Politik aufrecht. Auf dieser Illusion aber beruhen alle Fantasien über die schöne neue Welt, die uns Software, Silikon und ihre Vernetzung durch Kapitalgesellschaften mit "Do no Evil"-Ethiken bescheren können.

Die Kausalität ist ein "Hund"

Die philosophische und wissenschaftliche Definition von Kausalität ist heute strittiger denn je. Halten wir es trotzdem einfach. A verursacht B, dann, wenn im Fall einer (magischen) Manipulation von A und nichts anderem, bei B eine Veränderung eintritt.

In der Praxis ist das Verständnis der Kausalität im angewendeten Modell immer schwer, weil monokausale Analysen außer in den aller-einfachsten Experimenten stets problematische Logiken erzeugen.

Die Komplexität eines Sachverhaltes spiegelt sich in der Wahrnehmung mit einer Fülle von Details, für die es auf den ersten Blick keine Abstraktion gibt, die Menge und Dichte der relevanten Einzelheiten verkleinern könnte.

Komplexität in biologischen Systemen mit autonomen Einheiten, z.B. Gesellschaften, ist ein Resultat nicht determinierten Verhaltens dieser Einheiten, z.B. der Menschen. Wieder erkennbare und sich wiederholende parallele Muster in den Daten nennt man Korrelation. Für die Hypothesen- und Theoriebildung wird für so eine Korrelation eine Hypothese zu einer dahinter liegenden Ursache gebildet. Diese Hypothese ist ohne Nachweis aber wenig wert und kann leicht zu Modellfehlern führen.

Quelle: C:\fakepath\correlation-causality.jpg
Randall Munroe Licence: CC BY-NC 2.5 Korrelation impliziert keine Kausalität, aber sie wackelt immer verführerisch mit den Augenbrauen und flötet: Schau her!

All das führt in den entsprechenden Wissenschaften Ökonomie, Soziologie, Politologie etc. zu vielen diachron und synchron konkurrierenden Theorien und allerhöchsten zu partialen Einigkeit verschiedener "Schulen". Diese Theorien wählen jeweils aus dem sich dynamisch verändernden Datenbestand ganz unterschiedliche Pakete aus und setzen diese auch in stets unterschiedlich gebaute Beziehungssysteme ein.

Konsequenzen unsicherer Kausalität

Zur Risiko-Einschätzung sowohl für komplexe Naturphänomäne (z.B. Erderwärmung) als auch für große von Menschen konstruierte Systeme (z.B. Kernkraftwerke, Luftverkehrsleitsysteme, autonome Fabriken oder Handelssysteme) gibt es weder zwischen einzelnen Menschen noch zwischen Staaten viel Einigkeit. Zur Sinnhaftigkeit und Effizienz der bereits eingesetzten Steuerungsmechanismen und denen, die in Zukunft zum Einsatz kommen sollen, noch viel weniger.

Viele Untersuchungen zeigen weiterhin, dass auf Sensoren und Messwerten basierende Maßnahmen und Mechanismen, die darauf zielen, Risiken durch ihren Einbau oder ihre Nachrüstung zu reduzieren oder zu beherrschen, nicht selten zu einer weiteren Steigerung der Komplexität und zu noch mehr unkontrollierbaren Interaktionen führen.

Kausalität wissenschaftlich modellieren

Um Kausalität für wissenschaftliche und technische System darstellen und verwenden zu können, braucht man einen Formalismus. In der klassischen Physik waren das die heute berühmten und in höheren Schulen und den ersten Studienabschnitten vieler Fächer unterrichtete und damit eigentlich zur Allgemeinbildung gehörende Gleichungen und Gleichungssysteme.

Aktuell werden für die Darstellung von Kausalitätsbeziehungen gerne grafische Formalismen eingesetzt. Manche haben wahrscheinlich schon in einem ambitionierteren Artikel zum Thema Big Data die Abkürzung DAG (Directed Acyclic Graph) gelesen bzw. überlesen.

Quelle: C:\fakepath\health_hart.png
Das ist ein Graph, der den Wirkungszusammenhang von Zähneputzen und Herzerkrankungen formalisiert darstellt.

Mehr aus der Serie "Intuition, Messung, Vertrauen, Kompexität":

plink, nix,    praise or blame!
 

Messen und Vertrauen

Messung, Intuition, Vertrauen, Komplexität, Teil 4

Die Verwendung von Messergebnissen setzt Vertrauen in die Datensammlung und die Methoden für Umwandlung und Aggregation der Daten in den Messinstrumenten voraus.

Wir stellen selten in Frage, dass die Veränderung von Quecksilbersäulen oder Metallplättchen mit dem Steigen der Temperatur in allerlei Thermometern vom Fiebermesser bis zur Wetterstation ein reproduzierbares und richtiges Verhältnis haben.

Unser Gefühl sagt uns vielleicht mit Gewissheit, dass Herr K. unter unseren Mitarbeitern oder Kollegen die größte Pfeife ist. Die Erfassung und Quantifizierung von Leistungswerten kann so ein Vorurteil unter Umständen sinnvoll korrigieren und zeigen, dass Herr K. viel mehr leistet als seine leise Stimme und gebückte Körpersprache vermuten lassen.

Frau X. hat vor dem Einstellungsgespräch einen hervorragenden Lebenslauf mit exzellenten Zeugnis-Noten und sogar Erfolgszahlen aus dem vorigen Job vorgelegt. Das hilft bei der Entscheidung nur dann, wenn man das Vertrauen hat, dass Frau X. korrekte und echte Dokumente mit Daten in der richtigen Auswahl vorgelegt hat oder man die Daten irgendwie überprüfen kann.

Es gibt Lügen, ...

Statistik ist wie andere Disziplinen auch ein Denksystem. Sie kann nicht verhindern, dass wir uns selbst oder andere belügen. Sie ist aber oft gut geeignet, uns dabei zu helfen, dass uns andere nicht so leicht erfolgreich Blödsinn erzählen können.

Das setzt voraus, dass wir für den betrachteten Fall der Datensammlung und den Verarbeitungsmethoden, die verwendet wurden, vertrauen können. Wie das Sprichwort sagt, "es gibt Lügen, verdammte Lügen und ....". Die mannigfaltigen Schwierigkeiten des Datensammelns und die Komplexität und Flexibilität der statistischen Methodologie verbergen alle Unterschiede, jedenfalls für diejenigen, die im gegebenen Fachgebiet keine trainierten Spezialisten und Experten sind, also die meisten Leute, die mit den fraglichen Zahlen umgehen und sie verwenden.

Trotz dieses schon fast trivialen Vorbehalts werden Daten und Statistiken regelmäßig in voller Überzeugung in Umständen und für Zwecke verwendet, wo ein begründetes Vertrauen gar nicht gegeben sein kann. Meinungs- und Medienforschung haben durch allerlei Veränderungen und Versagungen gegenüber früher sehr stark an allgemeinem Vertrauen eingebüßt, werden aber deswegen ganz und gar nicht aufgegeben und weiterhin meistens nur bei expliziten Interessenkonflikten hinterfragt.

Während der Brexit-Volksabstimmung am 23.6. hat Ben Riley-Smith vom Daily Telegraph den Alterssplit einer Umfrage von YouGov vertwittert, wonach rd. 75% der 18-24-Jährigen für einen Verbleib des UK in der EU stimmen würden.

Während Rhiannon Lucy Cosslett Freitag zu Mittag in der Einleitung zu einer Guardian-Debatte zeitfalsch aber sonst korrekt "Three-quarters of young people – a massive mandate – are predicted to have voted remain, according to a YouGov poll ..." schrieb, ist die Formulierung im fast gleichzeitig erschienenen Feature von Elena Cresci schon viel faktischer: "According to polling data from YouGov, 75% of 18- to 24-year-olds voted to remain in the European Union."

Die "eindrucksvollste" Zahl dieser Umfrage wurde also vom Guardian ausgewählt und von sehr vielen Journalisten und Medien auf dem Kontinent weiterverbreitet. Trotz aller Skepsis zur Genauigkeit von Meinungsumfragen werden jetzt die 75% in Facebook, Twitter und Co geteilt, zitiert, wiederholt und wiederholt. Dabei wird oft noch weiter verallgemeinert. Sätze wie "die Jungen sind für den Verbleib" werden formuliert.

Niemand fragt in den kontinentalen Medien und in den friends' and followers' Posting-Schlangen nach dem wohl knapperen Prozentsatz für die 25-35-Jährigen (laut YouGov immer noch 56% der 25-49-jährigen für "Remain"), niemand fragt nach Methodik und Kontrolle des Umfrageverfahrens. Dabei war je gerade YouGov in seinem "On-the-day recontact poll" 52% für Remain und 48% für Leave als final figures publiziert. Man kann wohl zu Recht vermuten, dass die 75%-Prognose für die 18-24jährigen auch zu hoch gelegen war. Trotzdem wird sie in den Schatz der Wahrheiten bei den politisch interessierten Europaanhänger eingehen.

Die Mechanismen, durch die Wahrheiten entstehen sind weiterhin Glaubenwollen, Weitersagen, Wiederholung und Übereinkunft und nicht eine kühle und kompetente Überprüfung wissenschaftlicher, technischer und mathematischer Prozesse. Bei den rationalen Vorwärtsschauern ganz genau so wie bei den angeblich so irrationalen Rückwärtsgewandten.

Vertrauen ist gut, ...

Bei halbwegs korrekter Anwendung sollten Datensammlung und Methoden von statistischen Verfahren transparent und überprüfbar sein. Der Wladimir Lenin zugeschriebene Aphorismus "Vertrauen ist gut, Kontrolle ist besser" ist wie die meisten solchen Wendungen zwar nirgends belegt, die Zitierung der russischen Beamtenregel "Vertraue, aber prüfe nach" dagegen mehrfach und schriftlich. Schon die Möglichkeit zum Gegencheck durch Außenstehende kann das Vertrauen steigern, eine regelmäßige Durchführung umso mehr.

Vertrauen in Methoden beruht auf Vertrauen in Personen und Institutionen, deren Vorgeschichte und die Macht der Rationalität. Oft werden Studien von den jeweiligen Interessenten finanziert und gesteuert. Die Medienwirtschaft produziert die Medienstudien. Politische Parteien, Ämter und Medien beauftragen Meinungsstudien, der statistischen Nachweis zu Wirkungen und Nebenwirkungen von Arzneien wird von und unter Mitwirkung von Pharma-Konzernen erbracht. "Vertraue aber prüfe" erscheint mehr als angebracht.

Nur veri- und falsifizierbare Metriken zu verwenden, mag ein Ideal sein. Es gibt aber viele Fälle, in denen die Überprüfung noch komplexer oder schwieriger finanzierbar ist als die eigentliche Messung und Verarbeitung.

... Kontrolle ist besser

Der offensichtliche, wissenschaftstheoretisch recht mittelmäßige, aber am weitesten verbreitete Lösungsweg für dieses Problem ist der Einsatz von leichter prüfbaren Metriken an Stelle der für die Beantwortung der untersuchten Fragen nützlichsten. Die nur Stichproben ziehende Durchführung von Checks ausgewählter Teildaten und Teilprozesse, immer dort, wo es leicht durchführbar erscheint, ist der zweite etwas zweifelhafte Weg, Vertrauen durch Prüfung zu erzeugen.

Für die meisten aussagekräftigen und belastbaren Metriken sind Unmengen von Daten notwendig. Der Datensammel-Prozess selbst ist prinzipiell von außen schwer prüfbar. Wenn eine Organisation, die Daten selbst gesammelt hat oder Zugang zu einer großen Datensammlung hat, fähig und entschlossen ist, vor der eigentlichen Verarbeitung die Daten zu "behandeln", ist das extrem schwer zu entdecken.

Die Verteilung der einzelnen Aufgaben und Verantwortlichkeiten innerhalb des Verfahrens erscheint zur Zeit als aussichtsreichste Methode, um Betrug und Manipulation in der statistischen Arbeit zu bekämpfen. Diese Vorgehensweise ist weniger effizient und teurer als eine, in der ein Team oder eng integrierte Teams alles machen. Sie wird deswegen in vielen Feldern noch kaum angewendet.

Wahlhochrechnungen sind im Gegensatz zu Vorwahlumfragen ein positiver Fall. Die Daten werden ganz objektiv und mit integrierter Prüfung in Zusammenarbeit von politischen Aktivisten und Wahlbehörden erfasst und aggregiert. Ein Experten-Team, deren einziges Interesse sein kann, sich dem richtigen Ergebnis schnell anzunähern entwickelt Modelle, um mit Teildaten und unter Hinzunahme von historischen Erfahrungen und Trends kurz nach Wahlschluss das Ergebnis vorausberechnen zu können. Dazu kommt auch, dass der Wahlvorgang meist eine sehr einfache Frage, die nur 2 - 10 definierte und nicht verknüpfte Werte annehmen kann.

Alles kann schiefgehen

Die Vorgänge bei der österreichischen Präsidentschaftswahl zeigen aber, dass Gewohnheit und Bequemlichkeit selbst in so einem Fall potentiell Unregelmäßigkeiten entstehen lassen können.

Ein weiteres gutes Beispiel für die Anwendung der Aufgabenteilung ist das britische
Broadcasters' Audience Research Board (BARB). Nicht nur kontrollieren sich in so einer Organisation die Teilnehmer gegenseitig, hier sind auch die Aufgaben auf gleich 3 im Wettbewerb stehende Dienstleister verteilt.

Ein kleines Land, kleine Märkte und Geldmangel führen auch da zu Problemen. Vier Jahre lange konnte in der GfK-Austria der Radiotest manipuliert werden, ohne dass etwas auffiel. Bei einer Aufgabenverteilung anstelle einer Komplettlösung durch einen Dienstleister mit wahrscheinlich nur reiner Plausibilitätskontrolle durch die Hauptauftraggeber RMS und ORF, wäre das wohl viel schwerer möglich gewesen.

Noch problematischer ist die Anwendung von Blackbox-Plattformen im kommerziellen Bereich.

Wahrscheinlich müssen all die verschiedenen Institute und Auftraggeber, die in den letzten Jahren durch schlechte Ergebnisse, teilweise dumme Konkurrenz und Liebedienerei sowie durch verschiedene kleinere Manipulationsskandälchen viel Vertrauen eingebüßt haben, dringend mehr Verantwortungsteilung ins Auge fassen. Und die Auftraggeber des Radiotests sollten dringend überlegen, ob sie nicht auch eine schlagkräftigere Organisation brauchen, die sich mit einer Geschäftsstelle sowie den üblichen Kommissionen und Beiräten die Entwicklung und Durchführung ihres Messinstruments kontrolliert und verantwortet.

"Erfolg" gibt Dir immer recht ...

Nichts gibt Dir mehr Recht als eine Kombination aus offensichtlichem Erfolg, gleichzeitigem Misserfolg der Konkurrenz und intelligenter Kommunikation bei der Erklärung hinterher. George Gallup setzte sich und sein Institut auf die politische und mediale Landkarte, als es den Sieg Roosevelts 1936 richtig voraussagte und die Konkurrenz meilenweit daneben lag. Diverse Erklärungsvorträge des smarten Mr. Gallup mit seinem akademischen Hintergrund taten ein übriges.

An den Zahlen von Facebook und Google zweifelt außer ihren Feinden und den Verlierern kaum jemand öffentlich, obwohl die Datensammlung und vor allem die Datenverarbeitung bei beiden Konzernen mehr als intransparent sind. Bei Facebook übrigens deutlich mehr als bei Google. Beide veröffentlichen Whitepapers und Artikel zu allen möglichen Aspekten und Fragen zum Thema, aber letztlich handelt es sich bei der Statistik-Produktion von beiden um intransparente, extrem komplexe Black-Boxes unter privater Eigentümerschaft. Diese Eigentumsverhältnisse sind nicht der unwichtigste Grund dafür, dass die Datenprozesse aller dieser Konzerne im Gegensatz zu staatlichen Statistiken nur durch richtig wenige Transparenz-Gebote und sehr viel Schutz aus dem Wettbewerbsrecht reguliert werden.

Das ist aber nicht, worauf es ankommt. Worauf es ankommt, ist, dass hier die offensichtliche und intuitive Alltagswahrnehmung und sorgfältig darauf abgestimmte Zählergebnisse in Kombination Gewissheiten schaffen, die manchmal erstaunlich sind und an denen Zweifel und Kritik abperlen wie große Wassertropfen an der Goretex-Membran.

Wie leicht die führenden IT- und Internetkonzerne anderen Entscheidungsträgern und Meinungsmultiplikatoren in Wirtschaft, Politik und Medien passende Mythen einreden können, hat schon den einen oder anderen von uns kritischen Geistern geärgert oder gar beunruhigt. Die einzige Möglichkeit, die dem bemühten Beobachter noch bleibt, ist, Aussagen und Publikationen von Google, Amazon, Facebook und anderer Playern zu studieren, unter einander und mit den eigenen, lokal beschränkten Daten zu vergleichen und zu hoffen, dabei Widersprüche, Abweichen und kleine Risse in den Betonwänden entdecken zu können. Und das ist erst die halbe Miete.

Was Menschen glauben möchten, das werden sie glauben. Und was die Menschen glauben möchten und können, das hängt davon ab, ob es für sie einen Sinn ergibt und wenigstens irgendwie mit ihrer persönlichen Erfahrung zusammenpasst. Für die einen ist die Quantenphysik eine Religion, die zu verstehen sie nur vorgeben und für die anderen ist die biologische Evolutions ein wissenschaftlicher Irrtum, der nur erfunden wurde, um die Menschheit davon abzuhalten, durch freiwilliges moralisches Bemühen ihre gottgegebenen Ziele zu erreichen.

plink, nix,    praise or blame!
 

 
last updated: 08.04.18 18:48
menu

Youre not logged in ... Login

Februar 2019
MoDiMiDoFrSaSo
123
45678910
11121314151617
18192021222324
25262728
April
Made with Antville
powered by
Helma Object Publisher
recently modified
Data Scandal: Just a symptom - apologies irrelevant
If we consider the helpless whining and simulated outrage top media executives and federal politicians show in the face of "social networks'" data scandals we....
by StefanL (08.04.18 18:48)
Joys of Democracy
Das Schönste an der heutigen Zeit ist, dass sehr schnell nichts so passiert, wie irgend jemand es will. Früher dauerte das länger.
by StefanL (15.03.18 06:58)
On The Cover Of Just Any Magazine
Author: Shel SilversteinArtists: Dr. Hook & the Medicine ShowAlbum: Dr. Hook & the Medicine ShowSong: On the Cover of the Rolling Stone Uncle Shelby will be....
by StefanL (11.03.18 07:43)
Great Jewish Songs: An Overview
This is an overview of our comments on great Jewish songs and lyrics some of which belong to the romantic repertoire of Jewish standards. For....
by StefanL (11.03.18 07:32)
Der Frühling kommt sicher - und mit ihm ein Märchen
Autor: Georg KreislerKünstler: Georg KreislerAlbum: Die Georg Kreisler PlatteSong: Frühlingsmärchen Der Frühling kommt jetzt real und im Kalender in knapp 2 Wochen. Hurra. Viel braucht niemand....
by StefanL (11.03.18 07:31)
No Petting Zoo, Really?
Austria's top online and digital media strategist of the Austrian Broadcasting Corporation (ABC), Herr Thomas Prantner, who's turn in office is about to complete its....
by AlexanderL (11.03.18 07:26)
Rhetorikschule
Wenn man sich nur an Frau Dr. Fuchs und Onkel Donald hielte, man könnte flugs alles sagen, was wirklich wichtig ist:Schockschwerenot! Mir Schnurz!
by StefanL (11.03.18 07:21)
Neulich in der österreichischen Presse
Auf diepresse.com gibt es Poster, für die ist Helmut "alles war immer korrekt und nie flog ich wo raus" Brandstätter viel zu rot und praktisch....
by StefanL (08.03.18 07:30)
Back To The Coffee House, For Sure
Every now and then, a member of our staff turns up at a news-stand, produces oldstyle coin or paper money and buys the odd magazin....
by AlexanderL (08.03.18 07:15)
Yet Another Gutlessly Copied Grid
After many years of having forced us to stare at leaden deserts all over the world wide web, media houses finally start to come to....
by StefanL (08.03.18 07:11)
So viel Bild gab's noch nie!
Nicht mal bei Bild, dem führenden Online Medium von Kultur-Deutschland. Und das Ganze garantiert und todsicher nicht "zeitungsähnlich". ZDF-Relaunch treibt Bewegtbildstrategie weiter voran Das ZDF bringt seine....
by AlexanderL (08.03.18 06:58)
A CBC Gem On International Political Data Analytics
Diese kleine Recherche des kanadischen öffentlich-rechtlichen Rundfunks zur internationalen Verflechtung von Data Analytics Startups, ihrer Finanzierung, der Wichtigkeit von ordentlichen Datenschutzgesetzen und der Schwierigkeit, ihre....
by StefanL (06.03.18 07:59)
Just like to add a newer link
As neural network research has exploded in recent years there are now lots more papers and abstracts on the net. Everybody can goog or bing....
by StefanL (28.02.18 15:18)
Eurohacking
What's up today? Just wrote a little crying piece on Eurohacking in answer to Brian Foote on Marianns site. Just hope it's not too crying.....
by StefanL (28.02.18 15:00)
Twelve And Eighteen Years Ago
Come with us and take a look at the Internet euphoria and idiocies of the turn of the millenium. Here is the Cluetrain Manifesto, published in....
by StefanL (24.02.18 11:06)

RSS Feed