Politik neuen Stils - Einstimmige Abstimmungsergebnisse

Wer glaubt, dass der neue Stil in der Politik (harmonisch) neu ist, irrt. In der österreichischen Bundespolitik zwar schon echt lange nicht mehr praktiziert, gibt es ihn, da, wo echt was weitergeht mit Entschlusskraft und Reformfreudigkeit, nämlich in der bayrischen und österreichischen Regionalpolitik schon lange und auch durchgehend.

Aus aktuellem Anlass auch wieder vom bekannten Afrika-Experten, Politikwissenschafter und meinem verehrten Demokratie-Lehrer G. Polt im jüngst vergangenen August 2017 wieder einmal meisterlich erklärt.

plink,  only 1 comment,    praise or blame!
 

New Irresistible Offer

Wanna know why Facebook really is the best and most successful simulation of a permanent party for a billion people and works locally too? Wanna know where, when and why it does not do its supposed magic?

TinyTalk plc now offers a 3 months intensive course where you will learn the truth and how to handle it. You will be taught by the best of the best of the best and, if attractive, even have a free choice of which alien race will abduct and, of course pleasurably, sexually abuse you, all preferences included.

Prices start from $1,499.55. Be sure to inquire for discounts and surcharges according to sex, age, race, household income and educational level. All communications will have to be adressed to tinytalk-services(at)jambiz.co.jm.

Stop being a loser and turn around for sustained success!

PS: new on the blog roll: Prof. Joanna J. Bryson and DI Oberhammer. Both on the wanker-platform, but nevertheless.

plink, nix,    praise or blame!
 

Neue (unvollendete) Serie "Messung, Intuition, Vertrauen, Komplexität"

In unserer neuen Serie betrachtet die tiny-Redaktion die guten und schlechten Dinge, die mit der immer weitergehenden Durchdringung aller Lebensbereiche durch Sensoren, Messfühler, Quantifizierung, Algorithmen, Kompetenzverlust usw. einhergehen.

Redakteur StefanL fasst die Diskussionen und Überlegungen des tiny-Stabes zusammen und versucht, sie in 8 halbwegs verständlichen Kapiteln auf den Punkt zu bringen.

plink, nix,    praise or blame!
 

Messung und Komplexität

Messung, Intuition, Vertrauen, Komplexität, Teil 5

Was Menschen glauben möchten, das werden sie auch glauben. Und was die Menschen glauben möchten und können, das hängt davon ab, ob es für sie einen Sinn ergibt und wenigsten irgendwie mit ihrer persönlichen Erfahrung zusammenpasst. Davon abweichende Erkenntnisse sind stabil nur in engen Expertenfeldern möglich, wo das Wissen und Vertrauen in komplexe Methoden und Modelle durch deren wiederholte Anwendung groß genug werden kann, dass Alltagserfahrung und Sinn-Sehnsucht durchbrochen werden. Darüber können die Expertinnen sich aber nur untereinander austauschen. Nach außen ist es so, dass sich nur dann, wenn alle oder ausreichend qualifizierte Mehrheiten unter ihnen die gleichen, an das Verständnis des Publikums angepassten, Aussagen machen, eine neue und schwierige Vorstellung, die sich aus der wissenschaftlichen Forschung ergibt, durchsetzen kann.

Oft nur oberflächlich, wie zum Beispiel die Heisenberg'sche Unschärferelation oder das Orbitalmodell des Atoms. Wer kann sich schon vorstellen, wie eine stationäre Lösung der quantenmechanischen Schrödingergleichung aussieht oder gar wie sie sich anfühlt. Das bewiesenermaßen falsche Planetenmodell des Atoms dagegen, das können alle begreifen und sich vorstellen. Hier stehen wir nun mit unserem Vertrauen in Zahlen und Rechnen und müssen begreifen, dass wir gar nicht anders können. Immer noch kann Sicherheit in der Einschätzung nur durch Übereinkunft hergestellt werden.

Außer vielleicht im engsten Bereich der eigenen Expertise und häufig geübten Praxis ist das Verständnis komplexer Systeme durch die beschränkte Vorstellungskraft und das unmittelbare Reflexionsvermögen begrenzt. Metriken und Messungen können Komplexität ordnen und vielleicht reduzieren und haben gleichzeitig das Potential, sie über den Bereich hinaus, in dem Intuition und direktes Vertrauen in die Fakten und sich selbst noch möglich sind, auszudehnen.

Das impliziert, dass wir heute jede Menge Messsysteme für die Kontrolle, der komplexen Systeme, die wir geschaffen haben, unabdingbar brauchen und parallel dazu die Sachlage dauernd verschlimmern.

Durch die dynamische Erzeugung von Mess- und Steuerungsdaten verändern Mess- und Regelwerke die Systeme für deren Messung, Bewertung und nicht selten Kontrolle sie geschaffen wurden. Das Verhalten menschlicher Organisationen wie z.B. Unternehmen ist eine Funktion des reziproken Verhältnisses zwischen den Strukturen und Regeln der Organisation und den Handlungen der Personen in und außerhalb der Organisation. Und gar nichts davon ist statisch und bleibt, wie es ist.

Vereinfachung durch Messung

Jede Metrik ist eine Art Summen- oder Zusammenfassungsstatistik. Eine Zusammenfassung ersetzt kein Buch und ihre Verwendung ohne genaue Kenntnis des Ganzen kann das Verständnis erheblich reduzieren.

Mehr noch, Vereinfachungen führen oft zu schlechten Informationen und verzerrten Steuerungsentscheidungen innerhalb des Systems. Das ist der Kern dessen, was Goodhart's Law bedeutet. Die Anwendung der Messergebnisse verändert das gemessene System. Möglicherweise wird dadurch die Anwendung inadäquat.

Wenn man beginnt, nach den Effekten dieses Prinzips zu suchen, findet man sie in allen modernen System. Messergebnisse sind zu teuer und zu wertvoll, um nicht angewendet zu werden und zu bedeutend, um das gemessene System nicht zu verändern. Jeder weiß, dass die Quotenmessung die Medien verändert hat und weiter verändert. Und aus der Teilchenphysik wissen wir, wie die Einwirkung der Beobachtung auf die Messung ganz grundlegend beschränkend sein kann.

Komplexität ruiniert alles

Komplexe System haben komplexe Probleme, die gelöst werden müssen. Messergebnisse können die Vorstellung von Vereinfachung erzeugen, aber die zugrunde liegende Komplexität nicht reduzieren.

Das führt oft dazu, dass Messergebnisse die Tendenz haben, Probleme zu verbergen anstatt zu ihrer Lösung beizutragen. Und das wiederum steht in engem Zusammenhang mit der geforderten Lesbarkeit der Messung.

Das Versagen von Steuerung mittels Messergebnissen wird besonders wahrscheinlich, wenn die Dimensionalität reduziert wird, wenn die Kausalität nicht klar ist, d.h. es nichts weiter als eine statistische Koinzidenz gibt und wenn die Verwandlung von Metriken in Zielvorgaben Missverständnisse schafft.

"Lesbarkeit" als Rezept für das Scheitern

James Scott hat in "Seeing Like a State: How Certain Schemes to Improve the Human Condition Have Failed", dieses Muster des Scheiterns historisch untersucht: "The more I examined these efforts at sedentarization, the more I came to see them as a state’s attempt to make a society legible, to arrange the population in ways that simplified the classic state functions of taxation, conscription, and prevention of rebellion."

Die meisten Staaten betrieben übrigens die Vermessung ihrer Menschen und Landschaften primär in der genuinen Überzeugung, damit das Los ihrer Bevölkerungen nachhaltig verbessern zu können und nur selten und sekundär aus den ihren Funktionären oft unterstellten Motiven der Herrschaftsfantasie, Machtgier und Unterdrückungswut. Das trifft genauso auf die großen Internet- und Einzelhandelskonzerne zu, die derzeit gerade die Vermessung ihrer Kunden, ihrer Mitglieder und der Welt auf ein Niveau bringen, von dem der schlimmste Überwachungsstaat nicht einmal zu träumen wagte.

Der fundamentale Denkfehler der daten- und abstraktionbasierten Vorstellung von der "Lesbarkeit" der Welt liegt in der Annahme dass dynamische, erfolgreiche, lebendige Systeme bezüglich ihrer umfassenden Struktur, Funktionen und Kausalität verständlich und lesbar sein müssen. Oder zumindest, dass sie für das alles sehende wissenschaftlich-statistische, über den Dingen schwebende "Auge" les- und verstehbarer sind als für die in den Prozess eingebundenen Ohren, Augen und Nasen auf dem Boden.

Komplexe Realitäten strafen diese Auffassung Lügen. Die Gesamtheit eines Waldes versteht man durch das Gehen und Liegen unter den Bäumen, durch das "Absorbieren" seiner "Gestalt" und durch Interaktion als holografisch-fraktales Element seiner Prozesse besser und richtiger als aus den luftigen Höhen noch so vieler Tabellen und Satellitenaufnahmen, ohne die einem aber auch am Boden nicht so wenig, vielleicht Wichtiges, entgehen wird.

Das heißt nicht, dass ein statistisch lesbar gestalteter Wald und das wissenschaftliche Verständnis seines Funktionieren nicht gewisse Nutzungen für den Menschen sehr befördern kann. Es heißt auch nicht, dass "wissenschaftlich" gemanagte Unternehmungen, gemessen an den definierten Zielen, nicht sehr erfolgreich sein können. Die längerfristigen Folgen solchen Handelns können aber oft nicht oder nur schwer abgeschätzt werden.

Reduktion der Dimensionen

Alle Metriken reduzieren Dimensionalität und Wertbandbreite. Die einzelne Zahl repräsentiert nie alle Aspekte eines Zustands. Die Ökonomie versteht sich selbst gerne als die Wissenschaft der Verteilung von knappen Gütern. Vereinfachen wir jetzt einmal die Lehrveranstaltungen einiger Semester lassen dabei die ganz schweren mathematischen Teile aus.

Nehmen wir an, wir reden von n Menschen und x verschiedenen Arten von Gütern. Das hat zur Folge, dass jede Verteilung einen Punkt in einem Koordinatensystem mit (n-1)*g Dimensionen darstellt. Jede von den n Personen kann jede der x verschiedenen Güter anders bewerten. Die Werte, die von den Menschen in die Distribution eingebracht werden, sind Punkte in einem n-dimensionalen Raum. Das ist komplex und kaum vorstellbar. Ökonomen einigen sich meist auf vereinfachende Annahmen über menschliche Präferenzen, vereinbaren Aggregationen und gelangen am Ende zu ein- oder zweidimensionalen Skalen für die Bewertung der Nützlichkeit und Begehrenswertigkeit von Gütern. Am Ende erklären sie uns dann, wie ihre Algorithmen Begehren, Nutzen und Verteilung optimal miteinander verbinden können.

Die ökonomische Wissenschaft kann sehr wohl kritisch sein. So hat der späteren Nobelpreisträgers Kenneth Arrow bereits 1951 das nach ihm benannte Arrow-Theorem publiziert, dessen Gegenstand das Verhältnis zwischen dem Wollen von Individuen und der gesellschaftlichen Entscheidung ist. Das Theorem stellt die Möglichkeit einer eindeutigen Bestimmung eines „Gemeinwohls“ mit Hilfe abstrakter Regeln, in moderner Redeweise die algorithmische Bestimmung eines optimalen Vorteilszustands für möglichst viele, in Frage.

Obwohl das Arrow-Parodoxon und seine Erweiterungen also zeigen, dass es keinen Algorithmus für die Herstellung von allgemeinem Wohl geben kann, werden solche Erkenntnisse im Rest der Sozial- und Wirtschaftswissenschaften weitgehend ignoriert. Das erhält die gut bezahlten Jobs und die Illusion der deterministischen Machbarkeit freien Wirtschaftens und fairer Politik aufrecht. Auf dieser Illusion aber beruhen alle Fantasien über die schöne neue Welt, die uns Software, Silikon und ihre Vernetzung durch Kapitalgesellschaften mit "Do no Evil"-Ethiken bescheren können.

Die Kausalität ist ein "Hund"

Die philosophische und wissenschaftliche Definition von Kausalität ist heute strittiger denn je. Halten wir es trotzdem einfach. A verursacht B, dann, wenn im Fall einer (magischen) Manipulation von A und nichts anderem, bei B eine Veränderung eintritt.

In der Praxis ist das Verständnis der Kausalität im angewendeten Modell immer schwer, weil monokausale Analysen außer in den aller-einfachsten Experimenten stets problematische Logiken erzeugen.

Die Komplexität eines Sachverhaltes spiegelt sich in der Wahrnehmung mit einer Fülle von Details, für die es auf den ersten Blick keine Abstraktion gibt, die Menge und Dichte der relevanten Einzelheiten verkleinern könnte.

Komplexität in biologischen Systemen mit autonomen Einheiten, z.B. Gesellschaften, ist ein Resultat nicht determinierten Verhaltens dieser Einheiten, z.B. der Menschen. Wieder erkennbare und sich wiederholende parallele Muster in den Daten nennt man Korrelation. Für die Hypothesen- und Theoriebildung wird für so eine Korrelation eine Hypothese zu einer dahinter liegenden Ursache gebildet. Diese Hypothese ist ohne Nachweis aber wenig wert und kann leicht zu Modellfehlern führen.

Quelle: C:\fakepath\correlation-causality.jpg Randall Munroe Licence: CC BY-NC 2.5 Korrelation impliziert keine Kausalität, aber sie wackelt immer verführerisch mit den Augenbrauen und flötet: Schau her!

All das führt in den entsprechenden Wissenschaften Ökonomie, Soziologie, Politologie etc. zu vielen diachron und synchron konkurrierenden Theorien und allerhöchsten zu partialen Einigkeit verschiedener "Schulen". Diese Theorien wählen jeweils aus dem sich dynamisch verändernden Datenbestand ganz unterschiedliche Pakete aus und setzen diese auch in stets unterschiedlich gebaute Beziehungssysteme ein.

Konsequenzen unsicherer Kausalität

Zur Risiko-Einschätzung sowohl für komplexe Naturphänomäne (z.B. Erderwärmung) als auch für große von Menschen konstruierte Systeme (z.B. Kernkraftwerke, Luftverkehrsleitsysteme, autonome Fabriken oder Handelssysteme) gibt es weder zwischen einzelnen Menschen noch zwischen Staaten viel Einigkeit. Zur Sinnhaftigkeit und Effizienz der bereits eingesetzten Steuerungsmechanismen und denen, die in Zukunft zum Einsatz kommen sollen, noch viel weniger.

Viele Untersuchungen zeigen weiterhin, dass auf Sensoren und Messwerten basierende Maßnahmen und Mechanismen, die darauf zielen, Risiken durch ihren Einbau oder ihre Nachrüstung zu reduzieren oder zu beherrschen, nicht selten zu einer weiteren Steigerung der Komplexität und zu noch mehr unkontrollierbaren Interaktionen führen.

Kausalität wissenschaftlich modellieren

Um Kausalität für wissenschaftliche und technische Systeme darstellen und verwenden zu können, braucht man einen Formalismus. In der klassischen Physik waren das die heute berühmten und in höheren Schulen und den ersten Studienabschnitten vieler Fächer unterrichteten und damit eigentlich zur Allgemeinbildung gehörenden Gleichungen und Gleichungssysteme.

Aktuell werden für die Darstellung von Kausalitätsbeziehungen gerne grafische Formalismen eingesetzt. Manche haben wahrscheinlich schon in einem ambitionierteren Artikel zum Thema Big Data die Abkürzung DAG (Directed Acyclic Graph) gelesen bzw. überlesen.

Quelle: C:\fakepath\health_hart.png Das ist ein Graph, der den Wirkungszusammenhang von Gesund-Leben-Bewusstheit, Zähneputzen und Herzerkrankungen formalisiert, verständlich und richtig darstellen soll.

Mehr aus der Serie "Intuition, Messung, Vertrauen, Kompexität":

plink, nix,    praise or blame!
 

Messen und Vertrauen

Messung, Intuition, Vertrauen, Komplexität, Teil 4

Die Verwendung von Messergebnissen setzt Vertrauen in die Datensammlung und die Methoden für Umwandlung und Aggregation der Daten in den Messinstrumenten voraus.

Wir stellen selten in Frage, dass die Veränderung von Quecksilbersäulen oder Metallplättchen mit dem Steigen der Temperatur in allerlei Thermometern vom Fiebermesser bis zur Wetterstation ein reproduzierbares und richtiges Verhältnis haben.

Unser Gefühl sagt uns vielleicht mit Gewissheit, dass Herr K. unter unseren Mitarbeitern oder Kollegen die größte Pfeife ist. Die Erfassung und Quantifizierung von Leistungswerten kann so ein Vorurteil unter Umständen sinnvoll korrigieren und zeigen, dass Herr K. viel mehr leistet als seine leise Stimme und gebückte Körpersprache vermuten lassen.

Frau X. hat vor dem Einstellungsgespräch einen hervorragenden Lebenslauf mit exzellenten Zeugnis-Noten und sogar Erfolgszahlen aus dem vorigen Job vorgelegt. Das hilft bei der Entscheidung nur dann, wenn man das Vertrauen hat, dass Frau X. korrekte und echte Dokumente mit Daten in der richtigen Auswahl vorgelegt hat oder man die Daten irgendwie überprüfen kann.

Es gibt Lügen, ...

Statistik ist wie andere Disziplinen auch ein Denksystem. Sie kann nicht verhindern, dass wir uns selbst oder andere belügen. Sie ist aber oft gut geeignet, uns dabei zu helfen, dass uns andere nicht so leicht erfolgreich Blödsinn erzählen können.

Das setzt voraus, dass wir für den betrachteten Fall der Datensammlung und den Verarbeitungsmethoden, die verwendet wurden, vertrauen können. Wie das Sprichwort sagt, "es gibt Lügen, verdammte Lügen und ....". Die mannigfaltigen Schwierigkeiten des Datensammelns und die Komplexität und Flexibilität der statistischen Methodologie verbergen alle Unterschiede, jedenfalls für diejenigen, die im gegebenen Fachgebiet keine trainierten Spezialisten und Experten sind, also die meisten Leute, die mit den fraglichen Zahlen umgehen und sie verwenden.

Trotz dieses schon fast trivialen Vorbehalts werden Daten und Statistiken regelmäßig in voller Überzeugung in Umständen und für Zwecke verwendet, wo ein begründetes Vertrauen gar nicht gegeben sein kann. Meinungs- und Medienforschung haben durch allerlei Veränderungen und Versagungen gegenüber früher sehr stark an allgemeinem Vertrauen eingebüßt, werden aber deswegen ganz und gar nicht aufgegeben und weiterhin meistens nur bei expliziten Interessenkonflikten hinterfragt.

Während der Brexit-Volksabstimmung am 23.6. hat Ben Riley-Smith vom Daily Telegraph den Alterssplit einer Umfrage von YouGov vertwittert, wonach rd. 75% der 18-24-Jährigen für einen Verbleib des UK in der EU stimmen würden.

Während Rhiannon Lucy Cosslett Freitag zu Mittag in der Einleitung zu einer Guardian-Debatte zeitfalsch aber sonst korrekt "Three-quarters of young people – a massive mandate – are predicted to have voted remain, according to a YouGov poll ..." schrieb, ist die Formulierung im fast gleichzeitig erschienenen Feature von Elena Cresci schon viel faktischer: "According to polling data from YouGov, 75% of 18- to 24-year-olds voted to remain in the European Union."

Die "eindrucksvollste" Zahl dieser Umfrage wurde also vom Guardian ausgewählt und von sehr vielen Journalisten und Medien auf dem Kontinent weiterverbreitet. Trotz aller Skepsis zur Genauigkeit von Meinungsumfragen werden jetzt die 75% in Facebook, Twitter und Co geteilt, zitiert, wiederholt und wiederholt. Dabei wird oft noch weiter verallgemeinert. Sätze wie "die Jungen sind für den Verbleib" werden formuliert.

Niemand fragt in den kontinentalen Medien und in den friends' and followers' Posting-Schlangen nach dem wohl knapperen Prozentsatz für die 25-35-Jährigen (laut YouGov immer noch 56% der 25-49-jährigen für "Remain"), niemand fragt nach Methodik und Kontrolle des Umfrageverfahrens. Dabei war je gerade YouGov in seinem "On-the-day recontact poll" 52% für Remain und 48% für Leave als final figures publiziert. Man kann wohl zu Recht vermuten, dass die 75%-Prognose für die 18-24jährigen auch zu hoch gelegen war. Trotzdem wird sie in den Schatz der Wahrheiten bei den politisch interessierten Europaanhänger eingehen.

Die Mechanismen, durch die Wahrheiten entstehen sind weiterhin Glaubenwollen, Weitersagen, Wiederholung und Übereinkunft und nicht eine kühle und kompetente Überprüfung wissenschaftlicher, technischer und mathematischer Prozesse. Bei den rationalen Vorwärtsschauern ganz genau so wie bei den angeblich so irrationalen Rückwärtsgewandten.

Vertrauen ist gut, ...

Bei halbwegs korrekter Anwendung sollten Datensammlung und Methoden von statistischen Verfahren transparent und überprüfbar sein. Der Wladimir Lenin zugeschriebene Aphorismus "Vertrauen ist gut, Kontrolle ist besser" ist wie die meisten solchen Wendungen zwar nirgends belegt, die Zitierung der russischen Beamtenregel "Vertraue, aber prüfe nach" dagegen mehrfach und schriftlich. Schon die Möglichkeit zum Gegencheck durch Außenstehende kann das Vertrauen steigern, eine regelmäßige Durchführung umso mehr.

Vertrauen in Methoden beruht auf Vertrauen in Personen und Institutionen, deren Vorgeschichte und die Macht der Rationalität. Oft werden Studien von den jeweiligen Interessenten finanziert und gesteuert. Die Medienwirtschaft produziert die Medienstudien. Politische Parteien, Ämter und Medien beauftragen Meinungsstudien, der statistischen Nachweis zu Wirkungen und Nebenwirkungen von Arzneien wird von und unter Mitwirkung von Pharma-Konzernen erbracht. "Vertraue aber prüfe" erscheint mehr als angebracht.

Nur veri- und falsifizierbare Metriken zu verwenden, mag ein Ideal sein. Es gibt aber viele Fälle, in denen die Überprüfung noch komplexer oder schwieriger finanzierbar ist als die eigentliche Messung und Verarbeitung.

... Kontrolle ist besser

Der offensichtliche, wissenschaftstheoretisch recht mittelmäßige, aber am weitesten verbreitete Lösungsweg für dieses Problem ist der Einsatz von leichter prüfbaren Metriken an Stelle der für die Beantwortung der untersuchten Fragen nützlichsten. Die nur Stichproben ziehende Durchführung von Checks ausgewählter Teildaten und Teilprozesse, immer dort, wo es leicht durchführbar erscheint, ist der zweite etwas zweifelhafte Weg, Vertrauen durch Prüfung zu erzeugen.

Für die meisten aussagekräftigen und belastbaren Metriken sind Unmengen von Daten notwendig. Der Datensammel-Prozess selbst ist prinzipiell von außen schwer prüfbar. Wenn eine Organisation, die Daten selbst gesammelt hat oder Zugang zu einer großen Datensammlung hat, fähig und entschlossen ist, vor der eigentlichen Verarbeitung die Daten zu "behandeln", ist das extrem schwer zu entdecken.

Die Verteilung der einzelnen Aufgaben und Verantwortlichkeiten innerhalb des Verfahrens erscheint zur Zeit als aussichtsreichste Methode, um Betrug und Manipulation in der statistischen Arbeit zu bekämpfen. Diese Vorgehensweise ist weniger effizient und teurer als eine, in der ein Team oder eng integrierte Teams alles machen. Sie wird deswegen in vielen Feldern noch kaum angewendet.

Wahlhochrechnungen sind im Gegensatz zu Vorwahlumfragen ein positiver Fall. Die Daten werden ganz objektiv und mit integrierter Prüfung in Zusammenarbeit von politischen Aktivisten und Wahlbehörden erfasst und aggregiert. Ein Experten-Team, deren einziges Interesse sein kann, sich dem richtigen Ergebnis schnell anzunähern entwickelt Modelle, um mit Teildaten und unter Hinzunahme von historischen Erfahrungen und Trends kurz nach Wahlschluss das Ergebnis vorausberechnen zu können. Dazu kommt auch, dass der Wahlvorgang meist eine sehr einfache Frage, die nur 2 - 10 definierte und nicht verknüpfte Werte annehmen kann.

Alles kann schiefgehen

Die Vorgänge bei der österreichischen Präsidentschaftswahl zeigen aber, dass Gewohnheit und Bequemlichkeit selbst in so einem Fall potentiell Unregelmäßigkeiten entstehen lassen können.

Ein weiteres gutes Beispiel für die Anwendung der Aufgabenteilung ist das britische Broadcasters' Audience Research Board (BARB). Nicht nur kontrollieren sich in so einer Organisation die Teilnehmer gegenseitig, hier sind auch die Aufgaben auf gleich 3 im Wettbewerb stehende Dienstleister verteilt.

Ein kleines Land, kleine Märkte und Geldmangel führen auch da zu Problemen. Vier Jahre lange konnte in der GfK-Austria der Radiotest manipuliert werden, ohne dass etwas auffiel. Bei einer Aufgabenverteilung anstelle einer Komplettlösung durch einen Dienstleister mit wahrscheinlich nur reiner Plausibilitätskontrolle durch die Hauptauftraggeber RMS und ORF, wäre das wohl viel schwerer möglich gewesen.

Noch problematischer ist die Anwendung von Blackbox-Plattformen im kommerziellen Bereich.

Wahrscheinlich müssen all die verschiedenen Institute und Auftraggeber, die in den letzten Jahren durch schlechte Ergebnisse, teilweise dumme Konkurrenz und Liebedienerei sowie durch verschiedene kleinere Manipulationsskandälchen viel Vertrauen eingebüßt haben, dringend mehr Verantwortungsteilung ins Auge fassen. Und die Auftraggeber des Radiotests sollten dringend überlegen, ob sie nicht auch eine schlagkräftigere Organisation brauchen, die sich mit einer Geschäftsstelle sowie den üblichen Kommissionen und Beiräten die Entwicklung und Durchführung ihres Messinstruments kontrolliert und verantwortet.

"Erfolg" gibt Dir immer recht ...

Nichts gibt Dir mehr Recht als eine Kombination aus offensichtlichem Erfolg, gleichzeitigem Misserfolg der Konkurrenz und intelligenter Kommunikation bei der Erklärung hinterher. George Gallup setzte sich und sein Institut auf die politische und mediale Landkarte, als es den Sieg Roosevelts 1936 richtig voraussagte und die Konkurrenz meilenweit daneben lag. Diverse Erklärungsvorträge des smarten Mr. Gallup mit seinem akademischen Hintergrund taten ein übriges.

An den Zahlen von Facebook und Google zweifelt außer ihren Feinden und den Verlierern kaum jemand öffentlich, obwohl die Datensammlung und vor allem die Datenverarbeitung bei beiden Konzernen mehr als intransparent sind. Bei Facebook übrigens deutlich mehr als bei Google. Beide veröffentlichen Whitepapers und Artikel zu allen möglichen Aspekten und Fragen zum Thema, aber letztlich handelt es sich bei der Statistik-Produktion von beiden um intransparente, extrem komplexe Black-Boxes unter privater Eigentümerschaft. Diese Eigentumsverhältnisse sind nicht der unwichtigste Grund dafür, dass die Datenprozesse aller dieser Konzerne im Gegensatz zu staatlichen Statistiken nur durch richtig wenige Transparenz-Gebote und sehr viel Schutz aus dem Wettbewerbsrecht reguliert werden.

Das ist aber nicht, worauf es ankommt. Worauf es ankommt, ist, dass hier die offensichtliche und intuitive Alltagswahrnehmung und sorgfältig darauf abgestimmte Zählergebnisse in Kombination Gewissheiten schaffen, die manchmal erstaunlich sind und an denen Zweifel und Kritik abperlen wie große Wassertropfen an der Goretex-Membran.

Wie leicht die führenden IT- und Internetkonzerne anderen Entscheidungsträgern und Meinungsmultiplikatoren in Wirtschaft, Politik und Medien passende Mythen einreden können, hat schon den einen oder anderen von uns kritischen Geistern geärgert oder gar beunruhigt. Die einzige Möglichkeit, die dem bemühten Beobachter noch bleibt, ist, Aussagen und Publikationen von Google, Amazon, Facebook und anderer Playern zu studieren, unter einander und mit den eigenen, lokal beschränkten Daten zu vergleichen und zu hoffen, dabei Widersprüche, Abweichen und kleine Risse in den Betonwänden entdecken zu können. Und das ist erst die halbe Miete.

Was Menschen glauben möchten, das werden sie glauben. Und was die Menschen glauben möchten und können, das hängt davon ab, ob es für sie einen Sinn ergibt und wenigstens irgendwie mit ihrer persönlichen Erfahrung zusammenpasst. Für die einen ist die Quantenphysik eine Religion, die zu verstehen sie nur vorgeben und für die anderen ist die biologische Evolutions ein wissenschaftlicher Irrtum, der nur erfunden wurde, um die Menschheit davon abzuhalten, durch freiwilliges moralisches Bemühen ihre gottgegebenen Ziele zu erreichen.

plink, nix,    praise or blame!
 

 
last updated: 05.04.22, 07:16
menu

Youre not logged in ... Login

Mai 2024
So.Mo.Di.Mi.Do.Fr.Sa.
1234
567891011
12131415161718
19202122232425
262728293031
April
Made with Antville
powered by
Helma Object Publisher
recently modified
Geändert
Inzwischen hat Herr Fidler den Fehler erkannt und korrigiert sowie sich inzwischen bei den LeserInnen entschuldigt. Nur damit das nicht untergeht. Wir haben hier in der....
by StefanL (21.02.22, 09:17)
There has been evidence
that the important and successful ideas in MSFT - like licensing the Unix source code in the 70ies and learning from it and licensing QDOS....
by StefanL (02.01.22, 11:18)
Now
I think I maybe know what you meant. It is the present we know best and the future we invent. And history is mostly used....
by StefanL (02.01.22, 09:51)
???
Hey, it's just a phrase wishing to convey that you're always smarter after the event than before it.
by StefanL (28.12.21, 07:35)
Addendum
Oracle is now mentioned in the English Wikipedia article on teletext and even has its own article here. Electra has one too.
by MaryW (22.12.21, 07:11)
We have grossly erred
At least in point 5. We thought, people would have come to the conclusion that permanently listening to directive voices as an adult is so....
by MaryW (21.12.21, 07:42)
Did not want to spell the names out
Ingrid Thurnher should have been easy, as she is pictured in the article. Harald F. is an insider joke, the only media journalist in Austria,....
by StefanL (19.12.21, 08:45)
...
with four letters it becomes easier though i am not sure with hafi… anyhoo, inms guessing acronyms or whatever this is. *it’s not my steckenpferd
by tobi (24.11.21, 20:49)
Should be
pretty easy to guess from the context and image who HaFi and InTu are. Besides, thx for the hint to the open bold-tag.
by MaryW (22.10.21, 01:16)
Low hanging fruit
1 comment, lower geht es mathematisch schon aber psychosomatisch nicht.
by MaryW (15.10.21, 19:51)
...
da ist wohl ein <b> offen geblieben… und wer oder was sind HF und IT?
by tobi (25.09.21, 10:50)
manche nennen das
low hanging fruits, no?¿
by motzes (25.08.21, 20:33)
Freiwillige Feuerwehr
Wie ist das mit den freiwilligen und den professionellen Feuerwehren? Wenn 4 Häuser brennen und nur 2 Löschzüge da sind, dann gibt es doch eine....
by MaryW (22.07.21, 07:06)
Well
That is a good argument and not to be underestimated. I was convinced a malevolent or rigid social environment (the others) posed the largest obstacle....
by MaryW (18.07.21, 08:54)
Und noch etwas
Die Schutzkleidung ist ein großes Problem. Sie verhindert allzu oft, dass mann mit anderen Säugetieren gut umgehen kann.
by StefanL (26.05.19, 07:09)
Yeah
U get 1 big smile from me 4 that comment! And yes, i do not like embedded except it is good like this. It's like....
by StefanL (19.05.19, 16:30)
Mustererkennung
Just saying. #esc #strachevideo pic.twitter.com/OIhS893CNr— Helene Voglreiter (@HeeLene) May 19, 2019 (Sorry, falls embedded unsocial media unerwünscht ist…)
by tobi (19.05.19, 10:57)
Yeah
That's an adequate comment! Und das erste Zitat ein ganz besonders tolles Beispiel für den "Umschlag von Quantität in Qualität".
by MaryW (15.05.19, 19:57)
...
In the future everyone will be famous for fifteen people. – Momus You’ll always be a planet to me, Mr Bacchus. – Charon Fußnote! Find ick knorke.....
by tobi (15.05.19, 14:07)
...
what about hindsight is 20/20?
by tobi (05.05.19, 14:00)

RSS Feed