[Innenpolitik] Project Veritas Veröffentlichung über #YouTube and #Google 2019-06-29

Project Veritas hat am 24. Juni 2019 ein Video und schriftliche Information über die bewusste Meinungsmache durch Google und dessen Tochter Youtube veröffentlicht. Sie beweisen dass Inhalte und Suchanfragen von Benutzern auf Basis der einer politischen Agenda beeinflusst werden und versuchen die Wiederwahl von Präsident Trump (R) zu verhindern. Hierfür wird mindestens siet der Wahl von Trump (R) in 2016 gearbeitet.
  1. Fairness
  2. Algorithmic Unfairness
  3. The Good Censor

Fairness

Meinungsfreiheit und Demokratie gehen Hand in Hand. Für den freien Wettbewerb der Ideen ist die Möglichkeit Informationen und Ideen kennen zu lernen und selbst gehört zu werden definitionsgemäß unerlässlich. Ausnahmen sind der Aufruf zu Straftaten und Aufrufe die geeignet sind den öffentlichen Frieden zu stören, zum Beispiel der fälschliche Warnung vor Feuer in überfüllten Räumen. Alles Andere wäre eine Gesinnungsdiktatur.

Eine Zensur von Hass bräuchte Menschen oder Regeln von Menschen die Hass von Kritik unterscheiden. In jedem Fall wäre es also an Menschen zu unterscheiden. Hass und Kritik haben jedoch eine gemeinsame Schnittmenge dessen Deutung von der eigenen Position abhängt. Außerdem ist an dann noch nicht geklärt ob die Aussage oder die Position des Adressaten fragwürdig oder illegitim ist. Eine Zensur wäre also wieder eine Projektion von Macht, auch wenn sie von Moral angetrieben wäre.

Aus den Veröffentlichungen von Project Veritas geht nun aber eine andere Vorgehensweise hervor. Hierbei stehen Menschen nicht mehr für sich selbst sondern für die künstlichen Kollektive denen sie zugeordnet werden.
My definition of fairness and bias specifically talks about historically marginalized communities. And that's who I care about. Communities who are in power and have traditionally been in power are not who I'm solving fairness for.

Jen Gennai (Google) [2,alt,04m54s]
Jen Gennai ist die Leiterin der Abteilung "Responsible Innovation" bei Google. "Responsible Innovation" ist eine Abteilung welche die verantwortungsvolle implementierung von Algorithmen mittels maschinellen Lernen überwacht.
We all got screwed over in 2016, again it wasn’t just us, it was, the people got screwed over, the news media got screwed over, like, everybody got screwed over so we’re rapidly been like, what happened there and how do we prevent it from happening again.

Jen Gennai (Google) [2,alt,03m00s]
Außerdem ist es das erklärte Ziel von Gennai zu verhindern das Donald Trump (R) in 2020 wiedergewählt wird. Und um dieses und vermutlich auch andere Ziele zu erreichen sieht sie die Möglichkeit das Google in kleinere Unternehmen zerschlagen wird als große Gefahr.
Elizabeth Warren is saying we should break up Google. And like, I love her but she’s very misguided, like that will not make it better it will make it worse, because all these smaller companies who don’t have the same resources that we do will be charged with preventing the next Trump situation, it’s like a small company cannot do that.

Jen Gennai (Google) [2,alt,01m35s]

Algorithmic Unfairness

Selbst dann wenn leitende Mitarbeiter eines Konzerns wie Google eine solche drastische Meinung haben ist dies legitim. Mindestens fragwürdig ist jedoch die eigene Position auszunutzen um die Suchergebnisse auf Basis der einer politischen Agenda zu beeinflussen. Genau dies hat Gennai jedoch zugegeben.
We’re also training our algorithms, like, if 2016 happened again, would we have, would the outcome be different?

Jen Gennai (Google) [2,alt,00m50s]
Neben den Aufnahmen von Gennai erhielt Project Veritas jedoch auch interne Informationen von einem anonymen Mitarbeiter. Hiernach hat Google die Suchalgorithmen so verändert damit Benutzer auf YouTube, welches zu Google gehört, selbst von liberalen Inhalten bewusst auf linkslastige Inhalte weitergeleitet werden.
What YouTube did is they changed the results of the recommendation engine. And so what the recommendation engine is it tries to do, is it tries to say, well, if you like A, then you’re probably going to like B. So content that is similar to Dave Rubin or Tim Pool, instead of listing Dave Rubin or Tim Pool as people that you might like, what they’re doing is that they’re trying to suggest different, different news outlets, for example, like CNN, or MSNBC, or these left leaning political outlets.

Insider [1]
Durch entsprechende das systematische Verweisen auf gewünschte Inhalte und das systematische Ausblenden von nicht gewünschten Inhalten wird bei Google und YouTube Meinungsmache betrieben. Ein Beispiel dafür ist es statistisch wahrheitsgemäße Darstellungen zugunsten einer politischen Agenda zu beeinflussen. Wenn man zum Beispiel nach CEOs (Chief Executive Officer) sucht, dann würden wahrscheinlich viele Männer dargestellt, da die meisten CEOs Männer sind. Dies wird als Problem gesehen und als Algorithmic Unfairness bezeichnet. Tatsächlich werden die Ergebnisse angepasst um der gewünschten Vielfalt zu entsprechen.
Definition of Algorithmic Unfairness
Definition
"algorithmic unfairness" means unjust or prejudicial treatment of people that is related to sensitive characteristics such as race, income, sexual orientation, or gender, through algorithmic systems or algorithmically aided decision-making. [1]
Die Algorithmen von Google und YouTube werden also zugunsten einer politischen Agenda und nicht zugunsten von Neutralität angepasst. Davon betroffen ist auch die Vervollständigung von Tastatureingaben. Wenn man zum Beispiel "Männer können" eingibt, dann wird einem "Männer können Babys bekommen", "Männer können schwanger werden" und "Männer können Perioden haben" vorgeschlagen. Wenn man aber "Frauen können" eingibt, dann wird einem "Frauen können wählen", "Frauen können alles tun" und "Frauen können eingezogen werden" vorgeschlagen. Dies liegt jedoch nicht daran dass dies am meisten gesucht wird, sondern weil die Algorithmen von Google und YouTube entsprechend angepasst wurden.
whether or how a given algorithmic behavior should be addessed.

If a representation is factually accurate, can it still be algorithmic unfairness?

Yes. For example, imagine that a Google image query for "CEOs" shows predominantly men. Even if it were factually accurate representation of the world, it would be algorithmic unfairness because it would reinforce a stereotype about the role of women in leadership positions. However, factual accuracy may affect product policy's position on whether or how it should be addressed. In some cases, it may be appropriate to take no action if the system accurately affects current reality, while in other cases it may be desirable to consider how we might help society reach a more fair and equitable state, via either product intervention or broader corporate social responsibility efforts.

If a system's behavior is not intended, can it still be algorithmic unfairness?

Yes. If the behavior is unfair, it meets the definition regardless of the root cause. [1]
Besorgniserregend ist dass selbst harmlose Inhalte wie illegitime Inhalte behandelt werden. So werden zum Beispiel Inhalte von Tim Pool und Dave Rubin als rechts eingeordnet und unter verstärkte Beobachtung gestellt. Während Pool hauptsächlich Nachrichten vorliest und sich als Linker bezeichnet, führt Rubin Interviews jenseits ideologischer Grenzen und bezeichnet sich als klassischer Liberaler. Siehe:
Rubin Report , Tim Pool , Rubin Report

The Good Censor

Die aktuellen Veröffentlichunge erinnern frappierend an das Google interne Papier "The Good Censor" welches im Oktober 2018 unfreiwillig veröffentlicht wurde. Im Google internen Papier "The Good Censor" wird offen beschrieben wie und warum eine Zensur stattfinden soll. Das Ideal der Meinungsfreiheit wird als utopisches Narrativ abgetan, dass durch jüngste globale Ereignisse unterminiert wurde und glorifiziert Zensur als utopisch. [3,p.19ff]

Als Beispiele hierfür werden der Wahlerfolg der Alternative für Deutschland (AfD), Donald Trump (R) und IS-Propaganda in einer Reihenfolge genannt. [3,p.20ff] Als Rechtfertigung für Zensur listet das Papier die mögliche Verbreitung von Verschwörungen. Ein Beispiel hierfür sei die Aussage von Trump (R) im Wahlkampf in 2016 dass Google Suchergebnisse unterdrückt, also genau das was Project Veritas nun aufgedeckt hat. [3,p.52ff] Außerdem wird das fragwürdige Netzwerkdurchsetzungsgesetz (NetzDG) aus Deutschland gelobt. [3,p.62ff] Siehe:
NetzDG

Das Papier gesteht ein dass große Plattformen wie zum Beispiel Google, Facebook und Twitter anfangs Meinungsfreiheit versprochen haben und diese in der DNA der Konzerne aus dem Silicon Valley gewesen sei. Das Papier behauptet dass große Plattformen sich in einem Spannungsfeld befinden zwischen dem nicht moderierten Wettbewerb der Ideen und einem gut geordneten Platz für Sicherheit und Zivilisiertheit. Es wird jedoch nicht darauf eingegangen wer und/oder wie unterscheiden werden soll. Und es wird auch nicht darauf eingegangen wie verhindert werden soll das Macht statt Moral die Überhand nehmen. [3,p.71ff]



[1] Insider Blows Whistle & Exec Reveals Google Plan to Prevent “Trump situation” in 2020 on Hidden Cam 2019-06-24
https://www.projectveritas.com/2019/06/24/insider-blows-whistle-exec-reveals-google-plan-to-prevent-trump-situation-in-2020-on-hidden-cam/
[2] Insider Blows Whistle & Exec Reveals Google Plan to Prevent "Trump situation" in 2020 on Hidden Cam 2019-06-24
https://youtu.be/re9Xp6cdkro
https://youtu.be/cM7QLKeJ7Sc
https://vimeo.com/344068138
[3] ‘THE GOOD CENSOR’: Leaked Google Briefing Admits Abandonment of Free Speech for ‘Safety And Civility’ 2018-10-09
https://www.breitbart.com/tech/2018/10/09/the-good-censor-leaked-google-briefing-admits-abandonment-of-free-speech-for-safety-and-civility/
https://www.scribd.com/document/390521673/The-Good-Censor-GOOGLE-LEAK

Kommentare