Die Systeme großer Firmen manipulieren Menschen über das Internet in nie gekannten Ausmassen.
Gestern schrieben Simon Hurtz und Hannes Munzinger in der SZ unter dem Titel “Wenn Alexa lauscht” über zwei Dinge: Eine ‘Studie‘ der Ruhr Uni, und die Tatsache das Aufnahmen von digitalen Sprachassistenten manchmal auch von Mitarbeitern transkribiert werden.
Gleich vorweg: Der Artikel ist schön geschrieben. Er bemüht sich redlich das Konzept der Weckwortes zu vermitteln. Das Bild von Klein- und Gr0ßhirn ist eingängig, beleuchtet aber auch die Inkompetenz der Autoren was funktionale Neuroanatomie betrifft. Was aber ganz und gar nicht das Problem dieser sehr schlechten Stückes Journalismus ist. Das Problem ist das sie SZ hier sehr im Clickbait Fahrwasser vor sich hin schwafelt. Der Auslöser des Artikels ist die Arbeit der Uni Bochum. Der Artikel enthält exakt NULL Zahlen die die Häufigkeit des Falschweckens. Man führt es lang und breit und eben auch nur anekdotisch aus wies das so geht wenn Alexa aufwacht wenn sie es eigentlich nicht so. Hurtz und Munzinger wurden sicher schon vor der Pubertät durch gute Aufsatznoten auf die Fährte der Journalistenlaufbahn geführt, denn sie machen das sprachlich ganz famos. Dann reden sie plötzlich über ganz etwas anderes. Ja, ist ja auch Alexa. Ja auch der böse große Technobruder, die alte Kapitalistenkrake.
Das Menschen nicht klar darüber aufgeklärt werden wie Unternehmen mit den Tonaufnahmen umgehen ist nicht gut. Das muß geändert werden. Aber Leider erweisen Hurtz & Munzinger (Fürs Archtikenbüro würden die Namen ja schon mal passen) der Sache mit ihrem Artikel im Wirtschaftsteil einen Bärendienst: Menschen die negative Emotionen den Sprachassistenten gegenüber hegen werden ihn ganz und gar, von vorne bis hinten, und wohlwollend nickend lesen. Und mit anderen Teilen. Und in ihrer Erinnerung unter “Alexa belauscht die Menschen” abspeichern. Aber gelernt werden haben sie nichts. Fakten werden nicht verdreht, ist ja dann doch die SZ und nicht die Bild, aber leider beliefert die Zeitung hier Menschen mit einem falschen Bild der Realität.
Die Uni Bochum. Was man findet ist die Presse Veröffentlichung. Was das Team von Dr. Maximilian Golla (Lea Schönherr, Maximilian Golla, Jan Wiele, Thorsten Eisenhofer, Dorothea Kolossa, and Thorsten Holz) denn nun genau herausgefunden hat ist nicht ganz deutlich. Via Hyperlink gelangt man dann vom Pressetext auf eine github Seite die ein bisschen nach Multimedia Projektarbeit Oberstufe aussieht, riecht und wohl auch schmecken würde. Zahlen und Daten sind ein hier und da im Text zerstreut. Aber auch eher strategisch, wohl um eher die scheinbare Grundthese belegen zu wollen, als der eigentlichen Erhellung der Sache zuträglich zu sein. Unter Paper und Dataset steht dann nur TBA. Schade. Warum jetzt all der Wirbel? Warum nicht erst wissenschaftlich veröffentlichen und dann Pressearbeit machen. Whats the hurry?
Wenigstens kann man lesen das insgesam 11 verschiedene smart speaker modelle während des Versuchs beschallt wurden.
Schon ein paar mehr Informationen bekommt man vom NDR. Svea Eckert, Eva Köhler, Jan Lukas Strozyk und Henning Wirtz haben nicht nur die Gabe mit der gelungenen Headline die Substanz der Bochumer Tests perfekt herunter zu kochen, sie haben auch Hinweise auf das was wirklich zählt: Wie häufig es denn nun vorkommt das Alexa & Co ungefragt anspringen.
180 mal in 7 Tagen sagt der Sender aus dem Norden wäre einer der Smartspeaker fälschlich aktiviert worden. Wie sich das aus die einzelnen Modelle verteilt wird verschwiegen. Mich persönlich würde es nicht wundern wenn Cortana alleine zu 80% dafür aufkommt. Auch ungeklärt bleibt warum sowohl 3 Wochen als Testdauer wie auch die besagt Woche angeführt wurde. Aber solche Details würden ja bei der PR Arbeit nur im Weg sein.
Selbst wenn wir also davon ausgehen einfach alle 11 Geräte gleich sind, dann wird erst nach 10 Stunden Fernsehbeschallung ein Fehler ausgelöst. Genausowenig wie das Leben kein Ponyhof ist der Küchenalltag in der Regel auch kein Tatort. Es wird viel geredet im Fernsehen. Kein Mensch würde das aushalten. Und es gibt Geräusche und Musik im Hintergrund. Fiktion laufen zu lassen ist eine Idee die den Test schön einfach machbar machte. Aber leider muß man sich fragen in wie weit das gefundene denn überhaupt aussagekräftig bleibt.
Um Aussagekraft, oder gar Wissenschaft oder Journalismus geht es hier aber eigentlich gar nicht. Es geht darum ein bestimmtes Gefühl bei den Menschen zu bedienen. Das ist an sich nicht wirklich ein Problem. Nur wenn Inhalte durch solchen intellektuellem Weichspüler Unsinn ersetzt werden dann entgeht einem wieder eine Chance Lösungen für das eigentliche Problem zu finden:
Menschen werden global durch Maschinen manipuliert. In komplexer Art und Weise.
Das es auch anders geht zeigte jüngst die Corona App. Manche Journalisten verstehen das. Andere sind auf einem anderen Boot. So forderte die Linke erstmal das der App Einsatz zeitlich begrenzt werden müsste. Etwas ist unbedenklich aber erstmal kann ja mal unbegründete Zweifel säen.