Simon Klima, Senior Data Scientist bei axtesys GmbH, im Gespräch über den Einsatz von KI im Marketing und den technischen Fortschritt als Freund oder Feind.
Simon du bist Senior Data Scientist bei axtesys. Als Mathematiker und Statistiker sind Daten dein tägliches Brot. Und auch für Künstliche Intelligenzen sind Daten die Basis. Wie siehst du den Entwicklungsstand von KI, ist sie schon im Alltag angekommen, oder noch ein Zukunftsszenario?
Es kommt stark auf die Branchen an. In einigen Bereichen ist sie schon voll da, in anderen Bereichen weit entfernt. Er herrscht allerdings nicht immer ein einheitliches Verständnis darüber, was KI ist. Roboter, die den Menschen ersetzen und eine neue Realität schaffen, gibt es noch nicht. Selbsthandelnde Maschinen, die den Arbeiter ersetzen, gibt es auch noch nicht. Wo KI angekommen ist, ist bei Smartphones. Die komplette Spracherkennung, die Akkusteuerung, die Gesichtserkennung zum Entsperren der Handys, Vorschläge bei Keyboard-Eingabe und so weiter – das alles ist KI-gestützt.
Und wo der Einsatz von KI ebenfalls bereits gelebte Realität ist, ist Marketing. Im Bereich Targeting bietet KI neue Wege der Personalisierung und gezielter Kundenansprache. Das kennen wir von Facebook-Postings, die alles bereits vorsortieren und wir nur mehr das angezeigt bekommen, was uns interessiert.
Für die großen Konzerne wie Google und Facebook ist KI schon seit Jahren gelebte Realität.
Bleiben wir bei der Werbung und dem von dir angesprochenen Punkt des Targetings. Auf der einen Seite ist es natürlich angenehm, wenn ich nur jene Werbung angezeigt bekomme, die mich am ehesten interessiert. Auf der anderen Seite ist dies auch eine Art Zensur und kann mein Weltbild dadurch einschränken.
Ja, das ist sicher ein Problem. Du bekommst nur jene Inhalte gezeigt, für die du dich ohnehin schon interessierst. Da ist die Gefahr, dass eine Bubble entsteht, natürlich sehr groß.
Ich persönliche liebe diese Funktion – wenn ich zum Beispiel ein Video auf YouTube anschaue und anschließend gleich Vorschläge für weiterführende Inhalte bekomme, finde ich das gut. Auf diese wäre ich durch reines Suchen wahrscheinlich nicht gestoßen.
Die Sache ist die: Wie war es denn früher, vor dem ganzen digitalen Zeitalter? Da hatte man viel weniger Inhalte zur Verfügung und war gewissermaßen auch in einer Bubble. Da hatte man Zeitungen, die auch nur ihre Sicht der Dinge präsentiert haben. Natürlich, im Vergleich zum Internet von vor 10 Jahren schaut es jetzt etwas anders aus. Da gab es wirklich alles, aber die Kehrseite war: Wie findet man das alles? Wenn es alles immer gibt, dann hast du keine Möglichkeit, zu selektieren, was du alles wirklich brauchst.
Stichwort Diversifikation?
Ja genau. Letztlich ist es eine persönliche Verantwortung, dass man selbst diversifiziert und sich bewusst ist, dass man nur bestimmte Inhalte angezeigt bekommt.
Das ist für Menschen möglich, die sich mit der Materie auskennen. Für den Otto-Normal-Verbraucher wird das schwierig.
Das stimmt natürlich. Und da kommt nun die ethische Komponente mit ins Spiel. Als Anbieter von Inhalten sollte ich auf Diversifikation achten und das Ziel verfolgen, mit beispielsweise Faktenchecks alle Seiten zu beleuchten. Twitter macht das. Die haben eine eigene Redaktion, die nur Faktenchecks durchführt.
Gibt es hier Druck von außen, solche Checks durchzuführen?
Ja, zum Bespiel fordern NGOs solche Dinge ein. Und das ist auch gut so. Diese regulierenden Organe, Bürgerrechtsorganisationen und Journalisten haben diese Aufgabe. Das ist ja in der Nicht-Online-Welt auch so. Und größtenteils machen das die Unternehmen auch selbst, also dass sie ihre Inhalte diversifizieren.
Mit welchem Hintergrund?
Denke an Spotify. Der Musikanbieter gibt Vorschläge für Songs, die dir gefallen könnten. Das heißt aber nicht, dass du nur noch Lieder von Michael Jackson vorgeschlagen bekommst, nur weil du ein paar Mal Michael Jackson gehört hast. Das ist nicht im Interesse des Unternehmens, weil es weiß oder zumindest davon ausgeht, dass Menschen die Plattform nicht mehr nutzen, wenn sie immer nur die gleichen Inhalte angezeigt bekommen und in einer Bubble bleiben. Deshalb hat Spotify in seinen Algorithmus eingebaut, dass dieser immer wieder neuen Content bereitstellt.
Diese Diversifizierung ist zwar zu begrüßen, aber letztlich auch nur ein marktgetriebener Ansatz, oder?
Die Frage ist immer: Welche Firmen haben welche Ziele? Spotify möchte, dass die User so lange wie möglich den Dienst nutzen. Lieber öfters und dafür weniger Musik als intensiv 5 Stunden Musik an einem Tag und dann gar nicht mehr. Es geht dabei also nicht um kurze Sales, sondern um langfristige Bindung. So agiert auch Facebook. Wenn User nur mehr lustige Geschichten sehen und keinen echten Content mehr, dann sind sie weg und dann wird Facebook gegensteuern. Deshalb testet auch Google seine Werbung auf Relevanz. Denn dem Unternehmen ist es viel wichtiger, dass Leute guten Content finden und dadurch die Dienste längerfristig nutzen, als nur kurze, hohe Gewinne mit Werbung einzufahren und den Kunden dafür alles Mögliche an unbrauchbaren Content zu präsentieren.
Google ist Vorreiter, wenn es um Machine Learning geht. Der Konzern weiß schon viel und optimiert seine Daten auch laufend. Wie sieht es da mit dem Daten-Bias aus?
Ja, Daten-Bias ist ein Problem. Angenommen wir suchen eine Fachkraft für unser Unternehmen und wollen mithilfe einer KI den besten Bewerber oder die beste Bewerberin auswählen. Wenn das Ergebnis schließlich ist, dass 90% der ausgewählten Personen männlich sind, obwohl ich mindesten genauso viele männliche wie weibliche Bewerbungen gehabt habe, dann habe ich ein Problem und komme wahrscheinlich von selbst darauf, dass ich mit diesem Algorithmus nicht das ganze Potenzial ausschöpfe. Das heißt, man braucht immer eine Kontrolle. So werden auch meines Wissens alle Modelle, die verwendet werden, immer wieder evaluiert und geschaut, ob sie noch funktionieren. Wenn die Perfomance von der Richtigkeit nachlässt, dann wird sofort nachjustiert und die Modelle laufend weiterentwickelt.
Daher die regelmäßigen Updates?
Genau. Zum Beispiel beim Google Assistent, der für die Spracherkennung zuständig ist, wird man jeden Monat ein Update der KI haben. Das wird laufend optimiert und nicht nur einmal gemacht und dann lässt man das so. Bei Facebook zum Beispiel werden Modelle oft sogar täglich aktualisiert – dort, wo es halt notwendig ist. Eine KI ist keine statische Software, sondern viel lebendiger. Daher muss sie monitort und immer wieder angepasst werden, wenn man das Maximum rausholen will.
Wie können wir als Gesellschaft mit dieser neuen Technologie, mit diesem Fortschritt mitgehen?
Ich denke wirklich, dass es um ein Mitwachsen geht. Neue Herausforderungen erfordern neue Entscheidungen. Die Welt verändert sich und damit kommen neue Fragestellungen auf, die man diskutieren muss.
Zum Beispiel?
Im Umgang mit KI-Anwendungen kommt oft der bereits angesprochene Daten-Bias zur Sprache, der Ergebnisse verzerrt. Nehmen wir als Beispiel die durch einen Algorithmus gesteuerte Auswahl von Bewerbungskandidaten. Natürlich hängt es davon ab, mit welchen Daten das System gespeist wird und da kann es leicht vorkommen, dass Daten einen Bias aufweisen. Auf der anderen Seite muss man sich fragen: Wie sind denn früher solche Prozesse abgelaufen? Da hat der Personalchef vielleicht aufgrund von Fotos entschieden – ob diese schön aufgenommen oder gut formatiert wurden. Oder es sind an einem Tag hunderte Bewerbungen eingegangen und die letzten 40 wurden einfach generell nicht mehr berücksichtigt. Ein Bias steckt also auch in Personen und kann daher auch in einer Maschine sein. Dafür muss man Bewusstsein schaffen und da muss die Gesellschaft eben mitwachsen.
Denk an die industrielle Revolution. Da hat sich die Art der Arbeit auch geändert. Ich muss heute vielleicht nicht mehr gut darin sein, Bewerber aus einer großen Auswahl auszufiltern, sondern eher in der Lage sein, zu beurteilten, ob meine Auswahl richtig funktioniert, oder ob meine Daten einen Bias haben.
Du siehst das Thema also nicht schwarz-weiß, sondern plädierst stattdessen für mehr Bewusstsein?
Richtig. Aus meiner Sicht müsste sich das Bewusstsein ändern. Fakt ist, dass KI oder Machine Learning Algorithmen in vielen Bereichen besser sind und mehr Potenzial haben als Menschen, zumindest für eine bestimmte Aufgabe. Damit verändern sich die Entscheidungen, die eine Gesellschaft zu treffen hat. Beispiel: selbstfahrendes Auto.
Überfährt das Auto die Oma oder das Kind?
Bei einem Menschen stellt sich diese Ethik-Frage gar nicht, weil er in seiner Reaktion ohnehin keine Möglichkeit hat, eine fundierte Entscheidung zu treffen. Letztlich war es ein Unfall. Eine Maschine kann aber diese Entscheidung treffen. Auf einmal stehen uns also neue Möglichkeiten offen.
Was heißt das nun für unsere Gesellschaft?
Es heißt, dass wir nun ganz andere Maxime aufstellen können. Wir können der Maschine auch sagen, dass sie Entscheidungen zufällig treffen soll. Bei einem Menschen hingegen, kannst du nie sicherstellen, ob er zufällig entscheidet, oder ob er sich denkt: „Ich hasse alte Menschen und führe deshalb die Oma nieder.“ Unterbewusst natürlich. Das darf man niemanden unterstellen, aber ich will damit sagen, dass man eben keine Kontrolle darüber hat, aus welchen Motivationen heraus Menschen entscheiden. Es bietet also Chancen als auch Risiken.
Die Frage, die sich aus meiner Sicht stellt: Sind die Entscheidungen vorher besser oder schlechter gewesen? Auf die Gesamtsicht gesehen, gibt es mehr oder weniger Verkehrstote? Und wenn es weniger Verkehrstote gibt, dann ist das wahrscheinlich besser als die Menschen fahren selbst.
Wie geht man hier mit der Black Box um, wenn Entscheidungen nicht mehr nachvollziehbar sind?
Das sind Dinge, die man testen muss. Aus meiner Sicht muss man gesellschaftliche und regulative Normen aufstellen, welche Anforderungen diese KI auszuhalten hat. Die KI wird dann einem normativen Test unterzogen und den muss sie standhalten. Beim Menschen ist es ja auch nichts anderes. Der macht eine Fahrprüfung und einen Fahrtest und entweder er bekommt dann den Führerschein oder nicht.
Man muss ethisch motivierte und ethisch begründete Anforderungen setzen, und die muss man dann einhalten und auch immer wieder adaptieren. Das ist ja jetzt auch nichts anderes. Man baut eine Verkehrskreuzung und wenn es im Nachhinein mehrere Tote gibt, dann wird nachjustiert und zum Beispiel eine Ampel aufgestelt oder der Zebrastreifen versetzt. Da hat man aber im Vorhinein auch die Toten in Kauf genommen.
Punkto Sicherheit. Beleuchten wir noch kurz das Thema automatische Gesichtserkennung. Die Befürworter sprechen davon, öffentliche Räume sicherer zu machen. Was passiert, wenn autoritäre Systeme plötzlich diese Technologien einsetzen und Menschen dann in ihren Freiheitsrechten berauben?
Da gehört politisch entgegengesteuert. Was ist möglich, was ist nicht möglich, wo und wie wird die Technologie eingesetzt. Die Technologie als solche wirst du nicht verhindern können. Aber du kannst sie regulieren. Als vor Jahren Schusswaffen auf den Markt gekommen sind, gab es auch Diskussionen. In manchen Ländern sind sie erlaubt, in manchen nicht und dennoch passiert viel. Du kannst die Technologie nicht ausschließen. Allerdings haben Waffen die physische Komponente, während Code nichts Angreifbares ist. Hinzukommt, dass der Großteil frei verfügbar ist. Es ist kein geheimes Supertool, das nur wenige Leute haben. Auch damit muss man sich auseinandersetzen. Vor allem, wenn es in den militärischen Bereich geht. Gibt es Atomwaffen-Sperrverträge, gibt es einen Sperrvertrag für KI-Waffen-Systeme? Da gibt es schon Vorschläge für Resolutionen.
Was hälst du von Unternehmen wie ClearView und PimEyes, die als private Unternehmen unser aller Daten sammeln?
Das sehe ich kritisch, weil sie in Datenschutzrechte eingreifen. Ich bin ein Verfechter dafür, dass jeder unter der Kontrolle seiner Daten sein soll. Jeder sollte möglichst immer wissen, wo seine Daten vorhanden sind und wofür sie genutzt werden.
Nachdem die KI ja von Daten lebt, müsste man also im Datenschutz nachziehen?
Ja genau! Aus meiner Sicht müsste man allerdings einen Weg finden, dass der Datenschutz die Dinge nicht verunmöglicht. Es gibt bereits jetzt KIs, die mit anonymen Daten rechnen. Und das ist auch der Weg, wo es hingehen muss. Federated Learning ist da ein Ansatz.
Welche Rolle spielt Vertrauen im technischen Fortschritt?
Es ist sicher so, dass wenn es die Technologien gibt, diese auch genutzt werden. Das ist ein Faktum. Was ich aus meinem Analytics- und Statistik-Standpunkt sehr spannend finde, ist, dass das ganze KI-Thema sehr universitäts- und forschungsgetrieben ist. Die haben den wissenschaftlichen Ansatz, dass das ganze Wissen auch geteilt wird. Im Moment ist der Großteil des Wissens frei und für jeden ersichtlich, wie es genutzt wird. Also ein Open-Source-Charakter. Ich glaube, dass Transparenz für alle diese Dinge die Schlüsselstelle ist. Warum ist Google so mächtig? Weil es viele Tools zwar für sich entwickelt hat, aber sein Wissen auch weitergibt, weil das Unternehmen von anderen, die programmieren, auch profitieren. Diese Systeme sind so komplex, dass selbst, wenn du ein Unternehmen wie Google bist, nicht alleine weiterkommt, wenn du in deinem eigenen Saft brätst. Es ist also viel frei und offen und steht daher zum Diskurs.
Je freier das Wissen, desto eher kann es zwar auch Missbrauch geben, aber umso wahrscheinlicher wird auch eine offene Diskussion darüber geführt.
Abschließend: Technology as a friend or as an enemy?
Man kann Technologie und Fortschritt nicht verhindern, weil das der generelle Forschungsdrang der Menschen ist. Deswegen muss man offen damit umgehen und diese Dinge thematisieren. Transparenz ist der Lösungsansatz.