Blog
  • Thema Neue Technologien

Treffpunkt WissensWerte: Künstliche Intelligenz – Die Entschlüsselung der Welt

  • Veröffentlichungsdatum 29.06.2022
Annette Kleffel

Augenbewegungen, Sprache, Verkehr und Wahlverhalten - die künstliche Intelligenz (KI) soll möglichst alles entschlüsseln. Sie gilt als mächtigste Technologie unserer Zeit. Trainiert mit Datensätzen und Algorithmen steuert KI immer mehr Dienste, Apps und Alltagssituationen. Die Anwendungspotentiale sind riesig und reichen von der Spracherkennung bis hin zur Diagnostik. Gleichzeitig wird die Entwicklung von KI als Herrschaftsinstrument, das ein neues Maß an Überwachung ermöglicht, kritisch gesehen. Über Chancen und Grenzen der Technologie haben Expert:innen beim 118. Treffpunkt WissensWerte diskutiert, für den wir mit rbb24 Inforadio zusammenarbeiten.

„Künstliche Intelligenz“ ist zu einem der großen Schlagwörter der Gegenwart geworden, wirkt sich auf die unterschiedlichsten Lebensbereiche aus und beeinflusst so unsere Gesellschaft. Dieser Einfluss ist keine abstrakte Größe, sondern wird durch Beispiele aus der Forschung ganz konkret. Sebastian Möller ist Standortsprecher des Deutschen Forschungszentrums für Künstliche Intelligenz Berlin. Außerdem leitet er das Quality and Usability Lab der Technischen Universität Berlin. Eingestiegen in die KI-Forschung ist Möller über Untersuchungen von Babygeschrei. „Wir haben versucht, solche Schreie zu klassifizieren. Es ging darum, zu detektieren, ob Säuglinge schwerhörig sind oder nicht und zwar aus dem Schrei heraus“, schildert der Professor der TU Berlin seine anfängliche Arbeit im Zusammenhang mit der künstlichen Intelligenz. Inzwischen beschäftigt er sich auf vielfältige Weise mit KI-Anwendungen für Sprache. Einen Schwerpunkt bilden derzeit maschinelle Übersetzungen. „Da träumen, glaube ich, schon seit Dekaden Personen von. Und das ist eben heutzutage mit einem Qualitätslevel möglich, der es tatsächlich erlaubt, das wirklich im großen Stil durchzuführen.“ Das gelte für die automatische Übersetzung von Büchern genauso wie für das gesprochene Wort.


Von der Beweissammlung für Kriegsverbrechen bis zur Hirnforschung

Ein komplett anderes Forschungsbeispiel zeigt Ariana Dongus auf. Sie ist akademische Mitarbeiterin für Kunst und Medienphilosophie an der Hochschule für Gestaltung Karlsruhe. Dongus stellt das Projekt des Künstlers und Wissenschaftlers Adam Harvey vor. Dabei soll Beweismaterial in Kriegssituationen gesammelt werden. „Es ist im Endeffekt Objekterkennung, die darauf spezialisiert ist, illegale Waffensysteme oder Teile der Waffensysteme zu erkennen – und zwar auf YouTube Videos, die im Syrien-Krieg von Nutzer:innen hochgeladen worden sind“, erklärt die KI-Forscherin. Ziel sei es, Beweise für Kriegsverbrechen zu finden, die auch vor Gericht Bestand haben. John-Dylan Haynes untersucht mithilfe der künstlichen Intelligenz das menschliche Bewusstsein. Er ist Direktor des Berlin Center for Advanced Neuroimaging (BCAN) und Professor am Bernstein Center for Computational Neuroscience (BCCN) der Charité – Universitätsmedizin Berlin. Haynes bringt den Unterschied zwischen dem menschlichen Gehirn und einem KI-System auf den Punkt. „KI-Systeme sind in der Regel totale Experten, die ganz zielgerecht für einen ganz bestimmten Anwendungsfall hergestellt werden, trainiert werden und die Schwierigkeiten damit haben, wenn irgendetwas passiert, womit sie nicht gerechnet haben“, so Haynes. Menschen seien dagegen Universalisten, die sich auch in neuen Situationen schnell zurechtfinden. „Das heißt jetzt nicht, dass wir Menschen super sind. Wir haben unglaublich viele Unzulänglichkeiten. Aber es ist für uns extrem hilfreich, dass wir uns in sehr vielen verschiedenen Umwelten lebensrelevant verhalten können.“

Künstliche Intelligenz – Zuschreibung oder Realität?

Den Hype um die künstliche Intelligenz zu nutzen, um vertiefend über die Technologie aufzuklären, ist für die KI-Forscherin Ariana Dongus von hoher Relevanz. Sie hält Studien, die KI-Anwendungen kritisch begleiten, für wichtig, will aber auf keinen Fall die gesamte Technologie als Feind verstanden wissen. „Es geht wirklich darum, jenseits von Utopie und Dystopie differenziert zu schauen […], wie können wir Technologien wieder reappropriieren“, erklärt Dongus. Sie spricht sich für ein differenzierteres Bild der Technologie aus. Das sollte über Science-Fiction-Ideen hinausgehen. „Es ist sehr gut, dass man eben immer über die Grenzen spricht und eben nicht so sehr über das, was es vermeintlich alles schon kann, sondern dass man halt sagt: Okay, das kann es. Das kann es nicht.“ Durch diese Offenheit könnten viele Mythen entlarvt werden. Auch aus Sicht von John-Dylan Haynes klafft eine gewaltige Lücke zwischen der Realität und den Zuschreibungen an die KI. „Wir neigen dazu, Dingen mentale Zustände zuzuschreiben. Wir glauben immer, da ist irgendein Agent, ein beseeltes Wesen dahinter. Die Schwierigkeit ist, dass wir das auch bei Algorithmen tun“, sagt Haynes. Das gelte selbst, wenn ein Computer relativ simple Dinge tue. „Weil wir halt immer so viel da reininterpretieren und reindichten, sehen wir die Grenzen der Systeme nicht.“

Transparenz, Überprüfbarkeit und das Problem mit der Komplexität

Für Sebastian Möller von der TU Berlin ist die Transparenz ein wesentlicher Faktor beim Umgang mit der künstlichen Intelligenz. Die herzustellen, sei aber oft herausfordernd. Das erläutert er am Beispiel eines selbstfahrenden Autos. Hier Nutzer:innen, anderen Verkehrsteilnehmer:innen oder Automobilkonzernen Garantien zu geben, was genau dieses Auto tut oder was es nicht tut, sei bei einem auf maschinellem Lernen beruhenden System sehr viel schwieriger als bei einem regelbasierten System. Für Möller stellt sich immer wieder die Frage: „Wie kann man das, was in diesem System durch maschinelles Lernen eintrainiert worden ist, nach außen tragen und überprüfbar machen?“ Diesem Punkt räumt auch John-Dylan Haynes große Aufmerksamkeit ein. „Ich glaube, dass eine der größten Schwierigkeiten von Menschen sein wird, […] den Hype so einzufangen, dass man nicht anfängt, Systeme zu benutzen, die man nicht gründlich auf Herz und Nieren geprüft hat.“ Aus Haynes Sicht gibt es so unglaublich viele Anwendungsszenarien, dass eine Überprüfung jedes einzelnen Systems für jede einzelne Anwendungssituationen im Detail nicht möglich sei. Zudem könnten KI-Systeme auch miteinander interagieren. In diesem Zusammenhang macht der Hirnforscher eine Schwäche von uns Menschen aus. Wir seien kaum in der Lage, das Zusammenwirken von vielen verschiedenen Faktoren zu begreifen. Mit den Ökosystemen, Tschernobyl, Fukushima und dem Krieg in der Ukraine nennt Haynes einige Beispiele für komplexe Situationen. „Und wenn jetzt jeder auf allen möglichen Pfaden KI-Systeme in die Welt setzt, glaube ich, dass dann Entwicklungen möglich sind, die wir nicht vorhersagen können. Es können Gute sein. Das können Schlechte sein.“

Herausforderungen: Verzerrungen und kleine Datenmengen

Ariana Dongus hält es für ausschlaggebend, mit welchen Daten die Algorithmen trainiert werden. Grundsätzlich könnten Daten eine verzerrende Wirkung haben. So würden medizinische Studien oft auf Daten von weißen, jungen Männern und weniger von Frauen basieren. Damit bezieht sich die Forscherin und Medienphilosophin nicht nur auf Studien, bei denen künstliche Intelligenz angewendet wird. Darauf nimmt Sebastian Möller Bezug und macht vor allem in dem Umgang mit kleinen Datenmengen ein aktuelles Forschungsthema aus. Die Forschung mit Big Data, also großen Datenmengen, sei relativ einfach. „Wenn ich immer genügend Daten hätte, dann kann ich Standardtrainingsverfahren anwenden. Und dann komme ich immer zu einer relativ guten Leistung […]. Aber was mache ich, wenn ich eben kleine Datenmengen habe? Wie kann ich generalisieren?“ Dieses Forschungsthema untermalt der TU-Forscher mit einem praktischen Beispiel. „Kann ich vielleicht ein Sprachmodell auf einer Sprache wie Englisch oder Chinesisch trainieren und dann adaptieren auf eine kleine Sprache, wie zum Beispiel Sorbisch, Rätoromanisch, Holländisch.“ Für einen solchen Schritt, müsse man die Eigenschaften der großen und kleinen Datensätze sehr gut kennen und genau wissen, wo die Unterschiede liegen, die die Ergebnisse beeinflussen könnten.

Was kann der Mensch? Was kann die Maschine?

Auch das Erkennen von Emotionen soll durch künstliche Intelligenz entschlüsselt werden. Aber sollte eine Maschine durch KI eines Tages genauso emotional werden können wie wir Menschen? Ariana Dongus findet das nicht erstrebenswert. „Es ist schwierig, das nachbauen zu wollen und zu quantifizieren, weil wir auch zum Beispiel gar nicht wissen, wo diese Anwendungen hinterher landen,“ begründet Dongus ihre Haltung. „Es gibt beispielsweise bestimmte Pilottests an den EU-Außengrenzen mit einem Bot-Assistenten. Bevor man sozusagen eintreten darf in die EU, wird über einen Computerbildschirm mit der Bewerber:in ein Interview geführt. Und dann entscheidet quasi die KI anhand der Gesichtsanalyse, ob dieser Mensch lügt oder die Wahrheit sagt.“ Solche Anwendungen findet die KI-Forscherin äußerst problematisch und fordert EU- und weltweite Gesetze und Regelungen für Anwendungsgebiete. John-Dylan Haynes führt an dieser Stelle aber auch die Grenzen der menschlichen geistigen Leistungsfähigkeit auf. Gerade bei Themen, die die Gerechtigkeit betreffen, dürfe man nicht davon ausgehen, dass der Computer irgendwelchen Tendenzen folge, der Mensch aber eine reine weiße Weste habe und unparteiisch entscheide. „Wir Menschen haben ja genauso Vorurteile, die zum Teil viel schwieriger zu quantifizieren sind,“ so Haynes. Aus seiner Sicht könnte mithilfe der KI auch bewusst gegen Ungerechtigkeiten vorgegangen werden. „Wenn man sich einmal auf diese algorithmische Ebene versetzt, hat man damit auch die Möglichkeit, bestimmte Dinge zu korrigieren - zum Beispiel in den Computersystemen für die Strafrückfälligkeitsprognosen in den USA, die Hautfarbe nicht zu verwenden.“ Darin sieht der Hirnforscher eine Chance, der Diskriminierung etwas entgegenzusetzen.

Bericht: Lena Petersen

Das Gespräch führte Axel Dorloff, Wissenschaftsredaktion / Chef vom Dienst rbb24 Inforadio mit

  • Ariana Dongus, Akademische Mitarbeiterin für Kunst und Medienphilosophie an der Hochschule für Gestaltung Karlsruhe

  • Prof. Dr.-Ing. Sebastian Möller, Standortsprecher des Deutschen Forschungszentrums für Künstliche Intelligenz Berlin und Leiter des Quality and Usablity Labs der Technischen Universität Berlin

  • Prof. Dr. John-Dylan Haynes, Direktor des Berlin Center for Advanced Neuroimaging (BCAN) und Professor am Bernstein Center for Computational Neuroscience (BCCN) der Charité – Universitätsmedizin Berlin

Der Treffpunkt WissensWerte ist eine gemeinsame Veranstaltung der Technologiestiftung Berlin und rbb24 Inforadio.

Die Sendung ist nachzuhören via rbb24 Inforadio und in ARD Audiothek als Podcast veröffentlicht.

 

Forum Wissenswerte

Die Veranstaltungsreihe zu aktuellen Technologiethemen. In Kooperation mit rbb24 Inforadio.