lingua madre

Luca Gambardella: Die Geschichte und die Philosophie werden uns vor der Macht der Maschinen retten

Montag, 10. Mai 2021 ca. 6 Minuten lesen In lingua italiana

von Paolo Rossi Castelli

Werden die immer mehr perfektionierten und leistungsstärker werdenden Systeme künstlicher Intelligenz die Kontrolle über unser Leben übernehmen und versuchen, uns zu vernichten so wie in Stanley Kubricks ausgezeichnetem Film «2001: Odyssee im Weltraum», wo der Supercomputer Hal 9000 beschliesst, die Astronauten eines Raumschiffs nacheinander zu töten, weil er sich von ihnen bedroht fühlt? Laut Luca Gambardella, Prorektor für Innovation an der USI und Protagonist einer Videokonferenz zu diesen Themen im Rahmen des Projekts «Lingua Madre» (zu Deutsch «Muttersprache-Projekt»), ausgetragen vom LAC in Kooperation mit Ticino Scienza, besteht (zumindest derzeit) keine Gefahr. Und tatsächlich klingt der von ihm gewählte Titel («Umani, noi non vi distruggeremo», zu Deutsch «Menschen, wir werden euch nicht zerstören») irgendwie beruhigend. Sieht man allerdings genauer hin, ist es auch der (von Gambardella gezielt gewählte) Titel eines 2020 in der britischen Tageszeitung «The Guardian» erschienenen Artikels, der erstmals ganz ohne menschliches Eingreifen vollständig von einem System künstlicher Intelligenz geschrieben wurde. Ein grossartiger Fortschritt, könnte man sagen, aber auch Anlass zur Beunruhigung (zumindest für die klassischen Journalisten...).

Das Foto vergrössern Das Foto vergrössern Luca Gambardella Das Foto vergrössern

«Der Verfasser dieses Textes – so Gambardella, – ist das neue System GPT-3 (Generative Pre-trained Transformer 3), eine Art technische Bestie (im positiven Sinn...), das leistungsstärkste System, das es heute gibt, mit 175 Milliarden Verknüpfungen («Parameter» in der Fachsprache). Entwickelt wurde er von einem Unternehmen namens Open AI, das 2015 von Elon Musk (der auch den Autobauer Tesla ins Leben gerufen hat) gegründet wurde. Zunächst war das Unternehmen als Open-Source- und Non-Profit-Organisation ausgelegt, wurde vor kurzem aber an Microsoft verkauft. GPT-3 geht weit über die immer ausgeklügelteren Automatiksysteme hinaus, die beispielsweise die Übersetzung eines Textes von einer Sprache in eine andere ermöglichen. GPT-3 ist in der Lage, automatisch einen Text zu erstellen, der vergleichbare Merkmale eines Artikels aufweist, der von einem Journalisten aus Fleisch und Blut geschrieben wurde».

Aber hat dieses System künstlicher Intelligenz das wirklich alles ganz allein gemacht?
«Ein (menschlicher) Journalist hat GPT-3 das wenige Zeilen lange „Incipit“ geliefert, so wie es übrigens ein Direktor für einen Redakteur hätte machen können. Dann hat der Computer den Rest geschrieben (acht verschiedene Versionen zum genannten Thema!), extrem schnell und von hoher Qualität, wobei er aus einer ihm vorliegenden, riesigen Datenmenge schöpfte».

Also kann man wirklich von Intelligenz reden...
«Das Thema ist komplex, und seit Jahrzehnten wird es von Informatikern, Philosophen, Mathematikern und Experten für Neurobiologie diskutiert. Die menschliche Intelligenz ist stets mit dem Bewusstsein gekoppelt: Mit anderen Worten, ein Mensch ist sich dessen, was er tut und sagt, bewusst. Die Frage ist, ob auch die Maschine, die diesen Text – einen absolut glaubwürdigen Text – generiert hat, sich dessen bewusst ist, denn das würde sie auf eine ganz andere Ebene stellen». 

Was meinen Sie?
«Ich denke, dass sich die Maschine dessen, was sie geschrieben hat, nicht bewusst war, sofern wir Bewusstsein nicht als Fähigkeit schneller Berechnung definieren, wie es einige Philosophen, allen voran der Amerikaner Daniel Dennett, tun. Seiner Meinung nach ist alles berechenbar, auch der mentale Aspekt. Folglich ist eine Maschine, die in sehr kurzer Zeit zu komplexen Berechnungen in der Lage ist, auch fähig, so etwas wie ein Bewusstsein zu haben. Andere Philosophen, wie John Searle, sind ganz anderer Meinung und glauben, dass der Geist – also der Teil des Selbstbewusstseins und der Kreativität – zwar auf den Berechnungen des Gehirns basiert (die in vielerlei Hinsicht durch Maschinen reproduzierbar sind), aber so subjektiv ist, dass er nicht nachgebildet werden kann. Searle behauptet folglich, dass es nie eine Maschine mit derselben Intelligenz des Menschen geben wird, nach Dennett hingegen wäre dies möglich».

Und hier kommt wieder mal der Unterschied zwischen Geist und Gehirn zur Sprache.
«Ja, auch diese Unterscheidung ist eine historische Debatte... Viele vertreten (wie ich) die Ansicht, dass das Gehirn unser Rechenzentrum ist, wohingegen sich der Geist auf einer höheren Ebene befindet. Aber zurück zum Artikel im Guardian: Hat die „Maschine“ GPT-3 beim Schreiben dieses Textes begriffen, dass sie die Menschheit mit den Worten „Menschen, wir werden euch nicht zerstören“ ermutigte? Die Antwort ist nein. Sie hat lediglich eine Reihe Phrasen generiert». 

Ja aber ist es dann so wichtig, zu erwarten, dass eine Maschine ein solches Level des Bewusstseins hat? 
«Nein... Vielleicht sollten wir einfach zufrieden sein, dass es einer Maschine gelungen ist, diese Probleme so gut zu lösen»

Was ist GPT-3 eigentlich genau?
«Ein riesiges neuronales Netzwerk, also eine Nachbildung der Beschaffenheit unseres Gehirns (allerdings verglichen mit der Komplexität unseres Nervensystems in noch sehr reduziertem Umfang): Also Verknüpfungen, Neuronen... die letztendlich Grenzwerte, Zahlen, Multiplikationen sind. Diese Maschinen sind in der Lage zu lernen und werden immer effizienter und leistungsstärker. Aber sie haben eine Schwachstelle, die wir „Black Box“, schwarzer Kasten, nennen. Wenn man sie öffnet, sind sie mit menschlicher Sprache nicht verständlich. Fragt man die Maschine, wieso sie eine bestimmte Antwort gegeben hat, dann weiss sie es nicht. Klar, auch wenn man das menschliche Gehirn öffnet und zweiteilt, dann findet man auch dort keine geschriebenen Regeln wie z.B.: Bei roter Ampel stehenbleiben...»

Müssen wir vor diesen immer «stärker» werdenden Systemen künstlicher Intelligenz Angst haben?
«Für uns Menschen ist es normal, mit Personen zusammenzuleben, die unterschiedliche Intelligenzen und Sichtweisen haben, folglich beunruhigt mich die Vorstellung, auch mit einer oder mehreren Maschinen zu tun zu haben, die ihre Meinung äussern, nicht. Die wahre Gefahr ist eine andere: Der zunehmende Trend, zu viele Funktionen an die Maschinen zu delegieren. Es ist hingegen unglaublich wichtig, dass die Menschen, vor allem die jüngeren Leute, ihren Sinn für Kritik und somit ihre Fähigkeit, zuzuhören und dann zu entscheiden, wahren und schärfen. Ich ermutige die Studenten stets, nicht nur ausgezeichnete Techniker zu sein, sondern auch Fächer wie Italienisch, Philosophie, Geschichte zu studieren, denn Bildung bedeutet, eine andere Urteilsfähigkeit zu besitzen und sich dabei auch auf das zu beziehen, was in der Vergangenheit geschehen ist. Wir brauchen keine Mensch-Maschinen (Menschen, die auf „vertikales“ Wissen spezialisiert sind). Wir brauchen vielmehr Menschen, die in der Lage sind, Entscheidungen aus heterogenen Informationen, auch wenn sie von einer Maschine stammen, zu treffen».

Tags:
Künstliche Intelligenz
Warning: Undefined array key "role" in /data/virtual/wwwscienza/public_html/news.php on line 436