Roboter, die inzwischen besser über Hürden laufen und balancieren können als Menschen. Selbstfahrende Fahrzeuge, die in den USA bereits im Einsatz sind – wenn auch nur testweise. Und nicht zuletzt mit der freien Zugänglichkeit von Chatbots wie ChatGPT im vergangenen Herbst ist Künstlichen Intelligenz (KI) und das Bewusstsein über deren rasante Entwicklung endgültig im Mainstream angekommen. Überwiegen Chancen oder Risiken? Droht ein Kontrollverlust, wenn die Maschinen zu intelligent werden? Und welche Instanz könnte ethische Standards für den Gebrauch von KI definieren? Carlo van de Weijer, Direktor des AI Systems Institute in Eindhoven, kennt als KI-Experte die Antworten.
Die rasante Entwicklung, die KI gerade hinlegt, lässt sich auch in Zahlen fassen: Gab es im Jahr 2018 weltweit 20.000 Patentanmeldungen, waren es 2021 mehr als 141.000 in diesem Bereich. Szenarien, die wir lange nur aus Science-Fiction-Filmen kannten, scheinen auf einmal realistisch. Übernehmen Maschinen bald die Kontrolle über uns?
Carlo van de Weijer: Als wir Ziegelsteine erfanden, konnten wir Häuser bauen – wir konnten aber auch jemandem diesen Ziegelstein ins Gesicht schlagen. Heute werden Millionen von Ziegeln verwendet, um Häuser zu bauen – und nicht, um andere damit zu bewerfen. Eine neue Technologie bedeutet also vor allem eine Verbesserung. Im Fall von KI sind allerdings Gefahren und Schattenseite größer und haben durchaus dystopisches Potenzial. Sie könnten auf globaler Ebene eine Katastrophe herbeiführen.
Das klingt eher apokalyptisch als heilsbringend. Und auch Google-CEO Sundar Pichai gab kürzlich in einem Interview zu, dass ihn die rasante Entwicklung von KI nachts nicht schlafen lässt. Im Kern geht es um die Sorge vor einem totalen Kontrollverlust und die Frage, ob die Menschheit irgendwann die Kontrolle über die Technologie verliert, die sie selbst entwickelt hat. In einem Brief fordern bereits mehr als 1000 Menschen, darunter Wissenschaftler und prominente Unternehmer, eine Pause, um weltweit gemeinsam Sicherheitsprotokolle zu erarbeiten.
Ich verstehe die Beweggründe, die hinter der Aktion stecken. Sie fordern, die Entwicklung zu stoppen oder eine sechs-monatige Pause einzulegen, und wissen vermutlich doch alle, dass das unmöglich ist. Aber immerhin ist es ihnen mit diesem Appell, der von vielen wichtigen Persönlichkeiten unterzeichnet wurde, gelungen, das Thema öffentlichkeitswirksam auf die Agenda zu setzen und so eine Diskussion zu entfachen. Ich verfolge diese Debatte und es gibt mindestens genauso viele, die diese Diskussion als bloße Panikmache ansehen, wie andere, die - zu Recht - ernsthafte Bedenken haben und so schnell wie möglich strenge Gesetze und Regulationen fordern.
Eine Gesetzgebung bräuchte es zum Beispiel gegen die Verbreitung von Deepfakes, also für die Nachrichten und Bilder, die gezielt mit KI gefälscht wurden. Die Manipulation und Desinformation, für die KI eingesetzt werden kann, birgt das Risiko eines immensen gesellschaftlichen Sprengstoffs.
Neue Technologie kann Menschen klüger machen. Aber es besteht im Umkehrschluss auch die Gefahr, dass dumme Menschen um einiges dümmer werden. Wenn die Technologie wechselseitig wirkt oder wenn sie mit schlechten Absichten genutzt wird, dann kann sie zu einer sprudelnden Quelle für Desinformation werden. Momentan leben mehr Menschen denn je auf der Welt, die davon überzeugt sind, dass die Erde eine Scheibe ist. Wenn die neue Technologie lediglich dazu benutzt wird, das eigene Weltbild zu bestätigen, bedeutet das eine Gefahr. Wir sollten uns dessen bewusst sein und gemeinsam global an einem ethischen und moralischen Kompass für die Roboter und Maschinen arbeiten, damit sie keine Gefahrenquelle darstellen.
Wie könnte dieser moralische und ethische Kompass denn aussehen und warum sollten Maschinen, die immer schlauer werden, ihn akzeptieren?
Die Roboter der Zukunft, die viel klüger sein werden als wir, werden nicht wissen, woher diese Regeln kommen. Aber sie werden sie befolgen. Vergleichbar mit der Art und Weise, wie wir mit Religionen leben: Es gab Regeln von Gott oder Göttern, die wir einfach befolgten, ohne genau zu wissen, wo genau Gott war. Aber wir wussten, dass die Gesellschaft mit diesen Regeln besser funktionierte als ohne. Wir müssen für die Maschinen der Zukunft zu diesen Göttern werden – und dann hoffen, dass sie mehr oder weniger gottesfürchtig sind.
Neben dem möglichen Kontrollverlust und gezielter Desinformation könnte Massenarbeitslosigkeit eine negative Folge der KI-Technologie sein und für soziale Unruhen sorgen. Arbeitsplätze von Berufsgruppen wie Schriftstellern, Architekten und Software-Ingenieuren könnten wegfallen.
Wir sollten nicht ein Drohszenario über den Verlust von Arbeitsplätzen heraufbeschwören, denn das geschieht immer, wenn neue Technologien erfunden werden. Aber es verschwinden ja nicht nur Arbeitsplätze, es entstehen auch wieder viele neue. Es sind die repetitiven Jobs, die wegfallen werden. Und wenn Maschinen monotone Routinearbeiten übernehmen, heißt das, dass sich der Mitarbeiter voll und ganz auf seine Talente konzentrieren, neue Skills entwickeln und kreativer sein kann. Er kann sich darauf konzentrieren, Mehrwert zuzufügen. Und dann steigt die Produktivität. Auch diesmal bedeutet eine neue Technologie einen Fortschritt, auch innerhalb der Maslowschen Pyramide. Ich vergleiche das immer gern mit malen: Trainierte Computer malen sauber aus und bleiben dabei innerhalb der Linien. Und wir Menschen bestimmen diese Linien und übernehmen das Ausmalen außerhalb der Linien.
Nicht nur Sprach-KI hat Ihrer Meinung nach enormes Potenzial, um das Leben jedes einzelnen zu verbessern. Wer wird denn von KI am meisten profitieren?
Ich sehe gerade drei Applikationsgebiete, bei denen KI eine bedeutende Rolle spielen wird. Das ist zum einen die Hightech-Industrie. Mein Institut sitzt wie ASML und viele andere Hightech-Unternehmen in Eindhoven. Um Moore’s Law lebendig zu halten und den nächsten Schritt zu machen, brauchen diese Unternehmen KI.
Darüber hinaus sind die Maschinen so komplex und produzieren so viele Daten, dass man KI auch zur Datenanalyse braucht, um diese Maschinen in Zukunft noch produktiver, noch zuverlässiger und noch smarter zu machen.
Und die anderen beiden Bereiche?
Die Medizintechnik. Sowohl in der Prävention, als auch in der Diagnostik und in der Behandlung der Patienten. Daten können dafür sorgen, dass wir in Zukunft gar nicht mehr krank werden oder Krankheiten wie Krebs und Alzheimer früh erkennen. Und wenn wir krank werden, dann können wir den Behandlungserfolg verbessern. Außerdem können medizinische Roboter die Gesundheitssysteme entlasten: Um auch in Zukunft eine gute Sorge gewährleisten zu können, können wir Computer und Roboter als Entlastung für das Pflegepersonal einsetzen, einfach schon deshalb, weil es nicht genügend Pflegekräfte gibt.
Im Automotive-Bereich und im Verkehr allgemein ist KI bereits im Einsatz. Wo geht die Entwicklung da hin?
Hier arbeiten wir nicht so sehr an der Version des komplett autonomen Fahrens, sondern vielmehr daran, den Verkehr mit Hilfe von Technologie viel sicherer zu gestalten, sowie an der Organisation von Mobilität und Logistik.
Dabei dient das smarte, selbstfahrende Auto immer als das Beispiel schlechthin für KI, oder?
Natürlich sind selbst rundfahrende Autos möglich, aber ich sehe deren Mehrwert nicht ganz. Sie wären eher eine abgespeckte Version des öffentlichen Nahverkehrs. Warum sollte ich denn meine Kinder, die ich den ganzen Tag nicht sehe, in ein selbstfahrendes Auto setzen und sie nicht selbst in die Schule fahren? Zudem kostet es enorm viel Know-how, die Autos wirklich so weit zu bringen. Ich sehe hierfür keinen Markt. Ich sehe hingegen schon einen Markt für Autos, die technisch sicher sind, 90% der Fahrt übernehmen, damit der Fahrer sich ausruhen kann, und deren Unfallrisiko auf ein Minimum reduziert sind. Hier zeigt sich der ganze Nutzen von KI: Wenn Roboter in den Linien malen, können wir uns auf das Menschliche konzentrieren.
Interview: Janine Damm