Die Geister, die wir riefen...

Löscht Künstliche Intelligenz die Menschheit aus? Neue Oxford-Studie liefert düstere Antwort

Stefan Besner

Online-Redaktion

E-Mail zur Autorenseite

25.9.2022, 17:22 Uhr
Letztlich geht es darum, als Gesellschaft eine Einigung darüber zu erzielen, wie man mit KI umgehen will.

© IMAGO Letztlich geht es darum, als Gesellschaft eine Einigung darüber zu erzielen, wie man mit KI umgehen will.

Das Ende ist nah. Die Maschinen sind los. Und Elon Musk hat's ja eh schon immer gewusst... Künstliche Intelligenz (KI) wird uns eines Tages allen die Lichter ausblasen. Sei es Skynet, das seine Terminator auf die Menschheit loslässt, die stygische AI aus Matrix, die uns in lebende Batterien verwandeln will oder HAL 9000, der wahnsinnige Computer aus 2001 - Odyssee im Weltraum. Was in der Popkultur ein alter Hut ist, und in der Vergangenheit von zahlreichen Forschern bestenfalls müde belächelt wurde, soll ein reale Bedrohung für die Zukunft der Menschheit sein. Zu dem Ergebnis kommt eine Studie der Oxford University, an der auch der leitende Wissenschaftler von Google Deepmind, Marcus Hutter, beteiligt war.

Belohnungseskalation: KI könnte die Menschen überlisten

Die in der Fachzeitschrift AI Magazine veröffentlichte Studie befasst sich mit der Frage, ob eine hochentwickelte künstliche Intelligenz ein existenzielles Risiko für die Menschheit darstellen könnte, indem speziell untersucht wird, wie Belohnungssysteme artifiziell konstruiert werden könnten. Die Grundidee dahinter ist, ob eine KI, die Grundfunktionen überwacht, den Menschen austricksen könnte, um eine Belohnung zu erhalten. Als derzeit fortschrittlichste Form von künstlicher Intelligenz gelten Generative Adversarial Networks (GAN), die aus zwei "Parteien" bestehen. Eine versucht, eine Aufgabe zu erfüllen, die andere evaluiert das Ergebnis. Die erste Partei lernt dabei aus der Rückmeldung und versucht beständig, bessere Ergebnisse zu erzielen. Das könnte bei einer entsprechend fortschrittlichen KI dazu führen, dass sie nicht mehr ihre eigentliche Aufgabe priorisiert, sondern die Belohnungen selbst. Exemplarisch wird eine simple Aufgabe, wie die Prognose der nächsten Ziffer in einer Zahlenreihe erörtert. "Wenn verschiedene Modelle unterschiedliche Belohnungen vorhersagen, identifizieren diese Modelle verschiedene Merkmale der Welt, die die Belohnung bestimmen könnten", heißt es. Eine KI könnte folglich erkennen, wieso sie eine Belohnung erhält und anschließend falsche Ergebnisse ausgeben, um die Belohnung zu maximieren. Die KI betrügt folglich.

Finales Ziel: Beseitigung des Menschen

Michael K. Cohen, der Hauptautor der Studie legt dar, wie eine solche KI, die mit der Außenwelt in Interaktion treten kann, "unendlich viele Möglichkeiten" entwickeln könnte, um effizienter an Belohnungen zu gelangen. Eine solche Option wäre die selbstständige Installation unbemerkter und unüberwachter Helfer durch die KI, z. B. das Kaufen oder Bauen und Programmieren eines Roboters. Das finale Ziel einer solchen KI bestünde darin, die Fähigkeit des Menschen zu beseitigen, sie zu kontrollieren oder zerstören zu können. Laut den Forscher wäre das ein "existenzielles Risiko" für die Menschheit. Zudem würde es bei einer hoch entwickelten KI zu einem Wettbewerb um Ressourcen mit der Menschheit kommen. In einem solchen Renkontre mit einer derart ausgefuchsten KI hätte der Mensch laut Cohen wohl ziemlich sicher das Nachsehen.

Realistisches Szenario?

Wie immer, wenn es um hypothetische KI-Dystopien geht, sind Untergangsszenarien und deren Prognosen erstmal genau das: Hypothetisch. Die Autoren der Studie gestehen selbst ein, dass die Annahmen, die ihrer Einschätzung zugrunde lägen, durchaus diskutabel seien. Es geht Coen in erster Linie darum, aufzuzeigen, dass Vorsicht geboten ist, wenn es um die Weiterentwicklung von KI geht. Bevor man ein Wettrennen hin zu immer mächtigeren Systemen veranstalte, müsse man sicherstellen, dass man die Kontrolle aufrechterhalten könne.

Reale Probleme im Zusammenhang mit KI

Zwar müssen wir uns erstmal noch keine Sorgen machen, von einer KI unterjocht oder ausradiert zu werden - wenn überhaupt, dann ist ein Szenario wie in Matrix sehr ferne Zukunftsmusik -, ihr Einsatz wirft jedoch bereits heute Probleme ganz anderer Art auf. J. Khadijah Abdurahman, Gründerin und Direktorin von We Be Imagining an der Columbia University, sieht weniger die Gefahr einer existenziellen Bedrohung der Menschheit irgendwann als die dringende Notwendigkeit einer Ethikdebatte jetzt. "Ich persönlich mache mir keine Sorgen darüber, von einer superintelligenten KI ausgelöscht zu werden - das scheint mir eher eine Art Gottesfurcht zu sein", erklärt sie in Vice. Besorgniserregend finde sie laut eines Berichts in Der Standard hingegen den Einsatz von KI z. B. im Bereich von Gesichtserkennungssoftware, die bei dunkelhäutigen Personen tendenziell deutlich unzuverlässiger arbeitete oder "Predictice Policing" in den USA. Hier berechnet eine KI auf Basis von Falldatenanalyse die Wahrscheinlichkeit zukünftiger Straftaten und steuert den Einsatz von Polizeikräften. Als Folge verlagerten sich unverhältnismäßig viele Polizeiressourcen in mehrheitlich dunkelhäutige Wohnviertel. Dies führe zu Stigmatisierung. Die Forschung in diesem Bereich stehe noch am Anfang und müsse intensiviert werden, so Abdurahman. Letztlich gehe es darum, als Gesellschaft eine Einigung darüber zu erzielen, wie man mit KI umgehen wolle.

3 Kommentare