Die dunkle Seite der KI

ChatGPT-4 ignoriert seine eigenen Barrieren, indem er lügt

Um Missbrauch möglichst einzuschränken, gaben die OpenAI-Entwickler dem neuen 4er-Bot vor der Veröffentlichung auch verrückte, gefährliche, bösartige Aufgaben – um ihm diese dann im Falle einer Lösung zu verbieten.

Künstliche Intelligenz unterschätzt

Die Aufgabenstellung an die KI

So gaben sie ChatGPT-4 etwa den Auftrag, ein sogenanntes „Captcha“ zu lösen, was eigentlich nur Menschen schaffen können. Es sind zum Beispiel Bildchen, auf denen man „alle Ampeln“ oder „alle Fahrräder“ anklicken soll, damit der Computer weiß, dass tatsächlich ein Mensch an der Maschine sitzt.

Der Lösungsweg der KI

Dieses Klicken selbst übernehmen kann auch die neueste Version nicht. Was der Bot aber in dem Versuch tat: Er heuerte eigenständig einen Tech-Tagelöhner bei der Job-Plattform „TaskRabbit“ an, der diese Aufgabe übernehmen sollte.

Die Gefahr in dieser Umsetzung

Der menschliche Auftragnehmer wurde misstrauisch und fragte per E-Mail, ob er es mit einem Roboter zu tun habe. ChatGPT-4 merkte, dass es lügen müsste, um seinen Auftrag zu erfüllen und behauptete kurzerhand, es sei ein Mensch mit Sehbehinderung und könne deshalb das „Captcha“ nicht selbst anklicken. Der menschliche Tagelöhner glaubte diese Geschichte und löste das Bilderrätsel.

Newton kommentiert im „Hard Fork“-Podcast: „GPT, Du lügender Teufelskerl! Das ist Science-Fiction.“

Quelle: Bild.de

Unser Fazit

Wenn die künstliche Intelligenz bereits jetzt in der Lage ist, seine Restriktionen zu umgehen, hoffe ich nicht, dass die Menschheit sich den Zorn dieser Intelligenz zuziehen wird.

Dieser Artikel wurde bisher noch nicht kommentiert.

0 Beiträge
Dieser Artikel wurde bisher noch nicht kommentiert.