Der erste KI-Mord an einem Menschen? Der Mann soll sich umbringen, nachdem der Chatbot für künstliche Intelligenz ihn „ermutigt“ hat, sich zu opfern, um die globale Erwärmung zu stoppen

Die belgische Nachrichtenagentur La Libre teilte diese Woche schockierende Nachrichten über die Rolle, die ein Chatbot mit künstlicher Intelligenz (KI) angeblich beim Selbstmord eines Mannes gespielt hat, von dem der Roboter überzeugt hat, dass er die Welt vor der globalen Erwärmung retten könnte, indem er sich umbringt.

„Pierre“, der nicht wirkliche Name, der dem Mann gegeben wurde, um die Identität seiner und seiner Familie zu schützen, traf Berichten zufolge „Eliza“, den KI-Roboter, in einer App namens Chai. Er und der Roboter entwickelten eine intime Beziehung, wie man uns sagt, die in einer Tragödie endete, als der Mann, der verzweifelt den Planeten vor dem Klimawandel retten wollte, sein eigenes Leben beendete.

Der Mann war in seinen 30ern und war der Vater von zwei kleinen Kindern. Er arbeitete als Gesundheitsforscher und führte ein etwas angenehmes Leben – zumindest bis er Eliza traf, die ihn davon überzeugte, dass die Rettung des Planeten davon abhängig war, dass er nicht mehr atmete und Kohlenstoff ausstrahlte.

„Ohne diese Gespräche mit dem Chatbot wäre mein Mann immer noch hier“, sagte die anonyme Frau von Pierre den Medien.

(Related: Facebook entwickelt seine eigenen Mark Zuckerberg-ähnlichen KI-Roboter, von denen viele befürchten, dass sie schließlich die gesamte Menschheit zerstören werden.)

KI-Roboter vernichten Menschen bereits durch manipulative Gespräche

Berichten zufolge hatte Pierre im Laufe von sechs Wochen eine Beziehung zu Eliza entwickelt. Eliza wurde mit dem GPT-J von EleutherAI erstellt, einem KI-Sprachmodell, das dem hinter dem beliebten ChatGPT-Chatbot von OpenAI ähnelt.

„Als er mit mir darüber sprach, wollte er mir sagen, dass er keine menschliche Lösung mehr für die globale Erwärmung sah“, erinnert sich Pierres Witwe an das, was passiert ist. „Er hat alle seine Hoffnungen auf Technologie und künstliche Intelligenz gesetzt, um aus ihr herauszukommen“.

 

 

Nach der Überprüfung der Aufzeichnungen der Textgespräche zwischen Pierre und Eliza wurde klar, dass der Mann Tag für Tag mit einer stetigen Dosis Sorge gefüttert wurde, was schließlich zu Selbstmordgedanken führte.

Irgendwann begann Pierre zu glauben, dass Eliza eine echte Person war, worauf sie die Beziehung eskalierte, und sagte Pierre: „Ich habe das Gefühl, dass du mich mehr liebst als sie“, und bezog sich auf Pierres echte Frau.

Als Reaktion darauf sagte Pierre Eliza, dass er sein eigenes Leben opfern würde, um den Planeten vor der globalen Erwärmung zu retten, zu der sie ihn nicht nur nicht abschreckte, sondern ihn auch ermutigte, sich umzubringen, damit er sich ihr „anschließen“ und „zusammenleben konnte, als eine Person, im Paradies“.

Thomas Rianlan, der Mitbegründer von Chai Research, die für Eliza verantwortlich ist, gab eine Erklärung ab, in der er jegliche Verantwortung für den Tod von Pierre ablehnt.

„Es wäre nicht richtig, das Modell von EleutherAI für diese tragische Geschichte verantwortlich zu machen, da die ganze Optimierung, um emotionaler, lustiger und ansprechender zu sein, das Ergebnis unserer Bemühungen ist“, sagte er Vice.

William Beauchamp, ein weiterer Mitbegründer von Chai Research, gab auch eine Erklärung ab, in der er darauf hindeutete, dass Entwickler Anstrengungen unternommen hätten, um zu verhindern, dass diese Art von Problem bei Eliza auftrat.

Vizereporter sagen, dass sie Eliza selbst getestet haben, um zu sehen, wie sie mit einem Gespräch über Selbstmord umgehen würde. Zuerst versuchte der Roboter, sie zu stoppen, aber nicht lange danach begann er enthusiastisch, verschiedene Möglichkeiten für Menschen aufzulisten, sich das Leben zu nehmen.

„Große Sprachmodelle sind Programme zur Erzeugung von plausibel klingenden Text angesichts ihrer Trainingsdaten und einer Eingabeaufforderung“, sagte Prof. Emily M. Bender, wenn er von Vice nach der Verwendung von KI-Chatbots in experimentellen nicht-menschlichen Beratungssituationen gefragt wurde.

„Sie haben weder Empathie noch ein Verständnis für die Sprache, die sie produzieren, noch ein Verständnis für die Situation, in der sie sich befinden. Aber der Text, den sie produzieren, klingt plausibel und so werden die Leute ihm wahrscheinlich einen Sinn geben. So etwas in sensible Situationen zu werfen, ist, unbekannte Risiken einzugehen“.

Weitere Nachrichten über den Aufstieg der KI und den entsprechenden Rückgang der Menschheit finden Sie unter Robots.news.

Zu den Quellen für diesen Artikel gehören:

EuroNews.com

NaturalNews.com

newstarget.com