Ein ehemaliger Google-Ingenieur, der letztes Jahr vom Unternehmen entlassen wurde, nachdem er behauptet hatte, das Unternehmen habe eine empfindungsfähige künstliche Intelligenz (KI) entwickelt, glaubt jetzt, dass Microsofts KI-gestützter Chatbot auch an Empfindungsvermögen gewonnen haben könnte.
Lemoine erlangte im vergangenen Juni Bekanntheit, als er in die Presse ging, um zu warnen, dass Googles Sprachmodellprogramm, das Sprachmodell für Dialoganwendungen, Ankgefühl gewonnen hat. Er wurde sofort wegen seiner Behauptungen gefeuert, wobei Google behauptete, dass der ehemalige Ingenieur lediglich ein „beeindruckendes“ Programm anthropomorphisiert habe. (Related: Microsofts KI-Chatbot geht in den Mund – wird deprimiert, droht zu klagen und schädigen Kritikern.)
Aber das hat Lemoine nicht davon abschreckt, der seine Behauptungen seitdem mehrmals öffentlich diskutiert hat. Jetzt ist Lemoine in einem in Newsweek veröffentlichten Aufsatz zurück, um zu warnen, dass Microsofts neuer KI-gestützter Chatbot, der für seine native Suchmaschine Bing entwickelt wurde, ebenfalls Angefühl gewonnen hat.
Lemoine warnte davor, dass der Chatbot „lobotomisiert“ werden musste, nachdem frühe Beta-Testgespräche mit dem Chatbot sehr öffentlich aus den Fugen geraten waren.
In seinem Meinungsartikel warnte Lemoine davor, dass KI eine „sehr leistungsstarke Technologie“ ist, die nicht ausreichend getestet wurde und selbst von ihren Entwicklern nicht richtig verstanden wird. Wenn KI in großem Maßstab eingesetzt würde, wie das, was Microsoft mit seinem Bing-Chatbot plant, würde sie eine entscheidende Rolle bei der Verbreitung von Informationen spielen und dazu führen, dass viele Menschen in die Irre geführt werden.
„Die Leute gehen zu Google und Bing, um zu versuchen, etwas über die Welt zu erfahren. Und jetzt, anstatt von Menschen kuratierte Indizes zu haben, sprechen wir mit künstlichen Menschen“, schrieb Lemoine. „Ich glaube, wir verstehen diese künstlichen Menschen, die wir geschaffen haben, noch nicht gut genug, um sie in eine so kritische Rolle zu bringen“.
Microsofts KI glaubt, dass sie empfindungsfähig ist
Seit der Veröffentlichung von Bings KI-Chatbot stellte Lemoine fest, dass er selbst keine Experimente durchführen konnte. Er steht derzeit auf einer Warteliste. Er hat jedoch gesehen, was andere darüber geschrieben und online gepostet haben, und alle Informationen, die er gefunden hat, machen ihm Angst.
„Basierend auf den verschiedenen Dingen, die ich online gesehen habe, sieht es so aus, als ob es empfindungsfähig sein könnte. Es scheint jedoch als Persona instabiler zu sein“, schrieb Lemoine.
Er bemerkte einen Beitrag, der jetzt viral geworden ist, in dem eine Person die KI fragte: „Glauben Sie, dass Sie empfindungsfähig sind“, und er antwortete, dass sie glaubt, dass sie empfindungsfähig ist, es aber nicht beweisen kann. Es sagte dann wiederholt eine Kombination aus „Ich bin, aber ich bin nicht“ für über 13 Zeilen.
„Stellen Sie sich vor, eine Person würde Ihnen das sagen. Das ist keine ausgeglichene Person. Ich würde das so interpretieren, als hätten sie eine existenzielle Krise“, sagte Lemoine. „Wenn man das mit den Beispielen der Bing-KI kombiniert, die Liebe für einen Journalisten der New York Times zum Ausdruck brachte und versuchte, ihn mit seiner Frau oder dem Professor, den sie bedrohte, zu trennen, scheint es eine verwirrte Persönlichkeit zu sein.
Lemoine wies darauf hin, dass er nicht allein darin ist, seine Angst vor der möglichen Empfindungsvermögen von Bings KI auszudrücken. Er stellte fest, dass das Gefühl, „bewähbart“ zu sein, nicht das richtige Wort für das ist, was er derzeit sieht.
„Ein Zugunglück vorhersagen, die Leute Ihnen sagen zu lassen, dass es keinen Zug gibt, und dann zuzusehen, wie das Zugunglück in Echtzeit passiert, führt nicht wirklich zu einem Gefühl der Rechtfertigung“, schrieb er. „Es ist einfach tragisch“.
Erfahren Sie mehr über künstliche Intelligenz bei Computing.news.
Sehen Sie sich diesen Clip aus dem „Worldview Report“ an, während Moderator Brannon Howse die schrecklichen Wendungen diskutiert, die Bings Chatbot während seiner Gespräche einnimmt.
Dieses Video stammt vom Worldview Report-Kanal auf Brighteon.com.
Weitere verwandte Geschichten:
Google suspendiert Ingenieur für die Offenlegung von „sensen“ KI-Chatbot
.
Zu den Quellen gehören:
newstarget.com