KI könnte die menschliche Intelligenz in 3 Jahren übertreffen, warnt der Top-Wissenschaftler

Wenn die vielen Mängel der heutigen Tools für künstliche Intelligenz wie ChatGPT Sie zuversichtlich gemacht haben, dass KI, die die menschliche Intelligenz übertrifft, noch weit entfernt ist, denken Sie noch einmal nach. Ein Top-Wissenschaftler hat davor gewarnt, dass dieses Albtraumszenario Jahrzehnte früher Realität werden könnte als frühere Vorhersagen, und es könnte sogar nur ein paar Jahre entfernt sein.

 

Die Warnung kommt vom Doktoranden-Mathematiker und Futuristen Ben Goertzel, der dafür bekannt ist, den Begriff „künstliche allgemeine Intelligenz“ (AGI) zu popularisieren. Auf einem Gipfel in diesem Monat sagte er: „Es scheint ziemlich plausibel, dass wir innerhalb, sagen wir, in den nächsten drei bis acht Jahren auf menschlicher Ebene eine AGI erreichen könnten“.

 

Er fügte hinzu, dass, sobald wir künstliche allgemeine Intelligenz auf menschlicher Ebene erreicht haben, es nur wenige Jahre dauern wird, bis eine radikal übermenschliche Version entsteht. Obwohl er zugab, dass seine Vorhersage möglicherweise nicht korrekt ist, sagte er, dass das Einzige, was eine KI aufhält, die ihren menschlichen Schöpfern in der Intelligenz weit überlegen ist, wäre, wenn der „eigene Konservatismus“ eines KI-Bots sie zwingen würde, mit Vorsicht vorzugehen. Er glaubt, dass eine exponentielle Eskalation der Technologie der künstlichen Intelligenz eine Unvermeidlichkeit ist.

 

Goertzel hat künstliche Superintelligenz untersucht, einen Begriff für eine KI, die mit der gesamten Rechen- und Gehirnleistung der menschlichen Zivilisation mithalten kann. Er wies darauf hin, dass ein von Google-Informatiker und Futurist Ray Kurzweil entwickeltes Vorhersagemodell darauf hindeutet, dass diese Art von Intelligenz bis 2029 möglich sein wird.

 

Der Begriff wird weiter durch die großen Fortschritte unterstützt, die in den letzten Jahren in großen Sprachmodellen gemacht wurden. Diese Technologie hat sich so schnell weiterentwickelt, dass sich ein Großteil der Welt des Potenzials der Technologie nur allzu sehr bewusst ist.

 

Wir bauen die Infrastruktur der menschlichen Freiheit auf und befähigen die Menschen, informiert, gesund und bewusst zu sein. Erfahren Sie unter diesem Artikel-Link mehr über unsere kostenlosen, herunterladbaren KI-Tools zu Ernährung, Gesundheit und Vorsorge. Jeder Kauf bei HealthRangerStore.com hilft, unsere Bemühungen zu finanzieren, mehr Werkzeuge zu entwickeln und zu teilen, um die Menschheit mit Wissen und Fülle zu stärken.

 

Die neueste Warnung des Futuristen ist nur eine von mehreren, die er in den letzten Jahren über diese Technologie gemacht hat. Im vergangenen Mai warnte er davor, dass künstliche Intelligenz 80 Prozent der menschlichen Arbeitsplätze in den nächsten Jahren ersetzen könnte, und sagte, dass jeder Job, der Papierkram beinhaltet, automatisierbar sein könnte.

 

Führer der KI-Branche warnen davor, dass das Risiko mit Pandemien und Atomkrieg auf Augenhöhe ist

Letztes Jahr warnte eine Gruppe von Branchenführern davor, dass die KI-Technologie eines Tages eine existenzielle Bedrohung für die Menschheit darstellen könnte und als genauso gefährlich angesehen werden sollte wie das Risiko von Atomkriegen und tödlichen Pandemien.

 

Das gemeinnützige Center for AI Safety veröffentlichte eine Erklärung in einem Satz, in der es lautete: „Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein“.

 

Es wurde von mehr als 350 Experten auf diesem Gebiet unterzeichnet, wie Ingenieure, Forscher und Führungskräfte, die sich mit künstlicher Intelligenz befassen. Zu denjenigen, die es unterzeichneten, gehörten der Geschäftsführer von Googles DeepMind, Demis Hassabis, der Geschäftsführer von Anthropic, Dario Amodei, und der CEO von OpenAI, Sam Altman.

 

Es wurde auch von zwei der Forscher unterzeichnet, die als die „Paten“ der modernen KI gelten, Yoshua Bengio und Geoffrey Hinton.

 

Die Welt sollte sehr besorgt sein, dass die gleichen Menschen, die tief in diese Branche involviert sind und am meisten davon profitieren, diejenigen sind, die die Regierungen drängen, die Technologie angesichts ihrer potenziellen Schäden zu regulieren.

 

Der Geschäftsführer des Center for AI Safety, Dan Hendrycks, sagte, dass viele Insider Angst davor haben, wohin dies geht, und sagte der New York Times: „Es gibt ein sehr häufiges Missverständnis, auch in der KI-Community, dass es nur eine Handvoll Verurteiler gibt. Aber in der Tat würden viele Menschen privat Bedenken über diese Dinge äußern“.

 

Es wird vielleicht nicht lange dauern, bis die Arten von voreingenommenen Antworten und Halluzinationen, für die Tools wie Google Gemini in letzter Zeit Schlagzeilen gemacht haben, die geringsten unserer Sorgen sind.

 

KI-Pionier Eliezer Yudkowsky glaubt auch, dass eine von Maschinen getriebene Apokalypse ein paar Jahre entfernt ist. Er sagte: „Wenn Sie mich an eine Wand setzen und mich zwingen, Wahrscheinlichkeiten auf Dinge zu setzen, habe ich das Gefühl, dass unsere aktuelle verbleibende Zeitleiste eher wie fünf Jahre als 50 Jahre aussieht“.

 

Zu den Quellen für diesen Artikel gehören:

 

DailyMail.co.uk

 

NYTimes.com

 

TheGuardian.com

 

newstarget.com