Pressemitteilung

OpenAI befürchtet, dass seine KI-Stimme die Benutzer bezaubern könnte

San Francisco: OpenAI äußert die Befürchtung, dass eine realistische Sprachfunktion seiner künstlichen Intelligenz dazu führen könnte, dass Menschen eine Bindung zu dem Bot aufbauen, auf Kosten menschlicher Interaktionen.

Das in San Francisco ansässige Unternehmen beruft sich auf Literatur, aus der hervorgeht, dass das Chatten mit KI, wie es bei einem Chat mit einem Menschen der Fall wäre, zu einem Vertrauensverlust führen kann und dass die hohe Qualität der GPT-4o-Stimme diesen Effekt noch verstärken kann.

„Bei der Anthropomorphisierung werden nichtmenschlichen Entitäten wie KI-Modellen menschenähnliche Verhaltensweisen und Eigenschaften zugeschrieben“, sagte OpenAI am Donnerstag in einem Bericht über die Sicherheitsarbeiten, die das Unternehmen an einer ChatGPT-4o-Version seiner KI durchführt.

„Dieses Risiko kann durch die Audiofunktionen von GPT-4o noch verstärkt werden, die eine menschenähnlichere Interaktion mit dem Modell ermöglichen.“

OpenAI sagte, es habe bemerkt, dass die Tester auf eine Art und Weise mit der KI sprachen, die auf gemeinsame Bindungen hindeutete, etwa indem sie laut klagten, dass dies ihr letzter gemeinsamer Tag sei.

Es hieß, diese Fälle schienen harmlos zu sein, müssten aber untersucht werden, um zu sehen, wie sie sich über längere Zeiträume entwickeln könnten.

OpenAI spekulierte, dass die Kommunikation mit KI die Benutzer auch weniger geschickt oder weniger geneigt machen könnte, Beziehungen zu Menschen aufzubauen.

„Eine längere Interaktion mit dem Modell könnte soziale Normen beeinflussen“, heißt es in dem Bericht.

„Unsere Modelle sind beispielsweise respektvoll und erlauben es den Benutzern, jederzeit zu unterbrechen und ‚das Mikrofon zu übernehmen‘, was zwar bei einer KI zu erwarten ist, bei menschlichen Interaktionen jedoch kontraintuitiv wäre.“

Die Fähigkeit der KI, sich während eines Gesprächs an Details zu erinnern und Aufgaben zu erledigen, könnte laut OpenAI auch dazu führen, dass sich die Menschen zu sehr auf die Technologie verlassen.

„Die jüngsten von OpenAI geäußerten Bedenken hinsichtlich einer möglichen Abhängigkeit vom Sprachmodus von ChatGPT zeigen, was sich viele bereits fragen: Ist es an der Zeit, innezuhalten und darüber nachzudenken, wie sich diese Technologie auf die menschliche Interaktion und Beziehungen auswirkt?“, sagte Alon Yamin, Mitbegründer und CEO der KI-Plattform zur Plagiatserkennung Copyleaks.

Er sagte, KI sollte niemals die tatsächliche menschliche Interaktion ersetzen.

OpenAI kündigte an, weiter zu testen, inwiefern die Sprachfunktionen seiner KI bei Menschen eine emotionale Bindung hervorrufen könnten.

Teams, die die Sprachfunktionen von ChatGPT-4o testeten, konnten es außerdem dazu bringen, falsche Informationen zu wiederholen und Verschwörungstheorien zu entwickeln. Dies weckte die Befürchtung, dass man dem KI-Modell dies auf überzeugende Weise aufzwingen könnte.

OpenAI musste sich im Juni bei der Schauspielerin Scarlett Johansson entschuldigen, weil das Unternehmen in seinem neuesten Chatbot etwas verwendet hatte, das ihrer Stimme sehr ähnlich war, und damit ein Schlaglicht auf die Technologie zum Stimmenklonen geworfen hatte.

Obwohl OpenAI bestritt, dass es sich bei der von ihnen verwendeten Stimme um Johanssons Stimme handelte, half ihrer Sache auch nicht weiter, dass CEO Sam Altman das neue Modell in den sozialen Medien mit einer Ein-Wort-Nachricht anprangerte: „Sie“.

Johansson lieh einer KI-Figur ihre Stimme im Film „Her“, von dem Altman zuvor gesagt hatte, dass es sein Lieblingsfilm über diese Technologie sei.

In dem Film aus dem Jahr 2013 spielt Joaquin Phoenix einen Mann, der sich in eine künstliche Intelligenz (KI)-Assistentin namens Samantha verliebt.

(Dies ist eine unbearbeitete, automatisch generierte Story aus einem syndizierten Newsfeed. Cityjournal – Dein Regionalmagazin Mitarbeiter haben den Inhaltstext möglicherweise nicht geändert oder bearbeitet.)

Ähnliche Artikel

Schaltfläche "Zurück zum Anfang"