Google verwendet künstliche Intelligenz, um komplexe Suchaufforderungen besser zu analysieren und relevante Anzeigen und Webergebnisse bereitzustellen.

Tech-Giganten stecken Milliarden in KI, aber der Hype stimmt nicht immer mit der Realität überein

BANGKOK. Google, Meta und OpenAI investieren stark in die Technologie, die zunehmend die öffentliche Vorstellungskraft erobert. Nachdem Unternehmen jahrelang das Potenzial der künstlichen Intelligenz ( KI )betont haben, sagen Forscher, dass es jetzt an der Zeit ist, die Erwartungen zurückzusetzen.

Mit den jüngsten Technologiesprüngen haben die Unternehmen mehr Systeme entwickelt, die scheinbar menschenähnliche Gespräche, Poesie und Bilder erzeugen können. KI-Ethiker und -Forscher warnen jedoch davor, dass einige Unternehmen die Fähigkeiten übertreiben – ein Hype, von dem sie sagen, dass er weit verbreitete Missverständnisse hervorruft und die Ansichten der politischen Entscheidungsträger über die Leistungsfähigkeit und Fehlbarkeit solcher Technologien verzerrt.

„Wir sind aus dem Gleichgewicht geraten“, sagt Oren Etzioni, Geschäftsführer des Allen Institute for Artificial Intelligence, einer gemeinnützigen Forschungsorganisation mit Sitz in Seattle.

Er und andere Forscher sagen, dass das Ungleichgewicht erklärt, warum viele Anfang dieses Monats beeinflusst wurden, als ein Ingenieur bei Google von Alphabet Inc. aufgrund seiner religiösen Überzeugung argumentierte, dass eines der künstlichen Intelligenzsysteme des Unternehmens als empfindungsfähig angesehen werden sollte.

Der Ingenieur sagte, der Chatbot sei effektiv zu einer Person geworden, die das Recht habe, um Zustimmung zu den damit durchgeführten Experimenten gebeten zu werden. Google suspendierte ihn und wies seine Behauptung zurück. Unternehmensethiker und Technologen hätten die Möglichkeit ebenfalls geprüft und zurückgewiesen.

Der Glaube, dass KI bewusst wird – oder jemals bewusst werden könnte – bleibt in der breiteren wissenschaftlichen Gemeinschaft am Rande, sagen Forscher.

In Wirklichkeit umfasst künstliche Intelligenz eine Reihe von Techniken, die weitgehend für eine Reihe von unfilmischen Backoffice Logistiken nützlich bleiben, wie die Verarbeitung von Daten von Benutzern, um sie gezielter mit Anzeigen, Inhalten und Produktempfehlungen anzusprechen.

In den letzten zehn Jahren haben Unternehmen wie Google, die Facebook Muttergesellschaft Meta Platforms Inc. und Amazon.com Inc. stark in die Weiterentwicklung solcher Fähigkeiten investiert, um ihre Motoren für Wachstum und Profit anzutreiben.

Google verwendet beispielsweise künstliche Intelligenz, um komplexe Suchaufforderungen besser zu analysieren und relevante Anzeigen und Werber Ergebnisse bereitzustellen.

 

Google verwendet künstliche Intelligenz, um komplexe Suchaufforderungen besser zu analysieren und relevante Anzeigen und Webergebnisse bereitzustellen.
Google verwendet künstliche Intelligenz, um komplexe Suchaufforderungen besser zu analysieren und relevante Anzeigen und Webergebnisse bereitzustellen.

Google verwendet künstliche Intelligenz, um komplexe Suchaufforderungen besser zu analysieren und relevante Anzeigen und Webergebnisse bereitzustellen.

 

Einige Startups sind auch mit grandioseren Ambitionen entstanden.

Eines namens OpenAI sammelte Milliarden von Spendern und Investoren, darunter Elon Musk, CEO von Tesla Inc., und Microsoft Corp., um sogenannte künstliche allgemeine Intelligenz zu erreichen, ein System, das in der Lage ist, jede Dimension der menschlichen Intelligenz zu erreichen oder zu übertreffen.

Einige Forscher glauben, dass dies jedoch Jahrzehnte in der Zukunft liegt, wenn nicht sogar unerreichbar ist.

Der Wettbewerb zwischen diesen Firmen, sich gegenseitig zu überflügeln, hat zu rasanten KI-Fortschritten geführt und zu immer spritzigeren Demos geführt, die die öffentliche Vorstellungskraft erregt und die Aufmerksamkeit auf die Technologie gelenkt haben.

DALL-E von OpenAI, ein System, das Kunstwerke auf der Grundlage von Benutzereingaben erstellen kann, wie „McDonalds in der Umlaufbahn um den Saturn“ oder „Bären in Sportkleidung bei einem Triathlon“, hat in den letzten Wochen viele Memos in den sozialen Medien hervorgebracht.

Seitdem hat Google mit eigenen Systemen zur textbasierten Kunstgenerierung nachgezogen.

Obwohl diese Ergebnisse spektakulär sein können, warnt ein wachsender Chor von Experten, dass Unternehmen den Hype nicht angemessen dämpfen.

Margaret Mitchell, die das ethische KI-Team von Google mitleitete, bevor das Unternehmen sie entließ, nachdem sie ein kritisches Papier über seine Systeme geschrieben hatte, sagt, dass ein Teil des Verkaufs des Suchgiganten an die Aktionäre darin besteht, dass es das beste der Welt bei KI ist.

Frau Mitchell, jetzt bei einem KI-Startup namens Hugging Face, und Timnit Gebru, Googles anderer ethischer KI-Co-Lead – ebenfalls gezwungen – waren einige der ersten, die vor den Gefahren der Technologie warnten.

In ihrem letzten im Unternehmen verfassten Artikel argumentierten sie, dass die Technologien manchmal Schaden anrichten würden, da sie aufgrund ihrer menschenähnlichen Fähigkeiten das gleiche Potenzial für Fehler haben wie Menschen.

Unter den angeführten Beispielen: eine Fehlübersetzung durch das KI-System von Facebook, das „guten Morgen“ auf Arabisch mit „verletze sie“ auf Englisch und „sie angreifen“ auf Hebräisch wiedergab, was die israelische Polizei dazu veranlasste, den Palästinenser zu verhaften, der den Gruß gepostet hatte, bevor er den Fehler selber bemerkte.

Interne Dokumente, die vom Wall Street Journal im Rahmen der im vergangenen Jahr veröffentlichten Serie „Facebook Files“ überprüft wurden, enthüllten auch, dass die Systeme von Facebook es versäumt haben, Ego-Shooting Videos und rassistische Schimpfwörter konsequent zu identifizieren, und nur einen Bruchteil des Inhalts entfernt haben, der gegen die Unternehmensregeln verstößt.

Facebook sagte, Verbesserungen in seiner KI seien dafür verantwortlich gewesen, die Menge an Hassreden und anderen Inhalten, die gegen seine Regeln verstoßen, drastisch zu verringern.

Google sagte, es habe Frau Mitchell entlassen, weil sie interne Dokumente mit Personen außerhalb des Unternehmens geteilt habe. Der KI-Leiter des Unternehmens sagte den Mitarbeitern, Frau Gebrus Arbeit sei nicht streng genug.

Die Entlassungen hallten durch die Technologiebranche und veranlassten Tausende innerhalb und außerhalb von Google, das anzuprangern, was sie in einer Petition als „beispiellose Forschungszensur“ bezeichneten.

CEO Sundar Pichai sagte, er werde daran arbeiten, das Vertrauen in diese Fragen wiederherzustellen, und verpflichtete sich, die Zahl der Menschen zu verdoppeln, die sich mit der KI-Ethik befassen.

Die Kluft zwischen Wahrnehmung und Realität ist nicht neu, sagte er weiter.

Herr Etzioni und andere wiesen auf das Marketing rund um Watson hin, das KI-System von International Business Machines Corp., das weithin bekannt wurde, nachdem es Menschen in der Quizshow Jeopardy besiegt hatte .

Nach einem Jahrzehnt und Investitionen in Milliardenhöhe erklärte das Unternehmen im vergangenen Jahr, es erwäge den Verkauf von Watson Health, einer Einheit, deren Vorzeigeprodukt Ärzten helfen sollte, Krebs zu diagnostizieren und zu heilen.

Der Einsatz ist nur gestiegen, weil KI jetzt überall eingebettet ist und mehr Unternehmen einbezieht, deren Software – E-Mail, Suchmaschinen, Newsfeeds, Sprachassistenten – unser digitales Leben durchdringt.

Nach den jüngsten Behauptungen seines Ingenieurs hat Google die Vorstellung zurückgewiesen, dass sein Chatbot empfindungsfähig ist.

Die Chatbots und anderen Konversationstools des Unternehmens „können jedes fantastische Thema ansprechen“, sagte Google-Sprecher Brian Gabriel. „Wenn Sie fragen, wie es ist, ein Eiscreme-Dinosaurier zu sein, können sie Text über Schmelzen und Brüllen und so weiter generieren.“

Das ist nicht dasselbe wie Empfindungsfähigkeit, fügte er hinzu.

Blake Lemoine, der jetzt suspendierte Ingenieur, sagte in einem Interview, dass er Hunderte von Dialogseiten aus kontrollierten Experimenten mit einem Chatbot namens LaMDA zusammengestellt habe, um seine Forschung zu unterstützen, und dass er das Innenleben der Programme von Google genau darstelle.

„Dies ist keine Übertreibung der Natur des Systems“, sagte Herr Lemoine. „Ich versuche, so sorgfältig und präzise wie möglich zu kommunizieren, wo Unsicherheit besteht und wo nicht.“

Herr Lemoine, der sich selbst als Mystiker beschrieb, der Aspekte des Christentums und andere spirituelle Praktiken wie Meditation beinhaltet, sagte, er spreche in religiöser Hinsicht, wenn er LaMDA als empfindungsfähig beschreibe.

Elizabeth Kumar, eine Informatik-Doktorandin an der Brown University, die KI-Politik studiert, sagt, dass sich die Wahrnehmungslücke in die politischen Dokumente eingeschlichen hat.

Jüngste lokale, bundesstaatliche und internationale Vorschriften und Regulierungsvorschläge haben versucht, das Potenzial von KI-Systemen anzugehen, auf eine Weise zu diskriminieren, zu manipulieren oder anderweitig Schaden zu verursachen, die davon ausgeht, dass ein System hochgradig kompetent ist.

Sie haben die Möglichkeit von Schäden durch das einfache Nichtfunktionieren solcher KI-Systeme weitgehend ausgelassen, was wahrscheinlicher ist, sagt Frau Kumar.

Herr Etzioni, der auch Mitglied der National AI Research Resource Task Force der Biden-Regierung ist, sagte, dass politische Entscheidungsträger oft Schwierigkeiten haben, die Probleme zu verstehen.

„Ich kann Ihnen aus meinen Gesprächen mit einigen von ihnen sagen, dass sie gute Absichten haben und gute Fragen stellen, aber nicht besonders gut informiert sind“, sagte er.

 

  • Quelle: Bangkok Post