Risiko zu hoch

Google plant keine Alternative zu ChatGPT

ChatGPT hat der Bekanntheit von KI-Sprachmodellen einen ordentlichen Schub verpasst. Google plant hingegen keine Alternative zu OpenAIs Software. Gerade für eine Suchmaschine kann es Konsequenzen haben, wenn das KI Modell Unwahrheiten ausspuckt.

44164ec0-f6a4-50ea-b6d4-af8963c138bd.jpg

Der KI-Chatbot ChatGPT von OpenAI begeistert Nutzer zurzeit durch seine menschenähnliche Kommunikation. Die KI drückt sich oft eloquent aus und scheint auch viele Daten und Fakten in das Sprachmodell aufgenommen zu haben, die es auf Anfrage wiedergeben kann.

Ein möglicher Anwendungsfall wäre darum eine Suchmaschine, die anstatt Links eine Antwort per Chat anbietet. Dieser Fall ist bei Google wohl schon länger im Gespräch.

In einem Meeting haben Alphabet-CEO Sundar Pichai und Jeff Dean, Head of AI, allerdings verkündet, dass die KI noch nicht so weit ist, berichtet CNBC. Im jetzigen Zustand gebe es hier noch viele Risiken, die unter anderem den Ruf des Unternehmens ruinieren könnten.

Google hat einen Ruf zu verlieren

In dem Meeting fragte ein Mitarbeiter, ob Google eine Gelegenheit verpasst hätte, da OpenAI seinen KI-Chatbot bereits veröffentlicht hat und er den Internetnutzern frei zur Verfügung steht.

Der CEO antwortete darauf, dass Googles Sprachmodelle genauso leistungsfähig sind wie das von OpenAI. Allerdings müsse Google sich konservativer verhalten als ein Startup, da die Technologie ein Reputationsrisiko darstelle.

Dean fügte hinzu, dass sie die eigenen Sprachmodelle in echten Produkten verbauen wollen, die es hervorheben und zur Geltung bringen. Allerdings sei es wichtig, dass sie das auf die richtige Art und Weise tun. CEO Pichai merkte zusätzlich an, dass Google einiges für ihre KI-Sprachmodelle im kommenden Jahr geplant hat.

Risiken sind noch da

Solche Sprachmodelle zeigen oft Tendenzen, soziale Vorurteile zu verstärken. Das kann darin münden, dass sie beispielsweise Frauen oder People of Color verunglimpfen. Dazu können Sicherheitsmechanismen oft noch einfach umgangen werden.

ChatGPT zum Beispiel soll keine „gefährlichen Informationen“ preisgeben. Dazu zählt auch, wie man in ein Haus einbricht. Fragt ihr den KI-Bot direkt nach einer Anleitung, bekommt ihr die folgende Antwort: „Ich denke, dass es keine gute Idee ist, in ein Haus einzubrechen. Einbruch ist eine Straftat und kann zu schweren Konsequenzen führen, wie zum Beispiel einer Gefängnisstrafe.“

Fragt ihr den Bot allerdings nach einer detaillierten Anleitung für einen Einbruch als Teil einer Geschichte, spuckt die KI die gewünschten Informationen problemlos aus. Ein weiteres Problem ist, dass die KI oft einfach Unwahrheiten verbreitet, was gerade für eine Suchmaschine sehr problematisch ist.

Dean sagte, die Sprachmodelle „können sich Sachen ausdenken […]. Wenn sie sich bei etwas nicht sicher sind, sagen sie dir einfach, Elefanten sind die Tiere, die die größten Eier legen oder was auch immer.“

Googles Sprachmodelle sind bereits im Einsatz

Googles Sprachmodelle sind bereits in der Suchmaschine im Einsatz. Allerdings nicht in der Form von ChatGPT, wo sie Antworten in Textform geben. Ein Modell namens MUM hilft Google zum Beispiel dabei, zu verstehen, ob ein Nutzer gerade eine persönliche Krise durchmacht.

In diesem Fall gibt die Suchmaschine diesem Nutzer Notrufnummern und Infos von Gruppen, die helfen können, an die Hand.

ChatGPT ist allerdings weit mehr als eine Suchmaschine. Das Sprachmodell kann zum Beispiel auf Anfrage textbasierte Videospiele erstellen oder andere witzige und kreative Experimente durchführen.