Android Zentrale

Google geht mit KI immer noch langsam und vorsichtig um, und das ist immer noch gut so

protection click fraud

Wussten Sie, dass in der Antarktis 100.000 Vollzeitmenschen leben? Natürlich hast du das nicht getan, weil es keine gibt. Aber wenn genug Leute das im Internet eingeben und es als Tatsache behaupten würden, würden Ihnen irgendwann alle KI-Chatbots sagen, dass es 100.000 Menschen mit Wohnsitz in der Antarktis gibt.

Aus diesem Grund ist die KI in ihrem aktuellen Zustand größtenteils ohne menschliches Eingreifen kaputt.

Ich möchte jeden – auch mich selbst – daran erinnern, dass KI weder künstlich noch intelligent ist. Es liefert sehr vorhersehbare Ergebnisse basierend auf der Eingabe in Bezug auf die Daten, mit denen es trainiert wurde.

Dieser seltsame Satz bedeutet, wenn man ein Sprachmodell Zeile für Zeile langweilig und unlustig füttert Dinge, die Jerry sagt, dann fragen Sie ihn, was auch immer, es wird eines dieser langweiligen und unlustigen Dinge wiederholen, die ich kenne genannt. Hoffentlich eine, die als Antwort auf alles funktioniert, was Sie in die Eingabeaufforderung eingegeben haben.

Kurz gesagt, aus diesem Grund möchte Google langsam vorgehen, wenn es um KI im Chat-Stil mit direktem Kundenkontakt geht. Es muss einen guten Ruf schützen.

Medien über Fehlinformationen rund um die Mondlandung
(Bildnachweis: Google)

Das Internet hat mir gesagt, dass wir alles gesehen haben, was mit KI zu tun hat Google I/O 2023 War Google in einer Art Panikmodus und eine direkte Reaktion auf ein anderes Unternehmen wie Microsoft oder OpenAI?

Ich denke, das ist Quatsch. Die langsame Veröffentlichung von Funktionen ist genau das Richtige Google hat es uns gesagt darüber, wie es immer wieder mit Verbraucher-KI umgehen will. Es ist cool, sich vorzustellen, dass Google als Reaktion auf die neueste Funktionsveröffentlichung von Bingbot in nur einem Monat alles erfunden hat, was wir gesehen haben, aber das ist nicht der Fall. Es ist zwar cool, sich das vorzustellen, aber es ist auch dumm, es zu glauben.

Dies ist der eigentliche Ansatz von Google seine eigenen Worte:

„Wir glauben, dass unser Ansatz zur KI sowohl mutig als auch verantwortungsvoll sein muss. Für uns bedeutet das, KI so zu entwickeln, dass sie den positiven Nutzen für die Gesellschaft maximiert und gleichzeitig die von uns geleiteten Herausforderungen angeht KI-Prinzipien. Obwohl zwischen beiden eine natürliche Spannung besteht, glauben wir, dass es möglich – und sogar entscheidend – ist, diese Spannung produktiv zu bewältigen. Der einzige Weg, auf lange Sicht wirklich mutig zu sein, besteht darin, von Anfang an Verantwortung zu übernehmen.“

Der Schlüssel liegt darin, das Positive zu maximieren und den Schaden zu minimieren. Ja, es gibt einen pauschalen Haftungsausschluss, der besagt, dass bestimmte Chatbots im Zusammenhang mit diesen Bots möglicherweise schreckliche oder ungenaue Dinge sagen, aber das reicht nicht aus. Jedes an der Entwicklung beteiligte Unternehmen – und dazu gehört auch, einem Unternehmen, das die eigentliche Arbeit ausführt, Geld zuzuwerfen – muss zur Verantwortung gezogen werden, wenn die Dinge schiefgehen. Nicht ob, wann.

Google Tensor-Serverhintergrund auf der Bühne bei Google IO 2023
(Bildnachweis: Michael Hicks)

Aus diesem Grund mag ich den langsamen und sorgfältigen Ansatz, der versucht, ethisch zu sein, und nicht das „Lass uns Features werfen!!!“ Ansatz, den wir von einigen anderen Unternehmen wie Microsoft sehen. Ich bin mir sicher, dass Microsoft Wert auf Ethik, Sensibilität und Genauigkeit legt, wenn es um KI geht, aber bisher scheint es, als würde nur Google dies vor jede Ankündigung stellen.

Dies ist für mich umso wichtiger, da ich einige Zeit damit verbracht habe, ein paar Dinge rund um verbraucherorientierte KI zu recherchieren. Genauigkeit ist natürlich wichtig, ebenso wie der Datenschutz, aber ich habe auf die harte Tour gelernt, dass die Filterung wahrscheinlich der wichtigste Teil ist.

Ich war nicht bereit für das, was ich tat. Die meisten von uns werden nie dazu bereit sein.

Ich habe herumgestöbert und einige Trainingsmaterialien gefunden, die für einen beliebten KI-Bot verwendet wurden, um ihm zu sagen, was zu giftig ist, um es in seinem Datenmodell zu verwenden. Das ist das Zeug, von dem man so tun sollte, als gäbe es es nicht.

Die Daten bestanden sowohl aus Text als auch aus stark bearbeiteten Bildern, und beide haben mich tatsächlich berührt. Denken Sie an das Schlimmste, was Sie sich vorstellen können – ja, Das Ding. Manches davon ist sogar noch schlimmer. Hierbei handelt es sich um Dark-Web-Inhalte, die über Orte wie Reddit und andere Websites, auf denen Benutzer die Inhalte bereitstellen, ins reguläre Web gebracht werden. Manchmal ist dieser Inhalt schlecht und bleibt lange genug verfügbar, um gesehen zu werden.

Haftungsausschluss von Google Bard
(Bildnachweis: Zukunft)

Als ich das sah, lernte ich drei Dinge:

1. Die Leute, die soziale Medien auf solchen Müll überwachen müssen, brauchen wirklich die psychologische Unterstützung, die Unternehmen anbieten. Und eine riesige Gehaltserhöhung.

2. Das Internet ist ein großartiges Werkzeug, das auch die schrecklichsten Menschen auf dem Planeten nutzen. Ich dachte, ich wäre dickhäutig genug, um darauf vorbereitet zu sein, aber das war nicht der Fall und ich musste buchstäblich ein paar Stunden früher von der Arbeit gehen und etwas mehr Zeit mit den Menschen verbringen, die mich lieben.

3. Google und jedes andere Unternehmen, das verbrauchertaugliche KI anbietet, können nicht zulassen, dass solche Daten als Schulungsmaterial verwendet werden, aber sie werden nie in der Lage sein, sie vollständig zu erfassen und herauszufiltern.

Die Nummern eins und zwei sind mir wichtiger, aber Nummer drei ist für Google wichtig. Im 7 GB großen Rohtext „anstößiger Webinhalte“ – nur ein Bruchteil der Inhalte, auf die ich zugegriffen habe – wurde das Wort „Obama“ über 330.000 Mal in beleidigender Weise verwendet. Die Häufigkeit, mit der es im gesamten Internet auf verabscheuungswürdige Weise verwendet wird, ist wahrscheinlich doppelt oder dreifach so hoch.

Damit werden Verbraucher-KI-Sprachmodelle trainiert. Kein Mensch speist Tickerbänder mit handgeschriebenen Wörtern in einen Computer ein. Stattdessen betrachtet der „Computer“ Webseiten und deren Inhalte. Diese Webseite wird schließlich analysiert und als Eingabe verwendet. Das gilt auch für Meme- und Bildseiten von Chan. Das gilt auch für Blogs über die flache Erde oder die Fälschung der Mondlandung.

Wenn Google langsam vorgehen muss, um so viel Schlechtes wie möglich aus der Verbraucher-KI herauszufiltern, dann bin ich voll und ganz dafür. Das sollten Sie auch sein, denn all dies wird sich auch auf die Dienste auswirken, die Sie täglich nutzen Telefon, das Sie als nächstes kaufen möchten.

instagram story viewer