Android Zentrale

Die menschlichen Trainer von Google Bard geben an, dass sie von „komplizierten“ Aufgaben frustriert sind

protection click fraud

Was du wissen musst

  • Vertragsarbeiter, die Bard von Google schulen, behaupten, die Arbeitsbedingungen seien frustrierend und die Anweisungen zu sechs Punkten seien „verwickelt“.
  • Mitarbeiter haben oft die Aufgabe, eine Antwort innerhalb von drei Minuten zu prüfen.
  • Auftragnehmer sind besorgt über Bards Ungenauigkeiten, allerdings heißt es in den Richtlinien, dass sie keine „strenge Faktenprüfung“ durchführen müssen.

KI-Software braucht immer noch echte Menschen, um sicherzustellen, dass sie auf dem richtigen Weg ist. Allerdings sollen solche Trainer bei Google mit unerträglichen Bedingungen konfrontiert sein.

Entsprechend BloombergAktuelle Dokumente, die der Veröffentlichung vorliegen, deuten darauf hin, dass menschliche Trainer für Googles KI-Chatbot Bard mit „verwickelten Anweisungen“ konfrontiert wurden. Sechs der aktuellen des Unternehmens Auftragnehmer haben sich über die nicht gerade hervorragenden Arbeitsbedingungen geäußert, und einer sagte: „So wie es jetzt aussieht, sind die Menschen verängstigt, gestresst, unterbezahlt und wissen nicht, was los ist.“ geht weiter.“

Angesichts dieser Belastung haben Mitarbeiter erklärt, dass sie oft damit beauftragt werden, eine Antwort innerhalb von drei Minuten zu prüfen. Im Kontext sind diese Vertragsarbeiter im Wesentlichen Bewerter: Personen, die damit beauftragt sind, die Relevanz, Authentizität und Kohärenz einer Antwort zu bestimmen Barde kann eine Anfrage auf der Grundlage einer Sechs-Punkte-Richtlinie anbieten.

Diese Trainer müssen außerdem sicherstellen, dass die Antworten keine beleidigenden oder schädlichen Inhalte enthalten. Angesichts dieser Tatsache die Richtlinien Landestrainer „müssen keinen strengen Faktencheck durchführen.“ Das mag zwar in Ordnung erscheinen, doch Trainer haben herausgefunden, dass Googles Bard dazu neigt, die „Hauptfakten“ zu einem Thema falsch darzustellen.

Es ist ein Rätsel, dass in den zuvor genannten Richtlinien bestimmte sachliche Ungenauigkeiten, wie z. B. ein falsches Datum, als „geringfügig“ eingestuft werden.

Darüber hinaus haben Bewerter Aufgaben wie die Bestimmung der geeigneten Dosierung für jemanden erwähnt, der Bluthochdruck behandeln möchte. Aufgrund der reinen Zeitbeschränkung befürchten die Mitarbeiter, dass Bard scheinbar korrekte Antworten gibt, obwohl dies nicht der Fall ist.

In einer Stellungnahme betont Google, dass die Bewerter nur eine der verschiedenen Methoden sind, mit denen das Unternehmen Antworten auf Genauigkeit und Qualität der Antworten prüft:

„Wir unternehmen umfangreiche Anstrengungen, um unsere KI-Produkte verantwortungsvoll zu entwickeln, einschließlich strenger Test-, Schulungs- und Feedbackprozesse, die wir über Jahre hinweg verfeinert haben, um die Faktizität hervorzuheben und Vorurteile zu reduzieren.“

Das Unternehmen fügt hinzu, dass es über die Genauigkeit hinaus noch andere Bereiche wie Ton und Präsentation gibt, für die einige besorgte Mitarbeiter möglicherweise geschult wurden.

Google scheinbar stürzte kopfüber nach dem Erfolg von OpenAIs ChatGPT für die Suchmaschine Bing von Microsoft in die Entwicklung eines eigenen KI-Chatbots eingestiegen. Nicht nur die menschlichen Trainer haben erklärt, dass sie seit Januar KI-Vorbereitungsarbeiten durchgeführt haben, um es für die öffentliche Veröffentlichung vorzubereiten, sondern auch ein ehemaliger Google-Ingenieur behauptete, dass Bard dies getan habe trainiert mit seinem Konkurrenten, was möglicherweise zu seiner schnellen Freigabe geführt hat.

instagram story viewer