Centrala Androida

Trenerzy Google Bard twierdzą, że są sfrustrowani „zawiłymi” zadaniami

protection click fraud

Co musisz wiedzieć

  • Pracownicy kontraktowi szkolący Google Bard twierdzą, że warunki pracy są frustrujące, a sześciopunktowe instrukcje dotyczące zadań są „zagmatwane”.
  • Pracownicy często otrzymują zadanie sprawdzenia odpowiedzi w ciągu trzech minut.
  • Wykonawcy są zaniepokojeni nieścisłościami Barda, jednak wytyczne stanowią, że nie muszą przeprowadzać „rygorystycznej weryfikacji faktów”.

Oprogramowanie AI nadal potrzebuje prawdziwych ludzi, aby upewnić się, że jest na właściwej drodze. Jednak tacy trenerzy rzekomo mają do czynienia z nie do zniesienia warunkami w Google.

Według Bloomberga, ostatnie dokumenty uzyskane przez publikację sugerują, że trenerzy chatbota Google AI Bard otrzymali „zawiłe instrukcje”. Sześć aktualnych firm wykonawcy zgłosili się w sprawie mniej niż znakomitych warunków pracy, a jeden z nich powiedział: „Obecnie ludzie są przerażeni, zestresowani, niedostatecznie opłacani, nie wiedzą, co dziać się."

Mając to na uwadze, pracownicy stwierdzili, że często otrzymują zadanie sprawdzenia odpowiedzi w ciągu trzech minut. Dla kontekstu ci pracownicy kontraktowi są zasadniczo oceniającymi: osobami, których zadaniem jest określenie trafności, autentyczności i spójności odpowiedzi

Bard może zaoferować zapytanie w oparciu o sześciopunktowe wytyczne.

Trenerzy ci są również zobowiązani do upewnienia się, że odpowiedzi nie zawierają niczego obraźliwego ani szkodliwego. Biorąc pod uwagę ten fakt, wytyczne trenerzy państwowi „nie muszą przeprowadzać rygorystycznej weryfikacji faktów”. Może się to wydawać w porządku, jednak trenerzy odkryli, że Google Bard ma skłonność do błędnego przedstawiania „głównych faktów” na dany temat.

To szokujące, że wspomniane wcześniej wytyczne stwierdzają, że pewne nieścisłości faktyczne, takie jak błędne określenie daty, są „drobne”.

Ponadto oceniający wspomnieli o zadaniach, takich jak określenie odpowiedniej dawki dla osoby, która chce leczyć wysokie ciśnienie krwi. Ze względu na ograniczenia czasowe pracownicy martwią się, że Bard oferuje odpowiedzi, które wydają się poprawne, kiedy tak nie jest.

W oświadczeniu Google podkreśla, że ​​oceniający to tylko jeden z wielu sposobów, w jaki firma testuje odpowiedzi pod kątem dokładności i jakości odpowiedzi:

„Podejmujemy szeroko zakrojone prace, aby odpowiedzialnie budować nasze produkty AI, w tym rygorystyczne testy, szkolenia i procesy zbierania informacji zwrotnych, które doskonaliliśmy przez lata, aby podkreślić fakty i zmniejszyć uprzedzenia”.

Firma dodaje, że istnieją inne obszary poza dokładnością, takie jak ton i prezentacja, w których niektórzy zainteresowani pracownicy mogli być szkoleni.

Google podobno rzucił się na łeb na szyję do opracowania własnego chatbota AI po sukcesie ChatGPT OpenAI dla wyszukiwarki Bing firmy Microsoft. Trenerzy nie tylko stwierdzili, że od stycznia pracowali nad przygotowaniem sztucznej inteligencji, aby przygotować ją do publicznego wydania, ale były inżynier Google twierdził, że Bard był przeszkolony z wykorzystaniem swojego konkurenta, co mogło doprowadzić do jego szybkiego uwolnienia.

instagram story viewer