Centro De Android

Los entrenadores humanos de Google Bard afirman que están frustrados con las tareas 'enrevesadas'

protection click fraud

Lo que necesitas saber

  • Los trabajadores contratados que capacitan a Bard de Google afirman que las condiciones de trabajo son frustrantes y que las instrucciones de tareas de seis puntos son "intrincadas".
  • Los trabajadores a menudo tienen la tarea de auditar una respuesta en tres minutos.
  • Los contratistas están preocupados por las imprecisiones de Bard, sin embargo, las pautas establecen que no necesitan realizar una "verificación rigurosa de los hechos".

El software de IA todavía necesita personas reales para asegurarse de que va por buen camino. Sin embargo, dichos entrenadores supuestamente enfrentan condiciones insoportables en Google.

De acuerdo a Bloomberg, documentos recientes obtenidos por la publicación sugieren que los entrenadores humanos para el chatbot de IA de Google, Bard, han recibido "instrucciones complicadas". Seis de los actuales de la compañía los contratistas se han pronunciado sobre las condiciones de trabajo menos que estelares, y uno dijo: "Tal como están las cosas ahora, las personas están asustadas, estresadas, mal pagadas, no saben qué es pasando".

Con este peso sobre ellos, los trabajadores han declarado que a menudo tienen la tarea de auditar una respuesta en tres minutos. Por contexto, estos trabajadores subcontratados son esencialmente evaluadores: personas encargadas de determinar la relevancia, autenticidad y coherencia de una respuesta. Bardo puede ofrecer una consulta basada en una pauta de seis puntos.

Estos entrenadores también deben garantizar que las respuestas no contengan nada ofensivo o dañino. Dado ese hecho, las directrices los entrenadores estatales "no necesitan realizar una verificación de hechos rigurosa". Esto puede parecer correcto, sin embargo, los capacitadores han descubierto que Bard de Google es propenso a equivocarse en los "datos principales" sobre un tema.

Es sorprendente que las pautas mencionadas anteriormente establezcan que ciertas inexactitudes fácticas, como equivocarse en una fecha, son "menores".

Además, los evaluadores han mencionado tareas como determinar la dosis adecuada para alguien que busca tratar la presión arterial alta. Debido a la gran limitación de tiempo, a los trabajadores les preocupa que Bard ofrezca respuestas que parecen correctas cuando no lo son.

En un comunicado, Google enfatiza que los evaluadores son solo una de las diversas formas en que la compañía prueba las respuestas para verificar la precisión y la calidad de las respuestas:

"Llevamos a cabo un trabajo extenso para construir nuestros productos de IA de manera responsable, incluidos procesos rigurosos de prueba, capacitación y retroalimentación que hemos perfeccionado durante años para enfatizar la factualidad y reducir los sesgos".

La compañía agrega que hay otras áreas más allá de la precisión, como el tono y la presentación, para las que algunos trabajadores preocupados pueden haber estado entrenando.

Google aparentemente se apresuró de cabeza en desarrollar su propio chatbot de IA después del éxito de ChatGPT de OpenAI para el motor de búsqueda Bing de Microsoft. Los entrenadores humanos no solo declararon que han tenido trabajo de preparación de IA desde enero para prepararlo para su lanzamiento público, sino que un ex ingeniero de Google afirmó que Bard estaba entrenado usando su competidor, lo que puede haber llevado a su liberación rápida.

instagram story viewer