A pesar de su papel integral en la construcción de ChatGPT, les trabajadores se enfrentaron a condiciones agotadoras y salarios ínfimos
Una investigación de Time publicada a principios del mes de mayo ha informado que OpenAI, la compañía detrás de ChatGPT, pagó a trabajadores de Kenia menos de 2 dólares la hora para filtrar a través de decenas de miles de líneas de texto para ayudar a que su chatbot fuera más seguro de usar.
Les trabajadores se vieron obligados a etiquetar y filtrar los datos tóxicos del conjunto de datos de capacitación de ChatGPT y se vieron obligades a leer detalles gráficos del contenido de NSFW, como el abuso sexual infantil, la bestialidad, el asesinato, el suicidio, la tortura, la autolesión y el incesto, informó Time.
ChatGPT ha estado en gran popularidad desde que OpenAI lanzó el chatbot impulsado por el aprendizaje automático a finales de noviembre. Millones de personas quedaron impresionadas por las habilidades avanzadas de escritura de la aplicación y han empleado la aplicación para una variedad de propósitos, desde escribir artículos de noticias hasta canciones.
No obstante, el bot no siempre ha sido tan elocuente. Su predecesor, GPT-3, a menudo producía contenido sexista, violento y racista porque el modelo se entrenó en un conjunto de datos que se raspó de miles de millones de páginas de Internet. Para lanzar ChatGPT, OpenAI necesitaba una forma de filtrar todo el lenguaje tóxico de su conjunto de datos, rápidamente.
OpenAI se asoció con Sama, un socio de etiquetado de datos con sede en San Francisco que afirma proporcionar a los países en desarrollo un “trabajo digital ético” y “dignificado”, para detectar y etiquetar el contenido tóxico que podría alimentarse como datos en una herramienta de filtrado para ChatGPT. Sama contrató a empresas etiquetadoras de datos en Kenia para que trabajaran en nombre de OpenAI, desempeñando un papel esencial para que el chatbot fuera seguro para el uso público.
A pesar de su papel integral en la construcción de ChatGPT, los trabajadores se enfrentaron a condiciones agotadoras y bajos salarios. Un trabajador keniano que era responsable de leer y etiquetar el texto para OpenAI le dijo a Time que “sufría visiones recurrentes después de leer una descripción gráfica de un hombre que tenía relaciones sexuales con un perro en presencia de un niño pequeño”. Les trabajadores se llevaron a casa salarios de entre 1,32 y 2 dólares la hora, según la antigüedad y el rendimiento.
“Eso fue una tortura”, le dijo el trabajador de Sama a Time. “Lees una gran variedad de declaraciones como esa durante toda la semana. Y cuando llega el viernes, ya es demasiado molesto pensar de nuevo en esa imagen”.
Motherboard informó en diciembre sobre el patrón de innovación en IA impulsado por trabajadores mal pagados en países extranjeros. Las empresas de tecnología contratan regularmente a decenas de miles de trabajadores de conciertos para mantener la ilusión de que sus herramientas de IA son totalmente funcionales y autosuficientes, cuando, en realidad, todavía dependen de una gran cantidad de moderación y desarrollo humano. Los investigadores de ética de la IA dijeron que la inclusión del Sur Global en la cartera de la IA continúa un legado de explotación colonial y desequilibrio entre el Norte Global y el Sur.
Sama canceló su trabajo para OpenAI en febrero de 2022, ocho meses antes que el período contratado, en parte debido a la naturaleza traumática del trabajo, y en parte porque Time había publicado un informe de investigación sobre el trabajo de Sama con Meta el 14 de febrero. En ese informe, Time informó que el equipo de moderación de contenido de Sama que trabajó en proyectos para Meta quedó traumatizado después de ver imágenes y videos de ejecuciones, violaciones y abuso infantil por 1,50 $ la hora.
Los expertos en IA quieren sacar a la luz el trabajo humano que construye los cimientos de los sistemas de aprendizaje automático con el fin de centrarse menos en la innovación y más en cómo incluir éticamente a los seres humanos en el proceso. Esto incluye reconocer los desequilibrios de poder, proporcionar más transparencia sobre los seres humanos en el bucle, mejorar las condiciones de trabajo y crear oportunidades más allá del etiquetado y la moderación de los datos. La explotación de les trabajadores para construir ChatGPT nos recuerda lo lejos que está la herramienta de la magia y el glamour y nos pide que reconsideremos cuánto deberíamos estar alabando su innovación.
Fuente: VICE