La práctica de ocultar el factor humano en los sistemas de AI sigue siendo un secreto a voces entre quienes trabajan en el aprendizaje automático y la AI

AI
Tiempo de lectura: 5 minutos

Bloomberg Opinión — La ingeniosa aplicación CamFind ha avanzado mucho con su inteligencia artificial (AI por sus siglas en inglés). Utiliza el reconocimiento de imágenes para identificar un objeto cuando apuntas la cámara de tu smartphone hacia él. Pero en 2015 sus algoritmos eran menos avanzados: La aplicación utilizaba sobre todo trabajadores contratados en Filipinas para escribir rápidamente lo que veían a través de la cámara del teléfono de un usuario, según me confirmó recientemente el cofundador de CamFind (1). Eso no se habría adivinado por el comunicado de prensa que publicó ese año, en el que se promocionaba una “tecnología de aprendizaje profundo” líder en el sector, pero no se mencionaba a ningún etiquetador humano.

La práctica de ocultar el factor humano en los sistemas de AI sigue siendo un secreto a voces entre quienes trabajan en el aprendizaje automático y la AI. Un análisis de 2019 de startups tecnológicas en Europa realizado por MMC Ventures, con sede en Londres, incluso descubrió que el 40% de las supuestas startups de AI no mostraban ninguna evidencia de utilizar realmente la inteligencia artificial en sus productos.

Este supuesto “lavado” de la AI no debería ser sorprendente. La inversión mundial en empresas de AI ha aumentado de forma constante durante la última década y se ha duplicado en el último año, según la empresa de inteligencia de mercado PitchBook. Según el análisis de MMC Ventures, llamar a su empresa “empresa de AI” puede suponer una prima de financiación de hasta el 50% en comparación con otras empresas de software.

Sin embargo, ignorar a los trabajadores que impulsan estos sistemas está dando lugar a prácticas laborales injustas y sesgando la comprensión del público sobre el funcionamiento real del aprendizaje automático.

En Silicon Valley, muchas startups han tenido éxito siguiendo el mantra de “fake it ´til you make it” (“fingir hasta conseguirlo” en español). Para las empresas de AI, la contratación de personas para apuntalar los algoritmos puede convertirse en un parche, que en ocasiones se convierte en permanente. Se han descubierto humanos transcribiendo secretamente recibos, estableciendo citas en el calendario o llevando a cabo servicios de contabilidad en nombre de “sistemas de AI” que obtuvieron todo el crédito. En 2019, una demanda de denunciantes contra una empresa británica afirmaba que los clientes pagaban por un software de AI que analizaba las redes sociales mientras los miembros del personal hacían ese trabajo en su lugar.

Hay una razón por la que esto sucede tan a menudo. Construir sistemas de AI requiere muchas horas de humanos entrenando algoritmos, y algunas empresas han caído en la zona gris entre el entrenamiento y la operación. Una explicación común es que los trabajadores humanos están proporcionando “validación” o “supervisión” a los algoritmos, como un control de calidad. Pero en algunos casos, estos trabajadores realizan tareas más intensivas desde el punto de vista cognitivo porque los algoritmos que supervisan no funcionan lo suficientemente bien por sí solos.

Esto puede reforzar expectativas poco realistas sobre lo que puede hacer la AI. “Es parte de este sueño quijotesco de la superinteligencia”, dice Ian Hogarth, inversor ángel, profesor visitante en el University College de Londres y coautor de un informe anual sobre el estado de la AI que se publicó el martes. Para los trabajadores ocultos, las condiciones de trabajo también pueden ser “antihumanas”, afirma. Eso puede provocar desigualdades y un mal rendimiento de la AI.

Por ejemplo, Cathy O’Neil ha señalado que los algoritmos de aprendizaje automático de Facebook no funcionan lo suficientemente bien a la hora de detener el contenido dañino (estoy de acuerdo). La empresa podría duplicar sus 15.000 moderadores de contenidos, como sugiere un reciente estudio académico. Pero Facebook también podría sacar de la sombra a sus actuales moderadores. Los trabajadores contratados están obligados a firmar estrictos acuerdos de confidencialidad y no se les permite hablar de su trabajo con amigos y familiares, según Cori Crider, fundadora del grupo de defensa de la tecnología Foxglove Legal, que ha ayudado a varios exmoderadores a emprender acciones legales contra Facebook por denuncias de daños psicológicos. Facebook ha dicho que los revisores de contenidos podían tomarse descansos cuando lo necesitaban y que no se les presionaba para tomar decisiones precipitadas.

El trabajo de moderación es mental y emocionalmente agotador, y Crider dice que los contratistas están “optimizados hasta el último centímetro de sus vidas” con una serie de objetivos que alcanzar. Mantener a estos trabajadores ocultos sólo agrava el problema.

Un problema similar afecta a la plataforma MTurk de Amazon.com Inc., que publica pequeñas tareas para trabajadores autónomos. En su libro “Ghost Workers”, los investigadores de Microsoft Corp. Mary Gray y Siddharth Suri afirman que estos trabajadores autónomos forman parte de una fuerza de trabajo invisible que etiqueta, edita y clasifica gran parte de lo que vemos en Internet. La IA no funciona sin ellos, afirman, y sin embargo se infravaloran en gran medida.

Y un documento reciente de académicos de la Universidad de Princeton y la Universidad de Cornell denunció a empresas de etiquetado de datos como Scale AI Inc. y Sama Inc. que pagan a los trabajadores del sudeste asiático y del África subsahariana US$8 al día. Claro que es un salario digno en esas regiones, pero a largo plazo también perpetúa la desigualdad de ingresos. Una portavoz de Sama dijo que la empresa ha ayudado a más de 55.000 personas a salir de la pobreza, y que el aumento de los salarios locales podría repercutir negativamente en los mercados locales, provocando un aumento del coste de los alimentos y la vivienda. Scale AI no respondió a una solicitud de comentarios.

“El microtrabajo no ofrece derechos, seguridad ni rutina y paga una miseria, lo suficiente para mantener a una persona viva pero socialmente paralizada”, escribe Phil Jones, investigador del grupo de reflexión sobre el empleo británico Autonomy, y añade que no es sincero pintar ese trabajo como beneficioso para las habilidades de una persona. El etiquetado de datos es tan monótono que Finlandia lo ha subcontratado a presos.

Mejorar la situación laboral de estos trabajadores mejoraría sus vidas y también el desarrollo de la IA, ya que alimentar a los algoritmos con datos inconsistentes puede perjudicar el rendimiento futuro. Crider, de Foxglove, dice que Facebook debe convertir a sus moderadores de contenido en personal a tiempo completo si realmente quiere solucionar sus problemas de contenido (la mayoría de ellos trabajan para agencias como Accenture plc.). Los investigadores de Princeton y Cornell dicen que los etiquetadores necesitan un papel más visible en el desarrollo de la IA y una remuneración más equitativa.

Un rayo de luz en la oscuridad: Los trabajadores autónomos que realizan microtareas en la plataforma MTurk de Amazon han celebrado recientemente foros de para abordar a Amazon sobre cuestiones como el trabajo rechazado, según uno de sus representantes. No están creando un sindicato en sí, pero su trabajo es un intento único de organización, dando a los trabajadores fantasma de AI una voz que no han tenido hasta ahora. Esperemos que la idea se extienda.

  1. Según Bradford Folkens, cofundador y actual director general de la empresa matriz de CamFind, CloudSight Inc. Cuando su algoritmo de visión por ordenador tenía un nivel de confianza suficientemente alto sobre un resultado, lo enviaba directamente al usuario. Cuando estaba por debajo de un determinado umbral, los humanos escribían el resultado y lo guardaban para futuros entrenamientos. Dice que el director general de entonces “probablemente no sentía la necesidad de seguir reiterando” que CamFind utilizaba humanos porque había publicado muchas patentes sobre este enfoque.