Gestor de fondos presiona a Apple para combatir el abuso sexual infantil

Las imágenes abusivas tienen el potencial de extenderse rápidamente a través de Internet, por lo que las empresas deben compartir tecnologías de inteligencia artificial y otras herramientas.

Teléfono de Apple Inc.
Por Sajiel Kishan - Jeff Green
29 de septiembre, 2021 | 08:44 PM

Bloomberg — Un accionista de Apple Inc. que ha reprendido durante largo tiempo a la compañía por no hacer lo suficiente para combatir la difusión de fotografías que muestran violencia sexual contra jóvenes está aumentando ahora la presión sobre el fabricante del iPhone para que también tome medidas enérgicas contra los videos.

El administrador de fondos Jeff McCory , que dirige Christian Brothers Investment Services (CBIS), una de las firmas de inversión socialmente responsables más antiguas, ha presionado a Apple, AT&T Inc. y Verizon Communications Inc. durante los últimos años en sus esfuerzos para bloquear de manera más efectiva la pornografía infantil. Los informes de videos que contenían material de abuso sexual infantil superaron las banderas de imágenes fijas por primera vez en 2019 y siguieron siendo casi la mitad de los 65 millones de imágenes identificadas el año pasado, según el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés).

La firma de McCroy, que poseía US$271 millones de dólares en acciones y deuda de Apple al 31 de agosto, le escribió a Apple el mes pasado en una carta que no se había hecho pública anteriormente, alentándola a adoptar una postura más dura con respecto a los videos.

“El sector de la tecnología en su conjunto ha tardado en abordar este importante problema”, dijo McCroy en una entrevista. Las imágenes abusivas en los videos tienen el potencial de extenderse rápidamente a través de Internet, por lo que las empresas deben compartir tecnologías de inteligencia artificial y otras herramientas entre sí para ayudar a abordar el problema, destacó.

PUBLICIDAD

El papel de los inversores para frenar la explotación infantil tiene un potencial creciente ahora que los accionistas y reguladores han mostrado más interés en hacer que las empresas rindan cuentas por sus reclamos ambientales y sociales, dijo Yiota Souras , asesor legal general del NCMEC. Vincular el problema a las ganancias y el riesgo de reputación hace que sea más probable que los accionistas apoyen las propuestas de representación, dijo.

“No es solo una especie de perspectiva de Deberíamos pensar en los niños para sentirse bien”, dijo Souras. “Son los inversores que se dan cuenta de que estas cosas son reponsabilidades de las empresas”.

El Logo de Apple en la tienda  San Francisco, California, U.S., el lunes, 26 de abril, 2021. Apple Inc. Fotógrafo: David Paul Morris/Bloombergdfd

Apple trató de satisfacer la demanda de los legisladores de medidas drásticas sobre la difusión de material de pornografía infantil o CSAM (por sus siglas en inglés), sólo para ser derribado por defensores de la privacidad. El gigante tecnológico anunció en agosto un trío de nuevas herramientas diseñadas para ayudar a combatir el CSAM.

PUBLICIDAD

Una característica, diseñada para escanear la biblioteca de fotos de iCloud de un usuario en busca de imágenes explícitas de niños en la base de datos del NCMEC e informarlas a las autoridades pertinentes, provocó reacciones violentas de los defensores de la privacidad, que temían que pudiera preparar el escenario para otras formas de seguimiento. Apple archivó el plan a principios de este mes y dijo que tomaría tiempo “recopilar información y realizar mejoras” antes de intentar implementar el sistema. Algunos defensores de la privacidad están instando a la compañía a desechar el plan por completo.

“Es decepcionante saber que Apple está retrasando sus esfuerzos por el cambio”, dijo McCroy de CBIS. “Cuanto más se demore la acción, más niños corren el riesgo de exponerse y sufrir daños. Esperamos que Apple acelere estas mejoras planificadas y tome medidas lo antes posible “.

El NCMEC tiene una base de datos cuidadosamente examinados de unos 5 millones de imágenes conocidas de explotación infantil y de esas aproximadamente 500.000 son videos, dijo Souras. El CSAM ha sido marcado mediante un sistema de firma digital desde 2001 y en 2009 aboga por una tecnología añadida llamada PhotoDNA para permitir la comparación de imágenes conocidas con las que se comparten en Internet. La cantidad de imágenes CSAM conocidas ha aumentado en más de un 200% desde 2019 y los videos representan una proporción cada vez mayor de nuevas quejas, dijo Souras.

Los inversores parecen estar particularmente interesados ahora en considerar cuestiones social y ambientalmente responsables. En los últimos años, han traído un número casi récord de estos temas para votar en las empresas cuyas acciones cotizan en bolsa. Las propuestas que obtienen más del 30% de los votos de los accionistas a menudo llevan a una empresa a reunirse con inversores para tratar de disipar las preocupaciones.

La victoria del fondo Engine No. 1 en reemplazar a tres directores en el directorio de Exxon Mobil Corp. por riesgos del cambio climático también demostró los peligros potenciales de ignorar a los accionistas activistas.

Aún así, aunque los inversores parecen dispuestos a participar en algunos problemas de ESG, se han mostrado en gran medida reacios a aprobar propuestas de representación sobre imágenes infantiles, principalmente debido a preocupaciones sobre los riesgos para la privacidad. Menos de una quinta parte de los accionistas de Facebook Inc. apoyaron una propuesta en mayo de CBIS y otros inversores para garantizar que las nuevas políticas de cifrado no dificulten la identificación del intercambio de CSAM.

Una propuesta similar de 2019 obtuvo un apoyo del 13%. Facebook dijo en respuesta a las propuestas que ya cuenta con suficientes protecciones. Por ejemplo, Facebook dijo que su aplicación de chat WhatsApp prohíbe alrededor de 300.000 cuentas por mes sospechosas de compartir material de explotación infantil utilizando datos no cifrados.

PUBLICIDAD

El equilibrio entre la protección de la privacidad de los usuarios y la detección de abusos sigue siendo un desafío, dijo Souras del NCMEC. La atención debe centrarse en desarrollar estándares de la industria que se apliquen a todas las empresas, ya que el ritmo de la tecnología probablemente signifique que se desarrollarán nuevas plataformas para suplantar a los líderes actuales del mercado, dijo. Los llamamientos de la Comisión de Bolsa y Valores de Estados Unidos para desarrollar la transparencia en los criterios ambientales, sociales y de gobernanza y áreas específicas como el capital humano son un buen punto de partida, dijo.

McCroy dijo que su firma, que administra US$10.700 millones desde Chicago, está revisando si Apple y otras compañías, incluidas AT&T y Verizon, están tomando medidas suficientes para combatir la propagación de contenido de abuso infantil en videos. CBIS, que ha estado apuntando a Apple desde 2016 y se ha comprometido con las compañías de telecomunicaciones más recientemente, planea trabajar con ellas para identificar acciones específicas que pueden tomar para mitigar el problema, dijo McCroy.

AT&T y Verizon dijeron que están cooperando con CBIS y han tomado amplias medidas para capacitar a los empleados y agregar protecciones de seguridad a sus sistemas para limitar el abuso. Apple se negó a comentar.

Otras empresas de tecnología también están buscando formas de limitar el CSAM. Facebook ha tenido durante mucho tiempo algoritmos para detectar este tipo de imágenes subidas a sus redes sociales. YouTube de Google analiza videos en su servicio en busca de contenido explícito o abusivo que involucre a niños. Adobe Inc. tiene protecciones similares para sus servicios en línea.

PUBLICIDAD

Facebook dijo que también marca grupos que agregan comentarios inapropiados a imágenes no pornográficas de niños y limita las interacciones entre niños y adultos no relacionados en aplicaciones como Instagram.

Cuando CBIS abordó por primera vez el tema de la pornografía infantil con Apple hace unos cinco años, McCroy dijo que sentía que era el “único inversor en la sala”. Eso ha cambiado a medida que más inversores comoSisters of St. Dominic of Caldwell, Nueva Jersey y el Fondo de Inversión Cooperative School sisters of Notre Dame se han comprometido con Apple. Otros, como Proxy Impact, Maryknoll Sisters y miembros de The Interfaith Center on Corporate Responsibility han planteado los problemas a empresas como Facebook.

PUBLICIDAD

McCroy dijo que agradecería que hablaran más inversores.

CBIS presentó una propuesta en 2018 pidiendo a Apple que publique un informe que evalúe si sus prácticas eran suficientes para evitar impactos materiales en las finanzas de la empresa, la reputación de la marca o la demanda de productos a la luz de la preocupación pública por la explotación sexual de niños en línea. “No estaba claro para los inversores lo que estaban haciendo”, dijo McCroy.

La firma retiró la propuesta después de que Apple describiera los esfuerzos en curso. El año siguiente, CBIS dijo que se reunió con la gerencia de Apple para discutir más las áreas de mejora, incluido el establecimiento de objetivos y la publicidad de sus esfuerzos. El gestor de fondos dijo que se reunió con el director de investigaciones de seguridad global y seguridad infantil de Apple, así como con sus equipos de cumplimiento de la ley y desarrollo de aplicaciones.

PUBLICIDAD

CBIS dijo que también instó a Apple a asistir a una reunión de 2019 en el Vaticano sobre la lucha contra la explotación infantil. Apple asistió a la reunión, pero no hizo comentarios sobre si CBIS jugó un papel en la decisión.

McCroy dijo que los inversores deberían mirar más allá de las empresas de tecnología a las industrias de finanzas, juguetes y juegos, así como a los proveedores de dominios para presionar a las compañías sobre la prevención de la pornografía infantil. Dijo también que espera que aún más inversores aprovechen la oportunidad para alentar a las empresas a hacer más.