WhatsApp tiene más de 1.000 empleados leyendo “millones” de mensajes privados de usuarios suministrados a la Justicia – Peter Elkind , Jack Gillum y Craig Silverman

Facebook tiene bajo contrato a más de 1.000 empleados que continuamente leen y moderan “millones de mensajes, imágenes y videos privados”  enviados a través de su servicio filial de WhatsApp, según un informe publicado este martes por el portal ProPublica. 

Entretanto, WhatsApp continúa promocionando sus políticas de privacidad y enfatiza que los mensajes cursados entre usuarios no pueden ser descifrados por la empresa.

“WhatsApp tiene más de 1.000 trabajadores contratados, que llenan pisos de edificios de oficinas en Austin, Texas, Dublín y Singapur. […] Emiten juicios sobre cualquier cosa que aparezca en su pantalla, reclamos de todo, desde fraude o spam hasta pornografía infantil y posibles conspiraciones terroristas, generalmente en menos de un minuto”, afirma ProPublica. Estos moderadores no son empleados directos de WhatsApp o Facebook, sino que son contratistas que trabajan por 16,50 dólares la hora y están obligados a guardar silencio sobre su labor, bajo acuerdos de no divulgación.

WhatsApp asegura a los usuarios que nadie puede ver sus mensajes, pero la empresa tiene una amplia operación de monitoreo y comparte información personal con los fiscales con regularidad.

por Peter Elkind , Jack Gillum y Craig Silverman7 de septiembre, 5 am EDT

Serie: La máquina socialCómo Facebook juega con su propio conjunto de reglas

ProPublica es una sala de redacción sin fines de lucro que investiga abusos de poder. Regístrese para recibir nuestras historias más importantes tan pronto como se publiquen.

Aclaración, 8 de septiembre de 2021: una versión anterior de esta historia provocó una confusión no intencionada sobre hasta qué punto WhatsApp examina los mensajes de sus usuarios y si rompe el cifrado que mantiene los intercambios en secreto. Hemos modificado el lenguaje de la historia para dejar en claro que la empresa solo examina los mensajes de los hilos que los usuarios han informado como posiblemente abusivos. No rompe el cifrado de un extremo a otro.

CUANDO MARK ZUCKERBERG dio a conocer una nueva “visión centrada en la privacidad” para Facebook en marzo de 2019, citó el servicio de mensajería global de la compañía, WhatsApp, como modelo. Reconociendo que “actualmente no tenemos una sólida reputación en la creación de servicios de protección de la privacidad”, el director ejecutivo de Facebook escribió que “creo que el futuro de la comunicación cambiará cada vez más a servicios privados y cifrados en los que las personas puedan confiar en lo que se dicen entre sí. permanece seguro y sus mensajes y contenido no se quedarán para siempre. Este es el futuro que espero que ayudemos a lograr. Planeamos construir esto de la forma en que hemos desarrollado WhatsApp “.

La visión de Zuckerberg se centró en la función de firma de WhatsApp, que dijo que la compañía planeaba aplicar a Instagram y Facebook Messenger : cifrado de extremo a extremo, que convierte todos los mensajes en un formato ilegible que solo se desbloquea cuando llegan a sus destinos previstos. Los mensajes de WhatsApp son tan seguros, dijo, que nadie más, ni siquiera la empresa, puede leer una palabra. Como lo había dicho Zuckerberg anteriormente, en testimonio ante el Senado de los EE. UU. En 2018, “No vemos nada del contenido en WhatsApp”.

WhatsApp enfatiza este punto de manera tan consistente que una bandera con una garantía similar aparece automáticamente en la pantalla antes de que los usuarios envíen mensajes: “Nadie fuera de este chat, ni siquiera WhatsApp, puede leerlos o escucharlos”.

Dadas esas amplias garantías, es posible que se sorprenda al saber que WhatsApp tiene más de 1,000 trabajadores contratados llenando pisos de edificios de oficinas en Austin, Texas, Dublín y Singapur. Sentados frente a las computadoras en grupos organizados por asignaciones de trabajo, estos trabajadores por hora utilizan un software especial de Facebook para examinar millones de mensajes, imágenes y videos privados. Emiten juicios sobre cualquier cosa que aparezca en su pantalla, reclamos de todo, desde fraude o spam hasta pornografía infantil y posibles conspiraciones terroristas, generalmente en menos de un minuto.

Los trabajadores tienen acceso solo a un subconjunto de mensajes de WhatsApp: los que los usuarios señalan y reenvían automáticamente a la empresa como posiblemente abusivos. La revisión es un elemento en una operación de monitoreo más amplia en la que la empresa también revisa el material que no está encriptado, incluidos los datos sobre el remitente y su cuenta.

Vigilar a los usuarios mientras se les asegura que su privacidad es sacrosanta hace que la misión de WhatsApp sea incómoda. Una presentación de marketing interna de la empresa de 49 diapositivas de diciembre, obtenida por ProPublica, enfatiza la promoción “feroz” de la “narrativa de privacidad” de WhatsApp. Compara su “carácter de marca” con “la madre inmigrante” y muestra una foto de Malala Yousafzai, que sobrevivió a un tiroteo de los talibanes y se convirtió en ganadora del Premio Nobel de la Paz, en una diapositiva titulada “Parámetros de tono de marca”. La presentación no menciona los esfuerzos de moderación de contenido de la compañía.

El director de comunicaciones de WhatsApp, Carl Woog, reconoció que los equipos de contratistas en Austin y en otros lugares revisan los mensajes de WhatsApp para identificar y eliminar a “los peores” abusadores. Pero Woog le dijo a ProPublica que la compañía no considera que este trabajo sea una moderación de contenido, diciendo: “En realidad, no solemos usar el término para WhatsApp”. La compañía se negó a que los ejecutivos estuvieran disponibles para entrevistas para este artículo, pero respondió a las preguntas con comentarios escritos. “WhatsApp es un salvavidas para millones de personas en todo el mundo”, dijo la compañía. “Las decisiones que tomamos sobre cómo creamos nuestra aplicación se centran en la privacidad de nuestros usuarios, manteniendo un alto grado de confiabilidad y previniendo el abuso”.

La negación de WhatsApp de que modera el contenido es notablemente diferente de lo que dice Facebook Inc. sobre los hermanos corporativos de WhatsApp, Instagram y Facebook. La compañía ha dicho que unos 15.000 moderadores examinan el contenido de Facebook e Instagram, ninguno de los cuales está encriptado. Publica informestrimestrales de transparencia que detallan cuántas cuentas de Facebook e Instagram han “actuado” para varias categorías de contenido abusivo. No existe tal informe para WhatsApp.

La implementación de un ejército de revisores de contenido es solo una de las formas en que Facebook Inc. ha comprometido la privacidad de los usuarios de WhatsApp. Juntas, las acciones de la compañía han dejado a WhatsApp, la aplicación de mensajería más grande del mundo, con dos mil millones de usuarios, mucho menos privada de lo que sus usuarios probablemente entienden o esperan. Una investigación de ProPublica, basada en datos, documentos y docenas de entrevistas con empleados y contratistas actuales y anteriores, revela cómo, desde que compró WhatsApp en 2014, Facebook ha socavado silenciosamente sus amplias garantías de seguridad de múltiples maneras. ( Dos artículoseste verano notó la existencia de moderadores de WhatsApp pero se centró en sus condiciones de trabajo y pago más que en su efecto en la privacidad de los usuarios. Este artículo es el primero en revelar los detalles y el alcance de la capacidad de la empresa para analizar los mensajes y los datos de los usuarios, y examinar lo que hace la empresa con esa información).

Muchas de las afirmaciones de los moderadores de contenido que trabajan para WhatsApp se hacen eco de una denuncia confidencial de denunciante presentada el año pasado ante la Comisión de Bolsa y Valores de EE. UU. La denuncia, que obtuvo ProPublica, detalla el uso extensivo por parte de WhatsApp de contratistas externos, sistemas de inteligencia artificial e información de cuentas para examinar mensajes, imágenes y videos de los usuarios. Alega que las afirmaciones de la empresa de proteger la privacidad de los usuarios son falsas. “No hemos visto esta denuncia”, dijo el portavoz de la empresa. La SEC no ha tomado ninguna acción pública al respecto; un portavoz de la agencia se negó a comentar.

Facebook Inc. también ha minimizado la cantidad de datos que recopila de los usuarios de WhatsApp, qué hace con él y cuánto comparte con las autoridades policiales. Por ejemplo, WhatsApp comparte metadatos, registros no cifrados que pueden revelar mucho sobre la actividad de un usuario, con agencias de aplicación de la ley como el Departamento de Justicia. Algunos rivales, como Signal, recopilan intencionalmente muchos menos metadatos para evitar incursiones en la privacidad de sus usuarios y, por lo tanto, comparten mucho menos con las fuerzas del orden. (“WhatsApp responde a solicitudes legales válidas”, dijo el portavoz de la empresa, “incluidos los pedidos que nos exigen que proporcionemos en tiempo real a quién está enviando un mensaje una persona específica”).

ProPublica descubrió que los datos de los usuarios de WhatsApp ayudaron a los fiscales a construir un caso de alto perfil contra un empleado del Departamento del Tesoro que filtró documentos confidenciales a BuzzFeed News que exponían cómo fluye el dinero sucio a través de los bancos estadounidenses.

Al igual que otras redes sociales y plataformas de comunicación, WhatsApp está atrapado entre usuarios que esperan privacidad y entidades policiales que exigen efectivamente lo contrario: que WhatsApp entregue información que ayudará a combatir el crimen y el abuso en línea. WhatsApp ha respondido a este dilema afirmando que no es ningún dilema. “Creo que podemos tener seguridad y protección para las personas a través del cifrado de extremo a extremo y trabajar con las fuerzas del orden para resolver delitos”, dijo Will Cathcart, cuyo título es Jefe de WhatsApp, en una entrevista de YouTube con un grupo de expertos australiano en Julio.

La tensión entre la privacidad y la difusión de información a las fuerzas del orden se ve agravada por una segunda presión: la necesidad de Facebook de ganar dinero con WhatsApp. Desde que pagó $ 22 mil millones para comprar WhatsApp en 2014, Facebook ha estado tratando de descubrir cómo generar ganancias de un servicio que no les cobra un centavo a sus usuarios.

Ese acertijo ha llevado periódicamente a movimientos que enfurecen a los usuarios, reguladores o ambos. El objetivo de monetizar la aplicación fue parte de la decisión de la compañía en 2016 de comenzar a compartir datos de usuarios de WhatsApp con Facebook, algo que la compañía había dicho a los reguladores de la Unión Europea que era tecnológicamente imposible. El mismo impulso impulsó un polémico plan, abandonado a finales de 2019, para vender publicidad en WhatsApp. Y el mandato de búsqueda de ganancias estaba detrás de otra iniciativa fallida en enero: la introducción de una nueva política de privacidad para las interacciones de los usuarios con las empresas en WhatsApp, lo que permite a las empresas utilizar los datos de los clientes de nuevas formas. Ese anuncio provocó un éxodo de usuarios hacia aplicaciones de la competencia.

El plan de negocios cada vez más agresivo de WhatsApp se centra en cobrar a las empresas por una variedad de servicios, lo que permite a los usuarios realizar pagos a través de WhatsApp y administrar los chats de servicio al cliente, que ofrecen conveniencia pero menos protecciones de privacidad. El resultado es un sistema de privacidad confuso de dos niveles dentro de la misma aplicación donde las protecciones del cifrado de extremo a extremo se erosionan aún más cuando los usuarios de WhatsApp emplean el servicio para comunicarse con las empresas.

La presentación de marketing de diciembre de la compañía captura los imperativos divergentes de WhatsApp. Afirma que “la privacidad seguirá siendo importante”. Pero también transmite lo que parece ser una misión más urgente: la necesidad de “abrir la apertura de la marca para abarcar nuestros objetivos comerciales futuros”.

EN MUCHOS SENTIDOS , la experiencia de ser moderador de contenido de WhatsApp en Austin es idéntica a ser moderador de Facebook o Instagram, según entrevistas con 29 moderadores actuales y anteriores. En su mayoría en sus 20 y 30 años, muchos con experiencia previa como empleados de tiendas, inspectores de comestibles y baristas, los moderadores son contratados y empleados por Accenture, un gran contratista corporativo que trabaja para Facebook y otros gigantes de Fortune 500.

Los listados de trabajo anuncian puestos de “Revisión de contenido” y no mencionan Facebook o WhatsApp. Los documentos de empleo enumeran el título inicial de los trabajadores como “asociado de moderación de contenido”. El pago comienza alrededor de $ 16.50 la hora. Se instruye a los moderadores para que le digan a cualquiera que les pregunte que trabajan para Accenture y se les exige que firmen acuerdos de confidencialidad amplios. Citando los NDA, casi todos los moderadores actuales y anteriores entrevistados por ProPublica insistieron en el anonimato. (Un portavoz de Accenture se negó a comentar y remitió todas las preguntas sobre moderación de contenido a WhatsApp).

Cuando el equipo de WhatsApp se reunió en Austin en 2019, los moderadores de Facebook ya ocupaban el cuarto piso de una torre de oficinas en Sixth Street, adyacente a la famosa escena de bares y música de la ciudad. El equipo de WhatsApp se instaló en el piso de arriba, con nuevas áreas de trabajo con mamparas de vidrio y baños más agradables que provocaron un tinte de envidia en algunos miembros del equipo de Facebook. La mayor parte del equipo de WhatsApp se dispersó para trabajar desde casa durante la pandemia. Ya sea en la oficina o en casa, pasan sus días frente a las pantallas, utilizando una herramienta de software de Facebook para examinar un flujo de “tickets”, organizados por tema en colas “reactivas” y “proactivas”.

En conjunto, los trabajadores analizan millones de piezas de contenido de WhatsApp cada semana. Cada revisor maneja más de 600 tickets al día, lo que les da menos de un minuto por ticket. WhatsApp se negó a revelar cuántos trabajadores contratados se emplean para la revisión de contenido, pero una lista parcial de personal revisada por ProPublica sugiere que, solo en Accenture, hay más de 1,000. Se espera que los moderadores de WhatsApp, al igual que sus homólogos de Facebook e Instagram, cumplan con las métricas de rendimiento en cuanto a velocidad y precisión, que son auditadas por Accenture.

Sus trabajos difieren de otras formas. Debido a que el contenido de WhatsApp está encriptado, los sistemas de inteligencia artificial no pueden escanear automáticamente todos los chats, imágenes y videos, como lo hacen en Facebook e Instagram. En cambio, los revisores de WhatsApp obtienen acceso a contenido privado cuando los usuarios presionan el botón “informar” en la aplicación, identificando un mensaje que supuestamente viola los términos de servicio de la plataforma. Esto reenvía cinco mensajes, el supuestamente ofensivo junto con los cuatro anteriores en el intercambio, incluidas las imágenes o los videos, a WhatsApp de forma descifrada, según los ex ingenieros y moderadores de WhatsApp. Luego, los sistemas automatizados introducen estos tickets en colas “reactivas” para que los trabajadores contratados los evalúen.

La inteligencia artificial inicia un segundo conjunto de colas, las llamadas proactivas, escaneando los datos no cifrados que WhatsApp recopila sobre sus usuarios y comparándolos con información de cuentas sospechosas y patrones de mensajería ( una nueva cuenta que envía rápidamente un gran volumen de chats es evidencia de correo no deseado), así como términos e imágenes que previamente se hayan considerado abusivas. Los datos sin cifrar disponibles para el escrutinio son extensos. Incluye los nombres y las imágenes de perfil de los grupos de WhatsApp de un usuario, así como su número de teléfono, foto de perfil, mensaje de estado, nivel de batería del teléfono, idioma y zona horaria, identificación única del teléfono móvil y dirección IP, intensidad de la señal inalámbrica y sistema operativo del teléfono. como una lista de sus dispositivos electrónicos, cualquier cuenta de Facebook e Instagram relacionada, la última vez que usaron la aplicación y cualquier historial previo de violaciones.

Los revisores de WhatsApp tienen tres opciones cuando se les presenta un ticket para cualquier tipo de cola: no hacer nada, poner al usuario en “vigilancia” para un mayor escrutinio o prohibir la cuenta. (Los moderadores de contenido de Facebook e Instagram tienen más opciones, incluida la eliminación de publicaciones individuales. Es esa distinción, el hecho de que los revisores de WhatsApp no ​​pueden eliminar elementos individuales, lo que la compañía cita como base para afirmar que los revisores de WhatsApp no ​​son “moderadores de contenido”. )

Los moderadores de WhatsApp deben realizar juicios subjetivos, sensibles y sutiles, entrevistas y documentos examinados por ProPublica muestran. Examinan una amplia gama de categorías, que incluyen “Informe de spam”, “Civic Bad Actor” (discurso de odio político y desinformación), “Terrorism Global Credible Threat”, “CEI” (imágenes de explotación infantil) y “CP” (pornografía infantil). . Otro conjunto de categorías aborda la mensajería y la conducta de millones de pequeñas y grandes empresas que usan WhatsApp para chatear con los clientes y vender sus productos. Estas colas tienen títulos como “prevalencia de suplantación de identidad empresarial”, “probables infractores de la política comercial” y “verificación empresarial”.

Los moderadores dicen que la orientación que reciben de WhatsApp y Accenture se basa en estándares que pueden ser simultáneamente arcanos y perturbadoramente gráficos. Las decisiones sobre imágenes sexuales abusivas, por ejemplo, pueden basarse en una evaluación de si un niño desnudo en una imagen parece adolescente o prepúber, según la comparación de los huesos de la cadera y el vello púbico con una tabla de índice médico. Un crítico recordó un video granulado en una cola de discursos políticos que mostraba a un hombre con un machete sosteniendo lo que parecía ser una cabeza cortada: “Tuvimos que mirar y decir: ‘¿Es este un cadáver real o un cadáver falso? ‘”

A fines de 2020, se informó a los moderadores de una nueva cola por presunta “sextorsión”. Se definió en un memorando explicativo como “una forma de explotación sexual en la que las personas son chantajeadas con una imagen desnuda de sí mismos que han sido compartidos por ellos o por otra persona en Internet”. El memo decía que los trabajadores revisarían los mensajes informados por los usuarios que “incluyen palabras clave predefinidas que se utilizan normalmente en los mensajes de sextorsión / chantaje”.

El sistema de revisión de WhatsApp se ve obstaculizado por impedimentos, incluida la traducción de idiomas con errores. El servicio tiene usuarios en 180 países, la gran mayoría ubicados fuera de los EE. UU. Aunque Accenture contrata trabajadores que hablan varios idiomas, para los mensajes en algunos idiomas a menudo no hay un hablante nativo en el sitio para evaluar las quejas de abuso. Eso significa usar la herramienta de traducción de idiomas de Facebook, que según los revisores podría ser tan inexacta que a veces etiquetaba los mensajes en árabe como en español. La herramienta también ofreció poca orientación sobre la jerga local, el contexto político o insinuaciones sexuales. “En los tres años que he estado allí”, dijo un moderador, “siempre ha sido horrible”.

El proceso puede estar plagado de errores y malentendidos. Se ha señalado a las empresas por ofrecer armas a la venta cuando venden navajas de afeitar rectas. Los sujetadores se pueden vender, pero si el lenguaje de marketing se registra como “adulto”, el vendedor puede ser etiquetado como un “negocio de orientación sexual” prohibido. Y una herramienta de traducción defectuosa activó una alarma cuando detectó niños para la venta y el sacrificio, lo que, tras un examen más detenido, resultó involucrar cabras jóvenes destinadas a ser cocinadas y consumidas en comidas halal.

El sistema también se ve socavado por las fallas humanas de las personas que instigan los informes. Las quejas se presentan con frecuencia para castigar, acosar o bromear con alguien, según los moderadores. En mensajes de Brasil y México, un moderador explicó, “tuvimos un par de meses en los que AI prohibió grupos de izquierda a derecha porque la gente se estaba metiendo con sus amigos al cambiar los nombres de sus grupos” y luego denunciarlos. “En el peor de los casos, probablemente estábamos obteniendo decenas de miles de esos. Descubrieron algunas palabras que no le gustaron al algoritmo “.

Otros informes no cumplen con los estándares de WhatsApp para la prohibición de una cuenta. “La mayor parte no está violando”, dijo uno de los moderadores. “Es contenido que ya está en Internet, y son solo personas que intentan meterse con los usuarios”. Aún así, cada caso puede revelar hasta cinco mensajes sin cifrar, que luego son examinados por los moderadores.

El juicio de la IA de WhatsApp es menos que perfecto, dicen los moderadores. “Había muchas fotos inocentes allí que no estaban permitidas”, dijo Carlos Sauceda, quien dejó Accenture el año pasado después de nueve meses. “Podría haber sido una foto de un niño bañándose, y no había nada de malo en ello”. Como dijo otro moderador de WhatsApp, “La mayoría de las veces, la inteligencia artificial no es tan inteligente”.

La guía escrita de Facebook para los moderadores de WhatsApp reconoce muchos problemas, y señala que “hemos cometido errores y nuestros malos actores han armado nuestras políticas para prohibir a los buenos actores. Cuando los usuarios escriben consultas relacionadas con asuntos abusivos como estos, depende de WhatsApp responder y actuar (si es necesario) en consecuencia de manera oportuna y agradable “. Por supuesto, si un usuario apela una prohibición provocada por un informe de usuario, según un moderador, implica que un segundo moderador examine el contenido del usuario.

EN DECLARACIONES PÚBLICAS y en los sitios web de la compañía, Facebook Inc. es notablemente vago sobre el proceso de monitoreo de WhatsApp. La compañía no proporciona una contabilidad regular de cómo WhatsApp controla la plataforma. La página de preguntas frecuentes de WhatsApp y el formulario de quejas en línea señalan que recibirá “los mensajes más recientes” de un usuario que ha sido marcado. Sin embargo, no revelan cuántos mensajes no cifrados se revelan cuando se presenta un informe, o si esos mensajes son examinados por contratistas externos. (WhatsApp le dijo a ProPublica que limita esa divulgación para evitar que los infractores “jueguen” con el sistema).

Por el contrario, tanto Facebook como Instagram publican extensos documentos de “Normas de la comunidad” que detallan los criterios que utilizan sus moderadores para controlar el contenido, junto con artículos y videos sobre “los héroes no reconocidos que mantienen Facebook seguro” y anuncios en nuevos sitios de revisión de contenido. Los informes de transparencia de Facebook detallan cuántas piezas de contenido se “procesan” para cada tipo de infracción. WhatsApp no ​​está incluido en este informe.

Al tratar con los legisladores, los funcionarios de Facebook Inc. también ofrecen pocos detalles, pero están ansiosos por asegurarles que no permiten que el cifrado se interponga en el camino de proteger a los usuarios de imágenes de abuso y explotación sexual infantil. Por ejemplo, cuando miembros del Comité Judicial del Senado interrogaron a Facebook sobre el impacto de cifrar sus plataformas, la compañía, en preguntas de seguimiento escritas en enero de 2020, citó a WhatsApp para jactarse de que seguiría respondiendo a la aplicación de la ley. “Incluso dentro de un sistema encriptado”, señaló una respuesta, “aún podremos responder a las solicitudes legales de metadatos, incluida la ubicación potencialmente crítica o información de la cuenta … Ya tenemos un servicio de mensajería encriptada, WhatsApp, que, a diferencia de algunos otros servicios cifrados: proporciona una forma sencilla para que las personas informen sobre abusos o problemas de seguridad “.

Efectivamente, WhatsApp informó 400.000 casos de posibles imágenes de explotación infantil al Centro Nacional para Niños Desaparecidos y Explotados en 2020, según su director, Cathcart. Eso fue diez veces más que en 2019. “Somos, con mucho, los líderes de la industria en encontrar y detectar ese comportamiento en un servicio cifrado de extremo a extremo”, dijo.

Durante su entrevista de YouTube con el grupo de expertos australiano, Cathcart también describió la dependencia de WhatsApp de los informes de los usuarios y la capacidad de sus sistemas de inteligencia artificial para examinar la información de la cuenta que no está sujeta a cifrado. Cuando se le preguntó cuántos empleados empleaba WhatsApp para investigar las quejas de abuso de una aplicación con más de dos mil millones de usuarios, Cathcart no mencionó a los moderadores de contenido ni su acceso a contenido cifrado. “Hay mucha gente en Facebook que ayuda con WhatsApp”, explicó. “Si miras a las personas que trabajan a tiempo completo en WhatsApp, está por encima de mil. No entraré en el desglose completo del servicio al cliente, los informes de los usuarios, la ingeniería, etc. Pero es mucho de eso “.

En respuestas escritas para este artículo, el portavoz de la compañía dijo: “Creamos WhatsApp de una manera que limita los datos que recopilamos y al mismo tiempo nos brinda herramientas para prevenir el correo no deseado, investigar amenazas y prohibir a las personas involucradas en abusos, incluso en base a los informes de usuarios que recibimos. . Este trabajo requiere un esfuerzo extraordinario por parte de los expertos en seguridad y de un valioso equipo de confianza y seguridad que trabaja incansablemente para ayudar a proporcionar al mundo una comunicación privada “. El portavoz señaló que WhatsApp ha lanzado nuevas funciones de privacidad, que incluyen “más controles sobre cómo los mensajes de las personas pueden desaparecer” o ser vistos solo una vez. Añadió: “Según los comentarios que hemos recibido de los usuarios, estamos seguros de que las personas comprenden que cuando envían informes a WhatsApp, recibimos el contenido que nos envían”.

DESDE EL MOMENTO EN QUE Facebook anunció planes para comprar WhatsApp en 2014, los observadores se preguntaron cómo le iría al servicio, conocido por su ferviente compromiso con la privacidad, dentro de una corporación conocida por lo contrario. Zuckerberg se había convertido en una de las personas más ricas del planeta mediante el uso de un enfoque de “capitalismo de vigilancia”: recopilar y explotar montones de datos de usuarios para vender anuncios digitales dirigidos. La búsqueda incesante de crecimiento y ganancias de Facebook ha generado una serie de escándalos de privacidad en los que fue acusada de engañar a clientes y reguladores.

Por el contrario, WhatsApp sabía poco sobre sus usuarios, aparte de sus números de teléfono, y no compartía esa información con terceros. WhatsApp no ​​publicó anuncios y sus cofundadores, Jan Koum y Brian Acton, ambos ex ingenieros de Yahoo, fueron hostiles con ellos. “En todas las empresas que venden anuncios” , escribieron en 2012, “una parte importante de su equipo de ingeniería pasa el día ajustando la extracción de datos, escribiendo un mejor código para recopilar todos sus datos personales, actualizando los servidores que contienen todos los datos y asegurándose de todo se registra, se recopila, se divide, se empaqueta y se envía “, y se agrega:” Recuerde, cuando se trata de publicidad, el usuario es el producto “. En WhatsApp, señalaron, “sus datos ni siquiera están en la imagen. Simplemente no estamos interesados ​​en nada de eso “.

Zuckerberg prometió públicamente en un discurso de apertura de 2014 que mantendría WhatsApp “exactamente igual”. Declaró: “No vamos a cambiar en absoluto los planes en torno a WhatsApp y la forma en que utiliza los datos de los usuarios. WhatsApp funcionará de forma completamente autónoma “.

En abril de 2016, WhatsApp completó su adopción planificada durante mucho tiempo del cifrado de extremo a extremo, que ayudó a establecer la aplicación como una plataforma de comunicaciones preciada en 180 países, incluidos muchos donde los mensajes de texto y las llamadas telefónicas tienen un costo prohibitivo. Los disidentes, denunciantes y periodistas internacionales también recurrieron a WhatsApp para escapar de las escuchas gubernamentales.

Sin embargo, cuatro meses después, WhatsApp reveló que comenzaría a compartir datos de usuarios con Facebook, precisamente lo que Zuckerberg había dicho que no sucedería, una medida que abrió el camino para una serie de planes futuros de generación de ingresos. Los nuevos términos de servicio de WhatsApp dijeron que la aplicación compartiría información como los números de teléfono de los usuarios, las fotos de perfil, los mensajes de estado y las direcciones IP con el fin de orientar los anuncios, combatir el spam y el abuso y recopilar métricas. “Al conectar su número de teléfono con los sistemas de Facebook”, explicó WhatsApp, “Facebook puede ofrecer mejores sugerencias de amigos y mostrarle anuncios más relevantes si tiene una cuenta con ellos”.

Tales acciones estaban poniendo cada vez más a Facebook en la mira de los reguladores. En mayo de 2017, los reguladores antimonopolio de la Unión Europea multaron a la empresa con 110 millones de euros (unos 122 millones de dólares) por afirmar falsamente tres años antes que sería imposible vincular la información del usuario entre WhatsApp y la familia de aplicaciones de Facebook. La UE concluyó que Facebook había engañado a los reguladores “intencional o negligentemente”. Facebook insistió en que sus declaraciones falsas en 2014 no fueron intencionales, pero no impugnó la multa.

Para la primavera de 2018, los cofundadores de WhatsApp, ahora ambos multimillonarios, se habían ido. Acton, en lo que luego describió como un acto de “penitencia” por el “crimen” de vender WhatsApp a Facebook, donó 50 millones de dólares a una fundación que respaldaba a Signal, una aplicación gratuita de mensajería encriptada que emergería como rival de WhatsApp. (El fondo asesorado por donantes de Acton también le ha dado dinero a ProPublica).

Mientras tanto, Facebook fue criticado por sus fallas de seguridad y privacidad como nunca antes. La presión culminó en una multa histórica de $ 5 mil millones por parte de la Comisión Federal de Comercio en julio de 2019 por violar un acuerdo anterior para proteger la privacidad del usuario. La multa fue casi 20 veces mayor que cualquier sanción anterior relacionada con la privacidad, según la FTC, y las transgresiones de Facebook incluyeron “engañar a los usuarios sobre su capacidad para controlar la privacidad de su información personal”.

La FTC anunció que estaba ordenando a Facebook que tomara medidas para proteger la privacidad en el futuro, incluso para los usuarios de WhatsApp: “Como parte del programa de privacidad ordenado por orden de Facebook, que cubre WhatsApp e Instagram, Facebook debe realizar una revisión de privacidad de cada nuevo o modificado producto, servicio o práctica antes de que se implemente, y documente sus decisiones sobre la privacidad del usuario “. Se requeriría que los oficiales de cumplimiento generen un “informe de revisión de privacidad trimestral” y lo compartan con la empresa y, si lo solicitan, con la FTC.

Facebook aceptó la multa y la orden de la FTC. De hecho, las negociaciones para ese acuerdo fueron el telón de fondo, solo cuatro meses antes, para el anuncio de Zuckerberg de su nuevo compromiso con la privacidad.

En ese momento, WhatsApp había comenzado a utilizar Accenture y otros contratistas externos para contratar a cientos de revisores de contenido. Pero la compañía estaba ansiosa por no pisar su mensaje de privacidad más amplio, ni asustar a su base de usuarios global. No dijo nada públicamente sobre su contratación de contratistas para revisar el contenido.

INCLUSO CUANDO Zuckerberg estaba promocionando el nuevo compromiso de Facebook Inc. con la privacidad en 2019, no mencionó que su empresa aparentemente estaba compartiendo más metadatos de sus usuarios de WhatsApp que nunca con la empresa matriz y con las fuerzas del orden.

Para el oído profano, el término “metadatos” puede sonar abstracto, una palabra que evoca la intersección de la crítica literaria y la estadística. Para usar una vieja analogía pre-digital, los metadatos son el equivalente de lo que está escrito en el exterior de un sobre: ​​los nombres y direcciones del remitente y el destinatario y el matasellos que refleja dónde y cuándo se envió por correo, mientras que el “contenido” es lo que está escrito en la carta sellada dentro del sobre. Lo mismo ocurre con los mensajes de WhatsApp: el contenido está protegido, pero el sobre revela una multitud de detalles reveladores (como se señaló: marcas de tiempo, números de teléfono y mucho más).

Aquellos en los campos de la información y la inteligencia comprenden lo crucial que puede ser esta información. Después de todo, eran metadatos los que la Agencia de Seguridad Nacional estaba reuniendo sobre millones de estadounidenses que no eran sospechosos de un delito, lo que provocó una protesta mundial cuando fue descubierto en 2013 por el excontratista de la NSA Edward Snowden. “Los metadatos te dicen absolutamente todo sobre la vida de alguien”, dijo una vez el ex consejero general de la NSA, Stewart Baker. “Si tienes suficientes metadatos, realmente no necesitas contenido”. En un simposio en la Universidad Johns Hopkins en 2014, el general Michael Hayden, ex director tanto de la CIA como de la NSA, fue aún más lejos : “Matamos a personas basándonos en metadatos”.

Las fuerzas del orden de EE. UU. Han utilizado los metadatos de WhatsApp para ayudar a encarcelar a las personas. ProPublica encontró más de una docena de casos en los que el Departamento de Justicia solicitó órdenes judiciales para los metadatos de la plataforma desde 2017. Éstas representan una fracción de las solicitudes generales, conocidas como órdenes de registro de bolígrafos (una frase tomada de la tecnología utilizada para rastrear números marcados por teléfonos fijos). ), ya que muchos más se mantienen fuera de la vista del público por orden judicial. Las solicitudes del gobierno de EE. UU. De datos sobre mensajes entrantes y salientes de todas las plataformas de Facebook aumentaron en un 276% desde el primer semestre de 2017 hasta el segundo semestre de 2020, según las estadísticas de Facebook Inc.(que no desglosan los números por plataforma). La tasa de la empresa de entregar al menos algunos datos en respuesta a tales solicitudes ha aumentado del 84% al 95% durante ese período.

No está claro exactamente lo que los investigadores del gobierno han podido recopilar de WhatsApp, ya que los resultados de esas órdenes también a menudo se mantienen fuera de la vista del público. Internamente, WhatsApp llama a estas solicitudes de información sobre los usuarios “posibles pares de mensajes” o PMP. Estos proporcionan datos sobre los patrones de mensajería de un usuario en respuesta a las solicitudes de las agencias de aplicación de la ley de EE. UU., Así como las de al menos otros tres países, el Reino Unido, Brasil e India, según una persona familiarizada con el asunto que compartió esta información en condición de anonimato. Es posible que las solicitudes de aplicación de la ley de otros países solo reciban información básica del perfil del suscriptor.

Los metadatos de WhatsApp fueron fundamentales en el arresto y condena de Natalie “May” Edwards, una ex funcionaria del Departamento del Tesoro de Financial Crimes Enforcement Network, por filtrar informes bancarios confidenciales sobre transacciones sospechosas a BuzzFeed News. La denuncia penal del FBI detallaba cientos de mensajes entre Edwards y un reportero de BuzzFeed usando una “aplicación encriptada”, que entrevistas y registros judiciales confirmaron que era WhatsApp. “El 1 de agosto de 2018 o alrededor de esa fecha, aproximadamente seis horas después de que el bolígrafo Edwards esté operativo, y el día después del artículo de Buzzfeed de julio de 2018fue publicado: el teléfono celular Edwards intercambió aproximadamente 70 mensajes a través de la aplicación encriptada con el teléfono celular Reporter-1 durante un lapso de aproximadamente 20 minutos entre las 12:33 am y las 12:54 am ”, escribió la agente especial del FBI Emily Eckstut en su documento de octubre de 2018 queja. Edwards y el reportero usaron WhatsApp porque Edwards creía que la plataforma era segura, según una persona familiarizada con el asunto.

Edwards fue sentenciado el 3 de junio a seis meses de prisión luego de declararse culpable de un cargo de conspiración y reportarse a prisión la semana pasada . El abogado de Edwards se negó a comentar, al igual que los representantes del FBI y el Departamento de Justicia.

WhatsApp ha minimizado durante años la cantidad de información no cifrada que comparte con las fuerzas del orden, limitando en gran medida las menciones de la práctica al lenguaje repetitivo enterrado profundamente en sus términos de servicio. No mantiene de forma rutinaria registros permanentes de con quién se comunican los usuarios y con qué frecuencia, pero los funcionarios de la empresa confirmaron que activan dicho seguimiento a su propia discreción, incluso para las investigaciones internas de fugas de Facebook, o en respuesta a las solicitudes de las fuerzas del orden. La compañía se negó a decirle a ProPublica con qué frecuencia lo hace.

La página de privacidad de WhatsApp asegura a los usuarios que tienen control total sobre sus propios metadatos. Dice que los usuarios pueden “decidir si solo los contactos, todos o nadie pueden ver su foto de perfil” o cuándo abrieron sus actualizaciones de estado por última vez o cuándo abrieron la aplicación por última vez. Independientemente de la configuración que elija un usuario, WhatsApp recopila y analiza todos esos datos, un hecho que no se menciona en ninguna parte de la página.

EL CONFLICTO entre la privacidad y la seguridad en las plataformas cifradas parece solo intensificarse. Los defensores de las fuerzas del orden y la seguridad infantil han instado a Zuckerberg a abandonar su plan de cifrar todas las plataformas de mensajería de Facebook. En junio de 2020, tres senadores republicanos introdujeron la “Ley de acceso legal a datos cifrados”, que requeriría que las empresas de tecnología ayuden a proporcionar acceso incluso a contenido cifrado en respuesta a órdenes de aplicación de la ley. Por su parte, WhatsApp demandó recientemente al gobierno indio para bloquear su requisito de que las aplicaciones encriptadas proporcionen “trazabilidad”, un método para identificar al remitente de cualquier mensaje que se considere relevante para la aplicación de la ley. WhatsApp ha enfrentado demandas similares en otros países.

Otras plataformas encriptadas adoptan un enfoque muy diferente para monitorear a sus usuarios que WhatsApp. Signal no emplea moderadores de contenido, recopila muchos menos datos de usuarios y grupos, no permite copias de seguridad en la nube y, en general, rechaza la idea de que debería vigilar las actividades de los usuarios. No presenta informes de explotación infantil al NCMEC.

Apple ha promocionado su compromiso con la privacidad como un punto de venta. No tiene un botón de “informe” en su sistema iMessage, y la compañía ha realizado solo unos cientos de informes anuales al NCMEC, todos ellos originados por el escaneo del correo electrónico saliente, que no está encriptado.

Pero Apple recientemente tomó un nuevo rumbo y pareció tropezar en el camino. En medio de la intensificación de la presión del Congreso, en agosto la compañía anunció un nuevo y complejo sistema para identificar imágenes de explotación infantil en las copias de seguridad de iCloud de los usuarios. Apple insistió en que el nuevo sistema no representa una amenaza para el contenido privado, pero los defensores de la privacidad acusaron a la compañía de crear una puerta trasera que potencialmente permite a los gobiernos autoritarios exigir búsquedas de contenido más amplias, lo que podría resultar en el objetivo de disidentes, periodistas u otros críticos del estado. El 3 de septiembre, Apple anunció que retrasaría la implementación del nuevo sistema.

Aún así, es Facebook el que parece enfrentar el escepticismo más constante entre las principales plataformas tecnológicas. Está usando el cifrado para promocionarse como amigable con la privacidad, mientras dice poco sobre las otras formas en que recopila datos, según Lloyd Richardson, director de TI del Centro Canadiense para la Protección de la Infancia. “Toda esta idea de que lo están haciendo para la protección personal de las personas es completamente ridícula”, dijo Richardson. “Estás confiando en una aplicación propiedad y escrita por Facebook para hacer exactamente lo que dicen. ¿Confías en esa entidad para hacer eso? ” (El 2 de septiembre, las autoridades irlandesas anunciaron que van a multar a WhatsApp con 225 millones de euros, unos 267 millones de dólares, por no revelar correctamente cómo la empresa comparte la información de los usuarios con otras plataformas de Facebook. WhatsApp impugna el hallazgo).

El énfasis de Facebook en la promoción de WhatsApp como un modelo de privacidad es evidente en el documento de marketing de diciembre obtenido por ProPublica. La presentación “Brand Foundations” dice que fue el producto de un equipo global de 21 miembros en todo Facebook, que incluyó media docena de talleres, investigación cuantitativa, “entrevistas con las partes interesadas” y “lluvias de ideas interminables”. Su objetivo: ofrecer “una articulación emocional” de los beneficios de WhatsApp, “un juego de herramientas inspirador que nos ayuda a contar nuestra historia” y un “propósito de marca para defender la conexión humana profunda que conduce al progreso”. La plataforma de marketing identifica un sentimiento de “cercanía” como el “territorio emocional que se puede poseer” de WhatsApp, y dice que la aplicación ofrece “lo más parecido a una conversación en persona”.

WhatsApp debería presentarse a sí mismo como “valiente”, según otra diapositiva, porque está “adoptando una postura pública fuerte que no está motivada financieramente en las cosas que nos importan”, como defender el cifrado y combatir la desinformación. Pero la presentación también habla de la necesidad de “abrir la apertura de la marca para abarcar nuestros futuros objetivos comerciales. Si bien la privacidad seguirá siendo importante, debemos adaptarnos a las innovaciones futuras “.

WhatsApp se encuentra ahora en medio de un gran impulso para ganar dinero. Ha experimentado un comienzo difícil, en parte debido a las sospechas generales sobre cómo WhatsApp equilibrará la privacidad y las ganancias. Un plan anunciado para comenzar a publicar anuncios dentro de la aplicación no ayudó; fue abandonado a fines de 2019, solo unos días antes de su lanzamiento. A principios de enero, WhatsApp reveló un cambio en su política de privacidad, acompañado de un plazo de un mes para aceptar la política o ser desconectado de la aplicación. La medida provocó una revuelta, lo que impulsó a decenas de millones de usuarios a huir hacia rivales como Signal y Telegram.

El cambio de política se centró en cómo se manejarían los mensajes y los datos cuando los usuarios se comunicaran con una empresa en la gama cada vez mayor de ofertas de WhatsApp Business. Las empresas ahora pueden almacenar sus chats con los usuarios y utilizar información sobre los usuarios con fines de marketing, incluida la orientación de anuncios en Facebook o Instagram.

Elon Musk tuiteó “Use Signal” y los usuarios de WhatsApp se rebelaron. Facebook retrasó tres meses el requisito de que los usuarios aprobaran la actualización de la política. Mientras tanto, se esforzó por convencer a los usuarios de que el cambio no tendría ningún efecto en las protecciones de privacidad de sus comunicaciones personales , con una versión ligeramente modificada de su garantía habitual: “WhatsApp no ​​puede ver sus mensajes personales ni escuchar sus llamadas y tampoco Facebook. . ” Al igual que cuando la empresa compró WhatsApp por primera vez años antes, el mensaje fue el mismo: confíen en nosotros.

Información adicional de Alex Mierjeski y Doris Burke .

Fuente | Informe completo

esta web esta abierta al debate, no al insulto, estos seran borrados y sus autores baneados.

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s