Recopilación de datos para crear anuncios personalizados es obsesión de gigantes tecnológicos

Recopilación de datos para crear anuncios personalizados  es obsesión de gigantes tecnológicos
Nuestra propia información se está usando contra nosotros.l Archivo

Los escándalos sexuales en el entorno corporativo son los canarios en la mina de carbón del mundo de los negocios. Son lo suficientemente malos por sí solos.

Pero la mayoría de las veces, también muestran que hay algo que no marcha bien en la cultura de una compañía, especialmente cuando hay múltiples escándalos.

Eso fue lo primero que me vino a la mente cuando leí cómo Google le pagó al fundador de Android $90 millones, mientras guardaba silencio sobre una demanda por conducta sexual inapropiada.

Pero fue una línea en un correo electrónico interno del director ejecutivo de Google, Sundar Pichai, lo que realmente me llamó la atención: “En los últimos dos años, 48 personas han sido despedidas por acoso sexual, incluyendo 13 que eran altos directivos y altos cargos. Ninguna de estas personas recibió un paquete de salida”.

Eso está bien, supongo. Pero de verdad…¿48 personas? ¿Qué dice esto sobre Google? De hecho, ¿qué dice esto sobre Silicon Valley en general?

La cultura corporativa tóxica, incluyendo las conductas sexuales inapropiadas de los tecnólogos, se relaciona con el modelo de negocio tóxico de los anuncios personalizados.

Ambos muestran una tendencia a hacer daño hasta que el daño se expone completamente y las compañías son forzadas a tomar medidas.

El problema lo puso claramente de manifiesto la semana pasada el jefe de Apple, Tim Cook, quien pronunció un discurso en la conferencia de comisionados de privacidad de la Unión Europea (UE) en la que denunció el “complejo industrial de datos” ejemplificado por empresas como Google y Facebook.

Estas compañías obtienen la mayor parte de su dinero manteniendo a las personas en línea el mayor tiempo posible, con el propósito de obtener la mayor cantidad de sus datos personales como sea posible.

Esos datos se pueden aprovechar mediante anuncios pagados desplegados con la precisión de drones de ataque.

“Nuestra propia información —desde lo cotidiano hasta lo más personal— se está utilizando como arma contra nosotros con eficiencia militar”, dijo el señor Cook, cuya propia compañía obtiene la mayor parte de su dinero no de los datos, sino del hardware.

Apple tiene sus propios problemas en Europa y Estados Unidos (EU) —desde la deslocalización de impuestos hasta litigios por infracción de propiedad intelectual. Pero son los enormes grupos de plataformas —Facebook, Twitter, Instagram y Google— los que tienen los problemas más serios.

Su negocio depende de la manipulación del comportamiento, a través de técnicas al estilo de Las Vegas que ofrecen diversas recompensas para mantener a los usuarios enganchados. Sus algoritmos opacos encierran a los usuarios en burbujas de filtro que luego pueden monetizar.

Es un modelo de negocio que causa un daño colateral perenne, como lo demuestran los escándalos semanales. Pero es un modelo que nunca abandonarán voluntariamente. Es simplemente demasiado rentable.

Hablé con un ex ingeniero de YouTube, Guillaume Chaslot del Centro de Tecnología Humana, un grupo de refugiados de Silicon Valley que trabajan para crear modelos de negocios menos dañinos.

Hace unos años, formó parte de un proyecto interno en YouTube para desarrollar algoritmos que aumentarían la diversidad y la calidad del contenido que ven los usuarios. Pero debido a que los algoritmos más sutiles no mejoraron el “tiempo en línea de los usuarios” tanto como los tradicionales, el proyecto se abandonó.

Un portavoz de YouTube, quien no contradijo esta historia, dice que el sistema de recomendaciones de la compañía ha “cambiado sustancialmente con el transcurso del tiempo” y ahora incluye otros parámetros más allá del tiempo que se pasa en línea, incluyendo las encuestas de consumidores y el número de “compartir” o “me gusta”.

Pero como todos los usuarios del sitio conocen, al usuario aún se le dirige hacia el contenido que más tiempo haya pasado viendo, ya sean vídeos de gatos o propaganda política. Tanto Google como Facebook ahora ofrecen más recursos para desenmascarar cuentas sospechosas y eliminar contenido.

Pero no quieren ser censores, y de cualquier forma no lo hacen bien, como lo demuestran las frecuentes confusiones sobre el contenido que deciden dejar o eliminar de la plataforma.

Además, sus sistemas de publicidad digital complejos y opacos siguen siendo altamente vulnerables a la explotación, sin importar cuántas personas le dediquen a evitar el problema.

Consideremos la noticia de la semana pasada de que 125 aplicaciones y sitios web de Android estuvieron sujetos a un multimillonario fraude de publicidad digital.

A diferencia del escándalo sexual de Google, esta noticia no llegó a las primeras planas, pero la revelación fue suficiente para hacer que Mark Warner, un senador demócrata, le escribiera a la Comisión Federal de Comercio, pidiéndole que abordara “la prevalencia del fraude de publicidad digital y en particular, la falta de acción de las principales partes interesadas de la industria para frenar estos abusos”.

Dudo que esto suceda pronto. En un mercado que funcione correctamente, las empresas “startup” podrían revolucionar el paradigma con nuevos modelos de negocios de redes sociales y búsqueda que maximicen la utilidad en lugar del tiempo que se pasa en línea. Algunos lo han intentado.

Pero dado que Google y Facebook tienen semejante monopolio en sus respectivas áreas, los innovadores no pueden prosperar. En este sentido, la privacidad de los datos y el poder monopolístico, dos temas que a menudo se mencionan por separado, en realidad están relacionados.

El hecho de que Margrethe Vestager, la comisionada de competencia de la UE, hablara en la cumbre de privacidad la semana pasada demuestra que Europa está empezando a comprender los vínculos.

¿Como se puede solucionar el problema? Al igual que con los escándalos sexuales, sospecho que la respuesta es la transparencia. Los reguladores deben forzar las plataformas a hacer públicos sus algoritmos.

Sólo entonces entenderemos completamente la forma en que el modelo publicitario dirigido está socavando la democracia liberal, y comenzaremos a obtener suficiente apoyo público para obligar a los “comerciantes de la atención” a cambiar sus modelos.

Rana Foroohar
Financial Times

 

Más informaciones

Comente la noticia

Ver todas las noticias

Patrocinado por BANCO GENERAL