Friday Philosophy

Los algoritmos de las redes sociales no te controlan realmente

El libro del senador Josh Hawley The Tyranny of Big Tech (Regnery, 2021), que acaba de publicarse, plantea cuestiones importantes. Hawley se pregunta, por ejemplo, si Facebook, Twitter y YouTube censuran las opiniones que no gustan a sus directivos. Parece claro que la respuesta es sí. A muchas personas que han intentado publicar comentarios en Facebook que critican la línea «oficial» sobre el covid-19 se les han eliminado las publicaciones y se les ha condenado a la «cárcel de Facebook». En YouTube se ha eliminado un popular vídeo de Tom Woods que sostiene que los confinamientos y las máscaras son ineficaces. ¿Qué se debería hacer, si es que se hace algo al respecto? Hawley señala también que estos gigantes de los medios de comunicación dependen a menudo de la ayuda del gobierno para aumentar su poder. Hawley inserta su debate en un argumento más amplio sobre la independencia y el autogobierno en la tradición americana, que creo que es erróneo pero que, sin embargo, tiene un interés considerable. Espero abordar algunos de los puntos buenos del libro en otro lugar. De lo que me gustaría hablar en el artículo de esta semana es de una falacia común en la que cae Hawley.

Parte de un hecho indiscutible. La gente pasa mucho tiempo en Facebook y YouTube. Añade a esto una premisa que es más discutible, pero que no voy a cuestionar, a saber, que la gente pasa «demasiado» tiempo en estos medios. Otros usos de su tiempo son «mejores». Continúa sugiriendo que la gente es adicta al uso de estos medios, y esto es lo que me gustaría cuestionar.

La «adicción» sugiere que a la gente le resulta difícil dejar un tipo de comportamiento concreto. En algunos casos, puede haber dolores de abstinencia, como, por ejemplo, informan los fumadores habituales que intentan «dejar el hábito». Se afirma que el adicto no tiene realmente libertad de elección para continuar. Tal vez, en cierto sentido, podría dejarlo (y, de hecho, mucha gente deja de fumar), pero se necesita una extraordinaria «fuerza de voluntad» para hacerlo.

Hawley aplica así el modelo de adicción a los gigantes de los medios de comunicación. Dice que sus «algoritmos»—palabra clave en el libro—pueden utilizar las enormes cantidades de información que recogen al rastrear el uso que hacen los consumidores de Internet para predecir lo que es probable que la gente compre. En Facebook, estos artículos aparecerán en las páginas de los consumidores, y—seguramente—la gente los comprará. En Google, aparecerán anuncios basados en estos algoritmos cuando se escriba una búsqueda. ¿Qué mejor prueba de adicción necesitamos?

Hawley dice esto:

«Google desarrolló una fórmula, una serie de algoritmos matemáticos, para predecir qué consumidores harían clic en qué anuncios, qué consumidores harían compras y qué comprarían.... Gracias a su enorme y creciente almacén de información sobre los usuarios, la empresa podía dirigir anuncios personalizados a las personas que su máquina de datos sugería que tendrían una alta probabilidad de realizar una compra. Lo que, a su vez, conducía a un beneficio». (p. 65)

Este no es un caso de «adicción a América». Al contrario de lo que ocurre con los casos de adicción, no hay pruebas que demuestren que si no compras los productos que los algoritmos te indican, experimentarás ningún efecto adverso. No tendrás síntomas de «abstinencia»; lo único que ocurriría es que el algoritmo predijera incorrectamente.

Pero tal vez esta objeción exija demasiado a Hawley. Incluso si no hay nada parecido a los síntomas de abstinencia si no se compran los productos, ¿no es suficiente para el caso de Hawley que ocurra algo malo que el algoritmo tenga una alta tasa de éxito predictivo?

No, no lo es. Esta respuesta asume erróneamente que una predicción acertada sobre lo que vas a hacer saca el asunto de tu control. Si predije con una probabilidad muy alta qué harías algo y lo hiciste, entonces ¿cómo puede depender de ti si lo harás?

Podemos ver que algo falla en este argumento con un ejemplo. Preveo que cuando leas este artículo, no responderás rompiendo la pantalla de tu ordenador, aunque no te guste el artículo. ¿Se deduce de ello que no tenías ninguna opción al respecto? Si hubiera tenido la intención de romper la pantalla, ¿habría encontrado su mano bloqueada? No—evidentemente, no rompiste la pantalla porque no querías hacerlo. Esta conjunción no puede ser cierta: yo predigo correctamente que vas a romper la pantalla y tú no la rompes. Si rompes la pantalla, entonces la predicción era verdadera, y si no lo haces, entonces la predicción era falsa. Pero no se deduce que, si rompes la pantalla, tengas que romperla, es decir, que la predicción tenga que resultar cierta. Sólo que se cumplió. Hawley está haciendo un gran esfuerzo con la tautología de que una predicción exitosa no es falsa.

Si Hawley ha descrito correctamente los algoritmos, éstos permiten a los anunciantes ofrecerle los productos que usted desea. ¿Por qué es esto un problema? Aquí es importante no dejarse desviar por otra cuestión planteada por Hawley, que tiene más sustancia. ¿Tienen los medios de comunicación social derecho a someter a los usuarios a vigilancia, con el fin de recopilar los datos en los que se basan los algoritmos? ¿Han dado los consumidores su consentimiento? Hay un caso razonable de que no lo han hecho, pero esta es una cuestión diferente que deja intacta la afirmación de que las predicciones acertadas sobre lo que vas a comprar te quitan la libertad.

Hay otro problema en lo que dice Hawley. Dice que «el modelo de negocio de las grandes empresas tecnológicas se basa principalmente en la recopilación de datos y la publicidad, lo que significa idear formas de manipular a los individuos para que cambien su comportamiento» (p. 5). Lo que realmente ocurre, según el propio Hawley, es que los anunciantes ofrecen a los consumidores productos que tienen buenas razones para pensar que quieren. Esto no es «manipular» a la gente, lo que sugiere que los anuncios inducen deseos en la gente que no tenían ya. Al contrario, los algoritmos se basan en datos sobre las preferencias ya existentes de los consumidores. Los algoritmos no crean los datos en los que se basan. «Cambiar su comportamiento» también es engañoso. Si usted compra un producto, su comportamiento ha cambiado: no lo compraba antes de comprarlo. Pero al igual que hizo en el caso de la predicción, Hawley ha convertido una tautología—comprar algo es un cambio—en algo que suena siniestro. Espero que sus lectores no se dejen engañar por su intento de manipularlos.

image/svg+xml
Note: The views expressed on Mises.org are not necessarily those of the Mises Institute.
What is the Mises Institute?

The Mises Institute is a non-profit organization that exists to promote teaching and research in the Austrian School of economics, individual freedom, honest history, and international peace, in the tradition of Ludwig von Mises and Murray N. Rothbard. 

Non-political, non-partisan, and non-PC, we advocate a radical shift in the intellectual climate, away from statism and toward a private property order. We believe that our foundational ideas are of permanent value, and oppose all efforts at compromise, sellout, and amalgamation of these ideas with fashionable political, cultural, and social doctrines inimical to their spirit.

Become a Member
Mises Institute