El año pasado, después de conseguir un nuevo trabajo, me compré un celular bastante moderno. Soy asiduo seguidor de las novedades tecnológicas y me gusta estar al día en esos temas, así que después de hacer todas las configuraciones correspondientes quise sacarle provecho al máximo. Todo anduvo de maravilla durante mi primera semana, hasta que al lunes siguiente recibí una notificación de Google al llegar a la oficina: “¿Pasas muchas horas en este lugar, quieres agregarlo como tu nuevo trabajo?”
Esta es una historia real, no le sucedió al amigo de un amigo, me sucedió a mí y, aunque no nos lleguen las notificaciones, nos sucede a todos las 24 horas del día. Si no, ¿por qué cuando descargamos una aplicación, a veces un simple juego, al abrirla nos advierte: “Sudoku quiere tener acceso a tu ubicación”? ¿Por qué una app de entretenimiento gratuita, que no necesita conocer mi ubicación para funcionar, quiere esa información? La respuesta es simple: cuando el servicio es gratuito, lo que está en venta es el usuario. O mejor dicho, el usuario reducido a la suma de los datos que genera.
Lo más interesante de la “sociedad de la información” es que si le cabe semejante nombre a nuestra coyuntura es porque la información se ha convertido en una commodity. En el afán del capitalismo neoliberal por conquistar todas las zonas de la experiencia humana, de expandir la lógica financiera a todos los órdenes de la vida, el Big Data no sólo representa ese movimiento, sino que también da cuenta de una nueva modalidad de lo que David Harvey (2007) llama acumulación por desposesión: los sujetos son expropiados de la información que generan, la cual es vendida y gestionada por grandes corporaciones infocomunicacionales. Los usuarios, en la gran mayoría de los casos, no sólo ignoran la información que están acordando entregar cuando firman las políticas del servicio sino que también ignoran que están produciendo un insumo clave para la reproducción del capital de esas empresas. Más que los softwares, la innovación y las plataformas, la producción basada en Big Data y Machine Learning es tan buena como su base de datos.
Hoy en día, la gran mayoría de las aplicaciones contienen archivos llamados “SDK” que permiten enviar diferentes tipos de información, como la ubicación de un dispositivo cada 5 minutos, a bases de datos de terceros para crear perfiles, segmentos y hasta prototipos de usuarios. En algunos casos estas bases se venden; en otros, se venden servicios a partir de ellas. El más frecuente es la creación de “experiencias de usuario” o campañas publicitarias personalizadas que garanticen mayor satisfacción y adhesión de los públicos. Las empresas, los gobiernos, los partidos políticos, o cualquiera con el dinero suficiente para hacerlo, pueden contratar servicios que a través de la implementación de algoritmos garantizan “eficiencia” en sus comunicaciones, dirigiendo mensajes alineados con los gustos, intereses y creencias previas de sus destinatarios.
Los algoritmos privilegian los contenidos que se parecen a nosotros, porque así “garantizan mayor interacción” y cada vez más restringen la posibilidad de un horizonte común para todos (a no ser que se pague para romper las burbujas, pero incluso entonces los algoritmos “penalizan” los mensajes “menos eficientes” haciéndolos menos “rentables”). La eficiencia y eficacia comunicativa se presenta como llegar a quien ya piensa de determinada manera con una reafirmación de su pensamiento, para impulsar desde allí un comportamiento: venga, compre, ¡vote! Se trata de un movimiento circular apalancado en los narcisismos de los sujetos que voluntariamente e involuntariamente acceden a reducir la diversidad, la otredad que los rodea.
El neoliberalismo digital se presenta como una red que conecta nodos distantes a la vez que pone en escena una supuesta diversidad que no es más que una infinita variación de lo mismo. Netflix nos sugiere series y películas similares a lo que hemos indicado que nos gusta, pero también aquellas que se parecen a lo que les gusta a otros usuarios que eligen las mismas cosas que nosotros. Más importante aún, la plataforma nos sugiere contenidos que se condicen con lo que pasamos más tiempo viendo; o que hemos visto más cantidad de veces. Incluso nos sugiere contenidos similares a lo que hemos consumido más compulsivamente en largas maratones. Facebook, por su parte, privilegia las publicaciones de los “amigos” con los que más interactuamos (aunque ellos no lo sepan), pero también los contenidos de los usuarios que tienen más amigos en común, más “me gusta” en común, o incluso que han visitado físicamente los mismos eventos que nosotros. La diversidad que se esgrime no es más que la reducción de los usuarios al nivel de los datos que generan y una agregación matemática que privilegia la “mismidad novedosa”. Podemos pensar que se trata de un acabado mecanismo de sondeo, en los términos de Sergio Caletti, que “seca la fertilidad de los intercambios, que vuelve predecible los resultados, (…) se confirman los mundos ya consagrados, se reiteran los horizontes” (Caletti, 2006: 26).
Los sujetos colaboramos voluntariamente con este efecto de “burbuja” en parte motivados por una fantasía social en la que, como dice Zizek (2015), el otro se vuelve insoportable. Para poder fortalecer el atomismo social es necesario un Otro que garantice la distancia con los otros, función elemental de los algoritmos que gobiernan el espacio virtual. El reverso de una Ley que se desdibuja es la vivencia del otro como amenaza permanente que puede ocupar mi lugar. La idea del consenso y la tolerancia (que gracias a los algoritmos es entre siempre-ya-iguales) se vuelve la idea que regula la autorepresentación que la formación social hace de sí. Por su parte, el conflicto emerge como algo localizable que debe ser eliminado: a veces basta con eliminar la solicitud de amistad, otras veces la gestión neoliberal del conflicto adquiere ribetes más totalitarios en donde la violencia aparece como la contracara necesaria de su consenso.
Este régimen de visibilidad particular, dominante en nuestra coyuntura, nos obliga a pensar qué lugar se habilita para la política y qué queda de lo democrático cuando se reemplaza la idea del horizonte común universal que proponían categorías como pueblo, por la autosatisfacción del nicho, el target o el segmento de iguales. Tomando la distinción que hace Ranciere (2000) entre un régimen policial, caracterizado por la normatividad que administra lo dado, que cuenta las partes; y la política, como la expresión de un desajuste, la emergencia de lo no contado que desestabiliza el orden policial, podemos decir que la gobernanza neoliberal algorítmica se encuentra plenamente del lado de la policía. Se trata de un régimen que pretende sustituir a los sujetos por una sumatoria de datos que harían calculable todos sus comportamientos. Podemos inscribir el auge de estas técnicas como un ejemplo de la tendencia desdemocratizadora que identifica Étienne Balibar (2013), en donde lo que está en cuestión no es simplemente la capacidad de tal o cual institución de representar a los sujetos, sino el principio mismo de representación. Los sujetos caracterizados como imperfectos u opacos (para invertir la metáfora de la transparencia de lo digital), son incapaces de representar a los ciudadanos en su ejercicio como funcionarios, por lo que los sistemas informáticos aparecen como alternativas transparentes y eficientes.
Sin embargo, la distinción entre la policía y la política resulta relevante a la hora de evaluar la implementación de políticas públicas “automatizadas”en base al Big Data. Al asumir como natural y evidente el orden policial, la implementación de estas tecnologías en la administración pública para la “automatización” de diferentes políticas (usualmente las destinadas a los sectores populares) redunda en un fortalecimiento del mismo y en un proceso de profundización de las desigualdades. En línea con los planteos de la politóloga Virginia Eubanks (2018), se trata de una “automatización de la desigualdad”, más que de un proceso de justicia social. Pero teniendo en cuenta que lo político se vincula con la tramitación del encuentro entre el momento policial y el momento de la política, no deberían descartarse de plano la posibilidad de incorporar estas tecnologías (eso sería más propio de una contraidentificación tecnófoba), sino que debería hacerse de modo crítico, contemplando la posibilidad de emergencia del desajuste y promoviendo modalidades de subjetivación que exijan la transformación del orden policial.
Es difícil aseverar qué formas pueden adoptar esas modalidades de subjetivación en nuestra coyuntura, sobretodo considerando que lo propio de la ideología dominante es cooptar aquellos elementos que la contradicen y regionalizar la experiencia social de modo que las contradicciones se presenten aisladas unas de las otras. Por lo pronto, tal vez sirva intentar separar lo que está junto y unir lo que está separado en la ideología dominante: ¿cuál es la relación entre la incorporación de estas tecnologías y la eficiencia de las política públicas? ¿Cómo funciona la delimitación jurídica de lo público y lo privado cuando la información generada por los sujetos en su vida cotidiana es apropiada por empresas que la utilizan como insumo para su producción? O dicho más directamente: ¿puede pensarse en algún tipo de derecho de los usuarios de las redes sobre las ganancias que las plataformas hacen con sus datos? ¿Deberían Facebook y Google pagarle a sus usuarios? ¿Cuál es la transparencia que garantiza un algoritmo (es decir, un código sofisticado, diseñado por un experto, el cual pocas veces puede ser auditado y que es implementado sobre una base de datos que en la mayoría de los casos no es accesible)? ¿Qué une la necesidad de digitalizar la administración pública con la lógica de la meritocracia, la eficiencia o la retórica del ajuste?
En una coyuntura de fortalecimiento de estas tendencias desdemocratizadoras se hace importante reivindicar concepciones de la comunicación, la política y el espacio público que le devuelvan al sujeto su espesura y centralidad emancipatoria. Es necesario concebir al sujeto como ese intervalo capaz de representar algo más que a sí mismo, asignándole a las técnicas algorítmicas su lugar en los procesos de gestión, pero reforzando su distancia de la política, que es la reparación del daño, muchas veces producido, reforzado y “automatizado” por los propios algoritmos.
BIBLIOGRAFÍA DE REFERENCIA
BALIBAR, E. “Neoliberalismo y desdemocratización”. En, Ciudadanía, Adriana Hidalgo, Buenos Aires, 2013.
CALETTI, S. “Decir, autorrepresentación, sujetos. Tres notas para un debate sobre política y comunicación”. En: Revista Versión, Núm. 17, UAM-X, 2006, pp.19-78.
EUBANKS, V. «Automating Inequality: How High-Tech Tools Profile, Police and Punish the Poor.» St. Martin Press, Nueva York, 2018.
RANCIERE, J. “Política, identificación y subjetivación”. En: ARDITI, B. (comp.) El reverso de la diferencia. Identidad y política. Caracas, Nueva Sociedad, 2000.
ŽIŽEK, S., Capítulo 1: Felicidad y tortura en el mundo atonal”. En En defensa de las causas perdidas. Akal, Buenos Aires, 2015.
*Licenciado en Comunicación, investigador y docente de la Universidad de Buenos Aires.
Ilustración: Du gris de la nuit surgit soudain. Paul Klee, 1918.