¿Quién toma tus decisiones?

Hay una larga historia de inventos de éxito que han tenido que pasar por lagunas legales y regular su impacto social. En la actualidad, productos relativamente nuevos como las redes sociales y otras plataformas digitales omnipresentes y no reguladas utilizan el mundo digital como un gigantesco laboratorio, un laboratorio que ha invertido miles de millones de dólares en encontrar la fórmula mágica para "captar" a los internautas. En poco más de una década, hemos aprendido mucho.

Los algoritmos nos estudian, nos llevan de la mano y nos muestran el camino a seguir: Netflix aprende nuestro comportamiento cultural y nos recomienda películas que pueden interesarnos. Otros han descubierto que, en general, se prefieren los juegos con una curva de aprendizaje de sólo unos segundos. ¿Se necesitan años para tocar el piano? No, ¿qué sentido tiene? Es mejor chatear y gestionar el tiempo y los mensajes que hablar cara a cara y sentirse observado. En el mundo perfecto del diseño digital, la promesa capitalista de diversión es posible sin interrupciones ni consecuencias. Los algoritmos nos simplifican la vida y nos ahorran la pérdida de tiempo que supone la duda. Ofrecen un atajo para maximizar nuestra felicidad potencial entre nosotros y las posibilidades que ofrece el mundo, a través de un conocimiento de nosotros mismos que es mejor que el nuestro.

Sin embargo, tras la simulación de fuerzas benévolas que sólo nos ayudan a elegir lo que es mejor para nosotros, hay fuerzas que fomentan determinados comportamientos. Comprar en un sitio determinado, añadir otro producto a la cesta, posicionarse ante la noticia (¿te gusta, te sorprende, ...?), trabajar un poco más, votar a tal o cual candidato. ¿Cómo pueden las empresas resistirse a la tentación de aguarlos un poco más? En el neoliberalismo perfecto del mundo digital, prácticamente no hay regulación, y para algunos, quizás ninguna.

Esto es el capitalismo

En uno de los podcasts de Revista Anfibia, Todo es Fake, la investigadora Sonya Song concede una interesante entrevista. En realidad, las redes sociales son un lugar en el que la gente no piensa demasiado. Estas personas son bastante inteligentes y pueden resolver cálculos y otros problemas complejos, pero en las redes sociales no intentan aplicar su inteligencia a las publicaciones que ven. Esta relación con las redes sociales facilita la difusión de noticias falsas y retazos de realidad que suscitan indignación y simpatía, que comentamos y "nos gusta". sobre ellas. Nuestras reacciones emocionales refinan los algoritmos para aumentar aún más la eficacia de las noticias futuras. Para evitar este comportamiento, puedes pedirnos que liberemos un comentario/me gusta pasados cinco minutos. También podríamos desarrollar herramientas para fomentar el diálogo y limitar las reacciones intuitivas, incluso en una democracia ya desquiciada por los medios de comunicación y las fuerzas económicas.

Quizás te interesa:¿Quieres saber que son los koan?¿Quieres saber que son los koan?

El problema no es técnico. Las redes sociales son algunas de las empresas que viven ahora en la llamada "economía de la atención". Diseñan plataformas que nos atraen, en las que consumimos nuestra atención, y producen contenidos que atraen la atención de los demás. Si apelar a nuestras emociones funciona, ¿por qué no explotarlo? No tenemos por qué creer en teorías conspirativas, como dice el titular del artículo de eldiario.es: "Es el Capitalismo 3.0, no los bots rusos, lo que está destruyendo el debate político online". Todo este aparato del Capitalismo 3.0 está construido de tal manera que rascar la pintura del marketing ingenuo se declara explícitamente como un objetivo: La introducción de Google del uso del teléfono móvil permite a las empresas saber cuándo atacar a sus clientes. Hay mucha información disponible para lograr sus objetivos, como el hecho de que el 68% de los usuarios miran el móvil a los 15 minutos de despertarse y que el número de sesiones a través de teléfonos inteligentes ha aumentado un 20%. El resultado es un bombardeo quirúrgico constante que amenaza nuestra capacidad para tomar las riendas de nuestras vidas.

Esta atención empaquetada y segmentada se proporciona a los anunciantes para aumentar las ventas y a los políticos para que la gente les vote. Ambos tienen el mismo propósito: manipular. El término es casi un anatema entre los científicos sociales, pero debería volver a incluirse en el análisis, aunque haya que revisarlo. Experimentar con el sentimiento online cambiando un poco el algoritmo de Facebook, o seducir a los conductores con el "jueguecito" de UBER para que facturen más y consigan nuevos objetivos económicos (que es jerga política del siglo XX) ¿Cómo lo llamarías tú?

Me gusta" en Facebook. Justin Rosenstein, creador del botón "Me gusta" de Facebook, declaró en una entrevista que "nuestras mentes pueden ser secuestradas" y que los "Me gusta" de Facebook se asemejan a una chispa de "pseudoplacer". Hoy, Rosenstein admite que utiliza controles parentales sobre el uso de su teléfono móvil y que se prohíbe a sí mismo el acceso a redes como Snapchat. En el mismo artículo se presenta un nuevo estudio, siempre parcial, sobre la atención. Sin duda, el estudio sonará familiar a muchos lectores, a quienes les parece un lujo de otro siglo dedicar una hora a una tarea sin interrupciones (presumiblemente autoinfligidas). El ex desarrollador de Apple explica que "no quería cebar a la gente" y que "no hay nada intrínsecamente malo en atraer a la gente hacia tu producto", y añade: "Así es el capitalismo". Lo es. Al fin y al cabo, es lo mismo que la televisión, la radio y el cine: se trata de conocer nuestros gustos, captar nuestra atención y vender publicidad. La diferencia es que disponemos de muchos más datos para transmitir con precisión nuestros mensajes, y los medios digitales están (aún más) imbricados con nuestra propia subjetividad que los medios anteriores. Cuanto más tiempo pasamos en la red, más alimentamos a la bestia y le damos espacio para que nos alcance. Nuevos fenómenos como la nomofobia ponen de manifiesto lo integrados que están los teléfonos móviles y los usuarios.

Byun Chulhan, de Corea del Sur, lo explica así en su excelente libro Psicopolítica. Si el Big Data proporciona acceso al ámbito inconsciente de nuestro comportamiento y tendencias, surgirá la psicopolítica para penetrar profundamente en nuestra psique y explotarla [...]. La microfísica del Big Data haría visibles los microcomportamientos que escapan a la conciencia: el "actoma". Los macrodatos pueden revelar pautas colectivas de comportamiento de las que los individuos no son conscientes. De este modo, se puede acceder al inconsciente colectivo".

TEMA.

Quizás te interesa:¿Quieres ser feliz? Deja de hacer estas 10 cosas¿Quieres ser feliz? Deja de hacer estas 10 cosas

La forma en que nos construimos como sujetos consume hectolitros de tinta y megavatios de píxeles que iluminan nuestras pantallas. Desde los intentos de Antonio Gramsci por comprender los mecanismos del sentido común y la hegemonía, hasta la ideología de Louis Althusser, la disciplina de Michel Foucault y la nueva teoría del género de Judith Butler, la pregunta que recorre la academia es: ¿qué nos hace ser así?

La respuesta, por supuesto, es que el sujeto humano no puede surgir de la nada. No puede haber sujeto sin sociedad. Los niños vagabundos que sobrevivían siempre se parecían a su animal de adopción y no se convertían en seres en estado de "pura esencia humana". Pero, ¿en qué consiste exactamente el proceso? El debate será eterno entre sujetos que intentan salir del fango y ver el fenómeno desde dentro del sujeto. Como están todos en el mismo lodo, el proceso es un taiyan, y todos lo gritan.

¿Y si, en lugar de buscar grandes respuestas, pudiéramos utilizar Big Data para establecer correlaciones punto por punto con los "bloques de construcción" de la realidad a partir de los cuales nos construimos a nosotros mismos? En un libro muy interesante sobre el poder de los datos, Everybody read, el periodista y economista Seth Steven-Davidowitz cuenta que de niño era aficionado al equipo de béisbol de Nueva York, mientras que su hermano no tenía ningún interés. ¿Por qué? Para hallar la respuesta, comparamos los datos de los aficionados de cada equipo con sus fechas de nacimiento. Descubrimos que el porcentaje de seguidores de ese equipo aumentaba significativamente en la generación que tenía unos ocho años cuando el equipo ganó el campeonato. ¿Por qué los niños de esta edad son más propensos al exitismo relacionado con los trofeos? La psicología podría investigar la causalidad, pero el hecho es que, al menos según este estudio, el fenómeno es estadísticamente significativo: ocho niños tienen más probabilidades de elegir el equipo de su vida entre una lista de equipos de éxito, mientras que uno de cada cuatro niños tiene más probabilidades de elegir un equipo entre una lista de equipos de éxito, y uno de cada cuatro niños tiene más probabilidades de elegir un equipo entre una lista de equipos de éxito. Ahora que lo sabes, ¿por qué no utilizas este recurso para diseñar nuevas funciones temáticas?

Los macrodatos nos permiten comprender, pieza a pieza, quiénes somos realmente y qué procesos nos hacen ser quienes somos. ¿Puede el Big Data formular un modelo coherente de vinculación sin hipótesis? ¿Podemos utilizar el cañón de datos para deconstruir preguntas? Estas preguntas se vuelven aún más pertinentes e incómodas cuando observamos a niños que están conectados a dispositivos antes de poder hablar, y que se frustran y asustan a sus padres cuando se les desconecta de los aparatos. Incluso a una edad temprana, los datos de nuestra vida son cada vez más "minados", almacenados en servidores y extraídos una y otra vez para convertirlos en dinero. La respuesta se hace aún más urgente cuando nos fijamos en los programas de educación universalista como Ceibal en Uruguay, que (a pesar de las críticas) ha comenzado a utilizar Chromebooks y Google Apps. Esta "práctica" es una enorme "tubería de datos" que almacena y analiza cada gesto digital de los niños uruguayos hacia los adultos vigilados (ojo, no son los únicos). Este proceso está tan naturalizado que el sistema educativo no lo ha reconocido (ni le ha importado). Con estos datos, sería pan comido saber exactamente a qué edad los uruguayos se hacen hinchas de un equipo.

Así que...

Los algoritmos han aprendido a mantenernos cómodos y se han convertido en una droga sin rehabilitación. El problema es que esta comodidad, por definición, no nos incomoda. ¿Cómo funciona una sociedad en la que todo el mundo simplemente acepta y se siente cómodo en su lugar? Una respuesta es la sobreexcitada (y mala) película Idiocracy. En una sociedad tan bastarda, nadie está dispuesto a pensar más allá de sus propias ideas y la toma de decisiones se deja en manos de las máquinas.

¿Cómo conseguir que los jóvenes que han crecido jugando a videojuegos y sin aprender casi nada lean un libro y descubran el placer de la lectura? En la era de las interrupciones, ¿cómo podemos promover contenidos que requieran concentración? ¿Cómo explicarles que tocar la guitarra es diferente de jugar al Guitar Hero? Por un lado, el control "tranquilizador" no es un fenómeno nuevo, sino un tema frecuente en las críticas al capitalismo en la música, la literatura y el arte en general. Por otro lado, la sociedad sigue experimentando algunos momentos verdaderamente analógicos y desarrollando resistencias. Pero esto es, por supuesto, sólo la resistencia que está constantemente acosado.

¿Quién decide cómo deben pensar los demás y qué deben pensar? ¿Cuáles son las aportaciones legítimas para construir la subjetividad? ¿Sólo en casa y en la escuela? ¿No es egocéntrico pensar que unos conocimientos son más valiosos que otros? ¿Es cierto que el esfuerzo es una condición necesaria para acceder a una reflexión más compleja? ¿O es mejor una reflexión más compleja? A mí me parece evidente. ...... Por qué En un contexto no jerárquico de microrrelatos, historias individuales que chocan entre sí y captan nuestra atención durante apenas unos segundos, es muy difícil justificar por qué "Guerra y paz" es más rica que cualquier historia de Instagram (signifique eso lo que signifique).

Ante el tsunami digital, la deliberación se congela y los datos influyen cada vez más eficazmente en la sociedad, disimulando algunos de sus rasgos más inquietantes y haciéndola parecerse espantosamente a sí misma. ¿Y si los algoritmos simplemente revelan la insoportable verdad de que, como sociedad, estamos (incluso) peor de lo que suponemos?

A nadie le gusta sentirse manipulado. Mientras que los estudios sobre comunicación del siglo pasado han mostrado el poder y las limitaciones de los medios de comunicación convencionales a la hora de amplificar, ocultar o distorsionar los acontecimientos de un país o del mundo, el uso de los medios sociales requiere una nueva explicación.

Larry Page y Sergey Brin, los creadores de Google, introdujeron en 1998 un algoritmo innovador para facilitar las búsquedas en Internet. La fórmula responde a las consultas con la mayor precisión posible basándose en información histórica sobre el usuario, como su ubicación geográfica, lo que han elegido personas similares y muchos (pero no muchos) otros datos. El algoritmo está automatizado y se prueba millones de veces al día para determinar qué personas tienen más probabilidades de hacer clic en un anuncio. Siguiendo este exitoso modelo, muchas plataformas se han convertido en laboratorios para analizar qué funciona mejor para las ventas, probando diferentes colores, fotos, fuentes, temas, líneas de tiempo, etc. En la televisión, todos vemos lo mismo. Pero en la pantalla, las redes sociales pueden mostrar a todos algo diferente.

Por supuesto, estos mensajes algorítmicos y extremadamente segmentados también pueden utilizarse para vender champú o candidatos presidenciales. Uno de los primeros experimentos masivos con esta tecnología tuvo lugar durante la campaña electoral de Barack Obama en 2008. Su equipo descubrió votantes en estados clave que no se habían inscrito pero cuyos perfiles podían registrar como candidatos demócratas. Dirigieron mensajes específicos a los pacifistas, como un compromiso de desarme, y a los ecologistas, como las energías renovables. De los 3,5 millones de personas que enviaron mensajes, al menos un millón se registraron.

Campaña de Trump.

Este método fue utilizado hasta el extremo por Cambridge Analytica, filial de SCL Group, durante la campaña electoral de Donald Trump en 2016. La empresa ha creado un perfil psicológico que mide la inseguridad y la sensación de seguridad de cada votante: un test de personalidad llamado Ocean, derivado del comportamiento de las personas en Internet: a quién escriben, sobre qué escriben, cuándo escriben, cómo reaccionan ante diferentes mensajes, de qué hablan en privado.... Todos estos datos se apilan para establecer correlaciones. Por ejemplo, se puede aprender sobre la personalidad y la cultura de una persona a partir de sus gustos musicales.

Con esta información, la empresa pudo adaptar sus mensajes a las personas, sobre todo a la comunidad afroamericana, para animarlas o disuadirlas de votar (en algunas zonas, la participación de los negros en las elecciones demócratas fue significativamente inferior a la de las últimas elecciones, pero se midió, lo que tuvo un impacto más difícil de medir). El trabajo de Cambridge Analytica salió a la luz tras las elecciones estadounidenses. En concreto, se descubrió que gran parte de los datos procedían de Facebook, no mediante "pirateo", sino gracias a la funcionalidad de la plataforma: se capturaron 85 millones de personalidades, y la mayoría de los datos procedían de la página de Facebook. Este tipo de metodología se combinó con otras herramientas como las noticias falsas, los memes, la manipulación de los medios de comunicación de masas e incluso las campañas de odio contra individuos perturbados.

Cambridge Analytica se vio obligada a cesar sus operaciones tras el escándalo, pero su metodología se hizo pública. Constantemente se publican en la red análisis de comportamiento que muestran cómo un político gana de repente seguidores en Twitter o cómo un personaje polémico recibe automáticamente miles de retweets. El mensaje se refuerza de este modo, creando una sensación de "lo que todo el mundo piensa", y los medios de comunicación redoblan la apuesta por el hecho de que "está en todo Internet" -Facebook es una plataforma cuyo funcionamiento es tan opaco que resulta aún más difícil saber lo que está pasando-.

Comunidad Shugakusha (un grupo de personas que trabajan juntas).

Un lector ingenuo podría pensar que estos métodos no son más que una mejora de lo que siempre ha hecho el marketing electoral. Pero cuando observamos el mundo y sus "grietas" cada vez mayores, ya es suficiente. Esto tiene que ver no sólo con cuestiones políticas (principalmente por un sistema que sigue aumentando la desigualdad), sino también con algoritmos que pueden explotar lo que ya se sabía en realidad: que la mayoría de nuestras decisiones las toman ellos y no nosotros. Las investigaciones neurocientíficas también han demostrado que muchas decisiones pueden conocerse antes de que lleguen a la conciencia, y si son peligrosas o tienen consecuencias negativas, actúan como un censor para contenerlas.

Los algoritmos diseñados para llamar la atención buscan atajos en nuestro cerebro de forma masiva y automatizada. Requiere más esfuerzo asimilar información que difiere de nuestras propias ideas y tenemos que cambiar nuestra forma de pensar. Si creemos en el calentamiento global, nos mostrarán noticias que lo apoyan; si no, nos confirmarán que es una conspiración de los ecologistas. Los algoritmos pueden predecir nuestras reacciones a distintos tipos de artículos, fotos y posts basándose en información sobre nosotros y en las reacciones de otras personas similares. Y cuando comete errores, aprende a mejorar.

Los algoritmos saben que es mejor apelar a las emociones más básicas o no racionales, como la atracción sexual, el resentimiento, la sorpresa y la curiosidad. Por ejemplo, el título "Ver el ... Ver las sorprendentes reacciones de..." en miles de mensajes, sobre todo si la persona es conocida, crea un deseo difícil de controlar. Esto crea una realidad gestalt en la que es difícil que alguien confirme a diario sus propios prejuicios y comprenda que hay otros que piensan de forma diferente. Las plataformas rara vez cuantifican la eficacia de sus métodos para desencadenar la acción.

Si quieres conocer otros artículos parecidos a ¿Quién toma tus decisiones? puedes visitar la categoría Salud mental.

Resumen

Alejandro

¡Hola! Soy Alejandro creador y editor de eldespachoclandestino.com. Si estáis aquí es porque como yo, sois amantes de la buena cocina y la vida saludable. Quédate conmigo y aprendes sobre este apasionante mundo.

Mas artículos:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir

Utilizamos cookies para asegurar que damos la mejor experiencia al usuario en nuestra web. Si sigues utilizando este sitio asumiremos que estás de acuerdo. Encontrarás más información en nuestra política de cookies. Política de privacidad