A pesar de varios estudios, y contra estudios, financiadas en gran parte por las propias redes, las redes sociales siguen siendo un vehículo enormemente problemático para mensajes divisivos y movimientos dañinos.

Pero su influencia a menudo se malinterpreta, o los elementos se combinan para oscurecer los hechos, por diversas razones. La verdadera influencia de las redes sociales no se debe necesariamente a los algoritmos ni a la amplificación como elementos de enfoque. El daño más significativo proviene de la conexión en sí misma y la capacidad de conectarse con los pensamientos de las personas que conoce, algo que no era posible en el pasado.

Aquí hay un ejemplo: digamos que está completamente vacunado contra COVID, confía completamente en la ciencia y está haciendo lo que los funcionarios de salud han aconsejado, sin problemas, sin preocupaciones sobre el proceso. Pero luego ve una publicación de su viejo amigo, llamémoslo ‘Dave’, en la que Dave expresa sus preocupaciones sobre la vacuna y por qué duda en recibirla.

Puede que no hayas hablado con Dave durante años, pero te gusta, respetas su opinión. De repente, este no es un activista anónimo y sin nombre que puedes descartar fácilmente, es alguien que conoces, y te hace preguntarte si puede haber más en el impulso antivacunas de lo que pensabas. Dave nunca pareció estúpido, ni crédulo, tal vez deberías investigarlo un poco más.

Así que lo hace: lee los enlaces publicados por Dave, revisa las publicaciones y los artículos, tal vez incluso navega por algunos grupos para tratar de comprender mejor. Tal vez también comiences a publicar comentarios en artículos contra las vacunas, y todo esto le dice a los algoritmos de Facebook que estás interesado en este tema y que es cada vez más probable que interactúes con publicaciones similares. Las recomendaciones comienzan a cambiar en tu feed, te involucras más con el tema, y ​​todo esto te lleva más a un lado del argumento o al otro, alimentando la división.

Pero no comenzó con el algoritmo, que es una refutación central en Los contraargumentos de Meta. Comenzó con Dave, alguien a quien conoces, que publicó una opinión que despertó tu interés.

Es por eso que las campañas más amplias para manipular la opinión pública son tan preocupantes. El campañas de disrupción orquestadas por la Agencia de Investigación de Internet de Rusia en el período previo a las elecciones estadounidenses de 2016 son el ejemplo más público, pero se están produciendo impulsos similares todo el tiempo. La semana pasada, surgieron informes de que el gobierno indio ha estado usando Campañas de fuerza bruta impulsadas por bots en las redes sociales para ‘inundar la zona’ y cambiar el debate público sobre ciertos temas al obtener temas alternativos que sean tendencia en Facebook y Twitter. Muchos proyectos de NFT y cripto ahora buscan sacar provecho de la exageración más amplia mediante el uso de bots de Twitter para hacer que sus ofertas parezcan más populares y de buena reputación de lo que son.

Robots estafadores

La mayoría de las personas, por supuesto, ahora desconfían cada vez más de tales presiones y cuestionarán más fácilmente lo que ven en línea. Pero al igual que la clásica estafa por correo electrónico de Nigeria, solo se necesita una cantidad muy pequeña de personas para engancharse, y todo ese esfuerzo vale la pena. Los costos de mano de obra son bajos y el proceso puede automatizarse en gran medida. Y solo unos pocos Dave pueden terminar teniendo un gran impacto en el discurso público.

Las motivaciones de estas campañas son complejas. En el caso del gobierno indio, se trata de controlar el discurso público y sofocar la posible disidencia, mientras que para los estafadores se trata de dinero. Hay muchas razones por las que se promulgan tales impulsos, pero no hay duda de que las redes sociales han proporcionado un conector valioso y viable para estos esfuerzos.

Pero los argumentos en contra son selectivos. Meta dice que el contenido político es solo una pequeña porción del material general compartido en Facebook. Lo cual puede ser cierto, pero eso solo cuenta los artículos compartidos, no las publicaciones personales ni las discusiones grupales. Meta también dice que el contenido divisivo es realmente malo para los negocios porque como El CEO Mark Zuckerberg explica:

Ganamos dinero con los anuncios, y los anunciantes nos dicen constantemente que no quieren que sus anuncios estén junto a contenido dañino o enojado. Y no conozco ninguna empresa de tecnología que se proponga crear productos que hagan enojar o deprimir a la gente. Los incentivos morales, comerciales y de producto apuntan todos en la dirección opuesta.

Sin embargo, al mismo tiempo, Meta investigación propia también ha demostrado el poder de Facebook para influir en la opinión pública, específicamente en el contexto político.

En 2010, alrededor de 340.000 votantes adicionales participaron en las elecciones al Congreso de EE. UU. debido a una único mensaje de Facebook del día de las elecciones impulsado por Facebook.

según el estudio:

“Alrededor de 611.000 usuarios (1%) recibieron un ‘mensaje informativo’ en la parte superior de sus noticias, que los animaba a votar, proporcionaba un enlace a información sobre los lugares de votación locales e incluía un botón ‘Yo voté’ en el que se podía hacer clic y un contador de Usuarios de Facebook que habían hecho clic. Cerca de 60 millones de usuarios (98%) recibieron un ‘mensaje social’, que incluía los mismos elementos pero también mostraba las fotos de perfil de hasta seis amigos de Facebook seleccionados al azar que habían hecho clic en el botón ‘Yo voté’. El 1% restante de los usuarios se asignó a un grupo de control que no recibió ningún mensaje”.

Mensaje del día de las elecciones de Facebook

Los resultados mostraron que aquellos que vieron el segundo mensaje, con imágenes de sus conexiones incluidas, tenían cada vez más probabilidades de votar, lo que eventualmente resultó en que 340,000 personas más acudieran a las urnas como resultado del empujón entre pares. Y eso es solo a pequeña escala en términos de Facebook, entre 60 millones de usuarios, y la plataforma ahora se acerca a los 3 mil millones de activos mensuales en todo el mundo.

Está claro, según la propia evidencia de Facebook, que la plataforma tiene un poder de influencia significativo a través de las opiniones de los compañeros y el intercambio personal.

Así que no es Facebook específicamente, ni el infame algoritmo News Feed los principales culpables de este proceso. Son las personas y lo que las personas eligen compartir. Que es lo que tiene el CEO de Meta, Mark Zuckerberg señaló repetidamente:

Sí, tenemos grandes desacuerdos, tal vez más ahora que en cualquier otro momento de la historia reciente. Pero parte de eso se debe a que estamos poniendo nuestros problemas sobre la mesa, problemas de los que durante mucho tiempo no se habló. Más personas de más partes de nuestra sociedad tienen una voz que nunca antes, y tomará tiempo escuchar estas voces y unirlas en una narrativa coherente.

Contrariamente a la sugerencia de que está causando más problemas, Meta ve a Facebook como un vehículo para un cambio social real, que a través de la libertad de expresión podemos llegar a un punto de mayor comprensión y que proporcionar una plataforma para todos debería, en teoría, garantizar una mejor representación. y conexión.

Lo cual es cierto desde un punto de vista optimista, pero aun así, la capacidad de los malos actores para influir también en esas opiniones compartidas es igualmente significativa, y esos son con la misma frecuencia los pensamientos que se amplifican entre las conexiones de sus redes.

Entonces, ¿qué se puede hacer, más allá de lo que ya están trabajando los equipos de control y moderación de Meta?

Bueno, probablemente no mucho. En algunos aspectos, la detección de texto repetido en las publicaciones aparentemente funcionaría, lo que las plataformas ya hacen de diversas maneras. Limitar el intercambio sobre ciertos temas también podría tener algún impacto, pero en realidad, la mejor manera de avanzar es lo que está haciendo Meta, al trabajar para detectar a los autores de talesy eliminar las redes que amplifican el contenido cuestionable.

¿Funcionaría la eliminación del algoritmo?

Quizás. La denunciante Frances Haugen ha señaló el algoritmo News Feed, y su enfoque en impulsar el compromiso por encima de todo, como un problema clave, ya que el sistema está diseñado de manera efectiva para amplificar el contenido que incita a la discusión.

Eso definitivamente es problemático en algunas aplicaciones, pero ¿evitaría que Dave compartiera sus pensamientos sobre un problema? No, no lo sería y, al mismo tiempo, no hay nada que sugiera que los Dave del mundo obtengan su información a través de fuentes cuestionables, según las destacadas aquí. Pero las plataformas de redes sociales y sus algoritmos facilitan ambos, mejoran dicho proceso y brindan vías completamente nuevas para la división.

Hay diferentes medidas que podrían promulgarse, pero la eficacia de cada una es muy cuestionable. Porque gran parte de esto no es un problema de las redes sociales, es un problema de las personas, como dice Meta. El problema es que ahora tenemos acceso a los pensamientos de todos los demás, y no estaremos de acuerdo con algunos de ellos.

En el pasado, podíamos continuar, felizmente inconscientes de nuestras diferencias. Pero en la era de las redes sociales, eso ya no es una opción.

¿Nos llevará eso, eventualmente, como dice Zuckerberg, a una sociedad más comprensiva, integrada y civil? Los resultados hasta ahora sugieren que tenemos una manera de avanzar en esto.

Ir arriba