El siguiente ensayo se publica con el permiso de The Conversation, una publicación en línea que cubre la investigaciones más recientes.

A raíz de la inesperada victoria de Donald Trump, se han planteado muchas preguntas sobre el papel de Facebook en la promoción de información inexacta y altamente partidista durante la carrera presidencial y si estas falsas noticias influyó en el resultado de la elección.

Algunos han minimizado el impacto de Facebook, incluyendo el CEO Mark Zuckerberg, quien dijo que es "extremadamente improbable" que las noticias falsas pudieran haber influido el resultado de las elecciones. Pero las preguntas sobre el impacto político de la red social merecen más que una vistazo superficial.

¿Los algoritmos de filtrado de Facebook explican por qué tantos liberales tenían una confianza equivocada en una victoria de Clinton (haciéndose eco del error cometido por los partidarios de Romney en 2012)? ¿Y son las noticias falsas que circulan en Facebook la razón por la que tantos partidarios de Trump han apoyado las declaraciones demostrablemente falsas hechas por su candidato?

La afirmación popular de que "el filtro burbuja" es la razón de que las falsas noticias prosperan en Facebook es ciertamente errónea. Si la red está alentando a la gente a creer mentiras –y eso es un un gran si– el problema más bien reside en cómo la plataforma interactúa con las tendencias sociales humanas básicas. Eso es mucho más difícil de cambiar.

UN PÚBLICO DESINFORMADO

El papel de Facebook en la difusión de noticias políticas es innegable. En mayo de 2016, el 44 por ciento de los estadounidenses dijeron que recibían sus noticias de la red social. La prevalencia de la desinformación difundida a través de Facebook es difícil de negar.

Es plausible, entonces, que la cantidad de noticias falsas en una plataforma donde tanta gente recibe sus noticias pueda ayudar a explicar por qué tantos estadounidenses están mal informados sobre política.

Pero es difícil decir cuán probable es esto. Comencé a estudiar el papel de Internet en la promoción de falsas creencias durante la elección de 2008, enfocando mi atención a los medios sociales en 2012. En investigación que aún está en curso, encontré poca evidencia consistente de que las redes sociales promuevan la aceptación de afirmaciones falsas sobre los candidatos, a pesar de la prevalencia de muchas mentiras. En cambio, parece que en 2012, al igual que en 2008, el correo electrónico siguió siendo un medio excepcionalmente poderoso para las mentiras y teorías de conspiración. Los medios sociales no tenían un efecto notorio y confiable en las creencias de la gente.

Por un momento, sin embargo, supongamos que 2016 fue diferente de 2012 y 2008. (La elección fue ciertamente única en muchos otros aspectos.)

Si Facebook está promoviendo una plataforma en la cual los ciudadanos son menos capaces de discernir la verdad de la ficción, constituiría una seria amenaza para la democracia estadounidense. Pero nombrar el problema no es suficiente. Para combatir el flujo de la desinformación a través de las redes sociales, es importante entender por qué sucede.

NO CULPE AL FILTRO BURBUJA

Facebook quiere que sus usuarios estén comprometidos, no abrumados, por lo que emplea un software propietario que filtra los canales de noticias de los usuarios y elige el contenido que aparecerá. El riesgo radica en cómo se realiza esta adaptación.

Existe una amplia evidencia de que las personas se sienten atraídas por las noticias que afirman su punto de vista político. El software de Facebook aprende de las acciones pasadas de los usuarios: trata de adivinar en cuáles historias es probable que los usuarios hagan clic o decidan compartir en el futuro. Llevado a su extremo, esto produce un filtro burbuja, en el que los usuarios están expuestos solo a contenidos que reafirman sus sesgos. El riesgo entonces, es que el filtro burbuja promueva percepciones erróneas escondiendo la verdad.

El atractivo de esta explicación es obvia. Es fácil de entender, así que quizás sea fácil de arreglar. Deshágase de los canales de noticias personalizados y el filtro burbuja desaparecerá.

El problema con la metáfora del filtro burbuja es que asume que la gente está perfectamente aislada de otras perspectivas. De hecho, numerosos estudios han demostrado que las “dietas” individuales de los medios casi siempre incluyen información y fuentes que enfrentan sus actitudes políticas. Un estudio sobre los datos de usuarios de Facebook reflejó que los encuentros con información cruzada están muy extendidos. En otras palabras, es poco probable que las creencias falsas sean explicadas por la falta de contacto de las personas con noticias más precisas.

En cambio, las identidades políticas preexistentes de las personas moldean profundamente sus creencias. Por lo tanto, incluso cuando se enfrentan a la misma información, ya sea un artículo noticioso o una comprobación de hechos, las personas con diferentes orientaciones políticas suelen darle un significado dramáticamente diferente.

Un experimento puede ayudar: si usted era partidario de Clinton, ¿era consciente de que el altamente respetado sitio de predicción FiveThirtyEight le dio a la candidata solo  un 71 por ciento de posibilidades de ganar? Esas probabilidades eran mejor que lanzar una moneda al aire, pero estaban lejos de ser una cosa segura. Sospecho que muchos demócratas se sorprendieron a pesar de encontrar esta evidencia incómoda. De hecho, muchos habían criticado esta proyección en los días previos a las elecciones.

Si usted votó por Trump, ¿ha encontrado alguna vez pruebas que contradigan la afirmación de Trump de que el fraude electoral es común en los Estados Unidos? Verificadores de datos (fact checkers)y organizaciones de noticias han cubierto este tema ampliamente, ofreciendo pruebas sólidas de que la afirmación es falsa. Sin embargo, un partidario de Trump podría no ser persuadido: en una encuesta de septiembre de 2016, el 90 por ciento de los partidarios de Trump dijeron que no confiaban en los verificadores de datos.

¿FACEBOOK = PARTIDARIOS ENOJADOS?

Si el aislamiento de la verdad es realmente la principal fuente de información inexacta, la solución sería obvia: hacer la verdad más visible.

Desafortunadamente, la respuesta no es tan simple. Lo que nos lleva de nuevo a la cuestión de Facebook: ¿Existen otros aspectos del servicio que puedan distorsionar las creencias de los usuarios?

Pasará algún tiempo antes de que los investigadores puedan responder a esta pregunta con seguridad, pero como alguien que ha estudiado cómo las diversas formas en que otras tecnologías de Internet pueden llevar a la gente a creer información falsa, estoy preparado para ofrecer algunas conjeturas bien fundamentadas.

Hay dos cosas que ya sabemos acerca de Facebook que podrían fomentar la difusión de información falsa.

Primero, las emociones son contagiosas y pueden propagarse en Facebook. Un estudio a gran escala ha demostrado que pequeños cambios en las noticias de los usuarios de Facebook pueden moldear las emociones que expresan en los posts posteriores. En ese estudio, los cambios emocionales fueron pequeños, pero también lo fueron los cambios en la fuente de noticias que los causó. Imagínense cómo los usuarios de Facebook responden a acusaciones generalizadas de corrupción, actividad criminal y mentiras de los candidatos. No es sorprendente que casi la mitad (49 por ciento) de todos los usuarios describió la discusión política en las redes sociales como “enojado".

Cuando se trata de política, la ira es una emoción poderosa. Se ha demostrado que la gente está más dispuesta a aceptar mentiras partidistas y más propensos a publicar y compartir información política presumiblemente falsas, incluyendo artículos de noticias que refuerzan sus creencias. Si el uso de Facebook hace que los partidarios se enojen mientras también los exponen a mentiras partidistas, asegurar la presencia de información precisa puede no importar mucho. Republicano o demócrata, la gente enojada pone su confianza en la información que hace que su lado se vea bien.

En segundo lugar, Facebook parece reforzar la identidad política de la gente, fomentando una, ya gran, división partidista. Si bien, Facebook no protege a la gente de la información con la que no está de acuerdo, sin duda hace que sea más fácil encontrar a otros que piensan lo mismo. Nuestras redes sociales tienden a incluir a muchas personas que comparten nuestros valores y creencias. Y esto puede ser otra forma en la que Facebook está reforzando mentiras motivadas políticamente. Las creencias a menudo sirven a una función social, ayudando a las personas a definir quiénes son y cómo encajan en el mundo. Cuanto más fácil sea que las personas se vean en términos políticos, más apegadas están a las creencias que afirman esa identidad.

Estos dos factores –la forma en que la ira puede propagarse a través de las redes sociales de Facebook y cómo esas redes pueden hacer que la identidad política de los individuos sea más centradas en quiénes son ellos– probablemente explican las creencias imprecisas de los usuarios de Facebook con mayor eficacia que el llamado   filtro burbuja.

Si esto es cierto, entonces tenemos un desafío serio delante de nosotros. Facebook probablemente estará convencido de cambiar su algoritmo de filtrado para priorizar información más precisa. Google ya ha emprendido un esfuerzo similar. Los informes recientes sugieren que Facebook puede estar tomando el problema más en serio que lo que los comentarios de Zuckerberg sugieren.

Pero esto no hace nada para corregir las fuerzas subyacentes que propagan y refuerzan la información falsa: las emociones y las personas en sus redes sociales. Tampoco es obvio que estas características de Facebook pueden o deben ser "corregidas". Una red social desprovista de emoción parece una contradicción y fiscalizar la interacción de los individuos no es algo que nuestra sociedad debería enfrentar.

Puede ser que Facebook comparta parte de la culpa de algunas de las mentiras que circularon este año electoral, y que alteraron el curso de las elecciones.

Si es cierto, el desafío será averiguar qué podemos hacer al respecto.

 

Este artículo fue publicado originalmente en The Conversation. Lea aquí el artículo original.

 

The Conversation