Mundo Facebook: implicaciones del arbitraje emocional de la verdad en la era de las plataformas
Mark Zuckerberg, fundador de Facebook, se ha visto forzado a aceptar la responsabilidad de las redes sociales en el combate contra el bulo y la mentira tras la victoria de Trump. La polémica ha generado un acercamiento entre su plataforma y el mundo del periodismo para articular medidas que contengan la era de la posverdad.
BORJA BERGARECHE*
Querido lector, esto que va a leer a continuación es una noticia falsa, aunque muchos, desgraciadamente, creyeran lo contrario. “Medios de todo el mundo están informando de la decisión sin precedentes adoptada por el papa Francisco de apoyar a un candidato presidencial estadounidense. Su comunicado en apoyo de Donald Trump ha sido publicado por El Vaticano esta tarde: ‘He tenido muchas dudas a la hora de apoyar a uno de los candidatos en las elecciones presidenciales en los Estados Unidos, pero siento que no hacer pública mi preocupación ahora supondría un abandono de mi deber como Santa Sede’”.
La presunta información fue publicada el pasado 10 de julio por el presunto portal de noticias WTOE 5. El mismo día, el portal de detección de informaciones falsas Snopes.com desveló rápidamente que era un atropello a la verdad. Pero dio igual. La “noticia” fue compartida más de un millón de veces en Facebook. Dio igual el evidente tufo a bulo viral del anuncio, porque cientos de miles de personas sintieron ese irresistible afán de pulsar el codiciado botón de “share” en Facebook. Y dio también igual que existieran en internet numerosas señales –como la de Snopes y muchos otros portales de fact-checking [verificadores de hechos, en español]– de la falsedad de la “noticia”, porque los algoritmos de Facebook no están programados para desacelerar o contrarrestar, en aras de la verdad periodística, esas explosiones de emociones compartidas que llamamos viralidad.
La polémica sobre la irrefrenable escala y velocidad con la que se difunden noticias falsas en Facebook y, en menor medida, en otras redes sociales y en Google ha tenido ya, al menos, tres efectos beneficiosos para quienes nos dedicamos, humildemente, a la noble tarea de la información: un mayor foco en los riesgos democráticos de vivir en la era de la posverdad; una presión sin precedentes sobre Facebook para asumir, al menos en parte, eso que los periodistas llamamos “responsabilidad editorial”, y un aluvión de propuestas concretas para dirimir en favor de la verdad los vacíos éticos en la programación de los algoritmos que, cada día, deciden qué información leen millones y millones de personas.
Los problemas de vivir en un “mundo Facebook” –ese en el que la información se distribuye de forma crecientemente fragmentada en plataformas digitales y sociales– no se limitan, en cualquier caso, al empacho de noticias falsas que ha precedido (¿correlación o causalidad?) a la elección de Donald Trump como presidente de EE. UU. La cuestión más amplia reside, creo, en el arbitraje emocional de la verdad que llevan íntimamente incorporado las distintas plataformas –incluidas las pertenecientes a los medios de comunicación– en las que consumimos el menú informativo de cada día. Pero merece la pena repasar los tres fenómenos destacados en el párrafo anterior.
La llamada “posverdad” avanza en un mundo de alto voltaje político. Tanto, que Oxford Dictionaries ha elegido esta expresión como el término internacional de 2016. Definen posverdad como un adjetivo (su uso como tal es más obvio en inglés, “post-truth”) relativo a circunstancias en las que “los hechos objetivos son menos influyentes en conformar la opinión pública que las apelaciones emocionales”. Entre las otras palabras finalistas figuran, por cierto, algunas muy vinculadas al inquietante campo semántico que define nuestra época: “chatbot” (muy presentes en las informaciones sobre las presuntas actividades de propaganda y desinformación digital rusa durante la campaña electoral estadounidense), “alt-right” (término empleado para aludir a la derecha extrema o alternativa a la derecha del partido republicano tradicional) y “brexiteer”, o defensor del brexit.
El momento álgido del uso del término de posverdad fue junio y julio de 2016, coincidiendo con el referéndum por el brexit y la victoria moral de Nigel Farage, del UK Independence Party (UKIP), y la elección de Trump como candidato republicano. La frecuencia de uso del término habría crecido un 2.000% con respecto a 2015, según datos de Oxford Dictionaries recogidos por la BBC. Tras las elecciones en EE. UU., su análisis ha rellenado también espacios de tertulia y páginas y suplementos de periódicos en España. Los primeros usos de posverdad se rastrean en 1992, pero su salto al léxico de la contienda política suele situarse en abril de 2010, con la publicación de un artículo sobre el negacionismo del cambio climático por el entonces bloguero David Roberts en Grist, una web ecologista de tono satírico.
“Esta política de la posverdad se ve facilitada por dos amenazas a la esfera pública”, analizaban el pasado 16 de noviembre en el blog Free Exchange de la edición norteamericana de The Economist. “Una pérdida de confianza en las instituciones que apoyan su infraestructura y cambios profundos en la manera en el que el conocimiento del mundo real llega al público”, definían. O, dicho de otra forma, la creciente desconfianza hacia el estáblisment político en las siempre frágiles democracias representativas –y las élites, expertos y medios de comunicación (también) que lo reflejan–, sumado a su sustitución por las afinidades emocionales del Mundo Facebook.
Las implicaciones para el periodismo, tal y como lo conocíamos hasta ahora, son obvias. “La era del periodismo neutral ha terminado”, proclamaba en una reciente entrevista el inquietante responsable de la agencia oficial de noticias rusa Rossiya Segodnya, Dmitry Kiselyov, considerado como el propagandista en jefe de Vladimir Putin. “Es imposible porque lo que seleccionas dentro del enorme mar de información es en sí subjetivo”, decía. Desde el cinismo, sin embargo, se refiere con certeza a uno de los principales rasgos característicos de esta era de la posverdad: la “burbuja de filtros” denunciada en un TED Talk en 2011 por el activista digital Eli Pariser, responsable ahora del portal de “virales responsables” Upworthy.
Los algoritmos de Google o Facebook crean una burbuja sin opiniones divergentes
Según Pariser, la –por otro lado, extraordinaria– capacidad de los algoritmos de Google o Facebook de recomendarte contenidos de forma “personalizada”, a partir de tu propio patrón de conducta o de lo que han leído personas que estos programas informáticos consideran como afines a tus gustos, opiniones y personalidad –a menudo, porque así se lo hemos indicado nosotros mismos–, ha terminado por encerrarnos en una burbuja autorreferencial, monolítica y sin opiniones divergentes. Un mundo cerrado de profecías autorrealizadas. Un menú informativo en el que los defensores de Trump, o del brexit, solo recibían de Google y, sobre todo, de Facebook opiniones y comentarios de defensores de Trump, o del brexit. Y viceversa, claro: ¿cómo iban a detectar los seguidores de Clinton, o los defensores de la permanencia del Reino Unido en la Unión Europea, que existía una profunda corriente en contra si apenas se cruzaban con ella en su universo más íntimo de referencias y lecturas?
“Las redes sociales facilitan que los miembros de estos grupos refuercen mutuamente sus creencias al cerrar el paso a información contradictoria”, reflexionan en The Economist. Mark Zuckerberg, fundador de Facebook, tiene crecientes dificultades en negar este mecanismo, como veremos más adelante. Vivir en esta “burbuja de los filtros” permite que florezca el segundo de los atributos destacados de la posverdad: el pensamiento mágico. Estaría formado por aquellas creencias que calificaríamos de extremistas o radicales, alimentadas –sin aparente coste– por las medias o falsas verdades que propagan los políticos de la posverdad, y que persisten tercamente en el argumentario de ciertos colectivos a pesar de las pruebas en contra o de las réplicas por parte de expertos, políticos “mainstream” [tradicionales o convencionales] o periodistas “fact-checkers”. Facebook como una “cámara de eco”, en otra de las expresiones empleadas para referirse a este fenómeno.
Que la Unión Europea está robando el alma católica a la Polonia del partido de los gemelos Kaczynski, que los sin papeles mexicanos cometen más delitos que la media en EE. UU. o que los funcionarios de la Comisión Europea sueñan con ver a los ingleses conducir por la derecha serían algunos ejemplos anecdóticos de este pegajoso pensamiento mágico y conspiranoico que circula en el magma digital en forma de memes de ficción travestidos de verdades irrefutables. En España, la “nueva política” nos ha traído también, sobre todo en Twitter, toda una producción de clásicos de la posverdad (y del humor, todo hay que decirlo) relativos a los viejos partidos o a los nuevos…, según en qué burbuja milite uno.
Además de la “burbuja de los filtros” y del llamado pensamiento mágico posfactual, cabría destacar un tercer mecanismo de agravamiento de la posverdad, y que nos obliga a los medios de comunicación a mirarnos en el espejo. ¿Acaso no han ayudado a agravar el arrinconamiento de la verdad ciertas decisiones editoriales y de producto que hemos tomado los medios en el ámbito digital, presionados por la necesidad de crecer en tráfico? Por no hablar de la “berlusconización” de la conversación política en gran parte del panorama televisivo. “Con demasiada frecuencia, los medios de comunicación juegan un papel determinante en la propagación de los bulos, las afirmaciones falsas, los rumores cuestionables o el dudoso contenido viral, contaminando así el flujo de información digital”, reflexionaba Craig Silverman, actual editor de BuzzFeed Canada, en un estudio del Centro Tow para el Periodismo Digital, de la Escuela de Periodismo de la Universidad de Columbia.
Los periodistas y los editores debemos tener una participación activa en un debate que va a determinar, no ya el papel de la verdad en nuestra comprensión del mundo, sino el rol que reservamos a la prensa en los mecanismos de generación de la(s) opinión(es) pública(s). Las sonadas declaraciones de rebeldía frente al estáblisment del electorado británico, colombiano o estadounidense han generado inicialmente incomprensión, dudas e inseguridad en los medios de comunicación establecidos. Lo que contamos en nuestras informaciones, lo que opinamos en nuestros editoriales, ya no influye como antes en la ciudadanía de las sociedades complejas y pluralistas a las que servimos. ¿Cómo pudimos tardar tanto en llamar mentiroso al mentiroso?, se preguntan muchos.
Este gráfico publicado en Vox.com y elaborado por Craig Silverman –ya desde BuzzFeed– demuestra cómo en la recta final de la campaña presidencial, las noticias falsas obtuvieron más engagement (suma de compartidos, reacciones y comentarios) en Facebook que las noticias publicadas por medios como el New York Times o el Huffington Post.
El gráfico compara los datos de las 20 noticias “serias” más populares en la red social de Zuckerberg con el engagement de las 20 “noticias” falsas más virales, en tres periodos de tres meses previos a los comicios. La inevitable sensación de que la posverdad pudo tener algo que ver con el resultado electoral se agrava al leer que la mayoría de las noticias “serias” eran favorables a Clinton o críticas con Trump, mientras que 17 de las 20 noticias falsas más populares afectaban negativamente a Clinton. No obstante, al aturdimiento inicial en la prensa de EE. UU. ha seguido un movimiento corrector en forma de aluvión de suscripciones digitales a muchos medios. El New York Times tuvo en la semana posterior a la elección de Trump su mayor incremento semanal en nuevos suscriptores desde que lanzó su muro de pago en 2011. El portal de periodismo de datos ProPublica, por su parte, vio multiplicarse por diez su ratio de suscripciones, según datos recopilados por el Nieman Lab y el Poynter Institute. En la era de la posverdad, el periodismo es más necesario que nunca. Y hasta Mark Zuckerberg parece haberlo comprendido.
En la era de la posverdad, el periodismo es más necesario que nunca.
Además de un apasionado y saludable debate sobre las implicaciones democráticas de vivir en una era de verdades subjetivas, el segundo impacto positivo de la crisis de la verdad post-Trump ha sido, creo, el incremento de la presión sobre Facebook para abordar una obviedad que siempre han preferido negar: su responsabilidad –llamémosla editorial, empresarial, democrática o social– como una de las grandes plataformas de consumo de información, junto con buscadores, otras redes sociales como Twitter o Snapchat y las ediciones impresa, web, mobile o social de los medios de comunicación. Los días posteriores a las quincuagésimo octavas elecciones presidenciales en los Estados Unidos cambiaron algunas cosas importantes en el número 1 de Hacker Way en Menlo Park, la dirección de Silicon Valley en la que Facebook tiene su espectacular sede principal. Algunos creen que para siempre.
La reacción inicial de Mark Zuckerberg ante la tormenta de acusaciones fue negar la mayor. “No creo que tuvieran ningún impacto” en el resultado de las elecciones, dijo el fundador de Facebook el 10 de noviembre, dos días después de los comicios, en una conversación pública con David Kirkpatrick, autor de The Facebook Effect. Afirmar lo contrario “es una idea bastante loca”, llegó a decir. Pero, de puertas adentro, sus subordinados hablaban en los chats y en los pasillos de términos como información, periodismo, responsabilidad y verdad. Asuntos que, hasta la fecha, no habían sido tan centrales en la vida interna de Facebook. Y la incomodidad ante las acusaciones de haber aupado a Trump al Despacho Oval de muchos en su gigantesca organización comenzó a tener consecuencias desconocidas hasta la fecha. Por ejemplo, que empleados de Facebook hagan declaraciones anónimas a la prensa.
Una información del pasado noviembre en el New York Times citaba a tres fuentes anónimas de dentro para contar que los más altos ejecutivos de Facebook habían concluido que debían hacer frente a las preocupaciones de muchos empleados con respecto a la propagación de noticias falsas en la plataforma. El rotativo neoyorquino describe la existencia de varias conversaciones de alto nivel por chat sobre la polémica y de una reunión al menos a ese respecto con el equipo de relaciones institucionales (public policy).
Asimismo, BuzzFeed firmaba en San Francisco una información el pasado 15 de noviembre que cita de forma anónima a cinco empleados de Facebook, quienes aseguran que sus superiores les intentaron disuadir de la idea de hablar con periodistas. Según BuzzFeed, “empleados de Facebook han formado un grupo de trabajo (task force) no oficial para cuestionar el papel que la compañía jugó en promover noticias falsas en los meses previos a la victoria de Donald Trump”. Sugerir que Facebook tuvo algo que ver “no es una idea loca”, afirma una de las fuentes citadas, desafiando el criterio de su consejero delegado. “Varias docenas” de empleados, según la información de BuzzFeed, habrían mantenido al menos dos reuniones, por ahora “secretas”, y tendrían la intención de elevar una serie de recomendaciones a la dirección. Dos de estas fuentes afirman haber planteado a sus superiores en el pasado, sin mucho éxito, la gravedad del problema de las noticias falsas. [NOTA: no me consta que Facebook haya ni desmentido ni confirmado las dos noticias citadas, ni me he dirigido yo mismo a Facebook para verificarlas a los efectos de esta pieza, que considero un análisis y no una noticia].
Las acusaciones de haber facilitado la victoria de Trump culminan un año complicado para la red social. En mayo, varios exempleados denunciaron que la sección de “Trending Topics” de la plataforma estaba sesgada en la recomendación de contenidos a favor de medios y portales progresistas. Hace unas semanas, el portal especializado Gizmodo aseguraba que Facebook habría decidido evitar medidas drásticas contra las noticias falsas por miedo a tener un impacto políticamente no neutral, porque eliminarlas habría afectado sobre todo al tráfico de portales de tendencia ultraconservadora.
En este contexto, Zuckerberg se enmendaba a sí mismo solo 48 horas después de sus primeras declaraciones con un post personal en Facebook en el que reconocía la existencia de un problema, cuyo alcance relativizaba. “De todo el contenido en Facebook, más del 99% de lo que la gente ve es auténtico. Solo una parte muy pequeña son noticias falsas y bulos. Los bulos que existen no se limitan a un único punto de vista partidista, ni siquiera a la política…” [traducción propia del original en inglés]. Dicho esto, continuaba Zuckerberg, “no queremos bulos en Facebook”, dijo, reflejando –quizás– las inquietudes de muchos de sus empleados.
En este post del 12 de noviembre, el empresario de 32 años advertía además de algo con lo que no puedo estar más de acuerdo. “Debemos proceder con mucho cuidado” en la resolución del problema de las noticias falsas, dice. Y añade: “Identificar la verdad es complicado. Mientras algunos bulos pueden ser desmontados por completo, hay más contenido, incluido el proveniente de fuentes generalistas, que a menudo transmite bien la idea básica pero mal algunos detalles u omisiones. Un volumen aún mayor de historias expresan opiniones con las que muchos estarán en desacuerdo y etiquetarán como incorrectas, incluso cuando sean veraces”.
Identificar y señalar la verdad exige prudencia y reflexión
Sí, identificar la verdad es una tarea complicada. Los periodistas intentamos revelarla, narrarla, contextualizarla y analizarla cada día. Cuesta tiempo y dinero. Exige determinación cívica y solidez empresarial. Y las más de las veces requiere, sí, años de oficio. Ahora, esta creciente conversación global sobre maneras algorítmicas y humanas de identificar y señalar la verdad –la información, los hechos veraces y relevantes para los lectores– y diferenciarla de la mentira exige prudencia y reflexión. No vaya a ser que salga la verdad aún más maltrecha del ejercicio. “Sí, la verdad es complicada, y Facebook debe proceder con cuidado”, retoma Will Oremus, especialista en Tecnología de Slate. “Pero hay una sensación creciente, dentro y fuera de la compañía, de que quizás [Facebook] está actuando con demasiado cuidado, dado su creciente papel dominante en la distribución de las noticias online”, escribía recientemente.
El 14 de noviembre trascendía que Google primero y Facebook a continuación habían decidido expulsar a las llamadas granjas de noticias falsas y bulos de sus respectivas redes publicitarias para, al menos, dificultar el negocio de la mentira. Pero la polémica crecía, y cada vez más voces exigían cambios y un compromiso real por parte de los gigantes californianos. Así, el 18 de noviembre, Zuckerberg volvió al tema con un nuevo post personal en el que, esta vez sí, asumía la responsabilidad de Facebook y anunciaba una serie de medidas: “Nos tomamos la desinformación muy en serio. Nuestro objetivo es conectar a la gente con las historias que encuentran más relevantes, y sabemos que la gente quiere información veraz. Llevamos trabajando mucho tiempo en este problema y nos tomamos esta responsabilidad muy en serio. Hemos hecho progresos significativos, pero queda más trabajo por hacer”. En apenas una semana desde su conversación con Kirkpatrik, el CEO de Facebook pasó de la negación del problema a la asunción de una cierta responsabilidad ante los peligros de la cuasilibre circulación de la desinformación en las redes sociales.
No sabemos cuál es el lugar final de Facebook en el ecosistema de la información, pero se trata, sin duda, de un cambio sintomático y significativo en una compañía que insistentemente ha predicado eso de no somos una empresa de medios, sino una plataforma tecnológica abierta para la conectividad de los usuarios. “Nuestro negocio no es la información”, aseguran a menudo sus portavoces. “Nuestro negocio no es elegir qué cosas debe leer cada uno”, suelen decir. Su impacto, sin embargo, en el negocio de la información es ya ineludible.
Zuckerberg advierte –de nuevo, con buen tino– de la complejidad de la cuestión, tanto para el modelo de negocio de Facebook como para eso que llamamos la verdad periodística. “Debemos tener cuidado de no desincentivar la compartición de opiniones o de restringir por error contenido riguroso. No queremos ser árbitros de la verdad, queremos apoyarnos, en cambio, en nuestra comunidad y en nuestros socios de confianza”, explicaba Zuckerberg. Árbitros de la verdad. ¿De verdad tenemos que recurrir a Facebook y a Google para que nos arreglen (también) este problema gravísimo de las posmodernas democracias de la opinión en que vivimos?
Es la aprehensión que reflejan las advertencias de Zuckerberg. La solución no puede residir en introducir cambios en los algoritmos. “Es fácil ver cómo una solución a las noticias falsas basada solo en algoritmos podría resultar en el bloqueo de cosas que no sean falsas, o que sean engañosas por razones de partidismo, pero no por falta de veracidad”, explica a Bloomberg Alexios Mantzarlis, responsable del Fact-Checking Network, del Poynter.
En su obra La opinión pública (1922), el periodista y pensador Walter Lippmann pintaba una visión casi científica de la “fabricación” de la verdad por una clase funcionarial de expertos y recolectores de información, que la distribuirían de forma desapasionada a una ciudadanía democráticamente ingobernable. Un arbitraje casi “perfecto” de la verdad, indeseable por incompatible con cualquier visión pluralista de las sociedades complejas como las nuestras. El problema es que esa complejidad, relativa en un mundo de antaño en que unos pocos altavoces mediáticos determinaban la conversación pública, parece tender ahora a infinito en esta era digital: fragmentación de las audiencias en infinitos nichos y long-tails [largas colas, en español] en el lado de los receptores de información y, en el lado de los generadores de información, multiplicación de los medios e intermediarios de la comunicación. Nadie nos dijo que la verdad saldría siempre victoriosa, así que tendremos que pelear por ella.
Zuckerberg, en su post del 18 de noviembre, recopilaba algunas medidas para combatir la difusión de noticias falsas: mejorar su detección por medios técnicos, facilitar la denuncia por parte de los usuarios, introducir la verificación por terceros (Zuckerberg dice querer aprender de las organizaciones que se dedican al fact-checking), explorar el etiquetado de historias denunciadas como falsas con mensajes de alerta (muchos exigen a Facebook que directamente las elimine de la plataforma, claro) e, incluso, “escuchar” y seguir trabajando con “periodistas y otros en la industria de medios para recibir su input y, en particular, comprender mejor sus sistemas de verificación de la información para aprender de ellos”. Quienes conocen la “insularidad” de la cultura corporativa de estas startups [empresas emergentes] convertidas en gigantes y la lejanía que sienten los homo tecnologicus de Silicon Valley con respecto del periodismo tradicional pueden calibrar mejor la significación del gesto. Parecería que Zuckerberg ha escuchado las voces que, dentro de Facebook, analizan e incluso reivindican los estándares del periodismo para hacer frente a la posverdad.
El acercamiento entre Facebook y la prensa ha comenzado, y creo que es positivo. Llevará su tiempo, como el que llevó a Google y a los editores de medios encauzar sus relaciones estratégicas como frennemies (amigos y enemigos a la vez). Pero de este creciente diálogo van surgiendo iniciativas y propuestas que merece la pena considerar: esta sería la tercera de las consecuencias positivas del shock a la verdad post-Trump que nos sacude. Lo resumía bien François Filloux, exdirector de Les Echos y editor de la newsletter de medios The Monday Note, en un boletín de septiembre. “Facebook se ha convertido en uno de los editores más poderosos del planeta. Y las maneras de la compañía la convierten en un editor peligrosamente incompetente que puede comprometer la diversidad de la información en cuanto a fuentes, géneros, estilos y temas. Si no hacemos nada, la combinación de estos dos factores solo puede tener un impacto negativo en la calidad de la información de un medio que usan 1.700 millones de personas”.
Muchos parecen estar dispuestos ahora a hacer algo. Algunos han comenzado por resaltar una de las vías posibles de contención de la posverdad en redes sociales: la contratación de periodistas y editores por Facebook. “Facebook necesita un editor ejecutivo”, decía el pasado 20 de noviembre Margaret Sullivan, la columnista de medios del Washington Post y antigua “ombudsman [defensora] del lector” del New York Times. “Alguien que pueda distinguir entre una fotografía premio Pulitzer y pornografía infantil”, exigía, en referencia al polémico “baneo” de la célebre imagen de la niña desnuda huyendo del napalm, tomada por el fotógrafo Nick Ut en 1967. Sin embargo, como le replicaba un día después el analista de medios Mathew Ingram desde Fortune, esta no parece ser la solución cuando parte del origen del problema es que millones de estadounidenses han perdido la confianza en los medios tradicionales, con sus editores y sus mecanismos de verificación. Miénteme fuerte que me gusta, parecen decir.
“Facebook no necesita un editor, sino miles, incluso decenas de miles”, dice Ingram. Se refiere –y no es el único– a llevar la lógica de Wikipedia a Facebook. Entregar a usuarios comprometidos con la calidad y credibilidad de internet la tarea de verificar la veracidad de los contenidos, y generar un flujo de edición colectiva (wiki) transparente para el usuario. “En Facebook hay un servidor único de la información, a menudo desprovisto de contexto, no se sabe de dónde viene [el contenido], quién lo escribió o por qué te lo están mostrando”, afirmaba en un artículo reciente en el Financial Times Katherine Maher, directora ejecutiva de la Wikipedia Foundation. No parece que vayamos a resolver el problema solo con algoritmos, por lo que reservar un papel a los humanos parece razonable. Pero no a uno solo.
Surgirán soluciones técnicas que desaceleren el fenómeno de la posverdad
El propio Zuckerberg mencionaba la conveniencia de recurrir a terceros para introducir la lógica de la verificación en Facebook. Y algunos sugieren Twitter. Según datos recogidos por el FT, si más de un millón de personas compartieron en Facebook el bulo del apoyo papal a Trump, solo seis de los 150.000 usuarios más influyentes de Twitter lo hicieron, indicando que esta red es más eficaz en la detección y contención de las noticias falsas. Google ha financiado un hackathon [encuentro entre programadores] en Princeton para encontrar soluciones técnicas al problema de las noticias falsas. Eli Pariser, el “padre” de la teoría de la “burbuja de filtros”, está recopilando también ideas en torno a un documento de 58 páginas, iniciado también por Google. A Silicon Valley le preocupa la verdad, y nadie duda de que surgirán soluciones técnicas que desaceleren el fenómeno. Pero la velocidad con la que circulan las noticias falsas no es todo el problema.
El profesor Jeff Jarvis promueve, junto con el inversor John Borthwick (Betaworks), una interesante llamada a la colaboración en torno a 15 ideas que buscan “construir mejores experiencias online y una discusión más cívica e informada en la sociedad”. Rechazan también la idea de convertir a las plataformas en árbitros de la verdad, y sus propuestas se centran en armar al usuario con más información para que tome mejores decisiones y en pedir a Facebook, Google y Twitter que trabajen con los editores para reforzar las señales de calidad y autoridad en las redes sociales. Citan, entre otras iniciativas interesantes, al Trust Project (sobre la inserción de señales de calidad en la producción periodística digital) y al Coral Project (sobre nuevas funcionalidades para mejorar la calidad de la participación del usuario en la generación de contenidos).
“Sin fuerzas robustas que lo contrarresten a favor de la credibilidad y la veracidad, el algoritmo de noticias de Facebook seguirá difundiendo mentiras, especialmente aquellas que sirven para reforzar los sesgos preconcebidos de la gente”, cree Oremus, de Slate. Es lo que quiere mucha gente. Por eso, esas fuerzas “robustas” deben incluir al propio Facebook, y pasan por la caída del caballo de su todopoderoso consejero delegado. ¿Lo hará? “Una vez que el presidente de EE. UU., el de la Comisión Europea y la canciller alemana te critican, mientras China sigue sin dejarte entrar, quizás [Facebook] empiece a escuchar”, me decía hace unas semanas por Twitter Wolfgang Blau, director digital de Condé Nast Internacional y exdirector de Estrategia Digital del Guardian.
Pero muchos otros se mantienen escépticos. Filloux, en su newsletter del pasado 5 de diciembre, defiende que el modelo de negocio de Facebook –basado en la generación de páginas vistas para incrementar el volumen de sus ingresos publicitarios– es “incompatible” con el modelo y la naturaleza de los medios de información. No es el único que resalta que Facebook no tiene los incentivos suficientes para constreñir su –exitoso– modelo de negocio. La conversión de Zuckerberg, de producirse –por seguir con la hipótesis, ya veremos si se verifica–, nos llevaría en todo caso a un equilibrio de fuerzas diferente entre usuarios, plataformas y medios de información.
“El problema de las noticias falsas en Facebook podría terminar siendo una preocupación pasajera comparado con la línea divisoria que estos temblores han desvelado”, prosigue Oremus. “Pone de manifiesto una compañía crecientemente dividida entre su visión de sí misma como una plataforma tecnológica neutral y su innegable influencia en la creación, distribución y consumo de noticias”, afirma. El debate está abierto, y las mejores mentes éticas y tecnológicas de internet –incluidos los medios de comunicación– se han remangado. Y sin duda, merece la pena que también en España nos involucremos en la conversación global. Pero el dilema, desafortunadamente, no es si debe ser Facebook o un tercero quien arbitre la verdad en Facebook. O si deben hacerlo las máquinas o los humanos. La difusión polvorienta (de polvo y de pólvora) de los bulos en las redes sociales es un efecto indeseado de algo que forma parte del código fuente de la era digital: el arbitraje emocional de los contenidos en función de los sentimientos de un usuario soberano, tan libre por tanto de elegir la verdad como la mentira.
Fuente: http://www.cuadernosdeperiodistas.com/mundo-facebook-implicaciones-del-arbitraje-emocional-la-verdad-la-las-plataformas/