25 Junio 2019.
Foto: Ina Fassbender / AFP.
El término ‘noticias falsas’ se ha convertido en un epíteto que el presidente estadounidense, Donald Trump, aplica a toda información que le resulte desfavorable. Pero también es un término analítico que describe la presentación deliberada de desinformación como si fuera una noticia periodística convencional.
Tomado de: El Tiempo.
El problema no es del todo nuevo. Ya en 1925, ‘Harper’s Magazine’ publicó un artículo sobre los peligros de las noticias falsas. Pero hoy, unos dos tercios de los adultos estadounidenses reciben noticias a través de las redes sociales, en parte, y estas se basan en un modelo de negocios que se presta a la manipulación externa y en el que es muy fácil engañar los algoritmos para obtener ganancias o servir a fines malignos.
En el mundo hay muchas organizaciones (estatales, delictivas o de aficionados) con capacidad para descifrar (mediante ‘ingeniería inversa’) los algoritmos que las plataformas tecnológicas aplican a la información. La hazaña del gobierno ruso fue haber sido uno de los primeros que comprendió el modo de instrumentalizar las redes sociales para atacar a Estados Unidos usando empresas estadounidenses como armas.
Saturadas por el inmenso volumen de información disponible en internet, a las personas les cuesta decidir dónde mirar. La atención, más que la información, es el recurso escaso que hay que obtener. Pero el análisis de macrodatos y la inteligencia artificial permiten una comunicación ultrapersonalizada, y esta encierra a las personas en una ‘burbuja de filtros’ en la que solo ven información con la que están de acuerdo.
Los servicios ‘gratuitos’ ofrecidos por las redes sociales se basan en un modelo de negocios en el que los verdaderos productos (que se venden a los publicistas) son la información de los usuarios y su atención. Los algoritmos se diseñan de modo que aprendan lo que mantiene el interés de los usuarios, para que se les puedan mostrar más anuncios y generar más ingresos.
Emociones como la indignación estimulan el interés, y está comprobado que noticias indignantes pero falsas atraen más lectores que las reales. En un estudio se halló que en Twitter esas falsedades tenían 70 por ciento más de probabilidades de ser retuiteadas que las noticias verdaderas.
En otro estudio sobre las manifestaciones que hubo este año en Alemania se encontró que el algoritmo de YouTube dirigía sistemáticamente a los usuarios hacia contenidos extremistas, porque allí es donde hay más clics y, por tanto, ingresos.
Muchas veces, la labor de verificación de datos (‘fact-checking’) de los medios informativos convencionales no puede seguir el ritmo, e incluso puede ser contraproducente al dar más visibilidad a la noticia falsa.
Por su misma naturaleza, el modelo de negocios de las redes sociales puede ser usado como un arma, por actores estatales y no estatales. Hace unas semanas, Facebook recibió una andanada de críticas por su descuidado historial de protección de la privacidad de los usuarios. Según admitió su director ejecutivo, Mark Zuckerberg: “En 2016 no estábamos preparados para las operaciones de (des)información coordinadas que ahora enfrentamos a diario (pero después) aprendimos mucho y desarrollamos sistemas sofisticados que combinan las personas con la tecnología para prevenir interferencias electorales basadas en nuestros servicios”.
Algunos ejemplos son: búsqueda y eliminación automatizada de cuentas falsas; menor visibilidad para páginas de Facebook que difundan desinformación, publicación de un informe de transparencia sobre la cantidad de cuentas falsas eliminadas, verificación de la nacionalidad de quienes publiquen anuncios políticos, contratación de 10 mil personas adicionales para funciones de seguridad y mejora de la coordinación con las autoridades y otras empresas para responder a actividades sospechosas. Pero el problema no está resuelto.
Entre las empresas de redes sociales y los actores estatales y no estatales que invierten en modos de explotar sus sistemas seguirá habiendo una suerte de carrera armamentista. Soluciones tecnológicas como la inteligencia artificial no son la panacea. Por ser a menudo más sensacionales y escandalosas, las noticias falsas viajan más lejos y más rápido que las reales. La información falsa recibe muchos más retuits en Twitter y en mucho menos tiempo que la información verdadera, y el mero hecho de repetir una noticia falsa, incluso en un contexto de verificación de datos, puede aumentar la propensión de las personas a tomarla por verdadera.
Antes de la elección presidencial de 2016 en Estados Unidos, la Agenstvo Internet-issledovanij (Agencia de investigaciones en Internet/Internet Research Agency), con sede en San Petersburgo (Rusia), dedicó más de un año a crear en las redes sociales decenas de cuentas que se hacían pasar por medios periodísticos locales estadounidenses. A veces presentaban noticias favorables a un candidato, pero en otras ocasiones solo buscaban generar una impresión de caos y malestar con la democracia y desalentar el voto.
Cuando el Congreso estadounidense aprobó la Ley de Decencia en las Comunicaciones en 1996, a las recién nacidas empresas de redes sociales se las trató como proveedores de telecomunicaciones, medios neutrales que solo daban a sus clientes la posibilidad de interactuar. Pero es evidente que este modelo quedó desactualizado. Bajo presión política, las principales empresas comenzaron a vigilar sus redes con más cuidado y eliminar falsedades obvias como las propagadas por ‘botnets’ (red de bots).
Pero la limitación de la libertad de expresión, protegida por la Primera Enmienda de la Constitución de Estados Unidos, plantea difíciles problemas prácticos. Las máquinas y los actores no estadounidenses no tienen derechos conforme a esa enmienda (y, de todos modos, las empresas privadas no están supeditadas a ella), pero sí los tienen las personas y organizaciones estadounidenses por más aberrantes que sean, y estas pueden servir como intermediarios de influenciadores extranjeros.
En cualquier caso, el daño hecho por actores extranjeros puede ser menor que el que nos hagamos nosotros mismos. El problema de las noticias falsas y de los impostores extranjeros que se presentan como fuentes de noticias reales es difícil de resolver por implicar tensiones entre valores que son importantes para nosotros. Las empresas de redes sociales, temerosas de que las acusen de censura, no quieren que las regulen los legisladores, y estos las critican por sus pecados de acto y de omisión.
La experiencia de las elecciones europeas hace pensar que el periodismo de investigación y la preparación de la opinión pública pueden ayudar a inmunizar a los votantes contra campañas de desinformación. Pero es probable que el combate a las noticias falsas siga siendo un juego del gato y del ratón, entre los que las publican y las empresas cuyas plataformas explotan. Se convertirá en una parte del ruido de fondo electoral en todas partes. El precio de proteger la democracia será una vigilancia constante.
JOSEPH S. NYE*
© Project Syndicate
Cambridge
* Joseph S. Nye Jr. es profesor en Harvard.
Sin necesidad de humanos
A mediados de febrero, OpenAI, un grupo de investigación sobre inteligencia artificial cofundado por el multimillonario Elon Musk, reveló un ‘software’ que puede producir noticias falsas de apariencia autentica luego de recibir solo una pequeña cantidad de información. En un ejemplo para probar su ‘efectividad’, el sistema escribió un texto de muestra: “Un vagón de tren con materiales nucleares controlados fue robado hoy en Cincinnati. Se desconoce su paradero”. A partir de esto, el ‘software’ pudo generar una noticia convincente de siete párrafos que hasta incluyó citas de funcionarios de gobierno, aunque el único detalle es que era completamente falsa.
“Los textos que son capaces de generar a partir de las indicaciones son muy impresionantes”, comentó Sam Bowman, científico informático de la Universidad de Nueva York que se especializa en el procesamiento del lenguaje natural.
Los europeos lo ven claro
La mayoría de los ciudadanos europeos, el 76 por ciento, cree que la proliferación de noticias falsas son un problema para la democracia, según el último sondeo Eurobarómetro. Y, más aún: el 71 por ciento cree que son un problema para su país. Según la encuesta, el 68 por ciento afirma que encuentran este tipo de informaciones ‘muy a menudo’. Además, los encuestados perciben a los medios tradicionales como la fuente de noticias más confiable: radio (70%), televisión (66%) y medios impresos (63%). Además, creen que los periodistas (45%), las autoridades nacionales (39%) son los principales responsables de detener la difusión de noticias falsas.
“Es capaz de hacer cosas que son mucho más sofisticadas que lo que hemos visto antes”, agregó impresionado.
WhatsApp, en la mira
La compañía de mensajería instantánea WhatsApp limitó recientemente la cantidad de veces que se puede compartir un mensaje de veinte a solo cinco, con el objetivo de evitar la propagación masiva de noticias falsas. La medida fue puesta en marcha luego de una prueba de seis meses en India, país en donde las noticias falsas han provocado ya más de una docena de linchamientos.
WhatsApp cuenta con cerca de 1.500 millones de usuarios en todo el mundo y es la aplicación de mensajería más usada en América Latina.
Su gran problema radica en que la gente suele confiar más en la información que proviene de conocidos, por lo que esta red es una propagadora de noticias falsas muy potente.
Tratando de paliar esto, en julio de 2018, la aplicación comenzó a avisarles a sus usuarios cuando los mensajes que recibían habían sido reenviados desde otro chat, poniendo la palabra “reenviado” junto a este. Pero es claro que aún falta mucho trabajo por hacer.