Desde 2016, la conversación periodística en Internet se ha centrado en las consecuencias de dejar en manos de un puñado de empresas la responsabilidad de almacenar y distribuir la información del mundo, pues —hemos comprobado— la evolución de los algoritmos antepondrá los intereses económicos de estas empresas a cualquier consideración ética o de corresponsabilidad.
Internet es mucho más que el epicentro de fenómenos como la desinformación, la polarización y los nichos de radicalización de quienes reaccionan al riesgo de caer en la marginalidad con una enmienda a la totalidad (el extremismo está bien nutrido y representado en redes sociales y foros).
Para quienes están más preparados para afrontar los riesgos potenciales, la Red es también una oportunidad para informarse mejor y profundizar en una mirada al mundo más rica y con más perspectivas.
En sus memorias, la escritora y filósofa francesa Simone de Beauvoir explica su relación tirante con el mundo académico francés, al que reconoce al menos haberla obligado a desarrollar una estrategia de documentación que la acompañaría toda la vida.
Documentarse con garantías antes de Internet
En el mundo de la investigación académica, ensayística y periodística previa a Internet, la labor de documentación de cualquier proyecto con cierta envergadura pasaba por la colaboración (a menudo a través de relaciones epistolares) entre estudiantes y profesores universitarios de distintos centros, así como la disciplina necesaria para navegar el laberinto administrativo de las bibliotecas especializadas.
En el caso de Beauvoir y Sartre, la combinación de relaciones en el mundo académico y la experiencia en bibliotecas se completaba con la compra y el préstamo de amigos de infinidad de publicaciones y libros en varios idiomas y de diversas disciplinas y procedencias.
Cuando, junto a varios amigos del círculo parisino, la pareja funda la revista Tiempos Modernos en 1945, se abre para ellos otra fuente de acceso al pensamiento y las inquietudes de un nutrido grupo de intelectuales aspirantes y consolidados (desde los sospechosos habituales a «periodistas de necesidad» como el joven Mario Vargas Llosa de la etapa de París).
Simone de Beauvoir explicaba su técnica de documentación como una estrategia prácticamente intuitiva para navegar con rapidez por abundante documentación y detectar con precisión clínica aquellas obras o pasajes a medio leer de cierta utilidad según el contexto. Para leer por encima, hay que saber hacerlo.
Eso sí, la autora de El Segundo Sexo reconoce que la manera de mejorar tareas de documentación exigentes sin acabar saturados —o sin necesidad de dedicar un tiempo que debe invertirse más bien en el pensamiento propio— pasa por la práctica.
Consejos vigentes de Umberto Eco para vagos escritores de tesis
Los estudiantes de doctorado que deben escribir una tesis —recordará Umberto Eco de manera hilarante en 1977 en Cómo se hace una tesis (obra que también incluye un apartado sobre documentación académica antes de Internet)—, se han enfrentado de un modo u otro al arte de hallar los fragmentos más pertinentes en las obras adecuadas siguiendo, si es posible, la ley del menor esfuerzo posible. A veces, dicen algunos, funciona.
La traducción de la mencionada obra del escritor y profesor de semiótica italiano, emplea el verbo «hacer» en detrimento de «escribir» en cuanto se trata de elaborar una tesis. ¿Qué tipo de artilugio es una investigación de no ficción transmitida en prosa? El verbo «hacer» implicaría que, más que elaborar un nuevo pensamiento a partir de citas contrastadas, el autor procede a algo más parecido al refrito de cocina de la más dudosa calidad.
A proposed extradition law triggers unrest in Hong Kong https://t.co/uABbKT4UjJ
— The Economist (@TheEconomist) June 13, 2019
Internet es el paraíso de los refritos o, dicho por algunos de sus teóricos, un reducto de información «que quiere ser libre» (Stewart Brand) o que se presta a ser distribuida de manera ubicua, troceada, remezclada, tergiversada, en ocasiones desprovista de su significado original (Kevin Kelly).
Este flujo imparable de información regida por las normas de lo fortuito y lo más preparado para «sobrevivir» (según las normas evolucionistas de la memética), muestra un panorama poco halagüeño para transmitir unidades de conocimiento con voluntad de atenerse a normas de verificalidad científica y a códigos deontológicos y de buenas prácticas como los relacionados con el periodismo.
Marea alta de tendenciosidad
Más allá de la crisis actual de reproducibilidad del resultado de estudios validados como «científicos», especialmente flagrante en el mundo académico de las humanidades, la información recibe en la Red el tratamiento de mera «mercancía» de intercambio.
Las teorías del conocimiento surgidas de la Ilustración y previas a Internet, estimularon la emergencia de conceptos ideales como el de «objetividad», así como protocolos de buenas prácticas para evitar fenómenos como el sesgo, la tendenciosidad y el sensacionalismo en las noticias.
Hoy, lo noticiable y lo puramente falso y sensacionalista se presentan sin la separación necesaria en los perfiles de redes sociales de la población, y tanto las referencias a trabajos legítimos y en profundidad como bulos que ni siquiera pasarían la criba de los tabloides sensacionalistas británicos, comparten espacio en busca de atención.
La abundancia de información en la Red empequeñece la angustia de investigadores del pasado, y las nuevas herramientas facilitan la búsqueda y la criba de información potencialmente relevante acerca de cualquier temática, lo que ha acelerado el envejecimiento de las técnicas de documentación explicadas por Simone de Beauvoir y Umberto Eco, buenos exponentes de un saber hacer que hoy es mucho menos irrelevante.
El periodismo también puede usar la agregación de datos
De momento, la criba precisa de «datos» en la Red ha servido para afinar la efectividad de los algoritmos usados para que tanto la información servida como la publicidad contextual asociada sean cada vez más efectivas, aunque esta carrera de los principales repositorios privados de información para maximizar la utilidad que capturan esté causando daños colaterales… empezando por la propia epistemología de la información.
El carácter tendencioso o flagrantemente falso de una información no repercute sobre la utilidad percibida de esta información por los repositorios que se encargan de distribuirla, y esta ausencia de alicientes ha impulsado el fenómeno sensacionalista que hoy conocemos como «posverdad».
La desinformación campa a sus anchas, pero el proceso es reversible. Hasta ahora, la agregación efectiva de datos («big data») ha sido usada para captar la atención de los usuarios y obtener mayores beneficios a partir de este interés.
The New York Times course to teach its reporters data skills is now open-source https://t.co/mYtnaUKSuz
— Hacker News (@newsycombinator) June 12, 2019
Los grandes avances, como la consolidación del grafo social y el uso de datos agregados para crear sofisticados perfiles psicográficos, han sido impulsados desde empresas privadas que tratan de desentenderse de las consecuencias del uso partidista o fraudulento de herramientas que pueden influir no sólo sobre la compra de productos o la toma de decisiones inocuas, sino que están detrás de resultados electorales y fenómenos como el de los chalecos amarillos en Francia.
Regulaciones diseñadas para proteger la privacidad e impedir abusos, como la normativa europea GDPR, dificultarían los mayores abusos, si bien no impedirían la tendencia hacia un ecosistema de transmisión de datos en manos de distribuidores que no producen la información y se desentienden de las consecuencias de su contenido editorial, al priorizar la popularidad sobre cualquier otra consideración.
OSINT: ¿qué es la «inteligencia de código abierto»?
La criba de información de acceso legal en la Red no es únicamente un arma perniciosa controlada por firmas como Palantir, Cambridge Analytica, los repositorios privados de Silicon Valley o departamentos gubernamentales más o menos oscuros (desde la NSA en Estados Unidos a los sistemas de control electrónico de corte totalitario que se nutren de la tecnología de vigilancia desarrollada en China —expone un reportaje en el New York Times): la agregación de datos es también periodismo.
Empresas como Reuters han tratado de llenar el vacío entre el papel de las agencias de información tradicionales y la agregación de datos a gran escala. Sin embargo, el «big data» es también una herramienta que cualquier periodista o medio de comunicación puede usar a pequeña escala y de manera legal.
El nuevo periodismo de investigación se sirve de información recopilada de fuentes de acceso público para crear información de análisis a partir de procesos análogos a la investigación académica y científica. Esta práctica, conocida como OSINT («inteligencia de código abierto») usa las posibilidades de la Red para crear información de análisis, con caducidad lenta, de carácter contrastable y fácilmente actualizable.
Además del viejo modelo del acceso a expertos, fuentes y puntos de vista, el periodismo se acerca a la agregación de datos con inferioridad de recursos, pero con acceso a un marco que evolucionará rápidamente, basado en la «inteligencia colectiva»: recursos digitalizados y accesibles sobre seguridad nacional, derecho penal, civil y mercantil, así como datos que pueden obtenerse a través de intermediarios y administraciones.
Guía de recursos para el periodismo de investigación
Tecnologías distribuidas que fomentan la colaboración en un contexto seguro y a prueba de modificaciones fraudulentas, como las comunidades blockchain, podrían reforzar la inteligencia de código abierto en el periodismo.
La cadena de bloques registra transacciones de datos entre participantes que se añaden a un histórico compartido por todos y que no puede modificarse de manera retroactiva, por lo que la nueva técnica administrativa automatizada podría converger a la larga con la transmisión de datos públicos y privados de manera segura y sin riesgo de filtraciones o robo de información.
Las herramientas de agregación de datos para el análisis periodístico están disponibles en la Red, y el principal impedimento para usarlas de modo ventajoso evoca las reflexiones de Simone de Beauvoir sobre cómo aprender a encontrar datos relevantes para un tema concreto en una pila de información, sin necesidad de revisar toda la documentación ni dedicar un tiempo inexistente.
(a really good guide to told for finding stuff on the Net and related ethics /cc @kylepope @kellymcb)
A Guide to Open Source Intelligence (OSINT) https://t.co/r0z8Vy5b2H via @cjr
— craig newmark (@craignewmark) June 9, 2019
Columbia Journalism Review, la revista de la Universidad de Columbia, el centro de formación más prestigioso en el oficio periodístico, recopila en una guía el contexto de la inteligencia de código abierto en el periodismo de investigación estadounidense.
La guía es más bien un manual de orientación de carácter básico, si bien adelanta tendencias que impulsarán las herramientas electrónicas en organizaciones periodísticas para contrarrestar la labor análoga que firmas como Palantir o Cambridge Analytica realizan para cualquier cliente, desde administraciones a empresas u organizaciones de dudosa procedencia e intenciones.
Jugar en la mesa de los mayores
CJR nos recuerda que los mejores recursos de la Red están ante nosotros, esperando a que un humano con sentido crítico y una capacidad de criba propia de la joven Beauvoir (o del estudiante gandul ideal que debe escribir una tesis descrito por Umberto Eco), echen un vistazo.
En la «Internet abierta», los principales motores de búsqueda, tanto generalistas (empezando, claro, por Google) como los especializados, permiten el uso de operadores avanzados.
También es posible estudiar la procedencia de cualquier recurso publicado en la Red, así como comprobar quién está detrás de oscuras bitácoras y foros: el conocimiento básico de comandos de análisis de sistemas acelera cualquier investigación sobre este respecto, si bien la mayor parte de procesos que podemos realizar en una interfaz de línea de comandos están también disponibles en servicios con interfaz gráfica de usuario convencional y accesibles desde un navegador web.
Facebook y Twitter cuentan también con sus herramientas de búsqueda avanzada, y no hace falta en incurrir en las ilegalidades flagrantes expuestas en escándalos como el de Cambridge Analytica para realizar un análisis serio sobre la proximidad del epicentro y la expansión de un bulo informativo.
Doctored video of sinister Mark Zuckerberg puts Facebook to the test https://t.co/PDefcbOnZH
— Guardian Tech (@guardiantech) June 12, 2019
La guía OSINT de la revista de la Universidad de Columbia incluye también una explicación detallada del protocolo más adecuado para verificar la autenticidad de cuentas en redes sociales, lo que permite conocer si la viralidad de una información está siendo estimulada de manera artificial (a través de cuentas falsas dirigidas de manera centralizada, o bots).
Recuperar la iniciativa: hacen falta más que algoritmos
Verificar la autenticidad de imágenes y vídeos que encontramos en la Red se hace cada vez más complicado: las técnicas de simulación avanzan con mayor rapidez que cualquier antídoto, y hemos observado cómo es posible convertir a Nancy Pelosi en una política ebria, o ver al propio Mark Zuckerberg jactándose de que la tendenciosidad campa a sus anchas en Facebook. Ambos vídeos son falsos, como lo son las imágenes de Trump asistiendo a víctimas de inundaciones y otros desastres.
Las indicaciones para explorar sitios web extremistas son igualmente pertinentes, con una salvedad: dónde establecer la frontera entre la libre expresión y el extremismo de consecuencias imprevisibles (sobre todo, al tener en cuenta que incluso el propio presidente de Estados Unidos incurre en técnicas usadas por actores perniciosos de la web oscura, como difundir bulos y alentar al ataque de adversarios y grupos identificados como poco deseables).
Cultural genocide. https://t.co/JplCWXakwc
— Patrick Chovanec (@prchovanec) June 12, 2019
En el nuevo contexto del periodismo de investigación, no sólo es importante saber qué buscar, cómo buscarlo, dónde y con qué herramientas para reducir al mínimo el tiempo y los recursos necesarios.
Es igualmente crucial, nos indica la guía OSINT de CJR, saber cómo ponerse en contacto y proteger a fuentes que deben permanecer anónimas (de lo contrario, las implicaciones son penales en el nuevo contexto), así como proteger la propia investigación e integridad.
Doxing, «hacktivismo» y agencias de inteligencia
El periodismo de investigación no es ajeno a la instrumentalización por parte de organizaciones y agencias de inteligencia. Fenómenos como la publicación de información confidencial de individuos u organizaciones transitan en la estrecha frontera entre el «hacktivismo» y la supeditación a estructuras de ciberespionaje financiadas por gobiernos.
El caso de Wikileaks y Julian Assange, finalmente detenido, cuenta con todos los ingredientes de esta ambivalencia; el propio Assange lo tendrá muy difícil para desvincularse del ciberespionaje ruso, pero su detención sienta un precedente peligroso para la libertad de información.
A medida que el rastreo de la información y la actividad de la ciudadanía se perfecciona, asistimos al nacimiento de un periodismo encriptado, que trata de proteger tanto sus pesquisas como la identidad de sus fuentes.
Observando la represión uigur
Los manifestantes que se agolpan estos días en las calles de Hong Kong llevan máscara y pagan el transporte público en metálico para evitar que su actividad deje un rastro que el gobierno chino no dudaría usar en su contra; el guante de seda que el Partido Único ha utilizado hasta ahora en Hong Kong contrasta con el genocidio cultural que se produce en la región del Sinkiang con el pueblo uigur.
Sofisticadas herramientas, desde la imaginería por satélite a la colaboración encriptada por activistas in situ, nos permiten conocer el internamiento forzoso de un porcentaje cada vez mayor de la población uigur de Sinkiang, así como la destrucción de viejos monumentos, documentos religiosos y, al parecer, al menos un antiguo cementerio musulmán, tal y como demuestran las investigaciones vía satélite.
La responsabilidad del periodismo de investigación en la era de Internet implica no abandonar ninguna historia, pues los algoritmos usados en contra del periodismo pueden servir también para mantener encendidos los focos en los lugares que más padecerían la ausencia del reporterismo.
El nuevo lema del Washington Post, «Democracy Dies in Darkness», se adecúa a los tiempos.