(hey, type here for great stuff)

access to tools for the beginning of infinity

El troleo engulle Internet: riesgos del fenómeno y soluciones

“El software está engullendo (y programando) el mundo”, anunció Marc Andreessen hace ya unos años.

De momento, nadie ha expresado algo equiparable, pero referente al impacto real del troleo en Internet… y en nuestras vidas.

Hannah Arendt fotografiada por Fred Stein en Nueva York (1944)
Hannah Arendt fotografiada por Fred Stein en Nueva York (1944)

Hace tiempo que el troleo ha dejado de ser un juego de niños, dificultando la conversación en medios y redes sociales, e influyendo sobre la opinión pública hasta el punto de que ya hay quien habla de la necesidad de devolver la credibilidad a la información legítima con “un proyecto Manhattan para el periodismo”.

Con o sin equipos de rescate, los foros de información y debate en Internet se enfrentan a un problema mucho más preocupante que el correo basura, los virus o incluso los ataques a sitios e infraestructuras de Internet, al implicar tecnología y moralidad, ya que los algoritmos no interpretarán con facilidad los límites entre la libertad de expresión y el discurso de odio.

El troleo está engullendo la Internet participativa

Cuando acaba 2016, el año en que la información falsa, el fanatismo informativo, y los comentarios propagandísticos de granjas de contenido logran una atención merecida tras Brexit y la elección de Donald Trump, quizá haya llegado el momento de acuñar una frase lapidaria equivalente al de Andreessen, pero que haga referencia al efecto de los comentarios tóxicos y los perfiles falsos de la Internet propagandística.

Algo así como: “el troleo está engullendo la conversación ponderada en Internet.”

Medios de comunicación y redes sociales experimentan con métodos para atajar el extremismo y la propaganda en los comentarios, cuyo contenido más extremo logra mayor preponderancia y decanta cualquier conversación hacia posturas polarizadas, que a menudo derivan en insultos, amenazas y consignas repetitivas. Fenómenos como Gamergate ilustran un problema tan tecnológico como ético.

Y, cuando el sensacionalismo y la polarización acaparan todo el interés, los razonamientos más reflexivos y atentos a la complejidad de la realidad (y al riesgo de su interpretación radical), pierden su influencia en la opinión pública.

La pérdida de legitimidad de la información “seria” pero “más aburrida” explica en última instancia por qué sociedades maduras y ciudadanos convencionales no sólo aceptan, sino que en ocasiones apoyan, procesos extremistas que aceleran el deterioro de la sociedad que pretenden mejorar: sin confianza ni sentido de la corresponsabilidad en el debate público y la percepción de las instituciones, todo es posible. Incluso las mayores aberraciones.

Juego limpio y polarización

El filósofo austro-británico Karl Popper alertó contra este fenómeno de deterioro del debate crítico y abierto en sociedades democráticas. Décadas después, sus reflexiones sobre medios de comunicación y salud democrática son más que pertinentes.

https://twitter.com/mattyglesias/status/811608181336141824

Quienes prefieren leer el mismo mensaje en voz de expertos actuales, pueden consultar el artículo de opinión de los profesores Steven Levitsky y Daniel Ziblatt en The New York Times, en el que exponen por qué consideran que líderes como Donald Trump son un riesgo para la democracia: cuando se olvida la corresponsabilidad con normas cuya fortaleza se basa en el juego limpio de sus principales actores, cualquier sistema de garantías sin importar su aparente solidez, se encuentra en riesgo:

“Las instituciones democráticas deben fortalecerse con sólidas normas informales. Como una pachanga de baloncesto sin árbitro, las democracias funcionan mejor cuando las normas de juego no escritas, conocidas y respetadas por todos los jugadores, aseguran un mínimo de civilidad y cooperación. Las normas funcionan como suaves barreras de protección de la democracia, evitando que la competición política desemboque en un conflicto caótico desatado.”

Intuiciones kantianas

Los estadounidenses han olvidado lo que, citando a Kant, Karl Popper llamó “sensus communis”: el sentido común de quien se siente responsable y cree que debe llegar a un acuerdo de convivencia suficientemente satisfactorio y cohesivo con sus conciudadanos.

La polarización de los comentarios en Internet logra lo contrario: silos de opinión e ideología que se comportan como comunidades-estanco, burbujas que no comparten información, objetivos o la voluntad de intentar el esfuerzo empático de ponerse en la situación del otro.

Sin cultivar el sentido común, el sentido crítico y la empatía, las comunidades-silo florecerán con la asistencia de Internet (y herramientas de propaganda cada vez más sofisticadas, a menudo compartidas con la candidez de un vídeo sobre gatos).

Coincidiendo con este auge de la polarización en el contenido de usuarios en redes sociales y secciones de comentarios de medios, artículos, expertos y agencias de inteligencia se apresuran a medir tanto el potencial de cuentas falsas en Facebook, Twitter, Reddit, etc. para diseminar propaganda, como sus efectos sobre la opinión pública en las democracias liberales.

Vendedores de humo etnocentrista

En el nuevo escenario, con medios debilitados y desprestigiados por su supuesta connivencia con el Establishment al que supuestamente pertenecen, la información más responsable y sosegada pierde notoriedad ante el sensacionalismo, sesgado o falso, que líderes como Donald Trump pretenden institucionalizar: habrá que acostumbrarse a los tuits extemporáneos (y populares) de Trump, así como al extremismo de su colaborador Steve Bannon, inspirador de la derecha supremacista estadounidense (“Alt-right”) a través de su sitio Breitbart News.

Bannon supo canalizar el disgusto de muchos estadounidenses con un medio demagógico que recogiera los frutos de una larga campaña de descrédito de las instituciones en tertulias radiofónicas y televisivas, así como en redes sociales: declarándose anti-Establishment y -según ellos mismos- contrarios a la corrección política, Drudge Report, Breitbart y grupos de redes sociales y agregadores sociales de contenido inspiraron parte de la polarización en los comentarios de usuarios en redes sociales y medios.

En el mundo de espejos cóncavos de Matt Drudge y Steve Bannon, incluso los comentaristas más conservadores de la cadena Fox forman parte del supuesto Establishment.

Pero la crisis de troleo es mucho más compleja, al implicar a miles de cuentas de usuario ilegítimas que, desde granjas de contenido de países como Macedonia o Rusia, acuden por consigna a distintas plataformas para impulsar una opinión concreta sobre alguna temática política, o atacan en tromba a personalidades o informaciones consideradas contrarias a sus intereses.

¿Son los tuits con meme los nuevos carteles agitprop?

Lo que conocemos como “troleo” (“trolling”) no es un fenómeno nuevo. Ni siquiera se adscribe únicamente a la popularización de Internet. Los orígenes del troleo se hallan en las rencillas de contrainformación en las que distintas facciones y partidos políticos se enfrascaron en los centros urbanos ilustrados donde se superponían tensiones entre sociedades artesanales e industriales, ideología liberal y movimientos obreros.

A los discursos improvisados, folletines y octavillas que trasladaron la atención pública desde el púlpito de la Iglesia a cafés y tabernas, les siguieron los medios de contrainformación en el siglo XX, cuando la alfabetización, las imprentas portátiles y los medios de masas permitieron el auge de la agitación propagandística (o “agitprop”, cuando se refería al adoctrinamiento bolchevique).

Plataformas como YouTube tratan de aplacar la influencia del troleo con herramientas de moderación que permiten premiar contenidos más ponderados sobre los más extremistas
Plataformas como YouTube tratan de aplacar la influencia del troleo con herramientas de moderación que permiten premiar contenidos más ponderados sobre los más extremistas

Los orígenes vanguardistas de la primera propaganda de masas, asociada a folletines y a eventos callejeros, pero también a la calidad artística de la poesía, la cartelería, el teatro y el cine de los años 30 (del futurismo ruso e italiano al cine documental de Leni Riefenstahl para el partido Nazi, pasando por la cartelería de la Guerra Civil Española), son incuestionables.

Cuando nos encontramos precisamente a las puertas del centenario de la Revolución Bolchevique y la Federación Rusa se dirime entre celebrar la efeméride por todo lo alto o lamentarse de sus consecuencias sobre la sociedad rusa (entre ellas, la aniquilación de la disidencia simbolizada en la Rusia Blanca, así como la muerte de millones de personas en campos de internamiento y trabajo forzoso en Siberia durante el estalinismo), Rusia recupera el significado y fin de la propaganda de Estado.

Etimología de la información en Rusia

La contrainformación estatal, ocupada de acabar con las voces disidentes, y la alternativa, con objetivos opuestos, se han retroalimentado desde inicios del siglo XX, a menudo sirviendo de avanzadilla ideológica en zonas de influencia económica o ideológica.

Durante la Guerra Fría, las emisoras occidentales competían con las del Pacto de Varsovia para influir a la población a ambos lados del Telón de Acero; sin esta contrainformación, el colapso del sistema soviético se habría producido algo más tarde…

2017 es un mundo muy distinto a 1917. Y también lo es con respecto a 1989. Basta con ver de nuevo Good Bye Lenin o La vida de los otros, o buscar en Internet “Trabant Tramp”, para tomar conciencia de las diferencias entre la RDA y sus compatriotas de la próspera RFA, por mucho que el periodismo de denuncia de Günter Wallraff destacara las injusticias del sistema capitalista con los obreros y poblaciones más vulnerables.

Y hete aquí que empezamos 2017 hablando de la influencia de la propaganda rusa sobre el resto del mundo, y sobre su más que probable influencia en la elección de Donald Trump.

O, ironiza Garry Kaspárov, ajedrecista convertido en ensayista de estatura y activista de las libertades individuales en la Rusia de Putin, contra el que se muestra muy crítico:

“Hay una palabra en ruso para ‘noticias falsas’ [“fake news”]. Es ‘noticias’.”

Lo que Vladímir Putin aprendió en Dresde

Kaspárov no exagera tanto, si tenemos en cuenta la experiencia del régimen soviético tanto en el control informativo interno como en campañas internacionales de contrainformación. El propio Vladímir Putin se formó en las operaciones del KGB en Dresde, Alemania del Este, reconvertido entonces en el Servicio Federal de Seguridad.

Inspirador de aprendices de autócrata, Putin se ha rodeado de asesores competentes en espionaje electrónico y propaganda en redes sociales, y su ambigua relación con Julian Assange (Wikileaks) ha contribuido a que movimientos extremistas de derecha e izquierda aplaudan los ataques electrónicos al partido demócrata, incluyendo la convención del partido antes de las elecciones, así como las cuentas de correo de Hillary Clinton y su jefe de campaña, John Podesta.

La eclosión del fenómeno de las granjas de contenido dedicadas a la propaganda y contrainformación en redes sociales no sólo implica al gobierno de Putin y a grupos fundamentalistas islámicos que, desde el salafismo, usan Internet como herramienta de captación; varios regímenes combinan distintos grados de censura sobre el uso de Internet en su territorio, mientras a la vez difunden su contrainformación más allá de sus fronteras.

Cuando el troleo político se hace rentable

Turquía y China, por ejemplo, limitan el uso de medios y redes sociales consideradas contrarias a los intereses de estos regímenes, escudándose en su particular percepción del fenómeno del “trolling” para limitar la libertad de expresión con la censura y la hostilidad al periodismo. Y la hermética Corea del Norte se toma la libertad de atacar los sistemas de Sony Pictures por la parodia sobre Kim Jong-un en la película The Interview.

La pataleta de Kim Jong-un no sería más que una prueba cómica de sus propias limitaciones y las de su régimen… de no ser porque el comportamiento del dictador norcoreano parece ser una parodia de la propia relación con la prensa que han cultivado Putin, Erdogan, Duterte… Trump.

Los fines políticos del troleo se confunden a menudo con los económicos: en Macedonia, por ejemplo, ha florecido el negocio de la información falsa en redes sociales. El contenido se garantiza la popularidad diseminando información tendenciosa o totalmente fabricada sobre contiendas políticas o personalidades, y varios de sus artículos alcanzaron gran difusión durante la pasada campaña electoral en Estados Unidos.

Etiquetas normalizadoras para aberraciones pseudo-ideológicas

Andrew Byrne dedica un artículo en el Financial Times a “la industria de las noticias falsas en Macedonia”. Con 44.000 habitantes, Veles ha logrado notoriedad albergando las granjas de contenido que, a través de sitios de información falsa, lograron millones de visitas apoyando a Trump.

Aparentemente, escribe el articulista, los autores de la información trabajaron al margen de los entusiastas de la llamada “derecha alternativa” en Estados Unidos, así como de los propagandistas rusos (tanto voluntarios como “agentes” de granjas de contenido promovidas indirectamente por el gobierno ruso).

“Los creadores de las noticias fraudulentas, que decidieron ampliar su negocio tras el éxito de los sitios locales sobre temas de salud, todavía logran la mayor parte de sus ingresos con contenido relacionado con Trump. Pero las elecciones del próximo año en Francia y Alemania ofrecen una oportunidad fresca.”

Facebook ha anunciado su interés por desincentivar el negocio de las granjas de contenido, interesadas en promover cualquier noticia falsa (política o no) si ésta logra mayor popularidad y beneficios.

La dificultad de bloquear contenido popular (y rentable)

Eso sí, Facebook continúa negando su estatus de medio de comunicación y responsabilidad ética en la distribución de información falsa y comentarios polarizados. Cualquier usuario puede marcar comentarios como potencialmente falsos, pero Zuckerberg aclara que la red social no quiere convertirse en “árbitro de la verdad”.

Granjas de usuarios falsos difuminando consignas, empresas que crean noticias políticas falsas para lograr mayor rédito en publicidad contextual, comentarios subidos de tono que acaparan la atención en redes sociales y en las secciones de comentarios de medios electrónicos con información legítima…

La víctima real de la escalada de troleo es la propia calidad de la conversación: sin los filtros adecuados, cualquier intento sistemático de limitar el contenido propagandístico será tildado de atentado contra la libertad de expresión por tanto perjudicados directos como por quienes, como Facebook, se han erigido en repositorios de contenido compartido por sus usuarios: si el contenido es más popular, aumenta tanto el interés del usuario como el potencial económico para la plataforma.

Límites del aprendizaje automático

La calidad de la conversación en Internet evoluciona entre tensiones que podrían comprometer su propio futuro: si lo que prima en los algoritmos que controlan el spam, los comentarios repetitivos, el lenguaje abusivo o el discurso de odio es el pragmatismo de los intereses económicos de plataformas y repositorios por encima de cualquier consideración ética, los usuarios anónimos y falsos, así como los comentarios en clave de consigna y el contenido de granjas de sensacionalismo, continuarán imponiéndose en la conversación…

Hasta que esta conversación deje de ser considerada como tal, corriendo el riesgo de convertirse en monólogo. No hay mejor manera de conocer las dimensiones del problema que interesarse por la información política en Facebook, Twitter o el sistema de comentarios de grandes medios, pero el fenómeno se extiende a los comentarios de cualquier contenido popular.

El aprendizaje automático de las principales herramientas contra el contenido basura es insuficiente debido tanto a las dimensiones como a la naturaleza del problema.

Entre el discurso de odio y la libertad de expresión

El troleo se distingue del a menudo ininteligible (y casi siempre automatizado) contenido basura tradicional por su legitimidad: se trata de comentarios legítimos que, sin embargo, tienen intención de provocar una respuesta emocional, incorporando contenido polemizante, difamante, o incitando al ciberacoso.

El filtrado de este tipo de comentarios requiere moderadores humanos, si bien se sirve de herramientas como el marcado de contenido a cargo de otros usuarios, que luego puede ser revisado por los moderadores de un medio o canal en redes sociales.

En contenidos con amplia repercusión, la moderación efectiva de comentarios se hace impracticable y aumenta tanto el coste como la complejidad de cualquier sistema de moderación. Facebook, Google, Twitter, agregadores sociales de contenido, y los principales foros y medios electrónicos financian varias herramientas de moderación, comerciales o experimentales, pero ninguna de ellas ofrece garantías ante una avalancha de comentarios tendenciosos, procedan éstos de usuarios legítimos o corran a cargo de cuentas falsas (“doomy” en la jerga digital) controladas por granjas de propaganda (en la órbita de regímenes como el ruso) o contenido (como las de Veles, Macedonia).

Un error que se paga caro: prestar atención a un trol

Quizá pensando en la cuenta de Twitter de Donald Trump, pero también en el troleo que él mismo habrá experimentado en Internet, en tanto que personalidad con proyección pública, el cineasta mexicano Guillermo del Toro nos recordaba (usando Twitter) una regla de oro en Internet, sobre todo en torno a temáticas que susciten apasionada polarización (como la política):

“Pequeña regla para los medios sociales: no puedes convencer a un idiota.”

El cineasta sintetiza con acierto un fenómeno que distingue al troll de otros usuarios que, legítimamente, muestran su desacuerdo con una información u opinión, argumentando su punto de vista. El troll trata de arrastrar a otros a la polémica suscitada, alimentando su relevancia (y popularidad) con la polémica.

La estrategia de ignorar a un troll no siempre funciona: sobre todo cuando en casos de difamación orquestada, cuando varias cuentas (a menudo dirigidas desde granjas de propaganda) dirigen la atención hacia una polémica determinada, contribuyendo así al fenómeno de la viralidad de noticias falsas, leyendas urbanas e información sesgada.

Las promesas de algoritmos y aprendizaje de máquinas no sólo no se materializan en la moderación de comentarios de usuario, sino que estos sistemas de participación se encuentran a la defensiva o en plena retirada tras la influencia de la propaganda demagógica en la opinión (y voto) de la ciudadanía.

Pizzagate no es una parodia (lo que debería preocuparnos)

No sólo llegan estudios que mostrarían la incapacidad de muchos ciudadanos de distinguir entre información procedente de fuentes legítimas y aquella claramente tendenciosa o claramente falsa, sino que la ausencia de filtros origina fenómenos como el del británico James Dowson, fan de Vladímir Putin y autor del sitio The Patriot News Agency, que asistió a la victoria contra pronóstico de Donald Trump con contenido propagandístico que logró una fabulosa popularidad en Facebook.

Gracias a sitios como el de Dowson, se han difuminado noticias falsas sobre Hillary Clinton que la vinculaban con prácticas de satanismo, redes de pedofilia (supuestamente coordinadas desde una pizzería) o el asesinato de disidentes demócratas.

Ni el éxito fulgurante de la “agencia de noticias” de James Dowson ni Pizzagate son improbables en el panorama informativo actual, reflexiona Mike McIntire en The New York Times, lo que recuerda la profunda crisis de credibilidad del periodismo, tradicional y de nuevo cuño.

La gente corriente

Sobre el papel, el periodismo ha servido de guardián de las instituciones y garante de las libertades individuales en las democracias liberales, pero su crisis de legitimidad ha permitido el deterioro de aspiraciones tradicionales de la información, como la veracidad.

La crisis de la información en Internet no se limita únicamente al troleo a pequeña y gran escala, sino que daña el concepto mismo de información y pone en cuestión su propia fundación epistemológica: negando la existencia misma de “veracidad”, alertaron filósofos que asistieron al ascenso de los totalitarismos en Europa y sus consecuencias, los regímenes sin libertades pueden justificar cualquier atrocidad.

Karl Popper consideraba que las democracias liberales podrían sobrevivir si mantenían vivos sus canales de racionalismo crítico, o métodos que permitieran a la opinión pública distinguir entre verdadero y falso, entre lo moralmente aceptable y lo que atenta contra el propio régimen de libertades. Popper creía que la regulación de los medios no sólo era recomendable, sino esencial: la liberalización de los medios los conducía al sensacionalismo (debido a su potencial popularidad y réditos económicos).

Hannah Arendt iba incluso más allá:

“El sujeto ideal del sistema totalitario no es el nazi convencido o el comunista convencido, sino la gente corriente para la cual la distinción entre hecho y ficción y la distinción entre verdadero y falso han dejado de existir.”

Gestionando el extremismo: los casos de Reddit y Hacker News

¿Familiar? Hay autores que consideran que plataformas como Facebook no han sido diseñadas para propagar información que aspire a cierta veracidad, sino a compartir contenido en función de su popularidad y relevancia para los propios usuarios. El problema con la información tendenciosa podría ser -arguyen- estructural.

El fenómeno del periodismo tendencioso en supuesta lucha contra el Establishment y contra un concepto tan vago como “lo políticamente correcto”, representado en Estados Unidos por medios electrónicos como Drudge y Breitbart, sirvió de plataforma ideológica de entusiastas de la extrema derecha, que propulsaron foros de opinión y propaganda en repositorios como Reddit y Hacker News (propiedad de la incubadora de proyectos tecnológicos Y Combinator).

Tanto Reddit como Hacker News han respondido a la actividad de estos grupos y usuarios, que promueven teorías conspirativas y contenido extremista:

  • Hacker News proscribió la información política en la comunidad de noticias especializadas durante lo que llamó “semana de desintoxicación política”, aludiendo que se trata de un foro para compartir información y opinión sobre el mundo tecnológico, y no un medio que aliente el contenido poco reflexivo y polarizador (como el político);
  • y Reddit estudia cómo limitar el alcance de “subreddits” (foros temáticos en la plataforma gestionados por usuarios) con contenidos extremistas, como el que ha servido de altavoz a supuestos entusiastas de la “derecha alternativa”, /r/altright, planteándose si debe ir más allá de requerir un acceso más estricto.

¿Qué hacer con secciones de comentarios infestadas de troleo y spam?

No sería la primera vez que Reddit limita el uso de un foro: ya lo ha hecho con /r/coontown y /r/european por incitar al odio; en ambos casos, los usuarios que desean seguir participando deben acceder a la comunidad con una cuenta de correo verificada.

La decisión de Hacker News de prohibir el contenido político durante una semana, como experimento del que tomará nota, ha suscitado la polémica: usuarios criticaron la iniciativa como atentado contra la libertad de expresión.

El comentario más votado por los usuarios de Hacker News sobre la iniciativa provenía de un usuario que exponía sus reservas.

Otros medios experimentan con nuevos modos de involucrar a su audiencia en el contenido. Es el caso de Vice Media, que en poco tiempo ha consolidado una audiencia global en varios de sus medios.

En octubre de 2015, Motherboard, canal de información tecnológica de Vice, suprimía su sección de comentarios:

“En Motherboard hemos decidido desactivar nuestra sección de comentarios, una decisión que hemos debatido durante un año o más. Lo que finalmente decantó la balanza fue nuestra convicción de que eliminar los comentarios y centrarnos en otras avenidas de comunicación promoverá una discusión y crítica más inteligente y valiosa de nuestro trabajo.”

Celebi-trolls

Para crédito de Motherboard, su decisión precede al fenómeno electoral que ha conducido a Donald Trump a la Casa Blanca, con la connivencia de la obsesiva cobertura mediática del peculiar candidato a cargo de los medios, pero también gracias a la actividad de comentarios con tono de agitación propagandística en redes sociales, promovidos tanto por usuarios legítimos como por medios creíbles y granjas de cuentas y contenido falso.

Dada la actividad del personaje en su propia cuenta de Twitter, no debería extrañar a nadie que existan en el entorno de Donald Trump expertos en análisis de datos en Internet (sin ir más lejos Peter Thiel, cofundador de la firma de “big data” Palantir), así como creadores del contenido que ha alimentado el propio fenómeno:

  • el mencionado Steve Bannon, atento al fenómeno “meme” y a la popularidad de algunos acólitos, como la “celebrity” de la “derecha alternativa”, Milo Yiannopoulos (que aprovechó el bloqueo de su cuenta a cargo de Twitter como una victoria de su estrategia de confrontación);
  • o Michael T. Flynn, militar conocido por sus mensajes abiertamente antisemitas en Twitter (que borró posteriormente) y promotor activo -explica The New York Times– de noticias falsas y teorías conspirativas.

No hay varita mágica para acabar con la polarización de los comentarios en redes sociales y medios electrónicos. Si existe un lugar donde nuevas ideas podrían tener un impacto incalculable, es el de la moderación en Internet.

Moderación vs. bloqueo

El filtrado humano, incluso el que permite la asistencia de la comunidad de usuarios, muestra, de momento, los resultados más esperanzadores. En marzo de 2016, YouTube anunciaba una renovación general de sus comentarios, destinada a, entre otros objetivos, limitar la propagación de ataques, mensajes de odio.

Las nuevas herramientas ofrecen a los creadores de contenido en YouTube mayor control sobre su propia plataforma: los contenidos más adecuados pueden destacarse al principio, mientras los ataques sistemáticos a cargo de usuarios pueden limitarse con un bloqueo total o con opciones más sutiles, tales como ocultar un contenido determinado.

Twitter otorga ahora a sus usuarios la posibilidad de enmudecer comentarios determinados siguiendo un razonamiento similar al de Google en los comentarios de YouTube, mientras la industria espera el resultado de las primeras medidas de Facebook en su lucha contra la información falsa y extremista.

Hasta el momento, Facebook ha confiado más en la efectividad de algoritmos que en su comunidad de usuarios para bloquear contenido no deseado por la política de la compañía, que ha obtenido un éxito remarcable bloqueando imágenes de desnudos (incluyendo desnudos en obras de arte, campañas de concienciación médica, o lactancia materna).

El caso de Vice Media

Mark Zuckerberg cree que Facebook no debería ser árbitro de la veracidad informativa en Internet, si bien la empresa sí ha actuado de acuerdo con su propio código ético al eliminar por completo los desnudos de la plataforma.

Poco más de un año después de iniciar su experimento en Motherboard, Vice Media no sólo no reactiva la sección de comentarios de usuarios en su canal tecnológico, sino que informa de la desactivación de los comentarios en su medio principal, Vice News.

Vice Media no es el único medio que ha limitado el uso o desactivado sus comentarios: la edición electrónica del diario británico The Telegraph desactivó sus comentarios a inicios de 2016, tildando la iniciativa de “experimento”; y USA Today hizo lo propio, animando a sus usuarios a seguir la “conversación” en las redes sociales.

Una oportunidad fabulosa: arreglar la conversación

En octubre de 2015, cuando los medios especializados notaban la dificultad para frenar la irrupción del troleo en sus secciones de comentarios, Wired recopilaba los primeros hitos en la carrera por reemplazar este sistema de interacción entre usuarios y medios:

  • septiembre de 2012: The Atlantic lanza Quartz, medio con “anotaciones” en lugar de “comentarios”;
  • septiembre de 2013: Popular Science retira su sección de comentarios, citando un estudio que constataba que los comentarios tienen un profundo efecto sobre la percepción científica de los lectores;
  • abril de 2014: el Chicago Sun Times suspende sus comentarios, aludiendo la baja calidad de este contenido, y activando posteriormente esta opción sólo en determinados artículos;
  • agosto de 2014: CNN desactiva sus comentarios en la mayoría de su información electrónica durante las protestas de Ferguson, Missouri;
  • noviembre de 2014: el medio tecnológico Recode suprime los comentarios en su sitio, emplazando a sus usuarios a comentar la información publicada en redes sociales;
  • enero de 2015: Bloomberg estrena sitio, eludiendo los comentarios de usuarios.

De momento, redes sociales y medios se devuelven la patata caliente de la participación de los usuarios en torno a información que alimenta comportamientos más próximos al núcleo primitivo del cerebro que al pensamiento complejo de la corteza cerebral.

Quienes logren transformar la mentalidad defensiva actual en oportunidad, facilitando un debate más racional y ponderado en torno a temáticas esenciales para la salud de la opinión pública (y, por tanto, para la propia supervivencia de las democracias liberales), quizá creen herramientas más valiosas que quienes crean y alojan la propia información comentada.