Criticar los efectos de las redes sociales, y hacerlo con buenos argumentos, ha dejado de ser algo fresco. Pronto, el fenómeno será a duras penas noticiable.
Dice el humorista Sacha Baron Cohen que los «Silicon Six» —los sospechosos habituales— están más preocupados por sus intereses que en proteger la democracia.
Speedy robots. Constant surveillance. Ruthless quotas. A new @reveal investigation into why the injury rate for Amazon’s warehouse workers is sky-high: https://t.co/wT5PjuHgcS
— The Atlantic (@TheAtlantic) November 25, 2019
No dice ninguna barbaridad, si bien ya hay quien comenta que Baron Cohen está en posición de ser abiertamente crítico contra los principales repositorios de contenido de la Red y sus algoritmos porque, dada su posición y situación económica, se puede permitir la enemistad de otros poderosos de la esfera pública.
Queda claro, sea como fuere, que criticar los excesos y los efectos secundarios derivados del supuesto purismo de las redes sociales a la hora de defender la desinformación y los linchamientos públicos (supuestamente, en nombre de la libertad de expresión), ha dejado de ser un fenómeno marginal.
Fenómenos como la vigilancia panóptica (ya sea de administraciones —China es el caso flagrante—, o de empresas interesadas en fomentar una productividad maquinal) y los «deepfakes», o nuevas realidades a partir de imágenes prefabricadas, nos sumen en una realidad algorítmica de la que será difícil salir ilesos.
this is literally the plot of The Matrix https://t.co/KlspBDbbQU
— Sam Thielman (@samthielman) November 26, 2019
En el futuro, la combinación de panoptismo, «deepfakes» y algoritmos podría generar entornos de realidad virtual que nos acercarán a las metáforas fantásticas sobre el mapa y el territorio, tales como Matrix.
Empresas que comercian con nuestra actividad en la Red
El negocio de los comerciantes de datos («data brokers») no sólo es legal, sino boyante, y empresas que emplean potentes equipos de relaciones públicas para evitar escándalos sobre la administración fraudulenta de información de usuarios se sirven de empresas que, como FullContact, se dedican a reconstruir perfiles de ciudadanos a partir de parcelas de información de distinta naturaleza y procedencia.
People Data Labs, otro «data broker», ofrece detalles sobre la información recolectada, sin el consentimiento expreso de ninguno de los avatares listados, correspondientes a ciudadanos de todo el mundo, en «su» base de datos.
Información relativa a 1.200 millones (!) de personas ha permanecido disponible en abierto en la Red hasta que el investigador Vinny Troia descubriera en octubre los 4 terabytes de información, procedentes, al parecer, de un servidor Google Cloud perteneciente a People Data Labs. El evento expone el problema de seguridad, ética, legalidad y diseño de algoritmos en torno al negocio de agregación de datos.
"Your recent job performance is not meeting Productivity expectations… You are expected to meet 100% of the productivity performance expectation [or your] employment will end"
'Productivity report' from Amazon's ADAPT worker surveillance system [pdf]: https://t.co/55WXOOtFUf pic.twitter.com/OhesuxU4Au
— Wolfie Christl (@WolfieChristl) November 25, 2019
El escándalo de Cambridge Analytica y los 50 millones de perfiles de Facebook usados con fines propagandísticos, que acaparó la actualidad en marzo de 2018, no parece haber erosionado de manera crítica la credibilidad de los servicios de Facebook ante los usuarios, aunque es difícil analizar cuál será la tendencia a largo plazo.
Efectos colaterales de la agregación de datos
Mientras la presión de la opinión pública se centra en las principales redes sociales, otras firmas con amplia presencia en todo el mundo escudan su mala praxis con la información de usuarios y antiguos clientes en la personificación del fenómeno en los gigantes de la Red.
Es preocupante, dice el analista austríaco Wolfie Christl, que empresas como Adobe, fabricante de Photoshop, se dedique también al mercadeo de datos de usuarios. La firma ofrece listas de usuarios disponibles para terceros, sin que quienes han proporcionado su información a Adobe en algún momento sospechen que la marca interpreta las cláusulas firmadas en los términos de servicio con creatividad temeraria. Al apretar “Aceptar”, hemos dejado de saber lo que firmamos.
Tampoco parece preocupar demasiado el goteo de escándalos relacionados con el uso excesivo y/o fraudulento de la información agregada de millones de personas. Asistimos, por tanto, a un problema generalizado y con alcance global.
This is entirely correct. Having played havoc with the credibility of our media as a comic premise, Cohen recognizes the fragility of our new information systems and the reach of disinformation. He’s nailed it. https://t.co/KR0xofGgKn
— David Simon (@AoDespair) November 24, 2019
El despertar de nuestro sentido crítico ante el uso propagandístico o fraudulento de nuestra información llega después de años de permisividad regulatoria y desconocimiento (o peor aún, pasividad) de quienes creyeron con ingenuidad que una contraseña encriptada y una conexión «https://» les protegería del supuesto peligro (hackers malignos), cuando el principal peligro procedía, precisamente, de las empresas en donde depositaban libremente su información y expresaban sus deseos, opiniones, frustraciones, intimidades…
El factor humano en los algoritmos
Durante años, la opinión pública mundial asoció avances en computación y alfabetización digital con «progreso» sin matices ni contraprestaciones posibles. Los utensilios que lideraban la automatización y algoritmos eran percibidos con un idealismo ingenio que había mutado en falacia, según la cual un algoritmo es imparcial, al descartar el factor humano.
Los propios eventos nos han hecho replantearnos muchas cosas en los últimos años, y hoy sabemos que los algoritmos contienen, tanto en su diseño como en sus patrones de actuación y aprendizaje automático, las decisiones parciales que definen el marco de pensamiento de sus creadores.
If we fail to defend the free and open web, we risk a digital dystopia of entrenched inequality and abuse of rights.
We must act now. Join me in backing the Contract for the Web — a global plan of action for the #WebWeWant. @webfoundationhttps://t.co/CeLuSzKtqB
— Tim Berners-Lee (@timberners_lee) November 25, 2019
Estos creadores son unos individuos, con una cultura y unos valores construidos que no surgen del mundo perfecto y por encima del bien y del mal imaginado por Platón, Kant y Leibniz, entre otros, del que somos herederos. Los algoritmos heredan, por tanto, los prejuicios de las personas y sistemas de valores donde emergen.
Estas constataciones no han estado siempre claras, ni siquiera para los propios científicos computacionales sobre cuyo trabajo teórico se asentaron los primeros algoritmos capaces de decidir a partir del análisis estadístico de grandes cantidades de datos.
El riesgo de limitarnos a ser contables
La agregación de datos, «big data», ha transformado nuestra sociedad para siempre, y las principales empresas de software, Internet y cada vez más sectores que dependen de sistemas complejos, como la distribución, la logística y los productos de alto valor añadido (por no hablar de las relaciones públicas… y la política), han dejado de basarse en el conocimiento teórico (que depende del pensamiento y los juicios de valor) para confiar su actuación al estudio de la estadística.
Xinjiang is a terrifying glimpse of “instrumentarian power” (© Shoshana Zuboff) and authoritarian power coming together.
My @NewStatesman column on the #ChinaCables: https://t.co/dz9uVwGayZ
— Jeremy Cliffe (@JeremyCliffe) November 28, 2019
Este paso desde la teoría a la estadística convierte a los sistemas complejos con mayor impacto en el mundo en meros «contables» de la realidad, reflexiona el filósofo Byung-Chul Han. Y, cuando los dirigentes con mayor responsabilidad olvidan el estudio y la creación de teorías (que dependen de ideales, de la exploración de nuevas fronteras, del avance hacia modelos menos falibles), los intereses que dictarán las decisiones serán esencialmente los intereses contables.
El filósofo Byung-Chul Han forma parte de los autores que analizan un comportamiento colectivo actual cada vez más exhibicionista y compulsivo, en el que la ciudadanía ha dejado erosionar su derecho a la privacidad y a la información en favor de comportamientos de recompensa instantánea digital que explotan nuestra predilección por comportamientos que incrementan la secreción de dopamina. En este modelo, el deseo de creación y exploración cede su lugar al confort de lo idéntico e inmediato, que se convierte en nuestro «infierno».
Only few people outside the marketing industry know that Adobe, the Photoshop company, is also a massive data broker.
Adobe (re)sells, for example, lists of people with certain characteristics, including but not limited to ~2,000 lists related to health: https://t.co/YoUv5CcYPL pic.twitter.com/MOXtUtFi1D
— Wolfie Christl (@WolfieChristl) November 24, 2019
Celebramos, como había augurado Aldous Huxley, nuestra degradación individual y colectiva, al comprometer la aspiración a una ciudadanía en el contexto de sociedades abiertas (perfectibles, pero reales) por el rol pasivo de consumidores de entretenimiento, sepultados por productos que realmente no necesitamos y que apenas constituyen el síntoma de una anulación espiritual. ¿Qué papel juegan los algoritmos en esta deriva?
La degradación desde «ciudadanos» a «usuarios»
¿Cómo definir derechos «positivos» (consensuados por todos y garantizados por un código concreto) como el derecho a la información, si ni siquiera podemos definir este derecho de manera inequívoca?
Quizá no podamos definir contenido exacto de lo que podría entenderse como «información legítima» en la actualidad. Si bien no puede definirse con una simple descripción y una enumeración, la información sí que puede acotarse a partir de una descripción de lo que no es: por ejemplo, la información no es desinformación, ni propaganda, ni marketing encubierto, ni uso indiscriminado de la actividad digital personal para recibir información a medida sobre lo que supuestamente «deseamos» consumir, y no lo que deberíamos «consultar».
The #ChinaCables documents also include four ‘bulletins’ about a central data collection system that exposes China’s tech-savvy mass surveillance and its ambitious plans for “predictive policing.” One tells officials to target Uighurs “one by one.” https://t.co/akjUuJL90O
— ICIJ (@ICIJorg) November 24, 2019
La semántica del término inglés «downgrade», o degradación de software, explica este descenso dantesco al «infierno de lo idéntico» de Byung-Chul Han. Quizá hablemos de uno de los círculos exteriores del Inferno de Dante, donde los «ciudadanos» convertidos en «consumidores» gracias al «downgrade» de nuestro tiempo se convierten en la nueva subclase.
Quienes se benefician de las nuevas herramientas y situación optan por blindar su privacidad (comprando las viviendas aledañas a la propia, como Mark Zuckerberg en San Francisco, o inscribiendo a los hijos en escuelas libres de pantallas digitales, como los ejecutivos con puestos de responsabilidad y vivienda en el valle de Santa Clara, California).
Viejos y nuevos contratos sociales
Internet y las nuevas tecnologías, que debían representar el progreso sin paliativos, son utensilios que, en las manos menos adecuadas, conducen a sistemas sin escrúpulos que anteponen los beneficios de unos pocos al interés general. ¿Hay marcha atrás? ¿Es necesario replantearse nuestra concepción del uso tecnológico y el impacto de algoritmos opacos y controlados por unos pocos sobre nuestras vidas?
¿Cómo asegurarnos de que avanzamos hacia «unos algoritmos más perfectos» y justos? ¿Pueden las compañías que han creado los algoritmos con un impacto más pernicioso para las sociedades donde operan regularse a sí mismos, cuando su interés económico entra en conflicto con los intereses de la mayoría?
Sacha Baron Cohen is actually one of the first people you’d expect to shit all over social media, because he’s a rich movie star and doesn’t need them for anything https://t.co/wetjxm5Oy6 pic.twitter.com/8r4rYxtjOz
— Casey Newton (@CaseyNewton) November 25, 2019
El preámbulo de la Constitución de Estados Unidos, un documento creado ex novo que pretendía servir de enlace entre la «ley natural» (ideales «a priori» —que existen antes y más allá de nosotros— de justicia, libertad, felicidad, etc.) y la «ley positiva» (la jurisprudencia —concreta, práctica, humana— que se dan las sociedades para regir la convivencia), incluía una interesante fórmula conceptual, según la cual este estatuto jurídico nacía imperfecto (al partir de los hombres) pero podía ser perfeccionado. La Constitución había sido promulgada:
«to form a more perfect Union» («para conformar una Unión más perfecta»).
Paradójicamente, la evolución de los algoritmos más influyentes en la sociedad actual ha sido posible debido al desmarque de la sociedad estadounidense y sus representantes públicos de esta interesante cláusula del preámbulo de su Constitución.
¿Quién dicta las condiciones, prestadores o ciudadanos?
La falta de regulación ha permitido que, por ejemplo, sea posible a empresas como Facebook vender el conocimiento estadístico sobre sus usuarios al mejor postor, independientemente de las consecuencias. Si el interesado en los datos paga, estas empresas acceden a la transacción, independientemente de las consecuencias que semejante laissez faire pudieran acarrear a los individuos afectados y a la sociedad en su conjunto.
La Unión Europea se fundó, ante todo, como proyecto de cooperación entre Estados europeos devastados moral y materialmente tras dos guerras mundiales. La tutela soviética de Europa del Este y las prebendas de la ayuda norteamericana, recibida a través del Plan Marshall, sirvieron de acicate para crear una organización plurinacional que sentara las bases de una eventual sociedad europea.
La raíz voluntarista del proyecto europeo explica, en parte, su celo normativo y burocrático, y el comisariado europeo de la Competencia se esfuerza por proteger los derechos de los competidores europeos en un mercado, el de Internet, que gira en torno a medios nacionales y a grandes empresas estadounidenses que actúan como monopolios de facto.
De momento, medidas como la regulación de protección de datos (GDPR en sus siglas en inglés) se perciben como incordios burocráticos, tanto por las empresas como desde el punto de vista de los usuarios, más preocupados por los mecanismos electrónicos de la gratificación inmediata que en sus propios intereses a largo plazo.
Algoritmos y sociedad abierta
A simple vista, resulta contraintuitivo demandar la intervención de la parcialidad humana «responsable» (aunque de raíz humanista y ponderado, el derecho positivo en practicado en las democracias liberales implica recurrir a la parcialidad humana) para resolver el problema de la parcialidad en los algoritmos.
¿Puede haber una parcialidad buena, aunque falible y subjetiva —al ser cultural y velar por el bien de todos, y no por la supuesta pureza técnica o matemática de un algoritmo—? ¿Es posible distinguir la parcialidad «buena» de la parcialidad «dañina» en modelos computacionales? ¿Podemos lograr un consenso basado en una supuesta objetividad para dirimir cuál es el modelo subjetivo que podríamos aplicar en algoritmos?
NationBuilder, a platform used by thousands of political campaigns across the world, provides a feature to find FB accounts for email addresses. FullContact, a company who has data on 1bn people, sold data to them.
Time for EU authorities to investigate: https://t.co/TpljHTqqFO
— Wolfie Christl (@WolfieChristl) September 19, 2019
Si bien los propios conceptos de «objetividad» y «subjetividad» son una construcción basada en una teoría del conocimiento (una «epistemología») falible y no de modelos ideales universales con existencia más allá de nosotros, a partir de los universales a priori de Platón, Kant y Hegel, sí podemos como mínimo constatar que los algoritmos actuales tienen un nivel de sesgo muy superior al tolerable, y que este fenómeno podría corregirse con medidas que dependen de actuaciones regulatorias.
Por ejemplo, un equipo independiente de reguladores, como el recomendado por expertos en medios y sociedad de la talla de Karl Popper para estudiar y penalizar los abusos en el uso de medios de masas, podría ocuparse el uso personalizado de publicidad tendenciosa o falsa relativa a campañas electorales en redes sociales, como ocurre todavía en Facebook.
¿Una comisión de expertos para dirimir casos complejos en la Red?
La firma se escuda en la libertad de expresión, si bien muchos expertos responden que una lectura tergiversada de un derecho fundamental como la libertad de expresión no exime a nadie de su responsabilidad en la diseminación de desinformación a gran escala y las consecuencias que esta actividad tiene sobre la erosión del debate público y la propia sociedad abierta.
Popper murió en 1994, justo antes de los eventos que han marcado la sociedad de la información desde mediados de los 90. Tanto él como Hannah Arendt, autores que conocieron los horrores de la desinformación en la Europa de entreguerras y vivieron lo suficiente para observar cómo la complacencia y la alergia a cuerpos regulatorios independientes y responsables, condujeron al modelo mediático actual, en el que los principales difusores de información, las redes sociales, eluden cualquier responsabilidad moral o jurídica con respecto a la información que se difunde a través de su infraestructura, al alegar que los datos son publicados, compartidos y transmitidos por los propios usuarios.
More details on detention and forced labour of #Uighurs in the #XinjiangPapers today… #xinjiang #authoritarianism #surveillance https://t.co/ilvaeqerY2
— keep your electric eye on me (@murakamiwood) November 24, 2019
Un cuerpo regulatorio independiente y responsable (habría que acotar ambos conceptos, independiente y responsable) sería capaz de, por ejemplo, estudiar con mayor meticulosidad la existencia de monopolios de facto en sectores hoy esenciales para la economía y la diseminación de información (incluida la política en el mundo).
Estos mismos cuerpos regulatorios compuestos por expertos demandarían una justificación creíble acerca de la actual opacidad del comportamiento de los algoritmos con la información de la ciudadanía escudándose en el derecho a la propiedad intelectual.
Internet y las viejas tradiciones jurídicas
Una alternativa al modelo desregulado actual implica una nueva exploración, más cuidadosa y menos supeditada al poder de influencia de los gigantes de Internet en el gobierno estadounidense, de la relación entre los conceptos de «ley natural» (nuestros ideales sobre lo justo y adecuado para todos) y las normas consensuadas que nos damos para que el interés general gane la partida al partidismo de unos pocos o de un grupo con respecto a terceros.
Estas normas consensuadas, o jurisprudencia, no se han adaptado bien a la nueva realidad digital, en la que nuestros avatares nos suplantan y, sin haberlo meditado, desvelan con sus trazas y contenido generado —y almacenado en servidores remotos que son propiedad de terceros, o nube computacional— rasgos de carácter que han dejado de pertenecer de facto a la esfera privada, al ser explotados en la Red sin escrúpulos ni legislación aplicable que lo impida.
Las normas consensuadas dependen de distintas tradiciones, y las empresas con mayor incidencia en las Américas y Europa fueron concebidas según un punto de vista que choca con los códigos locales.
Esta jurisprudencia puede derivar de una doctrina ética (como ocurre con el derecho positivo o código «escrito» de la Europa continental, heredera del derecho romano) o, por el contrario, basarse en la costumbre (derecho consuetudinario anglosajón o código «no escrito»).
Cómo incluir el humanismo y la ética en los algoritmos
Tanto la doctrina ética como la costumbre pueden incluir injusticias y juicios de valor implícitos que, sin planteárselo (debido, a menudo a gruesas injusticias que pasan desapercibidas en el «zeitgeist» —clima social e intelectual de una época— donde nos toca existir), perpetúen la parcialidad y las injusticias (por ejemplo, contra los intereses de minorías silenciadas, como los esclavos en la democracia de la Atenas clásica o la población percibida como minoría en las sociedades contemporáneas).
Para la ciencia computacional, las sospechas sobre la parcialidad de sistemas que basan su «inteligencia» en el análisis de datos agregados y no en teorías con «correctores» de inspiración humanista (diseñados para evitar la discriminación o modelos que se basan en monopolios de facto debido al efecto de red y a servicios esenciales disfrazados como productos comerciales), preceden los eventos de desinformación que han transformado el debate público en las sociedades democráticas en los últimos años, y que ha propulsado el avance del populismo en el mismo epicentro del sistema liberal.
De hecho, las sospechas sobre la parcialidad de los algoritmos y su peligrosa proyección del punto de vista de los diseñadores y operadores, preceden incluso a la popularización de la informática personal e Internet.
Ironías de la automatización
La psicóloga cognitiva Lisanne Bainbridge, experta en las consecuencias del choque entre la automatización —un fenómeno cuya aceleración, recordemos, se remonta a inicios del siglo XIX en lugares como el Reino Unido— y las libertades, individuales y colectivas, en sociedades democráticas.
Bainbridge logró notoriedad a raíz de un artículo científico publicado en 1983. Ironies of Automation es un clásico de la ciencia computacional, si bien sus constataciones no influyeron sobre los factores que, hoy, condicionan la evolución de los algoritmos (y su efecto sobre nosotros).
En el artículo, Lissanne Bainbridge constataba que los sistemas «automatizados» no son nunca plenamente «automáticos», ni mucho menos inocentes. Estos algoritmos, observó, suelen ser mantenidos por uno o más operadores humanos. Asimismo,
«Cuanto más avanzado es un sistema —observó—, más crucial resulta la contribución del operador humano».
Sin embargo, Bainbridge creía que los diseñadores de algoritmos negaban esta evidencia. Al fin y al cabo, constatar la dependencia de lo «automático» sobre algo tan falible por definición como el ser humano (un producto de la cultura de su tiempo y las circunstancias de su existencia), no es el punto fuerte comercial de programas cuya intención primordial consiste en hacer realidad la quimera de la infalibilidad.
Vertederos de nihilismo
Las granjas de moderación de contenido, que albergan a un inframundo de trabajadores tecnológicos (expuesto, por ejemplo, por Casey Newton en un reportaje para Verge en febrero de 2019) enfrentándose a diario a la peor versión de la humanidad, son la constatación de que los criterios subjetivos, relacionados con la ley natural y la ley cotidiana, son imprescindibles a la hora de discernir qué es tolerable y qué debería ser evitado.
Lo leído, visto y visionado a diario por estos trabajadores que moderan el contenido generado por usuarios en las principales plataformas sociales no soporta a menudo el criterio de la libertad de expresión.
La hipótesis según la cual es necesaria más humanidad para combatir la parcialidad de los algoritmos es más fácil de constatar que de aplicar.
Cualquier regulación que partiera del desconocimiento sobre el funcionamiento de algoritmos y sistemas complejos podría rozar la censura en países no democráticos que carecen de una sociedad abierta con medios de comunicación libres y un debate público saludable.
En estos entornos, las redes sociales y los canales de comunicación encriptada de algunas aplicaciones de mensajería son el modo de convertir el inconformismo de unos pocos en una aspiración para lograr sistemas políticos más democráticos y tolerantes.
Cuando ejercer de pirómano era divertido
O eso es lo que, sobre el papel, teóricos de movimientos inspirados y nutridos gracias al efecto de red en plataformas como Facebook y Twitter (es el caso de las primaveras árabes), como el periodista Jeff Jarvis, defendieron durante años… hasta que las mismas herramientas han servido para todo lo contrario, impulsando el populismo que explica el auge de las denominadas democracias iliberales.
La combinación de Internet y el teléfono inteligente otorga una inmediatez que no debería equivaler a carta blanca a los proveedores de servicios para, bajo la excusa de facilitar la existencia o la experiencia de entretenimiento de la audiencia, convertir esta puerta a nuestra privacidad y comportamiento en el inicio de una sociedad que mantiene el control sobre las masas a golpe de productos y servicios que estimulan nuestros mecanismos de gratificación.
En «el infierno de lo idéntico», los consumidores de contenido y productos enviados a domicilio no ven más que un reflejo de sí mismos, concluye Byung-Chul Han.
¿Puede la regulación establecer límites equilibrados a los excesos de los servicios de Internet? Si el fallo esencial de los algoritmos es la propia parcialidad humana, será difícil consensuar una legislación equilibrada que evite, precisamente, un acrecentamiento de la parcialidad, real y percibida, en los principales algoritmos.
La quimera de autorregularse contra sus propios intereses
La alternativa libertaria, no hacer nada, parece aún más temeraria, pues la autorregulación no ha funcionado en empresas que, como Facebook, niegan tener una posición editorial (o ser un medio de comunicación), mientras se han convertido en la principal fuente informativa de la sociedad.
Las medidas de las principales redes sociales para combatir la desinformación no son suficientes.
El anuncio de Twitter de prohibir publicidad política aumenta la presión sobre Facebook, que no planea una medida similar y no está dispuesta siquiera a suprimir mensajes políticos falsos o marcadamente tendenciosos.
En un contexto desregulado de Internet, dominado por el efecto de red (bombeado al inicio de manera artificial con inversión de capital riesgo procedente de fondos soberanos como el saudí) y la popularidad del evolucionismo cultural, sólo sería posible contrarrestar los peores efectos del laissez faire con mejores algoritmos (y quizá, arquitecturas técnicas descentralizadas, inmunes tanto a la elevada barrera de entrada para generar el efecto de red necesario en un producto digital, como a los ataques de denegación de servicio).
Un sistema inmune erigido sobre la ética humana
En una Internet dominada por monopolios de facto que anulan la competencia o, copian o compran las ideas más prometedoras antes de que puedan mostrar su potencial, sólo un servicio rompedor, difícil de atacar con regulaciones y desde la Red, podrá lograr la credibilidad e inmunidad necesarias para garantizar su supervivencia. En este sentido, Wikipedia es un ejemplo esperanzador.
Un fenómeno análogo al comportamiento protector de los ecosistemas y sistemas inmunes de animales complejos, capaz de crear un antídoto contra derivas que pasan el umbral de lo tolerable (al poner en riesgo la propia supervivencia del organismo), podría iniciar una nueva etapa en la Red.
Los excesos de algoritmos e internet no han generado, de momento, el equivalente a las sustancias, células y antibióticos que protegen el sistema inmune.
La oportunidad es quimérica, pero gigantesca.