La gaya ciencia (1882). En su ensayo más celebrado —quizá porque llega con su madurez y anuncia la salida de una larga convalecencia, que coincide con la madurez y el optimismo de su filosofía—, Friedrich Nietzsche alerta contra el culto ciego a la ciencia, según él tan dogmático y arbitrario como la religión.
Nietzsche creía que la creencia en el mecanicismo a ultranza de los pensadores positivistas introducía una nueva ilusión con intención de imponerse al cristianismo, desprestigiado entre la población: al confundir mediciones arbitrarias con realidad, reflexionaba el filósofo en La gaya ciencia, la sociedad europea de la Ilustración arriesgaba sepultar los viejos dogmas con la aspiración a medir el universo con exactitud, capturando la supuesta perfección platónica que ocultaba.
En esta aspiración a desentrañar la fórmula del mundo, el positivismo no se alejaba de la cosmogonía del pensamiento griego después de Platón y del cristianismo: el universo visto como entidad estática y diseño euclidiano, donde todas las cosas se asocian con su ideal o forma pura y, por tanto, todo puede ser deducido empíricamente.
Todo tendría sentido y, una vez desvelado, este gigantesco engranaje desentrañaría una verdad metafísica similar al universo fatalista de los estoicos o de Baruch Spinoza.
Punto de vista legítimo vs. charlatanería
Las reflexiones de Nietzsche sobre la ciencia y su papel en la civilización han sido a menudo tergiversados para acomodar la reflexión de sus sancionadores. En La gaya ciencia aparecen las explicaciones que el filósofo ampliará en forma de parábola en Así habló Zaratustra.
Con el desprestigio del cristianismo aparece una oportunidad para el pensamiento europeo de desprenderse de la tradición platónica (que influye sobre la ciencia como herramienta “perfecta”, “exacta” y “objetiva”), y abrir la conciencia y los sentidos al mundo, escrutando de nuevo la realidad y celebrando la multiplicidad de puntos de vista.
Pero el perspectivismo de Nietzsche no implica el abrazo temerario de la charlatanería o el relativismo, fenómenos de triste actualidad con el auge de la propaganda personalizada en redes sociales, ahora que la mayoría de la población se pasea con una pantalla en el bolsillo que prioriza lo que es popular y superficial (y rentable) sobre lo que es creíble y elaborado (y, por tanto, más alineado con los intereses a largo plazo de cualquiera).
Un siglo después de que Nietzsche publicara La gaya ciencia y apenas un puñado de amigos y conocidos leyeran el texto (sus ensayos lograrían más tarde la celebridad e influencia que conservan, pese a los intentos de muchos -su hermana, nazi convencida y encargada de su legado entre ellos- por diluir la extensión de su pensamiento), la cibernética empezó a mostrar su auténtico potencial.
Los límites del punto de vista
Era 1982 cuando la agencia de investigación tecnológica en la bahía de San Francisco (ARPA), presentó el protocolo de comunicaciones telemáticas TCP/IP, que permitía a cualquier equipo informático comunicarse remotamente con otro ordenador aunque ambos tuvieran arquitecturas y sistemas operativos distintos. La posibilidad de Internet se materializaba.
Más de tres décadas después (y 136 años después de que Nietzsche alertara contra el inicio del culto al mecanicismo, que aventuraba conflictos a gran escala e intentos de subyugación a nuevas mentalidades de rebaño, más tecnificadas pero en el interior del marco platónico contra el que el pensamiento europeo debía revelarse), las promesas humanistas y democratizadoras de la sociedad del conocimiento están en entredicho, pues el modelo económico que se ha impuesto a las aspiraciones éticas de varios de los protagonistas del inicio de la informática personal, un mundo que permaneció durante años más próximo a oscuros departamentos universitarios y grupúsculos hippies que como apéndice corporativo.
Por si fuera poco, la expansión del teléfono inteligente y las redes sociales ha logrado instalar un relativismo cultural que difunde teorías conspirativas y mina los fundamentos del discurso público en sociedades contemporáneas avanzadas: cuando todo es relativo y no existe una verdad, los charlatanes aprovechan su listeza usando mensajes tendenciosos para inundar la plaza pública de aberraciones tales como “hechos alternativos” y campañas de desinformación que hacen creer que el Papa pide el voto por Trump, que las vacunas causan autismo o que la tierra es plana.
La tierra no es plana
Los “flatearthers“, o entusiastas de la hipótesis que la tierra es plana, se cuentan al parecer por miles en Estados Unidos y usan la herramienta de grupos de Facebook para organizar eventos y poner al día su “realidad alternativa”.
El perspectivismo de Nietzsche no valida estas aberraciones. Al contrario, denuncia la mentalidad dogmática que, llevada al extremo, es capaz de creer que la tierra es plana en la misma época en que un empresario de su país lanza un cohete con un coche en su interior para abandonarlo con éxito flotando en la estratosfera.
La ciencia ficción más influyente del siglo XX se interesó por los efectos de una burocratización cada vez más asfixiante en sociedades e individuos, imaginando métodos de propaganda y lavado de cerebro cada vez más eficaces y deshumanizadores.
Sin embargo, muchos de estos relatos distópicos cometen el error de imaginar mundos subyugados por regímenes totalitarios implacables (el poder omnisciente del Gran Hermano en 1984, o la imparable capacidad sugestiva de Soma, que somete a la población a su voluntad en Un mundo feliz —artículo relacionado—).
Philip K. Dick se acercó con acierto a los conflictos soterrados de la modernidad que nos ha traído a Trump y a los “flatearthers”; un mundo hortera y falible en el que grupos organizados siembran campañas de desinformación en Internet, con bajo presupuesto y con la orquestación de una guerra de guerrillas, más que como peones autómatas a merced de un infalible jugador de ajedrez desplegando su estrategia con sapiencia matemática.
Era de los algoritmos: ética, cibernética y “falsos humanos”
Al sembrar dudas por doquier, la información legítima y elaborada con responsabilidad cae en el mismo saco que el sesgo más tendencioso, debilitando la epistemología sobre la que se asientan conceptos como “verdad” u “objetividad”. Facebook democratizó el muro de sus usuarios presentando noticias de granjas de noticias falsas en Macedonia con investigaciones y análisis fundados, el principio de un mercado de la opinión pública en el que vale todo y la ciudadanía menos preparada para contraponer el ataque con su sentido crítico ponderado no puede fiarse de nada.
Henry Farrell, autor de un ensayo sobre los “falsos humanos” imaginados por Philip K. Dick, reflexiona así sobre el emponzoñado debate público actual, antesala de cambios sociales y epistemológicos más profundos:
“Esta no es la distopía que nos prometieron. No aprendemos a amar al Gran Hermano, que vive —si es que acaso vive—, en un puñado de granjas de servidores, refrigerados por tecnologías respetuosas con el medio ambiente. Ni hemos sido narcotizados por Soma y el cerebro subliminal en una confortable tolerancia de las jerarquías sociales dominantes…”
“…Las utopías y distopías estándar son cada una perfectas a su manera. Vivimos en un lugar más confuso: un mundo en que la tecnología se desarrolla de modos que dificultan cada vez más la distinción entre seres humanos y entidades artificiales. El mundo que Internet y las redes sociales han creado es menos un sistema que una ecología, una proliferación de nichos inesperados, y entidades creadas y adaptadas para explotarlos de manera engañosa. Vastas arquitecturas comerciales que son colonizadas por parásitos cuasi-autónomos. Estafadores que arman algoritmos para escribir libros falsos para venderlos en Amazon, compilando y modificando texto de otros libros y fuentes electrónicas como Wikipedia, para así engañar a los usuarios o aprovechar lagunas técnicas en la estructura de remuneración de Amazon.”
Todavía a hombros de la ingenuidad de Anaxágoras
Nietzsche reconoce en el prefacio de La gaya ciencia que el inicio que canta el libro después de la “aurora” (nombre de su anterior ensayo), este prometedor “mes de abril”, este deshielo después de la larga enfermedad (una enfermedad personal y, a la vez, una metáfora referida a Occidente, que lleva dos milenios absorbida por el dualismo platónico y su negación del cuerpo), puede servirse de las herramientas a nuestro alcance para florecer.
Para que la ciencia pueda ofrecer más y mejores frutos, deberá reconocer su falibilidad y provisionalidad, sugiere Nietzsche en los aforismos del ensayo dedicados a esta “creencia” de los beatos positivistas. Si la ciencia no abandona el platonismo donde ha evolucionado, acabará conformándose con las simplezas e ilusiones de que la sección áurea y otros cálculos explican la esencia de las cosas.
Tomar infinidad de mediciones en una pieza musical no desentrañarán ni siquiera la superficie de lo que la misma pieza representa para nuestro espíritu cuando la escuchamos. La ciencia trata de hacer algo similar con la realidad, reflexiona el pensador alemán.
Siguiendo esta metáfora, la ciencia es hasta el momento -hablamos de la época de Nietzsche- la herramienta de cálculo del mundo que se ha aproximado a la realidad con mayor utilidad: el filósofo no negaba los logros de la Ilustración, pero no se conformaba con reducir el mundo a la medición miope de un nuevo tipo de platonismo sin dios.
El falibilismo había sido muy útil desde que Anaxágoras iniciara la ambiciosa empresa de explicar el mundo sirviéndose de fórmulas revisables y aproximativas, que podían ser afinadas a medida que uno avanzaba en sus mediciones.
Orígenes del pensamiento crítico
Pero el pensamiento crítico de Anaxágoras, que reconocía con humildad la fragilidad de cualquier construcción, abriéndose a aportaciones de sus alumnos (siempre que mejoraran de manera demostrable de sus propios puntos de vista), había sido sustituido después de Sócrates por la teoría de los ideales matemáticamente perfectos de Platón, ese mundo de fantasmas que había levantado a los pensadores del suelo y, en cuestión de generaciones, había logrado lo mismo con el resto de la población, originando lo que Nietzsche llamó despectivamente “moral de rebaño”.
¿Por qué no elegir su propia moral? ¿Por qué no reconocer el falibilismo de la ciencia? Nietzsche invita en La gaya ciencia a dejar atrás la moral de amos y esclavos, y a servirse de las enseñanzas más nobles de la tradición occidental, siempre y cuando se acomoden a una necesidad de exploración y expansión de la realidad a la que deben aspirar sociedades y personas.
Una ciencia que reconoce con humildad que se sirve de conjeturas, y no de verdades; de puntos de vista, y no de axiomas objetivos; podrá ser útil.
Nietzsche dedica el párrafo 363 del quinto libro de La gaya ciencia a reflexionar sobre lo que empezaba a vislumbrarse entonces, un mundo en el que nos hemos adentrado de pleno, colonizado por un mercado de hologramas y postureo que atenta contra cualquier atisbo de autenticidad y humanidad.
Cuando empieza el deshielo
Tanto en Aurora como en Humano, demasiado humano, Nietzsche empieza a desenmascarar el uso de la ciencia como dogma de fe, y en La gaya ciencia culmina esta reflexión:
“¿Queremos realmente dejar que la existencia se degrade (…) hasta convertirse en un ejercicio de máquina de calcular y en una ocupación de matemáticos ratones de biblioteca? Sobre todo, no se puede querer despojar la existencia de su carácter ‘ambiguo’ [énfasis de Nietzsche]: así lo exige el ‘buen’ gusto, señores míos, sobre todo el gusto de la veneración por todo lo que excede vuestros horizontes! Que únicamente esté justificada una interpretación del mundo en la que ‘vosotros’ estéis justificados, en la que se pueda investigar y seguir trabajando científicamente en ‘vuestro’ sentido (¿queréis decir realmente en sentido mecanicista?), una interpretación del mundo que permita contar, calcular, pesar, ver y coger, y nada más, es una tosquedad y una ingenuidad, suponiendo que no sea una enfermedad mental, una idiocia.”
“O, a la inversa, ¿no os parece harto probable que sea precisamente lo más superficial y externo de la existencia —lo más aparente de ella, su piel y sensualización— lo primero que se deja captar? Una interpretación ‘científica’ del mundo, tal y como vosotros la entendéis, podría seguir siendo, en consecuencia, una de las más ‘estúpidas’, es decir, una de las más pobres en sentido de todas las interpretaciones del mundo posibles: dicho esto al oído y a la conciencia a los señores mecanicistas que hoy en día gustan de correr a introducirse entre los filósofos, y que piensan de todas todas que el mecanicismo es la doctrina de las leyes primeras y últimas sobre las que toda la existencia tiene que estar edificada como sobre su base.”
Cuando el mecanicismo trató de contener el mundo en una fórmula
Dos párrafos que explican la diferencia irreconciliable entre la autoproclamada filosofía analítica, que en la actualidad sueña con modelos de inteligencia artificial capaces de reproducir la conciencia humana (siguiendo el esquema reduccionista de los primeros mecanicistas), y la filosofía continental, más atenta al fenómeno —reconocido por la ciencia— del emergentismo, o de eventos cuyo resultado es superior a la mera suma de sus componentes.
El vitalismo y perspectivismo de Nietzsche y Bergson están más cerca de la ciencia después de la teoría general de la relatividad y de los hallazgos más sorprendentes —y aparentemente incoherentes, según la ciencia de espíritu dogmático— de la física cuántica; sin embargo, el esfuerzo por instaurar la ciencia como nueva religión y, por tanto, garante del reduccionismo de inspiración platónica, sigue en marcha, con epicentro en Silicon Valley.
Que las empresas tecnológicas con una apuesta más ambiciosa por la inteligencia artificial y el aprendizaje automático se encuentren en un serio apuro debido al impacto de la desinformación en las plataformas que han creado para que los usuarios consulten e intercambien contenido, es un síntoma de la falta de interés de Silicon Valley por soluciones que impliquen el uso de personas sustituyendo a algoritmos en los trabajos más sensibles, y no a la inversa.
Todo lo que implique contratar a humanos con una sólida formación en humanidades, es una decisión regresiva en un entorno que se ha vanagloriado de “engullir el mundo” con su software, acelerando la sustitución de humanos en tareas donde el reconocimiento de patrones es primordial.
La futura dialéctica entre utilidad y ética
Ha bastado una crisis de imagen y credibilidad, así como la exposición pública de la falta de ética que implica distribuir contenido sin mayor filtro editorial que la maximización de beneficios, para que Facebook y sus competidores reconozcan que, en cuestiones donde dominan las sutilidades del punto de vista humano, un ser humano con sentido común y ganas de aprender se impone a cualquier algoritmo.
Cuando se trata de evaluar la desinformación y sesgo interesado de la información, la inteligencia artificial necesita la asistencia humana, y los operarios capaces de mejorar el comportamiento de algoritmos con su juicio al filtrar información lograrán mejorar con rapidez el reconocimiento de patrones; el ecosistema informativo en las redes sociales no mejorará su calidad si los intereses utilitaristas (lograr más beneficios) no son equilibrados con otras decisiones que ponderen no sólo el rendimiento económico y la popularidad, sino otras consideraciones editoriales.
¿Es posible automatizar un sistema más equilibrado de información? Mike Loukides, directivo de la editorial técnica O’Reilly Media, explica en un importante artículo por qué no es tan fácil armar un sistema “justo” (“a fair system”): la respuesta nos conduce a las reflexiones de Friedrich Nietzsche sobre las limitaciones del canon científico, empecinado en confundir un puñado de mediciones relevantes por la realidad. Dicho de otro modo: hay tantos puntos de vista sobre lo que es justo como matices relacionados con el contexto cultural, la educación de un individuo, sus circunstancias coyunturales, su personalidad, etc.
Todo modelo es pensado desde una epistemología previa
¿Puede un software dedicado a combatir el crimen comportarse de una manera justa y no discriminatoria con las minorías (tal y como explicaba ProPublica en su análisis del sistema Compass), si su propio diseño y fundación parten de un contexto que ha interiorizado comportamientos que justificarían la deriva discriminatoria? ¿Hasta qué punto los juicios personales son objetivables?
Cualquier periodista con un mínimo de escrúpulos, o cualquier juez que trate de ser fiel al carácter interrogativo e interpretativo de su profesión, reconocerán que los valores y códigos deontológicos que los guían son apenas una referencia y, a menudo, sus decisiones más acertadas deben bregar con consideraciones que un algoritmo no ponderaría.
Hay sistemas humanos que optan por adaptar la “justicia”, la “verdad” (siempre una conjetura parcial y dependiente de un punto de vista) y otros conceptos similares que parten de marcos de conocimiento compartidos sobre los que existe consenso: aunque conozcamos los límites y conceptos como la “objetividad”, imaginamos un marco de pensamiento que nos acerque más a sus supuestas características que al sesgo descarado.
Esta cultura consensuada para interpretar la realidad, o epistemología, evoluciona con las sociedades y circunstancias históricas: hace un siglo las mujeres no podían votar, y hasta hace un puñado de décadas la legislación de los Estados sureños de Estados Unidos no sólo justificaban la segregación racial, sino que la interpretaban como medida justa y ponderada. Del mismo modo, las leyes eugenésicas de varios países incluyeron programas para esterilizar a poblaciones por su supuesta impureza mental, física o racial.
Nuestras herramientas parten de nuestras circunstancias
La epistemología varía en función de la sociedad, el momento histórico y el consenso en organizaciones humanas tan etéreas como la “opinión pública” (un concepto que se desarrolla con las democracias liberales a inicios de la Ilustración); la alternativa al uso de una epistemología acordada es la arbitrariedad o el caos inconsistente de las sociedades en fallida o en guerra, donde hasta las normas de humanidad que consideramos fundamentales se esfuman con facilidad.
Abundan las reflexiones sobre la fragilidad de los valores humanistas sometidos a la presión adecuada; Ensayo sobre la ceguera, de José Saramago, o La carretera, de Cormac McCarthy, ambas novelas adaptadas al cine, ilustran esta fragilidad.
En su artículo sobre cómo crear sistemas informáticos que aprendan un concepto de “justicia” -una epistemología ética-, Mike Loukides identifica la dificultad de una tarea tan difícil de definir como lo es el propio significado de modelos probabilísticos “justos”, pues lo que es justo matemáticamente (por ejemplo, medir sólo los síntomas externos), puede acabar no siéndolo en la práctica.
Loukides recuerda que se han publicado varios artículos sobre justicia y sesgo, que no hacen más que constatar por qué estos complejos sistemas acaban mostrando flagrantes desequilibrios, una vez se topan con la complejidad del comportamiento humano.
“La naturaleza de la propia información presenta un problema fundamental. Lo ‘justo’ es un valor aspiracional: queremos ser justo, esperamos ser justo. La justicia tiene mucho más que ver con romper con nuestro pasado y trascenderlo que con replicarlo. Pero la información es, de manera inevitable, histórica, y refleja todos los prejuicios y sesgos del pasado. Si nuestros sistemas funcionan con información, pueden ser ‘justos’? ¿O simplemente legitiman sesgos históricos bajo el disfraz de la ciencia y las matemáticas?”
¿Es posible una Internet más justa?
Son reflexiones sobre las que advertía Nietzsche. A medida que tratamos de acomodar las humanidades y las ciencias sociales en un mundo científico y pretendidamente cuantificado, aparecen las distorsiones. Y hablar de problemas con el concepto “justicia” es hacerlo con cualquier otro concepto epistemológico, como “objetividad”.
Esta limitación podría ser explotada tanto por los servicios de Internet que quieran justificar su supuesta impotencia para atajar el contenido propagandístico, falso o de dudosa calidad, como por quienes se sirven de estas nuevas herramientas para desinformar u obtener algún tipo de contrapartida.
Lo que ha quedado claro en los dos últimos años es el desequilibrio entre intereses económicos y éticos en la Internet comercial, cuyo poder se ha multiplicado a medida que el teléfono inteligente se ha adentrado en nuestra vida cotidiana hasta erigirse en mediador de nuestras aspiraciones y testigo interesado de nuestros tics cotidianos (cuyos patrones serán estudiados, esos sí, con los recursos necesarios que aceleren su explotación).
Un primer paso es reconocer el problema. Otro paso necesario, emprendido tarde y a regañadientes, es el nacimiento (a buenas horas) de cursos dedicados de ética en las facultades de ciencia computacional más prestigiosas, incluyendo Stanford y el MIT.
La crisis de los relativistas
La coherencia epistemológica depende del espíritu crítico de las individualidades que conforman una sociedad. Las herramientas que surgieron en el seno de las sociedades abiertas más prósperas podrían limitar la capacidad de estas sociedades para reconocerse a sí mismas y consensuar conceptos esenciales como el de “justicia” o “realidad”; aunque sus definiciones sean, por definición, provisionales, refutables y sustituibles por mejores modelos, su salud nos separa de las sociedades que han olvidado la diferencia entre lo que es tolerable y lo que no debe serlo.
Atacar a la prensa libre y afirmar que los hechos demostrados son “falsos”, proclamando a la vez que cualquier montaje es un “hecho alternativo” veraz, es una deriva hacia modelos de relativismo que pensadores como Hannah Arendt (Los orígenes del totalitarismo) o Karl Popper (La sociedad abierta y sus enemigos), se apresuraron a denunciar.
Ambos, conocedores de la obra de Nietzsche y víctimas de la deriva totalitaria de la Europa de entreguerras, eran conscientes de su fragilidad.
En el libro V de La gaya ciencia, el autor deja a un lado cualquier remilgo y despliega su filosofía de la existencia, consciente que necesitará otro libro, escrito como una parábola (un evangelio que afirme, para contrarrestar los evangelios abrahámicos, que institucionalizan la cultura de la negación, desde los mandamientos a la negación del cuerpo y la vida en la tierra): “Así habló zaratustra”.
Interpretar mejor implica tener en cuenta nuestra humanidad, no enterrarla
Es en este libro V cuando nos adentramos en el regalo de Nietzsche a los filósofos posteriores: un marco ajeno a la tradición negadora del platonismo, una filosofía de la existencia “que dice sí”, como el comienzo que representa el mes de enero después de las saturnales (fiestas romanas de final de año, momento de acumulación de esperanza sobre lo que está por llegar). En alemán, “sí” y el inicio de la palabra “enero” son la misma “afirmación” (“Ja” y “Ja-nuar”).
Volver a empezar. En esta ocasión, afirmando, eligiendo el propio camino, creando, cultivando un propósito personal: para Nietzsche, existir equivale a “interpretar”.
El mundo, por tanto, podría estar compuesto por personas que afirman en vez de negar, que interpretan el mundo en función de sus circunstancias y voluntad de cultivar su propio potencial.
Cualquier sistema que pretenda erigir el equivalente a los valores humanistas de “ética”, “justicia” u “objetividad” en Internet, deberá reconocer primero que el valor más humano es nuestra necesidad de interpretar el mundo.
Cualquier algoritmo que trate de suprimir o minimizar la necesidad humana de interpretar la realidad está condenado al fracaso. Los diseñadores de algoritmos deberían abandonar la búsqueda del ideal platónico de “verdad” u “objetividad”, y permitir una discusión que deberá ser también epistemológica y filosófica.
La filosofía, ninguneada y maltratada en la era cibernética, vuelve a un momento fundacional como el de Anaximandro, cuyo legado, el del sentido crítico, deberá ser renovado.