Es fácil olvidar que las herramientas que nos acompañan en lo cotidiano son un diseño concebido como una convención, y son fruto de decisiones que optaron por unas metáforas y lenguajes de patrones, descartando en el proceso otras metáforas igualmente válidas.
En pleno siglo XIX, la Ilustración hizo creer a los entusiastas del positivismo que incluso la mente humana se podría reproducir mecánicamente, al considerar que cualquier sistema complejo podía replicarse artificialmente si se lograban calcular sus partes con procedimientos lógicos.
Esta aspiración última al sueño del moderno Prometeo de reducir toda realidad al racionalismo se moverá entre dos personajes de la literatura británica:
- el sueño de la transubstanciación de la tecnología en vida descrita en Frankenstein (1818), que 200 años más tarde sigue vivo en el ideal hombre-máquina (transhumanismo) de empresarios e ideólogos de Silicon Valley;
- y el reconocimiento del carácter emergente e imprevisible de realidades complejas como la conciencia humana del doctor Henry Jekyll y su alter ego Edward Hyde (1886).
Ambas obras marcan el inicio y el fin conceptual del siglo XIX, dos momentos del pensamiento positivista que se corresponden con dos estados de ánimo: las esperanzas de la técnica y el progreso, a inicios de siglo; y la constatación de la complejidad de los fenómenos no reductibles al pensamiento mecanicista, a finales de éste.
Antesala de la aceleración actual
El siglo de las grandes ideologías surgidas del idealismo (marxismo, nacionalismo) y de su crítica existencialista (anarquismo), nihilismo), vio también el inicio de la aceleración tecnológica: la máquina de vapor, la locomotora, el telégrafo, el teléfono, el rifle, los barcos acorazados, la luz eléctrica y el motor de explosión.
Pero el XIX no se entendería sin un avance más sutil, pero mucho más consecuente: el surgimiento de la ciencia de la información como disciplina científica y su materialización en la primera “máquina analítica” (1837), imaginada por Charles Babbage y ejecutada con éxito por Ada Lovelace (Walter Isaacson explica su historia en The Innovators -2014-).
¿Podemos hablar de coincidencia, al constatar que Ada Lovelace, hija del poeta romántico Lord Byron, frecuentó el círculo intelectual y conoció a los íntimos que acompañaron a su padre en un viaje a Ginebra, cumbre simbólica del romanticismo británico. Entre ellos, el matrimonio Shelley. Mary Shelley concebiría la idea para su novela Frankenstein durante el periplo.
Más allá de la lógica del verdadero/falso
Mientras Mary Shelley reflexionaba sobre el potencial y riesgos del dominio tecnológico sobre la naturaleza, Ada Lovelace construía el primer dispositivo mecánico con la estructura lógica que, un siglo después, en plena II Guerra Mundial, inspiraría las primeras computadoras modernas, antesala de la computación digital.
Pero los orígenes del marco computacional que nos han llevado a las bases de datos distribuidas o a la capacidad de cálculo del iPhone X se remontan a decisiones muy anteriores. Nuestros dispositivos usan procesadores, lenguajes de programación y aplicaciones que parten de una larga preferencia histórica por el sistema binario, si bien existen otras posibilidades matemáticas que podrían haber creado otro estado de las cosas.
En plena Guerra Fría, por ejemplo, cuando la inteligencia militar y la carrera Espacial alentaban el desarrollo de grandes ordenadores experimentales, la URSS experimentó con una computadora de lógica ternaria; este ordenador ternario, Setun, pretendía desarrollar una lógica de procesos distinta.
Pronto, quedó claro que ésta nueva conectiva lógica ajena debía abandonar el marco de pensamiento aristotélico que, a través de Averroes y Llull, había influido sobre Leibniz, las primeras máquinas analógicas, la lógica proposicional booleana y el diseño de transistores (que se beneficiaron del dualismo 1/0, encendido y apagado).
Arte combinatoria: el Eureka particular de Leibniz
Al adentrarse en las reflexiones de Ramon Llull en su Ars Magna (siglo XIII), que bebían de fuentes aristotélicas, pero también de las matemáticas y astrología árabes, así como la cábala (que había florecido en Sefarad, la comunidad judía ibérica), Gottfried Leibniz comprendió que en el trabajo del franciscano mallorquín empezaba la modernidad de la lógica binaria: un “alfabeto del pensamiento humano” que podía automatizarse mediante la combinación de letras, o el uso de las matemáticas para combinar proposiciones lógicas y respuestas binarias a éstas.
Leibniz publicó en 1666 Dissertatio de arte combinatoria, una disertación doctoral sobre su febril descubrimiento de las posibilidades de la lógica binaria, un mecanismo automatizado que se convertiría en una “lógica de la invención”: como todas las oraciones se componen de un sujeto y un predicado, es posible:
- encontrar todos los predicados apropiados para un sujeto;
- o encontrar todos los sujetos apropiados para un predicado dado.
Una combinación de bloques binarios que podía conformar complejos edificios del pensamiento.
“En relación con esto [las posibilidades combinatorias de la lógica binaria], cuando emerja una controversia, habrá tanta necesidad de que dos filósofos discutan sobre ello como que lo hagan dos ‘calculadores’. Bastará con agarrar una pluma, sentarse a la mesa y decirse mutuamente: ‘¡A calcular!’.”
Lógica cuántica
Esta herramienta conceptual, una vez puesta en marcha, se alimentaría de manera autónoma, conformando un automatismo conceptual cada vez más complejo. Siguiendo el ejemplo de Blaise Pascal, Leibniz ideó su propio mecanismo de cálculo proposicional.
Los orígenes binarios de la computación occidental explican, por tanto, la evolución que ha permitido que escriba esto sobre un portátil, o que un poco más allá la supercomputadora de bolsillo que forma parte de la vida cotidiana de los adultos de hoy espere, durmiente (las alertas “no humanas” están desactivadas), a que el humano más cercano despierte su potencial de cálculo.
¿Qué habría ocurrido si, en vez de haberse formado en la lógica binaria de Aristóteles, Averroes, el dúo escolástico Bacon-Llull influido por el anterior, y Leibniz, los británicos Charles Babbage y George Boole hubieran crecido en un contexto intelectual académico distinto al occidental, dominado por ejemplo por la lógica ternaria, con tres valores (verdadero, falso y un tercer valor) en lugar de dos?
¿Y qué ocurriría hoy si el cúbit, o bit cuántico (indeterminado hasta manifestarse en una operación), hubiera despertado mayor interés desde que John von Neumann y Garrett Birkhoff desarrollaran por primera vez (1936) el concepto de lógica cuántica?
La larga sombra de un franciscano mallorquín del siglo XIII
La realidad es que, cuando hablamos en la actualidad de avances, tecnologías, invenciones, empresarios, etc., lo hacemos sobre el marco de lógica binaria que vio nacer la Ars Magna. Y no nos hemos alejado tanto como creemos del monje franciscano mallorquín del siglo XIII.
Antes de que los lenguajes de programación funcionaran como el equivalente virtual de un juego de bloques interconectables, de la existencia de Internet o la informática personal, y mucho antes de que ni siquiera imagináramos llevar supercomputadoras de bolsillo interconectadas a una red de información global, un puñado de académicos y documentos inspiraron la evolución que conocemos y orientaron la dirección a tomar en cada encrucijada, descartando evoluciones que nos habrían conducido a otro estado de cosas.
Desde las abstracciones o -literalmente- cábalas del filósofo escolástico mallorquín Ramon Llull, cuyo sistema lógico mecánico pretendía automatizar la respuesta (verdadera o falsa) a determinadas proposiciones filosóficas, los precursores de la ciencia de la información especularon con la posibilidad de automatizar procesos lógicos.
Ramon Llull se había conocía el trabajo lógico de su coetáneo escolástico y, como él, franciscano especialista en Aristóteles, Roger Bacon (transformado por Umberto Eco en Guillermo de Baskerville, el Sherlock Holmes medieval de El nombre de la rosa), y lo usó para concebir su máquina lógica de sujetos, predicados y formas geométricas.
Adentrarse en el laberinto del I Ching es leer a Borges
Esta polinización cruzada entre dos polímatas aristotélicos del siglo XIII cimentaría en el siglo XVIII el trabajo de Gottfried Leibniz, que se serviría de Llull y de los hexagramas chinos del I Ching chino para concebir el sistema binario, o arquitectura para automatizar el pensamiento lógico con una aritmética simplificada a base de ceros y unos:
- el equivalente al resultado “verdadero” y “falso” de las proposiciones teológicas en la Ars Magna de Llull;
- o, si tomamos la estructura de los 64 hexagramas que componen el I Ching, cada hexagrama consta de 6 líneas horizontales apiladas, que pueden ser ininterrumpidas o sólidas (Yang), o bien incluir un espacio o interrupción en su centro (Yang); la oposición Yin/Yang equivale al sistema binario luliano verdadero/falso.
Olvidamos que, desde la época de Ramon Llull, el “arte” de automatizar el proceso de información se ha desarrollado en función de nuestra manera de ver el mundo, de organizar el conocimiento y de imaginar procesos prácticos que puedan mejorar nuestra vida: desde soñar con máquinas que demostraran la supuesta infalibilidad del cristianismo (el objetivo de Llull), a máquinas lógicas capaces de automatizar grandes cálculos (primero, Gottfried Leibniz; y, a mediados del XIX, el tándem Babbage-Lovelace con su “máquina analítica”, y el trabajo conceptual de George Boole con su álgebra -1854-, un “sistema de lógica” que simplificaba el diseño binario y facilitaría un siglo después el diseño de transistores).
De las reflexiones de Turing a la persecución publicitaria de hoy
La manera en que nos enfrentamos a diario al teclado y la pantalla del -a menudo- ordenador portátil, rodeados de otros utensilios que rugen con alertas por nuestra atención, habría tomado otra forma o simplemente no se habría producido, sin las aportaciones de un puñado de teóricos de la ciencia de la información y, luego, la ciencia computacional.
Entre ellos, Alan Turing, que estableció los límites filosóficos entre conciencia humana y máquina, además de fundar a lo grande el análisis criptográfico moderno, diseñando buena parte de la máquina criptoanalítica que descodificó el lenguaje cifrado alemán Enigma.
El diseño inicial del dispositivo electromecánico que el Reino Unido usó para descifrar los mensajes codificados de la máquina Enigma, fue producido por Alan Turing en 1939, primer año de la II Guerra Mundial, mientras 1945, último año de la contienda, vio la publicación de los dos artículos que iniciarían el mundo que hoy reconocemos, dominado por terminales de computación y redes telemáticas ubicuas.
El primer documento, un informe técnico firmado por el matemático húngaro-estadounidense John von Neumann, describía la estructura del ordenador digital: unidad de proceso; unidad de control para instrucciones y programa; memoria para almacenar datos e instrucciones; almacenamiento externo (posteriormente, el disco duro); y mecanismos de entrada y salida (conexión de dispositivos periféricos).
“Cómo podríamos pensar”: Memex
El segundo documento, firmado por Vannevar Bush, fue publicado en The Atlantic en forma de artículo conceptual de trasfondo filosófico. El artículo (Cómo podríamos pensar) describía Memex, un índice o “fichero de conocimiento personal” con una pantalla como interfaz que permitiera acceder, a todo tipo de documentos o unidades de conocimiento.
Este esquema de relación capilar entre documentos (concebido a partir de la metáfora de la asociación de ideas a partir de la actividad de redes neuronales en nuestro cerebro) que inspiraría el hipertexto, las bases de datos o la propia World Wide Web.
Las aportaciones fundacionales de Alan Turing, John von Neumann y Vannevar Bush parten de un marco de pensamiento y son fruto de determinadas escuelas de pensamiento.
La tradición cultural occidental influyó en la trayectoria del diseño interno de los sistemas informáticos que han transformado sociedades, trabajo y estilo de vida: de la lógica aristotélica al anhelo de su materialización para su uso en cuestiones concretas (Llull, a través de las traducciones y comentarios de Averroes sobre Aristóteles), base de la computadora analógica y la álgebra booleana de mediados del XIX.
Organizar a partir de una metáfora gráfica
La “máquina analógica” y el álgebra booleana posibilitaban, un siglo antes del inicio de la informática moderna, el diseño de la computadora: la invención de Babbage y Lovelace define la Unidad Central de Proceso (CPU), y el álgebra booleana servirá como cimientos de la electrónica, pues su lógica dual (“Las interpretaciones respectivas de los símbolos 0 y 1 en el sistema de lógica son Nada y Universo”) describirá el uso de circuitos y transistores.
Hasta aquí, las entrañas de la máquina. Pero, una vez existe el marco que albergue operaciones cada vez más complejas con un límite hipotético imaginado por Turing y por la hipótesis de la singularidad tecnológica, ¿qué ocurre con el proceso, almacenamiento, reproducción y transmisión de los datos ejecutados?
Décadas después de que las gigantescas computadoras, con proceso limitado y un tamaño equivalente a laboratorios enteros, ocuparan el esfuerzo de un puñado de usuarios afortunados en comprender su lógica y reproducir -con un poco de suerte, sin errores que implicaban repetir desde cero procesos de horas-, un grupo de idealistas empezó a dar vueltas a la posibilidad de “aumentar” las capacidades humanas con un “ordenador personal”.
Las primeras abstracciones entre lógica y representaciones gráficas de esta lógica (en forma de objetos geométricos, o cosas del mundo real), inspirarían mucho más tarde, en plena eclosión de esta informática personal, la programación orientada a objetos, base del mundo digital enriquecido (y cada vez más claramente inmersivo, con sus ventajas y riesgos adictivos) de la actualidad.
John von Neumann y nuestro ordenador
En paralelo con estos avances técnicos a partir de marcos conceptuales de inspiración filosófica (remontándonos a Aristóteles, al I Ching, a Ramon Llull, a Gottfried Leibniz), un reducido grupo de personas elaboraron un puñado de documentos que encapsularían la evolución exponencial de la informática: hasta ahora, la miniaturización de transistores y la simplificación del mismo tipo de álgebra han multiplicado periódicamente la capacidad de proceso (ley de Moore), pero los propios límites de materiales y diseño conceptual aventuran un relativo estancamiento del esquema informático descrito.
La ley de Moore muestra síntomas de agotamiento debido a los límites de materiales (silicio y alternativas) y estructura, la informática cuántica -con la legendaria indeterminación de sus cúbits– no está preparada, por mucho que su promesa alimente especulaciones que empequeñecen avances actuales en aprendizaje de máquinas y pseudo-inteligencia artificial.
Mientras tanto, los servicios que creíamos que aceleraban el proceso humano, se acercan con peligrosidad a la caricatura de las novelas de ciencia ficción con un futuro distópico en que máquinas o monopolizadores de sus procesos esclavizan la atención de la humanidad.
En el informe de Von Neumann fechado en 1939 aparece ya el esquema de lo que décadas más tarde se convertirá en ordenador personal; pero para que la informática se convierta en una herramienta de “aumentación”, sus pioneros tratarán hacerla más comprensible para el gran público, sirviéndose de de la metáfora gráfica que habían desarrollado los investigadores del centro de innovación de Xerox en Palo Alto (PARC): la marca no aprovechó el trabajo de sus diseñadores y programadores pioneros, algo que sí hicieron dos de sus visitantes, prácticamente adolescentes: Steve Jobs y Bill Gates.
¿Aumentando nuestras capacidades?
Ni la interfaz gráfica de usuario (GUI), ni la invención del ratón, de programas de uso diario o de la impresora láser modificaron una realidad: la informática partía de un esquema que sólo se beneficiaría de la miniaturización de los transistores para aumentar la capacidad de proceso, usando la arquitectura imaginada ya por Ada Lovelace y George Boole a mediados del siglo XIX.
El universo conceptual tuvo un desarrollo más radical: la metáfora de Memex no pasó desapercibida para el mundo académico, intelectual y contracultural de lugares como la incipiente Silicon Valley.
El nacimiento de los primeros protocolos de lo que posteriormente se convertiría en Internet confirmó la viabilidad de una arquitectura de comunicación capilar y descentralizada, con nodos autónomos que sobrevivirían incluso a un eventual ataque a gran escala.
Partiendo de la idea de crear un repositorio de conocimiento con acceso a documentos multimedia a los que se pudiera acceder al instante sirviéndose de “accesos directos” (ideas, palabras clave, etc.), que Vannevar Bush ya había mencionado en su artículo para The Atlantic en 1945, los entusiastas del comunalismo libertario de la bahía de San Francisco apostaron por una cibernética que asistiera al desarrollo del potencial humano, a la vez individualista y democratizadora, que convirtiera a cada programador y usuario en artesanos en contacto con otros artesanos, sirviéndose de una “máquina de aumentación humana”.
Hippies, demos y hackers
Este inicio idealista de la informática personal y ARPANET contrasta con su evolución posterior, que ha tendido al control monopolístico (artículo de The Economist) en que nos encontramos en la actualidad, con grandes riesgos para la salud de los usuarios, las economías locales o incluso la evolución de la democracia (al ser más barato y sencillo que nunca influir sobre la opinión de millones de personas, esta vez usando propaganda personalizada que mejora rápidamente su efectividad).
ARPANET, infraestructura de comunicación precursora de Internet, fue financiada con presupuesto militar (agencia DARPA) pero en contacto con los hippies de la escena académica, cultural y contestataria de la zona, tal y como explica John Markoff en su ensayo What the Dormouse Said. Stewart Brand, uno de los protagonistas a caballo entre el mundo académico, el tecnológico y el contracultural, resumía los orígenes de la ética hacker en un artículo para Time (primavera de 1995).
Brand fue colaborador de Doug Engelbart, cuya presentación de 1968 (“la madre de todas las demos”) avanzó el aspecto y funciones del ordenador personal moderno e Internet, mostrando aparatos hasta entonces no materializados. Entre ellos, el ratón, la videoconferencia, la teleconferencia y el hipertexto.
Esta permeabilidad de ideas y proyectos, de abundante inversión pública y una cierta promiscuidad y diletantismo intelectuales -con escenarios como el Homebrew Computer Club-, explican la influencia de proyectos idealistas con espíritu subversivo como Project Xanadu, fundado en 1960 por Ted Nelson y considerado el primer proyecto sólido de hipertexto.
La Red que pudo ser: Proyecto Xanadú
Nelson estaba dispuesto a hacer realidad el sueño de Memex: “un esquema de repositorio digital para la publicación electrónica mundial”; el ordenador personal no se había desarrollado todavía cuando Nelson había propuesto ya un programa informático que funcionara en cualquier ordenador binario, capaz de almacenar y servir documentos para su consulta, así como la habilidad de edición.
Esta descripción de Ted Nelson inspiró los primeros editores de texto, así como la blogosfera. El Proyecto Xanadú fue uno de los precursores conceptuales de la infraestructura que ha pasado a conocerse como sociedad del conocimiento; sin embargo, su espíritu abierto, democratizador y fervorosamente independiente cayó en el olvido, sirviendo apenas de inspiración para la World Wide Web y el uso cada vez más residual del hipertexto.
En la actualidad, con apenas cinco empresas repartiéndose nuestra atención y priorizando la utilidad económica de los servicios prestados por encima de consideraciones como la salud o los intereses a largo plazo del usuario, voces como la de Ted Nelson recuperan la frescura que nunca deberían haber perdido.
El ciudadano programador
En una entrevista reciente, Nelson reflexionaba sobre el mundo tecnológico que hemos erigido, mucho más utilitarista y comercial que ético y humanista, donde el hedonismo exhibicionista y el contenido superficial parece ganar la batalla al florecimiento intelectual de los usuarios a través de contenidos de caducidad más lenta y enriquecedora, a la vez que menos adictiva.
“Cuando miramos al pasado del mundo de la computación, lo hacemos a través de una lente bastante peculiar, porque las cosas han cambiado tanto y tan rápido que, para mí, esos 50 años desde que empecé en el campo de la computación han ido tan rápido que el pasado parece siempre presente.
“En los 60 y 70, mucha gente joven fundó comunas, con experimentos en: ‘amor libre’, un término que uno ha dejado de oír porque lo damos por hecho; [experimentación con] marihuana, LSD; idealismo; y esperanzas en un nuevo tipo de economía… Y el espíritu de esa época se extendió al mundo de la informática.
“Al principio, existía la sensación de que todo era posible, que es diferente [a la mentalidad actual en la sociedad del conocimiento], porque pensamos que el mundo de la informática sería artesanal. No imaginamos grandes monopolios: creímos que el ‘ciudadano programador’ sería el conductor…”
Contribuir a un nuevo marco con lo que se pueda
Stephen Cass resalta acertadamente en su artículo para IEEE Spectrum que ha llegado el momento de escuchar a quienes asistieron al diseño y la creación del mundo técnico convertido en la infraestructura de la sociedad del conocimiento, porque ellos sabrán explicarnos que el desarrollo narcisístico y comercial de muchas herramientas no es fruto de una evolución natural e inevitable, sino fruto de decisiones que pueden criticarse y modificarse.
Don't bury Xanadu (or the mutualist potential of distributed databases, for that matter). Ted Nelson: "We thought computing would be artisanal. We did not imagine large monopolies. We thought the Citizen Programmer would be the leader." https://t.co/dloIjvjdVr
— Nicolás Boullosa (@faircompanies) February 5, 2018
Para hacerlo, el usuario tecnológico, que a estas alturas está compuesto por la mayoría de adultos del mundo, deberá recuperar su sentido crítico, demandando la autonomía de su atención y su estatuto de “ciudadano” de Internet, pues el “usuario” se ha convertido en equivalente a sujeto pasivo con atención que vender y capacidad de compra sobre la que influir.
Y así, devolver al inicio de una distopía su sentido inicial de principio utópico, de repositorio para ampliar las capacidades de cualquier ser humano que así lo desee. Quizá entonces, estaremos listos incluso para reflexionar sobre la estructura binaria de nuestras máquinas, explorando otras alternativas.
Se trate de computación ternaria, informática cuántica… o sistemas de conectiva lógica que todavía no hemos explorado.
Pingback: Ecología de la mente y el entorno: ¿una nueva mirada al mundo? – *faircompanies()
Pingback: Biomimética: el lado biológico de arquitectura y computación – *faircompanies()
Pingback: Polizones en Mirrorworld: surfeo informal entre plataformas – *faircompanies()