La literatura y el cine de ciencia ficción han soñado con mundos utópicos -y distópicos- donde prevalece una conciencia colectiva, como si una especie de fractal universal extrapolara el diseño neuronal a una especie de conexión de toda la humanidad.
Esta conciencia colectiva o mente “en colmena” (“hive mind“) se inspira en teorías filosóficas (panteísmo), científicas (hipótesis de Gaia) y tecnológicas (el diseño de la propia Internet) para teorizar sobre una hipotética red entre la conciencia de distintas personas cuando los avances tecnológicos hicieran realidad la telepatía.
Interfaces cerebro-máquina: potencial y riesgos
La idea suscita incluso más dudas éticas para las próximas décadas que tecnológicas. ¿Dónde acabaría la libertad individual y empezaría la “colaboración” entre distintas conciencias? ¿Se puede evitar la tentación de personas y entes por controlar “transacciones” entre conciencias o las propias conciencias?
De momento, la propia idea de experimentar con constelaciones de mentes (redes conciencias interconectadas telepáticamente) o incluso una gigantesca mente en colmena que integrara a toda la humanidad, suena poco plausible, incluso en el contexto de la ciencia ficción.
Intermediación informática entre cerebros
No obstante, varios avances harán posible -si la ética y las leyes humanas lo permiten- la telepatía, el intercambio de información entre cerebros, usando interfaces de usuario entre distintas mentes, a través de una intermediación informática a través de una interfaz cerebro-ordenador (BMI o “brain-machine interface“).
- investigadores liderados por el neurocientífico Miguel Nicolelis de la universidad de Duke han creado un “enlace” electrónico entre los cerebros de 2 ratas separadas entre sí por miles de kilómetros (consultar estudio en Nature), de tal modo que las señales procedentes del cerebro de una rata ayudaron a la otra a resolver enigmas mentales básicos (la bitácora futurista io9 explica el funcionamiento de la interfaz “de mente a mente” usada);
- el mismo Miguel Nicolelis publicó en 2011 los detalles de la primera interfaz cerebro-computadora con un enlace bidireccional entre un cerebro y un ente virtual, con la que un chimpancé pudo no sólo controlar un brazo simulado, sino recibir la información sensorial relacionada con el tacto (textura, temperatura, etc.);
- de nuevo el equipo de Nicolelis, logró recientemente que un grupo de ratas detecten luz infrarroja normalmente invisible usando su sentido del tacto, también mediante una interfaz cerebro-computadora.
Potencial y riesgos del “pensamiento humano en red”
En relación con el experimento telepático usando una interfaz BMI, Miguel Nicolelis ha explicado a Nature que “no podemos predecir qué tipos de propiedades emergentes aparecerían cuando los animales empezaran a interactuar como parte de una red de cerebros”.
“En teoría -prosigue Nicolelis- uno podría imaginar que una combinación de cerebros proporcionaría soluciones que cerebros individuales no pueden lograr por sí mismos”.
(Imagen: ilustración de las células Golgi del cerebelo, por Santiago Ramón y Cajal)
El neurocientífico de la Universidad de Duke se plantea, de este modo, una de las incógnitas con que especulan los especialistas en interfaces BMI (cerebro-máquina): ¿sería posible crear el equivalente a una supercomputadora de cerebros humanos, con el potencial que ello supondría?
La misma pregunta, formulada de otro modo: ¿podría un grupo de personas -o una parte significativa de la humanidad- “conectarse” para resolver, con una insignificante porción de energía, las grandes incógnitas y retos de la humanidad, desde metafísicos a sociales, económicos, energéticos, climáticos, etc.?
Preguntas demasiado grandes, con demasiadas trabas éticas que resolver.
¿Solventar grandes retos con “creatividad en red”?
Entre las ventajas de manipular interfaces con la mente, o conectarse a otras mentes, destacaría la posibilidad de, quizá, lograr teorías científicas e invenciones para resolver grandes retos: energías con alto contenido calórico y a la vez baratas y no contaminantes, antídotos contra el efecto invernadero o la acidificación de los océanos, etc.
Los posibles riesgos (¿desventajas?) son igualmente colosales, con distopías en la línea de The Matrix: cerebros en red conformando, contra su voluntad, una gran conducta colectiva que anula por completo la individualidad. En otras palabras: la pesadilla de Ayn Rand, la antítesis del arquitecto Howard Roark (The Fountainhead) o de los personajes de Atlas Shrugged.
Devolviendo la mirada más a corto plazo, hay tecnologías disruptoras relacionadas con el objetivo último de las conciencias colectivas (o redes cerebrales) a punto de tener aplicaciones comerciales o, al menos, experimentales.
De Google Now/Apple Siri a Google Glass… a interfaces cerebro-máquina
La primera oleada de programas y aplicaciones próximas a la realidad aumentada ha llegado con asistentes digitales personales que “aprenden” a medida que interactúan con el usuario, refinando su comportamiento -y haciéndose, por tanto, más útiles-: son Google Now (anteriormente Google Voice Search) y Apple Siri.
Las interfaces de realidad aumentada son el siguiente paso. Google Glass se postula como el primer gran proyecto comercial de realidad aumentada usando “wearable computers” (ordenadores acoplados), en este caso unas gafas de realidad aumentada (“head mounted display”, HMD).
Google ha presentado la versión para desarrolladores en mayo de 2013, mientras la primera versión comercial llegará, según las previsiones, en 2014.
(Imagen: neuronas, por Santiago Ramón y Cajal)
Google Glass podría convertirse en el paso comercial previo a las BMI, o interfaces cerebro-computadora: dispositivos acoplados a nuestro cuerpo de manera imperceptible que nos permitirán accionar dispositivos externos con el pensamiento, comunicarnos sin habla o -y aquí jugará un papel importante la ética- “conectarnos” a otro cerebro. Sin cables, claro 😉
La interfaz con la que soñó Stephen Hawking
Nick Bilton escribía sobre ello en The New York Times a finales de abril de 2013.
Pronto, las bandas de frecuencia cardíaca que envían sin cables la información a nuestros relojes deportivos (como los de Garmin y sus competidores), o la propia interfaz cerebro-máquina usada por el científico británico Stephen Hawking, serán dispositivos del pasado superados por otros más pequeños, potentes, sencillos de usar, predictivos, ubicuos. Y que corren el riesgo de ser aprovechados para fines ilícitos o con una dudosa ética.
Las dudas éticas y técnicas de las interfaces cerebro-máquina se desvanecen al enumerar sus aplicaciones potenciales de los dispositivos cerebro-máquina que seguirán a Google Glass.
El accionamiento de ordenadores usando la mente abrirá el paso a aplicaciones que ahora podemos imaginar y otras que sólo el uso cotidiano y masivo de una aplicación sugiere:
- nuevos servicios;
- nuevas formas de trabajar (con aumentos de productividad ahora inconcebibles) y nuevos oficios;
- una transformación de la producción artística (¿improvisación o dramaturgia “de cerebro a cerebro”? ¿inmersión “en primera persona” en obras y acontecimientos que suceden a miles de kilómetros?);
- aplicaciones de comunicación y psicomotricidad para contrarrestar minusvalías;
- etc.
Buscando huevos de Pascua en código fuente de Google Glass
Algunas de estas ideas no son tan lejanas.
Google y otras compañías y laboratorios ultiman el paso intermedio: en abril, ingenieros estudiando el código fuente de Google Glass hayaron ejemplos ahora desactivados de maneras en las que el usuario interactuará con ordenadores acoplados sin necesidad de recurrir a comandos de voz. Por ejemplo:
- un usuario podría asentir para encender o apagar las gafas de realidad aumentada o dispositivos similares;
- un guiño indicaría a las gafas que tomaran una foto, un vídeo o cualquier otra acción que el usuario decidiera, personalizando los gestos a través de una aplicación de comandos similar a la existente en programas y sistemas operativos.
Pronto, estos gestos no serían necesarios, ya que los comandos, acciones o aplicaciones podrían accionarse con la mente, sirviéndose de interfaces cerebro-computadora similares a las que Miguel Nicolelis emplea en sus experimentos en la universidad de Duke.
Si quieres accionar una aplicación, piensa
Nick Bilton enumera algunas posibilidades cotidianas de las nuevas interfaces conectadas directamente a nuestros impulsos cerebrales: “pronto, podríamos interactuar con nuestros teléfonos y ordenadores simplemente usando la mente”.
En unos años, prosigue Bilton, podríamos encender las luces de casa pensando en ello, o enviando un correo desde el teléfono inteligente sin siquiera sacar el dispositivo del bolsillo. En un futuro no muy distante, un robot aparecería ante nosotros sosteniendo un vaso de limonada, al detectar que estamos sedientos.
(Imagen: llegan los primeros “neurocascos” para accionar aplicaciones con el pensamiento, en este caso el Emotiv EPOC)
En este último ejemplo, deberíamos preguntarnos si queremos compartir información esencial sobre nuestro sistema nervioso, constantes vitales, estado de ánimo y pensamientos con una Interfaz a la que empresas o instituciones podrían tener acceso. De nuevo, las fronteras entre derechos individuales y colectivos se difuminaría.
Interfaces con “interpretación predictiva” de lo relevante y lo prescindible
Asimismo, en ocasiones pensamos, por ejemplo, en una comida o bebida, pero ello no significa que lo requiramos ahora o que vayamos a cenar lo que hemos evocado:
- la primera generación de dispositivos de realidad ampliada, como Google Glass, deberá aprender a distinguir entre acciones fortuitas del usuario que no significan nada -un guiño porque nos ha entrado algo en el ojo y no porque queramos fotografiar algo, etc.- y aquellas acciones deliberadas para tomar el control de la interfaz;
- la segunda generación de estos aparatos, ya interfaces cerebro-ordenador, requerirán sistemas predictivos (una especie de evolución de los actuales teclados o editores de imagen predictivos) para descartar las ondas cerebrales fútiles y aquellas otras deliberadas.
Las posibles versiones comerciales de las interfaces cerebro-máquina podrían atajar este conflicto entre privacidad y acceso a servicios que mejoren muchas de sus tareas cotidianas con un menú preciso de porciones de su “conciencia” y “constantes” que desea usar en la interfaz y partes que desea mantener al margen.
Primeros pasos comerciales de interfaces cerebro-máquina
Así expresados, estos conflictos parecen plausibles sólo en un futuro distante. Laboratorios de empresas y universidades (además de los departamentos militares que trabajan en tecnologías similares en Estados Unidos y otros países) realizan rápidos avances en interfaces cerebro-computadora:
- Samsung prueba tabletas electrónicas controladas por el cerebro, en las que el usuario se sirve de un casco con electrodos para leer y enviar los impulsos cerebrales;
- la empresa de Silicon Valley NeuroSky ha lanzado un pequeño casco Bluetooth capaz de monitorizar pequeños cambios en las ondas cerebrales y sugerir así contenidos de entretenimiento acordes con el estado cerebral del usuario;
- Emotiv, otra startup, vende un casco con aspecto futurista capaz de procesar ondas cerebrales asociadas con pensamientos, sentimientos y expresiones; el dispositivo puede usarse para jugar a videojuegos básicos, buscar fotos de Flickr a partir de una emoción que siente el usuario, en lugar de hacerlo por palabra clave (un dispositivo de esta naturaleza habría hecho las delicias del poeta romántico Gustavo Adolfo Bécquer, siempre quejoso de las limitaciones del lenguaje para expresar sensaciones y sentimientos);
- otro dispositivo que se acopla en la cabeza, en este caso muy ligero y sin cables, es Muse, que transmite las ondas cerebrales a una aplicación que actúa de terminal y propone, en función de lo que recibe, ejercicios para ejercitar el cerebro, sugeriendo al usuario que concentre su atención en determinados objetos en una patalla, etc.;
- también en el campo de las interfaces entre persona y máquina (en este caso entre sistema nervioso y ordenador de a bordo), los fabricantes automovilísticos experimentan con asientos que detecten si el conductor se está quedando dormido.
Entendiendo la complejidad del cerebro humano
Google no es, por tanto, la única empresa interesada en comercializar dispositivos de realidad aumentada (Google Glass) y versiones posteriores más próximas a las -todavía experimentales- interfaces cerebro-computadora.
En cualquier caso, expone John Donoghue, neurocientífico y director del Instituto Brown para la Ciencia Cerebral, “para poder entender en profundidad lo que ocurre en el cerebro hoy necesitas se necesita implantar quirúrjicamente un puñado de sensores en el cerebro”.
De momento, según Donoghue, son necesarios los implantes para desentrañar todo el potencial de las futuras interfaces cerebro-ordenador. El neurocientífico lideró el proyecto Braingate, que permitió a dos personas con parálisis total accionar un brazo robótico, sirviéndose sólo de su voluntad cerebral.
El conocimiento sobre la materia del doctor John Donoghue está fuera de toda duda. No obstante, algunos de sus colegas son más optimistas: la bióloga molecular Miyoung Chun trabaja en un proyecto para mapear el cerebro que, estima, le llevará una década, pero calcula que en 2 años las empresas podrán lanzar potentes interfaces cerebro-ordenador si así lo desean.
Primeros pasos para una conciencia colectiva parcial
Apenas podemos evocar el potencial de un mundo conectado entre sí, intercambiando información en tiempo real para lograr los mejores resultados posibles con el mínimo impacto en infinidad de situaciones:
- Internet de las cosas: todo tipo de objetos recibiendo y enviando información a una red que empequeñecerá a la actual Internet;
- máquinas de todos los tamaños al servicio de la producción bajo demanda: la robotización se adapta para producir de manera personalizada sólo lo que es requerido, para así evitar excedentes y las peores consecuencias de las economías de escala tal y como las hemos conocido; ocurre tanto en la gran industria como en casa (impresión 3D casera);
- mejor información, productos y servicios con menor impacto, gracias a tendencias como la desmaterialización (más servicios o “bits”, menos sustancia física o “átomos”);
- auge del DIY-BYO (hazlo-constrúyelo tú mismo), con productos concebidos como mecanos (mobiliario modular libre, colaborativo, etc.) y con placas electrónicas (Arduino) u ordenadores (como las diminutas placas computadoras, cuyo exponente más popular es Raspberry Pi), que uno puede usar y modificar a su antojo;
- etc.
Bienvenidos al “mundo programable”
Como explica Bill Wasik en un reportaje para Wired (Welcome to the Programmable World, 14 de mayo de 2013), nos dirigimos a un mundo más hiperconectado que nunca, donde las cosas (bienes y servicios, pero también localizaciones geográficas, árboles y bosques, etc.) podrán ser consultadas y, en ocasiones, accionadas por una o más personas o “entes”.
Bill Wasik: “En nuestras casas, coches, y fábricas, estamos rodeados por diminutos dispositivos inteligentes que capturan información acerca de cómo vivimos y qué hacemos. Ahora [estos dispositivos] empiezan a hablar entre sí. Pronto podremos coordinarlos para que respondan a nuestras necesidades, solventen nuestros problemas, o incluso nos salven la vida”.
Según esta concepción de la realidad interconectada que erigimos, siguiendo el modelo con espíritu libertario y descentralizado (¿hasta cuándo, dados los constantes intentos por controlar cómo la gente interactúa con ella?), el mundo es programable:
- los flujos de comunicación, transportes y servicios (tratamiento de residuos, cultura y educación, sanidad, etc.) de hogares, edificios, barrios, ciudades y regiones se nutrirán de la información procedente de infinidad de puntos de emisión y recepción de datos: terminales y nodos interminables que emularán diseños de la naturaleza como la estructura celular del cerebro o el sistema nervioso que Santiago Ramón y Cajal evocó en sus dibujos, o los micelios que interconectan simbióticamente hongos con raíces de plantas en el subsuelo;
- basándose en este acceso a datos, el “valor” de los nuevos bienes y productos dependerá cada vez más del uso e interpretación útil de este caudal de información, y menos en las características materiales: los bienes de consumo se convierten en “terminales” de un esquema planetario.
Fases del “mundo programable”: conectar (1), compatibilizar (2), aprovechar (3)
Para que el “mundo programable” alcance todo su potencial, expone el reportaje de Bill Wasik, se requiere superar con éxito tres estadios de desarrollo:
- primera fase: conectar a esta especie de superestructura tecnológica de la biosfera más objetos y dispositivos: sensores, procesadores en objetos cotidianos, puntos de acceso inalámbrico que recopilen información de los procesadores ya en funcionamiento; ello requerirá inversión en equipamiento;
- segunda fase: lograr que los dispositivos se comuniquen entre sí y puedan coordinarse para realizar tareas simples sin necesidad de supervisión humana; la en este estadio intermedio, se requerirá más inversión intelectual que en equipamiento físico;
- tercera fase: llegaría cuando se hubiera logrado la conexión ubicua entre las cosas: consistiría en extraer el potencial de un sistema que puede ser programado. Y, por tanto, capaz de mejorar nuestras vidas.
Precursores del mundo conectado: casas que actúan como sistemas nerviosos
Para Kirsten Dirksen y para mí mismo, las palabras de Bill Wasik en su reportaje para Wired resuenan familiares, cuando afirma: “imagina una casa con un sistema nervioso, donde los aspersores reciben órdenes de los sensores de humedad”.
Tenemos la sensación de haber visitado este tipo de casas. Por encima de todas ellas, rememoramos la casa que el veterano programador Loren Amelang ha hackeado en los últimos años, en una apartada colina del condado de Mendocino, al norte de California.
Amelang trabajó en Silicon Valley durante los inicios del boom de la informática personal, hasta que la empresa donde trabajaba cambió sus antiguas oficinas por un nuevo edificio que carecía de ventanas al exterior y luz natural. “Cuando llegó ese momento, pensé: me voy”.
Y abandonó su trabajo y plácida vida en Silicon Valley, para explorar su propia versión low-high tech de la vida sencilla entre los dispersos robledares de las afueras de la pequeña población rural de Philo. Consultar el vídeo, reportaje fotográfico y artículo que realizamos tras nuestra visita.
La casa del veterano hacker californiano Loren Amelang
La casa de Amelang ha sido concebida como un sistema nervioso, con sensores y mecanismos que emiten mediciones a un “sistema central” o aplicación programada en C++ por el propio Loren Amelang.
Amelang puede tomar el control de todo tipo de detalles relacionados con la condición de su casa, pero también delegarlos al sistema de automatización basado en sensores que ha ideado, al que puede acceder de manera remota desde cualquier terminal que le permita introducir comandos, se trate de un móvil o cualquier otra terminal.
La casa domótica minimalista de este veterano hacker californiano ejemplifica con elegancia el potencial del mundo programable y, a su vez, establece incógnitas éticas y relacionadas con los derechos fundamentales del individuo que deberemos despejar.
Charlas sobre Picasso en la “golden hour” californiana
Recuerdo la charla relajada que mantuve con Amelang en el atardecer fresco y brumoso de Mendocino, gracias a la brisa procedente del océano que, en verano, alcanza en ocasiones las colinas boscosas y de viñedos a decenas de millas hacia el interior.
Hablamos de la percepción humana de la realidad, el potencial de la tecnología si ésta es puesta al servicio del bien, el carácter precursor de Picasso y el cubismo en general.
Amelang evocó las pinturas de Picasso, interpretaciones alucinógenas de una realidad aumentada que la tecnología puede enriquecer.
También exhortó la belleza de su libertad individual: mi casa se comporta como los árboles de la colina que la cobijan. Recibe la energía del sol y la transforma en nutrientes (en este caso, electricidad) que le otorga autosuficiencia.
Potencial
A Amelang no le gustaba concebir la idea de una empresa o entidad destruyendo el paisaje para aproximar “servicios básicos” a su casa.
El mundo programable deberá ingeniárselas para aportarnos la vertiente positiva de la humanidad como colectivo, y evitar la vertiente más distópica y gregaria de las masas, imponiendo criterios contra voluntades individuales.
Sea como fuere, el sistema nervioso tecnológico que erige la humanidad avanza con rapidez. Quizá pronto consideraremos normales opciones como el “piloto automático” en el automóvil, o el accionamiento de interfaces cerebro-ordenador similares a Google Glass y accionadas con nuestro pensamiento.