Un mundo físico cada vez más relacionado con el digital transforma nuestra percepción de lo circundante hasta niveles tan profundos como el propio significado de “realidad”.
El debate entre objetos (seres “animados” e “inanimados”) y su esencia es antiguo y permanece tan irresuelto como en el mundo clásico. A medida que se densifica la capa de información asociada a personas y objetos, quedan patentes las limitaciones de la seguridad informática.
Tecnologías que considerábamos tan lejanas que parecían del dominio de la teoría y la confortable lejanía temporal se acercan a nuestro horizonte, dados los incentivos indudables derivados de su adelanto en el mundo de lo práctico: llegan cambios en computación cuántica, sensores diminutos (“smartdust“), y uso de biología molecular en ámbitos que plantean conflictos éticos (difuminando barreras entre “biología”, “información” abstracta y el proceso y almacenaje de ésta).
Los límites reales de la computación actual
En primer lugar, la computación cuántica podría alterar el mundo digital antes de mejorarlo, al facilitar el descifrado de la criptografía en uso más sofisticada.
Cualquier científico computacional tomará prestado el hábito filosófico para anunciarnos que cualquier sistema de seguridad informática, por sofisticado que sea, es vulnerable a ataques: la única protección infranqueable, recordarán los más cínicos, consistirá en almacenar los datos en un equipo local, para desconectarlo de Internet y, a poder ser, apagarlo por completo.
El principal beneficio de la arquitectura de bases de datos con historial de operaciones distribuido entre sus participantes, es su diseño criptográfico.
Como explica The Economist, la seguridad de toda nuestra actividad y la de servicios críticos en Internet se basa en una sencilla –e imperfecta– premisa matemática, según la cual realizar cálculos con números que conocemos de antemano (por ejemplo, multiplicar entre sí varias cifras para obtener un resultado) es más sencillo que realizar lo inverso: averiguar la combinación original de cifras a partir del resultado.
Vulnerabilidades de la mejor criptografía
La criptografía informática se ha erigido a partir de esta asimetría y, por definición, es vulnerable a cálculos capaces de igualar el nivel de sofisticación necesario para atacar un algoritmo. La informática cuántica no hará sino acelerar este proceso de paridad, obligándonos a crear nuevos métodos seguros (y, de paso, complicando el futuro supuestamente brillante de arquitecturas contables como las bases de datos distribuidas, blockchain entre ellas).
Más allá del debate sobre su eficiencia computacional y energética, blockchain y sus alternativas han popularizado la criptografía asimétrica (también llamada de clave pública, como el popular sistema RSA), la cual exige que cada participante use dos claves para participar: una de ellas es pública, mientras la otra clave permanecerá tan segura e infranqueable como permita la metodología del usuario que la custodie.
Un intruso sólo necesitaría conocer las dos claves de un usuario para acceder, por ejemplo, a su monedero de criptomoneda (en el mundo del desarrollo de software, ambas claves darían acceso a todos los repositorios del usuario, poniendo en peligro proyectos de calado como los que usamos a diario en el móvil y el ordenador personal).
La combinación de clave privada y pública en criptografía demanda mayor complejidad y proceso informático que la criptografía simétrica, en la que una misma clave cifra y descifra mensajes entre emisor y receptor. Un tercer método, denominado híbrido, combina ambas técnicas –cifrado asimétrico o más seguro para el inicio de sesión en un sistema como una aplicación de mensajería segura, y cifrado simétrico o sencillo para el envío de mensajes en el interior de la sesión iniciada–.
Descifrar una contraseña
Ninguno de los tres está a salvo de ataques que procederían de cualquier punto débil detectado: el almacenaje local de la clave privada, el envío de una clave compartida a través de un servicio vulnerable, el uso de técnicas de phishing para emular interfaces de servicios y esperar a que sea el propio usuario quien facilite, crédulo, el acceso a su información encriptada…
O usar suficiente capacidad de computación para averiguar cualquier contraseña superior a 80 bits, sea simétrica (por definición y en condiciones normales, más vulnerable) o asimétrica (más compleja y, por tanto, menos vulnerable: su descubrimiento ilícito –por ejemplo, a través software de descifrado de contraseñas encriptadas– requeriría mayores recursos de computación.
¿Qué ocurriría si la criptografía dejara de funcionar antes de que otra alternativa ocupara su lugar? Los secretos de Estado (algunos de los cuales han sido filtrados en los últimos años por personas con acceso o atacados con métodos como la suplantación de identidad, el uso de “puertas traseras” –vulnerabilidades ocultas–, de software malicioso, etc.) dejarían de serlo, las compañías no podrían proteger su propiedad intelectual, la información personal y las transacciones financieras estarían al alcance de cualquiera, y los mensajes circularían sin ninguna protección efectiva.
Todos los sistemas conectados a Internet, tanto a gran escala –sistemas de defensa, sistemas sanitarios y fiscales, infraestructuras, logística, transporte público y privado– como en el ámbito doméstico, serían susceptibles de un ataque.
El algoritmo de Shor
El riesgo matemático existe, pero requiere la potencia y flexibilidad de la informática cuántica para materializarse. En 1994, Peter Shor, un matemático empleado en Bell Laboratories, diseñó un algoritmo para descifrar el factor primo de un número.
El factor primo de un número está compuesto por los números primos divisores exactos de un número entero (pues todo número entero positivo tiene una factorización de primos única), y el único modo conocido de lograr que el Algoritmo de Shor funcione, consiste en aprovechar la arquitectura “superpuesta” de la computación cuántica, basada en el “cúbit” (o bit cuántico, el cual puede ser 1 y 0 a la vez), que permite operaciones lógicas que son imposibles en una arquitectura de bits.
Los ordenadores cuánticos, de momento toscos y limitados por la complejidad de su arquitectura, aprovechan el extraño comportamiento de partículas como fotones o electrones (sujetas a los fenómenos de la superposición –atesorar dos o más valores a la vez– y el entrelazamiento –actuar como partícula y como onda a la vez–) para resolver operaciones como la mencionada operación de Shor. Por ahora, laboratorios y compañías han realizado experimentos preliminares, con firmas chinas y estadounidenses tratando de crear una arquitectura comercialmente viable.
La imposibilidad física de espiar una contraseña cuántica
Tanto hackers como compañías y departamentos de inteligencia con intención de vulnerar claves simétricas o asimétricas convencionales recurren a las mencionadas viejas técnicas, con casos de espionaje sistemático tan sonados como el acceso ilícito por puerta trasera de la NSA, la agencia de inteligencia estadounidense, a servicios digitales de alcance global (PRISM), información filtrada a The Washington Post y The Guardian en 2013; o, más recientemente, el uso de un chip diminuto camuflado por la inteligencia china en la placa madre de servidores vendidos a varias de las principales compañías tecnológicas estadounidenses, informa Bloomberg (una de las firmas afectadas por el presunto espionaje chino).
La llegada de una informática cuántica viable supondría una amenaza sistémica, al hacer obsoleta cualquier protección. ¿Cuál es el antídoto al uso de bits cuánticos en informática? Una nueva arquitectura de seguridad que utilice principios de mecánica cuántica, o criptografía cuántica, cuyas propiedades son más propias de un sesudo argumento de ciencia ficción que del mundo informático actual.
En criptografía cuántica, los interlocutores no intercambian información usando una clave al menos parcialmente compartida, sino que se sirve de estados de las partículas (fotones, electrones, etc.) creando una “huella” o función en las partículas usadas imposible de clonar sin alterar el sistema (cualquier intento de “medición” del proceso de creación de esta clave alteraría su resultado).
Un mundo de diminutos sensores microelectromecánicos: el “polvo inteligente”
Si creíamos que el mundo digital actual estaba próximo a la singularidad y que el aprendizaje de máquinas y la combinación de datos a gran escala se acercan a un límite de sofisticación, indagar sobre las implicaciones de la informática cuántica nos situarían en un escenario muy distinto al actual, con posibilidades inimaginables para, por ejemplo, aprender de modelos emergentes presentes en la naturaleza: los algoritmos cuánticos funcionarían de un modo más similar a la conciencia humana, tomando decisiones a partir de cálculos de probabilidad que evitan procesos repetitivos.
En el mundo de lo diminuto, no sólo preocupa la evolución de la densidad de los microprocesadores y los límites de la miniaturización de transistores según las técnicas, materiales y arquitectura actuales; esta evolución histórica, resumida en la Ley de moore (1965), pierde peso relativo si se confirman las expectativas tanto de la informática cuántica como de un campo tan desconocido como etéreo: el “polvo inteligente” o “smartdust”.
Antes de caer en juegos de palabras o creer que se trata del nuevo bulo de la maquinaria de relaciones públicas de alguna empresa de capital riesgo en horas bajas, el mundo de los sensores microelectromecánicos (MEMS), o dispositivos para detectar factores ambientales que pueden relacionarse entre sí y funcionar de manera autónoma, tan pequeños como motas de polvo.
Cada una de estas partículas incluye sensores, circuitos, antena de comunicaciones bidireccional y una fuente de alimentación que evoluciona hacia métodos de recarga inalámbrica o incluso por métodos cinéticos (a través del propio movimiento o calor ambiental convertidos en modestos, pero suficientes, impulsos eléctricos).
Motas: medir el ambiente con diminutos ordenadores perpetuos
Christopher Mims no se corta en su artículo para el Wall Street Journal y habla de estos “ordenadores diminutos que recogen energía del aire”, especificando que un mundo recubierto de sensores “que no requieren baterías” está casi al alcance de la mano. ¿Cuáles son las implicaciones?
Máquinas diminutas con energía para funcionar en perpetuidad, midiendo indicadores (como sonido, vibración, composición química, luz, movimiento, etc.), desde unas coordenadas espacio-temporales específicas, asistirán al principio en tareas conocidas de la denominada “Internet de las cosas”, aportando información y mediciones a dispositivos industriales, domésticos o personales (“wearables”).
A medio plazo, escribe Mims, estos dispositivos microelectromecánicos podrían facilitar servicios hoy inverosímiles, destinados a mejorar las mediciones del mundo real de las que dependerá el funcionamiento de formas de transporte, toma de decisiones, producción industrial o agroalimentaria.
El artículo de The Wall Street Journal olvida mencionar las implicaciones éticas derivadas del uso intrusivo de dispositivos difíciles de detectar por empresas transnacionales cuyos modelos de negocio dependen del rastreo de la información y actividad, electrónica y en la vida real, de la ciudadanía.
Otro pilar de lo pequeño: la biogenética
Arquitectura cuántica y sensores minúsculos podrían transformar nuestra experiencia con el mundo digital y acercarlo a un tercer ámbito con un potencial transformador todavía mayor: la biogenética.
Las esperanzas depositadas en el uso de técnicas de edición genética, CRISPR, se han moderado tras las pruebas que han mostrado que la técnica presenta dificultades en humanos debido a moléculas protectoras que rechazarían como ajenas las secuencias agregadas procedentes de virus y bacterias presentes en el cuerpo humano (usando, por ejemplo, la proteína Cas9).
Pruebas de edición genética realizadas en China en 2015 para erradicar una enfermedad hereditaria mortal, beta-talasemia, no tuvieron los resultados esperados: sólo pudieron modificarse algunos genes, mientras otras secuencias incidieron de manera aleatoria sobre otros genes; otras pruebas, destinadas a lograr la resistencia de embriones al virus VIH, tampoco han logrado los resultados esperados.
Mientras aumentan las voces que reconocen que la técnica CRISPR no está preparada para el uso clínico en humanos, la biogenética se ha adentrado en un momento evolutivo que acelerará técnicas y resultados: desde inicios de siglo, la biología genética crea herramientas a partir de reactivos biológicos modificados, o utensilios “vivos” hallados –o manufacturados– dentro de la propia biología.
Avances en biogenética con herramientas biológicas
Se perfeccionan técnicas como: PRC (o reacción en cadena de la polimerasa para “amplificar” un fragmento de ADN, y así detectar enfermedades, la huella genética de individuos, etc.); secuenciación; clonado de ADN (usando secuencias que luego son cultivadas por bacterias que siguen unas instrucciones transmitidas); edición con ADN y ARN; detección de dolencias o infecciones a través de enzimas que iluminan el agente maligno (ELISA); cromatografía de inmunoafinidad (separación de anticuerpos usando su molécula complementaria, o antígeno, para luego proceder a experimentos y tratamientos con mayor facilidad); etc.
La mejora de estas técnicas multiplica experimentos, acelera resultados y propulsa todo tipo de investigaciones: la biología ha abandonado el uso exclusivo del microscopio y ha creado herramientas que parten de la propia vida, al basarse en la secuenciación genética.
Las implicaciones de estos avances sobrepasan los ámbitos de la biología y la ética, adentrándose en la metafísica: ¿cómo proceder cuando sea posible modificar, clonar o incluso crear “ex novo” embriones humanos fuera del útero materno, o embriones surgidos de procesos que no requieren fertilización por células reproductivas masculinas?
Debates hasta ahora propios de la ciencia ficción, como el nacimiento de bebés a partir de embriones congelados hace décadas, o el riesgo de convertir la edición genética en un futuro distópico de seres humanos a la carta, se acercan a nuestro presente.
Posibles excesos y ventajas de la edición genética
Mientras el debate frívolo se centra en campos más polémicos o espectaculares, tales como la desextinción o el transhumanismo (y su peligrosa relación con el cristianismo fanático evangelista y la eugenesia, de triste recuerdo en Europa y Estados Unidos durante el siglo XX), otros avances más consensuados se acercan a su aplicación práctica.
Es el caso de, por ejemplo, la modificación genética de parásitos causantes de enfermedades endémicas. Esta práctica, denominada genética dirigida, es capaz de alterar poblaciones concretas de mosquitos y otros organismos.
Se cree que esta técnica asistirá en la erradicación de dolencias transmitidas a través de especies concretas de microorganismos –protozoos, por ejemplo– e insectos: leishmaniasis, enfermedad de Chagas y tripanosomosis, fiebre dengue, fiebre de chikunguña, o el virus Zika, entre otras dolencias. Organismos como la Fundación Bill y Melinda Gates invierten en experimentos con esta técnica para “modificar” los mosquitos causantes de la malaria.
La genética dirigida tiene también aplicaciones agropecuarias. The Economist menciona el trabajo de biólogos de la Universidad de California en San Diego, que han desarrollado una mutación para limitar el daño en las cosechas a cargo de Drosophila suzukii, una mosca de la fruta originaria de Asia y distribuida como plaga en Europa y las Américas.
Con la mirada en la frontera de lo diminuto
No todo son beneficios potenciales: al modificar la herencia genética de especies enteras, la genética dirigida podría causar fenómenos difíciles de predecir en distintos ecosistemas: hay insectos y microorganismos esenciales para el equilibrio biológico en determinados ecosistemas que, sin embargo, actúan como plagas en otros entornos (como ecosistemas bajo estrés debido a la preponderancia de monocultivos, etc.).
Sea como fuere, el mundo de lo micro transformará profundamente lo macro en los próximos años. Si tenemos en cuenta la evolución de la vida en la Tierra y la clasificación de organismos por cantidad de biomasa, los microorganismos mantienen su oculto dominio.
Y sí, tanto la investigación biológica como la computación cuántica parecen condenadas a entenderse.
¿Demasiado fantasioso? Pongamos el reloj a cero y retomemos el tema en 5 años. Analicemos lo dicho y observemos la evolución; quizá tengamos mucho más que decir de los ámbitos criptográfico, cuántico, microelectromecánico y biotecnológico. Quizá entonces aparezcan ya con claridad los ámbitos entre estas disciplinas condenados a encontrarse y solaparse.
En esta convergencia, quizá dominen los conflictos… o quizá lo hagan las oportunidades.
Nuestra mirada parece orientada a la Frontera de lo diminuto. O, tal y como exponía en 1989 uno de los descubridores de la estructura del ADN, James Watson, solíamos pensar que nuestro destino estaba en las estrellas.
Ahora sabemos que nuestro destino se jugará, en gran medida, en la comprensión de los bloques elementales de la computación, la física o la biología.