(hey, type here for great stuff)

access to tools for the beginning of infinity

Pronto en tu vida (y teléfono): conflicto ética/automatización

Una de las falacias tecnológicas que todavía sobreviven al creciente escrutinio de herramientas que usamos a diario y que —al fin reconocemos— fueron diseñadas con una intención distinta a nuestros intereses personales y colectivos, consiste en creer que la tecnología es «neutra» o, peor aún, intrínsecamente «benévola» o «buena».

Los algoritmos, como cualquier otro artilugio humano, están diseñados desde el punto de vista de su creador o creadores, y pueden heredar sesgos culturales.

Inmersos en plena sociedad de la información, tratamos de atestar la extensión de los daños colaterales infligidos —y por infligir— de una Internet ubicua que creímos que aportaría luz y conocimiento para todos si respetábamos su supuesta «neutralidad», así como una supuesta condición indispensable para que el solucionismo tecnológico propulsara una nueva Ilustración softwarizada, dematerializada y de alcance mundial: la desregulación de datos y modelos de negocio.

Trazado de Sand Hill Road en 1971; a la izquierda de la imagen, Menlo Park; a la derecha, en primer plano, el terreno protegido propiedad de la Universidad de Stanford, seguido de la localidad de Palo Alto

Las nuevas empresas debían, al parecer, contar con todos los beneficios y estar exentas de cualquier responsabilidad con los servicios prestados y la información curada, transmitida, distribuida.

El fin de un trato de favor insostenible

Según esta falacia asimilada como dogma de fe por las sociedades, las empresas que crecieron operando en la Red debían continuar disfrutando de una desregulación total en términos efectivos, así como de ayudas de todo tipo —incluso aquellas procedentes por comunidades que, al perder empleo debido a la nueva competencia de Internet, debían implorar con ayudas a gigantes como Amazon para que éstos instalaran sedes o centros logísticos en sus localidades—.

Durante dos décadas, los reguladores de los países y regiones (es el caso de la UE) que albergan las poblaciones más prósperas y que más ingresos reportan a las mayores empresas tecnológicas, se acomodaron a las prerrogativas de los —debidamente engrasados— grupos de presión instalados en torno a Washington DC y a Bruselas.

Pero el vértigo creado por el éxito que campañas de desinformación personalizadas en procesos electorales desde 2016 no sólo ha permitido a la prensa tomar cierta distancia y autonomía con respecto a empresas que han sabido construir un relato atractivo y agasajar a periodistas predispuestos a creer en la tecnoutopía sin analizar los aspectos críticos del nuevo modelo, sino también a la opinión pública.

El difícil arte de regular con responsabilidad

El gran público tolera e incluso instiga a los legisladores a exigir más a las mayores empresas de Internet, que hoy se encuentran entre las mayores empresas del mundo por capitalización bursátil y beneficios, aunque no por contribución fiscal (ni en los países donde operan, ni en el país donde tienen su sede fiscal).

Aunque, en el nuevo contexto, existe el riesgo de que los tenedores de intereses de viejos modelos monopolísticos impongan su punto de vista en nuevas regulaciones que confundan la necesaria protección de los intereses de los usuarios con una lectura restrictiva de los derechos de autor aplicables a la información transmitida en línea, un territorio especialmente pantanoso.

La Directiva sobre los derechos de autor en el mercado único digital, elaborada en 2016 y aprobada en el Parlamento Europeo en 2018, entrará en vigor en los Estados miembros de la UE en un máximo de 2 años y obliga a las grandes plataformas a establecer filtros para evitar la diseminación ilegal de contenido protegido con derechos de autor, además de obligar a agregadores de noticias a retribuir a los medios que elaboran el contenido compartido.

En la práctica, la intención de países con una política histórica de protección de la industria cultural propia, como Francia, es devolver a los productores de contenido la fuerza para negociar en igualdad con los principales repositorios de Internet, que controlan la distribución pero no pagan ni se responsabilizan de la información distribuida.

El rastreo de datos después de GDPR

No obstante, una aplicación restrictiva de esta nueva directiva tendrá efectos sobre la libre expresión que deberán ser analizados, pues un nuevo control tácito sobre la diseminación de contenido podría convertir a los «supervisores» de los nuevos filtros en actores interesados en qué información debe y no debe ser transmitida.

Una política socialdemócrata danesa, Margrethe Vestager, Comisaria europea de Competencia desde noviembre de 2014, firmó el 25 de mayo de 2018 la entrada en vigor de la normativa europea de protección de datos, GDPR en sus siglas en inglés, una regulación que pretende equilibrar las fuerzas en la red y proteger contra abusos sistémicos en el uso, rastreo y cesión de los datos privados y la actividad de los usuarios.

La directiva ha sido creada para establecer un marco hasta entonces inexistente en la gestión masiva de datos para evitar fenómenos como el seguimiento de la actividad de los usuarios, la reventa de datos y el uso fraudulento de perfiles para actividades publicitarias o, en el peor de los casos, propagandísticas, como han demostrado numerosos escándalos, desde las campañas desinformación y ciberespionaje al uso de técnicas de marketing electrónico y agitación propagandística a través de redes sociales para influir sobre el voto de millones de personas.

La reincidencia de Facebook en la gestión fraudulenta de la información que aloja, que comprende tanto los datos generados por los usuarios como la información de terceros, ha sido crucial para que la directiva europea de protección de datos sea tolerada públicamente incluso por las empresas afectadas, empezando por la misma Facebook.

Taylorismo digital y bombeo de dinero a «unicornios»

Debajo de la superficie, en la que las firmas de Silicon Valley hacen malabares para mantener una imagen dañada por la, en realidad, buena sintonía con la Administración de Trump (cuya ley fiscal de 2018 bajó el impuesto de sociedades del 35% al 21% y permitió repatriar los beneficios de las empresas acumulados en todo el mundo, previo pago de una tasa única del 15,5%), existe preocupación por el cambio de opinión entre público y legisladores.

Varios de los políticos demócratas que se han postulado como candidatos a las primarias, entre ellos la senadora Elizabeth Warren, han declarado abiertamente que es necesario regular los servicios esenciales de Internet y dividir a las compañías que acaparen la práctica totalidad de un mercado.

La regulación antimonopolio ha seguido un recorrido inversamente proporcional a la inversión de las principales empresas del sector en sus grupos de presión en Washington y, en menor medida, Bruselas.

La ausencia de riesgo legislativo y regulatorio percibido entre los principales actores tecnológicos alimentó la cultura de secretismo e inyecciones de capital en empresas deficitarias hasta lograr, en los casos ideales —luego puestos como modelo a seguir—, que éstas acapararan el mercado que acababan de crear.

Un artículo de DHH, programador danés afincado en Chicago, creador de Ruby on Rails y cofundador de Basecamp, aporta una visión crítica del comportamiento habitual de las firmas de capital riesgo en torno a Sand Hill Road.

La ética de acaparar mercados vendiendo a pérdida

Varias personalidades influyentes en la escena tecnológica de Silicon Valley, tales como el inversor de capital riesgo Peter Thiel, conocido por su apoyo explícito a la campaña de Donald Trump, han llegado incluso a teorizar sobre esta estrategia de acaparación de mercados recién creados. Thiel impartió una clase en Stanford sobre el potencial de las empresas que, en lugar de entrar en sectores hipercompetitivos, crean un servicio novedoso y tratan de acaparar el mercado recién creado. La clase dio pie al ensayo Zero to One.

Thiel ha escrito habitualmente sobre su predilección por la ideología libertaria, es es cofundador de la polémica firma de rastreo y análisis de macrodatos, una firma cuya dependencia económica con respecto al favor político que garantiza concesiones de distintas administraciones.

Como su viejo amigo y compañero en Paypal, Elon Musk, Thiel no cree incurrir en contradicciones cuando, por un lado, aboga por la desregulación y la reducción de políticas públicas a sectores estratégicos como la seguridad, mientras por otro se ocupa de recabar apoyos en Washington para lograr préstamos, contratos y acuerdos de servicios.

Tesla fue subsidiada por la Administración de Obama con un préstamo de 465 millones de dólares en un momento estratégico para la compañía (cuando ésta se disponía a adquirir la factoría de Fremont). Estaba claro que Palantir, que cuenta con Thiel entre los miembros de su consejo de dirección, lograría de un modo u otro el favor de una Administración, la de Donald Trump, que llegó a Washington prometiendo acabar con los intereses especiales en la capital, para hacer en realidad lo contrario.

Los réditos de invertir en redes clientelares

La nueva Administración ha sumido en la sospecha los contratos y actividad en numerosos departamentos estratégicos, desde la diezmada Agencia de Protección Medioambiental, EPA (debilitada a medida de la industria), al propio Pentágono, donde se ha declarado a Palantir ganadora de un contrato para crear un sistema de inteligencia para el Ejército de Estados Unidos. Los resultados del concurso no han sorprendido a nadie.

Lejos de los focos durante años, la cultura corporativa de muchas de las empresas que siguieron este modelo de competencia desleal encubierta (manteniendo operaciones deficitarias para atraer a millones de clientes en todo el mundo con modelos de negocio deficitarios, hasta que el efecto de red y el dominio en el mercado permitieran aumentar precios), creó situaciones de abuso con empleados, prestadores de servicio de plataformas «colaborativas» sin estatuto de trabajadores, y usuarios.

Y, en el peor de los casos, sucedieron escándalos como la gestión de Travis Kalanick en Uber, descrita como «tóxica» por un porcentaje elevado de los propios empleados, o el fraude de Elizabeth Holmes en la firma de equipamiento médico Theranos, como muestra el documental de HBO The Inventor: Out for Blood in Silicon Valley, dirigido por Alex Gibney.

Los procesos contra Microsoft en los años 90, en el contexto de la guerra de navegadores y el abuso de posición dominante en la distribución de contenido multimedia (juicio de Microsoft contra RealNetworks); o incluso la denuncia del Departamento de Justicia de Estados Unidos contra IBM en los 60 por abuso de posición dominante en ordenadores centrales —«mainframes»— y software, que no se resolvió hasta los años 80.

Autorregularse o dejarse regular

Sin embargo, reguladores y analistas reiteran que el contexto político y tecnológico no son análogos en los casos del pasado con respecto a la posición dominante de los gigantes que componen el acrónimo GAFAM (Google, Apple, Facebook, Amazon y Microsoft).

En la actualidad, el peso relativo e influencias de estas compañías en la economía estadounidense y mundial las sitúa en posiciones de dominancia no sólo ya de sus respectivos mercados, sino en la evolución jurídica de los mercados donde operan, dada su capacidad de influencia y presión sobre gobiernos y cuerpos legislativos.

Asimismo, apunta The Economist (un medio poco sospechoso de seguir una línea editorial proteccionista e intervencionista), el estatus de las nuevas herramientas en nuestro ocio y trabajo las convierte en mucho más que empresas en una mera posición dominante en sus respectivos mercados:

«Pero los gigantes de la actualidad no son sólo acusados de capturar enormes réditos y anular toda competición, sino de peores obras, tales como desestabilizar la democracia (a través de la desinformación) y abusar los derechos individuales (al invadir la privacidad). A medida que se extiende la inteligencia artificial, la demanda de información se está ampliando, lo que convierte a los datos en una mercancía nueva y valiosa. Sin embargo, varias preguntas esenciales restan sin respuesta: ¿quién controla los datos? ¿Cómo deberían distribuirse los beneficios? Lo único en que todos el mundo parece estar de acuerdo es que la persona que lo decida no puede ser Mark Zuckerberg, el jefe de Facebook rodeado de escándalos».

Los chicos que quisieron automatizar el humanismo

Mientras tanto, la batalla librada en las cloacas de la democracia para atraer el apoyo de los simpatizantes peor informados y más susceptibles de dejarse influenciar por campañas de desinformación a la carta: mientras los analistas políticos estadounidenses malgastan energía reaccionando ante comentarios incendiarios de Donald Trump en Twitter, la campaña de reelección de Trump invierte más que cualquier oponente en redes sociales, con la prioridad depositada en Facebook.

En paralelo, y pese a los esfuerzos de moderación (Casey Newton lo explica en The Verge), los mensajes extremistas siguen siendo los que acaparan mayor actividad en estas plataformas.

Consciente de que, a partir de ahora, le será imposible ponerse de lado, el propio Mark Zuckerberg ha encargado a su equipo un contraataque para anular las críticas actuales —procedentes de reguladores, medios y una especie en extinción, el experto independiente—: al no poder rebatir de manera creíble la incidencia de la desinformación distribuida en su plataforma sobre los usuarios que la consultan y, al compartirla, la amplifican, el equipo de relaciones públicas de Zuckerberg considera que ha llegado el momento de dar la razón a los reguladores.

El Washington Post publicaba el 30 de marzo de 2019 una columna de opinión firmada por el propio Mark Zuckerberg, en la que el responsable de la red social constataba que «Internet necesita nuevas normas» y, acto seguido, añadía: «empecemos por estas cuatro».

«Canard digérateur»: en 1738, el ingeniero francés Jacques de Vaucanson, artesano de mecanismos autómatas y pionero de la robótica, presentó su pato con aparato digestivo. El artilugio, que realizaba todo el proceso metabólico gracias a un mecanismo de más de 400 piezas móviles, fue presentado como la primera mascota artificial; el «canard digérateur» poseía un sistema de músculos artificiales, conductos digestivos y componentes químicos para digerir el grano

La columna no es un mea culpa, sino una propuesta sucedánea de autorregulación, el tipo de documento que firma el responsable de una compañía que ejerce en su mercado como monopolio de facto para evitar que los reguladores contrarresten los peores efectos de esta acaparación del mercado, entre ellos la ausencia de mecanismos de supervisión de actividades que, según la compañía, pertenecen al ámbito de los algoritmos.

Y, de momento, la legislación que protege la propiedad intelectual permite a Facebook, Alphabet y sus competidores salvaguardar muchas prácticas que afectan a usuarios (y democracias) tras el secretismo de una caja negra.

La sombra de una cláusula: la Sección 230

Los cuatro ámbitos donde Zuckerberg cree que hay que avanzar en Internet son: contenido dañino, integridad electoral, privacidad y portabilidad de datos. Pero lo que menciona de cada uno de estos ámbitos está lejos del punto de vista de los reguladores, y no sólo se trata del equipo en torno a la Comisaria de Competencia de la UE: el Congreso estadounidense ya debate, según Los Angeles Times, la cláusula legal que exime de responsabilidad a las grandes plataformas de Internet del daño causado por el contenido generado por los usuarios.

Esta cláusula de salvaguarda, aprobada en 1996 en el marco de la Ley de las Telecomunicaciones estadounidense (concretamente, en el apartado sobre «decencia de las comunicaciones», sección 230), permitió una década después el auge de los servicios Web 2.0, y la polémica evolución de esta ley a medida logró su punto culminante con las campañas de desinformación en las campañas sobre el Brexit y presidencial estadounidense, ambas en 2016.

La Sección 230 de la ley sobre telecomunicaciones cuenta únicamente con 26 palabras, y su modificación o impugnación tienen el potencial de transformar a toda una industria: sin la protección de esa pequeña frase, servicios como Facebook y YouTube estarían obligados a monitorizar el contenido diseminado en sus repositorios, bajo el riesgo de ser llevados a juicio en acontecimientos que tuvieran origen en bulos o agitación propagandística recomendados a través de sus servicios.

El analista austríaco Wolfie Christl, experto en el efecto del rastreo de datos masivo en Cracked Labs, apunta que argumentos tales como «La Sección 230 creó la Internet tal y como la conocemos» o «Sin ésta [en referencia a la mencionada cláusula 230 de la ley de telecomunicaciones de 1996], Google y Facebook simplemente no existirían» no son, dado el contexto, los mejores argumentos para defender su valía y mérito.

WTF?

¿Está Silicon Valley a tiempo de promover una autorregulación creíble, capaz de calmar entre los reguladores la sensación de que sólo leyes que garanticen la responsabilidad de las plataformas web con el contenido que alojan y diseminan (y gracias al cual su modelo económico se ha consolidado), protegerán lo suficiente a los usuarios?

El editor y conferenciante californiano Tim O’Reilly, respetado por la consistencia de su análisis tecnológico a lo largo de los años, avanzaba en su ensayo WTF? (equívoco entre What’s The Future y la expresión habitual asociada a las siglas), de octubre de 2017, la crisis de credibilidad que afrontan las grandes plataformas, así como la propia naturaleza de esta crisis: según O’Reilly, se trata de una crisis de ética.

Hasta ahora, el sector tecnológico había abogado por herramientas automatizadas capaces de ejecutar decisiones éticas correctas; pero, si hay algo que demuestra la deriva de Facebook en los últimos años, es el límite de la automatización a la hora de gestionar complejas conversaciones y decisiones humanas, pues éstas dependen de contextos con un punto de vista (y, por tanto, falibles): teorías del conocimiento, tradiciones y convicciones que se basan menos en la lógica consistente y más en la costumbre y otros conceptos equívocos como el de sentido crítico, justicia, integridad, veracidad, etc.

Silicon Valley se apresura por aportar una solución próxima a sus intereses y aceptable por resultados, ya se trate en el mencionado entorno resbaladizo de la automatización de las decisiones éticas, como en la propia comprensión de la ética humana.

Según Tim O’Reilly,

«El beneficio de la ética humana se produce a menudo a largo plazo. Buena parte de la ética humana consiste en anular intereses a corto plazo. Problemas de vivienda, cambio climático, desigualdad… ninguno de estos problemas son sostenibles a largo plazo».

En breve en tu vida (y tu teléfono): el conflicto entre ética y automatización

Los expertos no tienen que explicarnos algo que intuimos: basta con intentar automatizar las normas éticas para comprender hasta qué punto la ética humana puede ser incongruente y contradictoria en situaciones carentes de contexto. En definitiva: la ética humana sólo funciona de manera óptima cuando es ejecutada por humanos en un momento y contexto determinados.

Citando el trabajo del Markkula Center for Applied Ethics (institución del valle de Santa Clara que lleva el nombre de uno de sus principales donantes y primer inversor en Apple, Mike Markkula), la experta en redes neurales Rachel Thomas, citada por Tim O’Reilly, sintetiza esta paradoja con la reflexión siguiente mediante la elaboración d un listado con las principales problemas éticos que afrontan los servicios tecnológicos.

La lista de problemas que afrontar es imponente: la concentración de poder entre los gigantes tecnológicos, la vigilancia, el sesgo de los algoritmos, la manipulación, los efectos de la economía de la atención, la tensión entre democracia y solucionismo tecnológico, el Taylorismo digital, el declive de la responsabilidad humana, el riesgo de que la tecnología se convierta en una monocultura… y el auge de la opacidad en las herramientas que paseamos en el teléfono.

Hemos superado la fase de la negación y nos adentramos en una conversación colectiva que se desarrollará durante años, de la cual surgirá una nueva epistemología (teoría del conocimiento) tecnológica. Y regulaciones, esperemos que equilibradas.