Al profesor Antonio Rodríguez de las Heras le gustaba decir que somos seres protéticos, alefitas, en conexión continua con el Aleph digital. Es la nueva evolución del ser humano, a quien el humanismo puso en el centro y al que el transhumanismo está buscando una nueva ética; para estos humanos “avanzados” que van camino de convertirse en posthumanos gracias al control del propio proceso evolutivo a través de la ciencia y la tecnología.
En medio, un profundo debate que el catedrático en la Escuela Johns Hopkins Francis Fukuyama plantea en los siguientes términos: “La idea de la igualdad de derechos se basa en que todos poseemos una esencia humana más importante que las diferencias de color, sexo, etc. Si la base del proyecto transhumanista consiste en modificar esa esencia gracias a la tecnología, y empezamos a transformarnos en algo superior, ¿qué derechos reivindicarán esas criaturas perfeccionadas y qué derechos poseerán en comparación con los que se queden atrás?".
Quizás todo dio un salto en marzo de 1989 cuando Tim Berners-Lee presentó a su jefe, Mike Sendall, una propuesta para un sistema de gestión de la información. "Vago, pero emocionante" , según las palabras que Sendall escribió sobre la propuesta. Era el “diseño” de la web.
Aunque posterior a los robots industriales, la web ha sido la primera protagonista en el cambio al que estamos asistiendo, pues a base de sumar capas de tecnología se ha convertido, como indica la Web Foundation, en “una plaza pública, una biblioteca, un consultorio médico, una tienda, una escuela, un estudio de diseño, una oficina, un cine, un banco y mucho más”. Donde todo pasa.
Sin embargo, tras más de 30 años, Sir Tim nos invita a celebrar lo conseguido pero también a reflexionar sobre cómo mejorarla, (en referencia al ecosistema que ha generado) principalmente centrándonos en tres fuentes de disfuncionalidad de la web que nos están afectando directamente:
Gobiernos, empresas y ciudadanos tenemos responsabilidades a la hora de abordar estas disfunciones. Es por tanto necesario que nos dotemos de un nuevo contrato para la web que nos permita preservar un espacio accesible, seguro, respetuoso con la privacidad de las personas y participativo.
Sin embargo, parece que el mismo concepto de web ha quedado un tanto “obsoleto”, pese a que ésta evoluciona al ritmo de los avances tecnológicos conforme se van sucediendo, como el internet de las cosas (IoT), big data, cloud computing, inteligencia artificial (visión artificial, semántica, analítica, etcétera), sistemas ciberfísicos, fabricación aditiva, robótica colaborativa, realidad aumentada y realidad virtual, ciberseguridad o blockchain y, por qué no, ingeniería semántica.
Sin embargo, la tecnología nos ciega y tal vez convenga recordarnos que, frente a tanta etiqueta tecnológica, a veces olvidamos que al final hay que tomar decisiones que imponen mantener el equilibrio presupuestario en medio del despliegue tecnológico. Decisiones que afectan a personas y que, por tanto, generarán conflictos. Conflictos que van de romper espacios de confort o de miedos, y hasta saciar egos o eliminarlos. Decisiones que podrán desembocar en nuevos productos o servicios, que pueden cambiarlo todo. Y todo esto va más de personas que de máquinas, por eso es tan importante hablar de un humanismo digital.
El manifiesto de Viena sobre humanismo digital (2019) ve claramente lo que de compromiso social tienen las decisiones individuales, pero también de empresas e instituciones: “Hay mucho en juego y el desafío de construir una sociedad justa y democrática con los seres humanos en el centro del progreso tecnológico debe abordarse con determinación y con ingenio científico. La innovación tecnológica exige innovación social, y la innovación social requiere un amplio compromiso social”.
Por eso el punto clave, en la empresa, está en empoderar a los trabajadores de alto impacto, más que centrarnos en añadir toda la tecnología disponible a nuestros procesos. Como apunta un artículo publicado por la consultora Gartner que, pese a ser de 2015, tiene plena vigencia. "Las empresas que adoptan el humanismo digital utilizan la tecnología para redefinir la forma en que las personas logran sus objetivos. Permiten a las personas lograr cosas que antes no podían".
Tecnología y neurociencia
Pero vamos un paso más allá. Toda la tecnología está ayudando a la ciencia, y en particular a la neurociencia, a comprender el funcionamiento del cerebro a nivel celular. Gracias a la neuroimagen, o mediante otras técnicas muy específicas, incluidas en el informe de la Fundación Bankinter, conocemos mejor el funcionamiento de nuestro cerebro, lo que nos permite aplicar este conocimiento a campos como la medicina, la educación, la gestión de las relaciones laborales y el trabajo en equipo, así como a distintas áreas de negocio.
Sin embargo, detrás de la tecnología encontramos muchas veces etiquetas que se suceden unas a otras tan rápidamente como el ritmo al que avanza, sin que lleguemos a plantearnos qué puede haber detrás de ella, quedándonos con la imagen o la promesa que representa. Es el caso, por ejemplo, del concepto de inteligencia artificial. “¡Si no sabemos qué es la inteligencia natural! Es como una metáfora de una metáfora”.
Lo dice en una entrevista Rafael Yuste, neurocientífico y catedrático de la Universidad de Columbia (EE UU), en la que asevera que “más que de inteligencia artificial yo hablaría de algoritmos de optimización, que algunos están basados en los modelos de circuitos neuronales de los años 60. Están imitando algo que ya hemos descartado en la neurociencia y, a pesar de todo, les ha estado funcionando muy bien. Lo lógico es que cuanto más aprendamos sobre el cerebro, mejor van a funcionar los algoritmos del machine learning, porque serán mucho más efectivos”.
Sin embargo, el propio Rafael Yuste, que lidera el proyecto BRAIN, que auspició la administración Obama en EE UU con el objetivo de “conseguir una fotografía dinámica del cerebro en acción y entender mejor cómo pensamos, cómo aprendemos y cómo recordamos”, es consciente del alcance de todo esto:
¿Qué hay, por tanto, detrás de la inteligencia artificial y de su ética? Lo plantea Andrés Ortega Klein: el debate sobre el control de la tecnología por los propios humanos, una cuestión de influencia y de poder, de geopolítica.
Así, muchas veces la inteligencia artificial, como afirma Andrés Ortega, no hace sino “amplificar problemas de fondo distintos como la mala estadística –sesgos–, ausencia de valores –micromarketing político– o la mediación por internet –acceso a datos personales y agencia oculta (hidden agency)”. Sin embargo, “lo que sí es la fuente de problemas éticos importantes específicos de la IA es la creciente autonomía de las entidades artificiales”. Leer el artículo de Andrés Ortega aporta una visión completa sobre los retos que nos plantea el avance tecnológico y, en particular, la inteligencia artificial.
Afirma Itziar de Lecuona que aunque existen el Libro Blanco sobre inteligencia artificial de la Unión Europea y el Reglamento General de Protección de Datos (RGPD), entre otros mecanismos legales, “el paradigma digital necesita revisar los requisitos éticos y legales que acordamos en el modo analógico para generar y transferir conocimiento en entornos altamente digitalizados”.
La “privacidad mental”
"Nada era tuyo excepto los pocos centímetros cúbicos dentro de tu cráneo". Se lee en 1984, la novela que George Orwell publicó en 1949. De seguir con este ritmo de avances, parece que esta profecía también se verá superada. Facebook, por ejemplo, ya no se conforma con espiar nuestros datos personales; ahora está creando tecnología para leer nuestra mente, Tesla también está investigando los límites de nuestro cerebro con la posibilidad de vincularlo al smartphone. No son los únicos.
El propio Rafael Yuste, tal vez porque desde su despacho ve aquel desde el que salió la energía atómica que luego se lanzó en forma de bomba, consciente de los beneficios de la neurociencia a la par de los riesgos que entraña, es uno de los impulsores de una iniciativa que busca generar los llamados neuroderechos.
Cuando la industria tecnológica lleva una década extrayendo todos los datos que puedan obtener del uso de aplicaciones y dispositivos, la posibilidad de exprimir cada neurona es un filón irresistible. “A corto plazo, el peligro más inminente es la pérdida de privacidad mental”, afirma.
El reto los neuroderechos
El equipo del Doctor Yuste ha iniciado una iniciativa por los neuroderechos en la que, por una parte, busca promover pautas éticas en el uso de la neurotecnología, mediante la adopción de un juramento tecnocrático, una suerte de juramento hipocrático orientado para los tecnólogos que desarrollan la tecnología, de forma que obligue a ingenieros y otros especialistas del campo de la neurotecnología a seguir una serie de pautas deontológicas. Por otra, aspira a que estas normas sean recogidas en la Declaración de Derechos Humanos con cinco neuroderechos:
Sin embargo, al hablar de estos derechos, es tan importante su definición como establecer mecanismos y procedimientos que respondan a las necesidades y oportunidades. Algunos países, como Chile, están trabajando para incorporar estos derechos en su Constitución y la Unión Europea, a través del Plan de Acción de la Unión Europea sobre Derechos Humanos y Democracia para 2020-2024, aborda el reto de las tecnologías, tanto existentes como emergentes, como dos de sus prioridades.
Mientras tanto, en España se ha constituido, en junio de 2020, un grupo de expertos para la elaboración de una Carta de Derechos Digitales y en julio de 2020 el Consejo Asesor de Inteligencia Artificial en un claro indicador de hacia dónde se dirigen las inquietudes y las esperanzas con el avance de las tecnologías.
Muchas de las decisiones a aplicar en este sentido deberán soportarse sobre valores comunes con independencia de que tengamos culturas diferentes, pues si bien existen tensiones de poder hay otra más potente que se llama ser humano.