Depuis que l'homme est homme, el ser humano tiene una visión geocéntrica del mundo, donde cuanto lo rodea es un medio para su crecimiento. Sucede con la naturaleza, las materias primas, los animales, la vegetación, otros seres humanos... Y sucederá con los droides.

Hace 1 año, McKinsey publicaba un estudio -conjuntamente con Oxford y el World Bank- que predecía una pérdida de entre 400 y 800 millones de puestos de trabajo para 2030 a causa de la creciente automatización. Postulaba que el 50% de la actividad laboral hoy en día es técnicamente automatizable, con un 60% de los trabajos que ya podrían serlo en más de un 30% de su alcance actual. El informe alerta de que 375 millones de personas (¡15% de la población mundial!) no podrá reincorporarse al mercado laboral por falta de formación. Serán, paradójicamente, ciudadanos de las naciones más desarrolladas, donde la revolución tecnológica va a ser más profunda y veloz.

Un estudio similar del World Economic Forum presentaba hace 3 meses un escenario más alentador. Aunque estimaba una pérdida de empleos para el 2025 de 75 millones, también consideraba la creación de 133 millones nuevos empleos. Como en tantas ocasiones, el problema no es de cantidad sino de cualidad... Sobre este superávit planea la sombra de anteriores revoluciones industriales, donde los requisitos de acceso a las nuevas oportunidades rara vez los cumplen quienes han perdido sus puestos de trabajo. En ese ecosistema, gestión del cambio y polivalencia se erigen como piezas claves del futuro desarrollo profesional.

En este sentido, transporte y logística son dos de los sectores más automatizables. Sean desplazamientos urbanos o interurbanos, de mercancías o de personas, la cadena de suministro ocupa a un porcentaje muy significativo de la sociedad y dispone de un peso elevado en el PIB (8% en España, alcanzando el 12% en alguna CCAA como Cataluña). Numerosos expertos internacionales analizan cómo minimizar el impacto social que supondrá para los taxistas -por ejemplo- que los vehículos funcionen de manera autónoma, pero pocos se preguntan cómo nos afectará a los usuarios interrelacionarnos permanentemente con IAs cual si fueran personas... y nos afectará.

Me dijo un taxista hace tiempo que ejercía más de psicólogo que de conductor, porque para muchos clientes el valor añadido del servicio era precisamente la conversación del trayecto. Con o sin robots, somos seres sociales. Si conversamos con un desconocido, lo haremos con una IA, una IA unívoca estemos en casa, en el coche o en el trabajo. Podremos ensayar la ponencia que damos esa tarde, repasar el examen de historia camino del colegio e incluso interesarse por cómo fue la reunión de vuelta a casa. Sabrá valorar si es o no el momento de hablar, cómo y de qué. Habrá quien se enamore, quien se ría, quien discuta y hasta quien se ofenda y la desconecte, porque la humanizaremos. Y en un futuro, los niños recordarán a esa Mary Poppins virtual que les contaba cuentos antes de dormir como a alguien más de la familia.

Se abre un mundo de opciones con su lado bueno y su lado malo, donde el concepto de privacidad va a ser profundamente debatido y distorsionado.

En cualquier caso, lo que es evidente es que estamos, como sociedad, a las puertas de un enorme conflicto emocional con las IA de nuestro entorno. Recientemente abordaba este concepto, conforme a las tesis de Julie Carpenter, en base al vínculo emocional que experimentaron los soldados destinados a Irak con sus MARCbots, máquinas con más parecido a un coche teledirigido que a un droide... ¡Qué no pasará cuando se comuniquen y tengan aspecto humanoide! En esencia, Carpenter había detectado una empatía similar con los robots a la que existiría con seres humanos que asumieran esas funciones y responsabilidades, que es precisamente la base primigenia de este concepto.

Surgen tantos ámbitos de controversia, tantas cuestiones límite donde dada motivo esgrimido puede ser objeto de debate social por las implicaciones que conlleva. ¿Es ético enviar un ejército de máquinas a luchar contra seres humanos? En una situación con dos víctimas potenciales, ¿un droide salvaría por % de éxito, por edad, o por afinidad (salvando p.ej. antes a un militar aliado que a un civil menor desconocido)? ¿Puede una IA dudar o experimentar repulsa por disparar una bomba si existe un 0,1% de posibilidades de que haya víctimas civiles o por ser el objeto sexual de un ser humano? Las preguntas surgen más rápido que avanza la ciencia. Antes de que las IAs tomen consciencia de sí mismas y las consecuencias de sus actos, habrá que actuar con responsabilidad de especie.

En un momento dado habrá que abordar si los droides tienen derechos y dignidad, definiendo alcance y límites. Ese camino ya lo hemos recorrido; desde el contrato social de Rousseau al discurso de Roosevelt en UN, hay dos siglos de avances sociales. Acaba con una declaración de derechos robóticos a imagen y semejanza de la acordada en 1948, cuyo primer artículo establece que "Todos los seres humanos nacen libres e iguales en dignidad y derechos y, dotados como están de razón y conciencia, deben comportarse fraternalmente los unos con los otros". Menos social y más tecnológica, quizás, pero declaración al fin y al cabo, que permita definir una legislación específica que regule los engranajes del escenario difuso que estamos construyendo.

Si vamos a jugar a ser dioses, creando una IA con consciencia, esperemos estar a la altura de Eleanor Roosevelt o Robert Schuman quienes, en plena posguerra, lideraron al ser humano superando barreras políticas, sociales, económicas o religiosas. Un modelo que se antoja necesario para no acabar traspasando a los androides nuestras miserias morales a la par que nuestras hazañas tecnológicas.