Una demostración simple de cómo a veces fracasamos a pesar de toda la tecnología a nuestra alcance. Acudimos con prisas a las Jornadas de Filosofía e Inteligencia Artificial , en la Facultat de Filosofia de Catalunya, y tanto la pantalla luminosa de la parada del autobús como la app que tenemos en el móvil nos indican que la llegada de nuestro transporte es “inminente”. En efecto, un autobús aparece y lo abordamos. No es el nuestro, sin embargo: se trata de otro autobús que tendría que haber llegado unos minutos después. Pero ¡estábamos seguros de haber visto el número correspondiente en el frontal del vehículo!
Llegamos tarde. Y en el aula magna (repleta de público) de la facultad, el profesor Joan Albert Vicens recuerda cómo un conductor de autobús que se guiaba únicamente por su GPS chocó con un puente en Seattle en el 2008. También sugiere que la experiencia e intuición de los pilotos debería imponerse a la superautomatización de los aviones, recordando lo ocurrido en los dos accidentes del modelo Boeing 737 Max 8 que costaron la vida a 346 personas. “La inteligencia artificial nos desposee de capacidades en algún sentido”, es la conclusión de Vicens al respecto.
En el caso de nuestro autobús, el fallo se dio por partida doble: en el sistema que nos hace de muleta para movernos por la ciudad y en nuestra propia mente, que creyó ver el número que esperábamos. Posiblemente, un transhumanista resolvería un problema tan tonto de percepción abogando por la unión del pobre humano que se equivoca con un software que no lo hace. O quizás con el propio hardware. El teléfono móvil es solo un apéndice: quizás sería mejor la unión con la máquina…
Siguiendo en la escala de la anécdota, los llamados biohackers son la expresión radical del transhumanismo.Surgen de la siempre productiva cultura de garaje de Estados Unidos y son capaces de experimentar insertándose bajo la piel chips y sensores biométricos, o la llave electrónica del coche. Lo que hacen no tiene gran utilidad práctica realmente, pero lo importante es su convicción de que es mejor convertirse en ciborg.
El transhumanismo –y su derivado extremo, el posthumanismo– consideran que la evolución darwiniana ha tocado techo y que el desarrollo exponencial de la inteligencia artificial –IA, a partir de ahora– no nos deja otra salida que integrarnos en la tecnología. “Es la convicción de que el ser humano está en el soporte inadecuado”, dice Antonio Diéguez, catedrático de Lógica y Filosofía de la Ciencia de la Universidad de Málaga. “Aristóteles se reiría de esto…”, añade. Diéguez es autor de Transhumanismo: la búsqueda tecnológica del mejoramiento humano (Herder, 2017), y sostiene que esta doctrina “tiene más base en la biotecnología que en la IA y en la robótica. Soy bastante escéptico, pero hay filósofos importante que se lo toman en serio”.
Muy probablemente no se hablaría en un aula magna universitaria de biohackers, de ciborgs o de cerebros volcados en un avatar digital después de la muerte si no fuera porque todo esto tiene un componente escatológico importante, no en el sentido excremental del término (aunque algo podría haber) sino en el filosófico. Se trata de la trascendencia.
El transhumanismo quizás no habría salido de un ámbito ciberpunk si no fuera porque su gran apologeta es Ray Kurzweil, director de ingeniería de Google
“El transhumanismo es la nueva utopía del siglo XXI; viene a decir: vamos a cambiar la evolución”, dice un estudioso del tema, el urbanista Albert Cortina. Y observa que todo esto tiene detrás a las grandes corporaciones de Silicon Valley. En efecto, es muy posible que estas ideas no hubieran salido nunca de un ámbito ciberpunk si no fuera porque su gran apologeta es nada menos que el director de ingeniería de Google, Raymond Kurzweil, por más señas inventor (diseñó, siendo muy joven, una máquina lectora para ciegos), teórico visionario, un hombre empeñado en la prolongación de la vida, especialmente la suya propia.
Kurzweil, en La Singularidad está cerca: cuando los humanos trascienden la biología (Lola Books, 2012), publicado originalmente en el 2005, va un paso más allá del transhumanismo moderno formulado quince años antes por el filósofo futurista Max More (seudónimo del irlandés Max O’Connor que se traduce por Max Más), al afirmar que el desarrollo exponencial de la IA hará que para el año 2100 se alcance la “superinteligenc ia ”: cada nuevo cerebro artificial será capaz de diseñar otro aún más potente; éste hará lo mismo que el anterior, y así sucesivamente…
Algunos de los teóricos del transhumanismo, antiguos desarrolladores de IA hoy seriamente preocupados por su impacto, así como los a veces inefables biohackers de California exponen sus ideas en un libro de muy reciente publicación: Cómo ser una máquina, de Mark O’Connell (Capitán Swing, 2019). Incluido Max More, que parece hoy más interesado en la “extensión de la vida” (como Kurzweil) mediante la criogenización de cadáveres o de sus cabezas metidas en un tarro en espera de ser un día insertadas en un cuerpo artificial.
Los expertos le han dado vueltas a la idea de la Singularidad y han presentado todo tipo de hipótesis, algunas de ellas apocalípticas al mejor estilo de Terminator: esa “explosión de inteligencia” hará que los humanos acabemos siendo prescindibles; una IA fuerte hasta puede llegar a asesinarnos… ¿Exageran? Podría ser. Pero cuando tales vaticinios vienen de Steve Hawking –”El desarrollo de una inteligencia artificial completa podría significar el fin de la raza humana”, dijo en el 2014, cuatro años antes de fallecer– o de Elon Musk, una de las grandes personalidades del momento, es como para pensarlo. Musk no ha dejado de reiterar esa advertencia, pero apuesta porque el ser humano se imponga a las computadoras.
Si nos ponemos en el mejor de los mundos posibles, una comunión con la máquina, lo que tenemos delante por el momento es, en palabras de Albert Cortina, “un nuevo mesianismo, una pseudoreligión”, que vende una nueva forma de inmortalidad.
No hay que extrañarse entonces de que la teología cristiana lleve “años atenta a la inteligencia artificial”, según afirma el doctor en la materia, profesor de bioética en la Universitat Blanquerna e ingeniero químico además de sacerdote Juan Ramón La Parra. “Los trabajos en IA han contribuido al conócete a tí mismo” socrático, dice, pero “una IA fuerte –la Singularidad– y el transhumanismo corren el riesgo de rebajar al hombre. Los defensores de una IA fuerte parten de una base religiosa secularizada, apocalíptica. Pero ¿qué relato de salvación ofrece la IA en un escenario apocalíptico?”
Todo esto propicia un interesante debate intelectual, y científico también. Por ejemplo, en opinión de Javier Montserrat,profesor de psicología en la Universad Autónoma de Madrid, “nos podemos plantear si es posible hablar de identidad ontológica y funcional entre ordenador y ser vivo. En mi opinión, no es posible. Uno y otro funcionan de diferente manera”. Así, “entre el teléfono móvil y yo intercambiamos datos, pero nada más”.
Se rechaza lo físico por lo virtual, se reduce nuestra historia a datos, y esto es algo parecido a una condena
JUAN RAMÓN LA PARRA Teólogo
Los problemas que afronta ahora mismo la relación entre los humanos y la inteligencia artificial son otros, más palpables y urgentes. “Es muy probable que nos estén distrayendo con historias de ciencia ficción”, advierte Antonio Diéguez. En la mente de todos está el “enorme poder”, señala, que se ha concentrado en manos de empresas como Google y Facebook, y que implican lo que todos coinciden en calificar de una reducción del ser humano a datos, el llamado big data. Por supuesto, con intereses comerciales. Así, Montserrat Esquerda, directora del Instituto Borja de Bioética, recuerda cómo Google ha adquirido los datos médicos de millones de pacientes en Estados Unidos, con la promesa (¿creíble?) de no ponerlos a la venta.
Pero la crítica por parte de los humanistas va más allá de estos efectos ya de por sí preocupantes, y obliga a buscar un punto de encuentro con los tecnólogos.
“Se rechaza lo físico por lo virtual, se reduce nuestra historia a datos, y esto es algo parecido a una condena”, sentencia el teólogo La Parra. Vicens apunta que, “siguiendo a Xavier Zubiri, la inteligencia humana aprende realidades, y la realidad no se reduce a datos que nos llegan por sistemas automáticos, una realidad digitalizada, facilitada, que no plantea preguntas. Y, como dice Ortega y Gasset, nos damos cuenta de la realidad cuando nos plantea preguntas”.
No estamos tan locos, los desarrolladores nos planteamos una ética
ELISABET GOLOBARDES Catedrática de La Salle
Los datos constituyen el cambio de paradigma en la concepción de la IA. “Es insensato pensar que lo que programamos es neutro. Lo más honesto es explicar por qué estos criterios nos parecen nobles. Pero no son neutros, y en ocasiones están preñados de prejuicios o de tópicos. Es mejor explicarlos”, puntualiza Francesc Torralba, director de la cátedra Ethos de ética aplicada en la Univsersitat Ramon Llull.
La réplica de los programadores no puede ser otra: “No estamos tan locos, los desarrolladores nos planteamos una ética, y me atrevería a decir que la comunidad de IA es ética y responsable”, afirma Elisabet Golobardes, investigadora y catedrática de La Salle. “Estamos muy preocupados por hacer un mundo mejor, estamos apostando por una utopía; la clave está en la educación”.
Del mismo modo, la experta Carme Torras, profesora en el Instituto de Robótica de la Universitat Politècnica de Catalunya e implicada en un proyecto europeo sobre ética y robótica, asegura que “es importante que las personas tengan el control”. Torras, que se dedica además a la divulgación pedagógica a través de la literatura de ciencia ficción, afirma que “la comunidad robótica está muy concienciada de la necesidad de diálogo” entre tecnólogos y humanistas, algo en lo que, por cierto, coincidían todos los ponentes de las Jornadas. “Todos hemos convergido en un punto de encuentro, hemos superado un poco el naufragio en comunicación”, concluía Elisabet Golobardes.
Hace dos años, otras jornadas, Inteligencia artificial: sueños, riesgos y realidad, concluyeron con una Declaración de Barcelona que reclamaba prudencia, transparencia y responsabilidad en el desarrollo de la IA. Ahora, la cita de tecnólogos y filósofos se hacía necesaria porque, según su promotor y coorganizador, el ingeniero Francisco Batlle, “la IA se está adentrando peligrosamente en conceptos que le son extraños: mente, humano, conciencia…, un terreno en el que la filosofía ha transitado mucho, y es ahora cuando, más que nunca, se impone que colaboren en una necesaria reflexión conjunta”.
La inteligencia artificial puede proveer soluciones a problemas complicados pero no a problemas complejos
MONTSERRAT ESQUERDA Experta en bioética
Si, como decía Montserrat Esquerda, “en este momento, la IA puede proveer soluciones a problemas complicados pero no a problemas complejos”, aún estamos lejos de una IA fuerte que nos pinte un panorama apocalíptico. “La máquina, por exceso de datos, puede llegar a manipularte –reconocía Núria Agell, matemática de Esade–. Ya tenemos las máquinas que nos están superando en capacidad de cálculo, memoria y velocidad. Pero se está investigando en la interacción persona-IA, en introducir nuevas formas de razonamiento; se tiene que intentar trabajar con etiquetas lingüísticas valorativas, que sirvan para tomar decisiones con el razonamiento que nosotros los humanos utilizamos”.
De modo que la vieja cuestión planteada por Alan Turing en 1950, ¿puede pensar una máquina?, todavía sigue abierta.
Ver artículo original