2084
Inteligencia artificial
y el futuro de la humanidad
John C. Lennox
Enfermería Cristiana de España surge como una respuesta a los deseos de enfermeras/os de encontrar un nexo de unión entre la fe cristiana y su activi-
dad profesional. Vinculada internacionalmente al NCFI (Nurses Christian Fellowship International – Comunidad Internacional de Enfermeras Cristianas), pretende generar una conexión de las enfermeras cristianas entre sí y con el movimiento internacional para el desarrollo, crecimiento y empoderamiento de las mismas con una clara vocación de servicio a la enfermería, a la iglesia y a la sociedad en general, con el objetivo de la evangelización y la promoción de la excelencia.
Contacto: ncfi.spain@gmail.com
Blog: www.emergenciavital.org
Sección grupos profesionales GBG: www.porfineslunes.org
El FED es una organización que nace con el reto de convertirse en el Foro de referencia de profesionales evangélicos vinculados con el mundo del derecho. El abanico de profesionales es amplio, ya que está destinado no solo a abogados, sino a jueces, fiscales, procuradores, asesores fiscales, laborales o de banca, peritos, funcionarios y técnicos de las Administraciones públicas, estudiantes de derecho y cualquier profesional que se desenvuelva en el ámbito jurídico. Entre sus fines está estimular que el ejercicio profesional de las personas que integran el foro se desarrolle conforme a los más altos niveles de conducta cristiana; promoviendo así dichos niveles en la sociedad española.
Contacto: foroevangelicodelderecho@gmail.com
info@federecho.es
Web: www.federecho.es
La Alianza Evangélica Española es la entidad evangélica interdenominacional más antigua de España, desde 1877, sirviendo como ámbito de comunión cristiana, compartiendo recursos espirituales para fortalecer una visión bíblicamente centrada de todos los aspectos de la vida, y transmitir una cosmovisión bíblica a la sociedad. Nuestro lema: Juntos para transformar el mundo.
Contacto: comunicacion@alianzaevangelica.es
Web: www.alianzaevangelica.es
WhatsApp: +34 615 638 982
Dirección postal: Santa Otilia 27-29, Esc. A Local, 08032 Barcelona - ES
El Grupo de Psicólogos Evangélicos (GPE) aglutina a diferentes profesionales del ámbito de la psicología clínica y sociosanitaria, educativa, de la psicología aplicada al ámbito empresarial y de la psicología social. Uno de sus principales objetivos es crear un espacio de intercambio de ideas, experiencias, proyectos y preocupaciones, sobre temas vinculados a la psicología y siempre desde la perspectiva de la fe cristiana.
Contacto: psicologosevangelicos@gbunidos.es
A todos los nietos del mundo, incluyendo
a los míos propios —Janie Grace, Herbie, Freddie, Sally, Lizzie, Jessica, Robin, Rowan, Jonah y Jesse— con la esperanza de que este libro les ayude a enfrentarse a los retos de un mundo dominado por la IA.
CONTENIDO
Capítulo 1
Conocer el terreno
Capítulo 2
Primera gran pregunta: ¿De dónde venimos?
Capítulo 3
Segunda gran pregunta: ¿Hacia dónde vamos?
Capítulo 4
Inteligencia artificial débil: ¿El futuro es radiante?
Capítulo 5
Inteligencia artificial débil: ¿Quizás el futuro no sea tan radiante después de todo?
Capítulo 6
Mejorar a los humanos
Capítulo 7
Inteligencia artificial fuerte: ¿El futuro es oscuro?
Capítulo 8
Expediente Génesis: ¿Qué es un ser humano?
Capítulo 9
El origen de la moral humana
Capítulo 10
El verdadero Homo Deus
Capítulo 11
El shock del futuro: El regreso del hombre que es Dios
Capítulo 12
El Homo Deus en el libro del Apocalipsis
Capítulo 13
El tiempo del fin
PREFACIO
En este libro intento abordar la cuestión de hacia dónde va la humanidad en cuanto al crecimiento tecnológico, la bioingeniería y, en particular, la inteligencia artificial (IA). ¿Seremos capaces de crear vida y superinteligencia artificial? ¿Se modificará el ser humano a sí mismo hasta el punto de convertirse en algo totalmente distinto? Y si eso ocurre, ¿qué implicaciones tienen los avances de la IA en nuestra visión del mundo y, en particular, en nuestra visión de Dios?
Espero que el título orwelliano no suene demasiado pretencioso; primero, porque mi libro no es una novela distópica y, segundo, porque no soy George Orwell. De hecho, el título me lo sugirió mi colega de la Universidad de Oxford el Profesor Peter Atkins, cuando íbamos de camino a participar como contrincantes en un debate titulado “¿Puede la ciencia explicarlo todo?”. Le doy las gracias por la idea y por los intensos encuentros públicos en los que hemos debatido sobre ciencia y Dios.
También doy las gracias a otros muchos, especialmente a la Dra. Rosalind Picard del Media Lab del Instituto de Tecnología de Massachusetts (MIT) por sus útiles observaciones. Asimismo, gracias al Profesor David Cranston, al Profesor Danny Crookes, al Profesor Jeremy Gibbons, al Dr. David Glass y a mi asistente de investigación el Dr. Simon Wenham por su inestimable ayuda.
Mis especialidades son las matemáticas y la filosofía de la ciencia, no la IA, así que el lector, sobre todo el experto en este campo, quizá piense que estoy invadiendo su campo. Quiero aclarar que mi intención es otra. Creo que hay diferentes grados de implicación y de relación con la IA. Están los pensadores pioneros y luego están los expertos que programan el software utilizado en los sistemas de IA. A continuación, tenemos a los ingenieros que construyen el hardware. Seguidamente, están quienes entienden lo que los sistemas de IA pueden hacer y trabajan para desarrollar nuevas aplicaciones. Y por último tenemos a los escritores, algunos con formación científica y otros no, interesados en la importancia y el impacto de la IA a nivel sociológico, económico y ético.
Está claro que uno no necesita saber cómo construir un vehículo o un arma autónoma para tener una visión informada sobre la ética del uso de tales artefactos. No necesitas saber cómo programar un sistema de seguimiento de compras para tener una opinión válida sobre la invasión de la privacidad.
De hecho, en todos los niveles de implicación hay un gran interés por escribir para el lector curioso, y hacerlo a temor de la comprensión popular de la ciencia. Ese es el nivel que tenía en mente al escribir este libro y estoy agradecido por todas aquellas personas, expertas en diferentes ámbitos, que ya han escrito sobre el tema.
Capítulo 1
Conocer el terreno
El ser humano tiene una curiosidad insaciable. Nos hemos hecho preguntas desde el principio de los tiempos. Sobre todo, nos han preocupado las grandes preguntas sobre el origen y el destino: ¿De dónde vengo y a dónde voy? La importancia de estas preguntas es obvia. Nuestra respuesta a la primera da forma a nuestro concepto de quiénes somos, y nuestra respuesta a la segunda nos ofrece metas por las que vivir. Juntas, nuestras respuestas a estas preguntas constituyen el esqueleto de nuestra cosmovisión, esa narrativa que aporta un sentido a nuestras vidas.
El problema es que no son preguntas fáciles, como demuestra el hecho de que existen múltiples respuestas y muchas de ellas son totalmente contradictorias. Sin embargo, en general no hemos dejado que eso nos detenga. A través de los siglos, el ser humano ha propuesto algunas respuestas desde la ciencia, la filosofía, la religión, la política, etc.
Dos de los escenarios futuristas más famosos son la novela Un mundo feliz de Aldous Huxley, publicada en 1931, y la novela 1984 de George Orwell, publicada en 1949. En diversas ocasiones ambas han estado en la lista de las novelas inglesas más influyentes. Por ejemplo, en 2005 la revista Time escogió la novela de Orwell como una de las 100 mejores novelas en lengua inglesa escritas entre 1923 y 2005. Ambas novelas son distópicas: según el Diccionario inglés publicado por Oxford University Press, “describen una condición o un lugar imaginario lo más horrible que uno pueda concebir”. Sin embargo, los lugares horribles que describen son muy diferentes entre sí, y esas diferencias, que nos muestran cosas que nos serán útiles más adelante, quedaron bien retratadas en el libro del sociólogo Neil Postman Divertirse hasta morir:
Orwell advierte que seremos vencidos por una opresión impuesta desde el exterior. Pero en la visión de Huxley no hace falta un Gran Hermano para privar a la gente de su autonomía, su madurez y su historia. Según él lo percibió, la gente acabará amando aquello que la oprime y adorando las tecnologías que anulan su capacidad de pensar.
Orwell temía a los que prohibirían los libros, mientras que Huxley temía que no habría razón alguna para prohibirlos debido a que nadie tendría interés en leerlos. Orwell temía a los que nos privarían de información. Huxley, en cambio, temía a los que nos darían tanta que quedaríamos reducidos a la pasividad y al egoísmo. Orwell temía que nos ocultarían la verdad, mientras que Huxley temía que la verdad quedaría anegada por un mar de irrelevancia. Orwell temía que nos convirtiéramos en una cultura cautiva. Huxley temía que nos convirtiéramos en una cultura trivial […] Resumiendo, Orwell temía que lo que odiamos terminará arruinándonos, y en cambio, Huxley temía que lo que amamos será lo que nos arruine.1
Orwell introdujo conceptos como la vigilancia generalizada en un estado totalitario, el “control del pensamiento” y la “neolengua”, conceptos que hoy día aparecen cada vez más en relación con los avances en la inteligencia artificial (IA), particularmente el intento de crear una tecnología informática que llegue a hacer el tipo de cosas que la mente humana puede hacer —en resumen, la imitación de la mente—. En la actualidad se invierten miles de millones de dólares en el desarrollo de sistemas de IA y, como no es de extrañar, hay un enorme interés en cuanto a dónde nos va a llevar todo esto: por ejemplo, mejor calidad de vida a través de la asistencia digital, innovación médica y florecimiento humano por un lado, y miedo a la pérdida de puestos de trabajo y a sociedades con vigilancia orwelliana por otro.
Incluso el Papa se ha pronunciado. En septiembre de 2019, advirtió que la carrera por crear inteligencia artificial y otras formas de desarrollo digital suponen el riesgo de aumentar la desigualdad social a menos que el trabajo vaya acompañado de una evaluación ética del bien común. Dijo: “Si los progresos tecnológicos fuesen causa de desigualdades cada vez mayores, no podríamos considerarlos como verdaderos progresos. Si el llamado progreso tecnológico de la humanidad se convirtiera en enemigo del bien común, conduciría a una desafortunada regresión, a una forma de barbarie dictada por la ley del más fuerte”.2
La mayoría de los éxitos de la IA tienen que ver con la construcción de sistemas que hacen algo que aún requiere de la inteligencia humana para su implementación. Sin embargo, en el lado más especulativo, al menos por el momento, existe un enorme interés por el afán mucho más ambicioso de crear sistemas que lleguen a realizar todo lo que la inteligencia humana puede hacer, es decir, la inteligencia artificial general (IAG) —que algunos piensan que superará a la inteligencia humana en un plazo relativamente corto, ciertamente para 2084 o incluso antes, según algunas especulaciones—. Algunos imaginan que la IAG, si alguna vez llegamos hasta ahí, funcionará como un dios; otros, como un déspota totalitario.
Mientras buscaba una manera de introducir estos temas cada vez más presentes y las esperanzas y los temores que generan, me vinieron a la mente tres libros contemporáneos que han sido éxitos de ventas. Los dos primeros son del historiador israelí Yuval Noah Harari: Sapiens. De animales a dioses: Breve historia de la humanidad, que trata —como su título sugiere— sobre la primera de nuestras preguntas, los orígenes de la humanidad, y Homo Deus: Breve historia del mañana, que trata sobre el futuro de la humanidad. El tercer libro, Origen de Dan Brown, es una novela al igual que las obras de Huxley y Orwell. Se centra en el uso de la IA para responder a nuestras dos preguntas en forma de un thriller que probablemente será leído por millones de personas, si Brown repite las cifras de ventas a las que nos tiene acostumbrados. Por lo tanto, es probable que influya en el pensamiento de muchas personas, en particular de los jóvenes. Dado que el libro refleja los planteamientos propios del autor sobre estas cuestiones, supone un trampolín interesante para nuestra propia exploración.
Además, soy consciente de que la ciencia ficción ha sido un estímulo para que algunas personas se inicien en la ciencia y se dediquen a ella. Sin embargo, conviene hacer una advertencia. Brown dice que utiliza la ciencia para llegar a sus conclusiones; por lo tanto, a pesar de que su libro es una obra de ficción, deberemos examinar sus argumentos y conclusiones para comprobar si realmente son verdad.
Esto es especialmente importante ya que, según él, su principal motivación para escribir fue abordar la pregunta “¿Sobrevivirá Dios a la ciencia?”. Esa misma pregunta —formulada de muchas formas distintas— también ha sido mi principal motivación para escribir varios de mis libros. Ese trabajo me ha llevado a la conclusión de que Dios sí sobrevivirá a la ciencia, pero también a preguntarme seriamente si el ateísmo sobrevivirá a la ciencia.3
Uno de los personajes principales de Dan Brown en Origen es el multimillonario Edmond Kirsch, un científico informático y experto en inteligencia artificial que afirma haber resuelto las cuestiones sobre el origen de la vida y el destino de la humanidad. Pretende usar sus resultados para lograr su objetivo de “emplear la verdad de la ciencia para desbaratar los mitos de la religión”,4 refiriéndose, en particular, a las tres creencias abrahámicas: el judaísmo, el cristianismo y el islam. Quizás inevitablemente, se centra en el cristianismo. Sus soluciones, cuando finalmente son reveladas al mundo, son producto de sus conocimientos en inteligencia artificial. Su visión del futuro incluye la modificación tecnológica de los seres humanos.
Hay que señalar que los historiadores y los escritores de ciencia ficción no son los únicos que sugieren que la tecnología podría cambiar a la humanidad; algunos de nuestros científicos más respetados también apuntan en esa dirección. Por ejemplo, el reconocido astrónomo británico Sir Rees dice: “Podemos tener una confianza nula en que las inteligencias dominantes dentro de algunos siglos tengan alguna resonancia emocional con nosotros, aunque puedan tener una comprensión algorítmica de cómo nos comportábamos”.5
En la misma línea, Rees también dijo: “El pensamiento abstracto de los cerebros biológicos ha sido la base para el surgimiento de toda la cultura y la ciencia. Pero esa actividad, que abarca decenas de milenios como mucho, será un breve precursor de los intelectos aún más poderosos de la era posthumana inorgánica. Así que, en un futuro lejano, las mentes de las máquinas comprenderán mejor el cosmos que las mentes de los humanos”.6
Este tema ha venido para quedarse. Atrae el interés no solo de investigadores en IA, sino también de matemáticos y científicos de otras disciplinas cuyo trabajo y pronóstico se ven cada vez más afectados por la IA. De hecho, dado que las ideas y los resultados del trabajo sobre IA inevitablemente nos afectarán a todos, mucha gente está reflexionando y escribiendo sobre ello aunque no sean científicos. Las implicaciones son tales que es importante que en el debate más amplio participen, por ejemplo, filósofos, expertos en ética, teólogos, comentaristas culturales, novelistas y artistas. Después de todo, no hace falta ser físico nuclear o climatólogo para debatir sobre el impacto de la energía nuclear o el cambio climático.
¿Qué es la IA?
Para empezar a responder, pensemos en los robots. La palabra robot proviene de una palabra checa (y rusa) que significa trabajo: robota. Un robot es una máquina diseñada y programada por un ser humano inteligente para hacer una tarea que implica interactuar con su entorno físico, una tarea que normalmente realizaría un ser humano inteligente. En ese sentido, su comportamiento simula la inteligencia humana, una circunstancia que ha dado lugar al debate sobre si debe considerarse inteligente en un sentido, aunque esa inteligencia no sea lo que entendemos por inteligencia humana —otro gran tema—.
El término IA se acuñó en la escuela de verano del departamento de matemáticas de Dartmouth University en el año 1956, evento organizado por John McCarthy, quien dijo: “La IA es la ciencia y la ingeniería de hacer máquinas inteligentes”.7 En la actualidad, el término se utiliza tanto para las máquinas inteligentes propiamente, como para la ciencia y la tecnología cuyo objetivo es desarrollar dichas máquinas.
La investigación en esta área ha tomado principalmente dos direcciones. A grandes rasgos, en primer lugar está el intento de comprender el razonamiento y los procesos de pensamiento humanos mediante su simulación usando tecnología informática, y, en segundo lugar, está el estudio del comportamiento humano y el intento de construir máquinas que lo imiten. La diferencia es importante: una cosa es fabricar una máquina que pueda simular, por ejemplo, una mano humana que levanta un objeto, y otra cosa muy distinta es fabricar una máquina que pueda simular los pensamientos que un ser humano tiene cuando levanta un objeto. Es mucho más fácil hacer lo primero que lo segundo, y si la utilidad es lo único que se precisa, entonces lo primero es todo lo que se necesita. Al fin y al cabo, la industria aeronáutica se dedica a fabricar máquinas que vuelan, no a construir un cerebro electrónico como el de un pájaro para que el avión vuele exactamente como lo hacen los pájaros, es decir, batiendo las alas.8
La idea de construir máquinas que puedan simular aspectos del comportamiento humano y, de hecho, animal, tiene una larga historia. Hace dos mil años, el matemático griego Herón de Alejandría construyó una pila adornada con pájaros mecánicos que cantaban y un búho que podía girar la cabeza y hacer que los pájaros se callaran. Con el paso de los siglos, surgió la fascinación por la fabricación de autómatas, máquinas que reproducían algún aspecto de la vida. Existen impresionantes colecciones de estos autómatas, algunos muy sofisticados, en lugares como el Museo de Ciencias de Londres (London Science Museum), el Museo de Historia del Arte de Viena (Kunsthistorisches Museum) y el Museo Speelklok de Utrecht. El interés por construir ese tipo de máquinas decayó en el siglo XIX, pero siguió vivo en la ficción, como en la novela de 1818 Frankenstein, de Mary Wollstoncraft Shelley. Ha sido el componente básico de la ciencia ficción desde el comienzo del género.
Una de las actividades humanas más importantes del día a día es el cálculo numérico y se ha hecho un gran esfuerzo para automatizar este proceso. En el siglo XVII, el matemático francés Blaise Pascal fabricó una calculadora mecánica9 para ayudar a su padre, funcionario de Hacienda, con los tediosos cálculos. En el siglo XIX, Charles Babbage sentó las bases de la computación programable inventando primero la máquina diferencial —una calculadora automática— y luego la máquina analítica, que fue la primera calculadora programable. Se le considera, con razón, el padre del ordenador moderno.
Durante la Segunda Guerra Mundial, el británico y brillante científico informático Alan Turing utilizó una sofisticada tecnología electrónica e informática para construir máquinas, especialmente la Bombe, que le permitió a él y a su equipo de Bletchley Park descifrar el código alemán “Enigma” que se utilizaba para las comunicaciones militares secretas. Los inventos y el trabajo teórico de Turing le llevaron a plantear la propuesta de una “máquina que aprende”. Según él, una máquina que pudiera conversar con los humanos, sin que estos supieran que era una máquina, ganaría el “juego de imitación” y podría decirse que es “inteligente”. Ahora conocida como la Prueba de Turing, esta definición proporcionó una prueba práctica para atribuir inteligencia a una máquina. Sin embargo, como veremos más adelante, este acercamiento ha sido muy cuestionado por los filósofos.
Por la misma época (1951), Marvin Minsky (cofundador del laboratorio de investigación de IA del MIT) y Dean Edmonds construyen el primer ordenador de red neuronal. Los logros posteriores que atrajeron la atención del público fueron el ordenador Deep Blue de IBM, que venció al campeón mundial de ajedrez Garry Kasparov en 1997, y en 2016 el programa AlphaGo de Google se convirtió en el primero en vencer a un jugador humano de Go utilizando el aprendizaje automático. La importancia de la IA ha sido reconocida con el Premio Turing 2018, conocido como el “Premio Nobel de la Computación”, otorgado a un trío de investigadores que sentaron las bases del actual auge de la inteligencia artificial, especialmente en el subcampo del aprendizaje profundo.
Los primeros robots y sistemas de IA no incluían lo que ahora llamamos “aprendizaje automático”. La clave del actual proceso de aprendizaje automático es la idea del algoritmo, que puede ser de varios tipos —por ejemplo, simbólico, matemático, etc.—.10 La palabra algoritmo proviene del nombre de un famoso matemático, astrónomo y geógrafo persa, Muḥammad ibn Mūsā al-Khwārizmī (ca. 780–850).11
A día de hoy, un algoritmo es “un conjunto claramente definido de operaciones lógicas o matemáticas para la realización de una tarea concreta” (Oxford English Dictionary). El concepto se remonta a la antigua Babilonia (1800–1600 a. C.). El eminente científico informático Donald Knuth de la Universidad de Stanford publicó algunos de estos primeros algoritmos y concluyó: “Los cálculos descritos en las tablillas babilónicas no son simplemente soluciones a problemas específicos; en realidad son procedimientos generales para solucionar todo un conjunto de problemas”.12 Y esa es la característica clave de un algoritmo: una vez que sabes cómo funciona, puedes resolver no solamente un problema, sino toda una clase de problemas.
Uno de los ejemplos más famosos que se estudian en la escuela es el algoritmo de Euclides, un procedimiento que se usa para encontrar el máximo común divisor (mcd) de dos números enteros positivos. Euclides lo describió en su obra Elementos, escrita alrededor del 300 a. C. Es un algoritmo eficiente que, de un modo u otro, aún utilizan los ordenadores de hoy. Su implementación implica la división y el cálculo sucesivo de los restos hasta llegar al resultado deseado. El funcionamiento del algoritmo se comprende mejor siguiendo un ejemplo, aunque lo importante es que funciona para cualquier par de números enteros.
Supongamos que queremos calcular el mcd de 56 y 12. Seguiríamos los siguientes pasos:
56 ÷ 12 = 4 con resto 8
12 ÷ 8 = 1 con resto 4
8 ÷ 4 = 2 (sin resto)
En este caso, el mcd es 4.
Es fácil traducir esto a un código de software e implementarlo en un ordenador. Un vistazo a la red mostrará que hoy en día hay miles de distintos tipos de algoritmos en todas las ramas imaginables de la ciencia, la ingeniería y la medicina. La robótica es un buen ejemplo, ya que los robots suelen estar diseñados específicamente para realizar una única tarea una y otra vez.
En un sistema de IA contemporáneo típico, los algoritmos relevantes están integrados en un software informático que ordena, filtra y selecciona las porciones de datos que se le presentan. Un acercamiento intenta simular, al menos hasta cierto punto, las funciones neuronales del córtex humano (redes neuronales). En términos generales, un sistema de este tipo puede utilizar datos de entrenamiento para “aprender” (aprendizaje automático)13 a reconocer, identificar e interpretar patrones digitales como imágenes, sonido, voz, texto o datos. Otro acercamiento utiliza aplicaciones informáticas que emplean la lógica probabilística bayesiana para analizar la información disponible desde una perspectiva estadística con el fin de estimar la probabilidad de una hipótesis concreta. En resumen, un sistema de aprendizaje automático toma información sobre el pasado y toma decisiones o hace predicciones cuando se le presenta nueva información.
Es importante señalar que los propios algoritmos están programados explícitamente para realizar la aproximación de funciones, normalmente a través de la optimización numérica y, en la mayoría de los casos, también se les da explícitamente ejemplos de entradas y salidas y criterios de detención para guiar la optimización. No se procesan sin un humano en el bucle que en cierto modo guíe todo el proceso (incluso si el humano construye un algoritmo “crítico” y lo inserta en el bucle, etc.). La participación humana es consciente. La máquina no lo es.
En muchos de los primeros trabajos de IA, los humanos diseñaban explícitamente un algoritmo para resolver un problema concreto. En la IA más reciente, no es así. En su lugar, diseñan un algoritmo de aprendizaje general, que luego “aprende” una solución al problema. A menudo los desarrolladores humanos no conocen un algoritmo explícito para resolver el problema y no saben cómo llega el sistema a sus conclusiones. Los primeros programas para jugar al ajedrez eran del primer tipo (incluso Deep Blue estaba más en esta categoría), mientras que el moderno software Go es del segundo tipo.
He aquí algunos ejemplos de sistemas de IA, muchos de ellos ya conocidos por el público:
Es obvio, incluso a partir de esta breve lista, que muchos de estos avances, si no todos, plantean cuestiones éticas, desde la manipulación económica y la actividad delictiva hasta la invasión de la privacidad y el control social. El peligro está en que la gente se deja llevar por el “si se puede hacer, se debe hacer”, sin pararse a pensar en los posibles problemas éticos. Sin embargo, hay que decir que las cuestiones éticas están ocupando cada vez más la agenda de los principales actores del mundo de la IA. La gran pregunta a la que hay que enfrentarse es la siguiente: ¿Cómo puede incorporarse una dimensión ética a un algoritmo que carece de corazón, alma y mente?
Es importante tener en cuenta que la mayoría de los sistemas de IA, como los mencionados anteriormente, suelen estar diseñados para hacer una sola cosa: conducir un coche, diagnosticar una enfermedad o realizar predicciones basadas en el pasado. Para tener esto en cuenta, se suele utilizar el término IA débil. Sin embargo, como hasta la fecha todas las aplicaciones de IA son limitadas, algunos prefieren utilizar el término tecnologías cognitivas para referirse a lo que se ha logrado hasta ahora en la búsqueda de la máquina inteligente.
Nick Bostrom y Eliezer Yudkowsky comentan:
Los algoritmos actuales de IA con un rendimiento equivalente o superior al humano se caracterizan por una competencia programada deliberadamente solo en ámbito restringido. Deep Blue se convirtió en campeón mundial de ajedrez, pero ni siquiera puede jugar a las damas y mucho menos conducir un coche o hacer un descubrimiento científico. Estos algoritmos modernos de IA se parecen a toda la vida biológica a excepción del Homo sapiens. Una abeja tiene la competencia de construir colmenas, un castor tiene la competencia de construir presas; pero una abeja no construye presas y un castor no puede aprender a construir una colmena. Un humano, observando, puede aprender a hacer ambas cosas; pero esa es una capacidad única entre todas las formas de vida biológica.14
Una posible fuente (adicional) de confusión en el debate es que al utilizar palabras cotidianas como aprendizaje, planificación, razonamiento e inteligencia como términos técnicos para describir maquinaria inanimada, algunos científicos informáticos hacen que los sistemas de IA parezcan más capaces de lo que realmente son, ya que a menudo utilizan estos términos en un sentido mucho más restringido que su uso común. Como resultado, la cobertura mediática de la IA tiende a exagerar los resultados y a ser excesivamente optimista o excesivamente pesimista. Danny Crookes, profesor de ingeniería informática en QUB (Queen’s University Belfast), escribe:
En realidad, las tecnologías actuales que empiezan a preocuparnos por su poder para vigilar y manipular a poblaciones enteras no son muy inteligentes. De hecho, no tienen por qué serlo. Su poder reside en su capacidad para manejar grandes cantidades de datos, para crear un perfil de los ciudadanos y detectar patrones de comportamiento, ya sea de un individuo o de una población. Los nazis y los estados comunistas lo hicieron manualmente a menor escala. Ahora contamos con la tecnología para hacerlo a escala global. Es preocupante, o impresionante, pero realmente no es inteligencia. En la investigación de la IA, está de moda el llamado “aprendizaje profundo”, pero no es particularmente nuevo: lo único novedoso es que ahora contamos con la potencia informática para ejecutar las redes neuronales multicapa que han existido desde hace décadas en el papel.15
El profesor Joseph McRae Mellichamp de la Universidad de Alabama, hablando en una conferencia en la Universidad de Yale ante varios pioneros de la IA y también ante el Premio Nobel Sir John Eccles, famoso por su descubrimiento de la sinapsis, dijo: “Me parece que podríamos evitar mucho debate innecesario si los investigadores de la IA admitieran que hay diferencias fundamentales entre la inteligencia de las máquinas y la inteligencia humana, diferencias que ningún tipo de investigación va a superar”. En otras palabras, y citando el sucinto título de la ponencia de Mellichamp, “la palabra ‘artificial’ en ‘inteligencia artificial’ es real”.16
El profesor Crookes subraya la necesidad de realismo:
Todavía estamos muy, muy lejos de crear una inteligencia que iguale a la inteligencia humana. El impacto de la computación basada en datos ha llevado a la gente a pensar que nos estamos acercando al nivel de la inteligencia humana. Pero, en mi opinión, no estamos siquiera cerca. De hecho, podría decirse que en los últimos años el progreso en IA real se ha ralentizado. ¡Probablemente hay menos investigación en IA real que antes porque la mayor parte de la financiación se destina a la publicidad! Los investigadores siguen el dinero.
Para llegar a entender el proceso de razonamiento humano, aún tenemos grandes retos por delante. Por si sirve de algo, veo dos problemas fundamentales que todavía no se han resuelto: (1) Incluso si conociéramos las reglas del razonamiento humano, ¿cómo extraemos una formulación abstracta a partir de una situación física para poder aplicar las reglas generales del razonamiento? (2) ¿Cómo puede un ordenador crear y mantener un modelo mental interno del mundo real? Piensa en cómo una persona ciega visualiza el mundo y razona sobre él. Los humanos tenemos la capacidad de visualizar cosas y de razonar sobre escenarios de objetos y procesos que existen solo en nuestra mente. Esa capacidad de propósito general, que todos los humanos tienen, es espectacular; es un requisito clave para la inteligencia real, pero los sistemas de IA carecen de ella. Hay razones para dudar que algún día se logre.
Supongo que lo que quiero decir es que debemos ser cautos y no dar por sentado que la humanidad tiene la capacidad intelectual de crear una inteligencia que rivalice con la inteligencia humana, y mucho menos que la supere, por mucho tiempo que tengamos.17
Tengamos esto muy presente cuando veamos la forma en que Dan Brown utiliza la IA (débil) en su novela para abordar sus dos grandes preguntas filosóficas.
1 Neil Postman, Divertirse hasta morir: El discurso público en la era del “show business” (Ediciones de la Tempestad, 1ª ed. 1991), 5−6.
2 “The Pope Warns Tech Companies to Use AI for ‘Common Good’”, Time, 27 de septiembre de 2019, https://time.com/5688191/pope-francis-artificial-intelligence-common-good.
3 Usaré el término ateísmo en su sentido más amplio para referirme al rechazo de la idea de un Dios creador.
4 Dan Brown, Origen (Editorial Planeta, 2017), 76.
5 Martin Rees, En el futuro: Perspectivas para la humanidad (Editorial Crítica, 2019), 14.
6 Martin Rees, “Astronomer Royal Martin Rees: How Soon Will Robots Take Over the World?”, The Telegraph, 23 de mayo de 2015, www.telegraph.co.uk/culture/hay-festival/11605785/Astronomer-Royal-Martin-Rees-predicts-the-world-will-be-run-by-computers-soon.html.
7 John McCarthy, “What Is Artificial Intelligence?”, www-formal.stanford.edu/jmc/whatisai.pdf
8 Véase Stuart Russell y Peter Norvig, eds., Artificial Intelligence: A Modern Approach, 3ª ed. (Harlow: Pearson Education, 2016), 1−5.
9 La primera máquina calculadora que se conoce es del año 1623 aproximadamente, fabricada por el alemán Wilhelm Schickard, profesor de hebreo y astronomía.
10 Cabe destacar que los primeros sistemas de IA no usaban algoritmos.
11 Véase el artículo de mi colega de Oxford Jeffrey Aronson, “When I Use a Word... Algorithms”, BMJ Opinion, 11 de agosto de 2017, https://blogs.bmj.com/bmj/2017/08/11/jeffrey-aronson-when-i-use-a-word-algorithms.
12 Donald E. Knuth, “Ancient Babylonian Algorithms”, Communications of the ACM, vol. 15, núm 7 (julio de 1972): 672−673.
13 La Enciclopedia de Inteligencia Artificial define el aprendizaje automático como “un área de la IA que trata con métodos computacionales adaptativos como las redes neuronales artificiales y los algoritmos genéticos”, Juan Ramón Rabunal Dopico, Julián Dorado de la Calle y Alejandro Pazos Sierra, eds., Encyclopedia of Artificial Intelligence (Hershey, PA: Information Service Reference, 2009), 666.
14 Nick Bostrom y Eliezer Yudkowsky, “The Ethics of Artificial Intelligence”, en Cambridge Handbook of Artificial Intelligence, ed. Keith Frankish y William M. Ramsey (Cambridge: Cambridge University Press, 2014), 318.
15 Comunicación privada (2019). Usado con permiso.
16 Comunicación privada (2018) hecha por el autor de un artículo presentado en el simposio Inteligencia artificial y la mente humana (Yale University, 1986). Usado con permiso. Aquí aparece un interesante informe sobre la conferencia: www.aaai.org/ojs/index.php/aimagazine/article/view/601.
17 Comunicación privada (2019). Usado con permiso.