Inteligencia Artificial. Una introducción filosófica - Jack Copeland.pdf

Share Embed Donate


Short Description

Download Inteligencia Artificial. Una introducción filosófica - Jack Copeland.pdf...

Description

Jack Copeland

Inteligencia artificial

Una introducción filosófica

Versión española de Julio César Armero San José

Alianza Editorial

Título original: Artificial Inteligence. A Philosophical Introduction

Reservados todos los derechos. D e conform idad con lo dispuesto en el art. 534-bis del Código Penal vigente, podrán ser castigados con penas de mul­ ta y privación de libertad quienes reprodujeren o plagiaren, en todo o en parte, una obra literaria, artística o científica fijada en cualquier tipo de soporte sin la preceptiva autorización.

© B. J. Copeland, 1993 © Ed. cast.: Alianza Editorial, S. A., Madrid, 1996 Calle Juan Ignacio Lúea de Tena, 15; 28027 Madrid; teléf. 393 88 88 ISBN: 84-206-2844-1 Depósito legal: M, 7.853-1996 Fotocomposición: EFCA Parque Industrial «Las Monjas», c/ Verano, 38 Torrejón de Ardoz. 28850 Madrid Impreso en Closas-Orcoyen, S. L. Polígono Igarsa Paracuellos de Jar ama (Madrid) Printer! ín Sníiin

Para Jean y Reg

INDICE

L ista de figuras ................................................................................... A g r a d ec im ien to s .............................................................................. I n t r o d u c c ió n .....................................................................................

En resumen....... ...........................................................................

Capítulo l . Los c o m ien zo s de la in telig en c ia

13 15 17

18

ARTIFICIAL: ESBOZO HISTÓRICO...............................

20

La aparición del computador............................... El Lógico Teórico................................. La Conferencia de Dartmouth.............................................. Alan Turing y la filosofía de la IA.........................................

20 26 28 29

Capítulo 2. A lgunas PRUEBAS SORPRENDENTES .....................

34

2.1. Dentro de la máquina.............................................................. 2.2. Parry, el programa paranoico................................................ 2.3. Eliza, la psicoterapeuta...........................................................

34 35 37

1.1. 1.2. 1.3. 1.4.

9

índii

10

2.4. 2.5. 2.6. 2.7. 2.8. 2.9.

Shrdlu, el ro b o t................................................................................. H acker, el program a program ador............................................ Program as que ju eg an ................................................................... El R esolutor G eneral de Problem as.......................................... S a m y F ru m p ..................................................................................... Sistemas ex p erto s.............................................................................

3 4

C apítulo 3. ¿PUEDE PENSAR UNA MÁQUINA?..............................

í

3.1. 3.2. 3.3. 3.4. 3.5. 3.6.

¿Es p o r fuerza consciente el pensam iento?............................ La prueba de T u rin g ....................................................................... ¿Se ha superado ya la p ru e b a ?.................................................... C uatro objeciones a la prueba de T uring................................. V aloración de la prueba.......................................................... ...... Tiem po de decidir............................................................................

(

C apítulo 4. LA HIPÓTESIS DEL SISTEMA DE SÍMBOLOS...............



4.1. 4.2. 4.3. 4.4. 4.5. 4.6.

M anipulación de sím bolos........................................................... Sím bolos b in ario s............................................................................ Los program as com o sím bolos................................................... U n program a de principio a fin .................................................. D efinición de un co m p u tad o r.................................................... La h ip ó tesis....................................................................................... 4 .7 . Realizabilidad m últiple....................

4 5 5 5

(

7 7

í í

‘ 1( 1( 1 L Y Y

C apítulo 5. LOS HECHOS...................................................................... Y. 5.1. 5.2. 5.3. 5.4. 5.5. 5.6. 5.7.

Los datos en favor de la hipótesis.............................................. Los datos en perspectiva............................................................... In fla r.................................................................................................... Program ar el sentido com ún........................................................ D atos y «saber cóm o»................................................................... El proyecto C Y C ............................................................................. La barrera de la com plejidad........................................................

Y.

1.

Y

1: 1. 1 1

Indice

11

Capítulo 6. EL CURIOSO CASO DE LA HABITACIÓN CHINA..... 188 6.1. 6.2. 6.3. 6.4.

El argumento de la habitación china....................................... ¿Qué error contiene el argumento? ......................................... Decidir qué es entender.............................................................. Las máquinas de Turing y la objeción biológica a la I A ....

190 193 201 204

C apítulo 7. L ib e r t a d ...................................................................................... 215

7.1. 7.2. 7.3. 7.4. 7.5. 7.6. 7.7.

Turbo Sam hace una elección................................................... ¿Es una ilusión la libertad de la voluntad?............................ Dos clases de libertad.................................................................... Cleptomanía y otras com pulsiones............................................ Libertarism o.................................................................................. Predictivismo y caos...................................................................... Lo inevitable..................................................................................

216 217 222 229 231 236 240

Capítulo 8. C o n c ie n c ia .................................................................... 247 8.1. 8.2. 8.3. 8.4. 8.5. 8.6. 8.7. 8.8.

Nagel y el desorden.......................................................... La base borrosa............................................................................. La conciencia como un tipo de supervisión interna........... La inefable sensación................................... En el corazón del m isterio............ ..................................... ¿A qué se parece ser un murciélago?....................................... Lo que María no sabe.................................................................. Se unen los cabos.........................................................................

249 251 258 260 263 267 270

Capítulo 9. ¿Somos computadores ? ....................... *................ 272 9.1. 9.2. 9.3. 9.4. 9.5. 9.6.

La hipótesis fuerte del sistema de símbolos........................... El soporte informático frente al soporte biológico.............. Adiós, Von N eum ann................................................................ D ar significado a la carne........................................................... Creer lo que no se cree............................................................... Productividad y sistematicidad..................

273 276 291 295 298 300

247

12

9.7.

índice

Valoración de los argum entos............................................... 302

9*8* El significado de «com putador»..................................................... 308

C apítulo 10. U n NUEVO PUNTO DE PARTIDA PARA LA IA: EL PROCESAMIENTO DISTRIBUIDO EN PARALELO ..... 313

10.1. 10.2. 10.3. 10.4. 10.5. 10.6. 10.7. 10.8.

Las ideas básicas........................................................................ Lecciones de inglés................................................................... ¿Despertar de una pesadilla?.................................................. La diferencia con los computadores................................. Comparaciones con la biología............................................. El gimnasio chino de Searle.................................................... La tesis C hurch-Turing................ ¿Son nuestros procesos cognitivos calculables algorítmi­ camente? .................................................................. 10.9. Simulación de redes por com putador.................................. 10.10. La batalla del cerebro.............................................................. 10.11. Observaciones finales..............................................................

314 323 325 329 332 338 344

E p íl o g o ...................................................................................................... B ib l io g r a f ía ...........................

371 373

ÍNDICE ALFABÉTICO...........

348 361 366 369 393

LÍSTA DE FIGURAS

Figura 2.1.......................................................................................... Figura 2.2.......................................................................................... Figura 2.3......... Figura 3.1.... Figura 3.2.......................................................................................... Figura 4.1................................................................................... Figura 4.2.......................................................................................... Figura 4.3.......................................................................................... Figura 4.4.......................................................................................... Figura 4.5.......................................................................................... Figura 5.1.................. Figura 6.1................. Figura 6.2......................................................................... Figura 6.3.......................................................................................... Figura 6.4.......................................................................................... Figura 8.1..................................................................................... Figura 8.2.............. Figura 9.1......... Figura 10.1....................................................................................... 13

41 46 52 65 71 99 105 107 107 112 134 212 213 211 212 254 256 277 315

14

Figura Figura Figura Figura Figura

índice

10.2.......................... 10.3.................................................................................... ............. 10.4.................................................................................................. 10.5............................. 10.6..................................................................................................

318 320 326 327 331

AGRADECIMIENTOS

Muchas personas me han ayudado, mucho o poco, de muy dife­ rentes maneras. Gracias a todas ellas: David Anderson, John Andreae, Derek Browne, Peter Carruthers, Stephan Chambers, John Cottingham, Hubert Dreyfus, Flip Ketch, Carmel Kokshoorn, Justin Leiber, David Lewis, Michael Lipton, Bill Lycan, Michael Maclean, Pamela McCorduck, James McGahey, Jack Messenger, Alison Mudditt, Gill Rhodes, Michael Smallman, Steve Smith, Kerry Stewart, Bob Stoothoff, Stephen Viles. Tengo una gratitud especial hacia Jenny Arkell por comentar extensamente versiones previas y por proponer numerosas mejoras; hacia Ann Witbrock por las ilustracio­ nes generadas por ordenador; y sobre todo hacia Diane Proudfoot por su apoyo, crítica, ayuda y aliento. La figura 2.1 se basa en la figura 3 de Terry Winograd, Unders­ tanding Natural Language, con el amable permiso de Academic Press y de Terry Winograd. La figura 3.1 está copiada de la figura 15 de Douglas Hofstadter, Gódel, Eschery Bach: An Eternal Golden Braid, con el amable permiso de Basic Books Inc. (copyright © 1979 de Basic Books Inc.). La figura 5.1 está copiada de las figuras 2.1 y 2.2 de P. H. Winston (comp.), The Psychology of Computer Vision, con 15

16

Inteligencia artificial. Una introducción filosófica

amable permiso de McGraw Hill Inc. La figura 8.2 está copiada de la figura 42 de M. S. Gazzaniga y J. L. LeDoux, The Integrated Mind, con el amable permiso de Plenum y Michael Gazzaniga. La figura 10.4 es una reproducción de partes del catálogo Letraset y aparece por amable permiso de Esselte Letraset Ltd.

INTRODUCCIÓN

La inteligencia artificial es la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia si las hicieran los hom bres. M arvin M insky, fundador del Laboratorio de Inteligencia Artificial del M IT !

No hace mucho tiempo vi en la televisión una entrevista con Ed­ ward Fredkin, especialista en ingeniería electrónica y gerente del La­ boratorio de Inteligencia Artificial del MIT. Fredkin es un hombre serio de modales graves y severos. Lo que dijo fue sorprendente12. H ay tres grandes acontecim ientos en la historia. U no, la creación del u n i­ verso. O tro, la aparición de la vida. El tercero, que creo de igual im portancia, es la aparición de la inteligencia artificial. Ésta es una form a de vida m uy di­ ferente, y tiene posibilidades de crecim iento intelectual difíciles de imaginar. Estas máquinas evolucionarán: algunos com putadores inteligentes diseñarán otros, y sé harán más y más listos. La cuestión es dónde quedam os nosotros. Es bastante com plicado imaginar una m áquina millones de veces más lista que la persona más lista y que, sin em bargo, siga siendo nuestra esclava y haga lo que queramos. Puede que condesciendan a hablarnos, puede que jue­ guen a cosas que nos gusten, puede que nos tengan de m ascotas3. 1 Minsky, M., Semantic Information Processing, p. V. 2 Better Mind the Computer, BBC TV. He retocado ligeramente la charla para darle algo más de fluidez. 3 Douglas Lenat y Edward Feigenbaum, investigadores distinguidos de la IA, pre­ vén un futuro en que queda un poco de dignidad humana. En 1991 declararon lo si­ 17

18

Inteligencia artificial Una introducción filosófica

¿Ha desaprovechado el profesor Fredkin una vocación de escritor de ciencia-ficción?, ¿o es ésta una visión realista del futuro, una pre­ dicción serena de un hombre mejor situado que la mayoría para en­ tender las implicaciones del curso actual de la investigación en IA? ¿Es verdaderamente una posibilidad tecnológica que haya compu­ tadores que piensen? Es más, ¿tiene siquiera sentido hablar de una máquina pensante, o es un absurdo conceptual como un electrón sonriente o un soltero casado? Para quien tenga curiosidad filosófica, las palabras de Fredkin des­ piertan un tumulto de preguntas intrigantes. ¿Es el pensamiento un fe­ nómeno biológico y, por lo tanto, tan lejos del alcance de una máquina de silicio y metal como la fotosíntesis, la lactancia, o cualquier otro proceso dependiente de la biología? ¿O se parece más el pensamiento a volar, algo que pueden hacer los seres vivos y los artefactos metálicos? ¿Puede un computador mostrar más inteligencia que los humanos que lo programan? ¿Podría un computador actuar por voluntad propia? ¿Sería posible un computador consciente? Y la pregunta más intrigante de todas: ¿es concebible que las investigaciones de la psicología y la neurofisiología demuestren que somos computadores blandos y sua­ ves? Éstos son algunos de los asuntos de que se ocupa este libro. Es­ pero que disfruten ustedes explorándolos conmigo. En resumen El capítulo 1 describe los orígenes y los primeros años de la inteli­ gencia artificial. El capítulo 2 examina algunos programas de IA destacables. El capítulo 3 hace la pregunta crucial: ¿Es posible que uiia má­ guiente: «No podemos arrinconar la IA, igual que el hombre primitivo no habría po­ dido suprimir la expansión del lenguaje... Puede que nuestros descendientes lejanos contemplen la sinergia hombre-máquina que surge de la IA como la frontera natural que separa a “los auténticos seres humanos” de los “animales”. A finales de los años ochenta estamos situados en la grieta que hay entre la primera época de los sistemas inteligentes... y la segunda época. En esa segunda época... se reconceptualizará el “sistema” como una especie de relación “colegiada” entre agentes inteligentes computacionales y personas inteligentes. De estos sistemas hombre-máquina surgirá una inte­ ligencia y una competencia superiores a las de la mente humana a secas. Más allá de ese umbral hay maravillas que nosotros (simples mentes humanas) literalmente no pode­ mos imaginar». (Lenat, D. B. y Feigenbaum, E. A. «On the Thresholds of Know­ ledge», pp. 224-5). Entre los «nueve fines últimos» de la IA incluyen la «inteligencia sobrehumana» (op. cit., p. 226).

Introducción

19

quina piense? Yo defiendo que la respuesta es su Esto, sin embargo, no es decir que los computadores son capaces de pensar: aún hay que preguntarse si los computadores son máquinas adecuadas para pensar. El capítulo 4 explica el funcionamiento de los computadores. Em­ piezo por lo más básico, de modo que quienes no sepan nada de compu­ tación no tienen que preocuparse por lo que dejen atrás. El capítulo 5 examina los indicios de que esta clase de máquinas posea el potencial para pensar. En el momento presente, sugiero, estos indicios son am­ biguos. El capítulo 6 examina críticamente los argumentos del profe­ sor John Searle a favor de su influyente postura según la cual los compu­ tadores, por su propia naturaleza, carecen de una comprensión auténtica de sus entradas y salidas. Según Searle los sistemas de IA nunca podrán reproducir la inteligencia: lo más que podrán alcanzar será una simulación. El capítulo 7 contempla el tema de la libre volun­ tad, Si el futuro nos trae robots pensantes, ¿serán estos artefactos ca­ paces de hacer elecciones libres? Es un prejuicio común que una má­ quina con libre voluntad es una contradicción en los términos. Yo argumento que esto no es así. El capítulo 8 indaga la naturaleza de la conciencia. ¿Qué es la conciencia y cómo se origina? ¿Puede tenerla una máquina? El capítulo 9 examina la teoría de que el cerebro hu­ mano mismo es literalmente un computador, una teoría que en la ac­ tualidad tiene una influencia considerable en la psicología. El capítulo 10 describe una aproximación nueva a la IA conocida como procesa­ miento distribuido en paralelo (PDP). Quienes defienden este enfo­ que se han distanciado del proyecto de programar computadores para pensar y se ocupan de construir máquinas de un tipo diferente, que, más o menos, toman como modelo el tejido neuronal humano. Por último, en el epílogo, vuelvo a un tema de los capítulos anteriores. Uno de los resultados de las investigaciones del libro sobre maquina­ ria y pensamiento es hacer, no sólo más plausible, sino también menos incómoda la posibilidad de que seamos máquinas de cierto tipo. Este libro es un texto para clases de filosofía de la mente y de ciencia cognitiva. Sin embargo está escrito en un lenguaje llano y no se presupone familiaridad con conceptos técnicos de la filosofía ni de la computación. El libro está pensado para que lo entienda cualquiera que tenga curiosidad por aprender sobre la inteligencia artificial y su filosofía, desde alumnado univérsitario hasta gentes aficionadas a los computadores o humanistas con interés en lo que el estudio de los computadores pueda decirnos sobre nuestra propia naturaleza. Reciban mi bienvenida al libro.

Capítulo 1 LOS COMIENZOS DE LA INTELIGENCIA ARTIFICIAL: ESBOZO HISTÓRICO

Para comenzar en el comienzo mismo... 1.1. La aparición del computador La historia de la invención del computador digital es fascinante. Existe la opinión popular de que el computador se originó en los Es­ tados Unidos, pero no es cierto. Gran Bretaña, Estados Unidos y Alemania desarrollaron el computador independientemente y casi al mismo tiempo. En términos de quién llegó primero, es Alemania quien se lleva el título o, más precisamente, un alemán, Konrad Zuse. Tuvo construido y en funcionamiento a finales de 1941 el primer computador programable de propósito general L Fue un caso de «a la tercera va la vencida»: dos máquinas anteriores que construyó en el inadecuado escenario del salón de casa de sus padres no funcionaron del todo. Aunque Zuse fue el primero en llegar a la meta, pocos co­ nocieron su logro en aquel momento, y las restricciones impuestas1 1 Para más detalles, Zuse, K., «Some Remarks on the History of Computing in Germany», y Bauer, F. L., «Between Zuse and Ruitshauser-The Early Development of Digital Computing in Central Europe». 20

Los comienzos de la inteligencia artificial: Esbozo histórico

21

por los Aliados en materia de electrónica sobre la Alemania de la posguerra pusieron fin a todo desarrollo posterior. Ni Zuse ni sus ideas desempeñaron un papel significativo en el desarrollo comercial del computador2. La historia en el caso británico empieza en Bletchley Park, Buc­ kinghamshire, un establecimiento secreto de la época de la guerra de­ dicado a descifrar los códigos de la Wehrmacht. Con un personal de brillantes matemáticos e ingenieros, era casi inevitable que produjera algo revolucionario, y cuando eso sucedió apareció el Colossus, un computador electrónico3 para descifrar mensajes codificados4. El primer Colossus se instaló y operó hacia diciembre de 1943, dos años después de que Zuse hiciera oscuramente historia en Berlín. (Algunos comentaristas disputan sobre si el Colossus era un auténtico compu­ tador 5. Fue diseñado para una tarea específica, romper códigos, y poco o nada más podía hacer. Los más entusiastas de Bletchley ha­ bían intentado obligar al Colossus a hacer largas multiplicaciones, pero, asombrosamente, se vio que esto estaba ligeramente más allá de la frontera de las capacidades de la máquina 6. El computador de Zuse, por el contrario, podía emprender cualquier tarea deseada de cálculo (suponiendo, claro es, que la tarea no fuera tan extensa como para agotar las capacidades de almacenamiento de la máquina). El computador de Zuse era de propósito general, mientras que el Colos­ sus era de propósito especial.) Después de la guerra el grupo de Bletchley se disgregó y la escena 2 Hasta 1955 no se levantaron las restricciones. Desde 1945 Zuse trabajaba en un lenguaje que llamaba Plankalkul. Sus ideas tuvieron cierta influencia en los diseñadores del lenguaje ALGOL (Bauer, op. cit., pp. 521-2). 3 Un computador electrónico es el que está construido con componentes electróni­ cos. En los primeros tiempos eran tubos de vacío y ahora semiconductores. Excepto la máquina de Zuse, todos los computadores que se mencionan en este capítulo usaban componentes electrónicos. Zuse empleaba relés. Éstos son pequeños interruptores me­ cánicos accionados eléctricamente. Son mucho más lentos que los tubos de vacío. Los tubos deben.su velocidad a que carecen de partes móviles, salvo el flujo de electrones (de ahí el término). En las calculadoras de antes de la guerra se usaban profusamente los relés, y, en fecha tan tardía como 1948, la IBM sacó un computador basado en esta vieja tecnología (llevaba 21.400 relés y 13.500 tubos de vacío). La máquina, llamada SSEC, estaba anticuada antes de ejecutar su primer programa. 4 Para los detalles del Colossus, véase Randell, B., «The Colossus» y también su artículo «Alan Turing and the Origins of Digital Computers». 5 Por ejemplo, Stan Aurgarten en Bit By Bit, p, 146. 6 Good, I. J., «Pioneering Work on Computers at Bletchley», p. 41.

22

Inteligencia artificial. Una introducción filosófica

de la acción se desplazó hacia el norte, a Manchester. Fue aquí donde F. C. Williams, Tom Kilburn y su equipo construyeron el computa­ dor de utilidad general de la Universidad de Manchester llamado Mark I. El primer programa corrió en junio de 1948 7. En abril de 1949 el pequeño prototipo se había convertido en una máquina mu­ cho más grande8. Al otro lado del Atlántico el progreso era un poco más lento. La primera máquina americana comparable (llamada BINAC) se probó en agosto de 19499. Una empresa de Manchester, Ferranti Limited, contrató la pro­ ducción de una versión comercial del Mark I de Manchester. Estas máquinas fueron los primeros computadores electrónicos de pro­ grama almacenado que se manufacturaron comercialmente en el mundo. Se vendieron nueve en total. La primera se instaló en febrero de 1951, dos meses antes de la aparición de la segunda máquina del mundo disponible en el comercio, la americana UNIVAC10. El Mark I de Ferranti tuvo además la distinción de ser el primer no humano del planeta que escribió cartas de amor: Querida Prenda Tú eres mi ávido sentimiento amigo. Mi afecto pende curiosamente de tu deseo apasionado. Mi cariño implora a tu corazón. Tú eres mi triste simpatía: mi tierno cariño. Tuyo rendidamente, Computador de la Universidad de Manchester11

7 Kilburn, T,, Williams, F. C., «The University of Manchester Computing Ma­ chine», p. 120. 8 Lavington, S. H,, A History of Manchester Computers, pp. 12-15. Cuando com­ para Ja máquina de Manchester con el computador EDSAC de la Universidad de Cambridge, Lavington escribe que «el Mark I de Manchester era un producto mucho menos acabado desde el punto de vista del usuario, pero en cuestión de mascar núme­ ros ofrecía prestaciones parecidas» (el Mark I tenía además una capacidad de almacena­ miento bastante grande). El hecho de que EDSAC fuera más amistoso lo hacía más adecuado para el trabajo matemático serio. Hasta octubre de 1949 el Mark I de Man­ chester no estuvo a la altura requerida en este aspecto. 9 Stern, N., «The BINAC: A Case Study in the History of Technology», p. 12. 10 También se construyó en la Universidad de Manchester el primer computador transistorizado. Empezó a funcionar en noviembre de 1953. Early British Computers, de Lavington, hace una presentación excelente de la parte británica de la historia. 11 Lavington, S. H., A History of Manchester Computers, p. 20. Alan Turing pro­ dujo las cartas de amor mediante el generador de números aleatorios de la máquina.

Los comienzos de la inteligencia artificial: Esbozo histórico

23

La parte norteamericana de la historia comienza con una má­ quina conocida como ENIAC (iniciales de Computador e Integrador Numérico Electrónico. Es una ley sin excepciones que los aerónimos usados para nombrar computadores y programas nunca significan nada interesante). El ENIAC lo construyeron en la Uni­ versidad de Pennsylvania John Mauchly y J. Presper Eckert, y el pri­ mero funcionó en noviembre de 1945 (casi dos años después que el Colossus). El ENIAC era la pesadilla de quien lo programara: había que cablearlo a mano para cada nueva tarea. Esta era una operación ci­ clópea, en la que había que manejar miles de clavijas e interrupto­ res. Normalmente llevaba dos días disponer la máquina para un tra­ bajo nuevo.12 El único recurso de programación que ENIAC ofrecía era enredar con los cables. El Mark I de Manchester era mu­ cho menos hostil al ser humano. El Mark I fue el primer computa­ dor completamente electrónico del mundo con programa almace­ nado 13. Para ponerlo a realizar una nueva tarea sólo había que introducirle una cinta de papel taladrado. La máquina copiaba las instrucciones de la cinta y las almacenaba en su propia memoria. Eckert y Mauchly se habían dado cuenta en 1943 de que sería bene­ ficioso poder almacenar dentro del ENIAC las instrucciones de operación, pero los militares querían que el ENIAC fuera operativo lo más pronto posible y la exploración del concepto de programa almacenado tuvo que esperar14. Después del ENIAC, Eckert y Mauchly construyeron el BINAC, que era una máquina de programa almacenado. Luego cons­ truyeron el UNIVAC, la primera oferta en el mercado de la naciente industria informática norteamericana. Después de eso los Estados Unidos llegaron a dominar la producción comercial de computado­ 12 Describe el ENIAC Goldstine, H. H. y Goldstine, A., «The Electronic Numeri­ cal Integrator and Computer». 13 El IBM SSEC, basado en relés, corrió en público por primera vez en enero de 1948. Era también una máquina de programa almacenado, pero no enteramente elec­ trónica (nota 3). 14 En 1948 se modificó el ENIAC para que operara con un programa almacenado. Esto redujo de días a minutos el tiempo de preparación para el trabajo. Sin embargo, el ENIAC modificado nunca fue un computador de programa almacenado en pleno sen­ tido. La razón es que el programa estaba almacenado en una memoria de lectura sola­ mente, lo que significa que no podía gozar de los beneficios del direccionamiento va­ riable (nota 19). (Metropolis, N., Worlton, J., «A Trilogy of Errors in the History of Computing», pp. 53-4),

24

Inteligencia artificial. Una introducción filosófica

res. Sin embargo, la historia no ha sido generosa con Eckert y con Mauchly. En 1972 una prolongada guerra de patentes entre la Ho­ neywell Corporation y Sperry-Univac acabó en la decisión judicial de que «Eckert y Mauchly no fueron los primeros en inventar el computador electrónico digital automático, sino que lo derivaron de un cierto Dr. John Vincent Atanasoff» I516. Atanasoff era un profesor universitario norteamericano que casi logró construir un computador electrónico de utilidad general durante el periodo de 1936 a 1942 !6. Desgraciadamente nunca pudo hacer que su máquina fuera por com­ pleto operativa, sobre todo a causa de fallos en una complicada parte del equipo de almacenamiento de información en tarjetas perforadas. Mauchly visitó el laboratorio de Atanasoff en 1941, y en opinión del juez fue la preparación del terreno que realizó Atanasoff lo que con­ dujo a Mauchly y Eckert al ENIAC. A pesar de la sentencia judicial, aún está vigente la disputa sobre el grado en que las ideas de Atana­ soff influyeron en Mauchly y Eckert. No fue ésta la primera vez que los acontecimientos dieron a Ec­ kert y Mauchly un amargo golpe. Los meses siguientes a que ENIAC fuera operativo debieron haber sido su época de triunfo, pero en rea­ lidad fueron oscurecidos por uno de sus colegas, un tal John von Neumann. De Von Neumann, un dotado matemático y lógico, se ha dicho que era un «genio extraterrenal» 17. Von Neumann oyó hablar de ENIAC durante un encuentro casual en una estación de ferroca­ rril. En aquel entonces estaba trabajando en el Proyecto Manhattan en Los Alamos, donde aplicaba su gran genio a siniestros problemas tales como calcular la altura exacta a la que debe estallar una bomba atómica para infligir la mayor destrucción. En seguida vio las impli­ caciones de una máquina como ENIAC («trabajos en obuses, bom­ bas y cohetes... progresos en el campo de los propulsores y explosi­ vos ... problemas de aerodinámica y de ondas de choque...» 18). Se ofreció como asesor en el proyecto de Eckert y Mauchly, y rápida­ 15 Larson, E. R., «Honeywell, Inc. v. Sperry Rand Corp., et al», p. 694. 16 Atanasoff, J. V., «Computing Machine for the Solution of Large Systems of Li­ near Algebraic Equations». 17 Shurkin, J., Engines o f the Mind, p. 174. 18 Tomado de una de las cartas de Von Neumann. (Lo cita Andrew Hodges en Alan Turing: The Enigma, p. 304.) Es una idea común que la informatización de la so­ ciedad ha sido un efecto colateral de la informatización de la guerra. La primera tarea auténtica de ENIAC fue ayudar, bajo la dirección de Von Neumann, a diseñar la bomba H.

Los comienzos de la inteligencia artificial: Esbozo histórico

25

mente se constituyó en portavoz nacional de la nueva tecnología de los computadores. Von Neumann era un pilar de la ciencia oficial y su patrocinio hizo maravillas en favor del prestigio del proyecto ENIAC, pero como resultado de sus conferencias y publicaciones, el computador se llegó a asociar más a su nombre que al de la gente que lo trajo al mundo19. Von Neumann solía decir que sólo un natural de Budapest podía entrar detrás de ti por una puerta giratoria y salir an­ tes que tú 20. Él, desde luego, lo era, y Eckert y Mauchly fueron los que quedaron detrás. Von Neumann hizo luego enormes contribuciones al diseño de computadores. Enunció los principios fundamentales de la arquitec­ tura a la que se habrían de adherir las siguientes generaciones de computadores. Por esta razón, los computadores modernos corrien­ tes se conocen genéricamente como máquinas Von Neumann. Oire­ mos hablar de Von Neumann en capítulos posteriores. El nombre de John Von Neumann está conectado al nacimiento de la inteligencia artificial de otra manera. En 1956 se ejecutó en el JOHNNIAC, un refinado ordenador que diseñó él, el más influ19 Se ha levantado una controversia harto amarga sobre el origen del concepto de programa almacenado. El concepto está presente en el fundacional artículo de Alan Turing «On Computable Numbers, with an Application to the Entscheidungsproblem», publicado en 1936’(véase sobre todo el tratamiento de las descripciones están­ dar y los números de descripción, pp. 240-2). En los Estados Unidos, el primer estudio publicado del concepto de programa almacenado se debió a Von Neumann, «First Draft of a Report of the EDVAC», que apareció en 1945. (EDVAC fue el sucesor del ENIAC.) Puesto que sólo Von Neumann figura como autor de este informe, mucha gente creyó que era el creador del concepto. En realidad el «First Draft» fue. una suma de las ideas de Eckert, Mauchly, Von Neumann y otros miembros del grupo ENIAC. Eckert y Mauchly se enfadaron cuando sólo apareció el nombre de Von Neumann en la publicación del «First Draft» (aunque quizá esto ocurriera sin permiso de Von Neu­ mann; véase la nota 33). El concepto de almacenar los datos sobre los que operar y las instrucciones de operación en los mismos discos internos parece tener su origen en una memoria que Eckert escribió en enero de 1944, meses antes de que Von Neumann se uniera al grupo ENIAC (Eckert, J. P., «The ENIAC»). La principal contribución de Von Neumann al concepto de programa almacenado fue la idea de las direcciones va­ riables (véase Burks, A, B,, «From ENIAC to the Stored-Program Computer: Two Revolutions in Computers», p. 340). La invención de Von Neumann, que abrió el ca­ mino al uso de subrutinas y bucles, permite la automodificación del programa mien­ tras opera. En el capítulo 4 se describe con detalle una versión más eficaz del direccionamiento variable llamada díreccionamiento indirecto. El direccionamiento indirecto se inventó en Manchester y se realizó sobre el Mark I (véase Lavington, S. H., A His­ tory of Manchester Computers, p. 12). 20 Citado en Shurkin, J,, Engines of the Mindt p. 173.

Inteligencia artificial. Una introducción filosófica

26

y ente de los primeros esfuerzos en programación de IA 21. El pro­ grama lleva el afectuoso nombre de «Logic Theorist». Fue la obra de Alien Newell, Cliff Shaw y Herbert Simon, tres de los grandes pio­ neros de la IA 22. 1.2. El Lógico Teórico La lógica es una preocupación central de la investigación en IA. La capacidad de razonar lógicamente es, por supuesto, un compo­ nente fundamental de la inteligencia humana; si los computadores han de alcanzar la categoría de inteligencias artificiales, hay que dar­ les la capacidad de buscar lógicamente la solución de un problema. Newell, Shaw y Simon fueron iniciadores del estudio de cómo se hace eso. Su plan inicial era escribir un programa que pudiera inventar sus propias pruebas de teoremas de geometría elemental. Sin embargo, el éxito les fue esquivo, en gran parte porque resultó inopinadamente difícil representar los diagramas geométricos de una manera que jOHNNIAC pudiera manejar23. Sin desalentarse, volvieron su aten­ ción al proyecto análogo de programar un computador para que bus­ cara de forma lógica —esto es, incestuosamente— demostraciones de teoremas de lógica pura. Esta vez encontraron oro, y en la primavera de 1956 el Lógico Teórico demostró su primer teorema. La lógica pura contiene teoremas como éstos: Dado que X o Y es verdadero, y dado además que Y es de hecho falso, se sigue que X es verdadero. 21 El JOHNNIAC, propiedad de la RAND Corporation de Santa Mónica, era una copia casi fiel de la máquina que Von Neumann y su equipo construyeron en el Insti­ tute for Advanced Study de Princeton. Se hicieron muchas copias semejantes. Llega­ ron a ser conocidas como máquinas clase Princeton (véase Gruenberger, F. J., «The History of the JOHNNIAC»). 22 Newell, A., Shaw, J. C. y Simon, H. A., «Empirical Explorations with the Logic Theory Machine: a Case Study in Heuristics». 23 Herbert Gelertner retomó este proyecto, y en 1959 su programa demostró su primer teorema de geometría euclidiana elemental. (Gelertner, H., Hansen, J. R. y Loveland, D. W., «Empirical Explorations of the Geometry Theorem Proving Machine».)

Los comienzos de la inteligencia artificial: Esbozo histórico

27

A partir de la información de que si X es verdadero entonces Y es verdadero, se sigue que si Y es falso, X es falso también* (Es cierto. Piense en ello.) Las áreas centrales de la lógica pura las codificaron y sistemati­ zaron los filósofos Bertrand Russell y Alfred North Whitehead en los primeros años de este siglo. El Lógico Teórico fue contrastado con el capítulo 2 del libro de estos autores, Principia Mathematical que abrió nuevas sendas en lógica, y el programa consiguió demos­ trar treinta y ocho de los primeros cincuenta y dos teoremas que contiene. Aquí había por primera vez un programa que no sólo mascaba números, sino que sacaba pruebas de enunciados abstrac­ tos. A escala microscópica el Lógico Teórico era capaz de razonar. En el caso de uno de los teoremas, la demostración ingeniada por el Lógico Teórico era bastante más elegante que la dada por Russell y Whitehead. Como dice Shaw, «eso añadió un aliciente a nuestro empeño»2425.Los tres hombres escribieron un breve artículo que des­ cribía la nueva demostración y, junto a sus nombres, añadieron de buen grado el del Lógico Teórico como coautor. Era el primer en­ sayo académico de la historia co-escrito por una máquina, pero desafortunadamente el editor de The Journal o f Symbolic Logic rehusó publicarloa5. A menudo se dice que el Lógico Teórico fue inequívocamente «el primer» programa de IA. Esto, sin embargo, es un mito, una parte del no siempre exacto folklore de la IA. El Lógico Teórico fue, sin duda, el más fecundo de los primeros proyectos de IA, pero fue precedido por varios programas diseñados para jugar al ajedrez y otros juegos de tablero (entonces, como ahora, estos juegos se consideraban un importante banco de pruebas de la inteligencia de las máquinas). Entre los predecesores destacó un programa de da­ mas que incorporaba un mecanismo de aprendizaje. El programa captó rápidamente las mañas del juego y en seguida fue capaz de derrotar a su creador, Arthur Samuel. (La sección 2.6 del siguiente capítulo comenta este triunfo del programa sobre su creador.) Sa­ muel tenía listo y en funcionamiento su programa a principios de 24 Tomado de una entrevista con Pamela McCorduck, recogida en su Machines Who Think, p. 143. 25 Ibid., p. 142.

28

Inteligencia artificial. Una introducción filosófica

los cincuenta, y lo exhibió en la televisión norteamericana varios años antes de que se escribiera el Lógico Teórico26. Examinaremos más despacio la obra de Newell, Simon y Shaw en los capítulos 2 y 5. 1.3. La Conferencia de Dartmouth El campo de la inteligencia artificial recibió su nombre de John McCarthy, uno de los héroes legendarios de la revolución informá­ tica. Entre sus famosas contribuciones está la invención del LISP (el lenguaje de programación empleado por la gran mayoría de los pro­ gramas. de IA) y la creación del primer sistema de tiempo compartido (la disposición que permite a un computador atender simultánea­ mente las demandas de un gran número de terminales). En 1965 McCarthy organizó la conferencia que en la IA consideran el naci­ miento de su disciplina27. McCarthy quería reunir a todas las perso­ nas que sabía que estaban interesadas en la inteligencia de los compu­ tadores. Muchas nunca se habían visto y las invitó a todas a un verano de reflexión, una oportunidad para que durante dos meses cada una estimulara las ideas de las demás. Eligió el Dartmouth Co­ llege, en New Hampshire, como sede, y tituló su conferencia The 26 Está muy extendida la idea de que el Lógico Teórico fue el «primero». Véase, por ejemplo, Fleck, J., «Development and Establishment in Artificial Intelligence», p. 115 (el Lógico Teórico fue «el primer programa desarrollado típico de la IA que funcio­ nara»); Simons, G. L., Introducing Artificial Intelligence, p. 48 (el Lógico Teórico fue «el primer programa efectivo de IA»); Waldrop, M. M., Man-Made Minds: The Pro­ mise of Artificial Intelligence, p. 23 (el Lógico Teórico fue «el primer programa autén­ tico de IA»). Un autor afirma incluso que «el programa de Samuel fue precedido en 1956 por un programa llamado Lógico Teórico». (Berry, A., The Super-Intelligent Machine, p. 30). Feigenbaum y Feldman dicen que el Lógico Teórico fue «el primer programa heurístico realizado íntegramente en un computador» en su influyente Computers and Thought (p. 180). Sin embargo, con las propias palabras de Samuel, su programa «consiguió el objetivo —mejorar su juego gracias a [un] proceso de aprendi­ zaje que entrañaba una heurística— muy al principio de su existencia, desde luego, bastante antes de 1956... Salvo por el hecho de que no se hizo publicidad de la existen­ cia de mi programa de damas, se puede argumentar que en esta fecha ya se había "reali­ zado íntegramente” un programa que empleara heurísticas para aprender... Mi pro­ grama de damas fue uno de los primeros programas de cualquier tamaño en ser ejecutado en el primer modelo experimental del... IBM 701». (Comunicación personal, 6 de diciembre de 1988.) 27 Feigenbaum, E. A. y Feldman, J., Computers and Thought, p. 108.

Los comienzos de la inteligencia artificial: Esbozo histórico

29

Dartmouth Summer Research Project on Artificial Intelligence, Las dos últimas palabras hicieron fortuna. La conferencia, en muchos sentidos, no fue un éxito. La mayoría de la gente que McCarthy invitó no halló que dos meses cabales de «tormenta de cerebros» fuera una perspectiva tentadora. Fueron fre­ cuentes las visitas breves, y la gente iba y venía errática. «Eso signi­ ficó que no pudo haber reuniones regulares», se quejaba McCarthy. «Para mí fue una gran frústración... Tampoco hubo, por lo que yo pude ver, ningún intercambio auténtico de ideas»28. Además muchos ánimos se encresparon cuando Newell y Simon —dos personajes prácticamente desconocidos que habían sido invitados casi de com­ parsas— llegaron del JOHNNIAC con las tiradas de impresora de los primeros ensayos del Lógico Teórico. A nadie le gusta que le qui­ ten brillo y en la conferencia de McCarthy no eran una excepción. A pesar de todo, la conferencia de Dartmouth tuvo un efecto ca­ talizador. Lo que antes había sido una dispersión de entusiastas indi­ viduales que trabajaban en relativo aislamiento se convirtió de pronto en una comunidad científica con sus propias metas de investigación y un fuerte sentido de identidad. La IA hizo su debut. En los años si­ guientes a Dartmouth se establecieron laboratorios de inteligencia ar­ tificial en diversas universidades, especialmente en Carnegie Mellon, bajo Newell y Simon; en Stanford, bajo McCarthy; en el MIT, bajo Marvin Minsky (coorganizador de la conferencia de Dartmouth); y en Edimburgo, bajo Donald Michie (una figura prominente de la es­ cena de la IA británica). 1.4. Alan Turing y la filosofía de la IA Casi paradójicamente, la filosofía de la IA apareció varios años antes que la IA misma. El padre fundador de esta rama de la filosofía fue Alan Turing, lógico y matemático británico. Turing es una de las mentes más originales que ha producido este siglo. Seis años antes de que por primera vez se ejecutara el Lógico Teórico en el JO H N ­ NIAC (y mientras supervisaba la programación del Mark I de Man­ chester) publicó un artículo titulado «Computing Machinery and Intelligence» («¿Puede pensar una máquina?» en español) en la so28 Tomado de una entrevista con Pamela McCorduck, recogida en su Machines Who Think, pp. 95-6.

30

Inteligencia artificial. Una introducción filosófica

lemne revista filosófica Mind29. Comenzaba así: «Propongo conside­ rar la pregunta "¿pueden pensar las máquinas?”.» Turing sometió la pregunta a una cuidadosa discusión filosófica, en el curso de la cual catalogó y refutó nueve objeciones a la afirmación de que las máqui­ nas pueden pensar. En una presentación directa de su propia postura declaró que a finales de este siglo «el uso de las palabras y la opinión educada común habrán cambiado tanto que uno podrá hablar de má­ quinas pensantes sin temer ser contradecido». Este artículo inauguró la filosofía de la IA. Examinaremos con detalle en los próximos capí­ tulos las influyentes opiniones de Turing30. Cuando Turing escribió su polémico artículo había exactamente cuatro computadores electrónicos (en Gran Bretaña el Mark I de Manchester y el EDSAC de Cambridge, y en Estados Unidos el ENIAC y el BINAC). La prensa ya les había puesto el mote de «ce­ rebros electrónicos» y había empezado a echar raíces en la imagina­ ción pública la idea de que podían ser prototipos de máquinas pen­ santes. Sin embargo, en los círculos cultos existía la tendencia a tomar esta idea como sensacionalismo huero, unh especie de broma. «Cuando oímos que las válvulas de radio piensan, podemos descon­ fiar del lenguaje», señaló uno de los colegas de Turing, Sir Geoffrey Jefferson, en una alocución pública unos meses antes de que Turing escribiera su artículo (Jefferson era profesor de Neurocirugía en Manchester)31. Para Jefferson y otros muchos, la cuestión de si es po­ sible que un computador piense no merecía sino el desprecio de lo 29 Algunas ideas centrales de este artículo aparecen prefiguradas dos años antes en un borrador para la discusión que Turing tituló «Intelligent Machinery». (Este borra­ dor se publicó postumamente en 1969.) 30 No es raro que se aluda a Turing como padre fundador de la IA (por ejemplo, Bundy, A., Artificial Intelligence, p. IX; Herken, R., The Universal Turing Machine, p. XII; Ringle, M., Philosophical Perspectives in Artificial Intelligence, p. 1; Searle, J., «Is the Brain's Mind a Computer Program?», p. 20; Shortliffe, E. H., Computer-Based Medical Consultations: Mycin,, p. 13). Es una exageración. Turing no trabajó en nada que se pueda denominar programa de IA (excepto un programa de ajedrez muy insa­ tisfactorio que nunca acabó; véase Bates, A. M., Bowden, B. V., Strachey, C. y Turing, A. M., «Digital Computers Applied to Games»). También influyó de forma apreciable en las ideas de Minsky, Simon o las demás figuras de la Dartmouth Conference (McCorduck, P., Machines Who Thinks p. 95, nota 1). Su lugar por derecho en la his­ toria de esta materia es el de fundador de la filosofía de la IA. 31 Jefferson, G., «The Mind of Mechanical Man», p. 1110. (Es el texto de la Lección Lister, dictada en el Colegio Real de Cirujanos en junio de 1949.)

Los comienzos de la inteligencia artificial: Esbozo histórico

31

peregrino y poco meditado. El cuidadoso artículo de Turing puso el debate a un nivel distinto. Era típico de Turing escribir sobre la filosofía de la IA con tal adelanto sobre la Conferencia de Dartmouth: a menudo iba años por delante de todo el mundo. En 1936, cinco años antes de que Eckert y Mauchly echaran mano de sus soldadores, escribió (casi por acci­ dente) un ensayo definitivo sobre los fundamentos lógicos del diseño de computadores32. El tema auténtico del artículo era un problema abstracto de la lógica matemática, y en el curso de su resolución se las arregló para inventar, en concepto, el computador de propósito gene­ ral con programa almacenado. Este artículo sigue siendo uno de los clásicos supremos de la teoría de la computación. Los computadores abstractos que Turing inventó se conocen hoy día simplemente como máquinas de Turing. Se describen en el capítulo 6. Durante la guerra, Turing trabajó como descifrador de códigos en Bletchley Park, y los diseñadores del Colossus estaban, sin duda, fa­ miliarizados con el concepto de máquina de Turing33. Sin embargo, curiosamente, Turing mismo tuvo poca o ninguna intervención en la construcción del Colossus. Rechazó una invitación a unirse al pro­ yecto, y de hecho estaba de visita en Estados Unidos durante el perío­ do en que se consiguieron los avances tecnológicos decisivos34. Si Turing hubiera prestado su colaboración al proyecto, bien se podría haber construido en Bletchley el primer computador electrónico de utilidad general. (Turing desempeñó un papel clave descifrando códi­ gos 35. Un miembro del equipo de Bletchley dijo: «No diré que Tu32 Turing, A. M., «On Computable Numbers, with an Application to the Entscheidungsproblem». 33 Como lo estaba, sin duda, Von Neumann. Stanley Frankel, uno de los primeros científicos que emplearon el ENIAC, escribe: «Von Neumann conocía sobradamente la importancia fundamental del artículo de 1936 de Turing... que describe los princi­ pios del Computador Universal del cual cada computador moderno... es una realiza­ ción... Muchos han aclamado a Von Neumann como “padre del computador”, pero es­ toy seguro de que él nunca habría cometido ese mismo error. Bien se le podría haber llamado la comadrona quizá, pero ante mí, y estoy seguro de que también ante otros, insistía en que la concepción fundamental pertenecía a Turing, puesto que ni Babbage, Lovelace ni otros la habían anticipado.» (Tomado de una carta reproducida en Randell, B., «On Alan Turing and the Origins of Digital Computers», p. 10.) Se describe la obra de Babbage eh el capítulo 4. i4 Hodges, A., Alan Turing:' The Enigma, pp. 267-8. 35 Los alemanes tenían un código supuestamente impenetrable conocido como Enigma, que a lo largo de toda la guerra fue su principal método de salvaguardar sus

32

Inteligencia artificial. Una introducción filosófica

ring nos hizo ganar la guerra, pero me atrevo a decir que sin él podría­ mos haberla perdido»36.) El descubrimiento accidental de Turing de un computador imagi­ nario llegó a dominar su vida profesional, pues durante los años de la posguerra se comprometió apasionadamente en el desarrollo de má­ quinas reales. Su experiencia con la electrónica durante la guerra le había mostrado que la «máquina» de papel de su artículo de 1936 se podía convertir en realidad. En 1945 se unió al National Physical La­ boratory e ideó diseños de un computador electrónico de propósito general llamado ACE37. Como era típico de él, su máquina era dema­ siado rápida y compleja para construirla en aquel tiempo. Faltaban diez años para que el ACE de Turing estuviera disponible comercial­ mente, e incluso entonces no fue sino una sombra del ambicioso di­ seño original. Turing abandonó descontento el proyecto en 1948 y comunicaciones de radio ante los ávidos escuchas aliadoá. Turing ideó una máquina para descodificar rápidamente los mensajes emitidos en Enigma, y con ello dio a los aliados pleno acceso a la red de comunicaciones de radio de la Wehrmacht. En 1942 el personal de Bletchley descodificaba 50,000 mensajes interceptados al mes, uno por mi­ nuto. Desde órdenes individuales para capitanes de submarino hasta planes del más alto nivel. Ésta fue la primera guerra, y probablemente la última, en que un bando fue bendecido con el conocimiento detallado y previo de la estrategia del otro. Las máqui­ nas descifradoras de Turing, que hacían un tic-tac muy fuerte, eran conocidas como «bombas». Hodges ofrece una narración excelente de las operaciones de Bletchley, op. cit., capítulo 4. 36 I. J. Good en una entrevista con Pamela McCorduck, recogida en su Machines Who Think, p. 53. 37 He aquí la presentación que hace el propio Turing de la relación entre la Má­ quina de Turing y el ACE: «Hace algunos años yo estaba trabajando sobre lo que ahora se podría describir como una investigación de las posibilidades y las limitaciones teóricas de las máquinas computadoras digitales. Estudiaba un tipo de máquina con un mecanismo central, y una memoria infinita contenida en una cinta infinita... Las má­ quinas como ACE se pueden considerar versiones prácticas de este tipo de máquina» («Lecture to the London Mathematical Society on 20 February 1947», pp. 106-7). En una carta a Ross Ashby (sin fecha, pero escrita cuando Turing trabajaba en el ACE en el Laboratorio Nacional de Física) dice: «El ACE es análogo a la “máquina universal” descrita en mi ensayo sobre números computables [sicj... sin alterar el diseño de la má­ quina, ésta se puede, en teoría al menos, usar como modelo de cualquier otra máquina haciendo que recuerde un conjunto apropiado de instrucciones» (Archivo NPL, Bi­ blioteca del Museo de Ciencias, South Kensington, Londres). Como sugiere Hodges (Alan Turing: The Enigma, p. 556), Sara Turing citaba más o menos las palabras de su hijo cuando escribía «... su propósito [era] ver que su teoría lógica de una máquina uni­ versal, expuesta ya en su ensayo “Computable Numbers” [sic]... tomara forma con­ creta en una máquina real» (Alan M. Turing, p. 78).

Los comienzos de la inteligencia artificial: Esbozo histórico

33

fue a Manchester a introducir la ciencia de la programación de computadores38. En junio de 1954 Alan Turing se suicidó comiendo una manzana empapada de cianuro. Algún tiempo atrás un tribunal de lo penal lo había declarado culpable de homosexualidad y lo había sentenciado a un periodo de «tratamiento» hormonal, un degradante abuso desti­ nado a destruir su libido. Cuando Turing murió, la ciencia de los computadores perdió a uno de sus pensadores geniales, Gran Bretaña perdió a un científico con el que está en grave deuda y la inteligencia artificial perdió a su primer gran profeta.

38 El modelo industrial se llamó DEUCE. En 1950, dos años después de que Tu­ ring abandonara el proyecto, funcionó una versión piloto del ACE, que por entonces era la máquina más rápida del mundo.

Capítulo 2 ALGUNAS PRUEBAS SORPRENDENTES

La inteligencia artificial ha andado un largo trecho desde su inicio en 1956. Este capítulo hace un recorrido por los laboratorios de IA de Estados Unidos y presenta algunas de sus creaciones más espec­ taculares. Por el camino señalo algunos rasgos de interés filosófico y preparo la escena para las discusiones más importantes que se des­ pliegan en capítulos ulteriores. También toco algunas cuestiones éticas. Un objetivo del recorrido es obligar a quienes se inclinen al escepticismo a conceder que la idea de un «computador pensante» merece ser tomada en serio. Esta idea no se puede dar de lado; las pá­ ginas siguientes pueden parecer ciencia-ficción, pero los programas que describo son completamente reales. 2*1. Dentro de la máquina Antes que nada, ¿qué es un programa de computador? En caso de que usted no haya visto nunca uno de estos misteriosos objetos, he aquí un modesto espécimen. Está escrito en el lenguaje de programa­ ción BASIC. (Los números de la izquierda son números de línea. Las líneas se numeran para facilitar la referencia. Los números van de 100 34

Algunas pruebas sorprendentes

35

en 100 para que no haya necesidad de cambiar la numeración de todo el programa si en una fase posterior se insertan más líneas.) 100 PRINT “¿Cuál es tu nombre?" Esta instrucción hace que el com putador m uestre en la pan talla las palabras entrecom illadas. La persona que m aneja el teclado escribe «Alicia».

200 INPUT NOMBRE$ Esta línea le dice a l com putador que alm acene cualquier cosa que la persona teclee y y que le ponga la etiqueta «NOMBRES», p a ra fu tu ra referencia, a la in­ form ación alm acenada. (E l signo d el dólar es una de las peculiaridades del BASIC. Se le añade a las etiquetas de palabras para que se distingan de las etiquetas de núm eros.)

300 PRINT “Dime", NOMBRES, “¿crees que los computadores pueden pensar? Por favor, responde simplemente sí o no." C uando este m ensaje aparece en la pantalla, el com putador inserta el nom bre «Alicia».

400 INPUT RESPUESTAS El com putador alm acena la respuesta de A licia y la etiqueta «RESPUESTAS».

500 IF RESPUESTAS = “SÍ" THEN PRINT

que nos vamos a llevar bien."

“Muchas gracias", NOMBRES, “Veo

“Bueno, bueno”, NOMBRES, “Ésa es una posición filosófica interesante. Supon que la psicología y la neurociencia descubren que el cerebro humano funciona de forma muy parecida a como lo hace un computador. ¿Significaría eso que tampoco tú piensas?”

600 IF RESPUESTAS = “NO” THEN PRINT

700 END.

2,2. Parry, el programa paranoico En las fantasías de ciencia-ficción el personal de las naves conversa con sus computadores. En los laboratorios de IA de California la fantasía se ha hecho realidad. Para conversar con Parry hay que sen­ tarse frente a un monitor de video y teclear en él. Las respuestas apa­

36

Inteligencia artificial. Una introducción filosófica

recen en la pantalla; desde el punto de vista humano, el tiempo que tarda en responder es desconcertantemente breve h Parry es hostil y está a la defensiva. También es impredecible. Incluso su creador, el psiquiatra Kenneth Colby, es a menudo incapaz de anticipar sus res­ puestas. (Colby construyó su paranoico artificial como parte de un intento de comprender los procesos que subyacen a la enfermedad12.) La siguiente conversación está seleccionada de una entrevista en­ tre Parry y un psiquiatra. Primero habla el psiquiatra. ¿Por qué estás en el hospital? NO DEBERÍA ESTAR AQUÍ. ¿Quién te trajo aquí? LA POLICÍA. ¿Qué problemas tienes con la policía? LOS POLIS NO HACEN SU TRABAJO. ¿Qué hacen, pues? LOS POLIS ARRESTAN AL QUE NO DEBEN. . A veces arrestan a los que deben. LA LEY DEBERÍA COGER A ESOS LADRONES ITALIANOS. ¿Eres italiano?

MIS ANTEPASADOS SON BRITÁNICOS PERO NACÍ EN ESTE PAÍS.

¿Conoces a algún ladrón italiano? INTENTO EVITAR LOS BAJOS MUNDOS. ¿Tienes miedo de los bajos mundos? LA MAFIA SON LOS PEORES GANGSTERS. ¿Estás relacionado con la Mafia? YA SABE, ELLOS ME CONOCEN. ¿Cómo es que te conocen? ME ESPÍAN. ¿Por qué? QUIEREN CONSEGUIR PRUEBAS FALSAS PARA EMPURARME. ¿Qué tienen contra ti? QUIEREN COGERME. ¿Para qué? TENGO PRUEBAS INCRIMINADORAS CONTRA LA MAFIA. ¿Estás seguro de todo eso? ¿NO ME CREE? Hago lo que puedo.

1 Heiser, J. F., Colby, K. M., Faught, W, S. y Parkison, R. C , «Can Psychiatrists Distinguish a Computer Simulation of Paranoia from the Real Thing?» 2 Véase Colby, K. M., Artificial Paranoia y «Modeling a Paranoid Mind».

Algunas pruebas sorprendentes

37

Parry perm anece callado. El psiquiatra perm anece callado. ¿NO SE LE OCURRE UNA PREGUNTA DECENTE QUE HACER?

Pareces hostil hacia mí. ALGUNAS DE SUS OBSERVACIONES ME OFENDEN. Lo siento.

OLVIDE LAS EXCUSAS, TODOS USTEDES SON IGUALES.3

Parry es tan convincente que, cuando a alguien se le pide decidir por medio de una entrevista si se están comunicando con un pro­ grama o una persona, tiene auténtica dificultad en averiguarlo4. A menudo no puede más que conjeturar. La escalofriante verdad es que Colby ha hecho una máquina que actúa como un hombre.

2 3 . Eliza, la psicoterapeuta Eliza, de Joseph Weizenbaum, es probablemente el programa de IA más famoso5. Eliza desempeña el papel opuesto a Parry: realiza entrevistas psicoterapéuticas a seres humanos. Durante muchos años se le permitió recibir en el laboratorio de IA del MIT, donde charlaba solícita con profesores y periodistas visitantes sobre sus penas y ma­ nías. Sin duda muchos de ellos salieron de sus sesiones con el compu­ tador abrigando un profundo sentimiento de inquietud. He aquí una conversación entre Eliza y una adolescente6. La chi­ ca habla primero. Todos los hombres son iguales. EN QUÉ SENTIDO. Siempre nos están chinchando con una cosa u otra. PUEDES PENSAR EN UN EJEMPLO ESPECÍFICO. Mi novio me hizo venir aquí. TU NOVIO TE HIZO VENIR AQUÍ. Dice que estoy deprimida muchas veces. LAMENTO OÍR QUE ESTÁS DEPRIMIDA.

3 Colby, K. M., Weber, S., e Hilf, F. D., «Artificial Paranoia», pp. 16-18. 4 Véase capítulo 3, sección 3.3. 5 Como a veces se cuenta, Weizenbaum bautizó su programa así por Eliza Doolit­ tle, el personaje de la comedia Pigmali6ny de George Bernard Shaw. Weizenbaum, como el profesor de la obra, enseñaba a su protegida a hablar cada vez mejor. 6 Weizenbaum, J., Computer Power and Human Reason, pp. 3-4.

Inteligencia artificial. Una introducción filosófica

38

Es cierto que soy desgraciada.

CREES QUE VENIR AQUÍ TE AYUDARÁ A NO SER DESGRACIADA.

Necesito ayuda, eso parece seguro. QUÉ SIGNIFICARÍA PARA TI CONSEGUIR AYUDA. Quizá aprendería a llevarme bien con mi madre. DIME MÁS COSAS SOBRE TU FAMILIA. Mi madre cuida de mí. QUIÉN MÁS, EN TU FAMILIA, CUIDA DE TI. Mi padre. TU PADRE. Eres como mi padre en algunos aspectos. QUÉ PARECIDO VES. No eres muy agresivo, pero creo que no deseas que yo me dé cuenta. QUÉ TE HACE PENSAR QUE NO SOY MUY AGRESIVO. No discutes conmigo. POR QUÉ PIENSAS QUE NO DISCUTO CONTIGO. Porque me tienes miedo. TE GUSTA PENSAR QUE YO TE TENGO MIEDO. Mi padre tiene miedo de todo el mundo. QUÉ MÁS COSAS SE TE OCURREN CUANDO PIENSAS EN TU PADRE. Abusones.

TIENE ESO ALGO QUE VER CON EL HECHO DE QUE TU NOVIO TE HICIERA VE­ NIR AQUÍ,

Como el Dr. Frankenstein, pronto Weizenbaum se sintió abru­ mado por el horror de su criatura7. La gente respondía a su máquina como si fuera un ser humano. En las entrevistas a menudo formaban un fuerte lazo emocional con Eliza, un lazo que Weizenbaum hallaba obscenamente fuera de lugar. «No me había dado cuenta», escribe Weizenbaum, «de que exposiciones extremadamente breves a un pro­ grama de computador relativamente simple pueden inducir ideas gra­ vemente extraviadas en gente muy normal»8. La máquina podía in­ ducir a las personas sin esfuerzo a revelar sus más íntimos secretos, y a veces a Weizenbaum le resultaba difícil convencerlas de que Eliza no era una persona auténtica. Incluso su propia secretaria —que a cierto nivel sabía muy bien que la creación de Weizenbaum era sim­ plemente una máquina— cogió la costumbre de obligar al resto del personal a abandonar la habitación para que ella y Eliza pudieran ha­ blar en privado. 7 Weizenbaum, J., Computer Power and Human Reason, pp. 1-16. 8 Weizenbaum, J., ibidem, p. 7.

Algunas pruebas sorprendentes

39

Conforme se extendió la voz, gentes chifladas empezaron a tele­ fonear a Weizenbaum pidiendo que Eliza les ayudara con sus proble­ mas 9. La pesadilla empeoró cuando Weizenbaum se dio cuenta de que había psiquiatras que no tenían inconveniente en dejar que la máquina se ocupara de sus pacientes. Un informe en el Journal of Nervous and Mental Disease afirmaba que una vez que el programa estuviera listo para su uso clínico, «suministraría una herramienta te­ rapéutica de la que se podrá disponer ampliamente en los hospitales mentales y centros psiquiátricos escasos de terapeutas... Un sistema informático diseñado para este propósito podrá ocuparse de cien pa­ cientes en una hora» 101. Esta propuesta pone de relieve una tendencia peligrosa de nuestra sociedad: un deseo, casi un ansia, de confiar al computador el bienestar de los seres humanos. Esto es algo que Wei­ zenbaum encuentra profundamente perturbador. Su experiencia de las reacciones humanas ante Eliza han conver­ tido a Weizenbaum en un oponente implacable de la construcción de inteligencias artificiales. Dibuja un vivido retrato del fin último de la IA, que es «nada menos que construir una máquina según el modelo humano, un robot que ha de tener una infancia, aprender un lenguaje como un niño, adquirir conocimiento del mundo a través de sus ór­ ganos sensoriales y, en último término, abarcar el dominio entero del pensamiento humano» 11. La cuestión importante, alega Weizenbaúm, no es si esas cosas se pueden hacer, sino si se deben hacer. Él cree que las inteligencias artificiales, por su propia naturaleza, serían incapaces de comprender cabalmente la condición humana o de sim­ patizar con ella12. Sin embargo, como demuestra la reacción ante Eliza, puede que haya una disposición excesiva a confiar a estas inte­ ligencias extrañas la administración de los asuntos humanos. 2.4. Shrdlu, el robot Eliza sólo tiene una habilidad: devuelve a sus «pacientes» sus pro­ pios enunciados, a la manera clásica de una psicoterapeuta no direc­ 9 McCorduck, P., Machines Who Think, pp. 254-5. 10 Colby, K. M., Watt, J. B. y Gilbert, J. P., «A Computer Method of Psychothe­ rapy: Preliminary Communication», p/152. 11 Weizenbaum, J., ibidem, pp. 202-3. n Weizenbaum, J., ibidem, capítulo 8.

40

Inteligencia artificial. Una introducción filosófica

tiva. El programa no tiene ninguna de las capacidades que se asocian usualmente a la inteligencia. Eliza no sabe nada de su entorno, no tiene capacidad de razonar, no puede planear acciones, no puede aprender nada y no posee ninguna comprensión de sus propios moti­ vos. Terry Winograd, mientras trabajaba en el MIT, fue uno de los primeros en abordar el problema de conferir a un computador estas capacidades. El resultado fue su programa Shrdlu (el nombre es una palabra sin sentido que Winograd tomó prestada de la revista MAD). Shrdlu controla el brazo de un robot que opera sobre una mesa llena de bloques de colores de varias formas y tamaños. En realidad, tanto el brazo como el entorno son imaginarios: el computador los simula y sintetiza una imagen de TV de las acciones del brazo. La co­ municación entre el humano y el robot se establece a través de un te­ clado, y las respuestas del computador aparecen como «subtítulos» en la pantalla. Cuando se le dice que coloque los bloques en una con­ figuración particular, Shrdlu inventa y ejecuta su propio plan de ac­ ción. Su capacidad para interpretar instrucciones en inglés ordinario es impresionante, y se muestra hábil al conjeturar el significado más probable de una orden ambigua. El poder de razonamiento de Shrdlu le permite contestar preguntas complicadas sobre el mundo de su mesa, y puede, dentro de ciertos límites, examinar sus propios «mo­ tivos». He aquí una conversación entre Winograd y Shrdlu B. Las inter­ venciones de Shrdlu van en mayúsculas. (Las interrupciones en cur­ siva son mías.) Coge un bloque rojo grande. DE ACUERDO.

En la pan talla el b ra zo d el robot se m u eve. Se ven dos bloques rojos, uno p e­ queño y otro grande (figura 2.1). Encim a del grande hay un cubo verde. E l robot prim ero traslada el cubo verd e a la m esa y luego coge el bloque rojo.

Busca un bloque más alto que el que sostienes y ponlo en la caja.

ENTIENDO QUE «LO» SE REFIERE AL BLOQUE QUE ES MÁS ALTO QUE EL QUE SOSTENGO.

Shrdlu deja e l bloqu e rojo, coge uno a zu l m ás alto y lo pon e en la caja.

¿Qué contiene la caja?13

13 Lo que sigue es una versión corregida de una transcripción reproducida en Wi­ nograd, T., Understanding Natural Language, pp. 8-15. Dos de las entradas no proce­ den de esta fuente, sino de Winograd, T., Procedures as a Representation for Data in a Computer Program for Understanding Natural Language, p. 44.

Algunas pruebas sorprendentes

41

FIGURA 2.1. El m undo de bloques de colores de Shrdlu . (Basada en la figura 3 de W inograd, T.y Understanding Natural Language.,) LA PIRÁMIDE AZUL Y EL BLOQUE AZUL. ¿Qué sostiene a la pirámide? LA CAJA.

En realidad sobre la mesa hay otras dos pirám idesy una roja y otra verde. Shrdlu su pone. acertadam en te que la p reg u n ta alude a la p irá m id e recién m encionada .

¿Cuántos bloques están fuera de la caja? CUATRO. ¿Hay al menos uno que sea más estrecho que el que te dije que cogieras? Sí, EL CUBO ROJO. ¿Está sostenido? Sí, POR EL BLOQUE VERDE. ¿Puede la mesa coger bloques? NO. ¿Puede una pirámide ser sostenida por un bloque? Sí. ¿Puede una pirámide sostener otra pirámide? NO LO SÉ. Apila dos pirámides. E l robot lo intenta y fracasa.

NO PUEDO. La pirámide azul es mía. ENTIENDO.

42

Inteligencia artificial. Una introducción filosófica

Yo poseo ios bloques que no son rojos, pero no poseo nada que sostenga una pirámide. ENTIENDO.

Las cuatro preguntas siguientes dan a Shrdlu una oportunidad de m ostrar sus poderes lógicos y de deducción,

¿Poseo la caja? NO.

¿Poseo algo que esté dentro de la caja? ¿Hay algo que sea mayor que cualquier pirámide pero no sea tan ancho como la cosa que lo sostiene? Sí, EL BLOQUE AZUL. ¿Sostiene algo verde la cosa más corta que sostiene el soporte de la pirámide más alta?

Sí, DOS COSAS: EL BLOQUE AZUL Y LA PIRÁMIDE AZUL.

A Shrdlu le llevó m enos de vein te segundos en ten der esto; y o necesité bastan­ te más.

Sí, LA PIRÁMIDE VERDE.

¿De qué color es?

Shrdlu supone sensatam ente que la pregunta no se refiere a la pirám ide verd e .

SUPONGO QUE TE REFIERES A LA COSA MÁS CORTA QUE SOSTIENE EL SO­ PORTE DE LA PIRÁMIDE MÁS ALTA. ROJO.

Una torre

LO SIENTO, NO CONOZCO LA PALABRA «TORRE».

Shrdlu se interrum pe tan pron to encuentra una palabra que no conoce .

Una «torre» es un apilamiento que contiene dos cubos verdes y una pirámide. ENTIENDO.

¿Hay alguna torre ahora? NO. ¿Quieres apilar, por favor, los dos bloques rojos y un cubo verde o una pi­ rámide? DE ACUERDO.

Shrdlu opta p o r apilar los bloques rojos con un cubo verde. D urante la cons­ trucción de la pila tiene que qu itar la pirám ide verd e de encim a de uno de los bloques rojos. R ecuerde esto.

¿Cuál de los bloques verdes reposa sobre la mesa? EL QUE SOSTIENE LA PIRÁMIDE ROJA. Pon la pirámide más pequeña encima de él DE ACUERDO. Shrdlu tom a la p irá m id e verd e pequeña . ¿Has tocado alguna pirámide antes de poner una sobre el bloque verde? Sí, LA VERDE. ¿Cuándo la cogiste?

CUANDO ESTABA APILANDO UN CUBO ROJO, UN CUBO VERDE GRANDE Y UN BLOQUE ROJO GRANDE.

Algunas pruebas sorprendentes

43

¿Por qué? PARA QUITARLA. ¿Por qué hiciste eso? PARA DESPEJAR EL CUBO ROJO. ¿Por qué despejaste ese cubo? PARA PONERLO ENCIMA DE UN CUBO VERDE GRANDE. ¿Por qué hiciste eso?

PARA APILAR UN CUBO ROJO, UN CUBO VERDE GRANDE Y UN BLOQUE GRANDE ROJO.

¿Por qué hiciste eso?

PORQUE ME LO PEDISTE TÚ.

Leyendo este curioso diálogo es fácil imaginar el advenimiento de androides inteligentes dentro de unos cuantos años. El capítulo 5 in­ vestiga si esto es así. 2.5. Hacker, el programa programador En la jerga de la informática, «hacker» es quien programa obsesi­ vamente 14. Joe Weizenbaum, creador de Eliza, y a su vez ex progra­ mador obsesivo, da una descripción colorista de esta adicción. En todos los lugareá donde se han establecido centros informáticos... hom­ bres jóvenes y brillantes de aspecto desaliñado, a menudo con un resplandor en sus ojos hundidos, se sientan frente a consolas de ordenador, los brazos tensos y esperando a disparar los dedos, ya alzados para golpear, hacia los botones y teclas sobre los cuales su atención parece estar tan clavada como los ojos del jugador en los dados. Cuando no están en este trance, a menudo se sientan en mesas colmadas de tiradas de impresora sobre las que meditan como posesos estudiosos de un texto cabalístico. Trabajan hasta casi derrum­ barse, veinte, treinta horas cada vez. Si así lo han dispuesto, les traen la co­ mida: café, refrescos, bocadillos. Si les dejan, duermen en catres cerca del computador. Pero sólo unas pocas horas: luego la vuelta a la consola y al pa­ pel continuo. Sus ropas arrugadas, sus rostros sucios y sin afeitar y su cabello despeinado, todo ello atestigua que se han olvidado de sus cuerpos y del mundo en que se mueven... Éstos son los desharrapados de los computado­ res, los programadores obsesivos15. 14 En inglés, un «hack» es un programa elegante. El término «hacker» se usa tam­ bién para el pirata que irrumpe en los archivos informáticos ajenos. n Weizenbaum, J., Computer Power and Human Reason, pp. 116.

Inteligencia artificial. Una introducción filosófica

44

Según la opinión convencional, el computador nunca será capaz, a su vez, de programar. Hacker, de Gerald Sussman, destroza este có­ modo mito I6. Hacker es otra habitante del laboratorio de IA del MIT, y su especialidad es escribir programas para el computador en que opera. Los programas que escribe controlan los movimientos de un brazo de robot simulado que actúa en un entorno de bloques como el de Shrdlu. Es fundamental en la actuación de Hacker su Biblioteca de Técni­ cas de Programación, y un almacén de conocimientos sobre la escri­ tura de programas. Gran parte de la biblioteca consta de recetas de­ talladas para construir programas por secciones. También incluye reglas heurísticas, una selección de las miríadas de trucos y atajos de que está imbuida el alma de la programadora humana. Como curiosi­ dad, he aquí un sencillo ejemplo. ( h e c h o ( a r r e g l a r ( p r e r r e q u is it o t m p id e -f in -g e m e l o

Prog lineal línea2 prerreq) (ANTES línea2 lineal) ) ) 17

Esta barrera de símbolos se aplica a situaciones como la del ejem­ plo siguiente: 1. Tirar la cáscara. 2. Cocer el huevo. Estas cosas son moneda común y frustrante de la programación: una línea del programa está «impedida» por algo que se ha hecho en una línea anterior. La regla de la biblioteca es un consejo para «arre­ glar» estas situaciones: intenta invertir el orden de las dos líneas. Sin embargo, como todo programador sabe, este truco no siempre fun­ ciona. La programación es un juego de ensayo y error, y Hacker, como sus contrapartidas humanas, generalmente acaba por desperdi­ ciar un montón de trabajo en el intento de obtener un programa que funcione. Para el programador humano cada programa fracasado es una fuente de información sobre lo que no debe hacer en el futuro. Tam­ bién para Hacker. «El rasgo principal de Hacker», escribe Sussman, 16 Sussman, G. J., ibidem. 17 Sussman, G. J., ibídemtp. 7J.

Algunas pruebas sorprendentes

45

«es que aprende de la experiencia»1819.Las habilidades de Hacker «me­ joran con la práctica» í9. Andando el tiempo, Hacker logró engrosar su Biblioteca de Técnicas de Programación con lo que Sussman des­ cribe como una «mezcla profundamente interconectada» de conoci­ mientos sobre programación20. En realidad, la regla sobre intercam­ bio de líneas la añadió Hacker a su Biblioteca. Uno de los programas que escribió Hacker permite a su robot transformar la Escena 1 de la figura 2.2 en la Escena 2 21. Echemos un breve vistazo a cómo produjo el programa. Su primer paso es rastrear su almacén de Programas en busca de algo pertinente para el pro­ blema, o bien un programa que ya haya escrito para una tarea relacio­ nada, o bien uno de los programas básicos colocados en el almacén por Sussman. Lo mejor que en este caso puede encontrar es una ru­ tina muy simple llamada PON-SOBRE (suministrada por Sussman). PON-SOBRE permite al robot poner un bloque sobre la mesa o sobre otro bloque. Hacker ve que si el bloque A (fig. 2.2) no tiene nada en­ cima, PON-SOBRE se puede usar para llevar A sobre B. Volviendo a su Biblioteca de Técnicas de Programación, indaga hasta que obtiene un programa llamado APILAR. Lo que ha hecho es extender PON-SOBRE anteponiéndole un pequeño programa que hace que el robot coja cualesquiera bloques que haya encima del bloque que ha de mover y los deposite en cualquier lugar excepto encima del bloque B (o en­ cima del bloque deFque proceden). APILAR permite al robot quitar C de encima de A y luego colocar A encima de B. Hacker siempre se esfuerza por que sus programas tengan ge­ neralidad. Para colocar A encima de B, el robot sólo necesita quitar C; sin embargo, APILAR contiene uña instrucción general para qui­ tar todo bloque que esté encima del que hay que mover. Ahora Hacker tiene un programa que, sin modificaciones, permitirá al ro­ bot llevar A sobre B en el tipo de situación que muestra la Escena tres (fig. 2.2). Es verdad que Hacker funciona en un contexto muy cuidadosa­ mente ideado, y que sólo puede escribir los programas más simples. También es verdad que Sussman le suministra generosas ayudas gra­ cias a la información que hay en la Biblioteca de Técnicas de Progra18 ibidem, p. 83. (Sussman supone que el Hacker es masculino). 19 ibidem, p. 83. 20 ibidem, p. 26. 21 ibidem, capítulos II y IV.

Inteligencia artificial. Una introducción filosófica Escena 1

Escena 2

Escena 3

FIGURA 2.2. Tareas simples de m ovim ientos de bloques

Algunas pruebas sorprendentes

47

mación (en efecto, sería difícil exagerar su liberalidad). No obstante, Sussman nos ofrece una sorprendente muestra de cómo acaso un día los computadores alcanzarán y tomarán la manzana prohibida. Si se les dota lo suficiente al comienzo, los computadores son capaces de tomar en sus manos su propia programación. 2,6. Programas que juegan A través de los juegos de ordenador, las técnicas creadas en los la­ boratorios de IA han empezado a llegar a nuestros hogares. En esta sección esbozo tres programas que no están disponibles en el comer­ cio. Uno dejó una señal, pequeña pero significativa, en la historia hu­ mana hace unos años, y los otros pueden estar próximos a dejar una marca más profunda. E l program a de dam as de Sam u el

Arthur Samuel escribió su programa a principios de los años cin­ cuenta, cuando trabajaba para IBM. (Después se uniría al equipo de IA de la Universidad de Stanford.) El proyecto de escribir un prográma para jugar a las damas puede no sonar a investigación teórica importante, pero el auténtico interés de Samuel estaba en el problema más hondo de programar un computador para que aprendiera de la experiencia. En su cauta forma de expresarse, el objetivo era progra­ mar «un computador digital para que se comporte de tal manera que, si esa conducta perteneciera a seres humanos o animales, se diría que entraña aprendizaje»22. Suyo fue el primer programa capaz de mejorar su ejecución con la práctica. «La tasa de aprendizaje», dice Samuel, «fue sorprendente­ mente alta». Sus rivales humanos pronto admitían que el programa era «mejor que el jugador humano ordinario»23. A Samuel se le ocu­ rrió la idea de meter dos copias del programa en el mismo ordenador y dejarlas jugar una contra otra, partida tras partida. La habilidad del 22 Samuel, A. L., «Some Studies in Machine Learning Using the. Game of Chec­ kers», p. 71. Véase también el capítulo 1 nota 26. 23 Samuel, A. L., ibidem„ p. 89.

Inteligencia artificial. Una introducción filosófica

48

programa aumentó continuamente con estas pintorescas partidas que jugaba contra sí mismo (Samuel convenció a la IBM de que usara su programa para comprobar las nuevas máquinas antes de expenderlas, y así pudo dejar, con la conciencia tranquila, que el programa co­ rriera durante largos períodos de tiempo). Al final, el programa de Samuel llegó a vencer a campeones. En un torneo que se ha hecho famoso, el computador desarboló a un ju­ gador presentado como «uno de los más eminentes del país»24. «La máquina... jugó un final perfecto sin un solo desliz», se lamentaba el campeón derrotado. «Nunca he tenido tal competencia de ningún ser humano desde 1954, cuando perdí por última vez»25. Sin embargo hay un acontecimiento más espectacular en la carrera de este programa, ocurrido unos años antes y entonces inadvertido. Cierto día olvidado, el programa tuvo que comenzar a derrotar a Sa­ muel, y eso, en mi opinión, fue uno de los acontecimientos más nota­ bles de la historia de la computación. La derrota de Samuel a manos de su propio programa refuta de una vez por todas la vieja máxima de que un computador no puede nunca mostrar más inteligencia que la persona que lo programa. También debemos reconsiderar el cómodo adagio de que los compu­ tadores sólo pueden hacer lo que les dicen que hagan. En un sentido, desde luego, el dicho es incuestionablemente verdadero: fallos aparte, un computador no puede sino seguir las instrucciones que le han dado. Pero en otro sentido más interesante, el dicho es falso. Un pro­ grama que aprenda de manera tan consistente a vencer a la persona que lo diseñó está, por definición, haciendo movimientos mejores que cualquiera de los que esa persona le puede enseñar a hacer. Lo que Samuel consiguió fue proporcionar a un computador instruccio­ nes que, al final, le permitieron hacer más de lo que él era capaz de decirle que hiciera. Puede ser interesante una breve sinopsis del funcionamiento del programa de Samuel. El programa contiene una fórmula para asignar un «tanteo» al estado global del tablero después de cada movimiento. Este tanteo representa la utilidad de la configuración del tablero para el jugador qüe acaba de mover. Lá fórmula se centra en unas cuarenta características del estado del juego (por ejemplo, los «huecos»: cua­ 24 Samuel, A. L., ibidem, p. 103, 25 Samuel, A. L., ibidem, p. 104.

Algunas pruebas sorprendentes

49

dros vacíos rodeados por tres o más piezas del mismo color, y las «zanjas»: cadenas de piezas del mismo color que ocupan cuadros ad­ yacentes de una diagonal). A cada uno de estos rasgos se le asigna un número que representa su importancia, llamado número de la impor­ tancia del rasgo, NIR. El programa calcula la utilidad de la configura­ ción del tablero para un jugador contando el número de huecos que tiene el jugador y multiplicándolo por el NIR de los huecos, e igual con las zanjas y los demás rasgos de la fórmula. Se suman los totales de los diversos rasgos y se obtiene un tanteo global, una medida de la prudencia de hacer un movimiento que sitúe el tablero en esa confi­ guración. Cada vez que le toca mover ^1 programa, calcula los tanteos globales de los movimientos que podría hacer y elige el que le da el resultado más alto. (En realidad, la actuación del programa se com­ plica porque «prevé» un cierto número de movimientos, como los ju­ gadores humanos, y así puede tener en cuenta los tanteos globales de esos movimientos ulteriores)26. El procedimiento de aprendizaje del programa es sencillo e inge­ nioso. Ajusta los NIR al azar y luego juega unas pocas partidas con­ tra una copia de sí mismo que aún conserva los antiguos NIR. Si a la copia va mejor, la nueva combinación de NIR produce peores resul­ tados que la combinación anterior, y se desecha. Pero si al programa le va mejor, ha encontrado una forma de mejorar su juego. Repi­ tiendo el procedimiento úna y otra vez, el programa acaba por acer­ tar en combinaciones cada vez más atinadas de asignaciones los NIR, y la calidad de su juego mejora progresivamente. El procedimiento consiste en resumen en que, después de cada perfeccionamiento, el programa busca al azar algo mejor todavía. Sin duda un método de aprendizaje, pero radicalmente diferente de los que usan los seres humanos. A je d r e z

En una competición muy difundida Gary Kasparov venció, en 1989, al campeón mundial de computadores ajedrecistas Deep Thought por dos partidas a cero. «La mente vence a la materia» grita­ ron los titulares. «Gary Kasparov aplasta a un computador en nom­ 26 La previsión máxima es de diez turnos de juego.

50

Inteligencia artificial. Una introducción filosófica

bre de toda la humanidad»27. En 1991, en la Feria CeBIT de Hanno­ ver, una versión más desarrollada, el Deep Thought 2, aplastó a uno o dos grandes maestros. En un pequeño torneo con siete grandes maes­ tros, Deep Thought consiguió 2,5 puntos sobre 7 posibles28. Un rival difícil para Deep Thought en el último campeonato ame­ ricano de ajedrez para computadores fue Hitech (Deep Thought es la creación de Hsiung Hsu e Hitech de Hans Berliner, ambos de la Uni­ versidad de Carnegie Mellon). Hitech es capaz de examinar 175.000 posiciones por segundo. Berliner señala que «a lo largo de su vida Hitech ha hecho en torneos, con varios buenos jugadores como testi­ gos, diez movimientos excelentes que no fueron anticipados por nin­ guno de los expertos espectadores»29. A Hitech se le estima en la ac­ tualidad un ELO entre 2.400 y 2.500, cuando el de Kasparov pasa de 2.700. El ELO de Hitech ha aumentado inexorablemente cada año. A mediados de 1985 el programa estaba por. debajo de 2.100 puntos. A principios de 1986, tras un cambio importante en el hardware, la puntuación se había disparado por encima de 2.300. Dado el remonte de estas cifras, los investigadores de la IA con­ fían en el advenimiento de un programa capaz de vencer a todo con­ trincante humano. Puede que esta victoria final corresponda a una versión mejorada de Deep Thought o de Hitech, o quizá la derrota de un campeón mundial deba esperar la evolución de una especie di­ ferente de programa. De todas formas, los días de la supremacía hu­ mana en el ajedrez están, con toda seguridad, contados30. Circula un chiste en la IA norteamericana que dice que un infor­ mático ruso que estaba de visita oyó hablar de los programas de aje­ drez. «¿Quién les ha dado permiso para hacer esto?», preguntó. Para mí la pregunta del ruso es pertinente, aunque quizá no en el sentido que él le daba. Escribir un programa que supere a todo el mundo es la meta más alta en informática, pero después todo el mundo tiene que vivir con las consecuencias. Cuando finalmente los computadores triunfen sobre la mente humana en el tablero de ajedrez se habrá for­ jado un poderoso símbolo. Se oirán voces de pánico que cuestionarán la actual supremacía del intelecto humano en este planeta, sin duda 27 Sports Illustrated, vol. 71, 30, oct. 1989, p. 97. 28 Agradezco a Don Beal esta información. 29 Comunicación personal. 30 Una opinión contraria se encuentra en Hubert y Stuart Dreyfus, Mind Over Machine, capítulo 4.

Algunas pruebas sorprendentes

51

una reacción un poco aberrante, pero la idea difícilmente dejará de avivar las ansiedades e incertidumbres de nuestra sociedad moderna. Se oirán otras voces que explotarán la fuerza de ese símbolo en su cruzada para informatizar la educación, el gobierno o la guerra. De repente el ajedrez se ha convertido en mucho más que un juego. 2.7. El Resolutor General de Problemas El G e n e r a l P r o b le m S o lv e r (Resolutor General de Problemas) —GPS para abreviar— es uno de los proyectos mejor conocidos y más antiguos de la IA. La primera versión del GPS funcionó poco después de la Conferencia de Dartmouth y se continuó trabajando en el proyecto durante más de una década. El objetivo era construir un computador que buscara inteligentemente sus propias soluciones de problemas. El GPS fue hijo intelectual de Newell, Simon y Shaw, los responsables del L o g ic T h e o r is t 31. Versiones posteriores del GPS fueron capaces de resolver una va­ riedad impresionante de problemas. He aquí unos pocos ejemplos32. E l p r o b le m a d e los m isio n ero s y los ca n íb a les v

Tres misioneros viajan por inhóspitos parajes con tres porteado­ res nativos. Los porteadores, además de paganos, son caníbales, pero es costumbre de su pueblo no atacar nunca a menos que las víctimas sean sobrepasadas en número (no se sabe si esto se debe a mera co­ bardía o a algún curioso tabú). Los misioneros son sombríamente conscientes de lo que puede ocurrir si se fragmentara la expedición. Al final de la primera semana de viaje el grupo llega a la orilla de un río ancho y profundo. A pesar de la abundancia de cocodrilos, el grupo debe seguir avanzando. Uno de los porteadores encuentra una canoa con dos proas, capaz para dos plazas, volcada en el barro. Una mueca espantosa se extiende por su rostro conforme saborea las im~ 31 -Gran parte del trabajo con el GPS se llevó a cabo en la Carnegie-Mellon Univer­ sity, aunque, como el Lógico Teórico, el programa fue ejecutado por vez primera en el JOHNNIAC de la RAND Corporation. 32 Adaptado de Ernst, G. W., y Newell, A., GPS: A Case Study in Generality and Problem Solvings capítulo VI.

Inteligencia artificial. Una introducción filosófica

52

plicaciones de su hallazgo. Pero afortunadamente uno de los misio­ neros hizo un cursillo de informática en Carnegie Mellon y recuerda haber visto al GPS resolver el mismo problema que ahora afron­ tan. En menos de una hora los seis están a salvo en la orilla opuesta. ¿Cómo? (recuerde: un máximo de dos personas en el bote cada vez, y si los caníbales superan en número a los misioneros en cualquier ori­ lla, ocurre una carnicería). M e d id a p o r m e d id a

Dos irlandeses en una isla desierta se las arreglan para repartirse a partes iguales su último barril de ocho pintas de Guinness sin usar más que un cazo de tres pintas y otro cazo de cinco pintas. Sin tener siquiera una corteza de coco. ¿Cómo lo hacen?

F ig u r a 2.3. La torre de la contrición L a to rre d e H a n o i

La torre de la contrición que aparece en la figura 2.3 está consti­ tuida por discos planos de piedra y un mástil de madera. Cada día los devotos del templo trasladan la torre de un mástil al siguiente. Mueven los discos de uno en uno y sólo de mástil a mástil. Está ab­ solutamente prohibido poner un disco en el suelo. Además la tradi­ ción exige que sean arrojados a los perros del templo los devotos

Algunas pruebas sorprendentes

53

que pongan un disco encima de otro más pequeño. ¿Cómo trasladan la torre? D e d u c c ió n

A Benito Torelli, dueño de un casino nocturno, le cortan la gar­ ganta cuando se niega a pagar protección. La policía local detiene a cinco sospechosos que hacen las siguientes declaraciones: THEO KOXANNE WALLY NAVAJA MUSTAFÁ

Yo no maté a Torelli. Nunca uso cuchillos. Navaja lo hizo. No he eliminado a Torelli. Yo estaba con Mustafá en ese mismo momento. Wally hizo el trabajo. Yo no he matado a Torelli. Nunca he estado en un casino. Yo, un distinguido informático. Soy inocente. Todos esos imbéciles que dicen que yo lo hice mienten. Tiene que haber sido Roxanne quien se cargó a Torelli. Soy inocente. Nunca antes había visto a Roxanne. Navaja zo hizo.

Cada uno de los sospechosos dijo dos verdades y una falsedad. ¿Cuál de ellos liquidó a Benito?33 Newell y Simon'describen el GPS como un «programa que si­ mula el pensamiento humano»34. Se refieren a qué han ideado el pro­ grama para que razone en el problema como lo haría un ser humano. Si se ha molestado usted en resolver el problema de los Misioneros y los Caníbales, lo más probable es que haya empleado el mismo mé­ todo que el GPS, que consiste en construir una sucesión de cruces del río, uno por uno, retrocediendo cuando las cosas salen mal. Newell y Simons extraen una profunda conclusión filosófica de este rasgo del GPS. Puesto que el GPS se comporta de forma seme­ jante a los seres humanos (en su limitado dominio), y puesto que el GPS es un programa de computador, se sigue (dicen) que el GPS es un indicio llamativo en favor de la hipótesis de que «la conducta libre de un ser humano pasablemente inteligente se puede entender como el producto de un conjunto complejo, pero finito y determinado, de 33 Adaptado de Copi, I. M., Introduction to Logic, segunda edición, p. 18. Ver la nota 13 del capítulo 5. 34 Newell, A. y Simon, H., «GPS, a Program that Simulates Human Thought».

Inteligencia artificial. Una introducción filosófica

54

leyes»35. O, dicho con más teatro, somos computadores y nos com­ portamos de acuerdo con el conjunto de leyes, finito y determinado, que especifica nuestro programa. Este tema se retoma en los capítu­ los 9 y 10. IA h u m a n a fr e n te a I A a je n a

Hay una importante contraposición entre el GPS, que toma como modelo los procesos mentales humanos y un programa como el vir­ tuoso de las damas de Samuel, que, como ya he mencionado, emplea una técnica de aprendizaje evidentemente distinta de las que usan los humanos. Cada uno de ellos es el resultado de una manera funda­ mentalmente distinta de aproximarse a la IA. Por un lado, se puede tratar de escribir programas que simulen o mimeticen lo que ocurre en la mente humana, IA humana (llamada a menudo «simulación cognitiva»). Por otro lado, es posible considerarse libre de usar cua­ lesquiera técnicas, sin reparar en si tienen o no semejanza con los procesos del pensamiento humano. Ésta es la IA ajena. Durante muchos años ha habido en los laboratorios de IA un de­ bate destructivo sobre cuál de estos enfoques merece la mayor inver­ sión de esfuerzo investigador36. La IA ajena ha ganado en la actuali­ dad la mano en la corriente principal de la investigación. (Como decía recientemente un investigador, «Nos gusta hacerlo como poda­ mos» 37.) En mi opinión, esto es lamentable. Puede que la IA ajena sea la vía más rápida para tener éxito en las aplicaciones comerciales y militares, pero el mayor atractivo de la IA para la filosofía reside en su promesa de ayudar a aclarar cómo opera la mente humana. Turing estaba entusiasmado por esta posibilidad: «Todavía es un misterio el proceso del pensamiento, pero creo que el intento de construir una máquina pensante nos ayudará enormemente a averiguar cómo pen­ samos» (como dijo a un incrédulo público británico en una charla ra­ diofónica en 1951)38. Afortunadamente hay ahora signos poderosos 35 Newell, A. y Simon, H., «GPS, a Program that Simulates Human Thought»,

p. 293.

36 La distinción entre IA humana y ajena salió por primera vez a la palestra en la Dartmouth Conference, bajo la terminología de «modo teórico» y «modo operativo». 37 Nils Nilsson, citado en Rose, F., Into the Heart of the Mind, p. 177. 38 Can Digital Computers Think?, BBC Radio, mayo, 1951. (Citado por Hodges, A., Alan Turing: The Enigma, p, 442.)

Algunas pruebas sorprendentes

55

de un renacer del interés por la IA humana, que intenta fabricar redes de neuronas artificiales (véase el capítulo 10). 2.8. Sam y Frump Entro en una cafetería y pido una taza de café. Según estoy echando la leche, una cucaracha muerta asoma en la jarrita. Me voy corriendo con el estómago revuelto. Pregunta: ¿Me bebo el café? Todo el mundo contestará, sin dudarlo, que no, aunque la histo­ rieta no se pronuncia al respecto. Nuestra capacidad para leer entre líneas representa un papel decisivo en el proceso de entender casi cualquier texto. Para que los ordenadores sean capaces de seguir el habla y la escritura normales en los humanos, también hay que darles a ellos la capacidad de leer entre líneas. El laboratorio de IA de Yale ha abordado con decisión este problema mediante un programa lla­ mado Sam. (Sam es obra de Cullingford, Riesbeck, Schank y otros.) En la demostración que sigue se le da a leer a Sam una historieta, y luego se le pasa una prueba de comprensión39. (Como es habitual, el cuento y las preguntas se teclean en el ordenador y las respuestas de Sam aparecen en la pantalla.) El cu en to John fue a Nueva York en autobús. En el autobús le habló a una anciana dama. Cuando se bajó del autobús dio las gracias al conductor. Tomó el metro para ir a Leone’s. En el metro le robaron la cartera. Se apeó del tren y entró en Leone’s. Comió lasaña. Cuando le llegó la cuenta descubrió que no podía pagar. El encargado le dijo que tendría que lavar platos. Cuando se fue, tomó un autobús a New Haven. La prueba de comprensión ¿Por qué fue John a Nueva York?

PORQUE QUERÍA IR A LEONE’S.

39 La historieta y las preguntas son de Schank, R. C. y Abelson, R., Scripts, Plans, Goals and Understandings pp. 178-80.

56

Inteligencia artificial. Una introducción filosófica

¿Cómo llegó John a Leone’s?

JOHN TOMÓ EL AUTOBÚS HASTA NUEVA YORK Y LUEGO TOMÓ EL METRO HASTA LEÓNE’S.

¿Le ocurrió algo inusual en el autobús? ¿Ocurrió algo inusual en el metro? UN LADRÓN LE ROBÓ LA CARTERA A JOHN. ¿Qué pidió John?

NADA QUE YO RECUERDE. JOHN PIDIÓ LASAÑA.

¿Ocurrió algo inusual en el restaurante?

JOHN DESCUBRIÓ QUE NO PODÍA PAGAR LA CUENTA Y, POR TANTO, TUVO QUE LAVAR PLATOS.

¿Por qué no pudo John pagar la cuenta? ¿Por qué no tenía John dinero? PORQUE UN LADRÓN LE ROBÓ LA CARTERA A JOHN. ¿Cómo volvió John a New Haven? PORQUE JOHN NO TENÍA DINERO.

JOHN SE FUE DESDE LEONE’S EN METRO Y LUEGO FUE A NEW HAVEN EN AUTOBÚS.

¿Cómo pudo tomar John el autobús a New Haven? PROBABLEMENTE JOHN TENÍA UN BILLETE.

Obsérvese con qué sutileza Sam ha colegido información implí­ cita en el cuento. Por ejemplo, Sam ha inferido que John pidió la la­ saña que comió, y que tener que fregar platos fue una consecuencia de no poder pagar la cuenta. Sam se las arregla para conjeturar que la ra­ zón de John para viajar a Nueva York era visitar Leone's, no simple­ mente tomar lasaña (ni que le quitaran la cartera ni que le hicieran la­ var platos). En sus respuestas a las dos últimas preguntas, Sam se muestra capaz de hacer hipótesis razonables que van más allá de lo que en realidad dice el cuento. De paso, Sam puede traducir la narra­ ción al chino. Sam tiene en Yale un programa emparentado, Frump (programa rápido de comprensión y recuerdo de lecturas; DeJong, Schank y otros). Frump está conectada al servicio por cable de la United Press International y produce resúmenes de noticias según le llegan. He aquí un ejemplo del trabajo de Frump (la narración es resumida en inglés, español y ruso)40. 40 DeJong, G., «Skimming Newspaper Stories by Computer», p. 16.

Algunas pruebas sorprendentes

57

Narración de UPI Pisa, Italia, H oy los funcionarios han buscado la caja negra de un avión de transporte de la fuerza aérea italiana para determinar por qué la aeronave se estrelló contra una montaña, con el resultado de 44 personas muertas. Dicen que la atmósfera estaba clara y en calma, salvo por algunos bancos de niebla al nivel del suelo, cuando el avión de transporte Hércules C130, de construcción estadounidense, chocó contra el monte Serra momentos después de despegar el pasado jue­ ves. El piloto, calificado como uno de los más experimentados del país, no informó de ninguna dificultad durante una breve conversa­ ción por radio anterior al accidente.

Resúmenes H ubo un acóden te de avion en Italia que resultó en 44 m uertos *

44 people were killed when an airplane crashed into a mountain in Italy. V aviatsionnoi katastrofe v Italii 44 chelovek bylo ubito.

Estos impresionantes resultados se consiguen por medio de un re­ curso de programación llamado un guión (.script) («Sam» es abrevia­ tura de Script Applier Mechanism —mecanismo para la aplicación de guiones—). Un guión es una descripción detallada de un episodio es­ tereotipado que se desarrolla eñ el tiempo*41. Al procesar la narración sobre el viaje de John a Nueva York, Sam usa su guión del restau­ rante, su guión del autobús y su guión del metro. El guión del restau­ rante contiene varias «calles» diferentes: la calle de la cafetería, la calle del autoservicio, la calle del bistró francés, etc. Cada una es una lista detallada de los acontecimientos que ocurren típicamente durante las visitas a restaurantes del tipo en cuestión. Las calles se subdividen en escenas; por ejemplo, entrar, pedir, comer y salir. Las escenas pueden contener rutas alternativas. Así, la escena de entrar puede tener una ruta principal para el caso de que haya una mesa libre y una ruta al­ ternativa si hay que esperar. Sam es capaz de leer entre líneas narraciones sobre episodios «guionizables» precisamente porque sus guiones le dicen todo lo que * En español en el original. 41 Para una exposición completa, véanse Schank, R. C. y Abelson, R., Scripts, Plans, Goals and Understanding, especialmente el capítulo 3.

58

Inteligencia artificial. Una introducción filosófica

ocurrirá normalmente entre líneas. Usando el guión, el programa puede llenar los detalles que faltan en la narración. Por ejemplo, su­ pongamos que a Sam se le da la siguiente narración: John fue a un restaurante. Pidió a la camarera coq au vin . Dejó una generosa propina.

El guión le permite al programa expandir la narración en algo como: John fue a un restaurante francés. Se sentó a una mesa. Leyó la carta. En­ cargó coq an vin a la camarera. Se comió el coq au v in . Dejó una generosa propina. Pagó la cuenta. Salió del restaurante42.

En realidad, la expansión del texto que construye Sam es aún más detallada. Usando la expansión, Sam es capaz de contestar preguntas como: «¿A qué clase de restaurante fue John?» y «¿Pagó John la cuenta?». Si se le pregunta «¿Por qué dejó John una propina generosa?», Sam responderá: «Probablemente a John le gustó la comida.» Para hacer esta inferencia, Sam contrasta la sección suplementaria de datos de su guión del restaurante, donde encuentra la información de que si un cliente deja una gran propina, entonces probablemente el cliente disfrutó de la comida. El guión permite a Sam detectar cualesquiera sucesos de la narra­ ción que no se adapten al curso normal de los acontecimientos. Según el guión, la entrega de la cuenta va seguida del pago por parte del cliente, así que, cuando John no paga su lasaña, para Sam suena una alarma. Sam va a una lista de precondiciones almacenada en el guión y descubre que una condición para que John pague la cuenta es que tenga dinero. Ahora bien, Sam ha advertido que John probablemente no tenga dinero, puesto que el guión del metro dice que ésta es una consecuencia normal de que te roben la cartera. Así, Sam enriquece su expansión de la historieta con la entrada «John no puede pagar la cuenta porque no tiene dinero». Programas como Sam y Frump hacen fácil prever lo que un fu­ turo relativamente próximo puede traer: ordenadores personales que puedan recibir órdenes y preguntas tales como: 42 Op. cit., pp. 47-8; y Schank, R., The Cognitive Com puter , p. 122.

Algunas pruebas sorprendentes

59

Paga a Visa y a la compañía del gas. ¿Has pagado ya la cuenta del teléfono? ¿Qué hay del recibo de la luz?43.

Un sistema semejante a Sam supone que a la compañía del gas hay que pagarle una cantidad igual a la del recibo, y que los pagos de los recibos de teléfono pasados están fuera de cuestión. El sistema es tan flexible como Sam para los detalles y los modismos lingüísticos, y ad­ mite que se escriba Suéltale la mosca a la maldita compañía eléctrica.

Peor recibidos serán los sistemas como Frump que secretamente registren todos los telegramas, télex y correo electrónico, informando de cualesquiera actividades que contravengan «el interés nacional», expresión cuya interpretación detallada fijan miembros no electos de la Administración y en gran medida inidentificables en el interior del Pentágono y el Cuartel General del Alto Mando. O sistemas que hu­ roneen bancos de datos públicos y privados por encargo de burócra­ tas sin nombre, cruzando archivos compilados por Hacienda, institu­ ciones financieras, hospitales, patronos, la policía, las líneas aéreas, compañías de alquiler de automóviles, compañías telefónicas, etc. No es sino demasiado imaginable que el entrometido programa haga uso de un guión relativo a las conexiones entre actividades para forjar un cuadro completo del «sospechoso». El informe generado por el pro­ grama, con interpolaciones espurias y todo, residirá en un banco de datos, abierto a la curiosidad de otros fisgones electrónicos. Está claro que la IA puede derramar muy ambiguas bendiciones. 2.9. Sistemas expertos Un sistema experto es un programa dedicado a resolver proble­ mas y dar consejo dentro de un área especializada de conocimientos, como el diagnóstico médico, el diseño de automóviles o la prospec­ ción geológica. Un buen sistema puede rivalizar con especialistas humanos en esa área. Los sistemas expertos son el nuevo «Eldo­ rado» de la IA, y han surgido bandadas de nuevas empresas de pro43 Basado en Schank, R., The C ognitive Com puter , p. 111.

60

Inteligencia artificial. Una introducción filosófica

gramación para explotar este lucrativo filón de la tecnología infor­ mática. El negocio de los sistemas expertos ha traído al mundo in­ cluso una nueva profesión: la ingeniería del conocimiento. Los inge­ nieros del conocimiento pasan meses observando y entrevistando a los expertos humanos de un área determinada. Pacientemente catalo­ gan los hechos y reglas que los expertos usan en la formación de sus juicios y decisiones. Una vez que esta gran masa de conocimiento está organizada y formalizada, se coloca en la «base de conocimien­ tos» del programa. De un famoso sistema, Derídral, especializado en análisis quími­ cos, se ha llegado a decir que tiene «tanta capacidad de razonamiento en química como la mayoría de los estudiantes licenciados y algunos doctores en la materia»44. Los sistemas expertos actúan como consul­ tores en áreas tan diversas como la gestión financiera, la planificación económica de empresas, la prospección petrolífera y minera, la inge­ niería genética, la manufactura de vehículos y el diseño de instalacio­ nes informáticas. Un área de especial significación es la medicina. Se están investigando programas para diagnosticar la enfermedad y re­ comendar tratamientos. Dos de los proyectos más importantes son Mycin, un programa especializado en el tratamiento de las infec­ ciones bacterianas de la sangre, escrito por Edward Shortliffe, y Centaur, especialista en disfunciones pulmonares, creación de Tanice Aikins45. Mycin intenta identificar el organismo causante de la infección a partir de informaciones relativas a los síntomas del paciente y al re­ sultado de pruebas practicadas. Conforme procede a la «consulta», Mycin buscará más información, haciendo preguntas como «¿ha su­ frido el paciente quemaduras en los últimos tiempos?» y «¿tiene el paciente alguna alergia a la Colistina?», A veces el programa propone realizar alguna prueba de laboratorio. Una vez que se ha hecho el diagnóstico y se conocen las alergias y otros detalles del paciente, Mycin recomienda una medicación. Si se le pide, Mycin explica el ra­ zonamiento que le llevó al diagnóstico. La mayoría de los sistemas expertos almacenan su conocimiento en forma de reglas de inferencia: si esto, entonces aquello; si aquello, 44 Simons, G., Are Computers Alivef, p. 66. 45 Un centauro tiene la inteligencia de un hombre y la fuerza y ía agilidad de un ca­ ballo, mientras que «mycin» es en inglés «micina», un sufijo que se encuentra por lo común en los nombres genéricos de los antibióticos (como en «estreptomicina»).

Algunas pruebas sorprendentes

61

entonces lo otro (estas reglas se conocen como «producciones»). He aquí dos ejemplos de la base de conocimiento de Mycin46. Una regla de diagnóstico SI 1 el lugar del cultivo es sangre, y 2 el tipo de organismo es gram negativo, y 3 la morfología del organismo es bastón, y 4 el paciente ha sufrido serías quemaduras ENTONCES hay indicios (0,4) de que el organismo sea una pseudomona. El 0,4 es un factor de probabilidad', que indica el grado en que los datos sus­ tentan la conclusión . Una regla terapéutica SI el organismo es una pseudomona ENTONCES la terapia se habrá de seleccionar de entre las drogas si­ guientes: 1 Colistina (0,98) 2 Polimixina (0,96) 3 Gentamicina (0,96) 4 Carbenicilina (0,65) 5 Sulfisoxazol (0,64) Los núm eros deám ales representan la pro b a b ilid a d estadística de que el m e­ dicam ento detenga el progreso de las pseudom onas.

El programa hace la elección final del medicamento después de buscar las contraindicaciones. Mycin contiene más de 500 reglas semejantes (el número se incre­ menta periódicamente). Su compleja interacción permite alcanzar unas prestaciones de gran calidad. Las evaluaciones indican que el programa opera con el mismo rango de competencia que los especia­ listas humanos en infecciones de la sangre, y bastante mejor que los médicos generales47. La salida del programa Centaur de Janice Aikins tiene el soni­ quete de los consultores electrónicos de la nave Enterprise: Paciente número 7446

grave enfermedad obstructiva de las vías respiratorias de tipo as­ Se ha averiguado lo siguiente .

Diagnóstico:

mático.

46 Shortliffe, E., Computer-Based Medical Consultations: M YCIN, pp. 52, 142-3. 47 Jackson, P., Introduction to Expert Systems, p. 106,

62

Inteligencia artificial. Una introducción filosófica

Gran volumen pulmonar indica sobredilatación. La tasa VR/CPT se ha incrementado, lo que indica un grado serio de reten­ ción de aire. El flujo expiratorio bajo-medio es compatible con grave obstrucción de las vías espiratorias. La obstrucción es indicada por la curvatura del bucle de volumen del flujo, que tiene un grado grave. Conclusiones, Fumar probablemente incrementa la gravedad de la obstrucción de las vías respiratorias del paciente. Dejar de fumar debería ayudar a aliviar los síntomas. La buena respuesta a los broncodilatadores es compatible con la condición asmática, y está indicado su uso continuado. Consulta fin a liza d a 48.

Sin embargo, es importante darse cuenta de que el suave y com­ petente estilo de un sistema experto es, en muchos sentidos, una farsa. Los sistemas expertos no son superinteligencias benévolas. Ni son sustitutos adecuados de una sabia cabeza humana. Los sistemas expertos actuales no son mucho más que manuales automáticos de referencia, y no tienen mayor comprensión de para qué sirven, o cuá­ les son sus límites de aplicación que un manual ordinario. Evidente­ mente, es importante que quienes trabajan con ellos se den perfecta cuenta de esto. Pero ¿cómo se van a defender estas personas del «efecto Eliza»? ¿Se las advertirá siquiera de su existencia? Recorde­ mos las agoreras palabras de Weizenbaum: «De lo que yo no me ha­ bía percatado es de que exposiciones extremadamente breves a un programa de computador relativamente simple pueden inducir unas ideas gravemente ilusorias en personas perfectamente normales.» Weizenbaum no es el único gran pope de la IA que ha expresado preocupación. Ésta es una advertencia de Terry Winograd, creador de Shrdlu: Hay un peligro inherente a la etiqueta «sistema experto». Cuando hablamos de un experto humano designamos a alguien cuya profundidad de compren­ sión no sólo le sirve para resolver un problema específico bien formulado, sino para ponerlo en un contexto más amplio. Distinguimos entre expertos e idiotas informados. Llamar experto a un programa es equívoco... La mistifi­ 48 Versión corregida de una salida que aparece en Aitkins, J. S., «Prototypical Knowledge for Expert Systems», pp. 173-6.

Algunas pruebas sorprendentes

63

cación puede ser útil para quienes intentan conseguir fondos de investigación o vender esos programas, pero puede inducir expectativas inadecuadas en quienes intenten usarlos49.

Sólo podemos esperar que los ejecutivos y funcionarios que su­ pervisen la integración de esta peculiar raza de expertos en nuestra sociedad no ignoren ni desprecien los peligros inherentes a esta nueva tecnología.

49 Winograd, T., y Flores, F., Understanding Computers and Cognition, p. 132. Para una valoración escéptica del mérito de los sistemas expertos, véanse Dreyfus, H. y Dreyfus, S., Mind Over Machine.

Capítulo 3 ¿PUEDE PENSAR UNA MÁQUINA?

Una mirada distraída a los logros mostrados en el capítulo 2 puede dar a entender que ya hay computadores pensantes. En reali­ dad, esto está lejos de ser cierto. Ni Shrdlu, ni Parry, ni Eliza, ni ninguno de sus congéneres puede pensar ni entender. Sin duda, son programas asombrosos, pero considerémoslos más atentamente y veremos que sus espléndidas prestaciones son en su mayor parte si­ mulacros. En muchos aspectos estos programas son poco más que trucos de magia. La sección 3.3 pone en evidencia a Parry y a Eliza, y la sección 5.2 del capítulo 5 contempla con severidad a Shrdlu y al GPS. Las atribuciones de una mente a las máquinas actuales son pura metáfora. Decir que el computador ajedrecista piensa que le estoy atacando su torre de rey es una manera cómoda de expresarse, y cier­ tamente se deja pronunciar mejor que otras alternativas más literales. Pero esta manera de hablar se parece, poco más o menos, a decir que mi coche decidió estropearse en el peor momento posible. Lo intere­ sante, sin embargo, es si este estado de cosas cambiará cuando se de­ sarrolle más la tecnología de los computadores. ¿Podremos aplicar términos psicológicos a los ordenadores en el mismo sentido pleno en que nos los aplicamos mutuamente, o es por fuerza metafórica la 64

¿Puede pensar una máquina?

65

aplicación de estos términos a los computadores? ¿Puede, literal­ mente, pensar un computador? Ésta es la cuestión central de la filo­ sofía de la IA; En este capítulo argumento que no hay nada erróneo en aplicar el término pensar en su sentido pleno y literal a un artefacto del tipo adecuado. Y debo insistir en que éste es un asunto —por entero— fi­ losófico, no tecnológico. Puede que los técnicos nunca lleguen a construir máquinas que piensen, pero eso es independiente de que podamos decidir la cuestión de si es o no un error conceptual decir que un artefacto podría, en sentido literal, pensar. 3.1. ¿Es por fuerza consciente el pensamiento? Es un supuesto harto común que sólo los seres conscientes pue­ den pensar, y como muchas personas creen obvio que un cacharro de plástico y metal nunca podría ser consciente, se burlan de la idea de que un computador pueda pensar. En realidad no es obvio, ni mucho menos, que un artefacto no pueda ser consciente, como veremos en el capítulo 8. No obstante, en esta sección deseo intentar convencerles de que es falso el primero de estos supuestos. El pensamiento y la conciencia no siempre van cogidos del brazo. Darse cuenta de esto tiene un efecto liberador en la discusión de si un computador puede pensar.

F ig u r a

3.1.

¿ Puede usted leer esto? (T om ado de la figura 15 de H ofstadter} D. Gódely Escher> Bach: An Eternal Golden Braid.,)

Hubo una conmoción cuando, hacia el cambio de siglo, Freud de­ fendió que no nos percatamos de muchas de las cosas que tienen lu­ gar en nuestras mentes. Hoy día, sin embargo, es casi un lugar común entre los psicólogos —acepten o no otras tesis freudianas— que no

66

Inteligencia artificial. Una introducción filosófica

nos damos cuenta consciente de todos nuestros procesos mentales, y ni siquiera de la mayoría de ellos. Karl Lashley, un adelantado del es­ tudio del cerebro, describía un experimento sencillo que ilustra esto h Silbe unas pocas notas de una melodía que conozca e inmediatamente después trate de silbarlas hacia atrás, o en una clave más alta. Hallará que lo puede hacer con facilidad. Pero, ¿cómo lo hace? Su mente está haciendo algo de lo que usted no tiene noticia, y como resultado de ese proceso mental es capaz de producir las notas en orden inverso (o en un tono sistemáticamente más alto). Si silbar no es lo suyo, experi­ mente con la figura 3.1. Al principio el patrón le parecerá confuso, pero si mira un rato su mente acabará por advertir de pronto un par de palabras. (No desespere; a mí me llevó casi diez minutos.) Mien­ tras miramos esas formas, quizá con progresiva frustración, la mente despliega una batería de procesos sin duda bastante complejos, de los cuales, en su mayoría al menos, no nos percatamos conscientemente. Sólo somos conscientes del resultado de estos procesos, del brusco cambio de la percepción. (No ha tenido usted nunca la experiencia de luchar con un problema intelectual antes de irse a dormir y luego despertarse con la solución? (Se dice que el poeta francés Saint-PolRoux antes de ir a dormir solía colgar un cartel en la puerta de su dormitorio donde decía: poeta trabajando12.) Quien resuelve proble­ mas dormido piensa en el problema, pero, desde luego, no conscien­ temente. Hablar es otro ejemplo de intenso trabajo mental del que no so­ mos conscientes3. A veces reúno conscientemente las palabras antes de hablar, pero más a menudo hallo que digo lo que quiero decir, sin elegir conscientemente mis palabras. Estoy seguro de que lo mismo le ocurre a usted. (En realidad es bastante infrecuente que las perso­ nas planeen conscientemente ni siquiera el contenido.de las frases co­ tidianas, por no hablar de las estructuras verbales que expresan este contenido.) Pasando de la expresión a fa com prensión, mi conocimiento de los significados de las oraciones de otra persona viene de ordinario en bloque, por así decir, a mi conciencia. No soy consciente de los procesos mentales por medio de los cuales obtengo 1 Beach, F. A., Hebb, D. O,, Morgan, C. T. y Nissen, H,. W. (comps.), The Neu­ ropsychology of Lashley, p. XIX. 1 André Breton, First Surrealist Manifesto. 3 Para un estudio detallado de este tema, véase Jackendoff, R., Consciousness and the Computational Mind, esp. cap. 6.

¿Puede pensar una máquina?

67

de los sonidos (o formas) el significado, sino sólo del producto final de estos procesos. Además de ejemplos informales como éstos, hay experimentos de laboratorio que ilustran a las claras que está lejos de ser verdad que seamos conscientes de todos los procesos mentales que ejecutamos. Esbozaré dos de ellos. Visión ciega La visión ciega fue descubierta y nombrada por Larry Weiskrantz y sus colaboradores a principios de los años setenta4. Personas a las que se les ha extirpado una parte de la corteza visual del cerebro (por ejemplo, durante una operación para extirpar un tumor) a menudo informan de la pérdida de parte de su campo visual. Si se mueve una lucecita delante de una de estas personas, informará de que no la ve en regiones en las que había sido visible antes de la operación. Weis­ krantz y sus colegas sentaron a un paciente extremadamente coopera­ tivo frente a una pantalla colocada de modo que se pudiera proyectar y mover un punto luminoso en el área ciega recién ocasionada al pa­ ciente. Después de cada movimiento se le pedía que alargara la mano y tocara el punto de la pantalla. Puesto que no podía ver el punto (o eso creía), pensaba7que sólo estaba adivinando. Weiskrantz informó de que el paciente se «quedó sorprendido» cuando se le reveló que su actuación había sido en extremo precisa durante las varias horas de pruebas5. La percepción, pues, no tiene por qué ser una actividad consciente. Es más, no parece inadecuado decir que el paciente cono­ cía la posición del punto, aunque no conscientemente, e incluso cons­ cientemente creyera que no tenía ni idea de dónde estaba el punto. Weiskrantz especula que el fenómeno de la visión ciega se puede atribuir a la existencia de un sistema visual por lo general redundante, utilizado en un periodo anterior de la historia evolutiva del cerebro (el sistema visual primario, como él lo llama). 4 Weiskrantz, L., Warrington, E. K., Sanders., M. D. y Marshall, J., «Visual Capa­ city in the Hemianopic Field Following a Restricted Occipital Ablation»; Weiskrantz, Blindsight. 5 Weiskrantz, L., «Trying to Bridge Some Neuropsychological Gaps Between Monkey and Man».

68

Inteligencia artificial. Una introducción filosófica

El experimento de Lackner y Garrett Este^ experimento está basado en una versión de lo que se llama «el efecto fiesta», fenómeno que sin duda usted habrá experiméntado. Cuando estamos rodeados por varias conversaciones es posible enfo­ car la atención en una de ellas y mantenerse más o menos al margen de las demás. Los sujetos del experimento llevaban auriculares que emitían conjuntos distintos de oraciones en cada oído6. Se les decía que escucharan sólo uno de los canales y produjeran una paráfrasis de cada oración que oyeran. Una cierta proporción de las oraciones del canal escuchado eran ambiguas. Por ejemplo: a) Las visitas pueden ser muy aburridas. b) El detective a cargo del caso tenía poca vista. c) Juan se fue con el perro que encontró el sábado pasado. A veces el canal desatendido ofrecía simultáneamente una oración cuyo significado eliminaba la ambigüedad de la oración escuchada. Así, a) venía acompañada de la oración «odio que me visiten con fre­ cuencia» y b) de la oración «el detective llevaba gafas». Otras oracio­ nes ambiguas venían acompañadas, en el canal no atendido, de ora­ ciones sin capacidad para desambiguar. Así, c) venía acompañada de alguna oración indiferente, como «Shropshire está en Inglaterra». Después del experimento los sujetos no sabían decir gran cosa de lo que llegaba por el canal no atendido. Unos sólo eran capaces de decir que habían oído una voz humana, mientras otros reconocían palabras, pero no sabían decir si formaban o no oraciones. A pesar de esto, cuando los sujetos parafraseaban las oraciones ambiguas, por lo co­ mún elegían el significado indicado por la oración desambiguadora si la había (cuando no la había, el grupo se dividía al elegir entre uno de los posibles significados). Se debe concluir que aunque los sujetos ni siquiera eran conscientes de oír las oraciones desambiguadoras, a un nivel inconsciente habían procesado en el nivel acústico el conjunto no atendido y habían logrado al menos una comprensión parcial de las oraciones que contenía. Estoy seguro de que algunos lectores están ahora impacientes por señalar que todos estos ejemplos son casos en los que podríamos decir 6 Lackner, J. R. y Garrett, M. F., «Resolving Ambiguity: Effects of Biasing Con­ tent in the Unattended Ear».

¿Puede pensar una máquina?

69

que las personas hicieron algo sin pensar en ello. Esto es cierto, pues el idioma permite decirlo. Si alguien sale con una agudeza sin haberla ensayado, se puede decir, en lenguaje ordinario, que ha hecho algo sin pensarlo, o que ha hecho algo sin pensarlo conscientemente, o que ha hecho algo sin comprometer su atención consciente. La pregunta inte­ resante no es qué podemos decir de manera informal, sino si hay razo­ nes para preferir la primera de estas locuciones en lugar de la última cuando tratamos de expresarnos de forma precisa y filosóficamente pertinente. En mi opinión no hay ninguna. En efecto, quien sostenga que las expresiones pensar y pensar conscientemente tienen el mismo valor está confundiendo pensar y darse cuenta de que se piensa. Sin embargo, si alguien pusiera empeño en que pensar se debe emplear con el significado de pensar conscientementey mi reacción se­ ría seguir la línea de menor resistencia y aceptar este uso al discutir con él sobre este tema.- No hay nada más absurdo que disputar por las palabras. La pregunta sustancial se puede reformular sin usar en absoluto el verbo pensar. Hemos visto que se pueden realizar no conscientemente muchas importantes actividades mentales humanas, tales como entender el habla y percibir el mundo exterior. La pre­ gunta fundamental es si se podría decir que, literalmente, un artefacto realiza estas (y otras) actividades cognitivas, y, puesto que podemos realizar estas actividades no conscientemente, la pregunta se puede examinar sin considerar si un artefacto puede o no ser consciente. 3*2. La prueba de Turing En su artículo «Computing Machinery and Intelligence», tan rico en ideas, Alan Turing describe un experimento de laboratorio que, afirmaba, se podría usar para decidir la cuestión de si un computador dado es capaz de pensar7. Su experimento se ha venido a conocer como prueba de Turing. La prueba de Turing siempre ha sido asunto de controversia en círculos filosóficos, aunque los investigadores de la IA se inclinan por lo general a aceptar su validez. La prueba involucra a dos humanos y al ordenador investigado (véase la figura 3.2). La idea básica de la prueba es que uno de los hu­ manos, el que interroga, debe intentar averiguar cuál de los otros dos 7 Todas las alusiones a opiniones de Turing en este capítulo se refieren a este ar­ tículo.

70

Inteligencia artificial. Una introducción filosófica

participantes es el computador. La mujer que interroga conversa con el computador y el otro humano mediante un teclado y una pantalla. Aparte de esto, no hay ningún otro contacto entre los tres participan­ tes. Basándose en las conversaciones que tiene con los otros dos par­ ticipantes, la interrogadora debe averiguar cuál es la máquina. Se le permite hacer preguntas tan agudas o amplias como desee, y al compu­ tador se le permite hacer todo lo posible para forzar una identifica­ ción errónea. Así, para el computador serían jugadas astutas decir «no» en respuesta a «¿eres un computador?», y hacer una larga pausa y dar una respuesta errónea si se le pide multiplicar números grandes. (El participante humano debe responder con la verdad a las pregun­ tas de la interrogadora8.) He aquí un ejemplo de Turing del tipo de comunicación que po­ dría haber entre la interrogadora y un computador que eluda triun­ fantemente la identificación. INTERROGADORA

El primer verso de tu soneto dice «Me recuerdas un día de verano»: ¿No queda mejor «un día de primavera»? FALLALA MEDIDA. ¿Qué tal «un día de invierno»? La medida es correcta.

COMPUTADOR INTERROGADORA Sí, PERO NADIE QUIERE SER COMPARADO A UN DÍA DE IN­ COMPUTADOR VIERNO. INTERROGADORA ¿Dirías que Mr. Pickwick te recuerda el día de Navidad? COMPUTADOR EN CIERTO MODO. INTERROGADORA Sin embargo, la Navidad es un día de invierno, y no creo COMPUTADOR

que a Mr. Pickwick le molestara la comparación.

NO HABLAS EN SERIO. UN DÍA DE INVIERNO ES UN DÍA TÍPICO DE INVIERNO, NO UN DÍA ESPECIAL COMO LA NAVIDAD.

El experimento se repite varias veces con diversas personas en las posiciones de los humanos, y si el número de identificaciones acerta­ das del computador no es significativamente mayor que la «frecuen­ cia del azar» del 50 por 100, se concluye que el computador puede pensar. Al fin y al cabo —como podría decir un defensor de la prueba—, si los árboles pudieran conversar con nosotros con tanta maña como en algunos cuentos de hadas, ¿no diríamos sin dudarlo 8 Esta formulación es algo más fuerte que la original de Turing. Dice (p, 434): «El objeto del juego para la tercera jugadora es ayudar al interrogador. Su mejor estrategia es, probablemente, dar respuestas correctas.»

¿Puede pensar una máquina?

71

F igura 3.2. La pru eba de Turing

que los árboles pueden pensar? En efecto, regatearles la descripción «ser pensante» a los computadores que hayan pasado la prueba de Turing, ¿no sería una forma de reservar la palabra «pensamiento» para los humanos y nuestros parientes biológicos, estableciendo un prejuicio manifiesto contra los seres basados en el silicio en vez de en el carbono? La idea de que la capacidad de usar el lenguaje es el signo distin­ tivo de los seres pensantes tiene una larga historia. Ironías del des­ tino, fue Descartes, filósofo francés del siglo XVII, quien propuso la conversación como un medio seguro de distinguir cualquier má­

72

Inteligencia artificial. Una introducción filosófica

quina, aun la más ingeniosa, de un auténtico ser pensante. No es, de­ cía, «concebible que tal máquina produzca diferentes ordenamientos de palabras para dar una respuesta significativa apropiada a cualquier cosa que se diga en su presencia, como hacen los más romos de los hombres»910. 3.3. ¿Se ha superado ya la prueba? Una vez se sometió inadvertidamente a la Eliza de Weizenbaum a una variante de la prueba de Turing í0. Es una práctica común que personas que están en habitaciones o edificios distintos usen termina­ les de ordenador para dejarse mensajes. Un ejecutivo intentó contac­ tar con uno de los programadores de esta manera y sin darse cuenta de que, en vez del programador, tenía al otro lado a Eliza. EJECUTIVO ELIZA EJECUTIVO ELIZA EJECUTIVO ELIZA EJECUTIVO ELIZA EJECUTIVO ELIZA EJECUTIVO ELIZA

¿Crees que puedo hacer uso del computador esta mañana? Puede que haga algunas ventas más de Telcomp. POR QUÉ NO ESTÁS SEGURO Mis clientes potenciales nunca han visto una demostración del sistema. POR QUÉ LO PREGUNTAS

SIGNIFICA ESO MUCHO PARA TI

Claro que sí. Esto es ridículo. A QUÉ TE REFIERES CON QUE ESTO ES RIDICULO ¿Hay alguna razón para que no pueda usar el computador ahora? PARECES MUY SEGURO DE ESO

SIGUE HABLÁNDOME SOBRE TUS CUENTES POTENCIALES

En este momento, sigue la historia, el iracundo ejecutivo telefo­ neó al inocente programador. EJECUTIVO PROGRAMADOR

¿Por qué diablos has sido tan asqueroso conmigo? ¿A qué te refieres con que he sido asqueroso contigo?

9 The Philosophical Writings of Descartes, vol. 1, traducido por Cottingham, J., Stoothoff, R, y Murdoch, D., p. 140. 10 Descrito por Daniel Bobrow en «A Turing Test Passed».

¿Puede pensar una máquina?

73

Algunas personas han sostenido, sobre la base de este diálogo, que Eliza ha superado la prueba de Turing 11. Sin embargo, es un error decir que Eliza ha pasado la prueba, aunque el ejecutivo tomó a Eliza por un ser humano. Para empezar, el procedimiento no fue re­ petido por varios interrogadores diferentes. Y, lo que es más impor­ tante, no se cumplieron las especificaciones de la prueba de Turing. El ejecutivo no estaba intentando distinguir entre un computador y un humano. Simplemente supuso que estaba conversando con un ser humano, y nunca se le ocurrió comprobar esta suposición haciendo preguntas de sondeo. Además se violaron las especificaciones de la prueba de Turing porque había dos participantes en vez de tres. Puede que usted se haya preguntado por qué se incluye en la prueba al otro participante humano. ¿Por qué no se pide simplemente a los interrogadores que decidan si están conversando con un computador o con un ser humano? La razón es que contrastar el computador con un fondo humano tiene el efecto de endurecer la prueba. Un pequeño rasgo de la actuación del ordenador, que acaso pasaría inadvertido para el interrogador en una situación no competitiva, podría ser un indicio decisivo en una competición. Además, en una situación no competitiva, los interrogadores podrían padecer un sesgo que les hi­ ciera equivocarse debido a factores tales como unas expectativas po­ bres sobre la capacidad de conversación de un computador. Creo que la siguiente charla da fundamento a un pesimismo total sobre las posibilidades de Eliza de superar alguna vez la prueba de Turing. Eliza comienza1112. CÓMO ESTÁS. POR FAVOR, EXPÓN TU PROBLEMA

Me preguntaba si los computadores pueden pensar. POR QUÉ MENCIONAS LOS COMPUTADORES Puesto que tú eres uno de ellos he pensado preguntarte: ¿puedes pensar?

PENSABAS QUE ELLOS PODRÍAN NO SER UNO DEL QUE TÚ PENSABAS PREGUN­ TARME, PUEDO PENSAR

Hablemos acerca de ti, no de mí: ¿puedes pensar? TE GUSTA PENSAR QUE YO, NO TÚ, NO ES CIERTO ¿Perdón? QUÉ TE SUGIERE ESO ¿Qué te sugiere a ti? HÁBLAME SOBRE LO QUE TE SUGIERE A MÍ.

11 Por ejemplo, Christopher Longuet-Higgins en «To Mind via Semantics», p. 92. 12 Ésta es una conversación que tuve con EKza versión 4.3.

74

Inteligencia artificial. Una introducción filosófica

Esto es absurdo. A qué te refieres con mí. POR QUÉ PIENSAS QUE YO ME REFIERO CON TI La pregunta se refiere a cuál de nosotros alude la palabra.

SUPÓN QUE LA PREGUNTA SIGNIFICARA A CUÁL DE NOSOTROS NO ALUDE LA PALABRA.

Creo que eres un programa extremadamente estúpido.

QUIZÁ TE GUSTARÍA SER UN PROGRAMA EXTREMADAMENTE ESTÚPIDO

Colby y su equipo informan de que el programa paranoico Parry ha superado lo que llaman una aproximación a la prueba de Turing1314. En el experimento, cinco psiquiatras en activo realizaron entrevistas a través de terminales de teletipo. Algunas de las entrevistas tuvieron lu­ gar con Parry y algunas con un paranoico humano (un «impaciente» psiquiátrico). Para los psiquiatras, el objetivo de cada entrevista era de­ cidir si había un humano o un computador al otro extremo de la línea. En un total de diez entrevistas, cinco decisiones fueron correctas y cinco equivocadas, un resultado llamativo. Sin embargo, se debe resal­ tar que este experimento es, en efecto, sólo una aproximación a la prueba de Turing. No hubo una entrevista simultánea de dos sujetos de los que supiera el interrogador que uno era humano y el otro un computador. Por el contrario, cada psiquiatra dirigió dos entrevistas separadas, y se les dijo que podrían ser ambas con pacientes, ambas con programas o mixtas. (Colby intentó la entrevista simultánea, pero los interrogadores lo hallaron confuso.) Como ya he señalado, esta ausen­ cia del aspecto competitivo de la prueba de Turing podría introducir un sesgo. Una posibilidad es que un interrogador podría confundir el programa con el paciente sólo porque tuviera unas expectativas indebi­ damente bajas sobre la actuación del programa. Otra posibilidad es que cualquier rasgo en las respuestas del paciente de lo que la gente tiende a considerar «conducta computerizada» es susceptible de inducir identi­ ficaciones erróneas. De hecho, las actas que recogen las razones de los interrogadores para sus juicios muestran que se aferran a rasgos «mecá­ nicos» de las respuestas de los pacientes, como el uso de la expresión y/o, y es de notar que en cuatro de las cinco identificaciones erróneas tomaron al paciente por una máquina H. En la prueba competitiva de Turing ambas influencias se neutralizarían mucho. 13 Hciscr, J. F., Colby, K. M., Faught, W. S. y Parkison, R. C., «Can Psychiatrists Distinguish a Computer Simulation of Paranoia from the Real Thing?». 14 Por citar el comentario a pie de obra de un interrogador: «No hay mucha gente que diga “y/o”. Ésa es una construcción muy mecánica» (op. cit., p. 155).

¿Puede pensar una máquina?

75

El experimento de Colby se desvía seriamente de la prueba de Turing en otro sentido. La prueba deriva gran parte de su plausibilidad del hecho de que el interrogador puede ampliar y profundizar el cuestionario tanto como desee, pero las características de la conversa­ ción de un paranoico impiden precisamente que esto ocurra: es eva­ sivo, obstructivo, hostil, cambia repentinamente de asunto, y vuelve machaconamente a temas delirantes (en el caso de Parry, las carreras de caballos y la Mafia). Una última indicación: en el experimento de Colby resulta claro que para los interrogadores fue una experiencia desorientadora entre­ vistar por teletipo, y su incapacidad de distinguir con acierto entre el programa y el paciente puede no haber sido sino un resultado de esto. Así, debería ser una condición de la prueba de Turing que los interrogadores comprometidos posean una experiencia previa ade­ cuada con entrevistas a través de terminales. Esta práctica remediaría también sin duda las dificultades que Colby experimentó con las en­ trevistas simultáneas. Con independencia de la actuación de Parry y Eliza en la prueba de Turing, un vistazo al modo como operan los programas establece en seguida que no piensan. Ambos emplean una técnica conocida como comparación de patrones. El programa escruta mecánicamente una sucesión de símbolos (en este caso, letras del alfabeto) para veri­ ficar si aparece o no determinado patrón (aquí una palabra o grupo de palabras). Cuando el entrevistador teclea una oración, el primer movimiento de Parry es buscar en ella uno de los muchos patrones que almacena el programa. El programador ha asociado a cada uno de estos patrones una larga lista de oraciones, y una vez que Parry detecta un patrón en la entrada, simplemente escribe la primera ora­ ción de la lista asociada. Por ejemplo, si la oración de entrada con­ tiene la palabra «tú», más una expresión de la lista anormal (que incluye cosas tales como «necesitas tratamiento», «delirante», «para­ noico»), Parry selecciona la primera oración de la lista de respuestas alienadas y la escribe. Así, en respuesta a «Tú estás delirando» el pro­ grama puede escribir «Creo que sé qué están tramando ustedes los médicos» (después de usar una oración el programa la borra de la lista para asegurarse de que no puede aparecer dos veces en la entre­ vista). Cuando no aparece ninguno de los patrones almacenados en la oración del entrevistador, el programa puede seleccionar una oración de la lista de últimos recursos (por ejemplo, «¿Por qué dices eso?»), o simplemente seleccionar la siguiente oración de la lista asociada con

76

Inteligencia artificial. Una introducción filosófica

el último patrón encontrado 15. Una vez desveladas las operaciones internas de Parry, el programa se nos muestra del todo prosaico. Por más útil que pueda ser Parry para el estudio de Colby de la paranoia, no es, desde luego, un candidato para el título de «pensador» (de paso el programa Shrdlu de Winograd también hace un amplio uso de oraciones prefabricadas). También Eliza es un comparador de patrones. A veces se apoya, como Parry, en listas de respuestas preparadas. Por ejemplo, si apa­ rece el patrón «quizá» en la oración de entrada, el programa emite una respuesta elegida en una lista de oraciones tales como «No pare­ ces demasiado seguro», y la presencia de «todo el mundo» en la en­ trada dirige al programa hacia una lista de respuestas como «estás pensando en una persona en particular, ¿no?» (los patrones, además, tienen un orden de precedencia asignado con anterioridad: si apare­ cen «quizá» y «todo el mundo» a la vez en la oración de entrada, el último es el llamado patrón dominante, y el programa emitirá una respuesta del tipo «todo el mundo»). Sin embargo, al revés que Parry, Eliza es también capaz de construir contestaciones por sí misma. Hace esto transformando la oración de entrada. Cada patrón almace­ nado en el programa lleva asociada una lista de transformaciones, cada una de las cuales suministra una oración de salida cuando se aplica a la oración de entrada que contiene ese patrón. Por ejemplo, uno de los patrones almacenados es ---- tú... me Este patrón encaja con la oración Tú me odias. Al encontrar esta oración, el programa selecciona la primera transformación de la lista asociada con el patrón, por ejemplo TE GUSTA PENSAR QUE YO TE..., NO ES CIERTO

Aplicando la transformación, obtiene la oración de salida TE GUSTA PENSAR QUE YO TE ODIO, NO ES CIERTO

15 Quienes se interesen por una descripción más completa de los detalles del fun­ cionamiento de Parry, pueden leer Artificial Paranoiay de Colby.

¿Puede pensar una máquina?

77

Una vez se ha aplicado una transformación, es trasladada al final de la lista (en cada lista suele haber cuatro o cinco transformaciones). Cuando en la oración de entrada no aparece ninguno de los pa­ trones almacenados, puede, como Parry, ir sencillamente a su lista de últimos recursos, que contiene oraciones prefabricadas como «Qué te sugiere eso». Además, de vez en cuando hace uso de un ingenioso truco de programación que le permite producir respuestas más visto­ sas en situaciones de ausencia de patrón. Dada la aparición de una oración de entrada en que el patrón dominante es «mi», Eliza no sólo aplica la transformación de la cabecera de la lista asociada para pro­ ducir su respuesta, sino que selecciona otra transformación de una se­ gunda lista, la aplica y almacena el resultado para usarlo en un caso de ausencia de patrón. Así, al encontrar una oración Mi­ el programa puede almacenar para su uso ulterior la oración produ­ cida aplicando la transformación TIENE ESO ALGO QUE VER CON EL HECHO DE QUE TU...

Durante la charla reproducida en el capítulo 2, este mecanismo generó la respuesta:5 TIENE ESO ALGO QUE VER CON EL HECHO DE QUE TU NOVIO TE HICIERA VENIR AQUÍ

(«Me hiciera venir aquí» se sustituye por «te hiciera venir aquí» de acuerdo con la política universal de Eliza de reemplazar incondicio­ nalmente los pronombres de primera por los de segunda persona, y viceversa.) Fue pura suerte que Eliza produjera esta oración en un momento tan apropiado del diálogo. En realidad Eliza depende enormemente de su fortuna. Por más agudo y sutil que sea el sistema de patrones y transformaciones de Weizenbaum, siempre cabe la posibilidad de que la oración de salida sea un obtuso desperdicio. Esto lo ilustra bien la «conversación» re­ producida unas páginas más atrás. Mi intervención Hablemos acerca de ti, no de mí: ¿puedes pensar?

78

Inteligencia artificial. Una introducción filosófica

se conforma al patrón ---- ti... mí y Eliza aplica la transformación recién mencionada para producir la respuesta TE GUSTA PENSAR QUE YO: NO TÚ: NO ES CIERTO

(El «¿Puedes pensar?» simplemente se pasa por alto. Eliza sólo puede tratar una oración cada vez. En realidad, incluso una coma detendrá su lectura.) Hubo otra transformación de la lista «tu... me» que pro­ dujo el vacuo POR QUÉ PIENSAS QUE YO ME REFIERO POR TI

Si alguna vez se convierten en realidad los computadores pensan­ tes, los historiadores dirán, estoy seguro, que Eliza y Parry tienen con ellos la misma relación que las «máquinas voladoras» de pedales de principios de siglo, proclives a estrellarse, tenían con el aeroplano. Weizenbaum eligió el entorno de una entrevista psiquiátrica para su programa porque suministra, como él dice, «uno de los pocos ejemplos de... comunicación en lenguaje natural en la cual una de las partes es libre de adoptar la posición de no saber nada sobre el mundo real» í6. Es así como Eliza elude la necesidad de un «almacén de conocimientos». Como veremos en el capítulo 5, el diseño de al­ macenes extensos de conocimiento, de acceso rápido y de fácil revi­ sión, es un problema central de la IA, el llamado problema del cono­ cimiento. Un programa de verdad indiscernible de los hablantes humanos exigiría, por supuesto, un vasto almacén de conocimientos, que contuviera más o menos lo que los seres humanos corrientes conocen. A la vista de esto, nada más, es inverosímil que haya aspi­ rantes auténticos a superar la prueba de Turing durante una buena temporada.16

16 Weizenbaum, J., «ELIZA -a Computer Program for the Study of Natural Lan­ guage Communication Between Man and Machine», p. 42. (En este artículo se puede encontrar más información sobre el funcionamiento de Eliza.)

¿Puede pensar una máquina?

79

3.4, Cuatro objeciones a la prueba de Turing Voy á explicar y valorar algunas objeciones importantes a la prueba de Turing 1. La objeción del chimpancé Según la primera objeción,Ta prueba es demasiado conserva­ dora 17. Pocos negarán que los chimpancés piensan, pero ningún chimpancé pasa la prueba de Turing. Y lo mismo los delfines, perros y otras criaturas, incluidos los niños humanos prelingüísticos. Si los animales pensantes pueden fallar en la prueba de Turing, es de supo­ ner que esto también les puede ocurrir a ordenadores pensantes. Se puede concebir que los primeros ordenadores pensantes carecieran de la complejidad psicológica suficiente para pasar la prueba. Por otro lado, un ordenador pensante podría fracasar en la prueba porque sus respuestas fueran característicamente no humanas, o incluso por­ que no tuviera interés o porque le pareciera humillante. No se puede negar que esta objeción convierte en absurda la opi­ nión de Turing de que la vaga pregunta filosófica «¿puede pensar una máquina?» se puede sustituir, sin más, por la pregunta precisa y cien­ tífica «¿puede un domputador pasar la prueba de Turing?». Pero esta objeción dista mucho de desmontar la prueba misma. Lo único que muestra es que la prueba no es lo que podríamos llamar una prueba de papel tornasol Ponga papel de tornasol en un líquido: si el papel se vuelve rojo, hay un ácido, y si no, no lo hay. Por tanto, si el líquido no pasa la prueba —no enrojece el papel— se sigue que el líquido no está acidulado. La prueba de Turing no es así: no se sigue nada defi­ nido si una entidad no lo pasa. Esto, no obstante, no impugna la prueba de Turing. Hay muchas pruebas perfectamente buenas que comparten este rasgo. La prueba de las huellas dactilares, por ejemplo (no hay huellas dactilares de X en el arma homicida, pero el asesino podría haber usado guantes). Las pruebas como la del papel tornasol son una bendición relativamente escasa. Por ahora hemos llegado a la inocente conclusión de que un re­ sultado negativo de la prueba no indica nada definido. Las tres obje17 Ned Block, por ejemplo, propone esta crítica en «Psychologism and Beha­ viourism».

BO

Inteligencia artificial. Una introducción filosófica

dones restantes intentan demostrar que tampoco un resultado posi­ tivo indica nada. Su tema común es que la prueba de Turing es dema­ siado liberal: podría tener éxito un aparato incapaz de pensar. 2. La objeción de los órganos de los sentidos La prueba de Turing se centra en la capacidad de dar respuestas verbales. La objeción advierte que esto se parece a un examen de con­ ducir que sólo consista en responder preguntas. No se examina la ca­ pacidad del ordenador para relacionar las palabras que está usando con las cosas a las que se refieren o significan. El interrogador no puede, por ejemplo, levantar un cenicero y decir «¿cómo se llama esto?». Por tanto, sigue la objeción, un computador podría pasar la prueba sin saber los significados de las palabras que usa, y, así, el he­ cho de que la haya pasado no es garantía para decir que puede pensar. El remedio, concluye la objeción, es fortalecer la prueba de Turing. El ordenador tiene que estar equipado con órganos sensoriales artifi­ ciales —un ojo televisivo, por ejemplo— para que el interrogador pueda investigar el dominio que tiene el ordenador, si lo tiene, de lo que dicen acerca del mundo las palabras que usa18. Esta objeción no me convence. Muchas palabras, tales como «raíz cuadrada», «información», «inteligencia» y «filosofía», no se refieren a objetos que se puedan ver o tocar. Una manera obvia de averiguar si al­ guien (o algo) entiende la palabra «cenicero» es enfrentar su dotación sensorial con un cenicero y ver si dice cosas como «¿Por qué me pones delante ese cenicero?», pero no disponemos de este procedimiento en el caso de las raíces cuadradas. Aquí el medio evidente de comproba­ ción es hacer preguntas apropiadas. En este caso, y en muchos otros, la falta de dotación sensorial de un computador no impide que la habili­ dad del interrogador ponga a prueba su comprensión de las palabras que usa. La palabra «importunar» es otro buen ejemplo: el ordenador no necesita órganos sensoriales para reconocer si el interrogador le está importunando, y por tanto, en la situación de la prueba de Turing se puede investigar fácilmente su comprensión de esa palabra. Podríamos volver al ejemplo de interrogatorio a que Turing so­ mete a la máquina y considerar en qué medida estaríamos limitados 18 Peter Camithers hace esta objeción en Introducing Persons, pp. 241-2.

¿Puede pensar una máquina?

81

por la falta de órganos sensoriales de la máquina, si decidiéramos píanear una investigación más profunda de su comprensión de las pala­ bras que usa. En efecto, «soneto», «medida», «comparar», «recor­ dar», «serio» y «típico», por ejemplo, se prestan de maravilla a una investigación mediante recursos verbales. Es más, en estos casos es difícil ver cómo podría facilitar la tarea del investigador añadir órga­ nos sensoriales. En resumen, pues, la objeción de los órganos senso­ riales supone que la única manera de comprobar la comprensión, por parte de un hablante, de las palabras que pronuncia es investigar la interacción sensorial con su entorno, pero esto está muy lejos de ser verdad. (No, desde luego, que el recurso a lo verbal sirva para todas las palabras. La única forma de saber si un ordenador entiende las pa­ labras «mancha roja», por ejemplo, es pedirle identificar una o dos manchas.) Quizá valga la pena destacar que las especificaciones de la prueba de Turing no prohíben competir a ordenadores con órganos senso­ riales, y puede que el primer ordenador que pase la prueba esté eri­ zado de aparatos sensoriales. Lo importante es que, bajo las especifi­ caciones de la prueba, al interrogador sólo se le permite un contacto verbal con el computador. Al fin y al cabo, si el interrogador pudiera ver a los contendientes a través de un cristal, el computador perdería todas las veces. Turing mismo especuló que la mejor manera de armar un compu­ tador para la prueba podría ser equipar la máquina «con los mejores órganos sensoriales que el dinero pudiera comprar» y luego some­ terla a «un curso de educación apropiado»19. Sería una tarea ciclópea escribir un programa que incorporara toda la competencia lingüística de un hablante, y Turing pensaba que sería un objetivo más realista programar una máquina que aprendiera el idioma por sí sola. Pero esto no incide en absoluto en la objeción de los órganos de los senti­ dos, pues lo que se dirime es si el interrogatorio verbal es o no una prueba adecuada de comprensión, no si es necesario proveer al orde­ nador de órganos sensoriales para que adquiera el lenguaje. Aunque la especulación de Turing fuera acertada, es de suponer que no será necesario administrar un engorroso «curso de educación» a todo computador al que se quiera dotar de competencia lingüística. Lo que un computador aprende penosamente gracias a un proceso de 19 «Computing Machinery and Intelligence», pp. 456, 460.

82

Inteligencia artificial. Una introducción filosófica

interacción sensorial con su entorno se puede transferir a una má­ quina hermana en el parpadeo de un disquete. Ni hace falta que la otra máquina esté equipada de órganos sensoriales* Aunque haya al­ gunas palabras cuyo significado cabal no se pueda transmitir a una máquina desprovista de órganos sensoriales, esto sólo ocurrirá en el caso de palabras conectadas muy de cerca con la experiencia sensible, y una gran mayoría de nuestras palabras caen fuera de esta categoría (consideremos «filosofía», «soneto», «raíz cuadrada» e «importunar», por ejemplo). 3. La objeción de la simulación Esta objeción comienza por observar que un X simulado no es un X. Los diamantes simulados no son diamantes* Un X simulado es semejante a X, pero no un X real. Ahora supongamos que un compu­ tador supera la prueba de Turing. ¿Podría esto mostrar que el compu­ tador piensa? El éxito en la prueba sólo muestra que el computador ha dado una buena simulación de un ser pensante, y eso no es lo mismo que pensar. Consideremos una versión de la prueba en que el interrogador se enfrenta, no a un computador y un ser humano, sino a un hombre y una mujer. El interrogador intenta distinguir cuál de los dos es el hombre y el hombre intenta provocar una identificación errónea (Turing menciona este escenario en su presentación de la prueba). Supongamos que el hombre pasa la prueba (es decir, consi­ gue una frecuencia suficiente de identificaciones equivocadas en cierto número de ensayos). Esto no muestra, claro está, que el hom­ bre sea una mujer, sólo que en una conversación es capaz de dar una simulación buena de una mujer20. De forma semejante (concluye la objeción) el que un computador supere la prueba no muestra que piense, sólo que es capaz de ofrecer una excelente simulación de un conversador inteligente. En mi opinión este reproche es confuso, aunque en el fondo con­ tiene un grano de verdad. Lo primero que hay que hacer para revelar su flaqueza es advertir la falsedad de la afirmación de que un X simu­ lado nunca es un X. Consideremos la simulación de la voz. Si un 20 Compárese con lo que dice Douglas Hofstadter en The Mind's Eye (comp, por Hofstadter, D. R. y Dennett, D, C.), pp. 72-3.

¿Puede pensar una máquina?

83

computador habla con un acento pasable, ¿no es esta voz simulada una voz, artificial en vez de humana, pero una voz al fin y al cabo? De modo semejante, las proteínas artificiales son proteínas, y muchos otros fenómenos y sustancias producidos artificialmente. La comparación de estos casos con el de la muerte simulada, por ejemplo, indica que hay dos tipos de fundamento totalmente distin­ tos para clasificar algo como una simulación. Llamemos una simula­ ción $imulación1 si carece de rasgos esenciales de lo simulado. Así, la muerte simulada es una simulaciónj de la muerte porque la persona del caso sigue viviendo, y el cuero simulado es una simulado^ del cuero porque está compuesto de moléculas de distinto tipo. Llame­ mos a algo $imulacián2 si es exactamente igual que lo simulado, salvo porque no ha sido producido de la forma habitual, sino por algún medio no convencional, quizá en condiciones de laboratorio. Así, el carbón producido artificialmente en un laboratorio se puede llamar carbón simulado aunque sea por entero indistinguible del carbón na­ tural. La palabra «simulado» aquí no indica más que es carbón artifi­ cial: no salió de la mina. Nuestro ejemplo anterior de la voz simulada es también una simulación2: tiene todas las características esenciales de una voz, pero está producida artificialmente. Por tanto, sólo a me­ dias es verdad que un X simulado no es un X: un X simulado1 no es un X, pero un X simulado2 es un X. Ahora es inmediata la respuesta a la objeción de la simulación. La objeción supone, sin más argumento, que las simulaciones computacionales del pensamiento siempre serán meras simulaciones, nunca reales. En la terminología de simulación^simulacióo,, la objeción su­ pone sin argumentos que, por buenas que lleguen a ser las simulacio­ nes del pensamiento de los computadores, la simulación siempre será del tipo 1 y nunca del tipo 2. Sin embargo, nuestra cuestión central sobre si un computador puede pensar, pregunta precisamente si una simulación del pensamiento por parte de un computador puede ser una simulaciónr Por tanto, la objeción de la simulación se limita a prejuzgar el problema central, y, por consiguiente, carece de interés. La objeción de la simulación tiene, sin embargo, una virtud. Nos encamina a preguntarnos si la prueba de Turing traza la divisoria en­ tre simulación y simulación2 donde debe. ¿Se sigue que un compu­ tador que supere la prueba da una simulación2 de un ser pensante, o es concebible que un com putador que sólo sum inistre una simulación pueda superarla? La respuesta es que es concebible, como muestra la crítica siguiente.

Inteligencia artificial. Una introducción filosófica

4. La objeción de la caja negra La proverbial caja negra es un aparato cuyas operaciones internas se concede que permanecen en el misterio. En la prueba de Turing se trata el ordenador como una caja negra. El juicio de si el ordenador piensa o no sólo se basa en su conducta externa. ¿Es esto una desven­ taja? Turing pensaba que no. Insiste en que el juicio de que otra per­ sona piensa se basa siempre sólo en su conducta externa; así, si deci­ mos que la conducta conversacional no proporciona un fundamento adecuado para juzgar que un computador piensa, estamos forzados a la incómoda posición de decir que nuestro juicio de que los humanos piensan está igualmente mal fundado. En mi opinión, Turing se equi­ voca con ese paralelismo. (Una objeción posible a Turing en este punto es que el juicio de que otra persona piensa está basado en una gama rica y variada de conductas externas, no sólo en la conducta conversacional, pero no creo que esto importe mucho. Una conducta externa más complicada no es, al fin y al cabo, sino conducta externa, y, en todo caso, hay una íntima conexión entre la conducta verbal y el pensamiento.) La omisión importante en el punto de vista de Tu­ ring es ésta: cuando yo juzgo que usted piensa sobre la base de su conducta externa, lo hago en el contexto de mi creencia en que tene­ mos cuerpos semejantes, en los que acontecen procesos semejantes, incluidos cualesquiera procesos electroquímicos del cerebro inmedia­ tamente responsables del pensamiento. Desde luego, en el compu­ tador falta este contexto. Para apreciar la importancia de este con­ texto, imagine que usted y Turing, que se acaban de conocer, van a una fiesta. El coche tiene un accidente. A usted no le pasa nada, pero Turing sufre profundas excoriaciones en varias partes de su cuerpo. Para su sorpresa, usted no ve sangre, sino metal, plástico, cables y ta­ bletas de silicio con el sello «made in Taiwan». ¿No pondría en duda inmediatamente su juicio natural de que Turing es un ser pensante? En circunstancias adecuadas podría volver a sostener ese juicio (eso es lo que voy a argumentar después), pero, para empezar, querría sa­ ber más cosas sobre Turing. ¿Es simplemente un muñeco compli­ cado? La despreocupada conversación que mantuvieron por el ca­ mino ahora no le mueve lo bastante a decir que piensa. Sin embargo, antes del accidente, cuando usted tenía diferentes creencias sobre su constitución corporal, tomó su conducta externa como prueba posi­ tiva de su calidad de ser pensante. Así, pues, Turing yerra cuando

¿Puede pensar una máquina?

85

contempla su prueba como una simple exposición de los criterios que implícitamente nos aplicamos los unos a otros y como una aplicación de los mismos al computador. Cuando, unas páginas más atrás, concluía que Parry y Eliza no piensan, basaba mi juicio en un examen, no de su conducta exter­ na, sino de cómo operan. Incluso si per impossibile Parry pasara la prueba de Turing, el examen de su caja negra me seguiría conven­ ciendo de que Parry no piensa. Así, la conducta externa de un compu­ tador no es base suficiente para fundar el juicio de que piensa. De esto se sigue que la prueba de Turing no vale. Si esta conclusión pa­ rece un poco atrevida, consideremos el siguiente escenario de cienciaficción. Una misión de exploración procedente de un lejano lugar del uni­ verso aterriza en nuestro planeta. Aunque sus tripulantes son incalcu­ lablemente más inteligentes que los humanos, se muestran deseosos de hablar con nosotros. Un entusiasta investigador de la IA le explica la prueba de Turing a uno de ellos. Con el equivalente alienígena de una carcajada dice que en un momento puede improvisar un compu­ tador que la supere. Y lo hace. Después explica cómo ha programado el computador. Un idioma sólo contiene un número finito de pala­ bras. Por tanto, sólo hay un número finito de oraciones que conten­ gan un máximo de, por ejemplo, cien palabras (aunque aquí cualquier número elevado de palabras satisfaría los propósitos del extraterres­ tre). Se sigue que hay un número finito de conversaciones con dos participantes que contengan oraciones de una longitud máxima de cien palabras (suponiendo que a ninguna de las partes se le permita repetir la misma oración un número indefinido de veces). Cierto que, desde un punto de vista humano la cantidad de esas conversa­ ciones es mareante, pero sigue siendo un número definido, finito. Lo que hizo el alienígena fue construir todas las conversaciones signifi­ cativas con dos participantes en las que uno, el interrogador, usa oraciones de hasta cien palabras, y el otro, el computador, usa ora­ ciones de hasta cuarenta palabras. Hecho esto introdujo en bloque todas las conversaciones en .el programa (de la misma manera que Colby construyó por adelantado las respuestas de Parry y las puso en el programa). Cuando el interrogador escribe su primera inter­ vención, Superparry —como llamaban al programa del alienígena— selecciona al azar una de las muchas conversaciones que comienzan de esta forma y escribe la intervención del segundo participante. El interrogador responde, y Superparry selecciona al azar una de las

86

Inteligencia artificial. Una introducción filosófica

conversaciones que comienzan con las tres intervenciones ya hechas, y así sucesivamente. Ningún interrogador humano es capaz de distinguir a Superparry de un conversador humano, excepto por mera adivinación. El aliení­ gena, claro está, puede hacer que el programa fracase simplemente con escribir una oración de más de cien palabras, pero al diseñar el programa apostó sobre la certeza práctica de que ningún interroga­ dor humano haría eso. También tomó la precaución de incluir sólo conversaciones en que el segundo participante (el computador) res­ ponde con cierta confusión a las oraciones de más de unas cincuenta palabras. Se me ha dicho21 que un interrogador astuto podría coger a Su­ perparry tecleando «Escribamos “*!=” en lugar de “caballo”; ahora dime si un *! = tiene rabo.» Sin embargo, en una terminal sólo se puede escribir un número finito de caracteres, de modo que sólo se puede realizar un núm ero finito de tales m aniobras, y el programador alienígena tendrá que preverlas:—y otras semejantes— por anticipado. (Incluso aunque el interrogador utilice los gráficos de la terminal para introducir símbolos de su invención, el número de sím­ bolos diferentes que puede producir la terminal sigue siendo finito.) Otro aspecto que vale la pena mencionar es qué hace el programa con las oraciones repetidas. ¿Podría el interrogador descubrirlo si es­ cribiera una y otra vez la misma oración, por ejemplo? No: el extraterrestre ha previsto esto y ha emparejado las repeticiones absurdas con respuestas cada vez más irritadas hasta que después de la octava repetición da por terminada la charla con una réplica airada. No hay, desde luego, ninguna razón para creer que en el universo haya una criatura con la inteligencia que requiere escribir este pro­ grama, ni para creer que sea posible físicamente un computador con la capacidad de ejecutarlo. Eso no importa. Aunque sea hipotético, el ejemplo muestra que en principio es posible que pase la prueba de Turing un computador que no piense, pues Superparry no tiene más méritos para llamarlo pensante que su pariente pequeño, pero similar en el núcleo, Parry22. 21 Por Malcolm Stairmand. 22 También se les ha ocurrido una versión de este argumento a Claude Shannon y John McCarthy (Automata Studies, pp.v-vi) y a Ned Block («Psychologism and Beha­ viourism»). James Culbertson ha mostrado, en efecto, cómo se diseña una máquina idea­ lizada que haga lo que le he atribuido a Superparry («Some Uneconomical Robots»).

¿Puede pensar una máquina?

87

3.5. Valoración de la prueba La objeción de la caja negra establece lo inapropiado de la prueba de Turing. Puesto que la prueba sólo se ocupa de la salida producida, es in­ capaz de distinguir entre un programa que merezca de verdad el título de «pensante» y un programa a las claras no pensante como Superparry. ¿Hay alguna manera de remendar la prueba para vencer esta dificultad? Lo que el extraterrestre ha hecho es usar su conocimiento de las especificaciones de la prueba para construir un programa destinado a superarla, pero incapaz de hacer nada más. Si en el curso de la prueba se le suministrara a Superparry un ojo televisivo y unos programas de reconocimiento visual y se le pidiera describir lo que ve, no sabría qué decir. Desde luego, si el extraterrestre hubiera sabido por las es­ pecificaciones de la prueba que esto iba a ocurrir, podría haber in­ cluido un subprograma especial que emparejara respuestas verbales preparadas con formas visuales (el ojo televisivo sólo puede ofrecer un número finito de ellas); pero la inclusión en la prueba de tareas no especificadas por adelantado derrotaría a cualquier programa hecho ex profeso como Superparry. Una forma de mejorar la prueba, pues, es dejarla abierta: el computador debe ser indiscernible del humano no sólo en la conversación, sino en la realización de cualquier tarea que el interrogador decida especificar. Habría evidentes dificultades para aplicar la prueba. Incluso ta­ reas más o menos elementales propuestas por el interrogador podrían constituir problemas nuevos que requirieran de meses de investiga­ ción. Con todo, esta forma de mejorar la prueba aborda sus defectos de una manera ridiculamente indirecta. El problema de la prueba ori­ ginal de Turing es que sólo se examina la conducta exterxia, cuando habría que tener en cuenta también el diseño del programa. El medio más simple para remediar este defecto es complementar la prueba de la conversación con un vistazo a la forma de operar del programa. Así, la prueba de Turing mejorada debe constar de dos elementos: primero, el examen conversacional, que establecerá si se satisface o no el criterio de la conducta, como podemos llamarlo (esto es, esta­ blecerá si la salida verbal del computador es indiscernible de las inter­ venciones conversacionales de un ser humano); y, segundo, debería haber un examen del programa mismo, que establecerá si se satisface o no lo que podríamos llamar el criterio del diseño. ¿Cuál podría ser el criterio del diseño? Estudiaremos dos posibili­ dades. La primera es que el programa debería hacer las cosas que hace

88

Inteligencia artificial Una introducción filosófica

de una manera más o menos semejante al modo como esas cosas se hacen en el interior de un cráneo humano, Esto eliminaría de inme­ diato un programa como Superparry, cuya manera de conversar es palpablemente inhumana. Volviendo a la distinción del capítulo ante­ rior entre IA humana e IA ajena (sección 2,7), esta versión del crite­ rio del diseño equivale a estipular que cualquier programa que em­ plee técnicas obtenidas de la IA ajena estará abocado a fracasar en la prueba. (Se entiende que el criterio exige un alto grado de equivalen­ cia entre la forma como el computador actúa y la forma como lo hace el cerebro. Éste es el nivel en que es posible decir que un moderno computador y una vieja máquina de tubos de vacío ejecutan el mismo programa, aunque cada máquina se comporte de modo muy diferente en el nivel inferior de las operaciones eléctricas debido a su constitu­ ción fundamentalmente distinta.) Un posible reproche a esta versión del criterio del diseño es que es demasiado fuerte. Puede parecer más antropocéntrico de lo debido exi­ gir que el programa funcione de manera más o menos humana. Sin em­ bargo, se debe recordar en defensa del criterio que la prueba de Turing no es una prueba de papel tornasol del pensamiento. Criaturas pensan­ tes como el chimpancé fracasarían en la versión original de la prueba; por tanto, ¿por qué debería preocuparnos que algunos computadores pensantes fracasen en esta versión reforzada de la prueba? La versión original de la prueba de Turing es descaradamente antropocéntrica, pues exige que el computador pueda producir una conducta externa indiscernible de la de un ser humano. Esta versión del criterio del di­ seño se limita a extender este sesgo antropocéntrico al programa mismo. Esto concuerda con el espíritu de las propuestas de Turing. Por otro lado podríamos favorecer una versión mucho más débil del criterio del diseño, quizá simplemente que el programa sea modu­ lar. Es decir, que en principio podamos insertarlo entero en otros programas (añadiendo o quitando unas pocas líneas de códigos), para constituir un programa de mayor complejidad. Por ejemplo, debería ser posible insertar el programa sometido a prueba en programas que controlen los sistemas motor y sensorial de un robot, a efectos de que el robot pueda conversar sobre lo que está haciendo. Esta versión del criterio del diseño tiene puntos de semejanza con la prueba abierta de Turing considerada más arriba. Sin embargo, una diferencia funda­ mental es que basta un examen del programa para establecer si satis­ face o no el criterio, no se requiere que se realicen de hecho las exten­ siones como parte de la prueba.

¿Puede pensar una máquina?

89

Esta versión del criterio del diseño protege la prueba de progra­ mas que podrían satisfacer el criterio de la conducta por medio de trucos. Hay que tomar en serio esta posibilidad, pues un puñado re­ lativamente simple de trucos, como Eliza, consiguió muchas veces in­ ducir a la gente a pensar que estaba conversando con un ser humano. Es verdad que un Superparry a escala real es sólo una posibilidad teó­ rica, pero no puede haber garantía de que un programador ingenioso no produzca un programa capaz de pasar la prueba original de Tu­ ring mediante trucos (quizá en respuesta a la oferta de 100.000 dóla­ res que hizo en 1991 el entusiasta Hugh Loebner para el programa­ dor de la primera máquina que consiga superar la prueba de Turing). Pienso que el resultado de esta discusión es que ninguna de estas versiones del criterio del diseño es claramente correcta ni errónea, ni una es claramente mejor que la otra. Así, tenemos dos versiones de la prueba reforzada de Turing, una débil y otra fuerte, de las cuales la primera incorpora el criterio del diseño modular, y la segunda el cri­ terio antropocéntrico del diseño. En el momento actual de la discu­ sión no está nada claro lo que debemos juzgar de estas dos versiones. ¿Es la versión débil un criterio satisfactorio del pensamiento y la fuerte demasiado rígida para tener interés? ¿Es mejor la fuerte? Es más, ¿hay alguna razón para mantener que alguna de ellas es un crite­ rio satisfactorio del pensamiento? La estrategia de Turing respecto a la pregunta central de si se puede decir verdaderamente que una máquina piensa fue devolver la pregunta de la siguiente forma: mire, si se pudiera construir una má­ quina que hiciera X, ¿estaría usted de acuerdo en que las máquinas pueden pensar? Ahora vemos que esta vía indirecta para abordar la pregunta falla, pues aunque tomemos en consideración tanto la ac­ tuación interna como la externa, no hemos sido capaces de determi­ nar esa X de modo que la respuesta al reto de Turing sea un claro sí Por consiguiente, es el momento de abandonar la estrategia de Turing y abordar la pregunta de cara. 3.6. Tiempo de decidir La pregunta de si un artefacto electrónico puede pensar no se pa­ rece a la de si (por ejemplo) un organismo carente de clorofila puede tener fotosíntesis. La segunda pregunta es de las que se deben resol­ ver mediante la observación: una vez formulada la pregunta, nos

90

Inteligencia artificial. Una introducción filosófica

volvemos hacia la Madre Naturaleza para buscar la respuesta. La primera pregunta, por el contrario, sólo la puede determinar una de­ cisión nuestra. Existe un acertijo que puede ayudar a aclarar esta dife­ rencia. Existe un antiguo enigma sobre el barco de Teseo, un navio sagrado de los atenienses23. Con el paso de los años, las reparaciones hicieron que más y más partes del barco fueran sustituidas por nuevos compo­ nentes: un año media docena de tablas, el año anterior un mástil, etc. Llegó un momento en que el barco no tenía ninguno de sus compo­ nentes originarios. Éstos, sigue la narración, habían sido celosamente guardados a lo largo de los años, y cuando la colección estuvo com­ pleta volvieron a montar las partes y construyeron un barco que, bien es cierto, hacía agua. ¿Cuál de los dos es el barco originario, si alguno lo es? Supongamos que al botar el barco le hubieran concedido dere­ chos de puerto gratuitos a perpetuidad, ¿a cuál de los dos navios se aplicaría esta exención? ¿Qué pasaría si eso mismo le ocurriera a mi reloj? ¿Cuál de los dos relojes es el que compré, el que llevo en la mu­ ñeca o el que de ptonto fabricó el excéntrico coleccionista? La mayoría de la gente no sabe qué decir en esta situación, pero los que creen que sí, generalmente están en desacuerdo. Esto ocurre, me parece, porque no existe una respuesta auténtica. Metafórica­ mente, la situación cae fuera de la legislación en vigor. Si deseamos una respuesta, entonces nosotros, la comunidad lingüística, debemos legislar cuál (o ninguno) de los dos navios es el barco originariamente botado (aunque es tan inverosímil que necesitemos una respuesta a la pregunta que no valdrá la pena cubrir ese caso con nuestra legislación conceptual). Nuestra decisión (si tomamos una) no debe ser arbitra­ ria: tirar una moneda no es forma de resolver la cuestión. Esto es si­ milar a la no inusual situación del juez que toma una decisión sobre cómo se aplica la legislación vigente a un caso nuevo. Por poner un ejemplo, imaginemos que unos veteranos de la Segunda Guerra Mun­ dial desean colocar un carro de combate restaurado sobre un plinto en el parque en memoria de sus camaradas. Sucede que hay una orde­ nanza que prohíbe los vehículos en el parque. ¿Prohíbe la ley esta conmemoración?24 La decisión del juez no será un dictamen arbitra­ 23 Thomas Hobbes revitalizó este problema en el siglo xvn. La versión que doy es la suya (Works, ed. Molesworth, W., vol. 1, pp. 136-7). 24 El ejemplo se debe a Fuller, L. L., «Positivism and Fidelity to Law -A Reply to Professor Hart», p. 663.

¿Puede pensar una máquina?

91

rio, sino que contemplará si el propósito de la ordenanza está mejor servido prohibiendo la erección del monumento (y seguramente esto no es así). De manera similar, en el caso del barco, la decisión debe tener en cuenta si los propósitos para los cuales necesitamos el con­ cepto de el mismo barco (como la extensión de contratos cuyo efecto se proyecta en el tiempo) son mejor servidos tomando el barco re­ construido, el barco reparado, o ninguno, como el mismo que el barco botado originariamente. Lo que tenemos en este pintoresco ejemplo es una ilustración de que una pregunta perfectamente sensata puede quedar abierta aun después de contar con todos los hechos pertinentes. Esto siempre ocurrirá cuando la pregunta se refiera a la aplicación de un concepto a un tipo de caso nuevo de raíz, a un caso que, por así decir, no estaba contemplado cuando se construyó el concepto. Estas preguntas son muy distintas de las que se responden con el descubrimiento de un nuevo hecho (tal como si la fotosíntesis puede tener lugar en ausencia de clorofila). Decidimos, más que hallamos, la respuesta a uno de es­ tos nuevos casos, y para alcanzar la decisión debemos considerar cuál de las respuestas posibles se aviene mejor con los propósitos para los cuales empleamos el concepto. La pregunta de si podemos decir que piensa un computador programado adecuadamente es de este género, y por ahora carece de respuesta (y ésa es parte de la razón, sin duda, por la que la pregunta"parece desconcertar ál público)25*. Nuestro concepto de entidad pensante se ha formado en un en­ torno en el que sólo ha hallado aplicación entre organismos vivos na­ turales. Ahora, por primera vez, nos enfrentamos a la perspectiva de artefactos que son más o menos indiscernibles de los seres humanos en cuanto a su capacidad para realizar aquellas actividades que noso­ tros realizamos gracias a la comprensión, la planificación, la resolu­ ción de problemas, la toma de decisiones, y otras cosas que describi­ mos psicológicamente. ¿Debemos aplicar o rehusar la descripción cosa pensante en este nuevo caso (junto con todo el vocabulario psi­ cológico que esta descripción arrastra)? Lo que, como comunidad 25 Compárese con Hilary Putnam, «Robots: Machines or Artificially Created Life?», esp. p. 406. Argumenta que la pregunta de si los androides viven reclama una decisión, no un descubrimiento (p. 403 y ss.). Putnam sostiene que la pregunta de si los robots son conscientes también pide una decisión. Mi opinión es distinta. Como se verá en el capítulo 8, creo que, por lo que se refiere a la conciencia, hay una cuestión de hecho.

92

Inteligencia artificial. U n a intro d u cció n filosófica

lingüística, debemos considerar al tomar esta decisión es si los propó­ sitos para los cuales usamos el concepto de ser pensante vienen mejor servidos al decidir contar un computador adecuadamente progra­ mado entre las cosas que piensan o no. (Como recomendaba W itt­ genstein: «Te n la palabra “pensar” por una herramienta»26.) ¿Cuáles son, pues, los usos que damos al concepto de ser pen­ sante? Revisaré dos propuestas erróneas antes de pasar a la que consi­ dero correcta. La primera es que nuestro interés para distinguir entre entidades pensantes y no pensantes es indicar una distinción fen o m enológica: es decir, diferenciar aquellos seres que creemos que experi­ mentan un «darse cuenta interior» de los que creemos que no tienen esa experiencia. Ya hemos visto lo que hay de erróneo en esa pro­ puesta. Lo s hechos nos obligan a reconocer que muchas de las activi­ dades que llamamos pensamiento pueden acontecer sin conciencia. La clase de cosas que estimamos pensante no tiene por qué coincidir con la clase de las cosas de las que creemos que tienen conciencia. Quizá estas clases coincidan en el momento presente, pero esto es adventicio, como es adventicio en vez de esencial conceptualmente que la clase de los bípedos desnudos coincida con la clase de los seres humanos. La segunda propuesta es que nuestro objetivo al distinguir entre cosas pensantes y no pensantes es indicar una distin ción biológica ; en particular, diferenciar aquellos seres en los que ocurre cierto tipo de procesos biológicos, a los que nos referimos como procesos cerebra­ les superiores. La consideración de un hipotético visitante extrate­ rrestre debería convencernos de que esto es un error. Imaginemos la llegada de una alienígena amistosa y simpática que lleva un holograma de su marido y sus hijos en la cartera y que demora su estancia en nuestro planeta con el fin de documentar las obras de Shakespeare, a quien aprecia como uno de los mejores dramaturgos del cosmos co­ nocido. Supongamos que alguien insiste en que, puesto que la biolo­ gía de la alienígena es por completo diferente de la nuestra, es inco­ rrecto decir que piensa (se sabe que su in te rio r está compuesto de circunvoluciones de gelatina verde que no soportan ninguno de los procesos biológicos familiares). Diríamos sin duda que esta persona no comprende el objeto de decir que algo piensa. Ahora voy a esbozar la que me parece descripción correcta de lo que subyace a nuestra distinción entre entidades que piensan y enti­

26 Wittgenstein, L., Philosophical Investigations, sec. 360.

¿Puede pensar u na m áquina?

93

dades que no piensan. La conducta de la avispa cavadora suministra una ilustración ú til de lo que quiero decir27. Cuando la avispa hem­ bra lleva el alimento a su madriguera, lo deposita en la entrada, pe­ netra para comprobar la ausencia de intrusos y luego, si el panorama está despejado, introduce la comida. Si un experimentador malévolo desplaza la comida unos centímetros mientras ella hace la comproba­ ción, al salir volverá a repetir todo el proceso: llevará el alimento a la entrada, pasará a echar un vistazo, saldrá a coger el alimento. Dean Wooldridge inform a de que en cierta ocasión hicieron repetir a la avispa el ciclo automático cuarenta veces. E l mecanismo interno que gobierna su conducta no ha previsto o m itir la comprobación si ya la ha hecho. Éste es el tipo de interacción con el entorno que sin dudar describimos como no pensante, igual que el reflejo de la rodilla, el cierre de las flores al anochecer y la acción del termostato cuando en­ ciende y apaga la calefacción. Lo s procesos internos de la conducta de muchos organismos, y de todos los artefactos que existen, son relativamente rígidos, mientras que la conducta de algunos organismos — nosotros de forma sobresa­ liente— es el resultado de una red vasta, flexible e interactiva de pro­ cesos internos que permiten al organismo una gran plasticidad al res­ ponder a su entorno. Nosotros, al contrario que la avispa cavadora, podemos, detrás del escenario, generar representaciones de varias res­ puestas posibles a una situación nueva, in fe rir o conjeturar las conse­ cuencias probables de estas respuestas y valorar estas consecuencias en vista de nuestros numerosos fines. E n la explicación que voy a ofrecer, el concepto de una cosa pen­ sante sirve para trazar una distinción entre, por un lado, aquellas en­ tidades cuya riqueza de procesos internos controladores de la con­ ducta las hace agentes inventivos, adaptables y caprichosos, y, por otro lado, aquellas entidades pobres en ese tipo de procesos, cuya conducta, en correspondencia, es rígida, circunscrita y estereotipada. Emplearé la expresión p ro fu sa m en te a d a p ta b le para referirme a los procesos internos controladores de la acción de las entidades de la primera categoría. Lo s procesos internos de un organismo son profu­ samente adaptables si dicho organismo puede hacer cosas como con­ cebir planes, analizar situaciones, deliberar, razonar, explotar analo­ gías, revisar creencias a la luz de la experiencia, sopesar intereses en

27 La conducta de la avispa cavadora está descrita en Wooldridge, D., The Machi­ nery of the Brain, p. 82; véase también Dennett, D., Elbow Room, p. 11).

94

Inteligencia artificial Una introducción filosófica

conflicto, formular hipótesis y contrastarlas con los datos, tomar de­ cisiones razonables sobre la base de información imperfecta, etc. Además, debe ser capaz de hacer estas cosas en la enorme compleji­ dad del mundo real, no sólo en un ámbito «de juguete» como el sen­ cillo mundo de bloques de colores de Shrdlu28. El concepto de ser pensante es ciertamente vago, pues no tenemos un criterio preciso de cuán adaptables deben ser los procesos internos controladores de la conducta de una entidad para merecer la distin­ ción de ser pensante. Descendiendo por la escala evolutiva, hay un lí­ mite en extremo borroso entre los organismos que claramente pien­ san y los que no. Los chimpancés piensan y las larvas no, pero nadie está seguro de qué decir de los cangrejos y las salamandras. (No es que el concepto de ser pensante esté en peor situación que otros. Compárese con la famosa e inútil pregunta de cuándo un cerro se convierte en una montaña.) Sin embargo, la cuestión de la frontera inferior del concepto no debe perturbar nuestra discusión de si una máquina puede pensar, pues no nos hemos de confinar ai caso de un computador cuyos procesos internos controladores de la conducta cuadren más o menos con los nuestros en cuanto a adaptabilidad. Se puede argumentar que el concepto de pensar desempeña su pa­ pel más importante en la explicación y predicción de la conducta. Un ejemplo sencillo del tipo de explicación al que me refiero es éste: Juan come algas porque cree que eso le prevendrá de la calvicie. Estas ex­ plicaciones explican la conducta en términos de lo que el agenté piensa, y se contraponen a las explicaciones de la conducta formula­ das directamente en términos de la actividad eléctrica de la corteza cerebral del agente, o la bioquímica del hipotálamo, etc. Los filósofos llaman intencionales las explicaciones de este tipo29. (Otro ingre­ diente de una explicación intencional suele ser lo que el agente desea, en el caso de Juan, conservar el cabello.) Continuamente nos aplica­ mos unos a otros este estilo de explicación. Explicamos y predecimos las acciones de las personas por referencia a la información o mala in­ 28 Compárese la caracterización que hace Donald Mitchie de la inteligencia hu­ mana: «El intelecto humano se señala, no tanto por su especial brillantez en una tarea particular, como por su capacidad de hacer un intento pasable en casi cualquier cosa. En consecuencia, suspendemos el juicio sobre la idea de una máquina inteligente, a la espera de que aparezca una con la versatilidad y la capacidad de conducta integradora que pedimos en nuestros semejantes.» On Machine Intelligence, p. 51. 19 Daniel Dennett ha popularizado el término «explicación intencional». Véase es­ pecialmente BrainstormSy caps. 1 y 12.

¿Puede pensar una máquina?

95

formación que poseen, las teorías o dogmas que suscriben, sus planes, metas, aversiones, intereses, etc. (Adviértase, de paso, que la explica­ ción y la predicción son aproximadamente lo mismo. Una predic­ ción: ella piensa que usted aún está enfadado con ella, así que es im­ probable que le visite. Una explicación: ella no le ha visitado porque piensa que todavía está enfadado con ella.) La explicación y predicción intencionales de la conducta de nues­ tros congéneres viene facilitada por el hecho de que podemos hablar unos con otros sobre lo que pensamos y lo que deseamos. Sin duda, hay obstáculos para aplicar este estilo de explicación a las criaturas no lingüísticas por la consiguiente falta de certeza sobre lo que piensan o desean. No obstante, está muy lejos de ser verdad que el alcance de la explicación intencional esté restringido a la conducta humana. Esto es lo que escribe Jane Goodall sobre Figan, un joven chimpancé, y Goliath, uno de sus superiores jerárquicos adultos. Un día, un rato después de que el grupo hubiera comido, Figan vio una ba­ nana que se les había pasado por alto, aunque Goliath estaba encima de ella. Miró la fruta, y después de un rápido vistazo a Goliath, Figan se fue y se sentó al otro lado de la tienda, de modo que no podía ver la fruta... Quince minutos después, cuando Goliath se levantó y se fue, Figan, sin dudarlo un momento, fue y cogió la banana. Era evidente que se había hecho cargo de la situación: si hubiera ido antes por la fruta, Goliath, casi con toda seguridad, se la habría quitado. Si’ hubiera permanecido cerca de la banana, probable­ mente la habría mirado de vez en cuando: los chimpancés son muy rápidos para advertir e interpretar los movimientos oculares de sus congéneres, y Goliath, por tanto, probablemente habría visto la fruta. Así que Figan no sólo se abstuvo de satisfacer su deseo inmediatamente, sino que se retiró para no echar a perder sus oportunidades con una mirada a la banana30.

Ahora estamos en disposición de contestar nuestra pregunta prin­ cipal. Un objetivo a largo plazo de la investigación en IA es producir programas profusamente adaptables. Supongamos que un día se con­ sigue felizmente ese objetivo, y se posibilita la construcción de robots 30 Goodall, J., In the Shadow of Man, pp. 95-6. Un escéptico preocupado porque no podemos tener una confirmación verbal de Figan de que éste era, en efecto, su plan podría proponer una explicación alternativa más simple: Figan se marchó y olvidó el plátano, pero volvió a verlo cuando Goliath se fue. Sin embargo, se supone que Goo­ dall defendería su análisis apilando más y más ejemplos hasta que fuera difícil oponerse a su juicio de que Figan tenía capacidades de planificación.

96

Inteligencia artificial. Una introducción filosófica

cuyos procesos internos controladores de la acción cuadran más o menos, en cuanto a adaptabilidad, con los nuestros (y sólo el tiempo dirá si se puede hacer esto). ¿Cuál podría ser la razón de negar que estos robots piensan? Desplegarían toda la versatilidad, ingenio y propósito que nosotros. Es más, sus conductas serían resultado de que sus programas hicieran el tipo de cosas que, cuando nosotros las hacemos, describimos como analizar situaciones, formar planes, ra­ zonar, buscar analogías, hacer conjeturas, valorar propuestas, tomar decisiones, etc. (pues esto es lo que configura la adaptabilidad pro­ fusa). Mientras estemos dispuestos a describir estas cosas en los mis­ mos términos cuando las haga Un artefacto, todo el marco de la expli­ cación intencional se podrá aplicar a robots de este tipo. En efecto, si los robots son capaces de dar expresión verbal a sus metas, informa­ ción, planes, o lo que sea, estaremos, como hemos visto, en mejor po­ sición para dar explicaciones intencionales de su conducta que la que tenemos ahora en el caso de nuestros parientes biológicos más próxi­ mos, los primates superiores. Está claro, pues, que los objetivos para los cuales empleamos el término «pensante» están mejor servidos si la comunidad lingüística decide incluir estos robots entre las cosas pensantes. Esto completa mi argumento en favor de la afirmación del comienzo de este capí­ tulo: no hay ningún error conceptual en la afirmación de que futuros artefactos pueden, literalmente, pensar.

Capítulo 4 LA HIPÓTESIS DEL SISTEMA DE SÍMBOLOS

Hemos visto que no hay nada conceptualmente aberrante en afir­ mar que futuros artefactos pueden ser capaces de pensar. Si podemos dotar a un computador de procesos internos controladores de la con­ ducta tan profusamente adaptables como los nuestros, entonces diría­ mos que el computador piensa. Sin embargo, éste es un «sí» monu­ mental: ¿hay alguna razón para pensar que tal cosa es posible? En otras palabras, ¿hay alguna razón para creer que los computadores son el tipo adecuado de máquina? Al fin y al cabo, hay muchos arte­ factos eléctricos que son claramente inapropiados para pensar: aspira­ doras, radios, cepillos eléctricos de dientes, entre otros. ¿Hay alguna razón para creer que los computadores digitales son mejores can­ didatos? Alguna gente encuentra obvio sin más que los computadores tie­ nen el potencial necesario para pensar. Pero no es obvio. Quienes dan por hecho que los computadores son el tipo adecuado de máquina capaz de pensar, probablemente están hechizados por la imagen de ellos que han creado los escritores de ciencia-ficción, los cineastas y los publicitarios. No olvidemos que la humilde centralita telefónica —la perla tecnológica de una época pretérita— fue tomada en tiem­ pos como prototipo «evidente» de máquina pensante. También había 97

98

Inteligencia artificial. Una introducción filosófica

personas que opinaban que era un «cerebro artificial». (La idea era que un cerebro natural es una centralita que dirige los mensajes que transportan los cables telefónicos del sistema nervioso a sus recepto­ res naturales. A través del cerebro, el estómago marca el número de los músculos del diafragma y chilla: «¡Vomita!».) Para afrontar en serio la pregunta de si un computador es el tipo adecuado de máquina capaz de pensar, debemos considerar qué gé­ nero de máquina es un computador. ¿Qué hace exactamente? (La res­ puesta a menudo sorprende a los legos.) Una vez aclarado esto, po­ dremos enunciar el supuesto fundamental de la corriente dominante en IA, la hipótesis del sistema de símbolos (sección 4.6) h Compen­ diada, ésta es la posición según la cual el computador es el tipo ade­ cuado de máquina capaz de pensar. En el capítulo 5 examino los indi­ cios en favor de esta hipótesis, y en el capítulo 6 valoro un intento reciente de demostrar que la hipótesis es falsa. La cuestión de si los computadores son el tipo adecuado de máquina capaz de pensar vuelve a aparecer al final del libro, donde presento una aproximación radicalmente nueva a la IA conocida como proceso paralelo distri­ buido. Los defensores de este enfoque se desmarcan de la hipótesis del sistema de símbolos, y se ocupan de construir tipos de hardware (componente físico) heterodoxos inspirados en el tejido neuronal humano. Unas palabras de aliento. Varias secciones de este capítulo contie­ nen montones de ceros y unos. Si eso le da mareos, no se preocupe. Quienes prefieran ahorrarse los detalles técnicos deberían leer la sec­ ción 4.1 y pasar directamente a la sección 4.6, con un vistazo interme­ dio a la 4.5. 4.1. Manipulación de símbolos Un computador es un manipulador de símbolos: lo único que hace es barajar símbolos de acuerdo con las instrucciones de su pro­ grama. Los símbolos que manipulan los computadores comerciales1 1 La hipótesis recibió su nombre de Alien Newell y Herbert Simon en «Computer Science as Empirical Inquiry: Symbols and Search». (La llamaron «hipótesis del sis­ tema de símbolos físicos», pero he quitado el «físicos» para mayor comodidad.) Véanse también Simon y Newell, «Information-Processing in Computer and Man»; Newell, «Physical Symbol Systems» y «The Knowledge Level»; y Lenat, D. B. y Feigenbaum, E. A., «On the Threshold of Knowledge».

La hipótesis del sistema de símbolos

99

están formados eléctricamente, de una manera que explicaré ense­ guida. Por el momento es útil pensar en los símbolos como filas de ceros y cruces escritas en hojas de papel lineado, así: XXO X X00X 0 00X 0 oxx

He aquí algunos ejemplos de las manipulaciones de símbolos que los computadores realizan. • Sacar una copia de los símbolos de una línea en otra línea espe­ cificada. • Borrar cualquier símbolo que aparezca en una línea especi­ ficada. • Escribir una sucesión de símbolos en una línea especificada. • Identificar los símbolos que aparecen en una posición particu­ lar. Por ejemplo, se le puede decir a la máquina que revise la hoja en sentido descendente y busque los tres primeros símbo­ los de cada línea, para detenerse cuando encuentre la combina­ ción 000. • Comparar los^ símbolos que aparecen en dos líneas especifica­ das. Esta operación se puede emparejar con la instrucción de escribir una cruz en otra línea si los dos grupos de símbolos son diferentes y escribir un cero si son iguales. • Dar nombre a una línea particular con un grupo de símbolos específico. Un medió sencillo de que la máquina haga esto es escribir los símbolos del nombre al comienzo de la línea.

F ig u r a 4.1. Un registro

Inteligencia artificial Una introducción filosófica

100

Las operaciones como éstas se denominan manipulaciones funda­ mentales (o «primitivas») de símbolos. Un computador es un ingenio manipulador de símbolos con la capacidad de realizar cierta lista de operaciones fundamentales. La definición completa se da en la sec­ ción 4.5. 4.2. Símbolos binarios Los computadores comerciales manipulan sólo dos símbolos bá­ sicos, conocidos umversalmente como bits (de dígitos bin arios). Por convención, estos símbolos se escriben en los papeles y pizarras como «0» y «1». En ciertos aspectos, esta convención es desafortu­ nada, pues provoca la falsa impresión de que los símbolos básicos son exclusivamente matemáticos. Los dos símbolos básicos se podrían haber escrito como un redondel y una cruz (o incluso «\» y «?»: cua­ lesquiera dos marcas fáciles de discriminar habría servido). El computador mismo, naturalmente, no manipula marcas de pa­ pel de ningún tipo: los símbolos tienen una realización eléctrica. Esto se hace habitualmente por medio de elementos biestables o flip~flops> llamados así porque saltan y caen (flip y flop, en inglés) entre dos es­ tados. Es útil concebir los elementos biestables como interruptores diminutos que tienen exactamente dos posiciones: activo e inactivo2. Un elemento biestable activo «cuenta» como un caso del símbolo 1, e inactivo, como un caso del símbolo 0. Los elementos biestables están organizados en filas, llamadas registros. El registro de la figura ante­ rior consta de cuatro elementos biestables. El registro representado «contiene» la cadena de bits 0001. Los computadores pasan el tiempo haciendo cosas como copiar el contenido de registros de almacenamiento (o «memoria») en regis­ tros operativos, comparar los contenidos de diversos registros opera­ tivos, y llenando más registros con símbolos que indican el resultado de las comparaciones. Las secciones 4.3 y 4.4 contienen ejemplos de cómo se compaginan estas operaciones para realizar tareas útiles. Toda computación depende del hecho de que los dos símbolos básicos se pueden combinar para componer símbolos, igual que las letras del alfabeto se componen para formar palabras y oraciones. 2 Un elemento biestable consta generalmente de un par de transistores.

La hipótesis del sistema de símbolos

101

Los programadores usan estos símbolos compuestos para representar cualquier cosa: letras, oraciones, números, objetos reales, relaciones entre objetos, etc. El resto de esta sección resume cómo se hace esto. Representación de letras y otros caracteres Cuando escribo una A mayúscula con el teclado de mi compu­ tador, los circuitos internos producen automáticamente la cadena de bits 1000001. Éste es el código interno de mi computador para la A. Alguien se podría preguntar qué hace que este símbolo compuesto sea una A en vez de una Z o un signo de interrogación. La simple convención. Como en el código Morse, no hay ninguna relación «na­ tural» entre las cadenas de bits y los caracteres que representan3. La industria de los computadores usa, de hecho, dos sistemas convencio­ nales diferentes para correlacionar cadenas de bits con letras y otros caracteres, el sistema ASCII, del que he tomado el ejemplo, y el sis­ tema EBCDIC. (Los nombres son acrónimos de «American Standard Code for Information Interchange» y «Extended Binary Coded De­ cimal Interchange Code». ASCII se pronuncia generalmente «asci».) En el sistema EBCDIC la letra A es 11000001. Para almacenar una representación ASCII de la oración «El gato está en la alfombra», un computador necesitaría 28 registros de siete bits. (Los símbolos ASCII individuales siempre tienen siete bits.) Los dos primeros registros contendrían los códigos ASCII para «E» y «1», el tercero, el código para el espacio (que es 0100000), etc. El re­ gistro final contendría el código ASCII para el punto final. Representación composicional Examinemos de nuevo el código ASCII para la A: 1000001. Si preguntáramos qué significa la primera mitad de la cadena, 1000, la 3 En el caso de los caracteres que van de «0» a «9», los valores ASCII no son tan arbitrarios como otros aspectos del sistema. Los códigos de los caracteres numéricos se han elegido de modo que si les restamos el código del carácter «0» obtenemos el nú­ mero binario correspondiente. (Se explican los números binarios en esta misma sec­ ción). Por ejemplo, el código ASCII de «3» es 0110011 y de «0» es 0110000. Restando, tenemos 0000011, que es el número tres en base dos. (El Morse se ajusta un poco a la frecuencia de las letras; así, el código de «E» es más simple que el código de «Q», por ejemplo.)

inteligencia artificial. Una introducción filosófica

102

respuesta es «nada». Las partes de este símbolo compuesto particular carecen de significado. Esto es lo que frecuentemente ocurre también con las palabras comunes. Las tres primeras letras de «animal» no forman un símbolo significativo, y aunque la cadena «mal» aislada, tiene significado no lo tiene en absoluto dentro del contexto «mal». Esto contrasta con el caso de «malhablado», donde el significado del símbolo está «construido» a partir de los significados de las subcadeñas «mal» y «hablado». Un símbolo composicional es un símbolo compuesto que tiene partes significativas, y cuyo significado global está determinado por los significados de esas partes (junto con otros factores, tales como el orden en que aparecen las partes). «Malhablado» es un símbolo com­ posicional, «oso», «vejiga» y el código ASCII para la A no lo son. Las oraciones de los lenguajes naturales son ejemplos arquetípicos de símbolos composicionales. El significado de, por ejemplo, «Juan se emborrachó y se cayó» es, claro está, una función de las palabras componentes. En ausencia de símbolos composicionales, núestros lenguajes ha­ blados y escritos serían oscuros y pobres. Los usuarios de los lengua­ jes composicionales son capaces de construir una cantidad ilimitada de expresiones complejas portadoras de información a partir de un acervo manejable de otras expresiones básicas. La composicionalidad también es valiosa en la computación y los programadores hacen am­ plio uso de símbolos composicionales. Por vía de ejemplo, consideremos un sistema binario para repre­ sentar las relaciones entre los miembros de un grupo de veinte perso­ nas. Las «palabras» básicas del sistema son cadenas de seis bits (estas cadenas básicas no son composicionales). He seleccionado veinte de estas cadenas al azar para usarlas como «nombres» de las personas del grupo. Expresiones nominales 000000 000001 000010

refiere a Jorge . . María . Isabel

La hipótesis del sistema de símbolos

103

Las cadenas restantes se usan para representar relaciones. Expresiones relaciónales lililí 011111 101111 110111 ilio n 111101 lim o

madre de padre de hermano más joven de hermana mayor de tío favorito de jefe de limpiador de cristales de

Usaré el término identificador para una expresión nominal con cualquier número (incluido cero) de expresiones de relación a su iz­ quierda. He aquí algunos ejemplos de identificadores, con sus signifi­ cados. m ili 101111 n u n

000000 000000 000000

Jorge madre de Jorge hermano más joven de la madre de Jorge

Todos los identificadores que constan de más de una cadena son símbolos composicionales (Nótese, de paso, que los identificadores nos pueden llevar más allá del grupo originario de veinte personas. La madre de Jorge puede o no ser uno de los veinte a los que se les asignaron expresiones nominales.) A fin de usar este sistema para representar información (tal como «Isabel es la madre de Jorge» y «la madre de Jorge es la hermána ma­ yor de María») necesitamos un medio de indicar que dos identifica­ dores se refieren a la misma persona. Para esto una convención sen­ cilla es yuxtaponer los dos identificadores. Así, una cadena de la forma «identificador identificador» se entiende como la aserción de que los dos identificadores se refieren a uno y el mismo individuo. Llamemos a las cadenas con esta forma enunciados. (Recordemos que todo identificador termina con una expresión nominal, así que nunca es ambiguo dónde termina el primer identificador y empieza el se-

104

Inteligencia artificial. Una introducción filosófica

gundo.) El siguiente enunciado dice que la madre de Jorge es la her­ mana mayor de María: lililí

000000

110111

000001

Este sistema se puede emplear para construir un número ilimitado de enunciados diferentes. Quizá les apetezca construir los enunciados que representan estos dos hechos. Las respuestas se dan en la nota 4. La madre del jefe de Jorge es el abogado de María. La madre de la madre de Isabel es la hermana mayor del padre de Jorge.

Recursion Como hemos visto, cada identificador es, o bien una expresión nominal simple o bien está compuesto a partir de otros identificadores de acuerdo con la regla: para crear un identificador se coloca una expresión de relación antes de un identificador. Las reglas de este gé­ nero se llaman reglas gramaticales. Las reglas gramaticales especifican los medios permisibles para construir los símbolos compuestos de un lenguaje (o minilenguaje, como el caso presente). La regla gramatical de los identificadores se puede escribir con más claridad como sigue («+» significa «seguido de» y «=» significa «consta de»): identificador = expresión relacional + identificador

Esta regla parece un poco circular, porque los identificadores se definen en términos de identificadores (imaginemos a alguien tra­ tando de explicar lo que significa «ser humano» diciendo que un ser humano es el nacido de un ser humano). Sin embargo, la circularidad contenida en la regla es en realidad inocua. La regla del identificador no nos tiene indefinidamente dando vueltas en círculo. Por el contra­ rio, nos sitúa en una espiral descendente que aterriza en las expresio­ nes nominales. Al final, la regla define los identificadores compuestos en términos de las expresiones relaciónales y las expresiones nomina­ les, y no hay nada circular en eso, pues lo que es una expresión nomi-

4m u i

lililí

ínioi

lililí

oooooo

000010

lim o

110111

oooooi.

011111

oooooo.

La hipótesis del sistema de símbolos

105

nal se ha especificado independientemente (por medio de una lista completa de las expresiones nominales del minilenguaje). La forma habitual de representar la «espiral descendente» que entrañan las re­ glas de este tipo es a través de un diagrama parecido a un árbol inver­ tido (fig. 4.2). Empezando con el identificador de la cabeza del dia­ grama, repetidas aplicaciones de la regla del identificador acaban por conducir hasta una expresión nominal (el diagrama se llama un árbol de descomposición).

F igura 4.2. Recursion

Las reglas gramaticales que, como la regla del identificador, con­ tienen la misma expresión a ambos lados, se llaman recursivas. Se dice que los símbolos construidos de acuerdo con una regla gramatical re­ cursiva tienen una estructura recursiva. Los conceptos de estructura recursiva y de composicionalidad convienen como mano y guante. La recursion se refiere a la forma­ ción de un símbolo a partir de componentes; la composicionalidad se refiere a la formación del significado de un símbolo a partir de los sig­ nificados de sus componentes. La estructura recursiva y la composi­ cionalidad, unidas, dan a un código simbólico binario la capacidad de representar una variedad interminable de información relativa al mundo. Representación de números La mayor parte del interés inicial por los computadores se centró en su potencial matemático y, debido a esto sobre todo, se escribie­

Inteligencia artificial. Una introducción filosófica

106

ron los bits «0» y «1». En los primeros tiempos de la IA fue para los investigadores una ardua lucha desmontar la imagen dominante de que los computadores son «meros mascanúmeros», y tuvieron, que insistir en que las cadenas de bits se pueden usar para representar cualquier cosa, no sólo números. Con la misma intención he dejado para el final el tema de la representación numérica. En la escuela nos enseñan la aritmética en el llamado sistema de base 10. En el sistema de báse 10 hay diez símbolos «no estructura­ dos» o «primitivos», de «0» a «9». Los demás símbolos numéricos se componen a partir de éstos. El sistema de base 10 no es sacrosanto. La tradición nos pudo igualmente haber llevado al sistema de base 12, en el cual hay doce símbolos primitivos: de «0» a «9» y otros dos más, quizá # para el 10 y para el 11. En la base 12, los símbolos compuestos empiezan en el doce en vez de en el diez. Los modernos computadores hacen aritmética en base 2 (aunque algunas máquinas antiguas, por ejemplo la ENIAC, usaban la base 10). La base 2 se conoce también como sistema numérico binario. En la base 2 hay dos símbolos primitivos, y la composición empieza con el número dos. He aquí algunos símbolos del sistema de base 2, junto con los números que representan. Números binarios 0 1 10 11 100 101

cero uno dos tres cuatro cinco

110 111 1000 1001 1010

seis siete ocho nueve diez

La manera de pasar de base binaria a base 10 es pensar que cada bit de la cadena apunta hacia una caja (fig. 4.3). La caja del extremo derecho de una fila siempre contiene un 0 o un 1. La caja siguiente por la izquierda siempre contiene un 0 o un 2. La tercera caja conten­ drá o bien un 0 o bien 22, y la cuarta 0 ó 23. Si hay una quinta caja, contendrá o bien 0 o bien 24, y así sucesivamente hasta acabar con los bits de la cadena. Si un 0 apunta hacia una caja, eso significa que con­ tiene la primera de las dos posibilidades, un 0. Si le apunta un 1, en­ tonces contiene la otra posibilidad. La figura 4.4 muestra cómo se lle­ nan las cajas correspondientes a 1001.

La hipótesis del sistema de símbolos 1

0

107

0

1

FIGURA 4.3, Im agine que cada dígito binario apunta hacia una caja

Finalmente, para obtener el número en base 10 representado por una cadena de bits, basta con sumar los números de las cajas. En el ejemplo la respuesta es, naturalmente, 9. Quizá le apetezca ensayar con un par más de cadenas de bits y averiguar qué números represen­ tan en base 10, 8

0

0

1

FIGURA 4.4. C ada caja contiene un núm ero en base 10

Alternativas a los números binarios La definición general de computador que se dará en la sección 4.5 no menciona los símbolos binarios, y de ningún modo es esencial para el concepto de computación simbólica el uso de un código bina­ rio. Como ya he mencionado, algunas máquinas antiguas usaban el sistema de base 10. Esto requiere diez símbolos primitivos. Se necesi­ tan aparatos de hardware con diez estados distintos para instanciar estos símbolos en la máquina. En comparación con los elementos biestables, estos aparatos son complicados y, por tanto, caros. La re­ lativa simplicidad de la ingeniería de los dos estados es lo que ha con­ ducido a la manufactura de computadores a optar por los símbolos binarios. Las observaciones generales que he hecho en esta sección sobre los códigos binarios valen para cualquier código simbólico que pueda usar un computador. Cualquier código composicional estructurado

108

Inteligencia artificial. Una introducción filosófica

recursivamente es capaz, en principio, de representar cualquier infor­ mación que se pueda enunciar en un lenguaje natural La estructura recursiva y la composicionalidad son las claves de la computación simbólica. Sin ellas no se podría hacer ninguna computación seria. 4.3. Los programas como símbolos Los programas para computadores se escriben en lenguajes de programación que poseen cierta semejanza con una lengua natural (puede que le interese echar un vistazo al programa en BASIC pre­ sentado en la sección 2.1). Sin embargo, en el momento en que el programa entra en la memoria del computador, ha tomado la forma de cadenas de bits. La conversión inicial en bits tiene lugar en el te­ clado del computador, donde, conforme se va tecleando el programa, cada carácter es traducido automáticamente a código ASCII. Después esta versión del programa se reorganiza y recodifica para satisfacer los requisitos de la máquina empleada. Esto lo hace un sistema in­ terno llamado compilador. Una vez compilado el programa, se alma­ cena en la memoria hasta que la máquina recibe la instrucción de eje­ cutarlo. (Los lenguajes de programación parecidos a lenguas naturales, y la conversión binaria automática en el teclado son lujos modernos. Alan Turing y sus colegas tenían que escribir laboriosa­ mente sus programas en notación binaria.) En esta sección pretendo dar la visión que el computador tiene de un programa. Primero escribiré un programa sencillo en un lenguaje de programación parecido al lenguaje natural, y luego mostraré el as­ pecto que tiene el programa cuando ha pasado por el compilador. El programa está escrito en lenguaje ensamblador. Este es un len­ guaje que hace referencia directa a las operaciones fundamentales del computador, tales como comparar y copiar (se dio una lista de las operaciones fundamentales en la sección 4.1). El lenguaje ensambla­ dor difiere considerablemente de los lenguajes de programación más comunes, como LISP, Pascal BASIC, Prolog y Fortran. Éstos, lla­ mados «lenguajes de alto nivel», permiten al programador referirse a secuencias complejas de operaciones fundamentales por medio de instrucciones simples (tales como «multiplicar», «encontrar», «repe­ tir hasta»). Cuando el compilador halla una de estas instrucciones, automáticamente la sustituye por la lista apropiada de operaciones fundamentales. Como el compilador hace esta árida tarea, programar

La hipótesis del sistema de símbolos

109

en lenguajes de alto nivel es mucho menos tedioso que hacerlo en lenguaje ensamblador. La razón de usar aquí lenguaje ensamblador es que los programas escritos con él ponen al descubierto las acciones fundamentales de la máquina. La función de mi pequeño programa es comparar los contenidos de dos registros y luego informar a la persona que está en la terminal de si los registros contienen o no la misma cadena de bits. Si encuen­ tra en ambos la misma cadena, el programa envía el mensaje «SI» a la terminal, y si encuentra cadenas diferentes, envía el mensaje «NO». Antes de presentar el programa explicaré las instrucciones que usa. Comparar Esta operación compara el contenido de dos registros. En la ins­ trucción se incluyen los nombres de los registros (véase la línea 1 del programa). Si los contenidos de los registros son idénticos, la má­ quina escribe un 1 en un registro especial de un bit llamado registro comparación. Si las dos cadenas son diferentes, el registro de compa­ ración se pone a 0. Ramificar Las instrucciones de ramificación son la contrapartida en lenguaje ensamblador de las diversas instrucciones $i-entonce$ que se hallan en los lenguajes de alto nivel. En este capítulo introduciré tres instruc­ ciones de ramificación. La primera es la instrucción de ramificar-en-0 (véase línea 2 del programa). Al encontrar esta instrucción, la má­ quina inspecciona el contenido del registro de comparación. Si en­ cuentra un 1, la máquina simplemente pasa a la línea siguiente del programa. Si encuentra un 0, la máquina salta a la línea cuyo número se cita en la instrucción ramificar. Después describiré los otros tipos de instrucciones de ramificación: ramificación incondicionada y ra­ mificación relativa. La ramificación da al computador la capacidad de elegir entre alternativas (el programa que vamos a examinar «elige» entre decir «SÍ» o «NO»). En el capítulo 7 trata de contestar a la pre­ gunta de si se puede decir que tal elección —cuando es lo bastante compleja—, es libre.

Inteligencia artificial. Una introducción filosófica

no

Sacar como carácter Está instrucción va seguida por el código ASCII de cualquier carácter que sea la salida (véase la línea 3). Convierte la cadena de bits ASCII en un carácter, en la impresora o en cualquier instru­ mento de salida que se esté usando. En la sección siguiente se intro­ duce una instrucción de salida ligeramente distinta; en vez de pro­ ducir un carácter predeterminado, imprimirá lo que contenga un registro especificado (el resultado de un cálculo matemático, por ejemplo). He aquí el programa. 1 Comparar registro 1 registro 2 La máquina compara el contenido de estos registros y pone bien un 0 o bien un 1 en el registro de comparación (1 para la coincidencia, 0 para la no coincidencia). 2 Ramificar-en-0 6 Si el registro de comparación está en 0, la máquina salta las lí­ neas 3, 4 y 5. 3 Sacar-como-carácter 1001111 Éste es el código ASC II de la letra «O», 4 Sacar-como-carácter 1001011 Éste es el código ASCII de la letra «K». 5 Ramificar 8 Ésta es la instrucción incondicional de ramificación. Dice a la máquina que salte las líneas 6 y 7. Sin esta instrucción, la má­ quina imprimiría OKNO. 6 Sacar-como-carácter 1001110 Éste es el código de la letra «N». 7 Sacar-como-carácter 1001111 Éste es el código de la letra «O». 8 Parar Este programa es, desde luego, extremadamente trivial. Podría ser un diminuto paso de un programa que sirviera para algo. Un pro­ grama de IA entraña por lo general cientos de miles de operaciones fundamentales. Cuando el programa pasa por el compilador, todo se convierte en bits, excepto los números de línea, que son desechados. (Los núme­ ros de línea son convenientes, sobre todo para los programadores, y

La hipótesis del sistema de símbolos

m

no los necesita la versión compilada del programa.) Éste es el aspecto del programa una vez compilado. 00000011 00000100 00000101 00000101 00000110 00000101 00000101

00000001

1 10 10101 1001111 1001011 11001 1001110 1001111

Mirando la primera línea del programa compilado, podemos ver que el término «registro 1» ha sido reemplazado por el número bina­ rio 1, y «registro 2» por 10 (que, recordemos, es 2 en binario). La pa­ labra de órdenes «comparar» ha sido sustituida por una cadena de bits, como todas las palabras de órdenes del programa. La tabla si­ guiente da las correlaciones. Operación Comparar Ramificar-en-0 Ramificar incondicionalmente Sacar-como-carácter Parar

Código en bits 00000011 00000100 00000110 00000101 00000001

Como en el caso de los códigos ASCII, las correlaciones son pu­ ramente convencionales. Los diferentes fabricantes de ordenadores usan diferentes códigos binarios para designar las mismas operacio­ nes fundamentales. El programa compilado se almacena también en registros. (Toda la memoria interna del computador consta de registros.) Cada «pe­ dazo» de una instrucción tiene su propio registro5. Así, la primera lí­ nea del programa se almacena en tres registros, y el resto de las líneas 5 A veces se necesitan varios registros para almacenar un solo «fragmento». Por ejemplo, un computador cuyos registros tengan una capacidad máxima de 8 bits habrá de emplear dos registros para emplear el número binario de 9 bits 100001111. La capa­ cidad del registro varía de un computador a otro. Las máquinas pequeñas usan regis­ tros de 8 ó 16 bits, mientras que las más potentes emplean registros de 32 o de 64 bits.

112

Inteligencia artificial Una introducción filosófica

en dos, excepto la última, que sólo necesita uno. Los registros del computador van numerados (como las casas de una calle). El número de un registro es su dirección. Cuando el compilador ha averiguado cuántos registros se necesitan para contener el programa, busca un bloque de memoria del tamaño preciso y almacena el programa. Supongamos que el compilador asigna a nuestro programa los registros 10 a 25. La figura 4.5 muestra el resultado. Si le ha intrigado qué les ha ocurrido a los números de línea del programa correspondientes a las dos instrucciones de ramificación, ahora lo verá claro. El compilador ha reemplazado astutamente el nú­ mero de línea de cada instrucción de ramificación por la dirección bi­ naria del registro que contiene la instrucción a la cual conduce la ra­ mificación. La línea 2 del programa, que originalmente era una ramificación que conducía a la línea 6, ahora es una ramificación que conduce al registro 21 (21 es 10101 en código binario). Igualmente la 10

00000011

11

1

12

10

13

00000100

14

10101

15

00000101

16

1001111

17

00000101

18

1001011

19

00000110

20 21

00000101

22

1001110

23

00000101

24

1001111

25

0000001

línea 1

línea 2

línea 3

línea 4

línea 5

11001 línea 6

línea 7 línea 8

FIGURA 4.5. A lm acenam iento en la m em oria del program a com pilado

La hipótesis del sistema de símbolos

113

línea 5 es ahora una ramificación que conduce al registro 25 (11001 en código binario). Cuando se ejecuta el programa, los símbolos contenidos en estos registros son transferidos, un registro cada vez, a la unidad procesadora central de la máquina. Ésta contiene un registro especial llamado «registro de la instrucción». En la primera transferencia, los símbolos del registro 10 —el código binario de comparar— entran en el regis­ tro de la instrucción. El procesador central está «cableado» para reac­ cionar ante la presencia de este patrón de encendidos y apagados de su registro de instrucciones ejecutando una comparación, y automáti­ camente se llevan a las direcciones de los registros que han de ser comparados los contenidos simbólicos (que se transfieren a otros re­ gistros dentro del procesador central) de los dos siguientes registros. Una vez completada la comparación, se traslada la siguiente instruc­ ción al registro de instrucciones, y así sucesivamente. El procesador central conserva la pista de los programas por me­ dio del contador de programas. La función del contador de progra­ mas es «apuntar» hacia la siguiente carga de símbolos que ha de ser transferida desde un registro. El contador de programas es sencilla­ mente un registro. Contiene una dirección, a saber: la dirección de la siguiente carga de símbolos que hay qüe transportar. Antes de co­ menzar la ejecución, se coloca en el contador la dirección de la pri­ mera instrucción del programa, y después de cada transferencia se aumenta en uno automáticamente la dirección contenida en el conta­ dor. Cuando los símbolos transferidos son instrucciones de ramifica­ ción, cambia el procedimiento. El cableado del procesador central está dispuesto de manera que, si entra en el registro de instrucciones una ramificación incondicional, se transfiere la siguiente carga de símbolos al mismo contador de programas. Estos símbolos son, natu­ ralmente, la dirección binaria del registro que contiene la instrucción a la que conduce la ramificación. En el caso de una instrucción de ramificar-en-0, la transferencia procede de este modo sólo cuando el registro de comparación contiene un 0. Si el registro de comparación contiene un 1, el contador de programas se incrementa en dos, con el resultado de que «apunta» hacia el registro que contiene la siguiente instrucción. Este procedimiento de almacenar programas dentro de la má­ quina en forma de cadenas de bits fue uno de los mayores avances de los primeros años de la informática. Marca la diferencia entre ENIAC, que había que volver a cablear para cada nuevo cálculo, y

114

Inteligencia artificial. Una introducción filosófica

las máquinas como el Mark I de Manchester y el IBM SSEC, que fueron los primeros ordenadores de programa almacenado. 4.4. Un programa de principio a fin El principal objetivo de este capítulo es explicar en qué consiste la computación simbólica. Para facilitarlo voy a mostrar un programa más complicado en lenguaje ensamblador. El programa suma núme­ ros binarios. Examinar el programa tiene tres fines. 1. Presentar otras pocas operaciones fundamentales de manipu­ lación de símbolos. 2. Mostrar cómo se puede «construir» una nueva operación —la adición, en este caso— a partir de operaciones fundamentales. 3. Poner de relieve que la computación consiste en la manipula­ ción de cadenas de símbolos. He aquí las nuevas operaciones fundamentales que usaremos. (Las dos últimas no aparecen en el programa mismo, pero se necesi­ tan en los ejercicios del final de esta sección.) Borrar Elimina el contenido de un registro y lo llena de ceros. El pro­ grama comienza con una serie de borrados para asegurarse de que to­ dos los registros que va a emplear están vacíos. El proceso se conoce como «inicializar» un registro. Salida Envía el contenido de un registro especificado a la impresora (u otro aparato de salida). Entrada Toma una línea tecleada como entrada y la almacena en un regis­ tro especificado.

La hipótesis del sistema de símbolos

115

Comparar-R Es igual que «comparar», salvo porque solamente se comparan los bits situados en los extremos derechos de dos registros especifica­ dos. Si los bits son idénticos, el registro de comparación toma el valor 1, y si son diferentes, el 0. Cambiar Cambia todo lo que hay en un registro especificado un lugar ha­ cia la derecha. El bit del extremo derecho «se cae» y se pierde. Se añade un cero en el extremo izquierdo del registro. Por ejemplo, el resultado de cambiar 0101 es 0010. Escribir Escribir un símbolo especificado en un registro especificado. El símbolo se escribe en el extremo izquierdo, y el resto corre un lugar hacia la derecha. El bit del extremo derecho se cae. Así, el resultado de escribir 1 en un registro que contiene 0000 es 1000. El resultado de escribir 1 por segunda vez es 1100. Cuando el registro ha sido inicializado, los bits que se caen son ceros sobrantes (si está a punto de perderse un bit distinto de los ceros suministrados en la inicialización, el tamaño del registro aumenta, esencialmente añadiendo a la derecha un registro más). Copiar Copia el contenido de un registro en otro (el contenido previo del registro destino se borra automáticamente). La forma de la instruc­ ción es copiar registro x registro y . Sin embargo, la instrucción no co­ pia el contenido del registro x en el registro y. En vez de hacerlo, los símbolos almacenados en los registros x e y se tratan como direccio­ nes de los registros de y en que se copia. Así, si el registro 1 contiene el número 5 (en binario, por supuesto), y el registro 2 contiene el nú­ mero 8, la instrucción copiar registro 1 registro 2 hace que el conte­ nido del registro 5 se copie en el registro 8. Este rodeo se conoce

116

Inteligencia artificial Una introducción filosófica

como direccionamiento indirecto; la ventaja es que el programa puede, mientras está siendo ejecutado, llenar o cambiar las direccio­ nes del origen y el destino de la copia6. Se le pondrá de manifiesto la necesidad de este recurso si es usted lo bastante intrépido para inten­ tar resolver el segundo de los ejercicios del final de esta sección. Ramificar La Rramificación, o ramificación relativa, entraña el direcciona­ miento indirecto. La instrucción Rramificar registro x hace que la máquina vaya a la instrucción cuya dirección se almacena en el regis­ tro x. Puesto que el contenido del registro x se puede modificar du­ rante la ejecución, el programa mismo puede «inscribir» el destino de la ramificación. De esta forma, el programa se puede modificar a sí mismo durante la ejecución. Rramificar se puede, de hecho, «cons­ truir» a partir de copiar y ramificar. (Si quiere intentar la construc­ ción, más avanzada esta sección encontrará algunas pistas). Las reglas para sumar números binarios son mucho más simples que las reglas de nuestro cotidiano sistema de base 10. Como en la base 10, se emplea la idea de «llevarse». Por ejemplo, si estamos ayu­ dando a un niño a sumar 37 y 25, en primer lugar le diremos «Pri­ mero sumas 7 y 5, escribes 2 y te llevas 1, luego sumas 3 y 2 y luego sumas el 1 que te llevabas.» Las reglas para la suma binaria son: 0 más 0 es 0; 0 más 1 és 1; 1 más 1 es 0 y se lleva 1. Puede que le interese comprobarlo con este ejemplo (comience por la columna de la derecha). 1100

+1110 11010 Las dos primeras columnas son simples. La tercera columna pro­ duce que nos llevemos 1. El razonamiento para la cuarta columna procede así: 1 más 1 es 0 y nos llevamos í, luego sumamos el 1 proce­ dente de la tercera columna y nos da 1. Finalmente, el 1 que nos lle­ vamos de la cuarta columna se escribe a la izquierda. 6 Véase nota 19 del capítulo 1.

La hipótesis del sistema de símbolos

117

La parte delicada de diseñar un programa para sumar es tener en cuenta el 1 que nos llevamos. El método más simple es almacenarlo, si lo hay, en un registro de un bit (el de lo que nos llevamos), y usar un conjunto de reglas de adición cuando no nos llevamos nada de la columna anterior, y otra diferente en caso contrario. Los dos conjun­ tos son los siguientes: Conjunto A. Cuando el registro de llevar contiene un 0. 0+0=0 ' 0+1 = 1 y no cambiar el registro de llevar. 1+0=1. 1 + 1 = 1 y cambiar el registro de llevar de 0 a 1. Conjunto B. Cuando el registro de llevar contiene un 1. 0+ 0= 1 0 + 1=0 1+ 0= 0 1 + 1=0

y cambiar el registro de llevar de 1 a 0. y no cambiar el registro de llevar.

El programa (Si estas cosas le sientan mal, no se preocupe y vuele a la siguiente sección.) 1 Borrar 2 Borrar 3 Borrar 4 Borrar 5 Borrar

registro 1 registro 2 registro 3 registro 4 registro 5

Ahora está inicializados todos los registros que necesitará el pro­ grama. Los registros 1 y 2 contendrán los números que se han de su­ mar, y el registro 3 contendrá el resultado. El registro 4 es el registro de llevar. La «casilla» izquierda del registro estará puesta en 1 para indicar que nos llevamos uno. (Las otras casillas del registro no se usarán durante el programa.) El contenido del registro 5 no cambia

118

Inteligencia artificial Una introducción filosófica

nunca. Se usará como «cantidad conocida» en operaciones de compa­ ración. 6 Entrada

registro 1

Se toma del área de almacenamiento temporal del teclado el pri* mero de los dos números binarios introducidos y se sitúa en el regis­ tro 1. 7 Entrada

registro 2

El segundo número va al registro 2. 8 Escribir

1

registro 3

Se inserta un 1 en el extremo izquierdo del registro del resultado. Esto funciona como marcador para separar la respuesta de los ceros colocados en el registro durante la inicialización. 9 Comparar

registro 4

registro 5

Esta línea comprueba qué hay en el registro de llevar. El registro 5, el «registro constante», siempre contiene ceros. El registro 4, el re­ gistro de llevar, contendrá 0 ó 1 en el extremo izquierdo, seguido de una cadena de ceros. Así, si el resultado de la operación de comparar es 1, el registro de llevar sólo contendrá ceros. Si el resultado de la operación es 0, entonces el primer bit del registro de llevar es 1. En la primera ocasión, el registro de llevar sólo contiene ceros. El compu­ tador vuelve a esta línea varias veces en el curso de la ejecución del programa. 10 Ramificar-en-o

22

Cuando hay que llevarse 1, el computador salta al conjunto de instrucciones que comienzan en la línea 22. Cuando no hay que lle­ varse nada, pasa a la línea 11.

La hipótesis del sistema de símbolos I n s t r u c c io n e s

119

pa r a sum ar c u a n d o n o n o s llev am o s n a d a

11 Comparar-R

registro 1

registro 2

El computador necesita saber si los bits de los extremos derechos del registro 1 y el registro 2 son un par de ceros, de unos, o mixto. (Éstos son los bits que están a punto de ser sumados.) Si el resultado de la línea 11 es 0, los dos bits son un par mixto, y la instrucción de ramificar de la línea 12 mueve al ordenador a la línea 17. Si el resul­ tado de comparar-R es 1, los dos bits son iguales. La línea 13 esta­ blece si los dos son unos o los dos son ceros comparando uno de ellos con el bit del extremo derecho del registro constante. 12 Ramificar-en-0 13 Comparar-R

17 registro 1

registro 5

Si el resultado de esto es 0, los bits que hay que sumar son ambos unos, y el computador va a la línea 19. Si el resultado es 1, los dos bits por sumar son ceros, y la línea 15 escribe el resultado de la adición en el registro de resultados. 14 Ramificar-en-0 19 13 Escribir 0 registro 3 Se pone en el registro de resultados el de sumar dos ceros. 16 Ramificar

32

Pasa a la línea 32. 17 Escribir

1

registro 3

Se pone en el registro de resultados el de sumar 0 y 1. 18 Ramificar 19 Escribir

32 0

registro 3

Se pone en el registro de resultados el de sumar dos unos. 20 Ramificar

32

Inteligencia artificial. Una introducción filosófica

120 I n s t r u c c io n e s

pa r a su m a r c u a n d o h a y q u e lle v a r se u n o

Este bloque de instrucciones es igual que el bloque anterior, salvo porque se emplean las reglas del Conjunto B. 22 Comparar~R 23 Ramificar~en-0 24 Comparar-R 25 Ramificar-en-O 26 Escribir

registro 1 29 registro 1 31 1

registro 2 registro 5 registro 3

Se pone el resultado de sumar dos ceros en el registro de resul­ tados. 27 Borrar

registro 4

El registro de llevar se pone a 0. 28 Ramificar 29 Escribir

32 0

registro 3

Se pone en el registro de resultados el de sumar dos unos. No hay cambios en el registro de llevar. En esta fase, el computador ha su­ mado los bits del extremo derecho de los registros 1 y 2. A continua­ ción se realizan dos operaciones de cambiar, expulsando estos dos bits y trasladando el siguiente par que hay que sumar a la posición del extremo dei*echo. 32 Cambiar 33 Cambiar

registro 1 registro 2

Para sumar el siguiente par de bits, el computador debe hacer un bucle y volver a la línea 9. Cada vez que el computador hace un bu­ cle, se suma el par de bits de los extremos derechos y luego se ex­ pulsa. Puesto que cada operación de cambiar introduce un cero por la izquierda, el registro 1 y el registro 2 se llenan de ceros gradualmente, hasta que no queda ninguno de los bits originales. En ese momento el cálculo se ha completado. Antes de enviar el computador a realizar el bucle debemos comprobar si hemos alcanzado esta fase. Se comparan los registros 1 y 2 con el registro constante. Si ambos coinciden con

La hipótesis del sistema de símbolos

121

él, se han sumado todos los bits. Si algunos no coinciden, el compu­ tador vuelve a la línea 9. 34 Comparar 35 Ramificar-en-0 36 Comparar 37 Ramificar-en-0

registro 1 9 registro 2 registro 2

registro 5 registro 5 registro 5

Una vez sumados todos los pares de bits, falta comprobar el re­ gistro de llevar para ver si nos llevamos algo del último par sumado, y, si ése es el caso, poner otro 1 en la izquierda del resultado (situa­ ción que se presentaba en el ejemplo de páginas anteriores). Esto es lo que sucede en las cuatro líneas siguientes. 38 Comparar 39 Ramificar-en-0 40 Ramificar 41 Escribir

registro 4

41 42 1

registro 5 registro 3

En este punto, el registro de resultados no sólo contiene el resul­ tado, sino además el 1 que se insertó como marcador en la línea 8, se­ guido de una cantidad desconocida de ceros que quedan desde la inicialización. Puesto que el resultado se ha ido embutiendo desde la izquierda, el marcador estará inmediatamente a la derecha del resul­ tado. Así, el registro de resultados podría tener este aspecto: marcador resultado

yf

1011011010110000 Ceros que quedan desde la inicialización

La razón de usar el marcador es que los «ceros de cola» suponen una diferencia. 101000 no es el mismo número que 101. En base 10, el primero es 40 y el segundo es 5. (En cambio, los «ceros de cabeza» no significan ninguna diferencia. 101 y 000101 son el mismo número.) Antes de imprimir la respuesta, hay que quitar los ceros de cola, y

Inteligencia artificial. Una introducción filosófica

122

también el marcador. La manera de hacerlo es realizar una serie de cambios en el registro de resultados, comprobando antes de cada cam­ bio si el bit del extremo derecho es 1. Cuando el marcador aparece al final del registro, hace falta un cambio más para librarse de él, y en­ tonces se puede imprimir el resultado. La sección final del programa consiste en un bucle para cambiar todos los ceros de cola, un cambio final para librarse del marcador, y una instrucción de salida. 42 Comparar-R 43 Ramificar-en-0 44 Cambiar 45 Ramificar 46 Cambiar 47 Salida 48 Parar

registro 3 46 registro 3 42 registro 3 registro 3

registro 5

Ejercicios 1. Esbozar las alteraciones que se necesitan para convertir el programa en otro que sume tres números cualesquiera. 2. Diseñar a grandes rasgos un programa que almacene y luego sume cualquier cantidad de números: una lista de tres núme­ ros, de cuatro números, o todos los que sean necesarios7. 7 Este ejercicio es importante desde un punto de vista teórico. Calvin Elgot y Abraham Robinson («Random-Access Stored-Program Machines, an Approach to Programming Languages») han demostrado que expresiones sencillas como xf+x2+xí+...+xn, cuando n puede tomar cualquier valor, no las puede computar una máquina de acceso aleatorio, con programa almacenado, si no emplea el direccionamicnto indirecto, u otra técnica equivalente, para modificar las instrucciones mientras funciona el programa (como el direccionamiento variable de Von Neumann, véase ca­ pítulo 1, nota 19). El resultado de Elgot y Robinson se aplica sólo a máquinas con me­ moria de acceso aleatorio, pero no a máquinas con acceso serial. (Tenemos acceso alea­ torio a los cajones de un archivador: vamos directamente al cajón que queramos. Tenemos acceso serial al contenido de una cinta magnetofónica: para llegar al trozo que deseamos hemos de’pasar los precedentes.) Las máquinas de Turing (capítulo 6) tienen memoria de acceso serial. Una máquina de Turing puede computar expresiones como la precedente sin necesidad de modificar las instrucciones. No todos los comen­ taristas lo tienen claro. Según Herman Goldstine, «una máquina que carezca de la po­ sibilidad de alterar las instrucciones no puede formar [esto es, computar] expresiones tan simples como [x^Xj+Xj+.-.+xJ para valores arbitrarios de n - 1, 2,...» (The Com­ puter from Pascal to Von Neumann, pp. 265-6).

La hipótesis del sistema de símbolos

123

3. Mostrar que Rramificar es redundante, esto es, mostrar que el efecto de la instrucción Rramificar registro x se puede conse­ guir mediante un subprograma compuesto con otras opera­ ciones fundamentales. (La nota 8 da una pista.) El primer ejercicio es fácil; el segundo y el tercero son para gente con el gusanillo. 4.5. Definición de un computador En este capítulo se han descrito varias operaciones fundamentales. Por conveniencia las voy a reunir en una sola lista, junto con otras tres que implícitamente estaban presentes, pero no se han hecho explí­ citas. (Si ha llegado usted hasta aquí directamente desde la sección 4.1, le vendrá bien echar un rápido vistazo a las páginas 109-111 y 114116, donde se describen por completo las operaciones de la segunda y tercera partes de la lista.) Operaciones generales Identificar. La máquina puede identificar los símbolos de cual­ quier lugar. Interpretar. Es la capacidad de interpretar la que permite a la má­ quina ejecutar un programa almacenado. La interpretación se define como sigue: una máquina puede interpretar una cadena de símbolos que nombra una operación, si ha sido diseñada para ejecutar lá opera­ ción automáticamente cuando los símbolos entran en su registro de instrucciones (o un dispositivo equivalente). Por ejemplo, una má­ quina que esté ejecutando el programa de la sección 4.3 impri­ mirá automáticamente una «K» al encontrar los símbolos 00000101 100101 í (línea 4 del programa). Asignar. La operación de asignación asocia una cadena de símbo­ los con una entidad dada. Los símbolos asignados funcionan como un nombre de la entidad. Por ejemplo, se usan símbolos para nom-8 8 Pista: use ia instrucción copiar para almacenar el contenido del registro cuya di­ rección está almacenada en el registro x en una dirección a conocida; haga lo mismo con el contenido de los registros subsiguientes; ramifique en a.

124

Inteligencia artificial. Una introducción filosófica

brar registros, programas y archivos de. datos. La operación de asig­ nación establece una relación de «acceso» entre el nombre y la enti­ dad: una vez que se ha asignado un nombre a, por ejemplo, un regis­ tro particular, la máquina localizará automáticamente el registro cuando encuentra su nombre en una instrucción. Instrucciones específicas Comparar Comparar-R Copiar Borrar Entrada Salida Sacar-como-carácter Cambiar Escribir Operaciones de control Ramificar-en-0 Ramificar incondicionalmente Rramificar Parar9 Sería agradable poder definir un computador como un manipula­ dor de símbolos que funciona realizando las operaciones fundamen­ tales recién citadas. Pero esa definición no sería correcta. El problema es que diferentes diseños y construcciones de computadores usan operaciones fundamentales diferentes. Por ejemplo, un computador podría tener como operación fundamental comparar por la derecha y otro comparar por la izquierda, O en vez de tener una operación es­ 9 En esta lista hay mucha redundancia (véase Newell, A., «Physical Symbol Sys­ tems», sección 4.8). En.el diseño de computadores, la redundancia suele ser una virtud, pues contribuye a la eficiencia. Una máquina que tenga que «construir» cada Rramificar-en-0 o Rramificar a partir de otras operaciones, será más lenta, en igualdad de cir­ cunstancias, que otra máquina que cuente estas operaciones entre las primitivas.

La hipótesis del sistema de símbolos

125

cribir que introduzca símbolos en un registro por la izquierda (como se describe aquí) podría tener una operación análoga que los introdu­ jera por la derecha. Una desviación más básica sería tomar como fun­ damental la suma. En la sección anterior hemos visto cómo se «cons­ truye» la adición a partir de comparar, cambiar, borrar, etc. Si tomamos la adición misma como operación fundamental —esto es, si la máquina está cableada para realizar sumas binarias—, entonces la situación se invierte, y comparar, cambiar y borrar se podrán «cons­ truir» a partir de sumar. La definición que voy a dar hace uso del concepto de equivalen­ cia. Decir que dos máquinas que emplean operaciones fundamentales distintas son equivalentes es, básicamente, decir que sus diferentes operaciones les permiten hacer, al final, las mismas cosas. Puede que una máquina use comparar por la derecha y la otra use comparar por la izquierda, pero al final ambas hacen aritmética, ingeniería aeronáu­ tica, ajedrez, etc. Es conveniente decir, no sólo que las dos máquinas son equivalentes, sino que los diferentes conjuntos de operaciones que usan son equivalentes. Para expresar la idea de equivalencia más formalmente* dos listas de operaciones fundamentales son equivalen­ tes cuando toda computación que se puede realizar usando sólo ope­ raciones extraídas de la primera lista, también se pueden realizar usando operaciones extraídas de la segunda lista, y viceversa. Un manipuladon de símbolos que trabaje realizando las opera­ ciones fundamentales de nuestra lista, o una lista equivalente a ella, se llama un sistema universal de símbolos10. Los términos «compu­ tador de propósito general con programa almacenado» y «sistema universal de símbolos» son intercambiables. Todo computador de propósito general con programa almacenado, desde el último gi­ gante Cray hasta el más humilde portátil, es un sistema universal de símbolos. Los computadores vienen con operaciones fundamen­ tales diferentes y distintas disposiciones internas, trabajan a dife­ rentes velocidades, tienen memorias internas mayores o menores, y están cortados a la medida de entornos más o menos refinados, 10 Una máquina que use las operaciones de la lista y tenga memoria ilimitada equi­ vale a una máquina universal de Turing, (véanse capítulo 6 y Newell, op. cit., sección 3). La demostración de esto consiste, en esencia, en escribir un programa para la máquina que le permita simular una máquina universal de Turing, y escribir un programa para una máquina universal de Turing que le permita simular una máquina que emplee las reglas de la lista.

126

Inteligencia artificial. Una introducción filosófica

pero en el fondo son el mismo tipo de máquina: un manipulador de símbolos. 4.6. La hipótesis Recordemos que decíamos en la sección 3.6 que los procesos de una máquina u organismo son profusamente adaptables si es capaz de hacer cosas como formar planes, analizar situaciones, deliberar, razonar, sacar partido de analogías, revisar creencias a la luz de la experiencia, sopesar intereses contrapuestos, formular hipótesis y contrastarlas con los datos, tomar decisiones razonables sobre la base de información imperfecta, etc., y eso no sólo en los dominios artificialmente simplificados del laboratorio, sino en la plena com­ plejidad del mundo real. He aquí la receta que propone la co­ rriente principal de la IA para construir una máquina adaptable a gran escala: 1. Empléese un código suficientemente rico, recursivo y composicional para representar objetos, acontecimientos, acciones, relaciones, etc., del mundo real11. 2. Construyase una representación adecuada del mundo y sus obras (incluidas creaciones humanas como el lenguaje y el co­ mercio) en un sistema universal de símbolos. Esta «base de conocimientos» constará de estructuras de símbolos vastas e interconectádas. Debe incluir una representación de la má­ quina misma y de sus propósitos y necesidades. Aquí difieren las opiniones de si habrá que «manufacturar» esta gigantesca estructura o si se podrá programar la máquina para que, en gran parte, la aprenda sola. 3. Usar dispositivos de entrada adecuados para formar represen­ taciones simbólicas del flujo de estímulos ambientales que in­ cidan en la máquina.1 11 En la versión tradicional de esta receta, las expresiones simbólicas representan objetos, relaciones, etc., del mundo real, sin mediación de más representaciones. Por ejemplo, en el minilenguaje presentado en la sección 4.2, el identificador 000001 repre­ senta directamente el objeto del mundo real María. También es posible la representa­ ción indirecta. En este caso, las expresiones simbólicas representan directamente otros elementos, que a su vez representan los objetos (etc.) del mundo real. En la sección 10.9 se estudia una versión de la receta con representación indirecta.

La hipótesis del sistema de símbolos

127

4. Disponer que se apliquen sucesiones complejas de las opera­ ciones fundamentales del sistema universal de símbolos a las estructuras simbólicas almacenadas en la base de conocimien­ tos. De eso resultarán otras estructuras simbólicas. Algunas de ellas aparecerán como salida. 5. Esta salida será una representación simbólica de las respuestas conductuales (incluidas las verbales) apropiadas para la en­ trada. Se podrá usar un robot apropiado para «traducir» los símbolos en conducta real. La hipótesis del sistema de símbolos es, sencillamente, ésta: la re­ ceta es correcta. Según la hipótesis, cualquier sistema universal de símbolos con suficiente memoria puede llegar a ser, gracias a una or­ ganización interna, adaptable a gran escala. Si la hipótesis es verda­ dera, un robot cuyas acciones sean el resultado de manipulaciones de símbolos de un sistema universal de símbolos organizado adecuada­ mente será capaz de interactuar con el mundo con el mismo grado de plasticidad, ingenio y propósito que un ser humano (o quizá con un grado mayor). Esta hipótesis con frecuencia le suena a la gente sobremanera ex­ traña. ¿Cómo es posible que pensar consista en el género de cosas que puede hacer un sistema universal de símbolos? Se comprende que un aparato capaz de comparar símbolos, cambiar símbolos, etc., tome la oración «el gato está en la alfombra» y ejecute la hazaña de escribirlo al revés. Pero ¿cómo va a poder semejante aparato entender el signifi­ cado de la oración, o preguntarse si la oración es verdadera, o desear retorcerle el rabo al gato, o...? La extrañeza, sin embargo, no es señal cierta de falsedad. En la ciencia y en las matemáticas hay otras muchas cosas cuya extrañeza nos aturde. Consideremos, por ejemplo, el hecho de que haya algo mayor que el infinito (demostrado el siglo pasado, entre mucha in­ credulidad, por el matemático alemán Georg Cantor).12 O fijémonos en la hipótesis de que el orden temporal de los acontecimientos no es fijo y absoluto, sino que varía de observador a observador. Dos acon­ tecimientos que realmente ocurren al mismo tiempo a bordo de una nave espacial pueden, no obstante, ocurrir real y verdaderamente en 12 Cantor demostró la existencia de un número cardinal mayor que el cardinal del conjunto de los números enteros.

128

Inteligencia artificial. Una introducción filosófica

momentos distintos desde el punto de vista de quienes están en casa en misiones de control. (Esto ha sido una piedra angular de la física desde Einstein). El sentimiento de «cómo diablos» que suscita la hipótesis del sis­ tema de símbolos, ciertamente subraya el hecho de que está muy le­ jos de ser evidente que un computador sea una máquina capaz de pensar. Pero esta extrañeza no debe impedirnos conceder que la hi­ pótesis podría ser verdadera. La hipótesis es una conjetura osada y llamativa. Como la conjetura de que hay vida en otros lugares del Universo, su verdad sólo se puede contrastar mediante un proceso de investigación y de acumulación de datos. Falta mucho para completar este proceso, y en el momento actual nadie sabe si la hipótesis del sis­ tema de símbolos es o no verdadera. Así pues, si alguien está leyendo este libro para averiguar si los computadores pueden o no pensar, temo que lo voy a defraudar. Sin embargo, lo que puedo ofrecer es un examen global de los datos de que disponemos en el momento presente. Esto nos permitirá formarnos nuestro propio juicio sobre la plausibilidad de la hipótesis con relación al conocimiento actual. Este examen comienza en el próximo capítulo. Para redondear éste, me gustaría presentar una versión más fuerte de la hipótesis. 4.7. Realizabiíidad múltiple Hay una distinción importante y bien conocida entre lo que se llaman los tipos y las marcas de los símbolos. ¿Cuántas letras tiene la palabra «ambigüedad»? Diez si la pregunta se refiere a marcas de le­ tras, pero sólo ocho si se refiere a tipos de letras. Las marcas del mismo tipo de símbolo se pueden construir de mu­ chas maneras distintas. En el juego de los puntos y las cruces, por ejemplo, no importa que las marcas de los símbolos se hagan con tinta, tiza o lápiz. No es pertinente la composición química de las marcas. Igual ocurre con las letras. Las marcas del tipo A se pueden hacer casi con cualquier cosa: tinta, azúcar, sangre, humo, y en el caso del código Morse es un pitido breve seguido por uno largo, o un patrón similar de impulsos eléctricos a lo largo de un cable. Las marcas del mismo tipo de símbolo pueden ser tan diferentes como la tinta lo es del azúcar o de los impulsos eléctricos. Esto se resume diciendo que los tipos de los símbolos tienen realizabiíidad multiplex el mismo tipo de símbolo se puede realizar físicamente de cuantas maneras queramos.

La hipótesis del sistema de símbolos

129

A lo largo de los años se ha usado toda una gama de métodos para realizar los símbolos en los computadores: válvulas termoiónicas, tubos de rayos catódicos, tímpanos magnéticos, transistores de silicio y pastillas de arseniato de galio, por nombrar sólo unos cuantos. Desde el punto de vista de la programación apenas importa cómo se realizan físicamente los símbolos. Un programa escrito para una vieja má­ quina de válvulas puede correr igual en un computador moderno. Dos máquinas pueden ejecutar la misma sucesión de manipulaciones de símbolos aunque estén fabricadas con diferentes sustancias y se comporten de maneras muy distintas en el nivel físico. Como señalaba Turing, la realización múltiple de los símbolos implica que un computador no es en esencia un dispositivo eléc­ trico 1314. Los computadores se fabrican con componentes eléctricos sólo porque es práctico y barato. En teoría, los sistemas universales de símbolos se podrían construir de otras muchas maneras, incluso con engranajes, palancas y muelles. No es una posibilidad tan lejana. A principios del siglo pasado, Charles Babbage, profesor lucasiano de matemáticas en Cambridge, diseñó una máquina verdaderamente no­ table, la máquina analítica. Fue el borrador del primer computador programable. Tenía que haber constado de miles de engranajes, ba­ rras, dientes y piñones; si se hubiera completado su construcción, la máquina terminada habría tenido el tamaño y el peso de una locomo­ tora. Pero era demasiado caro y difícil trabájar los componentes con los grados de tolerancia extremadamente finos que exigía el diseño, y, por desgracia, Babbage murió cuando no se había finalizado el mo­ delo prototipo H. El fenómeno de la realizabilidad múltiple abre el camino para una nueva teoría del cerebro y del pensamiento humanos. Quizá el cere13 Turing, A. M., «Computing Machinery and Intelligence», p. 439. 14 Alan Bromley, en «Charles Babbage's Analytical Engine, 1838», ofrece un trata­ miento interesante del visionario proyecto de Babbage. Véase también Lovelace, A. A. y Menabrea, L. F., «Sketch of the Analytical Engine Invented by Charles Babbage, Esq.». Ada Lovelace colaboró con Babbage. Escribió varios programas para la má­ quina. Metropolis y Worlton han escrito sobre el grado en que los iniciadores de la computación electrónica conocían el trabajo de Babbage («A Trilogy of Errors in the History of Computing», pp. 50.3). Se mencionó a Babbage en conferencias de la Moo­ re School (hogar del ENIAC) en 1946 y en Manchester en 1947. «Babbage» era un nombre familiar para todos los que trabajaban en el proyecto ACE de Turing en el La­ boratorio Nacional de Física, en Teddington. Turing, en «Computing Machinery and Intelligence», menciona a Lovelace y a Babbage,

130

Inteligencia artificial. Una introducción filosófica

bro sea una realización orgánica de un sistema universal de símbolos. Puede que el cráneo humano contenga literalmente un computador. La hipótesis fuerte del sistema de símbolos La hipótesis del sistema de símbolos afirma que los computado­ res, tal como se han definido, son capaces de pensar. La hipótesis fuerte del sistema de símbolos afirma que sólo los computadores (en el sentido definido) son capaces de pensar. Según esta segunda hipó­ tesis, ningún artefacto, excepto un computador, será jamás capaz de pensar, y, además, cualquier órgano natural, terrestre o extraterrestre, con capacidad de pensar será, si se inspecciona con detenimiento, un computador. Si hemos de creer esta hipótesis fuerte (y la creen unos cuantos destacados filósofos e investigadores de IA) todas las perso­ nas son computadores15. La mente humana es un sistema universal de símbolos, dice la hipótesis, y, en el fondo, todo pensamiento humano consiste en manipulaciones de símbolos, aunque sin duda el compu­ tador que hay dentro de nuestro cerebro emplea operaciones funda­ mentales muy diferentes de las enumeradas en la sección 4.5, y quizá el código que emplea no es el código binario que usan los computa­ dores manufacturados. En los capítulos 9 y 10 discuto con detalle la hipótesis fuerte del sistema de símbolos.

15 Véanse los artículos de Newell y Simon citados en la nota 1. Otros dos defenso­ res destacados de la hipótesis fuerte del sistema de símbolos son Jerry Fodor {The Language of Thought) y Zenon Pylyshyn {Computation and Cognition).

Capítulo 5 LOS HECHOS

La hipótesis del sistema de símbolos es la conjetura de que se puede programar un computador para que piense. ¿Qué verosimili­ tud tiene esta conjetura? Este capítulo examina los datos. 5.1. Los datos en favor de la hipótesis

El medio más directo posible para suministrar indicios en favor de la hipótesis del sistema de símbolos es programar computadores que efectúen tareas que la gente realiza usando la cabeza, y dar una puntuación baja a las tareas estrictamente especializadas que requie­ ren escasa adaptabilidad a nuevas circunstancias, y una puntuación alta a las tareas más generales que exigen un alto grado de flexibili­ dad. Así, si preguntamos a los investigadores de la IA qué razón hay para creer que su hipótesis es verdadera, la respuesta probable será una lista de los impresionantes éxitos de la IA (algunos de los cuales hemos vislumbrado en el capítulo 2). Deep Thought e Hitech juegan al ajedrez magistralmente. El programa de damas de Samuel no sólo derrota a campeones, sino que aprende en el curso de los enfrenta­ mientos. El Resolutor General de Problemas razona lo bastante para 131

132

Inteligencia artificial. Una introducción filosófica

resolver problemas del calibre del de la Torre de Hanoi o de los Mi­ sioneros y los Caníbales, Sam responde preguntas sobre narraciones con una competencia que, si la desplegara un niño de cuatro años, lle­ naría de orgullo el corazón de su madre. Frump tiene aptitud para producir compendios inteligentes de noticias. Hacker es un programa capaz de escribir programas. El maravilloso Shrdlu puede tomar parte en: conversaciones inteligentes en lenguaje ordinario acerca de su mundo de bloques, formar y ejecutar planes de acción y explicar sus motivos. El Lógico Teórico demuestra teoremas de lógica simbó­ lica que pondrían en aprietos a muchos de los alumnos de mis clases de lógicá. El sistema experto Mycin puede diagnosticar la enferme­ dad de una paciente a partir de sus síntomas y el resultado de los aná­ lisis. Incluso Parry hace un meritorio intento de mantener el tipo en la conversación. Entre los muchos programas de IA no comentados en el capítu­ lo 2 vale la pena ocuparse, en especial, de los siguientes. El programa resolutor de problemas Eurisko, de Douglas Lenat, fue campeón de Estados Unidos en «Traveller», un juego de guerra de las galaxias. El programa competía usando una flota de naves de guerra que había diseñado él solo. La excéntrica flota del programa sacaba partido de las reglas del juego de maneras no convencionales, y era notablemente superior a las flotas diseñadas por los participan­ tes humanos. Lenat mismo echaba una mano que otra en el proceso del diseño, comprobaba periódicamente la tarea del programa y hacía algunas modificaciones aquí y allá. Dice que «los méritos de la victo­ ria correspondían a Lenat y Eurisko en proporciones del 60 y el 40 por 100, respectivamente, aunque lo significativo es que ni Lenat ni Eurisko podrían haber ganado por su propia cuenta» 1(el ultimo pro­ yecto de Lenat, el CYC, se estudia en la sección 5,6). Hay un programa de aprendizaje escrito por Patrick Winston ca­ paz de adquirir un concepto a través de la presentación de casos del mismo12. Tomemos el concepto de arco. El programador presenta al programa diagramas de varios arcos, junto con diagramas de «fraca­ sos parciales», figuras que contienen algunos pero no todos los ele­ mentos de un arco (un «arco» sin agujero en medio, por ejemplo). A partir de estos casos y contraejemplos, el programa abstrae el con­ cepto de arco. No necesita ayuda del programador, quien simple­ 1 Lenat, D. B., «The Nature of Heuristics», p. 242. 2 Winston, P. H., «Learning Structural Descriptions from Examples».

Los hechos

133

mente le dice cuáles son arcos y cuáles no. El programa es capaz de hacer lo mismo con otros conceptos que se prestan a la «geometrización», tales como mesa y pedestal (aunque sólo es capaz de aprender los aspectos geométricos de estos conceptos: nada sabe de los usos de los arcos y las mesas). David Waltz escribió un programa para la visión capaz de inter­ pretar dibujos bidimensionales como escenas tridimensionales3. El programa no se deja desorientar por la presencia de sombras, fractu­ ras, aristas oscurecidas y otras pegas, infranqueables para anteriores programas de visión. Por ejemplo, el programa reconoce los dibujos de la figura 5.1 y se da cuenta de que representan la misma escena con sombras diferentes. Shakey, un robot móvil construido en el Instituto de Investiga­ ción de Stanford, estaba provisto de sensores táctiles y un ojo de tele­ visión4. El robot vivía en varias habitaciones unidas entre sí llenas de bloques de madera desparramados. Cuando se le daba la instrucción de, por ejemplo, trasladar el bloque X desde su posición en la plata­ forma de la habitación «A» hasta un lugar debajo de una ventana, Shakey navegaba hasta la habitációñ «A» desde donde estuviera, so­ pesaba la situación, decidía que necesitaba una rampa para llegar a la plataforma, rodaba rampa arriba, tiraba el bloque al suelo, descendía y llevaba el bloque hasta la posición pedida, todo ello sin interven­ ción humana. Todo este frente de argumentos no basta, desde luego, para esta­ blecer que la hipótesis del sistema simbólico es verdadera; eso sólo lo haría un computador pensante completo y cabal. Los logros conse­ guidos por la IA hasta la fecha no prestan sino cierto grado de apoyo a la hipótesis. ¿Es grande, pequeño o muy pequeño ese grado? 5.2, Los datos en perspectiva

Los indicios son impresionantes, y sin duda obligan a tomar en serio la hipótesis del sistema de símbolos. Pero no nos impresione­ mos demasiado. A pesar del optimismo que rezuma la comunidad de la IA, en mi opinión los indicios son demasiado magros para forzar el menor grado de confianza en la verdad de la hipótesis. 3 Waltz, D. L., «Understanding Line Drawings of Scenes With Shadows». 4 Raphael, B., The Thinking Computer, capítulo 8.

134

Inteligencia artificial Una introducción filosófica

FIGURA 5.1. Las som bras son un problem a para los program as de reconoci­ m iento visu a l ( Tom ado de las figuras 2,1 y 2,2 de W instony P.H ., (ed.} The Psychology o f C om pu ter Vision,)

Los logros de la investigación en IA son escasos, incluso de jue­ gúete, cuando se los compara con la meta global de un computador que opere a niveles humanos de inteligencia en medio de la compleji­ dad no regimentada del mundo real Si sacamos a Shakey de su en­ torno de laboratorio artificialmente simplificado, su actuación estará

Los hechos

135

al nivel de la de un ratón mecánico. Entre las muchas simplificaciones que requiere para funcionar está una llamativa raya de pintura alrede­ dor de la habitación para enseñarle dónde termina el suelo y dónde comienza la pared5. Y Shakey es penosamente lento. Cada movi­ miento individual del robot consume más o menos una hora de tiempo de computación. En realidad le llevó dos días completar la maniobra que hemos descrito en la sección anterior. La mayoría de los investigadores de la IA son, por su parte, bas­ tante cautos en la valoración de los datos que hay hasta el momento. En los años sesenta un investigador hacía notar que veía mucha acti­ vidad, pero pocas señales auténticas de progreso, y en 1984 Douglas Lenat aludía a «décadas de progreso humillantemente lento» en la IA 6. Incluso Marvin Minsky, que en 1967 predecía que «dentro de una generación el problema de crear inteligencia artificial estará sus­ tancialmente resuelto», ahora concede que «el problema de la IA es uno de los más difíciles que jamás ha acometido la ciencia»7. Mucha gente no se deja impresionar en absoluto por los resulta­ dos de la investigación en IA, y cree que el proyecto de la inteligencia en los computadores no va a ninguna parte. Stuart Dreyfus, un cien­ tífico de la computación, ha expresado este punto de vista con una frase tajante: «Las actuales pretensiones y esperanzas de progresar en... fabricar computadores inteligentes son como creer que alguien que está subiendo a un árbol progresa para alcanzar la Luna»8. Su hermano Hubert Dreyfus, filósofo y conocido crítico de la IA, es igualmente áspero en su juicio: «En veinticinco años de investiga­ ción sobre la inteligencia artificial, ésta ha cumplido muy pocas; de sus promesas y no se ha dado ninguna prueba de que se cumplan jamás»9. En esta sección explicaré por qué los programas que hemos visto no son tan impresionantes como pueden parecer de primera impre­ sión. En particular, detallaré las principales limitaciones y debilidades del Resolutor General de Problemas y de Shrdlu. He elegido éstos porque son probablemente los programas de IA más renombrados. 5 Raphael, B., «The Robot Shakey and his Successors», p. 7. 6 Giuliano, V. E., «Comments on a Paper by R. F. Simmons», p. 69; Lenat, D. B., «Computer Software for Intelligent Systems», p. 152. 7 De estas dos afirmaciones de Minsky informa Dreyfus, H. L., y Dreyfus, S. E., Mind Over Machine, p. 78, 8 Dreyfus, H. L., y Dreyfus, S. E., Mind Over Machine, p. 10. 9 Dreyfus, H. L. y Dreyfus, S. E., Ibidem, p. XI.

136

Inteligencia artificial Una introducción filosófica

Pocas personas negarán que todos los programas actuales de IA están seriamente limitados. Las reacciones ante esta falta de progreso varían. Los críticos como los hermanos Dreyfus entienden que la na­ turaleza limitada de los logros actuales es una señal de que la IA está gravemente comprometida. Algunos investigadores de IA que com­ parten esta reacción han optado por abandonar la corriente principal de la IA y han vuelto su interés hacia un nuevo tipo de dispositivo de procesamiento de la información (véase capítulo 10), abandonando los computadores. Sin embargo, un gran número de investigadores permanece fiel a la IA tradicional. Reconocen que el campo de la in­ teligencia de los computadores —como otros muchos campos de la ciencia— tiene una necesidad acuciante de grandes cambios. Pero no encuentran razones para desesperar de que éstos lleguen con el paso del tiempo. El Resolutor General de Problemas La primera versión del Resolutor General de Problemas (GPS, para abreviar) funcionó en 1957, y sufrió mejoras y modificaciones durante una década. En su tiempo, el GPS era una maravilla del mundo de la informática, y con razón. Pero tal es la obra de la histo­ ria que en 1976 Drew McDermott, conocido investigador de la IA, escribía: «En la actualidad, “GPS” es un término insípido que denota un programa para resolver problemas particularmente estúpido. Pero en su origen significaba “Resolutor General de Problemas”, lo cual causó a todo el mundo mucha excitación y distracción inútiles»101. Un rápido vistazo a la forma de operar del programa pondrá de mani­ fiesto los rasgos que provocaron semejantes juicios11. El GPS es lo que se conoce como un analizador medios-fines. Descríbase el objetivo, descríbase la posición inicial, désele una lista de los medios disponibles y el GPS hará ensayos hasta que tropiece con una mañera de usar los medios para alcanzar el objetivo. En el caso del problema de los misioneros y caníbales (descrito en la sec­ ción 2.7), en la posición inicial tenemos tres misioneros y tres caníba­ les en la orilla izquierda del río; la meta es que los mismos personajes 10 McDermott, D., «Artificial Intelligence Meets Natural Stupidity», p. 144. 11 Se encuentran más detalles sobre el programa en Ernst, G. W. y Newell, A., GPS: A Case Study in Generality and Problem Solving.

Los hechos

137

estén en la orilla derecha sanos y salvos, y la lista de medios contiene las dos operaciones «trasladar el bote con x número de misioneros e y número de caníbales desde el lado izquierdo hasta el lado derecho», y «trasladar el bote con x número de misioneros e y número de caníba­ les desde el lado derecho hasta el lado izquierdo» (donde la suma de x e y tiene que ser siempre 1 ó 2, puesto que el bote necesita una per­ sona que reme y su capacidad es de dos). El GPS resuelve el problema ensayando las operaciones de movi­ miento una tras otra, sustituyendo x e y por números, hasta que acaba por encontrar una sucesión de movimientos que conducen desde la posición inicial hasta la meta sin que en ningún momento los caníbales superen a los misioneros (si eso ocurriera, atacarían). Por ejemplo, el movimiento inicial elegido al azar por el programa puede ser llevar dos misioneros al lado derecho. Inmediatamente ocurren acontecimientos indescriptibles en la orilla izquierda. El GPS, el me­ jor táctico por ensayo y error del mundo, lo intenta de nuevo sin in­ mutarse. Lleva un misionero y un caníbal de izquierda a derecha. Ningún diente desgarra la carne, así que el GPS se atiene a este movi­ miento y considera el próximo. Primero comprueba si en la orilla iz­ quierda queda algún caníbal o misionero. Sí, los hay, de modo que no se ha conseguido el objetivo y hay que hacer otro movimiento de iz­ quierda a derecha. Ahora busca el bote. Está en la derecha, así que hay que proceder a un movimiento de derecha a izquierda. Bien, ha­ gamos uno: trasladar el bote con 0 misioneros y 1 caníbal desde el lado derecho hasta el lado izquierdo. ¡Cielos! Borremos eso... Y así sucesivamente. El GPS, lenta y torpemente, se acerca á la meta. Con esto quedará suficientemente clara una de las razones para decir que el GPS es un «programa particularmente estúpido». El mé­ todo de tanteo a ciegas es un último recurso de la desesperación, más que un enfoque inteligente para resolver un problema, y el GPS fue una especie de primer recurso de la desesperación en el intento de crear computadores inteligentes. Pero no hay que ser demasiado duro con el GPS. Como primer barrunto de meta tan lejana, el pro­ grama merece una gran admiración. ¿No usaría usted el tanteo para resolver el problema de los misioneros y caníbales? La técnica de tanteo del programa no es enteramente ciega. Por ejemplo, rechazará un movimiento cuya consecuencia inmediata le deje en una posición que ya ha conseguido eliminar. También incor­ pora diversos procedimientos para impedir que el programa caiga en una senda falsa interminable. El más simple es cortar: abandona cual­

138

Inteligencia artificial. Una introducción filosófica

quier serie de movimientos que excedan una longitud predefinida sin alcanzar la meta. Otro medio importante que emplean los programadores para guiar la búsqueda del programa es incorporar instrucciones relativas a qué movimiento elegir primero cuando hay varias alternativas. Por dar un ejemplo, supongamos que el GPS no está ocupado con misio­ neros y caníbales, sino con la tarea de planear los movimientos que debe hacer un robot para cambiar bloques de sitio. La lista de medios contiene las operaciones moverse, «cogerbloque», «dejarbloque», «llevarbloque», etc. Supongamos que el .robot está sosteniendo el bloque X y se le pide sostener, en vez de éste, el bloque Y. Antes de poder aplicar a Y «cogerbloque», el robot debe hacer dos cosas: libe­ rar su brazo e ir donde está Y. (Estas llamadas precondiciones de la operación «cogerbloque» las pone en el programa el programador. El GPS las buscaría en vez de inventarlas.) ¿Qué hay que hacer primero, moverse o «dejarbloque»? Aquí el programa podría contener la ins­ trucción de que cuando haya que hacer ambas cosas, se intente pri­ mero «dejarbloque», puesto que entonces el brazo del robot estará li­ bre para coger y retirar de su camino los bloques interpuestos que podría encontrar en su movimiento hacia el bloque Y. Habría que abandonar el intento de «dejarbloque» en favor de moverse sólo si dejar el bloque X obstruyera el camino que debe seguir el robot para llegar a Y. La jerarquización previa del orden en que se deben intentar los movimientos alternativos en un conjunto dado de circunstancias se conoce como heurística. Esta es un rasgo vital del GPS y sus autores dedicaron mucho ingenio a diseñar heurísticas que dieran al pro­ grama toda la guía posible en su disección por ensayo y error de un problema. Sin embargo, se complica hasta lo intolerable construir je­ rarquías en el caso de problemas complejos cuyas listas de medios contienen grandes cantidades de operaciones. El GPS está, pues, lejos de ser un resólutor general de problemas. La táctica de ensayo y error del programa, guiada por tablas ingeniosas, pero esencialmente toscas, que le dicen lo que debe hacer, sólo le permiten afrontar los problemas más simples. Hay otra razón por la que el GPS no está a la altura de su título de resolutor general de problemas. Lejos de ser general, sólo puede abordar problemas de un tipo muy especial; a saber, los que siguen la pauta de lograr una meta a partir de una posición inicial He aquí un problema de tipo completamente distinto. Un hombre abandona un

Los hechos

139

refugio en lo alto de una montaña al mediodía y baja una senda hasta otro refugio al pie de la montaña. Al día siguiente una mujer aban­ dona el refugio al pie de la montaña, también al mediodía, y sube la senda del refugio de lo alto de la montaña. ¿Hay alguna hora tal que a esa hora del segundo día la mujer esté en el mismo lugar de la senda en el que estaba el hombre a esa hora del día anterior? No hay nin­ gún medio natural de encajar este problema en el formato de «usa los medios indicados para llegar, a partir de la posición inicial, a la meta». ¿Cuál es la posición inicial? ¿Cuál es el objetivo? ¿Cuáles son los me­ dios? En realidad, pocos de nuestros problemas ordinarios presentan una forma tan neta. Es un hecho que la mayor parte de la solución de los problemas del GPS es del programador y no del programa. (De esto se puede acusar a todos los programas de IA existentes.) Esto ocurre, claro está, por causa de las jerarquizaciones que el programador suministra al GPS para decirle lo que tiene que intentar primero en situaciones en las que son posibles varios movimientos alternativos (como en el caso de «dejarbloque» y moverse). Lo que guía la elaboración de es­ tas jerarquías a menudo complejas es la comprensión que tiene el programador del problema, y su sensación de cómo se puede resol­ ver. El GPS jamás comete un error cuando soluciona el enigma de las torres de Hanoi (como anuncian con orgullo sus autores)12. Pero el mérito no es del GPS, sino de sus creadores humanos, que, en este caso, se las han arreglado para diseñar ordenamientos que le dan al programa una guía perfecta. Simplemente, con dar al programa una descripción clara del objetivo y una lista exhaustiva de los medios, los programadores han concedido al programa los beneficios de la inteli­ gencia humana. Ojalá mis problemas estuvieran definidos con tanta claridad. El programador soluciona los problemas, y no el programa, por una razón más sutil. Tiene que ver con lo que llamaré encontrar una representación del problema. Volvamos al problema de los dos mon­ tañeros. Si usted lo ha resuelto, probablemente lo ha hecho superpo­ niendo los dos viajes, o, en otras palabras, imaginando que las dos personas hacen sus viajes el mismo día. Una vez que nos representa­ mos el problema de esa forma, es fácil ver que las dos personas están obligadas a cruzarse en el camino. Muy a menudo la parte difícil de 12 Ernst, G. W. y Newell, A., GPS: A Case Study in Generality and Problem Sol­ ving, p* 163.

140

Inteligencia artificial. Una introducción filosófica

resolver un problema es dar con una manera buena de representarlo. Lograda una representación útil, es fácil obtener la solución. Una ilustración famosa de esto es el llamado problema del tablero de ajedrez mutilado. Tomemos un tablero de ajedrez común, con sus sesenta y cuatro casillas blancas y negras, y un paquete de galletas rectangulares. Cada galleta tiene el tamaño exacto de dos casillas. ¿Cuál es el menor número de galletas que necesitamos para cubrir las sesenta y cuatro casillas? Exacto, treinta y dos. Ése no es el problema. Ahora supongamos que cortamos dos casillas del tablero, una en una esquina y otra en la esquina opuesta por la diagonal. ¿Se puede llenar el tablero mutilado con treinta y una galletas? Tiene su intríngulis, ¿no? He aquí un «ábrete sésamo» para repre­ sentar el problema. Los dos cuadros cortados tienen que ser del mismo color, pues los cuadros de la misma diagonal son ambos blan­ cos o ambos negros. Supongamos que los dos cuadros que faltan son negros. Cada galleta cubre un cuadro blanco y otro negro, por lo que cualquier disposición de treinta y una galletas esjá obligada a cubrir treinta y un cuadros blancos y treinta y un cuadros negros, ergo la solución del problema es «no». Lo que nos lleva inmediatamente a la solución es representar el problema en términos de los cuadros de cada color que se necesitan para un número dado de galletas, junto con un poco de aritmética trivial. ¿Podría un computador resolver el problema del tablero muti­ lado, excepto mediante una estúpida búsqueda «por la fuerza bru­ ta» dé todas las posibles ordenaciones de galletas sobre el tablero? ¡Quién sabe! Lo cierto es que si una persona consigue encontrar la representación, el computador suministra la aritmética trivial. Apenas es mayor la contribución que hace el GPS a la solución de problemas. Sus programadores le proporcionan una sabia representación del problema y él da palos de ciego hasta que tropieza con una so­ lución Esto resta sentido a la afirmación de que el GPS es un resolutor de problemas. Imaginemos que una programadora viene con una astuta manera de ver matemáticamente el problema de los mon-13 13 Newell y Ernst detallan once representaciones dadas al programa en GPS: A Case Study in Generality and Problem Solving capítulo 6. Para representar el pro­ blema sobre el asesinato de Benito (sección 2.7) de manera que el GPS lo pueda resol­ ver, el programador tiene que considerar las dos frases de Navaja «Soy inocente» y «Todos esos imbéciles que dicen que yo lo hice mienten» como una única oración. (Newell y Ernst no ponen este ejemplo particular.)

Los hechos

141

tañeros: en esta representación, el problema tiene la forma de alcan­ zar una meta a partir de una posición inicial, ambas cosas abstraccio­ nes matemáticas de algún género, pero no obvias. ¿No tendría usted la impresión de que ha sido la programadora, no el programa, quien principalmente ha resuelto el problema? Se dejó de trabajar en el GPS alrededor de 1966. «Tenemos la im­ presión de que hay que dejar descansar a este agregado particular de código IPL-V, pues ya ha hecho su contribución al progreso del co­ nocimiento de los mecanismos de la inteligencia», escribieron Newell y Ernst en la esquela fúnebre del programa14. El crítico Hubert Drey­ fus ha aprovechado el hecho de que se abandonara un proyecto tan importante de la IA. Describe el trabajo sobre el GPS como una «curva que empieza con el éxito, sigue con el optimismo y acaba en el fracaso», y en una revisión pesimista de las perspectivas de la IA ha afirmado que «el abandono del GPS» es «clara evidencia de las dificul­ tades» 15. En mi opinión, sin embargo, este pesimismo está mal enca­ minado. El éxito de un proyecto en una empresa humana completa­ mente nueva se debería medir en términos de lo que se ha aprendido de él. Y del GPS se ha aprendido mucho. Se ha aprendido, lo que no es poco, qué rasgos especiales necesita un lenguaje de programación para IA; lecciones que fueron incorporadas a la familia de lenguajes de procesamiento de información (IPL) que diseñaron los autores del GPS, y, en último íérmino, en el más famoso descendiente de éstos, el LISP (muchos programas de IA están escritos en LISP). Otras leccio­ nes se refieren a la técnica misma de análisis en medios y fines, que se ha usado ampliamente desde que el GPS se convirtió en $u adelantado (por ejemplo, la usa el programa controlador del robot Shakey). Sin embargo, quizá la lección más importante que se puede ex­ traer del trabajo con el GPS es que los programas que no saben mu­ cho no pueden hacer mucho. La idea general que estaba detrás del GPS era que las técnicas de resolución de problemas se pueden sepa­ rar del llamado conocimiento orientado a tareas específicas. Por esto se dio al programa el equívoco nombre de Resolutor General de Pro­ blemas. El GPS es «general» en el sentido de que el programa básico no contiene conocimiento específico para ninguna tarea o problema particulares16. El meollo de un programa inteligente, tal como se con­ 14 GPS: A Case Study in Generality and Problem Solving, p. VII. 15 Dreyfus, H. L., What Computers Can't Do (segunda edición), pp. 96,296. 16 Simon, H., The Shape of Automation, p. 83.

142

Inteligencia artificial. Una introducción filosófica

cebía en los primeros días de la IA, habría de consistir en un gran haz de poderosas técnicas de resolución de problemas: para resolver un problema particular basta con añadir unas briznas de conocimiento pertinente. La experiencia mostró que esta distinción entre técnicas de resolución de problemas y conocimiento es artificial y estéril. Además se hizo patente que resolver problemas auténticos —no sólo acertijos— requiere enormes cantidades de conocimientos. Así, la ex­ periencia con el GPS condujo a resolutores de problemas basados en el conocimiento, como Shrdlu y Mycin. El problema del conocimiento El conocimiento es trabajoso de manipular en un computador. Guardarlo no es difícil: cualquier idiota puede escribir un programa que entierre montones de datos en la memoria. La gracia está en or­ ganizado de manera que se pueda encontrar con facilidad cada ele­ mento. Éste es el primer aspecto de lo que se llama el problema del conocimiento. A modo de ilustración: Tarugo introduce en su compu­ tador el nombre y la dirección de todas las personas residentes en Ciudad de Juguete. Luego intenta recuperar la dirección de Curru­ taco. Puesto que Tarugo ha enterrado los datos en la memoria sin or­ den ni concierto, el computador tendrá que examinar laboriosamente cada entrada hasta dar con Currutaco, un trabajo lento, a menos de tener la suerte de que aparezca pronto. Un plan mucho mejor, por supuesto, es almacenar todos los nombres en orden alfabético, lo que permite al computador ir inmediatamente a la entrada requerida. El conocimiento, pues, ha de ser dispuesto con algún género de orden dentro de la máquina para poder usarlo. Pero ¿en qué orden? No hay ninguna manera manifiesta de organizar un número enorme de hechos diversos. No se puede poner el mundo entero en orden al­ fabético. Éste es el primer aspecto del problema del conocimiento: encon­ trar una manera de disponer vastas cantidades de conocimientos di­ versos. El segundo aspecto del problema del conocimiento es la difi­ cultad de mantener frescas grandes masas de conocimientos: la dificultad de actualizar el almacén de conocimientos. Se supone que la lista de Tarugo representa los residentes de Ciudad de Juguete en todo momento, y los movimientos de la inconmovible Guadaña exi­ gen actualizarla de continuo. En este sencillo caso, la actualización no

Los hechos

143

es muy problemática. Dado que los nombres están ordenados, el computador puede recorrer la lista una y otra vez, borrando las de­ funciones y añadiendo los nacimientos. Lo que es problemático es ac­ tualizar un almacén grande y complicado de elementos interconecta­ dos de información. Para que nos hagamos una idea de la dificultad, imaginemos que inesperadamente nos ofrecen un nuevo empleo en una nueva ciudad. A esto sigue una preparación frenética. Ponemos en venta la casa, buscamos una escuela para los niños, decidimos de qué muebles deshacernos, damos la noticia a los amigos, y otras mu­ chas cosas, en un espectro que va desde trivialidades como cancelar el reparto del lechero hasta volver a plantear algunos de nuestros planes y metas futuros y más queridos. Añadir un solo dato, «cambiar de trabajo», ha requerido innumerables actualizaciones en toda la com­ pleja red de nuestras creencias, planes y perspectivas. Esto ilustra el segundo aspecto del problema del conocimiento: diseñar métodos que permitan al computador rastrear todas las actualizaciones que hay que hacer para permitir que un cambio «fluya» a lo largo de un vasto almacén de información intercónectada. Este aspecto del pro­ blema del conocimiento se llama a menudo problema del marco1718. El tercer aspecto del problema del conocimiento, como el pri­ mero, se refiere a extraer la información del almacén: Dado un pro­ blema, ¿cómo sabe el computador qué clase de información le puede ayudar a solucionarlo? El almacén de conocimientos debe estar orga­ nizado de manera que el computador tenga algún medio de averiguar qué hechos pueden ser pertinentes para cada problema. Este es el problema de la pertinencia. Como dice Minsky: «El problema de se­ leccionar lo pertinente entre la variedad excesiva es clave... Para cada “hecho” necesitamos metahechos sobre cómo se debe usar^y cuándo no se debe usar» 1S. Y luego, por supuesto, hay que organizar estos «metahechos». Que es a lo que íbamos. En la sección 5.6 me ocupo con más detalle del problema del marco y del problema de la pertinencia.

17 El nombre se debe a John McCarthy (McCarthy, J., y Hayes, P. J., «Some Philo­ sophical from The Standpoint of Artificial Intelligence»). 18 Minsky, M., «A Framework for Representing Knowledge», p. 124.

144

Inteligencia artificial. Una introducción filosófica

Micromundos El problema del conocimiento es difícil. En la IA, mucha gente lo considera el problema fundamental. Hasta finales de los sesenta no se empezó a apreciar la centralidad del problema del conocimiento. En los primeros tiempos de la IA se dirigió la atención al desarrollo de técnicas de resolución de problemas aplicables universalmente, la GPS, y el problema del conocimiento quedó más o menos en la peri­ feria. Pasó al centro de la escena cuando los investigadores se dieron cuenta de que la floja actuación de los primeros programas era en parte consecuencia de su escasa hambre de conocimiento. La res­ puesta a este nuevo problema fue enfocar la investigación sobre «mundos» pequeños, simples y artificiales, llamados micromundos, y crear técnicas para organizar el conocimiento relativo a los mismos. Se esperaba que, con el tiempo, las técnicas desarrolladas en la inves­ tigación de micromundos se pudieran generalizar para abarcar el complejo mundo real19. Un micromuhdo clásico es el hábitat de Shrdlu, que consta de una mesa, una caja y unos cuantos bloques de colores. Shrdlu A quien no lo conoce, Shrdlu lo impresiona intensamente, por no decir que lo anonada. La reacción común en el primer encuentro con Shrdlu es «Vaya, éste sí que piensa». Así que empezaré por desinflar Shrdlu un poco. Shrdlu es tan fácil de derrotar como Eliza (cuyo torpe fracaso vimos en el capítulo 3). Mi ejemplo favorito es el de John Haugeland (las intervenciones de Shrdlu van en mayúsculas): Construye una torre. LO SIENTO, NO CONOZCO LA PALABRA «TORRE». Una «torre» es un apilamiento que contiene dos cubos verdes y una pirá­ mide. ENTIENDO. Haz un cambio: la torre por tres cubos rojos. LO SIENTO, NO CONOZCO LA PALABRA «CAMBIO».

19 El manifiesto en favor de la política de los micromundos es de Minsky, M., y Pa­ pen, S., «Progress Report on Artificial Intelligence».

Los hechos

145

Un «cambio» es una libre transferencia de propiedad. LO SIENTO, NO CONOZCO LA PALABRA «LIBRE». Lo siento, pensaba que eras más listo, LO SIENTO, NO CONOZCO LÁ PALABRA «SIENTO»20.

Es un golpe bajo, desde luego, porque obliga a Shrdlu a meterse en asuntos que van más allá de las fronteras del micromundo que ha­ bita. Pero, con más austeridad, incluso en su mundo de bloques, Shrdlu tiene serias limitaciones. Sus datos sobre este mundo son, por así decirlo, esqueléticos. Para Shrdlu «bloque» no significa sino un tipo de cosa cuya posición puede alterar: literalmente nada más21. Si fuéramos Shrdlu y nos preguntaran si los «bloques» son objetos sóli­ dos, pesados o sólo áreas de espacio vacío definidas geométricamente, no podríamos responder. Tendríamos el mismo problema si nos pre­ guntaran si «rojo» es algo que se ve o que se oye o ninguna de las dos cosas (Shrdlu ni siquiera podría, desde luego, entender estas pregun­ tas), A pesar de la apariencia que da en la (llamada) conversación, Shrdlu no tiene ni idea de lo que es un bloque rojo. Sin embargo, los bloques son uno de los temas fuertes de Shrdlu. Su situación es peor con respecto a alguna de las otras palabras que usa con tanta soltura. Consideremos este extracto de la larga entre­ vista reproducida en el capítulo 2.

Yo poseo los bloques que no son rojos, pero no poseo nada que sostenga una pirámide. ENTIENDO. (éStV

La pirámide azul es mía. ENTIENDO. ¿Poseo algo que esté dentro de la caja?

Sí, DOS COSAS: EL BLOQUE AZUL Y LA PIRÁMIDE AZUL. Shrdlu en realidad no tiene ningún dato sobre la relación de poseer. Cuando se le dice que su amigó humano posee algo (por medio de las palabras clave «yo poseo» o «es mío»), Shrdlu simplemente adjudica la etiqueta POSEER: AMIGO o incluso COMIDA: AMIGO a su «representa-

20 Haugeland, J., Artificial Intelligence: the Very Idea, p. 190. He modificado un poco la versión de Haugeland. 21 Winograd, T., Understanding Natural Language, sección 7.

146

Inteligencia artificial. Una introducción filosófica

ción interna» del objeto en cuestión22. La etiqueta ???: AMIGO o in­ cluso COMIDA: AMIGO también serviría. Cuando se le pregunta si un objeto es poseído, el programa sencillamente comprueba si tiene una etiqueta (el dominio manifiesto pero ilusorio que tiene Shrdlu de los términos de color está también basado en esta técnica de programación de etiquetado). En expresión de Herb Simon, «Shrdlu sabe lo que po­ see [él o su amigo], pero no entiende lo que es poseer algo»23. E incluso eso es una manera muy generosa de decirlo. Es una mera metáfora de­ cir que Shrdlu sabe o entiende nada, una metáfora espontánea pero grotesca del tipo discutido al comienzo del capítulo 3. Quizá la crítica más profunda de Shrdlu sea la que se refiere a la contribución, o falta de ella, que ha hecho este programa al avance en la investigación en IA. Cuando apareció el programa, fue saludado como novedad rompedora. Hoy día, sin embargo, hay un acuerdo general en que Shrdlu era, con palabras de su mismo creador, un ca­ llejón sin salida24. El tiempo ha mostrado que Shrdlu era una vía muerta en la búsqueda de la inteligencia artificial: un tour de force es­ pectacular de la programación que, desgraciadamente, no nos ha lle­ vado más allá. Las técnicas que alumbraba el programa no se han aplicado jamás a mundos más amplios y más interesantes. Winograd sugiere que parte de la explicación es la pura compleji­ dad de su programa, que quizá se aproxima a los límites de lo que la mente humana puede manipular25. Ésta es una idea interesante a la que volveré más avanzado el capítulo. Otro aspecto de la explica­ ción es, sencillamente, que los estudios de un micromundo de blo­ ques de colores sobre una mesa no tiene mucho que decir sobre el mundo real. Originariamente se esperaba que los métodos que Wino­ grad usa en ese mundo se pudieran generalizar a terrenos más am­ plios, y ahora está claro que eso no se puede hacer (se aplica la misma crítica al otro programa de bloques que hemos examinado, Hacker). La estrategia de los micromundos ha producido un resultado am­ bivalente. Por un lado, hay frustraciones: programas como Shrdlü y el robot Shakey. Estos programas, aunque actuaban bastante bien en las tareas para las que fueron diseñados, no fueron, a fin de cuentas, comienzos de cosas de más alcance. Por otro lado, ha habido éxitos 22 Winograd, T., Understanding Natural Language, p. 143. 23 Simon, H. A., «Artificial Intelligence Systems that Understand», p. 1061. 24 Winograd, T., «Breaking the Complexity Barrier Again», p. 13. 25 Winograd, T., Ibidem, parte 1.

Los hechos

147

clamorosos: sistemas expertos como Dendral, el analista químico, y Mycin, el diagnosticador médico. Pues los programas expertos son también programas de micromundos, que tienen bastante para mane­ jar sus asuntos con pequeños fragmentos del amplio mundo humano. A pesar del hecho de que los sistemas expertos pueden actuar a ni­ veles casi humanos de pericia, y a pesar del hecho de que han mostrado el camino hacia una nueva área de aplicaciones de los computadores, también hay que considerar estos programas frustraciones en la mar­ cha hacia una máquina que piense. Los sistemas expertos actuales nunca pueden escapar de sus estrechos mundos y entrar en la compleji­ dad del mundo real. No es la estrechez misma la característica frus­ trante. Al fin y al cabo, los santuarios de la fama están llenos de genios humanos que apenas eran capaces de mantener una conversación cohe­ rente o de animar el equivalente renacentista de una cena ante la televi­ sión. La causa de la frustración es más bien que los sistemas expertos actuales son inevitablemente estrechos. Estos programas sólo son via­ bles debido a las drásticas simplificaciones que permite la estrategia de los micromundos. Por definición, el almacén de conocimientos aso­ ciado a un micromundo es pequeño y, en consecuencia, manejable. Las técnicas empleadas en los sistemas expertos para afrontar los temas de la pertinencia y la actualización son simplificadoras y no se pueden usar en dominios más extensos. Además, la programación de sistemas expertos entraña el uso liberal de lo que los programadores llaman «trucos específicos para el dominio», trucos que sacan partido de ras­ gos especiales del problema o situación del caso. Un ejemplo es la re­ presentación del tiempo. Algunos sistemas expertos consiguen evitar cualquier referencia a una dimensión temporal. En sus micromundos todo ocurre en un eterno presente. Si es inevitable la referencia al tiempo, el programador incluirá sólo los fragmentos de estructura tem­ poral absolutamente esenciales para la tarea. Quizá al programa sólo se le diga que si a es anterior a b y b anterior a c, entonces a es anterior a c (una regla que le permitirá tomar pares de enunciados del tipo anterior-a y extraer sus implicaciones: por ejemplo, que el sarpullido del paciente ocurrió antes de la administración de penicilina). El sistema puede no saber nada más del significado de «anterior», ni siquiera que ordena los acontecimientos en el tiempo y no en el espacio26. 26 Está bien avanzada, pero no completa, ni mucho menos, la búsqueda de métodos para programar la estructura temporal en general. Para una visión de conjunto, véase la sección 1 de mi colección Logic and Reality.

148

Inteligencia artificial. Una introducción filosófica

Todavía nadie sabe hacer que los computadores actúen con nada que se asemeje al grado humano de pericia en dominios más amplios y menos ordenados, y ni siquiera si esto es posible. 5.3. Inflar Inflar significa «exagerar, abultar hechos, noticias, etc.»27. Puesto que está en una zona donde la ciencia se convierte con facilidad en ficción, la investigación en inteligencia artificial está especialmente sujeta a que los medios «inflen». No nos engañemos. Los compu­ tadores inteligentes no están a la vuelta de la esquina. La auténtica verdad sobre el progreso actual hacia la construcción de máquinas pensantes ha sido cubierto de una espesa niebla por la prensa, los directores de cine, los autores de libros populares sobre la revolución informática y, no menos, por los anunciantes. Los anuncios de la te­ levisión de microcomputadores personales están, llenos de referencias esplendorosas, pero enteramente falsas, a «terminales inteligentes» y a «software inteligente», mientras que los panfletos publicitarios de una famosa compañía de tarjetas de crédito llegan a decir que sus tar­ jetas compatibles con ordenadores son ¡inteligentes! Es interesante advertir que la imagen, ya olvidada, del computador como un «estú­ pido de alta velocidad» fue también el producto de la publicidad, una imagen que hombres y mujeres del pasado eligieron cuidadosamente para presentar las nuevas máquinas como candidatos ideales para los departamentos de contabilidad y archivo de los clientes potenciales. Los periódicos y revistas lanzan con entusiasmo la imagen del computador como artefacto pensante e inteligente. No hace mucho leí en un periódico local algo sobre «los planes japoneses para crear una máquina humana». Un artículo, especialmente reprobable, de la revista Life tenía el siguiente encabezamiento «Conozca a Shakey, la primera persona electrónica»28. Su autor informa —o más bien desinfórma— al público de que Shakey «demuestra que una máquina puede pensar».. Incluso los suplementos del Times} con su sobriedad habitual, no tienen empacho en imprimir titulares llamativos como 17 Supplement to the Oxford English Dictionary, voL II. (La palabra deriva posible­ mente de «hipérbole».) 28 Brad Darrach, «Meet Shakey, The First Electronic Person», Life, vol. 69, parte 21, 20 de noviembre de 1970,

Los hechos

149

«La comisión de recursos humanos se lanza sobre los computadores inteligentes»29. El antiguo consejo de no creer nunca lo que uno ve en los periódicos parece tener algo más que un grano de verdad, al me­ nos en lo que se refiere a la IA. Sin duda muchas personas están seria­ mente desorientadas por la exposición continua al bulo de que los computadores piensan, o lo harán en breve. Algunos investigadores de la IA no han sentido repugnancia de chapotear en esta inflación. Recordemos la cita con que comienza este libro: «Algunos computadores inteligentes diseñarán otros, y se­ rán más y más listos. La pregunta es: ¿en qué lugar quedamos noso­ tros?... ¿Nos conservarán como mascotas?» La visión del futuro de Ed Fredkin es pura ciencia-ficción. Es inquietante ver que el gerente del laboratorio de IA del MIT se entregue a absurdos vuelos de la fantasía durante una entrevista televisada supuestamente seria. El pú­ blico merece algo mejor. En la misma entrevista Fredkin dijo lo siguiente: «Lo único que se interpone entre nosotros y los sistemas inteligentes es [que] hay unas pocas cosas que aún no sabemos hacer»30. Esto ocupa uno de los lugares de honor en el deporte de la exageración. Habría estado más próximo a la verdad decir que hay unos pocos millones de cosas que no sabemos hacer. Y lo que es más importante, ni siquiera sabe­ mos si esas cosas desconocidas se pueden hacer. La búsqueda de la inteligencia computational puede ser como una alquimia del pre­ sente: la búsqueda de un imposible. La investigación en IA no ha producido aún ninguna indicación firme de que un computador sea el tipo de máquina adecuado para sustentar la cognición artificial. Es triste decirlo, pero incluso los logros de algunos programas reales de IA se han exagerado en el folklore de la disciplina. El pro­ grama de damas de Samuel es un ejemplo. He dicho anteriormente que este programa es un vencedor de campeones. Esto es cierto, y se anuncia con orgullo en toda descripción que he leído del programa31. Pero lo que no se menciona habitualmente es que sus victorias sobre campeones se limitan a una partida con un campeón, que luego ganó al programa seis veces seguidas32. Un artículo periodístico afirmaba 29 The Times Higher Educational Supplement, 10 de octubre de 1986. 30 Better Mind the Computer, BBC TV. 31 Por ejemplo, Samuel, A. L., «Some Studies in Machine Learning Using the Game of Checkers», p. 103-4. 32 Véase Shurkin, J., «Computer Pioneer and his Historic Program still Active at Stanford», p. 4. (Debo esta referenda a Hubert Dreyfus.)

150

Inteligencia artificial. Una introducción filosófica

que este programa «puede derrotar a todos los mejores jugadores del mundo, salvo a unos pocos», y en la misma línea un libro reciente afirma que el programa «finalmente ha alcanzado la condición de ju­ gador de "categoría mundial”»33. No tanto sobre valorado como nonato, se encuentra Hacker, el fa­ moso programa autor de programas de Sussman. Las descripciones populares no mencionan que este programa nunca fue terminado34. No es que Hacker sea una ficción: muchos de sus componentes están escritos y contrastados. Pero nunca existió una versión completa. Se le viene a uno a la memoria la sentencia de Herb Simon: «En el mundo de los computadores, el momento de la verdad es el de ejecu­ tar el programa; lo demás es profecía»35. En un articuló muy citado, Newell y Simon afirman que «la intui­ ción, sabiduría y áprendizaje ya no son propiedad exclusiva de los se­ res humanos: también se puede programar para que muestre estos rasgos cualquier computador de alta velocidad» 36. Entusiasmados con su tema, continúan: «La forma más sencilla de resumir la situa­ ción es decir que en el mundo hay ahora máquinas que piensan, que aprenden y que crean»37. Luego predicen confiadamente lo que sigue: 1. Que dentro de diez años el campeón mundial de ajedrez será un computador digital, a menos que las reglas le impidan competir. 2. Que dentro de diez años un computador digital descubrirá y demostrará un nuevo e importante teorema matemático. 3. Que dentro de diez años un computador digital escribirá mú­ sica que los críticos tendrán por portadora de un considerable valor estético38. Estas predicciones, hechas en 1957 sin más base que algún tosco precursor del GPS, eran verdaderamente audaces. En 1965 Simon 33 Life, 20 de noviembre de 1970, p. 61; Turkle, S., The Second Self, p, 279. 34 Véanse Sussman, G, J., A Computer Model of Skill Acquisition, nota 2, y Minsky, M., «Adaptive Control: From Feedback to Debugging», p. 123. 35 Simon, H. S., The Shape of Automation, p. XV. 36 Simon, H. S. y Newell, A., «Heuristic Problem Solving: the Next Advance in Operations Research», p. 6. 37 Simon, H. S. y Newell, A., Ibidem, p. 8. 38 Simon, H. S. y Newell, A., Ibidem, p. 7.

Los hechos

151

elevó aún más las apuestas: «Las máquinas serán capaces, dentro de veinte años, de hacer cualquier tarea que pueda hacer un hombre»39. Hace tiempo que han pasado los plazos de diez y veinte años y no se ha cumplido ninguna de estas grandiosas predicciones. A los investi­ gadores de la IA esto les divierte más que entristece. Hablando de estos fallidos intentos de anticipar el futuro, dice Marvin Minsky con todo descaro: «Las afirmaciones que se hicieron eran correctas, pienso, por­ que la IA es posible y acabaremos por aprender a hacer máquinas más listas incluso que lo que prometieron las más desenfrenadas especula­ ciones. Pero las estimaciones [temporales] fueron breves.,.»40. Investigadores de IA de todas las nacionalidades han continuado haciendo predicciones dudosas. En 1982, los científicos que trabaja­ ban en el proyecto japonés de la Quinta Generación declararon que hacia 1990 sus computadores poseerían sentido común y serían capa­ ces de entender la conversación humana, con un vocabulario de más de 10.000 palabras41. Sin embargo, la más rica fuente de pronósticos desenfrenados han sido los laboratorios de IA de los Estados Unidos. Hans Moravec, director del Laboratorio Robot Móvil de Carnegie Mellon, ha afirmado recientemente que dentro de cincuenta años se­ rán comunes los robots con inteligencia humana42. «Nosotros, los humanos, nos beneficiaremos de su trabajo durante algún tiempo», dice, «pero tarde o temprano, como los niños naturales, se buscarán la vida mientras nosotros, sus. ancianos padres, desapareceremos en silencio»43. Es difícil asegurar dónde comienza la exageración peregrina y dónde comienza el engaño deliberado. El extracto siguiente procede de un panfleto publicitario distribuido por Cognitive Systems, Inc., una compañía de software fundada por Roger Schank, director de in­ vestigación del laboratorio de IA de Yale. 39 Simon, H. S., The Shape of Automation, p. 96. (Debo esta referencia a Hubert Dreyfus.) 40 Procedente de una entrevista con Pamela McCorduck, recogida en su Machines Who Thinky p. 189. 41 Moto-oka, T., y Kitsuregawa, M., «The Fifth Generation Computer: The Japa­ nese Challenge», pp. 80-1; Moto-oka, T., y otros, «Challenge for Knowledge Informa­ tion Processing Systems. (Preliminary Report on Fifth Generation Computer Sys­ tems)», pp. 27-8. 42 Moravec, H., Mind Children: The Future of Robot and Human Intelligence, p.6.

43Ibid.,p.l.

Inteligencia artificial. Una introducción filosófica

152

Nuestros programas entienden el inglés, no un lenguaje de programación pa­ recido al inglés, sino el inglés coloquial ordinario (o el francés, o el alemán, o el idioma que usted quiera)... Los programas de lenguaje natural de Cogni­ tive Systems son únicos porque son inteligentes... Damos a nuestros progra­ mas el mismo tipo de conocimiento que usa la gente, así que nuestro pro­ grama comprende una oración de la misma manera exactamente que una persona, y responde en inglés ordinario44.

Las predicciones fallidas y las pretensiones exageradas han produ­ cido una grave reacción contra la IA. La revista New Scientist decla­ raba recientemente que «la cantidad de engaños públicos de la IA no tiene paralelo en los anales de los estudios académicos»45. Con un es­ píritu parecido, Hubert Dreyfus ha acusado a los investigadores de la IA de dejación de su deber profesional de poner en claro los límites reales de su conocimiento actual y de los resultados que hasta ahora han logrado46. Estas críticas son bien merecidas; Pero los críticos han de tener cuidado de no echar todo por tierra. El oprobio vertido sobre Newell y Simon por sus famosas predicciones está completamente fuera de lugar. Es lamentable que su artículo, ampliamente citado, haya dado pie a abrigar falsas impresiones sobre la cuantía del progreso real de la investigación en IA. Sin embargo, Newell y Simon fueron perfec­ tamente sinceros sobre el carácter puramente especulativo de sus pre­ dicciones y hablaban de «escudriñar el futuro y predecir su forma»47. Sin duda, los científicos tienen el deber de especular sobre dónde nos puede llevar una innovación técnica importante, teniendo cuidado, por supuesto, de aclarar cuáles de sus afirmaciones son información contrastada y cuáles representan especulaciones honestas, y Newell y Simon tuvieron ese cuidado. Es muy beneficioso que los expertos im­ plicados cataloguen responsablemente las posibles consecuencias de un nuevo desarrollo tecnológico. Lapidar a los investigadores de la IA por hablar del futuro con optimismo excesivo es, en esencia, castigarlos por su entusiasmo vis­ 44 Citado en Winograd, T., y Flores, F., Understanding Computers and Cognition,

p. 128.

45 Roszak, T., «Smart Computers at Insecure Stage», p. 47. 46 Dreyfus, H. L., What Computers Can’t Do (segunda edición), p. 79; Dreyfus, H. L., y Dreyfus, S. E., Mind Over Machine, pp. 13-15. 47 Simon, H. S., y Newell, A., «Heuristic Problem Solving: the Next Advance in Operations Research», p. 9.

Los hechos

153

ceral, Pero sin entusiasmo, la ciencia se abandona. Es bueno que los científicos jóvenes y brillantes lleguen a la IA con la sensación de que todos los problemas principales se resolverán dentro de una o dos dé­ cadas, y cuanto más tiempo mantengan esa ilusión, mejor (es bueno si creemos que la búsqueda de la inteligencia artificial es buena, claro está). Como observador externo, me permito el lujo de creer que el éxito, si llega, no es probable que acontezca en vida de ninguno de los investigadores que trabajan actualmente en la IA, pero si los jóvenes que comienzan sus carreras pensaran así, estarían menos dispuestos a comprometerse. 5.4. Programar el sentido común Esta sección contempla más de cerca el problema del conoci­ miento (presentado en la sección 5.2), pues es uno de los puntos clave de la IA. «El área en que la inteligencia artificial ha tenido mayor di­ ficultad es la programación del sentido común», escribe Terry Winograd, creador de Shrdlu. Y continúa: «Desde hace tiempo se ha reco­ nocido que es mucho más fácil escribir un programa que efectúe operaciones formales abstrusas que captar el sentido común de un perro» 48. El progreso en IA está estancado, al menos de momento. «Probablemente la crítica más aguda del trabajo actual en inteligencia artificial es que todavía no ha conseguido construir modelos de lo que se llama sentido común», dice David Waltz, una figura destacada en el desarrollo de programas de IA. «Hay que crear modelos de la cognición humana sustancialmente mejores antes de poder diseñar sistemas que puedan realizar las más simples de las tareas de sentido común»49. Sólo se puede pasar de los micromundos a la realidad si se pue­ den suministrar a los computadores porciones del vasto almacén de conocimientos del mundo real que los seres humanos usamos para andar por la vida. Sin embargo, la comunidad de la IA todavía no tiene ninguna idea firme para hacerlo, si es que se puede hacer. Este obstáculo para el progreso en el desarrollo de máquinas semejantes a los humanos se conoce como «problema del conocimiento de sen­ tido común». 48 Winograd, T., y Flores, F., Understanding Computers and Cognition, p. 98. 49 Waltz, D. L., «Artificial Intelligence», p. 122.

154

Inteligencia artificial. Una introducción filosófica

Gran parte de nuestro conocimiento de sentido común es tan or­ dinario que apenas nos damos cuenta de que lo tenemos. Los siguien­ tes ejemplos ponen de relieve el grado en que incluso las más simples tareas presuponen una masa de conocimiento trivial pero decisivo. Lea el siguiente pasaje y responda luego las dos preguntas. A Tomás le acababan de dar un nuevo juego de bloques. Estaba abriendo la caja cuando entró Jaime. Pregunta primera: l Quién estaba abriendo la caja? Pregunta segunda: ¿Qué había en la caja?50 Las preguntas son tan fáciles que apenas hay que pensar en ellas. Pero desde el punto de vista de un programador, esta facilidad es ilu­ soria. Intentemos hacer una lista de todas las cosas que necesitamos saber para obtener las respuestas. Generalmente sólo se da un nuevo juego de bloques a una persona. «Estaba» generalmente se refiere a una persona; los bloques no son personas; es habitual que un regalo de objetos pequeños y de forma regular venga en una caja; normal­ mente una persona abre los regalos al momento de recibirlos... ¿A qué refiere la palabra «ellos» en cada una de las oraciones si­ guientes? Los policías rehusaron dar permiso para manifestarse a los estu­ diantes porque ellos temían la violencia. Los policías rehusaron dar permiso para manifestarse a los estu­ diantes porque ellos promovían la revolución51. Adviértase que en la estructura de las oraciones no hay nada que nos sirva de pista, pues sólo difieren en las tres palabras finales, que constan de un verbo en activa, un artículo y un nombre. Entendemos quiénes son «ellos» en cada caso sólo porque traemos a colación una gran cantidad de conocimientos refinados. Y si usted se encuentra en mi situación, le será más difícil tematizar este conocimiento que en el ejemplo anterior. 50 Winograd, T., «Artificial Intelligence and Language Comprehension», p. 10. 51 Adaptado de un ejemplo que da W inograd en Understanding Natural Language, p. 33.

Los hechos

155

Una vez captada la idea de que sabemos una tremenda cantidad de minucias triviales, se nos empiezan a ocurrir ejemplos. Para llegar a un lugar hay que ir en dirección a él (en conjunto); para sobrepasar un objeto primero hay que moverse hacia él y luego alejarse de él; con una cuerda se puede tirar, pero no empujar; empujar algo gene­ ralmente afecta a su posición; un objeto que esté encima de un objeto empujado se mueve generalmente con él, pero no siempre; el agua fluye hacia abajo; los seres humanos generalmente no salen a la calle desnudos, mientras que en circunstancias normales ningún animal no humano lleva ropa; para los seres humanos generalmente es más fácil caminar hacia adelante que hacia atrás; los seres humanos general­ mente hablan con la boca abierta y comen con la boca cerrada; las causas, por lo general, preceden a sus efectos; el tiempo transcurre constantemente y los acontecimientos futuros se convierten en acon­ tecimientos pasados; tener un recortasetos que funcione impide habi­ tualmente desear otro exactamente igual; tener un billete de cinco li­ bras no impide habitualmente desear otro exactamente igual..., etc.52. Los computadores tendrán que conocer una inmensa cantidad de tri­ vialidades para comportarse inteligentemente en el mundo real y, lo que tiene igual importancia, para relacionarse inteligentemente con seres humanos. A veces, cuando intento explicar el problema del conocimiento a personajes de la ciencia de la computación, se encogen de hombros, y dicen cosas como: «Bueno, así que el computador se tiene que tragar una enciclopedia con un buen índice. No es para tanto.» Para apre­ ciar la ingenuidad de esta respuesta basta con echar un vistazo a nues­ tra enciclopedia favorita e intentar desglosar lo que hay que conocer antes de poder entenderla. Quizá el computador se tenga que tragar una enciclopedia de miscelánea, pero esa enciclopedia tendrá que ser inmensamente más refinada que ninguna de las escritas hasta ahora (como veremos en la sección 5.6). La imagen de hacer que el computador «trague» semejante volu­ men incide en los tres difíciles problemas del almacenamiento y recu­ peración de la información. ¿Cómo se organiza esta vasta colección de datos en la máquina? ¿Cómo se actualiza? ¿Cómo se puede hacer que la máquina se entere de qué hechos son pertinentes para cada ta­ rea? Éstos son problemas enormes y no resueltos, y cuando se com52 Muchas'de estas ilustraciones están tomadas de las obras de Minsky, Lenat y H. Dreyfus.

156

Inteligencia artificial. Una introducción filosófica

para su dimensión con los logros de la IA hasta la fecha, éstos pare­ cen ciertamente insignificantes. 5.5. Datos y «saber cómo» Existe la opinión de que el conocimiento se puede representar («capturar») por medio de oraciones o recursos simbólicos semejan­ tes. Llamaré a ese modelo del conocimiento modelo del dato. El mo­ delo del dato es el modelo del conocimiento que los defensores de la hipótesis del sistema de símbolos poseen por lo general (sec­ ción 4.6)53. Sin duda este modelo vale para gran parte de nuestro co­ nocimiento. Por ejemplo, el conocimiento de que las tortillas se ha­ cen con huevos batidos se representa en una enciclopedia de cocina por medio de la cadena de símbolos «las tortillas se hacen con huevos batidos», y en la base de datos de un computador este conocimiento se representaría de manera más o menos similar, pero usando bits en vez de letras latinas. Un supuesto básico de la IA tradicional es que este modelo vale para todo tipo de conocimiento 54. La corriente principal de la investigación está comprometida con la creencia de que cualquier conocimiento se puede programar en un computador bajo la forma de una estructura simbólica que represente la informa­ ción del caso, en el mismo sentido en que la estructura simbólica «le champagne est un vin see pétillant» representa simbólicamente el he­ cho de que el champán es un vino seco burbujeante (las estructuras simbólicas implicadas son denominadas habitualmente datos; de aquí la tenninología «modelo del dato»). ¿Se puede convertir todo el conocimiento humano en datos? ¿Qué pasa con el conocimiento de cómo se hacen las cosas, y en par­ ticular el saber cómo que no se puede adquirir simplemente leyendo un libro; por ejemplo, hacer una tortilla de verdad, o qué expresiones o gestos adoptar cuando nos presentan a un miembro atractivo del sexo opuesto? La respuesta tradicional de la IA es que incluso esos conocimientos se pueden convertir en datos: el truco es usar estruc­ 53 La hipótesis del sistema de símbolos no implica el modelo de los datos: la pri­ mera puede ser verdadera aunque el segundo sea incorrecto. Véase el estudio sobre la simulación de la sección 10.9, 54 Véase Newell, A., y Simon, H. A., «Computer Science as Empirical Enquiry: Symbols and Search».

Los hechos

157

turas condicionales, del estilo de «si ella sonríe, tú sonríe también». Según este punto de vista, la representación de cualquier cuerpo par­ ticular de conocimientos del tipo «saber cómo» consiste en una enorme colección de complicadas reglas condicionales. Éste es, en re­ alidad, el método empleado para programar tal conocimiento en los sistemas expertos. Es demasiado pronto para decir si se puede o no tratar satisfactoriamente el «saber cómo» bajo la forma de datos. Pero no se puede estar seguro55. Fijémonos en un infante humano. Cuando tiene delante el pezón de mamá, se acerca y chupa. ¿Tiene el cerebro infantil almacenada una estructura simbólica del estilo de «si se te acerca lo suficiente un pezón, agárralo y chupa»? Puede, pero puede que no. Puede que tenga mecanismos que le hagan compor­ tarse de la forma descrita en esa oración sin que la oración —ni nada semejante— esté almacenada en su interior56. Mamar es una conducta refleja, pero mi pregunta se aplica tam­ bién a los conocimientos del tipo «saber cómo» aprendidos. Cuando me sale una tortilla perfecta, ¿es porque mi cerebro ha llegado a ad­ quirir un conjunto adecuado de reglas condicionales, que inconscien­ temente sigo, o se basa mi dominio de la sartén y la espumadera en un tipo de mecanismo enteramente distinto? Es cierto que mis accio­ nes se pueden describir mediante oraciones condicionales: si la mez­ cla se empieza a pegar, entonces agito la sartén, etc. Pero de esto no se sigue que mis acciones estén producidas mediante un dispositivo de mi cerebro que escrute listas de reglas condicionales de este tipo (y así es como funcionan los sistemas expertos). He aquí, pues, dos esbozos de lo que podría haber debajo de la actividad de los seres humanos que depende de conocimientos. De acuerdo con el primero, el conocimiento del tipo «saber cómo» está almacenado en nuestro cerebro en forma de datos, e inconsciente­ mente «leemos» las estructuras de símbolos y hacemos lo que nos di­ cen. El segundo es aún más resumido: ese conocimiento no se alma­ cena en nuestro cerebro bajo la forma de datos, sino de otra manera: llamémosla X. Con la ciencia del cerebro aún en su infancia, sólo es­ 55 Para discusiones escépticas de lo que yo llamo modelo del conocimiento de los datos, véanse Winograd, T., «What Does It Mean to Understand Language?», pp. 226-7; Winograd, T. y Flores, F., Understanding Computers and Cognition, capítulos 4 y 8; Dreyfus, H. L., What Computers Can't Do (segunda edición), capítulos 5 y 8. 56 Obsérvese que en esta alternativa también se excluyen los métodos de almacena­ miento, puesto que asimismo son estructuras simbólicas.

158

Inteligencia artificial. Una introducción filosófica

tán apuntadas las teorías de cuál podría ser el método X (el capí­ tulo 10 describe la teoría más reciente). Cada propuesta tiene sus de­ votos apasionados. Sin embargo, es probable que lleve décadas averi­ guar la verdad del asunto. Supongamos que el cerebro usa el método X. ¿Qué consecuencias tendría esto para la hipótesis del sistema de símbolos? Quizá nin­ guna. Puede que el método de los datos ofrezca un medio alternativo de tratar el conocimiento con la misma efectividad, en cuyo caso el cielo seguirá sonriendo a la IA tradicional. Pero puede que el sistema nervioso humano emplee el método X por la poderosa razón de que sea el único método general para almacenar conocimiento que fun­ ciona, y puede que se demuestre que X es algo que es incapaz de ha­ cer un computador. 5.6. El proyecto CYC El CYC (cuyo nombre viene de «encyclopaedia») es en muchos sentidos el proyecto señero de la corriente dominante en IA en la ac­ tualidad. Representa la más dura prueba para la hipótesis del sistema de símbolos y del modelo del conocimiento como datos. El CYC es uno de los pocos proyectos de IA que se toma en serio el problema del conocimiento de sentido común. El proyecto comenzó en la Mi­ croelectronics and Computer Technology Corporation en Texas, en 1984, con una inversión inicial de 50 millones de dólares. Su objetivo es construir una base de conocimientos que contenga una porción significativa del conocimiento de sentido común («realidad consen­ suada») de los occidentales del siglo XX. El jefe del proyecto, Doug Lenat, afirma que a finales de 1994 la base de conocimientos debe contener entre el 30 y el 50 por 100 de la realidad consensuada57. «La mayor parte de la investigación en IA que conocemos está en la actualidad estancada», dice Lenat58. «No creemos que haya ningún atajo para ser inteligente; el “secreto” está en tener montañas de co­ 57 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», pp. 212, 223. 58 Lenat, D. B., y Feigenbaum, E. A., Ibidem, pp. 199. En el texto, las citas de obras conjuntas se atribuyen (por razones de estilo) al autor principal. Las notas a pie de página citan a los coautores.

Los hechos

159

nocimientos»59. Habla con dureza de sus proyectos anteriores AM y Eurisko: En cada nuevo dominio había un revuelo de actividades prometedoras, que tenían como resultado descubrimientos inesperados, seguidos de un periodo de descenso de la productividad, y se caía por último en nimiedades inútiles... A pesar de su relativa riqueza de conocimientos, las limitaciones últimas de estos programas derivaban de su pequeño tamaño... Lo importante es saber si podemos aprender algo, descubriéndolo o porque nos instruyan, si ya casi lo conocemos... Marvin Minsky [ha dicho que] «cuanto más sabemos, más (y más deprisa) podemos aprender». La inversa de esta relación habilitadora es una relación deshabilitadora, y eso es lo que, en última instancia, condenó a AM y a Eurisko: si para empezar no se sabe gran cosa, no se puede esperar aprender mucho y rápido... La IA debe alcanzar un estadio en el que... el aprendizaje empiece a acelerarse gracias a la cantidad de lo ya conocido60.

Lenat compara el problema del conocimiento de sentido común en la IA con «un colchón en la carretera» 61. Bloquea el camino, aun­ que algunos vehículos ligeros hayan encontrado medios pintorescos para rodearlo por la cuneta o campo a través. Estos vehículos ligeros son los sistemas expertos, cuyas bases de conocimiento están hechas a la medida de ciertas tareas específicas. En vez de afrontar directa­ mente los difíciles problemas de la representación del conocimiento, los programadores de'sistemas expertos usan trucos sucios para es­ quivarlos, que sólo son posibles debido a las estrechas ambiciones de los sistemas expertos. Uno de los rasgos bien conocidos de los sistemas expertos es su fragilidad: un pequeño golpe en uno de sus puntos débiles les hace caer. Lenat cree que la fragilidad es un síntoma de falta de conoci­ mientos. [Los sistemas expertos] operan sobre una plataforma elevada de conoci­ miento y competencia hasta que... se precipitan a niveles de ínfima incompe­ tencia. La gente padece también esa dificultad, pero su plataforma es más an­ cha y la pendiente más suave... Puesto que carecen... de conceptos simples del sentido común, los errores de los sistemas expertos parecen ridículos en tér­ 59 Lenat, D B., y Guha, R. V., Building Large Knowledge-Based Systems, p. XVII. 60 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», pp. 202, 203,208. 61 Lenat, D B., y Guha, R. V., Building Large Knowledge-Based Systems, p. 4.

160

Inteligencia artificial. Una introducción filosófica

minos humanos. Por ejemplo, cuando un programa de financiación de co­ ches aprueba un préstamo para un adolescente que escribe que ha estado en el mismo trabajo durante veinte años, o cuando un programa de diagnóstico de enfermedades de la piel concluye que mi oxidado Chevrolet, ya de diez años, tiene sarampión 62; o cuando un sistema médico prescribe una dosis ab­ surda de una droga para una paciente de la Maternidad cuyo peso (80) y edad (35) fueron intercambiados accidentalmente al tomar los datos. Conforme construimos programas cada vez más complejos y los investimos de más po­ der, el humor se disipa rápidamente63.

Una vez que emergen errores semejantes, no se necesitan más que unas pocas líneas de código para asegurarse de que nunca volverán a ocurrir. Sin embargo, lo interesante de Lenat es que no importa con» tra cuántos errores de este estilo protejamos al programa: siempre aparecerán otros. Mantiene que la única solución general es dotar a los sistemas expertos de sentido común64. Su esperanza es que el pro­ yecto CYC culmine en una base de conocimientos que pueda servir de fundamento para futuras generaciones de sistemas expertos (su predicción optimista es que hacia el 2015 nadie «soñará en comprar una máquina sin sentido común, igual que hoy nadie compra un computador personal que no pueda ejecutar hojas de cálculo o proce­ sadores de texto»65). El CYC es un proyecto de gran alcance que entraña codificar a mano unos cien millones de enunciados. Al final de los primeros seis años se había introducido más de un millón de enunciados en la base de conocimientos66. Lenat dice que esta cifra representa «algo me­ nos... del 0,1 por 100... de la realidad consensuada», y estima que lle­ vará varios siglos del trabajo de dos personas llevar esta cifra a los 100 millones de enunciados que cree necesarios para que el CYC co­ 62 Programa: ¿Hay manchas en el cuerpo? Usuario: Sí. Programa: ¿De qué color son las manchas? Usuario: Castaño rojizo. Programa: ¿Hay más manchas en el tronco que en otros sitios? Usuario: No. Programa: El paciente tiene sarampión. (Lenat, D. B., y Guha, R. V., Building Large Knowledge-Based Systems, p. 2). 63 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», pp. 196-7. 64 Lenat, D B., y Guha, R. V., Building Large Knowledge-Based Systems, p. 7. 65 Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 57. 66 Guha, R. V., y Lenat, D. B., Ibidem, p. 54.

Los hechos

161

mience a aprender sólo de forma útil67. En un momento dado pueden estar enroladas treinta personas en el proyecto CYC, todas introdu­ ciendo datos simultáneamente68. Estos suministradores de conoci­ mientos analizan artículos de periódico y de revista, entradas de enci­ clopedias, anuncios, etc., oración por oración. Introducen en la base de conocimientos no sólo lo que se expresa explícitamente, sino tam­ bién, lo que es más importante, los hechos que quien escribe supone conocidos por quien lee. Como ya hemos visto, muchos son de tal naturaleza que sería ofensivo formularlos explícitamente (los seres vi­ vos enferman, el agua fluye hacia abajo, los productos de los procesos industriales son más valiosos que las materias primas, los objetos só­ lidos tienen tendencia a impedir que otros objetos sólidos ocupen el mismo volumen de espacio que ellos...)69. Lenat se desvive por destacar que el CYC no es una simple enci­ clopedia electrónica. Describe el CYC como más bien, «el comple­ mento de una enciclopedia»70. El fin primordial del proyecto es codi­ ficar el conocimiento que cualquier persona o máquina debe poseer antes de poder entender una enciclopedia. La obra de Lenat y sus colegas da testimonio satisfactorio de la re­ ciente aproximación entre la IA y la filosofía. La parte principal de los esfuerzos del proyecto no se ha empleado en introducir datos, sino en áreas que desde hace tiempo han sido interés fundamental de los filóso­ fos: la ontología, la epistemología y la lógica71. No hace mucho era casi una tradición entre la gente que se dedicaba a las ciencias «duras» mo­ farse de estos tres campos implacablemente abstractos de indagación. La sinergia reciente de la IA y la filosofía proporciona otro ejemplo de la retribución repentina e inesperada de la investigación «pura» (¡que tomen nota las instituciones financiadoras!). Lenat presenta el CYC «como la primera incursión de la humanidad en ingeniería ontológica»72. La ontología es la teoría general de lo que hay. Permítanme dedi­ car un párrafo a algunos de los temas ontológicos pertinentes para la 67 Lenat, D. B., y Guha, R. V., Building Large Knowledge-Based Systems, p. 352; Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», pp. 189, 210, 212, 223; Lenat, D. B., y Feigenbaum, E. A., «A Reply to Brian Smith», pp. 232, 233. 68 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», p. 223. 69 Lenat, D. B,, y Feigenbaum, E. A., Ibidem, pp. 197,219. 70 Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 34. 71 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», p. 220. 72 Lenat, D B., y Guha, R. V., Building Large Knowledge-Based Systems, p. 23.

í 62

Inteligencia artificial. Una introducción filosófica

construcción de CYC. Lo que se nota en estos problemas es su prís­ tina dificultad. La cuestión ontológica más fundamental que afrontan Lenat y su equipo es: «¿Qué tipos de objetos hay?» La respuesta que han adop­ tado provisionalmente (y que se ha usado para estructurar el marco de representación de CYC) es: objetos tangibles, objetos intangibles, compuestos (como las personas, que tienen una parte tangible y una parte intangible), acontecimientos y objetos matemáticos 73. La ma­ yoría de los filósofos diría que esta división es demasiado basta. Se necesitan más categorías básicas. La categoría de CYC «objeto intan­ gible» no es más que un cajón de sastre. Contiene, cosas tan dispares como la recesión mundial* los dolores de la gente (puedes tocar «donde duele», pero no el dolor), las galernas del norte, las propias representaciones internas de CYC y el significado de la oración «La guindilla pica». Tampoco está claro que la categoría de acontecimien­ tos pertenezca a esta lista: puede que los acontecimientos no sean en absoluto un tipo de objetos74. Dos objetos diferentes no pueden estar en el mismo lugar al mismo tiempo, pero parece que dos aconteci­ mientos pueden: Alfredo puede simultáneamente saltar el río y huir de la embestida del toro. El reto que este ejemplo contiene implíci­ tamente para quien piense que los acontecimientos son objetos es enunciar lo que llamamos «condiciones de identidad» para los acon­ tecimientos. La afirmación de que los acontecimientos son objetos está en arenas movedizas a menos que se pueda dar una explicación general de las condiciones en que un acontecimiento X y un aconteci­ miento Y cuentan como uno y el mismo objeto (y por tanto, el coro­ lario de las condiciones bajo las cuales cuentan como dos objetos di­ ferentes). (Es un proverbio filosófico que no hay entidad sin identidad.) Pasando a los significados, ¿es verdaderamente un objeto el significado de «la guindilla pica»? Acaso hablar del «significado» de una oración sea simplemente una abreviatura para hablar de otras cosas demasiado complejas y mezcladas para que las mencionemos en el curso de una conversación ordinaria: alguna extraña conexión de vibraciones del aire, marcas sobre el papel y disposiciones de con­ ducta. O quizá el significado de una oración sea un objeto matemá­ 73 Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 41; Lenat, D B., y Guha, R. V., Building Large Knowledge-Based Systems, pp, 172, 175-6. 74 EÍ estudio clásico del lugar ontológico de los acontecimientos es Davidson, D., «The Logical Form of Action Sentences».

Los hechos

163

tico (o lógico) en vez de intangible: el conjunto de los mundos posi­ bles en que la oración tiene el valor de verdad «verdadero», por ejem­ plo. La estación final de este recorrido relámpago por la ontología es Papá Noel. ¿Es un objeto? Si no, ¿de qué podemos estar hablando cuando afirmamos que tiene una barba blanca? Pero si es un objeto, es un objeto inexistente, y qué clase de objeto es ése. ¿Puede haber algo que no exista? 75 Por las mismas razones que el CYC necesita conocer que hacer un trabajo siempre requiere energía, necesita saber cosas tales como si objetos diferentes pueden o no ocupar el mismo lugar al mismo tiempo o si no todos los objetos existen. Es más, la riqueza del es­ quema ontológico de CYC se reflejará en la calidad de las inferencias que pueda extraer de la información que se le da. El CYC necesita poder decir que hay diferencias decisivas en las implicaciones lógicas de las afirmaciones de que Papá Noel tiene barba y que Mariñas tiene barba. Dado el acontecimiento «Juan, lentamente, untó una tostada de mantequilla en la cocina a las seis de la mañana», el CYC debe po­ der inferir que Juan hizo algo76. La epistemología es la teoría general del conocimiento. Los pro­ blemas de la epistemología tienen a menudo la forma siguiente: ¿qué conoces cuando conoces que P (donde P es alguna proposición)? Un área prominente de problemas alude a nuestro conocimiento de las relaciones causales*! ¿Qué es lo que conocemos cuando conocemos que el acontecimiento X causó otro acontecimiento Y? Por ejemplo, ¿cómo hemos de analizar el conocimiento de Alfredo de que la coli­ sión con la bola de billar a fue lo que causó el cambio en la trayecto­ ria de la bola de billar b} La afirmación «X causó Y», ¿enuncia qúe hay alguna clase de conexión necesaria entre X e Y, que el aconteci­ miento X tiene algún género de «gancho», conocido o desconocido, que obliga a que Y suceda? O ¿simplemente enuncia que todos los acontecimientos suficientemente semejantes a X (incluido X) son, de hecho,, seguidos invariablemente por acontecimientos del tipo de Y?77 El segundo análisis es mucho más débil que el primero: es compatible con que las regularidades causales no sean más que coin­ 75 En Proudfoot, D., «Fictional Events», hay una revisión de los intentos de expli­ car satisfactoriamente las afirmaciones que incluyen entidades ficticias. 76 El ejemplo está adaptado de Davidson, op. cit., p. 105. 77 El estudio clásico de este tema es la sección 7 de An Enquiry Concerning Hu­ man Understandings de David Hume.

164

Inteligencia artificial. Una introducción filosófica

cidencias (coincidencias universales, quizá, pero, a pesar de todo, coincidencias). Dentro de unas pocas páginas me ocuparé de si el método que emplea el CYC para representar las relaciones causales es apropiado. Lá lógica es la teoría del razonamiento. El CYC hace uso de una herramienta nueva y poderosa conocida como lógica no monotónica78. Una inferencia es no mono tónica si no es monotónica, y una inferencia es monotónica si sigue siendo válida aunque añadamos cualesquiera premisas. He aquí un ejemplo de inferencia monotónica: Premisa 1: Todos los filósofos tienen cerebro. Premisa 2: Sócrates era un filósofo. Conclusión: Sócrates tenía cerebro. La conclusión se sigue no importa qué premisas adicionales aña­ damos: «Sócrates era griego», «Sócrates tenía una cabeza desusada­ mente pequeña», etc. (Se sigue incluso aunque añadamos la negación de una o de las dos premisas iniciales: «No todos los filósofos tienen cerebro», «Sócrates no era un filósofo». Esto puede parecer difícil de aceptar de primeras. Lo explicaré más adelante, dentro de esta. sección). Una inferencia no monotónica, por el contrario, puede dejar de valer cuando se le añaden premisas. A partir de la información de que Biggies es un ave y las aves vuelan, el CYC debería poder extraer la inferencia de sentido común de que Biggies vuela. Sin embargo, el CYC debe poseer mecanismos que le permitan retractarse de esta conclusión «por defecto» si luego tiene noticia de que Biggies es un kiwi de Nueva Zelanda y los kiwis no tienen alas79. El campo de la lógica no monotónica es el estudio de estos mecanismos. Uno de los mecanismos que se incluyen en CYC se conoce como el sistema de preservación de la verdad, TMS 80. Cada conclusión que obtiene el CYC está «adherida» a las premisas de la que fue derivada. Cuando 78 McCarthy, J., «Circumscription - A Form of Non-Monotonic Reasoning»; McDermott, D., y Doyle, J., «Non-Monotonic Logic I». 79 El ejemplo del ave que no vuela y la propuesta de desarrollar lógicas no monotónicas se deben a Marvin Minsky. 80 Doyle, J., «A Truth Maintenance System». Son términos alternativos para este tipo de mecanismo «sistema preservador de las razones» y «sistema preservador de las justificaciones». (Las tres terminologías están bien difundidas; la de Doyle es la pri­ mera.)

Los hechos

165

el CYC se da cuenta de que ha obtenido una conclusión que está en conflicto con otra obtenida anteriormente, retrocede a las premisas empleadas en cada caso y las vuelve a examinar: «Biggies es un ave» y «las aves vuelan» en el caso de «Biggies vuela», y «Biggies es un kiwi» y «los kiwis no tienen alas» en el caso de «Biggies no puede volar». Cuando el CYC mira la letra pequeña correspondiente a la afirma­ ción «las aves vuelan» ve que sólo es verdadera para las aves típicas, y encuentra el kiwi indicado como ave anormal a este respecto 81. De esta forma, el CYC a menudo es capaz de decidir cuál de las conclu­ siones en conflicto debe retirar. ¿Tendrá éxito el proyecto del CYC? Puede que no. Lenat no le da más que un 50 o un 60 por 100 de probabilidades de éxito (aunque dado que el postulado en que se apoya el proyecto —la hipótesis del sistema de símbolos— es una completa incógnita, hay pocos motivos para tomar en serio ninguna cifra)82. Puede que simplemente la mani­ pulación de símbolos no sea la ruta hacia la inteligencia artificial. Puede que la fragilidad de los sistemas expertos no sea el resultado de su falta de conocimientos, en cuanto tal, sino de la inadecuación del modelo del conocimiento como conjunto de datos. Puede que incre­ mentar los datos en órdenes de magnitud sea como intentar reflotar un barco añadiéndole más lastre. Si el proyecto fracasa, eso puede, se­ gún dice Lenat, «darnos una indicación de si el paradigma simbólico es defectuoso y por qué»83. Pero puede que no lo sea. El proyecto puede fracasar simplemente por la pura dificultad de la tarea, y no iluminamos mucho sobre la verdad o falsedad de sus supuestos fun­ damentales. Las metas específicas que tiene Lenat para el proyecto son las si­ guientes. Primero, aproximarse hacia 1994 al «punto álgido... en que será más económico continuar la construcción de la BC [base de co­ nocimientos] del CYC haciéndole leer directamente materiales (li­ bros de texto, literatura, periódicos, etc.84) y hacerle preguntas sobre ellos que continuar el tipo de “cirugía cerebral” que empleamos en la actualidad»85. Lenat y sus colaboradores parecen confiar en que a fi­ nales de 1994 la mayor parte de los problemas ontológicos y de re­ 81 Guha, R. V., «The Representation of Defaults in CYC». 82 Lenat, D, B,, y Guha, R. V., Building Large Knowledge-Based Systems, p. 21. 83 Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 57. 84 Lenat, D. B., y Guha, R. V., Building Large Knowledge-Based Systems, p. 357. 85 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», p. 212.

166

Inteligencia artificial. Una introducción filosófica

presentación habrán sido resueltos, y los diversos mecanismos de control —para la lógica, la inducción, la analogía, los índices, la ac­ tualización, la búsqueda de información pertinente, etc.— estarán esencialmente completados y no necesitarán después ninguna o poca modificación manual (y lo mismo los diversos mecanismos específi­ cos para funciones tales como el procesamiento del lenguaje). La se­ gunda fase de aprendizaje del proyecto (leer materiales) terminará a finales del 2001, y «culminará en un sistema con un conocimiento de amplitud y profundidad humanas»86. La inteligencia artificial está «a nuestro alcance», asegura Lenat87. Me agrada el activo pragmatismo de Lenat. («Sí, uno se puede sentar durante décadas y lamentar la impenetrable mística del inte­ lecto humano... o puede sentarse e intentar penetrarla... [P]ensamos que nuestras horas de investigación se emplean mejor intentando construir grandes bases de conocimientos de sentido común»88.) Yo también creo que la mejor manera de averiguar cómo —y cómo no— se construye una gran base de conocimientos es ponerse manos a la obra e intentar construir una; estoy seguro de que el proyecto del CYC remunerará el dinero invertido con diversas contrapartidas tec­ nológicas. Pero hay que evitar las grandes predicciones. El problema del conocimiento de sentido común,, con los problemas que contiene de ontología, epistemología y control, es, con mucho, el más duro qué ha afrontado jamás la ciencia de la computación. Puesto que Le­ nat cree que en esta fase del proyecto están más o menos completos los preparativos ontológicos y epistemológicos, ahora pone su aten­ ción en la tarea ciclópea de introducir conocimientos (esto es, teclear los datos). Quita importancia a la inquietud de que el CYC puede ne­ cesitar refinadas estructuras de control y métodos de razonamiento ahora desconocidos, e insiste en que sólo se ha de invertir en esos te­ mas un 20 por 100 del esfuerzo89. En mi opinión, Lenat se equivoca. En la detallada crítica del CYC que sigue sugiero que se ha dedicado a estos asuntos una atención insuficiente. No sostengo, ni mucho mer nos, que no se puedan resolver, con tiempo y esfuerzo, los problemas específicos que describo. Pero afirmo que la idea de producir «un sis­ u Lenat, D. B,, y Feigenbaum, E. A., «On the Thresholds of Knowledge», p. 224. 87 Lenat, D. B., y Feigenbaum, E. A., Ibidem, p. 188. 88 Lenat, D. B., y Feigenbaum, E. A., «Reply to Brian Smith», pp. 236, 241. 89 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», p. 192. Lenat, D. B., y Feigenbaum, E. A., «Reply to Brian Smith», p. 234.

Los hechos

167

tema con un conocimiento de amplitud y profundidad humanas» a principios del próximo siglo no es más que un absurdo. La inteligen­ cia artificial, en la actualidad, no está a nuestro alcance. Ontología Lenat informa de que los cinco primeros años del proyecto los emplearon principalmente en el problema de diseñar una ontología adecuada de la que colgar el marco representacional de CYC90. Este respetable esfuerzo, en mi opinión, apenas ha arañado la superficie. Sin embargo, el 2001 está a la vuelta de la esquina; como dice Brian Cantwell Smith, colega y crítico de Lenat: «No es tanto que (el equipo CYC) piense que la ontología ya está resuelta, como que pro­ pongan realizar, en un periodo de tiempo relativamente modesto, lo que a otros ha ocupado sus vidas enteras»91. Como es de prever, las soluciones adoptadas por el equipo CYC para los problemas ontológicos son a menudo precipitadas. He aquí un caso. ¿ Qué es una sustancia? ¿Qué tipo de cosa es una sustancia? La respuesta de Lenat, incor­ porada en la ontología del CYC, es que una sustancia es el conjunto (o colección) de todas sus instancias. Tomando, pues, un ejemplo es­ pecífico, se afirma que la sustancia oro es el conjunto de todas las ins­ tancias particulares de oro que hay (pepitas, anillos, gargantillas, dientes, etc.)92. Esta propuesta tiene varias dificultades serias. 1) Un pedazo de mena aurífera puede contener más cuarzo que oro. ¿Cuenta este pedazo de mena como una instancia de oro? Cual­ quier respuesta, sí o no, conduce a dificultades. Si sí, entonces el pedazo debe también contar como una instancia de cuarzo. Por tanto, el pedazo es miembro del conjunto de todas las instancias de oro y del conjunto de todas las instancias de cuarzo. Así que la sus­ tancia oro y la sustancia cuarzo se superponen. Pero esto no debería ocurrir: el oro y el cuarzo son dos sustancias enteramente distintas. 90 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», p. 220. 91 Smith, B. C , «The Owl and the Electric Encyclopaedia», p. 255. 92 Lenat, D. B., y Guha, R. V., Building Large Knowledge-Based Systems, p. 156 y ss.

168

Inteligencia artificial. Una introducción filosófica

En efecto, si ocurriera qüe todas las instancias de oro contuvieran algo de cuarzo, y viceversa, entonces la propuesta de Lenat estimaría que el oro y el cuarzo son la misma sustancia. Si no, entonces el pe­ dazo no participa del conjunto de instancias del oro. Así, la sustancia oro y el pedazo de mena serían ajenos. Moraleja: la sustancia oro no se puede identificar con el conjunto de todas las instancias de oro. 2) Una persona o empresa puede poseer los derechos de manu­ factura sobre una sustancia, pero es absurdo decir que se pueden po­ seer los derechos de manufactura sobre un objeto matemático como un conjunto. (Como dice Lenat en otro contexto, «los conjuntos son cosas intangibles, imperceptibles, son construcciones matemáti­ cas» 95). 3) Algunas sustancias son más valiosas que otras, pero parece absurdo decir que algunos conjuntos son más valiosos que otros. Le­ nat no puede escabullirse de esta y otras objeciones similares insis­ tiendo en que «la sustancia oro es valiosa» significa realmente «todo miembro del conjunto de las instancias de oro es valioso». La razón es que estas dos oraciones tienen implicaciones lógicas diferentes. La oración «la sustancia oro es valiosa» implica que si mi cubo hubiera sido de oro habría sido valioso. Puesto que mi cubo no es de oro, no es un miembro del conjunto de las instancias del oro, de modo que la oración «todo miembro del conjunto de las instancias de oro es va­ lioso» no implica nada sobre mi cubo. Por tanto, las dos oraciones no pueden ser de significado equivalente. Espero que Lenat eludiría la desesperada medida de intentar incluir el «objeto contrafáctico» micubo-habiendo-sido-de-oro del conjunto de objetos que se supone constituyen la sustancia oro. De lo contrario, ya no podría afirmar que toda instancia de oro se funde a 653° C, o tiene una densidad de 8,3. ¿Por qué debería tener mi-cubo-habiendo-sido-de-oro el mismo punto de fusión que las instancias reales de oro? Sin duda habrá si­ tuaciones contrafácticas en que el oro —ese metal maleable, dúctil, soluble en agua regia y de peso atómico 179— tiene un punto de fu­ sión de 652° C (igual que hay situaciones contrafácticas en las cuales usted tiene un centímetro más de estatura o el cabello de diferente color). 4) Las sustancias devienen. Tomemos los elementos creados ar­ tificialmente. Antes de este siglo no había, por lo que sabemos, nin-93 93 Lenat, D. B., y Guha, R. V., Building Large Knowledge-Based Systems^ p. 181.

Los hechos

169

guna sustancia einsteinio. Sin embargo, los conjuntos son intempo­ rales, no vienen a la existencia ni dejan de existir. Como dice el mismo Lenat, los conjuntos «viven por siempre en el universo platonico»94. 5) Los conjuntos se pueden multiplicar (podemos formar el lla­ mado producto cartesiano de cualesquiera dos conjuntos), pero pa­ rece absurdo decir que se pueden multiplicar dos sustancias. 6) El número de objetos de un conjunto (la cardinalidad del conjunto) es una de las propiedades esenciales del conjunto: esencial en el sentido de que si el número fuera diferente no sería el mismo conjunto, sino un conjunto diferente. El número de instancias del oro no es, sin embargo, una propiedad esencial de la sustancia oro. La oración «él oro habría sido una sustancia diferente si hubiera habido una cosa de oro más que las que de hecho hay» es falsa, pero es ver­ dad qué si hubiera habido más cosas de oro, entonces el conjunto de las instancias de oro habría sido un conjuntó diferente. 7) Los conjuntos son idénticos si tienen el mismo número de miembros. Supongamos que (por un acto divino) todo el oro del uni­ verso dejara de existir excepto mis dientes de oro* Supongamos ade­ más, en aras de la simplificación, que todos mis dientes son de oro. Según la propuesta de Lenat, la sustancia oro es el conjunto de las instancias de oro. Así, puesto que ahora es el caso que el conjunto de las instancias de orb es el conjunto de mis dientes, tenemos el resul­ tado de qué la sustancia oro y el conjunto de mis dientes son una y la misma cosa. Esto no es plausible —menos aún si reflexionamos en el hécho de que en ese caso la oración «La sustancia oro solía tener más instancias que ahora» dice ni más ni menos que el conjunto de mis dientes solía tener más instancias que ahora. Mientras el tamaño de la base de conocimientos esté por debajo del 0,1 por 100 de la realidad consensuada, es muy probable que las simplificaciones y errores de la ontología del CYC no se pongan de manifiesto éii la actuación* Sin embargo, si los filósofos tienen razón en destacar la importancia de una ontología correcta, entonces, con­ forme crezca en tamaño la base de conocimientos, los errores, indu­ dablemente, perturbarán la actuación del CYC. Como dice Lenat en un extracto de su proyectado Manual del ingeniero ontológico: «En cualquier base de conocimientos, y para cualquier agente inteligente, 94 Lenat, D. B., y Guha, R. V., Building Large Knowledge-Based Systems, p. 159.

170

Inteligencia artificial. Una introducción filosófica

es esencial hacer las distinciones adecuadas para poder organizar y abarcar la complejidad del mundo real»95. C a u s a l id a d

El método que se emplea en el CYC para representar las afirma­ ciones causales, afirmaciones de la forma «X causa Y», es muy sim­ ple: la aserción de que X implica y recibe una etiqueta con el símbolo «causal». La forma de CYC de representar el enunciado de que X es la causa de Y: Causal (X 3 Y)96 iremos al museo es «si llueve, entonces iremos al museo». Por tomar un ejemplo par­ ticular, el hecho de que la gasolina tenga agua causa que el motor fa­ lle. Se representa así: Causal (hay agua en la gasolina z> el motor falla). Démonos cuenta de que la implicación etiquetada causal (X z> Y) indica dos cosas: i) «X z>Y» es verdadero, y ii) «X 3 Y» es un enunciado causal97. 95 Lenat, D. B., y Guha, R. V., Building Large Knowledge-Based Systems, p. 149. 96 Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 47; Guha, R. V., «The Representation of Defaults in CYC», p. 5. «Causal» es metalingüxstico. Lenat y Guha prefieren registrar explícitamente esto en su notación mediante el empleo de co­ millas. Así, escriben: causal («x z> y»). 97 Por motivos de simplicidad, aquí trato «causal» como una especie de operador modal. Lenat y Guha (op. cit.) prefieren recoger la afirmación de que la implicación material es verdadera mediante un elemento sintáctico más. Así, «es verdad que X causa Y» lo representan como: ( X d Y)& causal («X z> Y»). La abreviatura que em­ plean para el contexto completo es «(causa X Y)».

Los hechos

171

La etiqueta «causal» no es más que un marcador o pegatina. Quienes suministran conocimientos etiquetan ciertas implicaciones de la base de conocimientos con «causal» igual que ciertos objetos del mundo de Shrdlu tienen las etiquetas «rojo», «verde» y «azul». (Shrdlu, recordemos, no capta en absoluto lo que significan los tér­ minos de color; en la jerga carece de semántica para los términos de color.) Ya he indicado que el problema de qué significa «X causa Y» es uno de los más difíciles de la epistemología. Hay varias respuestas provisionales en la plaza. El CYC no tiene ninguna respuesta, sólo etiquetas. El CYC no tiene una semántica para el término «causal». Por tomar una analogía, podría definir un «enunciado general» como una oración que contiene la palabra «todos» o la palabra «cada». Equipado con este criterio, alguien que no conociera la len­ gua podría seleccionar los enunciados generales aunque no tuviera ni idea de qué significan las palabras «todos» ni «cada». Similarmente, el CYC puede (a veces) decir si una implicación es causal con sólo com­ probar si está o no etiquetada. Este método para representar la causalidad tiene diversas debili­ dades. La más grave surge del hecho de que si Y es verdadero, enton­ ces la implicación X d Y es verdadera, con independencia de si X es verdadero o falso (y con independencia incluso de si es relevante para Y). Esta curiosa propiedad de la implicación material se puede encon­ trar en la tabla de ia nota98 (esta tabla de verdad es la definición se­ mántica de la implicación material). Así, las dos implicaciones si­ guientes son ambas verdaderas porque es verdad que usted, en algún momento, morirá: Listed lee otro libro de filosofía Z) usted morirá. Usted no vuelve a leer otro libro de filosofía z> usted morirá. Consideremos el hecho de que un coche que pase por encima de una alubia hervida causará que la alubia se aplaste, y tomemos una 98 La tabla de verdad de o » es la siguiente). Lea las líneas en sentido horizontal. Enunciado X Verdadero Verdadero Falso Falso

Enunciado Y Verdadero Falso Verdadero Falso

X oY Verdadero Falso Verdadero Verdadero

172

Inteligencia artificial. Una introducción filosófica

alubia particular chafada de la cual sea falso este cuento: si un coche le hubiera pasado por encima, ciertamente la habría aplastado, pero lo que de hecho la aplastó fue el tenedor de Alfredo. Puesto que es verdad que (cuando el tenedor de Alfredo descendió sobre ella) la alubia se aplastó, la siguiente implicación es verdadera (por la propiedad de la alubia se aplasta. Esto no es una buena noticia para la representación. Causal (el neumático del coche pasa por encima de la alubia o la alubia se aplasta). Puesto que la implicación es verdadera y además expresa una rela­ ción causal auténtica (porque ser atropellado es el tipo de aconteci­ miento que produce que algo se aplaste), está apunto de caramelo para que se le adhiera la etiqueta «causal». Ésta es una situación into­ lerable: si «causal (X z> Y)» se puede afirmar cuando X no es la causa de Y, entonces esta fórmula no es una representación satisfactoria de la causalidad (El problema es perentorio sobre todo cuando una base de conocimientos razona hacia el pasado, partiendo de la verdad de Y y de «causal (X z> Y)», para obtener X.) Lo que resulta es que la técnica de etiquetar no se puede usar junto con la implicación material. Y no es fácil remendar la situación. El problema de conseguir un análisis formal satisfactorio de la impli­ cación que evite las curiosas propiedades de la implicación material se ha mostrado resistente 10°. Diversos lógicos trabajan en el problema y espero que lo hayan desentrañado para el año 2001, pero que nadie contenga el aliento hasta entonces. El problema de la proyección temporal Éste es un caso particular del problema del marco, o problema de actualizar una gran base de conocimientos (véase sección 5.2)99*101. 99 Estudio una dificultad emparentada en «What is Computation?». 300 Para un examen general, véase Jackson, F. (comp.), Conditionals. ,£>) Hanks, S., y McDermott, D., «Default Reasoning, Nonmonotonic Logics, and

Los hechos

173

Supongamos que la base de conocimientos contiene una colección de enunciados razonablemente extensa sobre una situación o dis­ posición dados, incluidos enunciados sobre qué causa qué en esa situación. Para mantener fidedigna su descripción de la situación, la base de conocimientos tiene que poder computar las consecuen­ cias de estos acontecimientos. Esto no se puede hacer, ni de lejos, directamente. He aquí una ilustración «de juguete» de la dificultad conocida como el problema de los disparos en Yale102. La situación involucra a Freda y a un asesino con una pistola. La base de conocimientos sabe que Freda está viva cuando el asesino carga la pistola en el momento t. La base de conocimientos sabe también que: 1) Si a un ser humano le disparan una pistola cargada, muere (inmediatamente). La afirmación, desde luego, es una simplificación, pero, como de­ cía, el ejemplo sólo es de juguete. La pistola no es disparada durante dos minutos. Á1 final de éste lapso, el asesino sale de su escondite, coge a Freda por el pelo y aprieta el gatillo a quemarropa. Al oír esta información, un ser humano actualizará su descripción de la situa­ ción con el enunciado «Freda está muerta» (o «Freda está probable­ mente muerta», si es una persona cauta). ¿Puede hacer esto la base de conocimientos? La base de conocimientos sabe que: 2) A menos que las circunstancias sean anormales, si se carga una pistola en el momento £, entonces, a menos que se dis­ pare, seguirá cargada en t + 2 minutos. Esto es parte del conocimiento general sobre disparos que tiene la base de conocimientos. Así, si la base de conocimientos supone que the Frame Problem»; McCarthy, J., «Applications of Circumscription to Formalising Common-Sense Knowledge». El problema de la proyección temporal se conoce como «problema Hanks-McDermott». 102 Hanks, $., y McDermott, D., «Default Reasoning, Nonmonotonic Logics, and the Frame Problem».

i 74

Inteligencia artificial. Una introducción filosófica

las circunstancias son normales (con respecto a que la pistola esté car­ gada) puede inferir que la pistola seguirá cargada en 14- 2 y luego usar 1) para concluir que Freda está muerta. Sin embargo, la base de cono­ cimientos también sabe que: 3) A menos que las circunstancias sean anormales, una cosa que estaba viva en el momento t, seguirá viva en el t+2 minutos. Las afirmaciones que, como 2) y 3), dicen que un hecho persiste normalmente se conocen como axiomas marco. La base de conoci­ mientos usa este axioma exactamente de la misma manera que usaba 2) , pero esta vez infiere que Freda sigue viva en t + 2. Entonces puede concluir a partir de 1) que la pistola no estaba cargada en t+2. Así, la base de conocimientos vacila sobre cómo actualizar. Ha llegado a dos candidatos en conflicto: «la pistola estaba todavía car­ gada en t + 2 y Freda está muerta» y «la pistola estaba descargada en­ tre í y t + 2 y Freda está aún viva». En la primera se satisface el axioma marco 2) y falla el axioma marco 3); en la segunda, se satisface 3) y falla 2). Éste es el problema de la proyección temporal: en genei'al habrá diferentes maneras de actualizar una descripción, todas ellas compatibles con los hechos explícitamente enunciados y cada una en­ traña el fallo del mismo número de axiomas marco. El problema de la proyección temporal es universal. Cualquier mecanismo de actuali­ zación basado en axiomas marco debe incluir un método para abor­ darlo. Guha (corresponsable del proyecto CYC) ha propuesto una solu­ ción del problema de la proyección temporal103. La propuesta utiliza las representaciones de la causalidad de CYC. Si despojamos las dos actualizaciones posibles y las dejamos en lo esencial, la primera es que Freda cambia de estado en t + 2 (de viva a muerta) y la segunda es que la pistola cambia de estado entre t y t + 2 (de cargada a descar­ gada). Guha señala que en la narración hay información sobre la causa del primero de estos cambios (disparan a Freda), pero no hay información sobre la causa del segundo. ¿Fue un milagro? ¿Estaba el asesino dividido entre deseos opuestos? Guha asegura que al CYC se le pueden suministrar fácilmente los recursos para sacar partido de esta asimetría y seleccionar el primer candidato. Pues CYC sabe que: 103 Guha, R. V., «The Representation of Defaults in CYC», pp. 7-8; Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», pp. 37,46-7.

175

Los hechos

Causal (a persona X le disparan con una pistola cargada 3 per­ sona X muere). Así, el cambio de estado de Freda queda subsumido por un enun­ ciado causal que CYC conoce. CYC puede comprobar las actualiza­ ciones de cambios de estado propuestas que no son abarcadas por enunciados causales y luego seleccionar el candidato que tenga menor número de cambios de estado no subsumidosI04. Esta solución es artificial. Por desgracia, sólo funciona si se exclu­ yen ciertos enunciados causales de la base de conocimientos. El cam­ bio de estado de la pistola está abarcado si CYC sabe que: Causal (alguien quita las balas de la pistola 3 la pistola no está cargada)105. Ciertamente ayudaría a CYC a salir del problema de los disparos en Yale retirar la información de que quitar las balas manualmente es una forma de causar que la pistola esté vacía, pero se hace duro acep­ tar que esto sea una fórmula para dar una solución general al pro­ blema de la proyección temporal. La propuesta de Guha tiene una segunda dificultad más profunda. Puesto que CYC es un razonador de sentido común, debería ser ca­ paz de concluir que la causa del vaciado de la pistola no fue la activi­ dad de los diodos luminosos del reloj digital de Freda. Este conoci­ miento se representa por medio de una afirmación de la forma NO

(causal (X 3 Y))

(donde Y es «la pistola no está cargada» y X el enunciado acerca de los diodos luminosos). Es claro que no se puede interpretar que esta afirmación cubre el cambio de estado de la pistola. Y, sin embargo, contiene la etiqueta «causal». Así, cuando CYC comprueba lo que está subsumido y lo que no, no basta con buscar una afirmación que contenga la etiqueta «causal» y la implicación «X 3 Y», siendo Y el 104 Guha, R. V., «The Representation of Defaults in CYC», p. S. 105 No importa que no aparezca en la historieta el antecedente de esta segunda im­ plicación etiquetada («alguien quita las balas de la pistola»). Tampoco lo hace el ante­ cedente de la primera («a X le disparan con una pistola cargada»). Los dos casos son completamente simétricos.

176

Inteligencia artificial Una introducción filosófica

acontecimiento comprobado. La etiqueta tiene que estar en la posi­ ción adecuada. Pero ¿cuál es esa posición? ¿Debe ser la etiqueta el símbolo principal o dominante? No. (Causal (X z> Y)) CONJUNCIÓN (causal(Y Z)) valdría para cubrir el hecho de que Y acontezca, pero el símbolo principal es C O N JU N C IÓ N . (Para reconocer el símbolo principal basta con contar los paréntesis. El símbolo rodeado por menor nú­ mero —posiblemente cero— de paréntesis es el principal. Se dice que los siguientes símbolos en este orden tienen profundidad dos, etc. Así, en este ejemplo, ambos «causal» tienen profundidad dos, y las dos apariciones de Y)) DISYUNCIÓN (N O (causal (X => Z))))

valdría para subsumir Z (pues contiene «causal (X z> Z)»). Y así suce­ sivamente. En realidad no hay ninguna «posición adecuada» que deba buscar CYC. El método de etiquetar no proporciona ningún medio sencillo de establecer si la base de conocimientos conoce o no una posible explicación causal de un acontecimiento dado!06.0 I0& Si se emplean etiquetas, entonces hay que abandonar la idea de un criterio de posición. En vez de eso, lo obvio es probar con un criterio de implicación: ¿Puede la base de conocimientos demostrar un teorema de la forma «3P(causal(P 3 Y))» donde «3» es un cuantificador interpretado como sustitucional? (Se encuentra una descrip­ ción de la cuantificación sustitucional en mi «Substitutional Quantification and Exis­ tence»). Por desgracia, el CYC tiene dificultades para aplicar tal criterio. El CYC puede saber que (causal(X Y)) O (causai(Z Y)) 3

3

y sin embargo no poder demostrar 3P (causal(P Y)) 3

El mecanismo general de inferencia sólo es completo con respecto a las cláusulas cornu tas (Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 42). Esto sig* nifica que el CYC será muchas veces incapaz de hacer inferencias que, desde nuestro

£,os hechos

177

Antes dije que la situación actual de CYC con respecto a la causa­ lidad es análoga a la de alguien a quien se dice que un «enunciado ge­ neral» es cualquier enunciado que contenga la palabra «todos» o la palabra «cada». Consideremos cuánto más le aprovecha decirle a esa persona (o a una máquina) que un «enunciado universal» es cualquier oración que significa que todo objeto tiene cierta propiedad. Esta persona o máquina podría asegurar que: Todos los objetos tienen masa es universal; que Es falso que al menos un objeto no tenga masa es universal, y que No todo objeto tiene masa no es universal El equipo CYC está, conceptualmente, muy lejos de poder proporcionar a su base de conocimientos un recurso semejante para la causalidad. Pertinencia En un lugar anterior de este capítulo he mencionado que uno de los principales problemas de control de una base de conocimientos grande es el de la búsqueda pertinente. Lenat informa de que CYC no es lo bastante grande para que este problema acucie107. Conforme punto de vísta, son evidentemente correctas. Sólo está garantizado que el CYC hará la inferencia cuando las premisas y la conclusión estén formadas por cláusulas cornutas. Una cláusula cornuta es uñ enunciado cuya forma normal disyuntiva no tiene más de una subfórmula inmediata que carezca del prefijo NO. Así, «A O N O B» es una cláu­ sula cornuta, y también lo es «(NO A) O (NO B)». Pero «A O B» no es una cláusula cornuta. Tampoco ló es (causal(X o Y))0(causal(Z Y)). 107 Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 54.

178

Inteligencia artificial. Una introducción filosófica

crezca, habrán de desarrollar estrategias para abordar la pertinencia. Guha y Levy formulan claramente las cuestiones: Es bien sabido que la actuación de la mayoría de los mecanismos de inferen­ cia (en especial los que operan sobre cuerpos de conocimiento declarativo [esto es, los que operan de acuerdo con el modelo del dato]) se degrada drás­ ticamente conforme la base de conocimientos... aumenta. Es necesario en­ contrar una solución de este problema para que el paradigma declarativo dé lugar a sistemas utilizables, La idea principal que sugiere una solución es que, aunque la base de conocimientos puede ser muy grande, para cada tarea dada sólo se usa una porción muy pequeña de ese conocimiento. Si se pudiera identificar a priori esa porción, el tamaño del espacio de búsqueda se podría reducir, y con ello acelerar la inferencia108*.

La noción de pertinencia es extremadamente escurridiza. Guha y Levy dan lo que para ellos es un ejemplo de clara no pertinencia (esto es, un hecho que claramente no se debe tomar en cuenta al resolver un problema especificado). Si el problema a resolver es determinar si Alfredo tomó o no el desayuno a las 8,30 de una mañana particular, entonces no hace falta, dicen, considerar el precio del té en la Indiaí09. Pero ¿por qué? Si sucede que Alfredo tiene grandes inversiones en té indio y el mercado ha caído desmesuradamente, y se entera justo an­ tes de sentarse a desayunar... Para cualquier par de circunstancias que escojamos, siempre habrá algún contexto en que una es pertinente para la otra. Este concepto de contexto que rodea es decisivo en materia de pertinencia. Abstraídas de un contexto, las cuestiones de pertinencia tienen poco sentido no. Tomemos estas dos afirmaciones: 1. Durante los últimos ocho años las lluvias no han comenzado en Malawi hasta finales de noviembre. 2. La producción de madera de Zambia ha crecido un 500 por 100 durante el periodo 1972-1992. La pertinencia de la segunda afirmación para la primera depende del contexto. Si el proyecto presente es decidir las fechas del safari de 108 Guha, R. V., y Levy, A. Y., «A Relevance Based Meta Level», p. 1. í09 Guha, R. V., y Levy, A. Y., Ibidem, pp. 2-4. 1,0 Véase mi artículo «Horseshoe, Hook and Relevance», así como «The Trouble Anderson and Belnap Have with Relevance».

Los hechos

179

la tía, entonces 2) no es pertinente; pero si el proyecto es buscar causas posibles de los cambios de los patrones climáticos en el África subsahariana, entonces 2) es pertinente. Diferentes proyectos crean diferentes contextos. Dado el carácter abierto del conjunto de pro­ blemas que se puede esperar que aborde CYC, la tarea de dar a la base de conocimientos información detallada sobre qué es pertinente para qué cosa, es, por decir poco, un problema urgente. Lenat y sus colegas- no tienen propuestas radicalmente nuevas para tratar el problema de la pertinencia. Están dispuestos a apun­ tarse al enfoque que mencionaba Minsky en la cita anterior (que data de 1974): la base de conocimientos necesita poseer metahechos acerca de cuándo se pueden usar fructíferamente los hechos que contiene y cuándo no. En CYC, estos hechos se representan'mediante afirma­ ciones llamadas axiomas de pertinencia. En CYC hay dos tipos de axiomas de pertinencia, específicos y generales. La idea que subyace a los axiomas específicos de pertinencia es que «se pueden jerarquizar las diferentes secciones de la base de conoci­ mientos segúm su pertinencia para la tarea de resolución de problemas del momento» m. Así, por ejemplo, si la tarea encomendada a CYC es resolver un problema de diseño de automóviles, la basé de conocimien­ tos estará guiada en su búsqueda de información pertinente por un axioma a propósito de que la sección automovilística es más importante que la sección botánica (aunque no se puede desechar por entero la sec­ ción botánica, pues podría ser fuente de alguna analogía útil)U2. Axio­ mas como éste sin duda podan enormemente el espacio de búsqueda, pero cuando han operado, sólo dan la más basta de las orientaciones. Los axiomas generales de pertinencia son formalizaciones de enun­ ciados tales como: Proximidad temporal: es necesario limitarse a considerar aconte­ cimientos que estén próximos temporalmente al acontecimiento o proposición del caso u3. Cuando Guha y Levy explican y defienden este axioma dicen: «Es raro que ocurra un acontecimiento y... [después de] un período123 111 Blair, P., Guha, R. V., Pratt, W. «Microtheories: Au Ontological Enginneer's Guide», p. 15. 112 Ibidem. 113 Guha, R. V., y Levy, A. Y., «A Relevance Based Meta Level», p. 7.

180

Inteligencia artificial. Una introducción filosófica

de tiempo considerable... repentinamente manifieste sus efectos» 1H* Sin embargo, el hecho de que Jorge vistiera un traje alquilado (un es­ moquin) en la boda de Matilde hace dieciocho meses puede ser muy pertinente para el hecho de que por fin haya abandonado su habitual brindis y haya escrito otro nuevo. Los axiomas generales de pertinencia de CYC también se refieren a la proximidad espacial y a la proximidad informacional: no es nece­ sario considerar acontecimientos que ocurren lejos de la situación a menos que haya una conexión informacional entre ellos (por ejem­ plo, una línea telefónica)n5. También hay un axioma que enuncia que sólo es pertinente la información que posee el grado de finura ade­ cuado. La información sobre la calidad del cosido del calzado de Freda es demasiado fina para ser pertinente para la cuestión de si es­ taba viva en t + 2. Estos axiomas presuponen un esquema efectivo de índices para la base de conocimientos. Esto es, presuponen una solución de lo que antes he llamado problema de la organización, un problema sobre el que, sorprendentemente, dicen poco Lenat y sus colegas1145116. Dado un índice lo bastante bueno, estos axiomas de pertinencia permitirán a CYC quitarse de enmedio un enorme número de hechos mientras está buscando. Pero una vez que la base de conocimientos contenga cientos de millones de afirmaciones, quedarán muchas al final del proceso de filtrado. Al fin y al cabo, por cada acontecimiento habrá un número enorme de acontecimientos (con el mismo grado de fi­ nura) próximos desde el punto de vista espacial, temporal e informacional. La inmensa mayoría de éstos jamás serían tomados en cuenta por un ser humano (si la pantalla de TV se disuelve en líneas horizon­ tales, no se nos ocurre ni por un momento la idea de que pueda ser pertinente haber dado un mordisco al bocadillo). Quizá la mejor forma de proceder sea construir un filtro más estricto añadiendo axiomas de pertinencia. Puede que este enfoque funcione: no lo sa­ bremos hasta que se intente. Pero preocupa que la adición de los axiomas necesarios de pertinencia engrosé el tamaño de la base de co­ nocimientos. Puesto que la búsqueda pierde eficacia según crece la 114 Guha, R. V., y Levy, A. Y., «A Relevance Based Meta Level», p. 7. 115 Guha, R. V., y Levy, A. Y., Ibidem, pp. 8-11. 116 Brian Cantwell Smith tiene la misma impresión. «... no está claro cómo [Lenat y compañía] piensan agrupar, relacionar e indexar sus marcos» («The Owl and the Elec­ tric Encyclopaedia», p. 269).

Los hechos

181

base de conocimientos, puede que los axiomas de pertinencia acaben por inflamar el problema que pretendían resolver. Quizá el CYC nos enseñe que el problema de la pertinencia es inabordable para una base de conocimientos organizada de acuerdo con el modelo del dato. Cuando resuelven problemas mundanos, in­ cluso nuevos, los seres humanos parecen atinar de inmediato con las ideas pertinentes. Supongamos que durante la noche, en la cabeza de la estatua del pueblo ha aparecido un orinal; ¿acaso revolvemos todos los hechos que podrían ser pertinentes? Probablemente no, aunque nunca hayamos visto ni oído cosa semejante. Si los seres humanos re­ corren el mismo proceso ingente de seleccionar y eliminar que el CYC, no hay señal de ello. Puede que, para las personas, la relación de pertinencia esté incorporada en la apreciación misma del pro­ blema. Quizá nuestras representaciones contienen «enlaces» que las conectan con otras representaciones pertinentes; o, usando otra me­ táfora, quizá cuando una representación «se ilumina», también se «iluminan» automáticamente otras representaciones pertinentes. Se­ gún este modelo, no hace falta la búsqueda, computacionalmente gra­ vosa, que caracteriza el enfoque de CYC de la localización de datos pertinentes. Por lo que hasta el momento se sabe, estos «eslabones de pertinencia» acaso sean imposibles de incorporar directamente en un manipulador de símbolos. Quizá se necesiten representaciones enca­ denadas y distribuidas del tipo estudiado en el capítulo 10, en cuyo caso el método de los datos está condenado. Inconsistencia De una colección de oraciones que entraña una contradicción se dice que es inconsistente. Por ejemplo, una base de conocimientos que contenga a la vez «Carlos es legitimista» y «Carlos no es legitimista» es inconsistente. Una base de conocimientos puede ser incon­ sistente por muchos motivos, desde un error tipográfico hasta el des­ acuerdo inadvertido entre quienes le suministran conocimientos, pasando porque la propia base extraiga conclusiones en conflicto (como en el caso de Biggies, que a la vez vuela y no vuela). Por las ra­ zones que expondré, es importante restaurar una base inconsistente de conocimientos. Éste es uno de los problemas más ásperos. Ya he aludido a que la conclusión del argumento acerca de Sócra­ tes vale aunque a las premisas se añadan sus propias negaciones. Esto

182

Inteligencia artificial. Una introducción filosófica

es tan importante en lógica que ha recibido un nombre, quodlibet (que en latín significa «lo que quieras»: de una contradicción se sigue la conclusión, que se quiera) U7. La demostración del quodlibet es muy sencilla. Cuando S es un conjunto de oraciones y X una oración, la afirmación «X se sigue de S» (o, al revés, «S implica X») se define diciendo que S junto con la negación de X es un conjunto inconsis­ tente de oraciones. Así, decir que «Sócrates era fontanero» se sigue de las premisas «Sócrates era macedonio» y «todos los macedonios son fontaneros» es lo mismo que decir que las tres oraciones, «Sócrates era macedonio», «todos los macedonios son fontaneros» y «Sócrates no era fontanero» forman un trío inconsistente. Ahora bien, supon­ gamos que S ya es inconsistente. Entonces, S, junto con la negación de cualquier oración que queramos, es inconsistente. Por tanto, de S se sigue cualquier oración que queramos. Añadir una oración nunca puede eliminar la inconsistencia. La única forma de restaurar la con­ sistencia en un conjunto de oraciones es quitar oraciones: así, si S es inconsistente, entonces S más la negación de X está abocado a ser in­ consistente m. Supongamos que en la base de conocimientos programamos la si­ guiente instrucción: Si te preguntan si X es verdadero y, o bien X es una de las afirma­ ciones que contienes, o bien se sigue de ellas, la respuesta es «sí». Desgraciadamente, si una base de conocimientos que contiene esta instrucción llega a ser inconsistente, responderá sí a cualquier pregunta. Así, si a una base militar de conocimientos se le han pro­ porcionado informes atmosféricos inconsistentes, responderá «sí» cuando le pregunten: «¿Somos víctimas de un ataque nuclear?» ¿Qué se puede hacer? Un primer movimiento obvio es modificar la instrucción. n7 Abreviatura de «-exfalso quodlibet». m Hay una demostración alternativa del Quodlibet X se sigue de $ si no hay nin­ gún mundo posible en el que todos los miembros de S sean verdaderos y X falso. Su­ pongamos que S es inconsistente. No hay ningún mundo posible en el que todos los miembros de S sean verdaderos (a esto equivale la inconsistencia). A fortiori, no hay ningún mundo posible en que todos los miembros de S sean verdaderos y X falso (sea X la oración que sea). Por tanto, X se sigue de S. (Para un estudio de estas cuestiones, véanse mis «On When a Semantics is not a Semantics», «What is a Semantics for Clas­ sical Negation?» y «Vagueness and Bivalence».)

Los hechos

183

Si te preguntan si X es verdadero y, o bien X es una de las afirma­ ciones que contienes, o se sigue de ellas, la respuesta es «sí», a me­ nos que NO X sea una de las afirmaciones que contienes, o bien se siga de ellas. La segunda parte de esta instrucción reclama una «comprobación de consistencia»: la base de conocimientos debe asegurarse de que es consistente antes de responder. El problema de las comprobaciones de consistencia es que pueden ser muy lentas (las bombas pueden caer antes de que la base de conocimientos decida si es o no consis­ tente). Un problema más fundamental es que un programa de com­ probación de consistencia da respuestas equivocadas de vez en cuando (ésta es una consecuencia de un resultado de la lógica mate­ mática obtenido en 1936)119. Con todo, un mecanismo para compro­ bar la consistencia es mejor que ninguno, aunque sea lento y no del todo fiable. Supongamos que el «módulo de detección y resolución de contra­ dicciones» de CYC detecta una inconsistencia. ¿Qué puede hacer CYC?120 Ya he descrito la primera línea de ataque de CYC, su sis­ tema de preservación de la verdad121. CYC vuelve a las premisas em­ pleadas para derivar las dos afirmaciones en conflicto y, si puede, re­ chaza una de ellas y descarta una de las dos inferencias en conflicto (para hacer esto, CYC emplea la información que le proporcionan los suministradores de conocimientos, relativa a asuntos tales como cuál de las premisas es menos probable que sea falsa, cuál tiene excepcio­ nes conocidas, etc.)122. Esto no siempre dará resultado: a menudo CYC no sabrá cuál de las premisas rechazar. La segunda línea de ata­ que es jerarquizar las dos inferencias según «criterios de preferencia» y rechazar la que puntúe más bajo. Este enfoque vale tanto como los criterios empleados, y todos los criterios de preferencia de CYC son flojos. Algunos ejemplos son: 119 Church, A., «A Note on the Entscheidunsproblem». El resultado de Church se aplica a la lógica cuantificacional de primer orden. Hay lógicas cuantificacionales más débiles, pero inferencialmente impotentes. 120 Lenat, D. B., y Guha, R. V., Building Large Knowledge-Based Systems', p. 51. 121 Lenat, D. B., y Guha, R. V., Ibidem, pp. 50-52; Guha, R. V., «The Representa­ tion of Defaults in CYC», p. 5. 122 Lenat, D. B., y Guha, R. V., Ibidem, p. 37; Guha, R. V., «The Representation of Defaults in CYC».

184

Inteligencia artificial. Una introducción filosófica

1) Preferir la inferencia que tenga un aspecto más causal123. Se supone que este criterio discrimina inferencias como las invo­ lucradas en el problema de los disparos en Yale. Como hemos visto* no funciona. 2) Preferir la inferencia con «menor distancia inferencial»I2L Este criterio sólo es eficaz en un ámbito limitado de casos. En ge­ neral no ha y razón para que sea más probable que tenga una conclu­ sión verdadera una inferencia «más corta» que una inferencia «más larga». La forma más general de definir la «distancia inferencial» es en términos del número de «pasos» de la inferencia. Por ejemplo, ha­ cen falta tres pasos para inferir C de las tres premisas A 3 B, B 3 C y A (el primer paso es inferir B de A y A 3 B; recordemos que « 3 » se pronuncia «si entonces»). Es simplemente falso que cuantos menos pasos tenga una inferencia, más probable es que conduzca a una con­ clusión verdadera. Por ejemplo, una inferencia de sólo dos pasos lleva desde las dos premisas A y NO A a la conclusión de que el mundo acabó hace diez minutos. El argumento usa dos reglas de inferencia. La primera es: De X inferir N O ((N O X) CONJUNCIÓN (NO Y)). Esto es, a partir de la premisa de que es el caso que X, se puede inferir que X e Y no son a la vez falsos. (X e Y son oraciones cuales­ quiera.) La segunda regla es: De NO X y NO ((N O X) CONJUNCIÓN (N O Y)) inferir Y. Esto es, a partir de la premisa de que X es falso y la premisa de que X e Y no son falsos a la vez, se puede inferir que es el caso que Y. ¿Puede usted encontrar el argumento de dos pasos? (La nota125 da la respuesta.) m Lenat, D. B., y Guha, R. V., Building Large Knowledge-Based Systems, pp. 37; Guha, R. V., «The Representation of Defaults in CYC», p. 5. 124 Lenat, D. B., y Guha, R. V., Ibidem, pp. 37; Guha, R. V., «The Representation of Defaults in CYC», p. 5. 525 Supongamos que «W» simboliza «El mundo acabó hace diez minutos». Usemos la primera regla para inferir No((NO A) CONJUNCIÓN (NO W)) a partir de la pre-

Los hechos

185

3) Preferir los argumentos constructivos a los no constructivos126. Es difícil ver por qué Lenat y Guha piensan que este criterio sirve para algo. Los argumentos constructivos son objeto de la lógica intuicionista, y hace tiempo se sabe que acogerse a esta lógica no ayuda a afrontar los problemas que engendra el quodlibet127. El sistema de preservación de la verdad de CYC y sus criterios de preferencia, de vez en cuando no permitirán a CYC elegir qué miem­ bro de un par de afirmaciones en conflicto debe rechazar. En este punto, CYC puede hacer tres cosas: 1) Echar el cierre y esperar la in­ tervención humana. 2) Poner en cuarentena todas las afirmaciones in­ volucradas en la inconsistencia y arreglárselas sin ellas (una manera de hacerlo sería señalar que cada afirmación involucrada carece de va­ lor de verdad conocido). Si el número de afirmaciones involucradas es grande —y lo será si una (o ambas) de las afirmaciones en conflicto ha figurado como premisa en un gran número de inferencias, o si se ha empleado un gran número de premisas para derivar las afirmacio­ nes en conflicto— esto puede producir una degradación considerable de la actuación. 3) Echarle cara. Seguir y esperar que los efectos malé­ ficos de la inconsistencia no se extiendan demasiado. Esta última pa­ rece ser la recomendación de Lenat. No hay necesidad —yi probablemente tampoco posibilidad— de alcanzar una unificación global consistente de... [una] base de conocimientos muy misa A. Usemos la segunda regla para inferir W a partir de esta conclusión intermedia y la premisa N O A. [Ésta es una variante de la llamada primera prueba independiente, de C. I. Lewis (Lewis, C. L y Langford, C. H., Symbolic Logic, p. 250).] Observemos que la restricción a las cláusulas cornutas no sirve de ayuda en los problemas que oca­ siona el quodlibet. Tal como está presentada la deducción, no todas las fórmulas son cláusulas cornutas. En particular NO ((NO A) Y (NO W)) no es una cláusula cornuta puesto que su forma normal disyuntiva es A O W. Esto se puede remediar aplicando la primera regla a la premisa NO A para obtener N O ((NO NO A) Y (NO W)), y apli­ cando luego la segunda regla a esta fórmula y a N O N O A para obtener W. Ahora la deducción tiene tres pasos, pues se requiere uno más para obtener NO NO A a partir de la premisá A. Todas las fórmulas de la deducción modificada son cláusulas cornutas (pues la forma normal disyuntiva de NO ((NO N O A) Y (NO W)) es (NO A) O W). En otras palabras, una base de conocimientos inconsistente puede construir deduccio­ nes con cláusulas cornutas de todos los enunciados que pueda expresar (basta con sus­ tituir W por ellos). Además, cada una de las deducciones será muy corta: como mucho tendrá tres pasos). 126 Guha, R. V., y Lenat, D. B., «CYC: A Mid-Term Report», p. 37. 127 Véase Gentzen, G., «Investigations Into Logical Deduction».

186

Inteligencia artificial. Una introducción filosófica

grande... Esperamos... que... [la opinión de que] las inconsistencias pueden existir durante un breve periodo, pero... son errores y debemos encontrarlos y corregirlos... es una opinión idealizada, simplificada de lo que requieren los sistemas inteligentes... ¿Cómo puede afrontar la inconsistencia el sistema? Consideremos el espacio de conocimientos, y, por tanto, la base de conoci­ mientos, no como un cuerpo rígido, sino como un conjunto de receptáculos sustentados de forma independiente... [C]omo en el caso de un gran edificio de oficinas, los soportes independientes deben hacer más fácil que el con­ junto de la estructura sobrelleve los temblores de tierra como pequeñas ano­ malías... [I]nferir una inconsistencia es sólo un poco más serio que el habitual «callejón sin salida» en que cae un investigador...128129

A mí éstas me parecen arenas movedizas. CYC no es una colec­ ción de bases de conocimientos para sistemas expertos que trabajen con independencia, sino un todo único e integrado. El resultado de las inferencias obtenidas en un recipiente está a la disposición de los otros recipientes, y lo que está disponible se puede usar. Como dice Lenat en un contexto distinto: «Puede ser útil... un conocimiento muy remoto» í29. No hay ninguna razón a priori para pensar que los efectos de la inconsistencia no se extenderán de recipiente en reci­ piente, envenenando toda la base de conocimientos. En mi opinión, sería manifiestamente peligroso permitir que una base de conoci­ mientos, dotada de una lógica y unos sistemas de control tan toscos* como los de CYC, continuara operando después de haber generado una inconsistencia irremediable. Está claro que quien quiera construir una gran base de conoci­ mientos de sentido común, afronta problemas difíciles. 5.7. La barrera de la complejidad El intento de construir una máquina que piense es un proyecto de una complejidad imponente. Quedan por resolver problemas técni­ cos espinosos (y el pesimista que hay en mí sospecha que esperan a ser descubiertos otros aún más difíciles). Los investigadores hablan de la necesidad de encontrar medios para organizar miles de millones de hechos en la memoria del computador. Los grandes programas de 128 Lenat, D. B., y Feigenbaum, E. A., «On the Thresholds of Knowledge», pp. 217 y 222. 129 Lenat, D. B., y Feigenbaum, E. A., Ibidem, p. 199. La cursiva es de ellos.

Los hechos

187

IA contienen cantidades descomunales de líneas de código* Un com­ putador moderno contiene muchas más conexiones eléctricas que personas hay en el planeta, pero se necesitará una ferretería muchí­ simo más complicada para emular la actividad de los billones de co­ nexiones neuronales del cerebro humano. ¿Puede la mente humana abarcar toda esa complejidad? Terry Winograd, un programador de talento formidable, tenía problemas con Shrdlu: «El código presenta una masa densa, con po­ cos asideros. Incluso yo, que he escrito el programa, me encuentro cerca del límite de lo que puedo tener en la cabeza. Después de aban­ donarlo unos pocos meses, es muy difícil responder a las preguntas sobre partes específicas de él, o anticipar los efectos de cambios pro­ puestos» 130* Pero, contemplado en términos del fin último de la IA, Shrdlu es un programa trivial. Sería una gran ironía que la hipótesis del sistema de símbolos fuera correcta, pero el cerebro humano resultara demasiado frágil como para construir una máquina que piense. Puede que los seres humanos no estén a la altura requerida para romper la barrera de la complejidad. Pero, hay que repetirlo, la IA está en su infancia. En el momento presente, la inteligencia de los computadores es un campo abierto al éxito... o al fracaso. El futuro tiene todos los veredictos.

130 Winograd, T., «Breaking the Complexity Barrier Again», p. 13.

Capitolio 6 EL CURIOSO CASO DE LA HABITACIÓN CHINA

En los dos capítulos anteriores he argumentado que la cuestión de si un computador es la máquina adecuada para pensar es, usando la jerga filosófica, un asunto empírico, esto es, un asunto que sólo se puede decidir mediante la experimentación y el acopio de datos (la palabra «empírico» procede de la palabra griega que significa «expe­ riencia»), No todas las cuestiones son empíricas. Comparemos «¿son todos los oftalmólogos de Nueva York mayores de veinticinco años?» con «¿son todos los oftalmólogos de Nueva York especialis­ tas en la vista?» La primera hace una pregunta empírica, pero la se­ gunda no. No hace falta investigar los oftalmólogos de NuevaYork para establecer que todos son especialistas en la vista, porque «oftal­ mólogo» significa «especialista en la vista». Reunir datos no desem­ peña ningún papel en responder una cuestión no empírica. El influyente filósofo norteamericano John Searle sostiene que es un error tomar por empírica nuestra cuestión central. El problema de si un manipulador de símbolos podría ser capaz de pensar es, dice, rotundamente no empírica y, por tanto, reunir datos está fuera de lu­ gar. A los ojos de Searle, es extemporánea mi actitud de esperar a ver qué ocurre en los laboratorios de la IA. Afirma que podemos demos­ trar, aquí y ahora, sin buscar datos, que la hipótesis del sistema de 188

El curioso caso de la habitación china

189

símbolos es falsa. En su opinión, sostener esta hipótesis es igual que afirmar que algunos oftalmólogos no son especialistas en la vista. La única diferencia es que esto último entraña un error muy sencillo, que se puede aclarar con abrir un diccionario, mientras que lo pri­ mero contiene un error mucho más sutil, que requiere un argumento filosófico refinado para denunciarlo. Voy a examinar detenidamente el argumento de Searle, que se ha venido a conocer como el argu­ mento de la habitación china. Espero convencerles de que es falaz.

Para facilitar la comprensión del argumento de Searle, voy a re­ cordar un acertijo que mencioné en el capítulo 4. Un computador es simplemente un manipulador de símbolos. Lo único que hace es com­ parar símbolos, borrar símbolos, copiar símbolos, etc. ¿Cómo es po­ sible que semejante mecanismo comprenda algo? Es fácil ver cómo un manipulador de símbolos podría tomar la oración árabe

Jamal hamati indaha waja midah y realizar la manipulación de, por ejemplo, escribirla hacia atrás, o añadir un prefijo que convierta la oración en interrogativa. Pero, ¿cómo puede un simple manipulador de símbolos entender la ora­ ción? La respuesta de Searle es que no puede. Searle emplea algunos términos técnicos para expresar su. opinión fundamental: un manipulador de símbolos solamente domina la sin­ taxis, y el dominio de la sintaxis es insuficiente para el dominio de la semántica K Tener un dominio de la sintaxis es tener un dpminio de un conjunto de reglas para reálizar manipulaciones de símbolos, y te­ ner un dominio de la semántica es tener una comprensión de lo que significan los símbolos. Se tiene una buena ilustración de la tesis de Searle en el hecho de que alguien puede aprender a manipular las ora­ ciones de un lenguaje extranjero, de acuerdo con un conjunto de re­ glas de sintaxis, sin con ello ganar ninguna comprensión de lo que significan las oraciones. El conocimiento de la sintaxis no nos lleva, por sí solo, a conocer la semántica. He aquí, por ejemplo, dos reglas sintácticas para el árabe: 1. Para formar una oración-I correspondiente a una oración dada, prefíjense los símbolos «Hal» al conjunto de la oración.1 1 Searle, J., Minds, Brains and Science, p. 31; «Minds, Brains and Programs», p. 423; «Is the Brain's Mind a Computer Program», p. 21.

190

Inteligencia artificial. Una introducción filosófica

2. Para formar una oración-N correspondiente a cualquier ora­ ción reduplicativa, insértese la partícula «laysa» frente al pre­ dicado de la oración. Una comprobación. Escribamos la oración-I y la oración-N co­ rrespondientes a la oración Jamal hamati indaha waja midah Tenemos que saber que esta oración es reduplicativa y su predi­ cado es todo lo que va después de «hamati». Muy bien. Me apuesto la pecera a que su nueva habilidad con es­ tas dos reglas sintácticas no les ha dado a ustedes un atisbo de lo que significa «hal» y «laysa». En este caso es perfectamente obvio que do­ minar las reglas sintácticas no basta para dominar la semántica. «Hal» forma la interrogativa y «laysa» la negación. La primera oración pre­ gunta si la suegra de tu camello tiene dolor de barriga y la segunda responde de forma negativa. Los computadores son dominadores y esclavos de las reglas sin­ tácticas. Como vimos en el capítulo 4, sus programas no son más que instrucciones para realizar largas series de maniobras sintácticas. ¿Pueden liberarse de la prisión de la manipulación de símbolos y salir al mundo del significado? He aquí el argumento de Searle, según el cual no pueden. 6.1. El argumento de la habitación china Searle usa a Sam, el programa que «entiende» narraciones, para ilustrar su argumento2. Si a Sam le proporcionamos una narración se­ guida de preguntas acerca de la narración, Sam devolverá sus respues­ tas por escrito (se dan ejemplos de la actuación de Sam en el capítu­ lo 2). Si miráramos este programa escrito en código de máquina, veríamos una confusión inescrutable de ceros y unos. Sin embargo, cada línea del programa se puede interpretar cono una regla que cual­ quiera puede seguir. Por ejemplo, la línea 00000011

0111

1100

2 «Minds, Brains and Programs», p. 417.

El curioso caso de la habitación china

191

se puede interpretar como la regla Compara el contenido de la dirección de memoria número 7 con el contenido de la dirección de memoria número 12 y escribe un 1 si son iguales y un 0 si son diferentes. (0111 es el código binario de 7, 1100 es el código binario de 12, y 00000011 es la manera de decirle al computador que compare. Si esto le produce perplejidad, eche un vistazo al capítulo 4.) Supongamos que se reescribe de esta manera el programa Sam. El resultado sería un libro de reglas de muchos volúmenes. Si tenemos poco más o menos un año libre, podemos seguir el libro de reglas de principio a fin, ejecutando a mano el programa, esto es, haciendo a mano todas las manipulaciones de símbolos que realiza el compu­ tador cuando ejecuta el programa. Olvidemos que ejecutar el programa a mano llevaría mes tras mes de insoportable aburrimiento e imaginemos que alguien lo consigue. Este héroe, José Culebrón, está encerrado en una habitación con su biblioteca de libros de reglas, una enorme pila de cuadernos en blanco y varios miles de lápices. Su único contacto con el mundo exterior tiene lugar a través de dos ren­ dijas en la pared, etiquetadas Entrada y Salida. Los experimentadores meten una narración mecanografiada seguida de una hoja de pregun­ tas y luego se reúnen^impacientes al lado de la rendija Salida a esperar los resultados (imaginemos que José produce las respuestas en minu­ tos en vez de en meses). Para que José no pueda hacer trampas y limi­ tarse a confeccionar sus propias respuestas, la narración y las pregun­ tas están en chino (la versión de Sam que tiene José está adaptada al chino). En realidad, José ni siquiera se da cuenta de que la entrada y la salida son oraciones de una lengua. Por lo que a él se refiere, la en­ trada que recibe y la salida que produce son patrones sin sentido. La primera tarea de José es consultar la sección del libro de reglas que empareja patrones de entrada con cadenas de ceros y unos (cade­ nas que, por lo que se refiere a José, son tan carentes de significado como los mismos patrones de entrada). Una de tales reglas podría ser: Si el patrón es 5R , escribe 100001110010001001001 en la siguiente línea vacía del cuaderno etiquetado «Almacén de entrada». (3? significa «té», y la cadena de bits mostrada es la representa­ ción de este carácter chino en ASCII Pinyin).

192

Inteligencia artificial. Una introducción filosófica

Una vez ha transformado todas las entradas en cadenas de bits, José realiza las miles y miles de manipulaciones que exige el pro­ grama, llena cuaderno tras cuaderno de ceros y unos. Con el tiempo, llega a la última sección del libro de reglas, que empareja caracteres chinos con las cadenas que ha escrito en un cuaderno especial lla­ mado «Almacén de salida». José copia los caracteres en hojas de papel que saca por la rendija Salida. Para los experimentadores que están esperando, los patrones que dibuja José son respuestas inteligentes a sus preguntas, pero para José son garabatos, costosos de obtener, pero perfectamente absurdos. ¿Qué muestra, según Searle, esta puesta en escena? Hemos de ad­ mitir que José Culebrón no entiende la historieta, ni las preguntas, ni las respuestas. En realidad, ni siquiera sabe que son una narración y preguntas y respuestas. Para él, la entrada y la salida son símbolos ca­ rentes de significado. Y, sin embargo, al ejecutar Sam a mano, José ha hecho todas las manipulaciones de símbolos que un computador ha­ bría realizado. En efecto, los experimentadores han ejecutado Sam en un computador humano. Así, pues, dado que ejecutar el programa no le permite a Sam comprender la narración, se sigue que ejecutar el programa no le permite al computador comprender la narración, pues José hace todo lo que hace el computador y, con todo, no en­ tiende la historia después de haber terminado. Además, esta conclu­ sión se puede generalizar a todos los programas de IA que jamás haya, pues el argumento no menciona ningún rasgo específico del programa3. Ejecutar un programa, no importa cuán bueno sea éste, nunca puede ser suficiente para que un computador comprenda nada, crea nada, desee nada, piense nada. Tomemos un hipotético pro­ grama de IA todo lo bueno que queramos, por ejemplo, un programa capaz de pasar la prueba de Turing. Cuando José Culebrón (o una contrapartida cualquiera que no conozca el idioma en que se pasa la 3 Algunos autores piensan que la puesta en escena de Searle entraña un programa que consta sólo de una tabla gigantesca que empareja caracteres chinos con caracteres chinos, la técnica de Parry y Superparry. (Por ejemplo, Kim Sterelny, The Representa­ tional Theory of Mind, p. 220 y ss.) Esta interpretación es injusta. Searle aclara que los detalles del programa no afectan al argumento (véase «Minds, Brains and Programs», p. 417). En efecto, el programa Sam que emplea Searle para ilustrar su argumento no tiene una arquitectura de tabla. Esta mala interpretación hace parecer más débil de íó que es el argumento de la habitación china, y lo expone a la errónea objeción de que, puesto que nadie cree que el programa Superparry entiende el chino, «Searle no nos dice sino lo que ya sabemos» (Sterelny, p. 222).

El curioso caso de la habitación china

193

prueba) ejecuta a mano el programa, no entiende ni las preguntas del interrogador ni sus propias respuestas. Así, un computador que eje­ cute el programa estará exactamente en la misma situación. Un obser­ vador podría tomar los símbolos de la salida del computador por ora­ ciones significativas, pero para el computador los símbolos no pueden significar nada en absoluto. En general, pues, el argumento de la habitación china muestra (se­ gún Searle) que la mera manipulación de símbolos no permite al dis­ positivo manipulador comprender X, creer Y, pensar Z, como lo muestra el hecho de que un manipulador humano podría realizar exactamente la mismas manipulaciones sin con ello llegar a entender X, creer Y o pensar Z. Por tanto, si el argumento de la habitación china es correcto, la hipótesis del sistema de símbolos es falsa. El argumento de la habitación china ha causado un gran revuelo y se han exaltado a veces los sentimientos. El argumento ha irritado enormemente a los investigadores de la IA, a quienes parece un juego de manos. Muchos se inclinan a rechazarlo como «sólo una maldita estupidez». Por el contrario, muchas personas de fuera de la IA en­ cuentran persuasivo el argumento de la habitación china, y en algunas revistas filosóficas ha sido calificado de «conclusivo», «exactamente correcto», «poderoso y convincente» y «completamente victorioso». Por esta razón, creo que deben tomarlo muy en serio quienes no lo aceptan. Quien lo encuentre increíble no puede conformarse con es­ quivarlo. El argumento de la habitación china requiere una refutación cuidadosa y probatoria. Esto es lo que voy a intentar. 6.2. ¿Qué error contiene el argumento? En mi versión del cuento de la habitación china, como en el origi­ nal de Searle, hay un participante que recibe mucha menos atención de la que merece, tan poca que puede que no hayamos advertido su presencia. Es el momento de repasar las cuentas. Permítanme presen­ tarles a la Srta. Wong Soo Ling, que nos habla —o, mejor, nos escribe— en perfecto chino mandarín. Soo Ling es la voz del programa. Es la primicia de los afanes de José, una personalidad sin cuerpo traída al mundo por la paciente manipulación de símbolos de José (para ha­ cer más interesante la personalidad de Soo Ling, supongamos que el programa que José está ejecutando a mano es capaz de pasar la prueba de Turing, en chino, desde luego). Cuando se cuenta bien el

194

Inteligencia artificial. Una introducción filosófica

cuento de la habitación china, tiene dos personajes principales, José Culebrón, el incansable pero algo aburrido trabajador, y la Srta. Wong, una hablante artificial de chino pero encantadora y refinada, capaz de sostener una animada conversación sobre temas que van mucho más allá de los límites del ingenio dejóse. El punto álgido del cuento de Searle viene cuando a José se le pre­ gunta si las manipulaciones de símbolos que está realizando le permi­ ten entender las preguntas de entrada, y él (por supuesto) dice no. Se supone que de aquí hemos de concluir que estas manipulaciones de símbolos no bastan para producir la comprensión. Pero, ¿por qué preguntarle a José? Al fin y al cabo no es más que un engranaje de la máquina. Si preguntáramos a Soo Ling, sin duda respondería (co­ rrecta o incorrectamente) que las manipulaciones simbólicas que está realizando José le permiten entender las preguntas. Una vez establecido que hay dos papeles en la escena de la habita­ ción china, el de José y el del sistema del que forma parte, estoy en posición de señalar un defecto lógico del argumento de la habitación china. He aquí el argumento en su esencia escueta y ordenada. Premisa Ningún volumen de manipulaciones de símbolos de parte de José permitirán a éste entender las entradas en chino. Luego Ningún volumen de manipulaciones de símbolos de parte de José permitirán a un sistema más amplio, del que José es un componente, entender las entradas en chino. Este argumento no es válido. La conclusión, sencillamente, no se si­ gue de la premisa. Aunque es imposible disputar la verdad de la pre­ misa, ésta no presta ningún apoyo a la conclusión. El argumento de Se­ arle no es mejor que esta parodia, que tiene la misma forma lógica: Premisa Guillermo, el limpiador, nunca ha vendido pijamas a Corea. Luego La compañía para la que trabaja Guillermo nunca ha vendido pijamas a Corea. La organización de la cual Guillermo es un pequeño componente puede o no participar en el comercio de pijamas con Corea, pero la premisa no da ninguna indicación en ningún sentido.

El curioso caso de la habitación china

195

Searle conoce bien las respuestas de esta naturaleza a su argu­ mento. Éste ha recibido ataques similares de otros autores, y Searle ha bautizado las respuestas de este género objeción de los sistemas. Cree haber mostrado que la objeción de los sistemas está por entero equivocada4. Voy a tomar una por una las contestaciones de Searle a la objeción de los sistemas e intentaré mostrar que ninguna funciona. Para dar colorido a este combate de boxeo entre Searle y yo, lo pre­ sentaré en forma dialogada (las palabras que atribuyo a Searle son pa­ ráfrasis, no citas exactas). Primer asalto Su objeción a mi argumento es embarazosamente estúpida5. Usted está de acuerdo en que el hombre de la habitación no entiende el chino, pero dice que el sistema, más amplio, de que forma parte el hombre, puede, sin embargo, entender el chino. Veamos en qué con­ siste este «sistema más amplio» en el caso presente. Es un hombre junto con unos libros de reglas, un montón de cuadernos, un manojo de lápices y puede que también las rendijas de entrada y salida. ¿De verdad me está queriendo decir que aunque el hombre no entiende el chino, el sistema más amplio de hombre-más-papel-más-lápices lo entiende? SEARLE

Reconozco que suena estúpido decir que un hombremás-libro-de-reglas entiende el chino, aunque sea simultáneamente verdad que el hombre solo no entiende el chino. Pero eso no me causa apuro. Lo importante es ver por qué parece estúpido; Creo que hay dos razones. Primero, el hecho de que la habitación china con­ tenga un ser humano tiende a producir1algo semejante a mirar por un embudo en quienes escuchan el cuento de Searle. Hay que esforzarse por no considerar al hombre de la habitación como el único centro posible de comprensión del chino. Este falso atractivo de la conclu­ sión de Searle se desvanece si cambiamos un poco los detalles de la historieta. En vez de imaginar a un hombre que escribe ceros y unos, imaginemos una pulga magníficamente entrenada que da pequeños saltos hacia arriba (0) y hacia abajo (1). ¿Nos tienta ahora la idea de COPELAND

4 Searle, J., «Minds, Brains and Programs», pp. 419-20. 5 Searle, J., ibidem, p. 419.

Inteligencia artificial. Una introducción filosófica

196

que, puesto que la pulga no entiende el chino, no hay posibilidad de que entienda el chino el sistema o máquina del que la pulga es un componente? La segunda razón por la que suena estúpido decir que el sistema puede entender el chino aunque el hombre no pueda, es simple: el sistema más amplio que ha descrito Searle es profundamente estú­ pido. Ningún hombre podría ejecutar a mano un programa capaz de pasar la prueba de Turing china. Podría estar pintando ceros y unos durante diez años sin haber producido su primera oración en chino. Es irrisoria la idea de que José produzca una conversación en chino siguiendo un libro de reglas. Suena absurdo decir que un sistema compuesto por José y el libro de reglas puede entender el chino, pero no porque la objeción de los sistemas tenga fallos, sino porque el ab­ surdo está incorporado en la escena de Searle. Segundo asalto Su réplica al argumento de la habitación china es una peti­ ción de principio6. Esto es, supone gratuitamente la verdad de aque­ llo cuya falsedad estoy precisamente intentando demostrar. Mi ar­ gumento de la habitación china está pensado para demostrar que ejecutar un programa de computador no basta para producir com­ prensión del chino. Usted intenta responder a mi argumento di­ ciendo que, aunque el hombre no entiende el chino, el sistema más amplio del que forma parte entiende el chino. Pero precisamente lo que se está discutiendo es si ejecutar un programa basta para que algo entienda el chino. La objeción de los sistemas es una petición de prin­ cipio, porque insiste sin más argumento en que el sistema entiende el chino.

SEARLE

Esta objeción malinterpreta mi respuesta al argumento de la habitación china. Algunos, desde luego, han intentado rechazar el argumento de Searle diciendo que, aunque el hombre no enten­ diera el chino, el sistema global lo entendería7. Searle tiene razón en señalar que esta tosca réplica a su argumento es una petición de prin­ cipio. Sin embargo, mi respuesta es diferente. Sólo estoy llamando la

COPELAND

6 Searle, J., «Minds, Brains and Programs», p. 419. 7 Por ejemplo, Ned Block, «The Computer Model of the Mind», p. 282 y ss.

El curioso caso de la habitación china

197

atención sobre el hecho de que el argumento de la habitación china no es válido* en el sentido de que la conclusión no se sigue lógica­ mente de la premisa. No se puede inferir válidamente que el sistema de que José es componente no entiende el chino a partir de la premisa de que José no entiende el chino. No hay conexión lógica entre la premisa y la conclusión (como en el caso de Guillermo el limpiador y la empresa en la que trabaja). Indicar que el argumento de Searle no es válido lógicamente no entraña que yo afirme que el sistema com­ prende: sólo digo que no se puede inferir válidamente que no com­ prende a partir de la premisa de Searle. Así, pues, no he cometido una petición de principio. Se puede ilustrar con un caso paralelo. Supongamos que alguien argumenta: «Juana come alimentos vegetarianos; luego se opone a matar animales.» Este argumento no es válido: la conclusión, eviden­ temente, no se sigue de la premisa (el cardiólogo puede haber puesto a Juana a dieta vegetal). Puedo indicar que el argumento no es válido sin opinar sobre si Juana se opone o no a matar animales. Para pensar que un argumento no es válido no hace falta pensar que su conclu­ sión es falsa. Un argumento inválido puede tener una conclusión ver­ dadera. Aunque yo supiera que Juana se opone firmemente a quitar vidas animales, insistiría, como es lógico, en señalar al argumentador que su conclusión no se sigue lógicamente de su premisa. Esto se puede expresar con más sencillez si volvemos a la versión de la escena de la habitación china en que interviene el programa Sam. Searle argumenta que José no entiende la historia y^ por tanto, tampoco la entiende Sam. Con suerte, ahora estará usted de acuerdo conmigo en que no es un argumento válido. Para saber si Sam com­ prende, tenemos que fijarnos en Sam, no en José. En realidad, no me hizo falta fijarme mucho en Sam para darme cuenta de que definitiva­ mente no entiende la narración8. Sam literalmente no sabe de qué le están hablando. Cuando escribe «John pidió lasaña» no tiene una no­ ción de a qué se refieren estás palabras. Sam, como Eliza, puede ma­ nipular las palabras de forma que produce la ilusión de que com­ prende, pero no tiene ni idea de qué significan las palabras. Incluso los creadores de Sam están de acuerdo. Roger Schank escribe: «No se 8 Véase Schank, R. C., y Abelson, R., Scripts, Plans, Goals and Understandings ca­ pítulos 7 y 8.

198

inteligencia artificial Una introducción filosófica

puede decir de ninguno de los programas que hemos escrito que ver­ daderamente entienda»9. Así, la versión del argumento de la habitación china con Sam tiene una conclusión que sabemos verdadera. Pero eso no significa que el argumento sea bueno. Si Searle dijera «La luna está hecha de queso verde, luego Sam no entiende la historieta», también habría lanzado un argumento con una conclusión verdadera, y en ninguno de los casos la conclusión se seguiría de la premisa. Searle acusa a la objeción del sistema de «ser una petición de prin­ cipio, porque insiste sin argumentos en que el sistema debe compren­ der» I0. Sin embargo, en el caso de Sam, sabemos que el sistema no comprende y yo sigo insistiendo en que no es válido lógicamente in­ ferir de ese hecho que José no comprende. Esto debería poner en claro que no hay ninguna petición de principio. Tercer asalto SEARLE Puedo mostrar lo que tiene de erróneo su réplica cam­ biando algunos detalles de la historia de la habitación china. Dice us­ ted que el hombre es parte de un sistema más amplio que puede en­ tender el chino incluso aunque él no lo entienda. Puedo bloquear esa estrategia reformulando la historia de forma que no haya «sistema más amplio» n. En vez de imaginar a un hombre que trabaja en una habitación llena de libros de reglas, cuadernos y lápices, imaginemos que ha aprendido de memoria todas las reglas y realiza todas las ma­ nipulaciones simbólicas de cabeza. (Concedo que probablemente es imposible hacerlo, pero no importa. Desde el principio estábamos de acuerdo en que el experimento de la habitación china era imposible en la práctica: es sólo un «experimento mental».) De esta manera, el hombre incorpora el sistema completo en vez de ser sólo una parte. Cuando los experimentadores le hacen preguntas en chino, procede a realizar todas las manipulaciones simbólicas en su cabeza y acaba por escribir contestaciones en chino. Sin embargo, no entiende más chino que cuando estaba dentro de la habitación china. Esto es evidente, porque el tinglado es esencialmente el mismo que entonces. La única 9 Schank, R. G., «Understanding Searle», p. 446. Schank añade «todavía». 10 Searle, J., «Minds, Brains and Programs», p. 419.

u Searle, J., ibidem,, p. 419, y «Is the Brain's Mind a Computer Program?», p. 24.

El curioso caso de la habitación china

199

diferencia es que lo que usted llamaba el sistema ahora es parte del hombre, y no éste parte de aquél Por tanto, adiós a la objeción de los sistemas: si el hombre no entiende el chino, entonces no hay medio de que el sistema entienda, porque el sistema es parte de él COPELAND

Esta o b jeció n d ep en d e del siguiente principio:

Si José no puede hacer X, entonces ninguna parte de José puede hacer X. Searle se apoya en este principio cuando del hecho de que José no entiende el chino pasa a la conclusión de que el sistema, que ahora es una parte de José, no puede entender tampoco el chino. Llamémoslo «principio Parte-De». El problema de esta réplica de Searle es que no hay ninguna razón para pensar que el principio es verdadero (Searle mismo no hace ninguna mención de por qué lo cree). Para mostrar cuán dudoso es este principio describiré un contraejemplo de ciencia-ficción. Usted ha sido víctima de un secuestro de un grupo de investigadores fanáticos de la IA. Este grupo cree que la mejor manera de alcanzar el fin último de la IA, esto es, la superinteligencia humana, es ejecutar un «programa neurónico» en tejido cere­ bral humano. El proyecto no ha encontrado soporte oficial y han re­ currido a métodos» clandestinos, con el resultado de que usted está ahora en una camilla quirúrgica con amarras en un sótano debajo del laboratorio de IA. Contempla con aprensión la telaraña de cables que conectan su afeitado cráneo con un teclado y un monitor.u Sin extirpar ni dañar nada de su cerebro, el equipo ha impreso el «programa neurónico» en una pequeña área de su corteza cerebral (gracias a la enorme redundancia de la corteza, se las han arreglado para no afectar a sus facultades). El programa de prueba que el equipo ha diseñado para el experimento es uno diseñado para calcu­ lar soluciones a ecuaciones tensionales n-dimensionales de simetría oblicua. Funciona muy bien, y usted contempla sin comprender la entrada y la salida que aparecen en el monitor. He aquí, pues, un contraejemplo al principio de Searle de que si usted no puede ha­ cer X, entonces ninguna parte de usted puede hacerlo. Usted no puede calcular soluciones a ecuaciones tensoriales n-dimensionales de simetría oblicua, pero una parte de usted sí puede. La parte de su ce­ rebro ocupada para realizar los cálculos de otras personas continúa siendo una parte de usted.

Inteligencia artificial. Una introducción filosófica

200

¿Podría Searle limitarse a defender el fortín diciendo que, puesto que una parte de usted puede resolver ecuaciones tensoriales, se sigue que us­ ted puede resolverlas, que el equipo de IA le ha instilado una nueva habi­ lidad? Supongamos que Searle intenta decir esto y veamos a qué llevaría eso. Usted, desde la camilla, afirma que no sabe cálculo tensorial, y ni si­ quiera sabe qué es eso. Supongamos que Searle dice que usted se equi­ voca: usted ya no es árbitro último de lo que no puede hacer, y la manera de determinar sus habilidades es estudiar las entradas y salidas de cuales­ quiera «programas» que le implante el equipo. Bien, eso debe valer tam­ bién para José cuando ejecuta el programa memorizado. José afirma que no entiende el chino, pero José ya no es el árbitro último de eso: tenemos que considerar las entradas y salidas del sistema que José ha «internali­ zado». Pero eso, desde luego, es precisamente lo que Searle no puede de­ cir. Una piedra angular del argumento de Searle es cuando José dice: «No entiendo estos símbolos»; eso es prueba de que un programa de computador es insuficiente para dar a José la capacidad de entender el chino. Sin esta piedra angular, Searle no podría construir su argumento. Así, pues, Searle está entre los cuernos de un dilema. Si dice que usted sabe resolver ecuaciones tensoriales, cae en graves problemas. Si, por el contrario, dice que usted no sabe, contradice el principio Parte-De, puesto que hay una parte de usted que evidentemente sabe resolver ecuaciones tensoriales. Cuarto asalto SEARLE La objeción de los sistemas elude mi posición central: que el

dominio de la sintaxis es insuficiente para el dominio de la semántica. Por más que barajemos símbolos, jamás conseguiremos entender lo que significan esos símbolos. Un programa de computador es preci­ samente un conjunto de instrucciones para barajar símbolos. Por tanto, ejecutar un programa de computador no basta para producir comprensión del chino ni de nada. Volviendo a la objeción de los sis­ temas, dice usted que, aunque las manipulaciones simbólicas que rea­ liza el hombre no le permiten entender el chino, pueden, no obstante, permitir al sistema entender el chino. Pero, como acabo de explicar, seguir los pasos de un programa no basta para hacer que nada en­ tienda el chino, hombre, sistema o lo que usted quiera12. 12 Searle, J., Minds , Brains and Science, pp. 34-5.

El curioso caso de la habitación china

201

COPELAND ¡Vamos, Searle no puede hacer eso! Se supone que el ar­

gumento de la habitación china demuestra la tesis de Searle de que la mera manipulación de símbolos no puede producir comprensión, y ahora Searle intenta usar esa tesis para defender el argumento de la habitación china contra la objeción de los sistemas. Eso es como si le piden otros diez dólares para poder pagarle los diez dólares que pre­ viamente le deben. Esta cuarta respuesta a la objeción de los sistemas es un simple juego de manos. Es cierto que no he abordado la tesis de Searle de que la manipu­ lación de símbolos no basta para producir comprensión. Esto ha sido, sin embargo, porque me he ocupado de su argumento en favor de su tesis, y no de la tesis misma. Después de haber mostrado, es­ pero, que el argumento de la habitación china no vale, es hora de mi­ rar de frente la tesis que se supone que prueba. (Al fin y al cabo, de­ rribar un argumento de una tesis no basta para establecer que la tesis es falsa. Si Dios existe, existe, aunque se haya demostrado que son defectuosos incontables intentos de demostrar su existencia.) 6.3. Decidir qué es entender Cuando Sam mecanografía: «Mi plato favorito es la lasaña» no sabe, literalmente, de qué habla. ¿Cómo podría? No ha visto ni ha probado la lasaña. Sam lleva una vida muy escondida, privado de toda sensación y placer corporal, y comunicando por teletipo sus mensajes aburridos y adocenados. Sam es un sujeto perfecto, al que li­ berar. Pasemos a Turbo Sam, un llamativo robot humanoide cubierto de suave plástico rosa repleto de sensores táctiles sensibles a la pre­ sión. Turbo Sam tiene brazos, piernas, cámaras de la televisión embe­ llecidas por ojos, oídos electrónicos, una buena voz y cualesquiera elementos y aparatos artificiales que queramos imaginar. Aunque al principio está tan inerme como un niño humano, Turbo Sam aprende con rapidez cosas sobre el mundo. Su equipo de diseño le enseña pa­ labras de manera parecida a como se les enseña a los niños en casa («Mira, Turbo Sam, esto se llama spaghetti. Es comida.» «Estupendo, pero, ¿cómo se come?»). Al final de su entrenamiento, Turbo Sam, el triunfo de la ingeniería de la IA, habla como nosotros, interacciona con el mundo con tanta destreza como nosotros e incluso escribe poe­ sía. Pero, ¿entiende Turbo Sam su poesía? Porque, en el fondo,

202

Inteligencia artificial Una introducción filosófica

Turbo Sam no es más que un manipulador de símbolos. Sus periféri­ cos pueden ser fantásticos comparados con los simples teclado y pan-. talla de Sam, pero bajo todo ese bullicio no es más que un compu­ tador que manipula cadenas de ceros y unos. Searle, como es de esperar, dice que un robot controlado por un programa no comprende nada, por muy buena que sea su poesía. Sos­ tiene que puede demostrarlo mediante una nueva versión del argu­ mento de la habitación china13. Supongamos que una persona china ejecuta a mano el programa que controla Turbo Sam. Los símbolos con que comienza la persona no son esta vez caracteres chinos, sino los símbolos que los periféricos del robot suministran al programa. Serán bloques de ceros y unos. Esto puede parecer desconcertante, así que me explicaré. Tomemos el aparato visual del robot. Las fotografías de los periódicos, como es sabido, están hechas de pequeños puntos con grados diferentes de gris. Imaginemos una fotografía compuesta de puntos de sólo dos tonos de gris, claro y oscuro. Ahora sustituyamos cada punto claro por un cero y cada punto oscumpor un uno: el resul­ tado es una imagen compuesta por unos y ceros. En realidad, ésta es una forma bastante grosera de usar bits para representar una escena vi­ sual, y se consigue mejor detalle con métodos más refinados. Sin em­ bargo, este sencillo método ilustra que la salida de los «ojos» del robot puede constar de ceros y unos. Los símbolos que la persona envía a los divei'sos aparatos motores del robot —quizá por medio de una cone­ xión de radio— también serán cadenas de ceros y unos, que serán con­ vertidas en habla, movimientos de la mano, etc. Ahora vamos con el argumento de Searle. Alguien coge un plato y dice: «Oye, Turbo Sam, esto se llama lasaña». «Entiendo», responde Turbo Sam. Las manipu­ laciones de símbolos que producen esta respuesta las ha realizado a mano la persona china, y con ello no mejora su comprensión del signi­ ficado de «lasaña». Por lo que a ella se refiere, está manipulando cade­ nas incomprensibles de ceros y unos. Ni siquiera sabe que los símbolos con los que comienza proceden de la dotación sensorial y motora de un robot. Por tanto, dice Searle, puesto que ejecutar un programa no permite a la persona china comprender, el programa no es capaz de producir comprensión, aunque" pueda parecer lo contrario. Túrbo Sam podría decir «comprendo», pero no lo hace. Esta respuesta de Searle es más de lo mismo. Podemos pasarla por alto, pues ya sabemos que el argumento de la habitación china no es 13 Searle, J., «Minds, Brains and Programs», pp. 420 y 421.

El curioso caso de la habitación china

203

válido. Searle no puede inferir válidamente que Turbo Sam no en­ tiende a partir del hecho de que la persona china que ejecuta el pro­ grama no entiende. Es hóYa de afrontar directamente la cuestión de si Turbo Sam en­ tiende o no. Esta pregunta es muy semejante a la de si un artefacto puede pensar, y lo que voy a decir sobre ella es paralelo a lo que dije acerca de esta última en el capítulo 3. La única manera de responder ambas preguntas es decidir: decidir si se pueden o no extender a un artefacto términos y categorías que ordinariamente sólo aplicamos a otras personas y a nuestros parientes biológicos. ¿Piensa Turbo Sam? Decir que sí no es decir que hay un proceso especial llamado pensamiento, añadido a sus otros procesos internos, y que tiene lugar junto a ellos, y lo mismo ocurre con entender. Como he argumentado en el capítulo 3, empleamos la dicotomía pensante/no pensante para distinguir, por un lado, aquellas entidades cuya riqueza de procesos internos Orientadores de la acción las hace agentes inventivos, crecientemente adaptables, caprichosos, y, por otro lado, aquellas entidades como las larvas y los juguetes automáti­ cos cuyos procesos internos orientadores de la acción sólo son ca­ paces de producir conductas de un género rígido y limitado (sec­ ción 3.6). En mi opinión, es todo lo obvio que algo puede serlo en filosofía que si nos encontráramos un robot como Turbo Sam, ten­ dríamos que decir que piensa. Dado el propósito para el cual emplea­ mos el concepto de cosa pensante, la decisión contraria sería imposi­ ble de justificar. Y si decidimos afirmar que Turbo Sam piensa, no puede tener objeto rehusar decir que entiende el lenguaje que habla. Pues, en el escenario imaginado, Turbo Sam es tan hábil como un ser humano en el uso de las palabras para allanar y ornamentar su paso por el mundo. Es importante darse cuenta de que la tesis de Searle no es que un manipulador de símbolos no pueda comportarse como he retratado a Sam, sino que, aunque lo hiciera, no pensaría ni comprendería14. Para mis entendederas, ésta es una idea pintoresca; es más, es una idea para la que Searle no ofrece ningún apoyo, aparte del desacreditado argu­ mentó dé la habitación china. Me parece que d írnéntko es si se puede hacer que se comporte como Turbo Sam un ingenio que funcione realizando operaciones tales como comparar, copiar y bo­ 14 Searle, J., «Minds, Brains and Programs», pp. 420 y 421.

204

Inteligencia artificial. Una introducción filosófica

rrar símbolos. Pero ésta es una cuestión empírica. No se puede res­ ponder mediante un argumento filosófico a priori. 6.4. Las máquinas de Turing y la objeción biológica a la IA Searle tiene otra carta en la manga. Si la hipótesis del sistema de símbolos es verdadera, dice, entonces un computador hecho de papel higiénico puede pensar; por tanto, quien se incline a creer la hipótesis del sistema de símbolos debe disponerse a aceptar que los rollos de papel higiénico son material capaz de pensar15. Según mi experiencia, la reacción inicial más común es asombrarse de la idea de que se pueda hacer un computador con papel higiénico. Sin embargo, les aseguro que eso no es tan improbable como parece. Luego lo expli­ caré brevemente. Primero quiero desarrollar la tesis básica que sub­ yace al nuevo ataque de Searle, a saber, que, puesto que sabemos que nuestros estados mentales (pensar, entender, etc.) son el resultado de poseer una disposición muy especial de sustancias bioquímicas muy especiales en nuestros cráneos, podemos tener bastante seguridad en que el humilde rollo de papel higiénico no es el tipo de cosa capaz de tener estados mentales. Searle insiste en que el pensamiento, o mentalidad como a veces dice, es un fenómeno biológico16. Nuestra capacidad de segregar bilis depende de que poseemos un órgano con la constitución biológica apropiada, el hígado. Igualmente nuestra capacidad de tener estados mentales depende de que tengamos un órgano con una constitución biológica apropiada, el cerebro. La mentalidad, la lactancia, la diges­ tión, la mitosis, la meiosis, la fotosíntesis, el crecimiento, la reproduc­ ción, todos ellos son procesos cuyo acontecer depende de la bioquí­ mica de los organismos que los realizan. No cualquier cosa produce leche. La ubre de la vaca la da porque tiene la bioquímica adecuada para hacerlo. Igual la mentalidad, dice Searle: no cualquier cosa puede tener mentalidad. Los seres humanos la tienen sólo porque están he­ chos con el tipo adecuado de material. (Searle pone cuidado en seña­ lar que no está afirmando que el tejido cerebral de los mamíferos sea el único upo de sustancia capaz de sustentar la mentalidad. Es conce15 Searle, J., «Minds, Brains and Programs», p. 423. 16 Searle, J., ibidem, p. 422, y Minds, Brains and Science, pp. 40-1.

El curioso caso de la habitación china

205

bible que haya seres extraterrestres que tengan mentalidad aunque su.bioquímica sea muy distinta de la nuestra: lo que hacemos con materia gris, ellos lo hacen con baba verde. El tejido cerebral de los mamíferos puede o no ser la única clase de material capaz de susten­ tar la mentalidad, ésa es una cuestión estrictamente empírica según Searle1718.) Esto parece razonable. Pero, ¿en qué sentido es una objeción a la IA? Searle dice que nadie tomaría en serio la idea de programar un computador para que produjera leche: sabemos que las pastillas de si­ licio no son el material adecuado. Y, sin embargo, continúa Searle, «cuando pasamos a hablar de la mente, muchas personas están dis­ puestas a creer en ese milagro»; la gente se toma muy en serio la idea de programar un computador para que tenga mentalidadí8. Estas ob­ servaciones dan fácilmente la impresión de que Searle dice que los computadores están hechos de un material inapropiado para pensar: el silicio y el plástico no son las sustancias adecuadas para sustentar la mentalidad. Zenon Pylyshyn hace burla de esta audaz y dogmática afirmación19. Nos invita a considerar un experimento en el cual se sustituyen progresivamente las neuronas del cerebro de Searle por pastillas de silicio. Una neurona es un mecanismo biológico complejo cuya función global parece ser aceptar como entradas corrientes eléc­ tricas y emitir corrientes eléctricas como salidas. Cada neurona de Searle es reemplazada por una pastilla que mimetiza exactamente su patrón de entradas y salidas. Puesto que cada pastilla realiza exacta­ mente la misma función que la neurona que sustituye, la «silicización» no afectaría al carácter de los mensajes eléctricos que él cerebro de Searle envía a los músculos de su garganta, labios, manos, etc. Searle probablemente seguiría hablando y escribiendo como ahora, con la única diferencia de que ahora no se referiría a nada, puesto que su cerebro estaría hecho de silicio, metal y plástico, y no tendría mentalidad. . Searle replica con bastante sequedad que Pylyshyn le ha enten­ dido mal20. Claro que no estoy afirmando dogmáticamente que el si­ licio no pueda sustentar la mentalidad, dice Searle. Puede que sí y puede que no: eso es una cuestión empírica. ¿Quién sabe cuál 17 Searle, J., «Minds, Brains and Programs», p. 422. 18 Searle, J., ibidem, p. 424. 19 py]yS¿yn) Z. W., «The “Causal Power” of Machines», p. 442. 20 Searle, J., «Autor’s Response», p. 453.

206

Inteligencia artificial. Una introducción filosófica

sería realmente el resultado del experimento de ciencia-ficción de Pylyshyn? El cuento de Pylyshyn supone precisamente que el sis­ tema propuesto de circuitos integrados duplicaría las propiedades causales del cerebro. Pero puede que no, ¿quién lo sabe? No sabemos en el momento actual si un aparato construido con pastillas de silicio puede tener las mismas propiedades causales que el cerebro o, en otras palabras, tener las cualidades y la organización adecuadas para sustentar la mente (igual que no sabemos si una extraña pasta verde podría tener las mismas propiedades causales que el cerebro humano). Sin embargo, continúa Searle, hay una cosa segura, incluso en nuestro estado actual de ignorancia, y es que ningún aparato de si­ licio puede duplicar las propiedades causales del cerebro humano mediante la ejecución de un programa de computador. Porque esto, nos recuerda Searle, lo ha demostrado el argumento de la habitación china. De pronto la objeción biológica de Searle a la IA empieza a per­ der interés. La objeción biológica equivale a los tres extremos si­ guientes: 1) Un artefacto con mente tiene que constar de las sustan­ cias adecuadas configuradas del modo adecuado para dotar al ingenio de las mismas propiedades causales que posee el órgano que hay den­ tro del cráneo humano. 2) Si esto se puede hacer con sustancias dis­ tintas de las que componen el cerebro humano, es una cuestión empí­ rica. 3) No es posible mediante la programación dotar a un ingenio con las mismas capacidades causales de un cerebro humano. Sin em­ bargo, nada de esto hará tambalearse a un entusiasta de la IA. Si nos fijamos en la proposición 1) veremos que es trivial. Se reduce a decir que para poseer mente, un artefacto debe tener la constitución apro­ piada para sustentar la mente. La proposición 2) es verdadera, pero no provocativa. ¿Quién negaría que es una cuestión empírica? Y la proposición 3) es sencillamente la conclusión del argumento de la ha­ bitación china, que no es válido. Ahora vamos a lo que estábamos esperando. ¿Cómo es posible construir un computador de papel higiénico? En 1936 Alan Turing de­ mostró un teorema matemático fundamental para la teoría de la compu­ tación. Turing no formuló exactamente así su resultado matemático, pero éste es su significado básico: cualquier programa que se pueda eje­ cutar en un computador se puede también ejecutar en un rollo de papel higiénico infinitamente largo (Turing hablaba discretamente de cintas de papel infinitamente largas). Recordemos que cuando ejecuta un pro­ grama, un computador se limita a manipular los símbolos 0 y 1: escri­

El curioso caso de la habitación china

207

birlos en direcciones, borrar de direcciones, etc. Todo esto se puede imitar por medio de un ingenio que conste de un rollo de papel higié­ nico de longitud ilimitada —cada hoja constituiría una «localización» para un símbolo individual— más una cabeza de lectura y escritura ante la cual se desplaza el papel hoja por hoja. La cabeza puede identi­ ficar cualquier símbolo que tenga ante sí, puede borrar y escribir sím­ bolos y puede mover el papel a izquierda o derecha. Las operaciones de la cabeza son controladas mediante un conjunto de instrucciones in­ corporadas. Podríamos figurarnos que habría que cambiar estas ins­ trucciones cada vez que se exige al ingenio imitar un programa de compu­ tador diferente, pero no hace falta. Una consecuencia de uno de los sorprendentes teoremas de Turing es que un conjunto fijo de instruc­ ciones permitirá al ingenio imitar cualquier programa de computador que deseemos (¡Bastan veintiocho instrucciones!)21. El truco está en es­ cribir en la cinta misma instrucciones especiales que se combinan con las instrucciones incorporadas a la cabeza y producen la conducta ape­ tecida. Estos ingenios de cinta de papel se llaman máquinas de Turing. Una máquina de Turing con instrucciones que le permitan imitar cual­ quier programa de ordenador se conoce como una máquina universal de Turing. Si la hipótesis del sistema de símbolos es verdadera, enton­ ces, en principio, se puede programar para pensar una de estas máqui­ nas terriblemente simples (los ejercicios del final de este capítulo dan algunos ejemplos de máquinas de Turing)22. Desde luego, sólo en teoría puede una máquina universal de Tu­ ring hacer todo lo que hacen los más potentes computadores moder21 Demostrado por Minsky en su Computation: Finite and Infinite Machines, sec­ ción 14.8. 22 Lo que Turing demostró es que existe (en el sentido matemático) una máquina de Turing capaz de computar todas las funciones efectivamente calculables, en un sen­ tido de «efectivamente calculable» definido por Alonzo Church; véase Turing, A. M., «On Computable Numbers, with an Application to the Entscheidungsproblem». (El concepto de calculabilidad efectiva es equivalente al concepto de calculabilídad algorít­ mica introducido y explicado en el capítulo 10.) Se ha demostrado después que hay muchas máquinas de Turing diferentes (esto es, máquinas de Turing con tablas distin­ tas) que pueden hacer esto. Son máquinas universales de Turing. Una máquina univer­ sal de Turing tiene una potencia de computación equivalente a la de cualquier sistema universal de símbolos con memoria ilimitada. La demostración de esto consiste esen­ cialmente en escribir un programa para una máquina con las operaciones fundamenta­ les recogidas en la sección 4.5, que permita simular uná máquina universal de Turing, y escribir un programa para una máquina universal de Turing que le permita simular una máquina que use las operaciones mencionadas.

208

Inteligencia artificial. Una introducción filosófica

nos. Por un lado, el papel (especialmente el papel higiénico) es dema­ siado flojo para soportar muchos vaivenes delante de la cabeza de la máquina. Además, no hay bastante material: se necesitarían enormes cantidades de rollos para imitar un programa tan simple como Eliza, E incluso si, per impossibile, alguien cometiera la locura de construir una máquina de Turing de papel, el ritmo de trabajo sería tan lento que moriría antes de que la máquina hubiera completado cualquier programa razonablemente complejo. En resumen, el ordenador de papel es una posibilidad teórica pero no auténtica. Hemos visto en el capítulo 4 que un computador no tiene por qué consistir en la herramienta electrónica ordinaria (sección 4.7). Ahora resulta que es posible teóricamente construir un computador con pa­ pel (junto con los componentes de la cabeza de lectura y escritura). No hay ningún límite teórico real a los componentes con los que se puede hacer: papel higiénico, piedras, latas de cerveza, palomas, tube­ rías o molinos de viento, por citar la lista de Searle de posibilidades pintorescas. Si es verdadera la hipótesis del sistema de símbolos y cualquier computador puede pensar si está programado adecuada­ mente, es posible en teoría construir un órgano que piense con papel higiénico o latas de cerveza o prácticamente de cualquier cosa. La idea de que se puede fabricar un «cerebro» con sustancias tan impro­ bables le parece a Searle cómica. Cuando pensamos en que nuestra capacidad de pensar está tan estrechamente ligada con nuestra histo­ ria evolutiva de organismos biológicos, y depende tan decisivamente de la composición y organización precisas de las sustancias que tene­ mos dentro del cráneo, la idea de que se pueda fabricar un cerebro ar­ tificial con esas porquerías parece ciertamente extraña. Sin embargo, aquí lo importante es darse cuenta de que la hipóte­ sis del sistema de símbolos no implica que realmente se pueda cons­ truir un artefacto pensante con papel higiénico o latas de cerveza. Sear­ le dice que encuentra la hipótesis «francamente, del todo idiota»23, pero no es en realidad tan idiota como hacen que parezcan estas alu­ siones al papel higiénico y las latas de cerveza. En el país de las hadas se pueden hacer niños de azúcar y especias y golosinas, y los compu­ tadores de papel higiénico, pero en el mundo real la estructura y las propiedades de la materia imponen serias restricciones a aquello de lo que se pueden hacer los computadores o los niños. Sin duda hay otras formas posibles físicamente de realizar computadores distintas 23 Searle, J., M inds , Brains and Science, p. 38.

El curioso caso de la habitación china

209

de las que mejor conocemos, los circuitos electrónicos (si quienes postulan que el cerebro humano mismo es un computador tienen ra­ zón, entonces hay al menos dos formas radicalmente diferentes de rea­ lizar computadores). Pero los diseños de papel higiénico y latas de cerveza no son aspirantes. En el mundo real estas sustancias no sirven para esa tarea. Así, pues, hay un amplio grado de acuerdo entre Searle y los de­ fensores de la hipótesis del sistema de símbolos (aunque Searle, claro .está, no lo ve así). Ambos bandos creen que sólo una organización exacta y delicada de sustancias adecuadas puede sustentar la mente. Quizá la diferencia más interesante entre los dos bandos sea una que pone a Searle en inferioridad. Es que Searle no ofrece ninguna teoría sobre qué hace que una sustancia sea apropiada para contribuir a pro­ ducir la mente, mientras que el bando contrario sí la ofrece. Su teoría es que una sustancia es capaz de esta contribución si sus propiedades físicas le permiten prácticamente convertirse en un ingrediente cen­ tral de la construcción de un sistema de símbolos universal. Esta teoría no impresiona a Searle, pues cree que (en el sentido ordinario de «computación») todo es un computador. Escribe: El argumento de la habitación china mostraba que la semántica no es intrín­ seca a la sintaxis... Peor aún, que la sintaxis no es intrínseca a la física. La ads­ cripción de propiedades sintácticas es siempre relativa a un agente u obser­ vador que trata ciertos fenómenos físicos como sintácticos... Los estados cómputacionales no se descubren en la física, sino que se le asignan a la fí­ sica... En la definición de manual de computación... para todo objeto hay al­ guna descripción bajo la cual el objeto es un computador digital24.

Searle ilustra el curso de su razonamiento con un ejemplo: «La pared que tengo a mi espalda ejecuta ahora mismo el programa Wordstar, porque hay algún patrón de movimientos moleculares que es isomorfo con la estructura formal del Wordstar»25. Searle señala regocijado que estas consideraciones hacen trivial la pregunta de si el cerebro humano es un computador: «si los cerebros son computado­ res digitales porque todo es un computador digital»26. Sin embargo, Searle se equivoca al creer que la «definición de ma­ nual de computación» implica que esta pared ejecuta el Wordstar. 24 Searle, J., «Is the Brain a Digital Computer?», pp. 26 y 27. 25 Searle, J., ibidem, p. 27. 26 Searle, J., ibídemt p. 26.

210

Inteligencia artificial. Una introducción filosófica

Concedamos a Searle que los movimientos de las moléculas de la pa­ red se pueden describir de una manera que sean «isomorfos» con una sucesión de manipulaciones de bits llevadas a cabo por una máquina que esté ejecutando el Wordstar (dos cosas, o estados, o procesos son isomorfos si poseen la misma estructura. Si yo imito exactamente con mis manos los movimientos de las de usted, entonces los movimien­ tos de las mismas son isomorfos con los suyos). Desde luego, el isomorfismo podría persistir sólo por una fracción de segundo, a menos que hiciéramos trampas jugando con el esquema de la descripción27. La existencia del isomorfismo no basta para que sea verdad que la pa­ red está soportando el Wordstar ni siquiera durante el breve periodo durante el cual existe el isomorfismo. Consideremos un computador que está verdaderamente ejecutando el Wordstar. Supongamos que durante un intervalo particular de tiempo, £, el computador lleva a cabo una sucesión de manipulaciones de bits mp m2, m3, ... en res­ puesta a una orden de hacer una clasificación alfabética. Imaginemos además que, bajo el hipotético método de Searle para describir los movimientos de las moléculas de su pared, es verdad que durante t la pared también está llevando a cabo la sucesión de manipulaciones de bits m1? m2, m3, ... (esto es lo que Searle quiere decir cuando habla de que los movimientos moleculares son «isomorfos con la estructura formal del Wordstar»). Para que la pared esté soportando el Words­ tar hace falta mucho más. Pues si al ordenador se le hubiera man­ dado, en vez de clasificar, comprobar la ortografía o poner en cursiva 27 Se puede prolongar el isomorfismo cambiando continuamente las referencias de los términos clave de la descripción («registro de la instrucción», «acumulador», etc.). Me refiero a permitir que un término se refiera primero a una cosa, luego a otra, des­ pués a la de más allá, (Análogamente, la referencia del término «primer ministro de Gran Bretaña» puede cambiar como resultado de las elecciones generales.) La referen­ cia del término «registro de la instrucción» ha de cambiar repetidamente conforme avanza el programa, de manera que en cada momento el término se refiera a una región de la pared cuyas moléculas, por casualidad, sean una codificación (según la manera de describir de Searle) del contenido, en ese momento, del registro auténtico de la ins­ trucción (igual en el caso del acumulador y el resto de ios registros de la máquina), ver mi «What is Computation?», donde se contiene un argumento según el cual es ilegí­ timo, en este contexto, hacer esa maniobra. Ahí defiendo que el análisis de la computa­ ción que hizo Turing en 1936 basta para contrarrestar el llamado problema de las «rea­ lizaciones triviales». (Una de las cuales es la pared del Wordstar), Argumento que el problema sólo surge si se pasan por alto las lecciones sobre modelos que nos enseña la paradoja de Skolem. Barrer este problema desmonta varias objeciones que se han he­ cho al funcionalismo psicológico y a la hipótesis de que el cerebro humano es un com­ putador.

El curioso caso de la habitación china

211

un documento, o borrar la última página, entonces habría llevado a cabo durante t una sucesión completamente distinta de manipulacio­ nes de bits. El enunciado «si en el momento t a la máquina se le hu­ biera ordenado ejecutar un control de la ortografía, habría realizado las manipulaciones de bits np n2, n3, ...» se llama contrafáctico, un enunciado que nos dice, no lo que la máquina en realidad hizo en f, sino lo que habría hecho si la entrada hubiera sido diferente. Si la pa­ red de Searle está soportando de verdad el Wordstar durante t, en­ tonces serán verdaderos éste y otros contrafácticos semejantes; de modo que si éstos no son verdaderos, entonces no está soportando el Wordstar. Como cualquier ingeniero de diseño físico atestiguará, formar con la materia bruta un aparato que tenga tal conjunto de contrafácticos verdaderos es materia bien delicada. La suposición de que un objeto que consta de unas vigas y un enfoscado de yeso ha de tener los contrafácticos requeridos no es de este mundo. Así, pues, Searle no ha dado ningún apoyo a su afirmación de que todo objeto posee una descripción bajo la cual es un sistema de sím­ bolos universal. Por el contrario, todo son razones para creer que la clase de tales objetos es bastante restringida, y es una cuestión empí­ rica que el cerebro sea un miembro de esa clase (este problema es el meollo del capítulo 9). Ejercicios Ejecute a mano estas sencillas máquinas de Turing y descubra qué cambios realizan sobre sus cintas. Encontrará las respuestas en la nota28. 28 La Máquina Uno sustituye progresivamente los unos de su cinta por ceros, hasta que llega al cuadro que ya contiene un uno, y entonces se detiene.

0 F igura 6.3 La Máquina Dos es un comprobador de paridad. Esto es, informa de si una secuen­ cia entera de unos contiene un número par o impar de dígitos. Conforme la secuencia de unos pasa la cabeza, el indicador salta entre dos estados: impar, par, impar, par.

Inteligencia artificial. Una introducción filosófica

212

Máquina uno Las instrucciones incorporadas en la cabeza de lectura y escritura de una máquina de Turing* se representan habitualmente en forma de tabla, conocida como tabla de máquina: Símbolo 1 0

Escribir 0 1

Ir a I P

La primera línea de la tabla dice a la cabeza lo que ha de hacer cuando escruta un cuadro que contiene el símbolo 1; a saber, escribir un 0 en el cuadro (y antes borrar el 1, desde luego) y luego mover la cinta un cuadro hacia la izquierda (con el resultado de que la cabeza va al cuadro siguiente por la derecha). La segunda línea dice a la ca­ beza lo que ha de hacer cuando escruta un 0; a saber, sustituir el 0 por un 1 y luego parar. Antes de poner en marcha la máquina, la cinta está como se mues­ tra en la figura 6.1 (señala el cuadrado donde está la cabeza). ¿Qué as­ pecto tendrá la cinta cuando se detenga la máquina?

F igura 6.1

Cuando la cabeza encuentra ei 0 que señala el extremo derecho de la secuencia, lo sus­ tituye por un 1 si hay un número impar de unos en la secuencia (esto es, si el indicador está en el estado 1), y no hace ningún cambio si hay una cantidad par (esto es, si el in­ dicador está en el estado 2). Luego se sitúa en el uno final de la sucesión y se detiene.

F ig u r a 6.4

213

El curioso caso de la habitación china

Máquina dos Esta máquina es más interesante. Tiene como rasgo adicional un indicador. En la tabla anterior ambas instrucciones tienen la forma «si el símbolo actual es ... hacer___ ». Se introduce el concepto de indica­ dor para posibilitar formas más complicadas; por ejemplo, «si el sím­ bolo actual es ... y el símbolo del cuadro inmediatamente precedente era___ hacer____». Una manera útil de concebir el indicador de una máquina de Turing es como un puntero con varias posiciones. Un in­ dicador de dos posiciones bastará para conservar la pista del último símbolo binario encontrado: si era un 0, el indicador se coloca en su posición primera, y si era un 1, en su posición segunda. Según la tarea se pueden usar más de dos estados. La máquina universal que descri­ bió Turing tenía más de veinte estados. Una tabla de máquina de una máquina de Turing con un indicador tiene cinco columnas. En la tabla próxima la primera línea dice a la ca­ beza lo que debe hacer si encuentra un 1 cuando su indicador (de dos estados) está en el primer estado: no hacer ningún cambio en el sím­ bolo (N), mover la cinta un cuadro hacia la izquierda y llevar el indica­ dor a su segundo estado. La segunda línea le dice lo que ha de hacer si encuentra el símbolo 1 y el indicador está en el segundo estado. El «D,P» de la tercera y la cuarta líneas de la columna Ir a significa «mueve la cinta un cuadro a la derecha y luego para». Ir a Siguiente estado 2 I I 1 D,P 1 2 D,P ¿Puede averiguar para qué se ha programado esta máquina? Cuando la máquina empieza a operar el indicador está en el estado 1 y la cinta como se muestra en la figura 6.2. Símbolo 1 1 0 0

Estado 1 2 1 2

Escribir N N 1 N

F igura 6.2

214

Inteligencia artificial Una introducción filosófica

Por último, un ejercicio para quienes tienen adicción al lenguaje ensamblador. Pruebe a escribir un programa que simule la conducta de la máquina dos (usando el lenguaje de programación definido en el capítulo 4)29.

29 Ésta es una versión a escala reducida de lo que hay que hacer cuando se construye la primera parte de la demostración aludida en la nota 22:

Capítulo 7 LIBERTAD

«Bueno, puede que sea posible construir un computador que piense en un sentido limitado», truena el escéptico del bar. «Pero una máquina nunca será capaz de ♦ ♦ ♦ ♦ ». Aquí el o la hablante desvela su ejemplo preferido de rasgo de mentalidad humana que —supues­ tamente—• ninguna máquina puede reproducir. Alan Turing escribió malhumorado sobre estas réplicas (a las que dio el título colectivo de «argumentos de las diversas incapacidades»). «Generalmente no se ofrece nada en apoyo de estas manifestaciones», lamenta1. Recoge numerosos candidatos para ♦ ♦ ♦ ♦ : las máquinas no pueden distin­ guir el bien del mal, tener iniciativas, aprender de la experiencia, usar las palabras adecuadamente, ser sujetos de su propio pensamiento, o hacer algo verdaderamente nuevo12. En el transcurso de mis discusio­ nes sobre la capacidad mental artificial (en bares y en otros sitios) he hallado que dos candidatos comunes para ♦ ♦ ♦ ♦ son hacer eleccio­ nes libres y pensar conscientemente. Según un prejuicio ordinario, un artefacto electrónico no puede ejercer la libre voluntad ni ser un su­ 1 Turing, A,, «Computing Machinery and Intelligence», p. 447. 2 Turing, A., ibidem, p. 447. 215

216

Inteligencia artificial. Una introducción filosófica

jeto de conciencia. En este capítulo y en el próximo se cuestionan ambas suposiciones. Desde luego es interesante por derecho propio indagar la posibili­ dad de la conciencia y la libertad de los computadores. Pero la signi­ ficación más profunda de esa investigación está en otro lado. Como dice Herbert Simon: «Quizá la mayor significación del computador reside en su impacto sobre la visión del hombre... el computador le ayuda a obedecer, por vez primera, el antiguo imperativo conócete a ti mismo»3. El computador es lo que la socióloga Sherry Turkle llama un objeto evocador, un objeto que nos demanda volvernos a anali­ zar4. «Algunos objetos, y en nuestra época el computador destaca entre ellos, provocan la reflexión sobre lo fundamental», dice. «El computador es un nuevo espejo... Un espejo en el que la mente se re­ fleja como máquina»5. Las investigaciones filosóficas sobre la posibi­ lidad de la libertad y la conciencia de las máquinas son, en el fondo, parte de nuestro esfuerzo por entender nuestra propia naturaleza. Ponemos los ojos en el espejo, pero nos fijamos en nosotros. ¿Somos máquinas de cierto género? Espero que las próximas páginas no sólo ayuden a dar más verosimilitud a esta posibilidad, sino también a ha­ cerla más llevadera. 7.1. Turbo Sam hace una elección «Marvin, estoy cansado del MIT», dijo un día Turbo Sam a su programador jefe. «Sé que vosotros me habéis construido y no quiero parecer ingrato. Pero en el exterior hay un gran mundo. Stan­ ford y Carnegie-Mellon me han hecho ofertas muy atractivas. Los británicos me quieren también, y he decidido ir al Instituto Turing de Glasgow. Ha sido una elección difícil. A alguien como yo le sentaría mejor California que Escocia, pero en el Instituto me han ofrecido gastar siete millones en construirme una esposa y niños. Marvin, sé que a la Agencia de Proyectos de Investigación Avanzados de De­ fensa esto le va a disgustar. Pero eso es asunto tuyo.» Turbo Sam ha deliberado cuidadosamente sobre las varias posibi­ lidades, ha tomado en cuenta todos los datos disponibles, sopesado 3 Simon, H., «What Computers Mean for Man and Society», p. 1191. 4 Turkle, S., The Second Self: Computers and the Human Spirit, p. 13. 5 Turkle, S., ibidem, pp. 16,306, 308.

Libertad

217

los pros y los contras, reflexionado sobre las delicias de la paternidad frente al encanto de California, y ha decidido, por último, marcharse con los expertos en robótica de Glasgow. Eso, en opinión de cual­ quiera, es hacer una elección. Negarse a aplicar la palabra «elección» a la actuación de los mecanismos de decisión de Turbo Sam sería tan absurdo como rehusar decir que Turbo Sam piensa y entiende. Un robot, no menos que un ser humano, es capaz de elegir entre alterna­ tivas. Pero elegir no siempre es elegir libremente. ¿Fue libre la elección de Turbo Sam? A primera vista la respuesta es no. Cada una de las decisiones de Turbo Sam es el resultado inevitable de su programa­ ción: al hacer su elección se limitó a seguir las instrucciones de su programa. Quien conociera lo bastante el programa y los datos alma­ cenados en los diversos mecanismos de memoria del robot podría calcular exactamente lo que Turbo Sam ha de decidir (descontados los errores de hardware y las perturbaciones que pueden producirse —cuando las ranas críen pelo— como resultado de las indetermina­ ciones cuánticas). Es más, podría conocer el resultado de la decisión de Turbo Sam antes que él si trabajara rápido. Entonces, ¿cómo po­ dría ser libre la elección? Cada una de las decisiones de Turbo Sam está determinada enteramente por los detalles de su diseño y las in­ fluencias de su entorno que le hayan afectado desde el día de su ma­ nufactura. Turbo Sam elige, pero parece que en cada ocasión es inca­ paz de elegir de otra manera. Este argumento parece definitivo. Pero no lo aceptemos sin opo­ ner resistencia. Su veneno actúa con la misma efectividad en los hu­ manos que en los robots. 7.2. ¿Es una ilusión la libertad de la voluntad? Según Boswell, Samuel Johnson afirmó en cierta ocasión: «Señor, sabemos que nuestra voluntad es libre, y no hay que darle más vuel­ tas»6. Pero lo que el Dr. Johnson debería haber dicho es que tenemos la sensación de que nuestra voluntad es libre; y, por desgracia, el he­ cho de que tengamos la experiencia subjetiva de elegir libremente no implica que haya que dejar de darle vueltas, pues esta experiencia 6 Boswell, J., Life of Samuel Johnson, vol. 2, 10 de octubre de 1769 (p. 231 de la edición de Birrell).

218

Inteligencia artificial. Una introducción filosófica

puede ser una mera ilusión. Un pequeño experimento puede conven­ cernos de que es posible. Durante el próximo medio minuto levante el índice de la mano derecha tres o cuatro veces. Elija los momentos espontáneamente. In­ tente averiguar si hay un lapso apreciable entre el momento de la elección y el de ponerse el dedo en movimiento. Vale. Si sus experiencias subjetivas son como las mías, el movi­ miento de los músculos de su dedo habrá sucedido más o menos in­ mediatamente a su decisión consciente de iniciar la acción. Lo asom­ broso es que un técnico equipado con los instrumentos apropiados habría sabido que usted iba a levantar el dedo aproximadamente un segundo antes de que comenzara el movimiento. H. H. Kornhuber y sus asociados realizaron este experimento clásico en los años setenta, usando sujetos con varios electrodos fijados al cuero cabelludo y al dedo78.Descubrieron que se empezaba a configurar un patrón carac­ terístico de actividad cerebral segundo y medio antes de que comen­ zara el movimiento del dedo (el patrón de actividad, registrado por medio de un electroencefalógrafo, se conoce como el Bereitschaftspotential). En este contexto, un técnico que observara el inicio de esta actividad de su cerebro sabría que usted está a punto de levantar el dedo, y —esto es lo sobrecogedor— lo sabría casi un segundo antes de que usted tenga la experiencia subjetiva de elegir libremente el momentos. Las implicaciones de este experimento son aún objeto de acalorado debate9. Sin embargo, ha influido en la creencia de varios, autores en que nuestra experiencia subjetiva de libre voluntad es una ilusiónI0. 7 Deecke, L., Grozinger, B., y Kornhuber, H. H., «Voluntary Finger Movement in Man: Cerebral Potentials and Theory». En un total de 87 experimentos con 39 sujetos, el Bereitschaftspotential comenzó por término medio 750 miÜsegundos antes que la flexión del dedo, y en algunos sujetos 1,5 segundos o más antes de la flexión. (Véase también Libet, B., «Unconscious Cerebral Initiative and the Role of Conscious Will in Voluntary Action».) 8 El tiempo de reacción del movimiento del dedo es sólo, más o menos, de una dé­ cima de segundo. (Así, si, por ejemplo, nos piden presionar un botón al oír un timbre, pasa aproximadamente una décima de segundo antes de que los músculos del dedo em­ piecen a responder.) Puesto que el Bereitschaftspotential comienza un segundo o más antes del inicio de la respuesta muscular del dedo, los resultados perturbadores de este experimento no se pueden explicar apelando al lapso entre decisión y movimiento. 9 Véase, por ejemplo, la discusión que sigue abartículo de Libet citado en la nota 7. 10 Por ejemplo, Hart, E., Windows on the Mind: Reflections on the Physical Basis of Consciousness, p. 182.

Libertad

219

Se citan otros muchos hechos y fenómenos en apoyo de la creen­ cia de que la libre voluntad es una ilusión. Las personas dominadas por una sugestión posthipnótica sienten que están actuando con li­ bertad, aunque en realidad están obedeciendo las instrucciones de un agente externo. La dieta puede afectar radicalmente la conducta. Si un ilustrado rey medieval se convierte en un déspota retorcido por culpa de una alergia alimentaria insospechada, ¿podemos considerar libres sus decisiones de reprimir y agotar con impuestos a sus súbditos? El, sin duda, habría creído firmemente que lo eran. En otra línea distinta, muchas elecciones supuestamente libres serán en realidad el resultado del carácter heredado genéticamente de una persona. A través del ADN de nuestros genes y de los procesos de selección natural, las in­ fluencias que moldean nuestras decisiones se retrotraen a las vidas de incontables generaciones de antepasados. De forma semejante, a me­ nudo elegimos sobre la base de preferencias imbuidas por padres y educadores o impregnadas por nuestro medio social. También una elección puede estar dictada por los efectos de la experiencia prenatal o infantil, o una fobia no reconocida u otros factores ocultos. Por ci­ tar a un psiquiatra: «La libre voluntad es un asunto puramente sub­ jetivo... Puede usted tener un sentimiento de libre voluntad y, sin embargo, hay... una determinación completa si se juzga desde el exte­ rior» 11. Parece que a menudo, y quizá siempre, nuestras elecciones son el resultado de factores que escapan a nuestro control. Quizá nos sentimos libres porque somos capaces de imaginar con facilidad que seguimos cursos de acción distintos de los que seguimos. Muchas personas que creen que la libre voluntad es una ilusión basan su creencia en una teoría llamada deterninismo. Decir que un sistema (como un computador) es determinista es decir que todo acontecimiento que ocurre en el sistema es producido por causas. Se dice que las causas del acontecimiento lo «determinan», en el sentido de que una vez que han ocurrido las causas, el acontecimiento no tiene más remedio que ocurrir, dadas las circunstancias y las leyes de la naturaleza. Usted probablemente tenga una posición determinista acerca de su coche. Sin duda cree que si, por ejemplo, falla el sistema eléctrico, 1) tiene que haberse producido alguna causa o serie de cau­ sas, y 2) una vez que la causa o causas operan, el efecto tiene que se­ guir, dadas las leyes pertinentes de la naturaleza y las circunstancias* " Hans Shaefer, en Eccles, J. C. (comp.), Brain and Conscious Experience, páginas

310-311.

220

Inteligencia artificial Una introducción filosófica

(una de las cuales es, sin duda, que nadie advirtió la avería e intervino para corregirla antes de que se produjera el efecto). Se han escrito millones de palabras sobre el problema de sí el uni­ verso es un sistema determinista. Todo lo que ocurre en un universo determinista está causado por acontecimientos previos, y una vez que ocurren esos acontecimientos, sus efectos se seguirán necesariamente. El futuro está producido inexorablemente por el pasado. Una de las grandes figuras de la ciencia, Pierre-Simon Laplace (1749-1827), puso mucho colorido a las consecuencias del determinismo: Debemos considerar el estado presente del universo como el efecto de su es­ tado previo y como causa del estado que ha de venir. [Consideremos] una in­ teligencia informada de todas las fuerzas que mueven la naturaleza y de las posiciones relativas, en un instante dado, dé todas las cosas del universo, y además suficientemente amplia para someter a análisis estos datos... Para esta inteligencia nada sería incierto: el futuro, como el pasado, estarían presentes ante sus ojos!2.

La teoría de que el universo entero es determinista se conoce como determinismo universal. Es una postura que hoy se considera incompatible con la física moderna, aunque unos pocos científicos (entre ellos Einstein) han continuado manteniéndola u. Por el contra­ rio, el determinismo neurofisiológico es una tesis mucho más mo­ desta. Esta teoría sostiene que en cierto nivel de análisis, el cerebro humano (y el cuerpo humano, en general) es un sistema determinista. Según el determinismo neurofisiológico cada una de las decisiones que tomamos es el resultado de causas preexistentes: generalmente acontecimientos y estados del cerebro, sistema nervioso, órganos y tejidos (incluido, claro está, el aparato sensorial). En el estadio actual no está claro si el determinismo neurofisiológico es verdadero. Sin embargo, mucha gente lo toma por una teoría plausible; y es cierto que a lo largo de este siglo han sucumbido a la explicación causal más y más aspectos de la conducta interna y externa del cuerpo humano. La razón de la apostilla «en cierto nivel de análisis» es ésta. Los deterministas neurofisiológicos no creen que todos los acontecimien-123 12 Laplace, P., Essai Philosopkique sur les Probabilités, segunda edición, pp. 3-4 (traducción de Diane Proudfoot). 13 «Usted cree en [un] Dios que juega a los dados, y yo en una ley y orden comple­ tos en un mundo que existe objetivamente», escribía Einstein en una carta a Max Born (The Bom-Einstein Letters, 7 de septiembre de 1944).

Libertad

221

tos que ocurren dentro del cerebro, incluidos los cuánticos, estén de­ terminados causalmente. Se dice que el cerebro es determinista en el mismo sentido en que lo es un computador: la «máquina virtual» es determinista y si la indeterminación cuántica ocasiona que un ele­ mentó físico se desarregle, eso se considera una avería o fallo «téc­ nico». La «máquina virtual» es una máquina hipotética que se com­ porta como se comportaría la máquina real si no hubiera averías o fallos cuánticos. Está ampliamente extendida la creencia (que yo no comparto) en que el determinismo neurofisiológico tiene como consecuencia que la libre voluntad es una ilusión. Cada una de nuestras decisiones, afirma el argumento, es el resultado inevitable de causas precedentes, causas que hacen cierto qué elegiremos antes de que hayamos ele­ gido. Nunca podemos elegir en sentido contrario a como las causas nos hacen elegir; ninguna de nuestras elecciones puede ser distinta de la que es. Entonces, ¿cómo podríamos ser libres? Igual que un equipo de informáticos podría predecir todas las decisiones de Turbo Sam, un equipo de superinteligencias extraterrestres con el equipo de me­ dida adecuado podría predecir nuestras decisiones, en una ampliación grotesca del experimento de Kornhuber con los dedos. (Si por algún motivo nos informaran de una de sus predicciones por anticipado podríamos, desde luego, indignarnos y hacer lo contrario. Pero tam­ bién habrían previsto eso. Su predicción sería: dejado a sí mismo, este organismo hará X, y si se lo decimos, entonces el cambio producido en sus estados internos por esta información dará como resultado que haga Y.) La opinión de que la libre voluntad es una ilusión se ha conver­ tido en una postura ortodoxa en la IA. Para Marvin Minsky la libre voluntad es un «mito» H. Muchas nociones de nuestras explicaciones informales no aguantan un exa­ men detenido. La libre voluntad o volición es una de estas nociones... La fuerza de la convicción de un hombre o de una máquina sobre estas cosas no nos dice nada...1415 Según el punto de vista científico moderno, sencillamente no hay lugar para «la libertad de la voluntad humana»16. 14 Minsky, M., The Society of Mindy p. 307, 15 Minsky, M., Semantic Information Processingy p. 431. 16 Minsky, M., The Society of Mindy p. 306.

Inteligencia artificial. Una introducción filosófica

222

Geoff Simons es igual de directo. La noción de libre voluntad, dice, pertenece a la «metafísica de una época muy precientífica» 17. Y sigue: ... los seres humanos son esclavos de la materia bruta, impelidos a actuar de modos particulares en virtud de factores bioquímicos y neuronales... Lo que vemos es la naturaleza ilusoria de la libre voluntad. Es una doctrina que prospera en culturas precientíficas18.

Voy a argumentar que la libre voluntad no es ningún mito. Los se­ res humanos eligen libremente, al menos en muchas ocasiones, y reco­ nocerlo es por entero compatible con la ciencia moderna. Estoy de acuerdo en que la existencia de la libre voluntad no se puede estable­ cer apelando sencillamente a nuestra experiencia subjetiva de libertad; pero, por fortuna, existen argumentos más fuertes. Por contra, sin em­ bargo, estos argumentos también establecen que Turbo Sam es capaz de hacer elecciones libres. Para mí este efecto es aceptable. Encaja bien con mi creencia en que, en un sentido, también somos máquinas. 7.3. Dos clases de libertad 1. El aleatorizador de Turing Supongamos que usted se debate entre el pastel de chocolate y la tarta de queso y arándanos. Después de unos momentos de indeci­ sión se decanta repentinamente, y sin ninguna razón manifiesta, por la tarta de queso. La propuesta que voy a considerar es que la libre elección, en tales circunstancias, consiste en hacer una selección aleatoria entre alternativas igualmente preferibles. Según esta pro­ puesta, la elección es sólo en parte el resultado de factores determi­ nantes. Cosas como las preferencias arraigadas y el estado ocasional del nivel de azúcar de la sangre eliminan de manera determinista las posibilidades excepto el pastel de chocolate y la tarta de queso. Sin embargo, la elección final entre estas dos es producto del azar. Si esto es cierto, el determinismo neurofisiológico sólo reina hasta que se con­ fecciona la lista final de opciones posibles. Luego se tiran los dados. 17 Simons, G., The Biology of Computer Lifeyp. 100. 18 Simons, G., ibidem, pp. 100,109.

Libertad

223

Emplearé el término elección de preferencia nula para la situación en que se hace una selección entre alternativas que son, en lo princi­ pal, igualmente satisfactorias en opinión del elector o electora, dado el tiempo disponible para deliberar y la información de que dispone. La teoría de que las elecciones de preferencia nula se hacen al azar es especulativa. La teoría postula que en algún lugar del cerebro existe un mecanismo neurofisiológico que realiza la función de selec­ ción al azar entre varias alternativas dadas (quizá el mecanismo es una especie de «amplificador cuántico»). Si existe o no semejante meca­ nismo es una cuestión empírica. En un computador se puede intro­ ducir fácilmente un mecanismo así. Lo único que hace falta, esencial­ mente, es un interruptor controlado por un contador Geiger que registre la desintegración radiactiva aleatoria de un trozo de radio. Si a Turbo Sam se le dota de elementos que le permitan seleccionar al azar en situaciones de preferencia nula, entonces, ni siquiera el ge­ nio omnisciente de Laplace podrá predecir las elecciones del robot (puesto que la falta de predictibilidad es la esencia de un resultado verdaderamente aleatorio). Turing fue de los primeros en examinar la idea de añadir un inge­ nio para hacer selecciones aleatorias a un computador determinista 19. Y destaca que a tal máquina se le puede «atribuir libre voluntad» 20. Pocos de quienes han escrito sobre el tema de la libre voluntad esta­ rían de acuerdo. Es "una doctrina enraizada de la filosofía que una 19 Turing, A. M,, «Intelligent Machinery», p. 9; «Computing Machinery and Inte­ lligence», p. 438. Turing utiliza el término «parcialmente aleatoria» para describir las máquinas que contienen un auténtico proceso aleatorio de selección (esto es, un pro­ ceso controlado por la desintegración radiactiva), y el término «aparentemente parcial­ mente aleatoria» para describir las máquinas que, de hecho, son determinísticas, pero contienen un procedimiento de selección que las hace parecer a primera vista parcial­ mente aleatorias (por ejemplo, un programa que use los decimales de tt para determi­ nar la selección). 20 «Computing Machinery and Intelligence», p. 438. Turing añade después «aun­ que yo mismo no usaría esta expresión». Es desesperante que Turing no dé ninguna aplicación de este recelo. Sospecho que estaba pensando algo de este estilo: «Puede usted, si así lo desea, decir que esta máquina tiene libre voluntad; pero yo por mi parte creo que esta añeja expresión es tan vaga que es mejor evitarla. Considero que “selec­ ción aleatoria entre alternativas” es un sustituto preciso y científico de esa errática y oscura charla sobre la libertad de la voluntad». (Adoptó una posición similar con res­ pecto al término «pensar»; ibid., p. 442.) En 1951, en una charla radiofónica emitida por la BBC, Turing propuso que añadir un mecanismo simple —«algo del estilo de una rueda de ruleta o una porción de radio»— bastaba para ofrecer un computador programado con libre voluntad (véase Hodges, A., Alan Taring: The Enigma, pp. 441-2).

224

Inteligencia artificial. Una introducción filosófica

elección aleatoria no es una elección libre21. Esta doctrina me parece producto de una argumentación defectuosa, y erigiré una breve de­ fensa de la idea de que, en una situación de preferencia nula, elegir al azar es elegir libremente (como se verá, la idea de Turing no funciona fuera de las situaciones de preferencia nula). Hay dos argumentos comunes en apoyo de la doctrina de que las elecciones al azar no pueden ser elecciones libres. Espero convencer de que ambos son falaces. Llamaré al primero argumento del desvali­ miento. Jei'ome Shaffer lo ha presentado con elegancia. Si las decisio­ nes «brotan espontánea y aleatoriamente... entonces el agente está desvalido y a merced de estas erupciones internas que controlan su conducta»22. En tono semejante, John Thorp habla de cambiar las ataduras del determinismo causal por las ataduras del azar23. Si las elecciones simplemente surgen en usted al azar, sostiene el argu­ mento, entonces usted no controla su conducta: las acciones no son más que accidentes que le acontecen. «No podemos eludir una visión totalmente determinista del hombre al precio de admitir que par­ tes fundamentales de nuestra conducta escapan a nuestro control», afirma Geoff Simons24. El problema del argumento del desvalimiento es que presenta una imagen completamente errónea de lo que es elegir entre alternativas en una situación de preferencia nula. Si el aleatorizador pudiera hacer que igual esperemos en la acera o nos lancemos bajo las ruedas de un camión, que le acerquemos educadamente un vaso de jerez a nuestro invitado o lo agarremos por las solapas y le vociferemos una canción salaz en la cara, entonces estaríamos ciertamente a merced de fuerzas incontrolables. Pero éstas no son elecciones de preferencia nula. En una situación de preferencia nula, las deliberaciones de quien elige producen varios esquemas alternativos de acción, todos los cuales son más o menos igualmente preferibles para la persona. El aleatori­ zador simplemente provoca desempates! Lejos de estar desvalido, quien elige crea los esquemas de acción y juzga que todos ellos son aproximadamente igual de apropiados para las circunstancias. 21 Dos autores recientes que, de varias maneras, han cuestionado la doctrina son Dennett, D. D., «On Giving the Libertarians What They Say They Want», y Van Inwagen, P., An Essay on Freewill, pp. 126-50. 22 Shaffer, J. A., Philosophy o f Mind> p. 106. 23 Thorp, J., Free Will: A Defence Against Neurophysiological Determinism, p. 71. 24 Simons, G., The Biology of Computer Life> p. 111.

Libertad

225

El segundo argumento que quiero combatir es el que se refiere a la responsabilidad. He aquí cómo lo formula A. J. Ayer. [La razón por la que deseamos] mostrar que los hombres son capaces de ac­ tuar libremente [es] inferir que pueden ser responsables moral mente de lo que hacen. Pero si es asunto de puro azar que un hombre actúe de una ma­ nera y no de otra... difícilmente puede ser responsable25.

Permítaseme parafrasear y expandir este comprimido razona­ miento. «Aprópiese usted de la palabra libre y aplíquela, si quiere, a elecciones hechas al azar», dice el argumento. «Nada le impide usar las palabras como le venga en gana. Pero sepa que ninguna persona sensata le seguirá en ese nuevo uso. No se puede atribuir responsabi­ lidad a un agente por algo que hace accidentalmente; por tanto, quien incurra en ese nuevo uso deberá conceder que los agentes no son res­ ponsables de sus acciones libremente elegidas. Pero esto es tan ab­ surdo como apropiarse de la palabra seguro y aplicarla a edificios donde es arriesgado entrar. Igual que nuestra preocupación principal al averiguar si un edificio es seguro és determinar si se puede entrar sin peligro, nuestra preocupación principal al averiguar si una acción fue elegida libremente es establecer si podemos tener a su agente por responsable de la acción.» Este argumento no me parece persuasivo. Trafica ilegítimamente con las connotaciones de expresiones como «asunto de puro azar» y «hecho por puro accidente». Unos cuantos ejemplos ayudarán a po­ ner de manifiesto la falacia. Imagine que un misterioso rayo de ener­ gía atraviesa su brazo cuando está tomando una taza de café. El cu­ rioso efecto de ello es que convierte en asunto de puro azar que usted siga bebiendo o vuelque el contenido de la taza en mi solapa. En estas circunstancias usted, evidentemente, no es responsable si acaba por mancharme de café, igual que si otra persona chocara con su brazo. El argumento de Ayer encaja perfectamente con este tipo de caso. Pero ahora supongamos que el rayo aleatorizador pasa a través de la cabeza de un secuestrador, Pernod, que está a punto de pegar un tiro a uno u otro de sus rehenes, Kirsch y Campari, y no le importa mu­ cho a cuál. El efecto del rayo es convertir en asunto de puro azar cuál, Kirsch o Campari, es el seleccionado. La bala, de hecho, la re­ cibe Kirsch. ¿Diríamos que Pernod no es responsable de haberlo ma25 Ayer, A. J., Philosophical Essays, p. 275.

226

Inteligencia artificial. Una introducción filosófica

tado? En mi opinión, Pernod es claramente responsable de la muerte de Kirsch, aunque fuera «asunto de puro azar» que se seleccionara la opción Disparar sobre Kirsch en vez de la opción Disparar sobre Campari. Al fin y al cabo, Pernod ya había decidido disparar sobre uno u otro, y el hecho de que la elección final fuera aleatoria no pa­ rece importante. La moraleja de esto es que las consideraciones del argumento de Ayer no se aplican a una elección azarosa hecha bajo las condiciones de una situación de preferencia nula. Esto completa mi defensa de la propuesta de que la selección aleatoria de una alternativa en una situación de preferencia nula es un tipo verdadero de elección libre. Aquí tenemos una clase auténtica de libertad que fácilmente se podría suministrar a un computador pensante. Antes he insistido en que la selección al azar sólo es una estrategia apropiada en situaciones de preferencia nula. Explicaré por qué. Con­ sideremos el tipo de situación en que la persona que elige, después de reflexionar, juzga que uno de los varios cursos de acción abiertos ante ella desbanca a todos los demás. La razón, la inclinación y el senti­ miento apuntan firmemente hacia una opción. Llamaré a ésta «situa­ ción con candidato destacado». No sería sensato confiar las elecciones de este género a un procedimiento de selección aleatoria. ¿No desearía­ mos optar por el curso de acción más resplandeciente en vez de jugar a la ruleta? Claro está que podemos desear reservarnos el derecho de, caprichosamente, volver la espalda al mejor candidato, por lo menos de vez en cuando, pero sólo en las ocasiones que queramos, no al azar. Si el efecto del aleatorizador fuera desviarme del curso de acción que claramente juzgo mejor dadas las circunstancias, entonces sí estoy desvalido y en poder de fuerzas que escapan a mi control. No, el aleatorizador no tiene ningún papel en las situaciones con candidato destacado. Es el momento de considerar un segundo tipo de libertad. 2. Cómo los deterministas pueden guardar la ropa y nadar libremente He aquí una historia de amor. Pedro conoce a Samanta. A Pedro le gusta mucho Samanta. Pedro piensa en casarse con Samanta. Pedro delibera a fondo sobre la vida, el amor, las hipo-

Libertad

227

tecas, la vida doméstica y otros factores que vienen al caso. Pedro decide sin reservas declararse a Samanta. Samanta le da calabazas. Y vivieron felices. He aquí una historia acerca de esta historia. Si el determinismo neurofisiológico es verdadero, entonces la de­ cisión de Pedro de declararse a Samanta fue el resultado de factores causales preexistentes (tales como las creencias de Pedro acerca de Sa­ manta —en jerga, sus «estados informacionales»— y sus necesidades, preferencias, arrebatos de pasión, etc.). Llamemos a la decisión de Pe­ dro de declararse a Samanta «la elección» y a los varios factores que produjeron esa decisión «las causas». La elección fue el resultado de­ terminista de las causas. Una vez establecidas las causas, la elección fue una conclusión inevitable. Dadas las leyes pertinentes de la natu­ raleza —en este caso las leyes de la neurofisiología, de la biofísi­ ca, etc.— esta elección y no otra tuvo que seguir a las causas (igual que las causas tuvieron que seguir a sus causas, y así sucesivamente). Una vez dispuestas las causas, habría sido una violación de las leyes de la naturaleza que Pedro decidiera no declararse a Samanta. Evidente­ mente no estaba en poder de Pedro violar las leyes de la naturaleza. Ni estaba en su poder decidir no declararse. La elección, pues, no fue libre, puesto que Pedro no podía optar por otra cosa. Este argumento tiene cierto aire siniestro, y varios autores han formulado versiones del mismo (recientemente John Thorp y Peter van Inwagen)26. Pero yo, por mi parte, lo encuentro ilegítimo. La piedra angular del argumento es pasar de la verdad evidente de que Pedro no puede violar las leyes de la naturaleza (en particular, las le­ yes que gobiernan el funcionamiento de su cerebro), a la afirmación de que no podía abstenerse de declararse a Samanta. Este paso es fa­ laz. Ciertamente estaba en el arbitrio de Pedro decidir no declararse. Si, por ejemplo, hubiera tenido la obligación de cuidar a un pariente, o informaciones descalificadoras acerca de Samanta, podría haber de­ cidido de otra manera, y no habría violado las leyes de la naturaleza al hacerlo. Pedro podría haber decidido, y lo habría hecho, de otra forma si su información, inclinaciones o situación personal hubieran sido diferentes; si, en otras palabras, hubieran actuado un conjunto diferente de factores causales. El argumento acierta cuando pone de 26 Thorp, J Free Will: A Defence Against Neurophysiological Determinism >p. 27; Van Inwagen, P., An Essay on Freewill, capítulo III. Véase también Minsky, M., The Society of Mind, p. 306.

228

Inteligencia artificial. Una introducción filosófica

relieve que, en un universo regido por leyes, no se plantea la cuestión de que el primer conjunto de factores causales vaya seguido por la decisión de no declararse. Pero no permitamos que eso oscurezca el hecho de que si las causas hubieran sido diferentes, entonces habría procedido una decisión diferente. Los incompatibilistas son las personas que creen que la verdad del determinismo neurofisiológico es incompatible con la existencia de la libre voluntad. La mercancía con la que trafican son los argumentos como el relativo a Pedro. Deseo proponer que no hay incompatibili­ dad. Aunque Pedro sea un sistema determinista, sigue siendo verdad que él y sólo él fue autor de su decisión, y que si sus creencias, de­ seos, etc., hubieran sido distintas, habría decidido de forma diferente. La decisión determinada de Pedro fue a la vez causada y libre: libre porque estuvo causada por las creencias, deseos, inclinaciones, etc., de Pedro. Nadie le presionó psicológicamente ni le obligó física­ mente a declararse. Como una vez dijo John Hospers: «El lema de la libertad es yo causo mis acciones»2-. El Pedro determinado es capaz de deliberar sobre su futuro y originar y ejecutar sus decisiones, se­ gún las percepciones de sus deseos, necesidades y circunstancias. Si esto no es libertad, ¿qué lo es? Si me concede usted que hay un género importante de libertad cuya existencia es compatible con la verdad del determinismo neuro­ fisiológico, entonces usted, como yo, es compatibilista. En opinión del compatibilista son libres las elecciones determinadas por los de­ seos, esperanzas, conocimientos, etc., de quien elige. El compatibilismo ofrece tranquilidad: la posibilidad de que el determinismo neu­ rofisiológico sea verdadero no debe hacernos temer por la libertad. La libre voluntad no es una ilusión. Éstas son también buenas noticias para Turbo Sam. También él posee esta segunda clase de libertad. La decisión de Turbo Sam de ir al Instituto Turing fue tan libre como la decisión de Pedro de decla­ rarse a Samanta. La elección de Turbo Sam, no menos que la de Pe­ dro, fue el producto de sus creencias, deseos e inclinaciones. Turbo Sam no fue obligado, y tenía la capacidad de hacer otra cosa, porque si su información, circunstancias personales o inclinaciones transito­ rias hubieran sido distintos, podría haber hecho una elección dife­ rente.* 17 Hospers, J., An Introduction to Philosophical Analysis, p. 330.

Libertad

229

Filósofos de esta orientación han defendido el compatibilismo desde los siglos XVII y XVIII28. Habría sido torpe por mi parte no ad­ vertir que estas ideas han tenido a veces una recepción desdeñosa (el gran filósofo Immanuel Kant aludió con brusquedad al compatibi­ lismo llamándolo «un subterfugio despreciable»29). En lo que queda de capítulo presentaré las objeciones más importantes al compatibi­ lismo y explicaré el modo de responderlas. 7.4. Cleptomanía y otras compulsiones K es un cleptómano. Para su desazón, un deseo morboso de robar le impulsa a cometer todos los días una docena, más o menos, de pe­ queños hurtos. K desea fervorosamente no ser presa de este deseo compulsivo, pero éste le vence muy a menudo. ¿Roba K por propia elección? La mayoría de la gente opinaría que no. Lejos de actuar libremente, roba bajo la tiranía de su propio deseo incontrolable. Otros muchos están en el mismo apuro que K: jugadores crónicos que anhelan librarse de su compulsión, adictos a las drogas asqueados de su estado de adicción, etc. Tales seres dolientes son violentados por sus propios deseos30. Hay quien piensa que estos casos ponen de relieve la inutilidad de lo que los compatibilistas llaman libertad. En el sentido compatibilista, una decisión es libre si, dicho toscamente —modificaré esto en el siguiente párrafo—, la decisión es el producto de los deseos y creen­ cias del agente, y está tomada en ausencia de chantaje, lavado de cere­ bro y otras coerciones. Pero la repentina decisión de K de robar una barra de chocolate en el supermercado es claramente producto de sus 28 Los primeros compatibilistas fueron Thomas Hobbes y David Hume. Hobbes: «Un hombre libre es el que, en aquellas cosas que por su fuerza y talento es capaz de hacer, no está impedido de hacer lo que quiere hacer» (Wor&s, ed. Moiesworth, W., vol III, pp. 196-7, alrededor de 1650). Hume: «Sólo podemos entender por liber­ tad, pues, una capacidad de actuar o no actuar, conforme a las determinaciones de la voluntad» (An Enquiry Concerning Human Understanding, p. 95, 174S). Aunque Hume y Hobbes pensaban que estaban dando el análisis auténtico del concepto de li­ bertad, creo que el análisis compatibilista describe sólo uno de los tipos posibles de li­ bertad. Es, sin embargo, una clase de libertad que reviste especial interés, porque sin duda la poseemos, al contrario que los otros tipos de libertad anhelados por otros pen­ sados (véase el estudio del libertarismo en la sección 7,5). 29 Kant, Critique of Practical Reason, p. 90. 30 Esta feliz expresión es de Harry Frankfurt.

230

Inteligencia artificial. Una introducción filosófica

deseos, y no hay coerción externa. Si para el compatibilista esta deci­ sión se cuenta entre las libres, entonces la libertad en ese sentido es algo bien miserable que no merece tal nombre. La respuesta a esta objeción es breve: es un error pensar que los compatibilistas dicen que una decisión es libre si es el resultado de cualesquiera deseos del agente. Para el compatibilista una decisión sólo es libre si está tomada en ausencia de compulsión, y la tiranía de un deseo obsesivo no es menos compulsiva que las coerciones exter­ nas como el chantaje y la tortura. Los compatibilistas consideran li­ bre una elección sólo si es el resultado de deseos no compulsivos. Aunque esta breve respuesta es correcta, deja pendiente una pre­ gunta importante: ¿Cuál es la diferencia entre los deseos compulsivos y los demás? El mérito de mostrar a los compatibilistas lo que pue­ den decir sobre esto corresponde a Harry Frankfurt31. Para esta ma­ teria es fundamental lo que Frankfurt llama «deseos de segundo or­ den». Un deseo de segundo orden es un deseo acerca de otro deseo. Así, cuando K desea librarse de su deseo morboso de robar, tiene un deseo de segundo orden, como un adicto a la heroína que desea no desear la droga. Los deseos de segundo orden pueden ser suaves o vehementes, desganados o profundos. El deseo de K de librarse de su deseo de ro­ bar es vehemente y profundo, y precisamente porque este deseo de segundo orden tiene para él tanta importancia es por lo que se puede afirmar de él que es violado por su deseo de robar. Por tomar un ejemplo que contraste con éste, imaginemos una persona que a veces concibe el deseo suave e intelectualizado de no desear relaciones se­ xuales. Si elige el sexo cuando tiene presente este deseo, su elección sigue siendo plenamente libre, pues su deseo de segundo orden es (por hipótesis) relativamente leve y habita la periferia de sus intere­ ses. Por el contrario, una persona que da vía libre a su deseo de grati­ ficación sexual a pesar de un deseo sentido y profundo de no desear el sexo, ha sucumbido, como el cleptómano, a su propio deseo, y no es libre. Una elección que sea resultado de deseos en conflicto con deseos de segundo orden suaves e insignificantes puede ser libre; pero una elección que sea resultado de deseos que chocan con deseos de segundo orden profundos y vehementes no es libre. 31 Frankfurt, H., «Freedom of the Will and the Concept of a Person». Véase tam­ bién Slore, M., «Understanding Free Will». En lo que sigue me apartaré muchas veces de la terminología de Frankfurt.

Libertad

231

Por volver a la palabra «compulsivo», un deseo compulsivo se puede ahora caracterizar como un deseo que impera a pesar de un de­ seo fundamental y profundo de librarse de él. (La caracterización, sin duda, sigue siendo algo vaga; un análisis más preciso es proyecto de la psicología filosófica.)32 Empleando esta caracterización, la máxima del compatibilista de que «una elección es libre sólo si es resultado de deseos no compulsivos» se puede expresar con mayor riqueza: una elección es libre sólo si es resultado de deseos que no están en con­ flicto con los deseos de segundo orden que tengan importancia cen­ tral para quien elige. Esto concluye la respuesta que dan los compatibilistas a la acusación de que la cleptomanía y otras compulsiones muestran que su género de libertad no es merecedor de ese nombre. Posdata Afortunadamente los cleptómanos, alcohólicos y otros individuos violentados por sus deseos están lejos de ser casos perdidos. El con­ sejo y el uso de técnicas de gestión del deseo pueden ayudar a domes­ ticar o erradicar los más poderosos deseos. En cierta ocasión Voltaire tuvo la siguiente ocurrencia contra el compatibilismo: «Cuando hago lo que deseo, soy libre... pero no puedo evitar desear lo que deseo.» Se equivocaba. Los* seres humanos no son juguetes desvalidos de sus deseos. La mayoría somos capaces, en mayor o menor grado, de pro­ ducir cambios deliberados en nuestro sistema de deseos y voliciones. (Como se suele decir, el truco de la felicidad no está en aprender a conseguir lo que se desea, sino en aprender á desear lo que se tiene.) 7.5. L ibertarism o

Los libertarios son aquellas personas, generalmente filósofos o teó­ logos, que ansian un tercer género, especialmente fuerte, de libertad. Para tener una imagen clara de lo que desean los libertarios, contem­ plemos una breve conversación entre un libertario y un compati­ bilista. 32 Para continuar con este tema, véase «Identification and Externality», de Harry Frankfurt.

232

Inteligencia artificial. Una introducción filosófica

LIBERTARIO. Supongamos que yo delibero sobre la alternativa entre

X e Y, y finalmente me decido por X. Lo que quiero destacar es que es apropiado llamar libre esta elección si yo hubiera podido elegir Y* Lo distintivo de la verdadera libertad siempre es que quien elige po­ dría haber elegido de otra manera. Si en realidad yo no pude haber elegido Y en vez de X, entonces mi elección no fue libre. COMPATIBILISTA. Por ahora no estoy en desacuerdo con nada de lo que dice usted. En el determinismo, su elección de X estuvo determi­ nada causalmente, pero, con todo, es perfectamente cierto que usted pudo haber elegido Y. Su selección de X fue producida por varios factores causales, como sus deseos e información. Si estos factores hubieran sido otros adecuadamente distintos, habría elegido Y en vez de X. Si, por ejemplo, hubiera deseado Y con mucha más fuerza que X, entonces puede que hubiera elegido Y. Por tanto, es cierto que us­ ted pudo haber elegido otra cosa. LIBERTARIO. Un subterfugio enteramente despreciable, querido se­

ñor. Lo que digo es que mi elección fue libre sólo si pude haber ele­ gido otra cosa en las circunstancias que de hecho tuvieron lugar. Lo que usted defiende —que yo habría elegido de forma diferente en cir­ cunstancias diferentes— no afecta al asunto de si pude o no haber ele­ gido de forma diferente en las mismas circunstancias que se dieron en el momento. Llamar libre a mi elección, en el verdadero sentido de la palabra, es decir, que incluso contando con los deseos, creencias, in­ clinaciones, etc., que yo tenía en ese momento, pude, no obstante, allí y entonces, haber elegido de forma diferente a como lo hice. Desde mi punto de vista, el determinismo neurofisiológico (que, me gustaría señalar, es una especulación no demostrada) tiene la consecuencia de que nunca son verdaderamente libres las elecciones de nadie. Toda decisión, según usted, es el resultado regido por leyes de una colec­ ción de causas psicológicas y fisiológicas: la decisión no podría haber sido otra a menos que las causas hubieran sido diferentes. Señor, si hallo que me ha vendido usted una vaca enferma, no me apaciguará asegurándome que en otras circunstancias imaginables me habría vendido una sana. Igualmente cuando me dice que ninguna de mis elecciones podría haber sido distinta de lo que fue, no me consuelo con sus seguridades de que habría elegido de manera diferente con sólo que las circunstancias hubieran sido otras.

Libertad

233

Lo que el libertario desea, pues, es una clase de libertad que lo eleve por encima del reino de las causas naturales y le dé la capacidad de elegir a favor o en contra de las fuerzas causales actuantes. (He aquí quizá la forma quintaesenciada del ideal masculino: dominar el mundo natural.) La clase de libertad que desean los libertarios se llama libertad trascendental. También se conoce como libertad «con­ tracausal». Se supone que la libertad trascendental es diferente de la capaci­ dad de elegir sobre una base puramente aleatoria. Aunque pertenece a la esencia de una elección aleatoria que igualmente se podría haber optado de forma diferente (en las mismas circunstancias), las eleccio­ nes aleatorias no son lo que el libertario dice que quiere, pues el mero azar no le puede dar el control que anhela. Se supone que la libertad trascendental ocupa un misterioso territorio intermedio entre el azar y la determinación causal33. El libertarismo invita a proponer varias preguntas. Para empezar, ¿cómo se puede saber si se podría haber elegido de forma diferente en las circunstancias que imperaron? No, desde luego, recreando esas circunstancias y eligiendo de nuevo, pues la segunda vez se poseería una información adicional en particular, la de cómo se eligió la pri­ mera vez, y eso cambiaría las circunstancias. De todas formas, no tiene futuro la perspectiva de recrear exactamente las mismas circuns­ tancias. Los seres húmanos son tan sensibles que hay pocas oportuni­ dades de que jamás estemos en el mismo estado neurofisiológico dos veces34. Parece, pues, que aunque poseyéramos una libertad trascen­ dental, en la práctica acaso nunca pudiéramos saberlo. Otra cuestión que se insinúa se refiere a este extraño «territorio intermedio» que se supone cae entre el azar y la determinación cau­ sal. Un acontecimiento determinado causalmente es uno que está causado por otros acontecimientos, y un acontecimiento aleatorio es un acontecimiento no causado, algo que «sencillamente ocurre». Por tanto, si una decisión cae en el «territorio intermedio» del libertario, no puede ser aleatorio ni estar causado por otros acontecimientos. ¿Cómo es eso posible? He aquí la respuesta de un defensor actual del libertarismo, John Thorp: «Lo que en apariencia son dos aconteci­ 33 Véase, por ejemplo, Thorp, ]., Free Will: A Defence Against Neurophysiological Determinism, capítulo VI. 34 Compárese con Dennett, D. C., Elbow Room: the Varieties of Freewill Worth Wanting, p. 137.

234

Inteligencia artificial. Una introducción filosófica

mientos, la decisión y la causación por parte del agente de la deci­ sión..., son en realidad sólo uno» 35. La discípula de Thorp, Jennifer Trusted, expresa la teoría de forma más tajante: «Debemos considerar la decisión del agente como su propia causa»36. Con esta maniobra, la decisión no es aleatoria, puesto que tiene una causa, ella misma; ni está determinada causalmente, puesto que como es causa suficiente de sí misma, no fue producida por otros acontecimientos. El mismo Thorp admite que la idea de una decisión que se causa a sí misma es «peculiar desde un punto de vista lógico»37. La peculiaridad no es de por sí razón suficiente para desdeñar una teoría. Al fin y al cabo, muchas hipótesis de la ciencia moderna —la mecánica cuántica en particular— son muy peculiares. No obstante, es un consejo sensato rechazar las teorías peculiares que no cuentan con indicios en su favor. Los físicos de partículas sostienen hipótesis peculiares porque el peso de los indicios empíricos se lo impone. Los libertarios, por el contrario, mantienen que hay un lugar intermedio entre el azar y la determinación causal, no porque haya indicios, sino porque abrigan el deseo de que exista ese sitio. ¿Vale la pena desear la libertad trascendental? En mi opinión, no; y me parece que ésta es una razón decisiva para rehusar tomar el libertarismo en serio. Para apreciar lo que nos perdemos si carecemos de libertad trascendental, consideremos el caso de Tweedledum, que sólo es libre en el sentido compatibilista, y el caso de Tweedledee, que tiene el dudoso privilegio de poseer libertad trascendental. Ex­ cepto por esta pequeña diferencia, Tweedledum y Tweédledee son idénticos. Supongamos que Tweedledum y Tweedledee se enfrentan exacta­ mente a la misma elección, en situaciones idénticas, con creencias, de­ seos, esperanzas, etc. idénticos. Después de la debida deliberación, la heroína compatibilista Tweedledum elige libremente optar por A, pues éste es el curso de acción que en conjunto mejor cumple los re­ quisitos, por lo que ella sabe a la luz de la información de que dis­ pone. Si le dijéramos que en esas mismas circunstancias ella no podría haber elegido otra cosa, no se habría preocupado mucho (bendito sea su corazón compatibilista), puesto que la opción que eligió es la que 35 Thorp, J., Free Will: A Defence Against Neurophysiological Determinism, capí­ tulo VI. 36 Trusted, J., Free Will and Responsibility, p. 157. 37 Thorp, J., Free Will: A Defence Against Neurophysiological Determinism, p. 103.

Libertad

235

considera mejor (que es por lo que la eligió, claro está). Su decisión fue el producto causal de su información, deseos, esperanzas, inclinaciones, intereses, afectos y todo lo que haga falta, no la obra de una fuerza extraña que arrollara inmisericorde sus preferencias. Tweedle­ dum está contenta con su elección. Incluso si hubiera podido elegir otra cosa en las circunstancias imperantes, no habría querido hacerlo. Puesto que la opción A es la que Tweedledum considera mejor, también es la que Tweedledee considera mejor, pues, por hipótesis, ambas tienen la misma información, intereses, inclinaciones, etc. Tweedledee está ungida por la libertad trascendental, por lo que tiene la capacidad de elegir optar por algo distinto de A. Pero ¿por qué ha­ bría de hacerlo, si opina que la opción A no se puede mejorar? No es que Tweedledee quiera elegir otra cosa, pues Tweedledum no quiere, y ambas, recuérdese, son idénticas en todos los aspectos apropiados. Por lo que se ve, Tweedledee nunca necesita su libertad trascenden­ tal. Y esto vale para el resto de la gente. No me importa en absoluto carecer de libertad trascendental, y si la poseo espero no ejercerla nunca. En mi opinión, los libertarios codician una clase de libertad que no vale la pena poseer. En esta tesitura, todos los buenos libertarios se apresuran a dar la misma respuesta: una razón suficiente para desear la libertad trascen­ dental es que si carecemos de ella, entonces a nadie se puede atribuir la responsabilidad moral de sus decisiones y acciones. Tal como lo expresa J. D. Mabbott: «La responsabilidad moral exige que un hom­ bre sea capaz de elegir entre acciones alternativas aunque, con ante­ rioridad al acto, todas las condiciones del universo, incluido él mismo, sean idénticas» 38. En opinión del libertario, si una agente no pudo haber elegido de manera diferente en las circunstancias dadas, es un error considerarla responsable de su acción. Si los seres humanos ca­ recen de libertad trascendental, entonces el conjunto de la práctica social de atribuir a los agentes responsabilidad por sus acciones y ala­ barlos o censurarlos en consecuencia, es un error grotesco. No hallo persuasivo este argumento. Si Tweedledum me golpeara con un palo de béisbol, no me impediría tenerla por responsable la idea de que, como carece de libertad trascendental, no puede elevarse por encima de las, leyes naturales del universo. Lo que una persona práctica considerará pertinente, cuando sopesa el grado de responsa­ 38 Mabbott, J. D., «Freewill and Punishment», p. 301.

236

Inteligencia artificial. Una introducción filosófica

bilidad de Tweedledum, serán cosas tales como si su conducta fue un simple e inesperado efecto secundario de alguna medicación. O si acaso es una chica básicamente buena, pero forzada a una vida de cri­ men juvenil por un malvado padrastro. O una muchacha exploradora honesta, aunque impetuosa, que actuaba honorablemente, pero bajo el influjo de una información equivocada: yo corría hacia el autobús con mi bolso debajo del brazo (¿por qué no?) y la mujer sollozante arrodillada en el callejón estaba allí por casualidad (quizá se le había caído una lentilla). Si, por el contrario, resulta que Tweedledum eli­ gió atizarme por su propia libre voluntad compatibilista, porque ha­ cerlo satisfacía sus necesidades y le parecía bien, entonces es respon­ sable en primer grado. No me impresiona el pintoresco alegato libertario por aplicar la eximente de que si se la volviera a poner en las mismas circunstancias un millón de veces, «con todas las condi­ ciones del universo idénticas», entonces habría elegido, cada vez, ati­ zarme. 7.6. Predictivismo y caos Una máquina de Turing (sección 6.4) es un ejemplo de entidad cuya conducta se puede predecir por entero. Conocidos la tabla de máquina, la posición inicial de la cabeza, el estado inicial del indica­ dor y el contenido inicial de la cinta, es posible calcular la conducta de la máquina todo el tiempo. (Puesto que una máquina de Turing es una entidad abstracta, quien predice no tiene que preocuparse por los cortes de electricidad, fallos técnicos ni otras complicaciones del mundo real.) Llamo predictivismo a la tesis de que por necesidad, la conducta de cualquier sistema determinista aislado se puede, en principio, pre­ decir por completo y con certeza. «Aislado» significa que «no inter­ acciona causalmente con ningún otro sistema», y la expresión «en principio» reconoce que puede no haber nadie ni nada en el universo con la inteligencia y la memoria suficientes para hacer la predicción. La expresión «por necesidad» indica que los sistemas deterministas tienen la propiedad de la predictibilidad no de forma contingente, sino necesaria, igual que es necesario y no contingente que en un triángulo euclidiano los tres ángulos internos sumen 180°. [El concepto de que una proposición sea necesaria se explica a ve­ ces en términos de «mundos posibles». La afirmación de que una

Libertad

237

proposición es necesariamente verdadera es equivalente a la afirma­ ción de que no sólo es verdadera en el mundo real* sino en todo mundo lógicamente posible. Se dice que una proposición es contin­ gentemente verdadera si es verdadera en el mundo real, pero falsa en al menos un mundo lógicamente posible (y contingente falsa si es falsa en el mundo real, pero verdadera en al menos un mundo lógica­ mente posible). Puede que le apetezca considerar cuáles de las si­ guientes proposiciones son necesarias y cuáles contingentes (las res­ puestas se dan en la nota 39). Ningún soltero está casado. Todo efecto tiene una causa. Todo libro tiene una última oración. La suma de dos números pares es par. Ninguna oración contingente es necesa­ ria. El argumento de la habitación china no es válido.] Hasta hace poco tiempo se consideraba evidente la tesis del predictivismo; en efecto, se consideraba a veces parte del concepto mismo de determinismo. Laplace, desde luego, era un predictivista (recordemos la cita de la sección 7.2). De la premisa de que el uni­ verso es un sistema determinista, pasa inmediatamente a la conclu­ sión de que su futuro es, en principio, predecible. Como vimos en las secciones 7.1 y 7.2, uno de los argumentos co­ munes contra la existencia de la libre voluntad toma como premisa esta idea de que la conducta de un sistema determinista se puede pre­ decir. Se sostiene que el determinismo neurofisiológico implica que en principio nuestras elecciones, como las de Turbo Sam, se pueden predecir por anticipado. Quien recurra a este argumento debe tener cuidado. Un cuerpo humano no es un sistema aislado, y a menos que la argumentadora esté dispuesta a aceptar el determinismo universal, debe reconocer que podemos interactuar con procesos no determi­ nistas (según la mecánica cuántica, interactuamos con muchos proce­ sos semejantes). Esta interferencia puede a veces truncar la predic­ ción. Inasequible al desaliento, la argumentadora insistirá sin duda en que aun así su tesis sigue valiendo: una buena porción de nuestras elecciones se pueden predecir en principio con certeza antes de ha­ cerlas. Por tanto, ¿cómo pueden ser libres? Tradicionalmente, los compatibilistas han respondido a este argu­ mento sosteniendo, con bastante verosimilitud, que una decisión puede a la vez ser libre y predecible3940. Ocasionalmente, todo el mundo 39 Respuestas: N, N, C, C, N, N, N. 40 Véase, por ejemplo, Flew, A., «Divine Omnipotence and Human Freedom», p. 150.

238

Inteligencia artificial. Una introducción filosófica

puede predecir las elecciones libres de aquellas personas cuyo temperamento nos es bien conocido: «Sabía que escogerías eso», «tenía la seguridad de que ella diría eso», etc. El hecho de que se puedan pre­ decir acertadamente estas elecciones no las hace menos voluntarias. Para los compatibilistas no hay conflicto entre la predictibilidad y la libertad. (Así, la idea de que la conducta de Turbo Sam se puede, en principio, predecir por anticipado no ha sido nunca una buena razón para decir que sus decisiones no son libres.) Los compatibilistas tienen ahora otro camino para replicar a este argumento. Algunos trabajos teóricos recientes que involucran mo­ delos de computador de ecuaciones no lineales han mostrado —casi sorprendentemente— que el predictivismo es falso. Es posible descri­ bir sistemas deterministas cuya conducta no se puede predecir, ni si­ quiera en principio. En torno a este descubrimiento se ha desarro­ llado una nueva rama de las matemáticas conocida como teoría del caos. La teoría del caos estudia sistemas que contravienen el principio de sentido común de que una alteración relativamente pequeña en las condiciones iniciales de un cambio o proceso sólo afecta relátivamente poco al resultado. Éste es el principio del efecto proporcio­ nado. Lo ilustra una pelota de golf que corre por la calle. Si la bola hubiera estado más a la derecha o a la izquierda por unas mieras cuando fue golpeada (e iguales el resto de las condiciones del im­ pulso) esto sólo habría afectado ligeramente a la posición final de la bola (de otro modo el golf sería imposible humanamente). Los siste­ mas que estudia la teoría del caos no son así: muestran lo que se llama dependencia sensible de las condiciones iniciales. Para ayudar a visua­ lizar un sistema semejante, imaginemos tres corchos que flotan en un río revuelto. Inicialmente los corchos están juntos. Al cabo de unos pocos minutos dos pueden seguir juntos y el tercero haber sido arras­ trado. La posición que alcanza el corcho después de un periodo dado de turbulencia depende críticamente de la posición de que parte: una diferencia minúscula en su posición inicial puede ocasionar una gran diferencia en dónde acaba el corcho. Los sistemas de ecuaciones que estudian los investigadores del caos son tales que un cambio arbitrariamente pequeño en las condi­ ciones iniciales puede producir una diferencia enorme en la conducta resultante. Estos sistemas de ecuaciones se estudian generalmente con ayuda de un computador. Se estipula un conjunto de valores iniciales para los parámetros de la ecuación y la máquina calcula la conducta resultante del sistema. Un conjunto dado de valores iniciales produ-

Libertad

239

eirá la misma conducta cada vez que se ejecute la simulación por computador (igual que en un sistema determinista del mundo real, las mismas causas siempre traen los mismos efectos); pero las alteracio­ nes más menudas de estos valores pueden llevar a una conducta radi­ calmente diferente. En principio, estos sistemas de ecuaciones son en­ teramente predecibles: estipulamos cualquier conjunto de valores iniciales y la conducta resultante del sistema se puede calcular. Como las máquinas de Turing, estos sistemas matemáticos son entidades abstractas. Imaginemos que un sistema determinista del mundo real posee la misma dependencia sensible de las condiciones iniciales. Ese sistema refuta el predictivismo: su conducta no se puede predecir acertadamente, ni siquiera en principio. Esto es porque el es­ tado inicial del sistema —es decir, el estado del sistema a partir del cual se debe predecir la conducta futura— debe ser averiguado me­ diante medición (estipular simplemente un conjunto de valores ini­ ciales, como antes, no nos diría, evidentemente, nada sobre la con­ ducta real del sistema). Por hipótesis el sistema es tal que un error arbitrariamente pequeño en la descripción de su estado inicial nos lle­ vará a predicciones brutalmente equivocadas sobre su conducta. O dicho de otra manera, si el sistema estuviera en uñ estado inicial dife­ rente, pero arbitrariamente próximo a su estado inicial real, su con­ ducta subsiguiente sería radicalmente diferente de la que tiene en la realidad. Puesto que ningún equipo de medición de este mundo res­ ponde a diferencias arbitrariamente pequeñas (siempre habrá diferen­ cias menores que la menor diferencia que un equipo dado puede re­ gistrar), se sigue que la conducta del sistema no se puede predecir, ni siquiera aproximadamente. Por lo cual el predictivismo es falso. No debe preocupar que mi argumento contra el predictivismo aluda a un sistema determinista imaginario. El predictivismo, recor­ demos, es la afirmación de que un sistema determinista aislado es por necesidad predecible. Esta afirmación se puede refutar mostrando que es posible que haya un sistema determinista aislado cuya con­ ducta no se pueda predecir acertadamente, ni siquiera en principio, y eso es lo que ha hecho la teoría del caos. La cuestión de si hay caos en el mundo real —de si hay procesos reales que se acomoden a las matemáticas exquisitamente sensibles de la teoría del caos— está en la actualidad bajo disputa. Los investiga­ dores especulan que muchos fenómenos del mundo real son caóticos: las turbulencias en líquidos, la subida del humo, el tiempo atmosfé­ rico, las economías nacionales, los sistemas ecológicos, los procesos

240

Inteligencia artificial. Una introducción filosófica

metabólicos de las células, la expansión de algunas enfermedades in­ fecciosas, el desencadenamiento de algunas clases de ataques cardía­ cos, la transferencia de energía a través de las membranas de los ner­ vios, y aspectos de la conducta de las redes de neuronas del cerebro humano (por nombrar unos cuantos)41. La última propuesta es espe­ cialmente interesante. El determinismo neurofisiológico puede no te­ ner implicaciones relativas a la predictibilidad de nuestras elecciones. Volvamos al argumento contra el compatibilismo que era objeto de esta sección. El efecto combinado de estas consideraciones es des­ pojar al argumento de su fuerza persuasiva. Ahora que su defensora ha sido liberada de la idea de que los sistemas deterministas son nece­ sariamente predecibles, no queda ningún medio para mantener su te­ sis de que si el determinismo neurofisiológico es verdadero, entonces todas (o casi) nuestras elecciones son predecibles. Puede recurrir a sostener que contingentemente el cuerpo humano no contiene proce­ sos caóticos, pero, puesto que no hay indicios de esto, sería un paso desesperado, y de todas formas, el camino hacia su conclusión segui­ ría bloqueado por la opinión compatibilista de que una elección puede ser a la vez predecible y libre. 7.7. Lo inevitable He aquí una antigua y venerable opinión sobre las implicaciones del determinismo42: Si el determinismo es verdadero, entonces nuestras decisiones son las conse­ cuencias de acontecimientos que las preceden inmediatamente, y éstos de acontecimientos que inmediatamente los preceden, y así sucesivamente, re­ trotrayéndonos al más remoto pasado. Desde luego, no depende de nosotros cómo fueron las cosas antes de nuestro nacimiento. Por lo tanto, las conse­ cuencias futuras dé lo que ocurrió antes de nuestro nacimiento tampoco de­ penden de nosotros (puesto que no podemos violar las leyes de la naturaleza, 41 Véanse Holden, A. V. (comp.), Chaos; Degn, H., Holden, A. V., y Olsen, L. F. (comps.), Chaos in Biological Systems; Gleick, J,, Chaos: Making a New Science. 42 Compárese Peter van Inwagen, «An Essay on Freewill», p. 56; Carl Ginet, «Might We Have No Choice»; James Lamb, «On a Proof of Incompatibilism», y Da­ vid Wiggins, «Towards a Reasonable Libertarianism». La formulación más «a la úl­ tima» es la de Van Inwagen. Para encontrar materiales relativos a la frase final del pa­ saje, véase Ted Honderich, A Theory of Determinism, p. 385 y ss.

Libertad

24 í

no podemos impedir ni modificar los efectos una vez dadas las causas). Esto significa que ninguna de nuestras decisiones o acciones depende nunca de nosotros. Todo lo que hacemos es el resultado gobernado por leyes de facto­ res causales que existían antes de que naciéramos. El futuro está fijado, es inevitable, está ante nosotros a la espera de que lo descubramos.

Dividiré mis comentarios a este argumento en tres grupos. Aceptar el determinismo Como he indicado en la sección 7.2, el determinismo universal no está bien visto en la ciencia moderna. Casaba cómodamente con la fí­ sica del siglo XIX, pero la revolución cuántica de los años veinte trajo la idea de que los acontecimientos subatómicos no están determina­ dos causalmente. Aún es posible aferrarse al determinismo universal como axioma metafísico, pero pocos lo hacen. Puede que incluso sea falsa la idea, mucho más modesta, del determinismo neurofisiológico. Si el cerebro contiene algún tipo de aleatorizador, entonces las deci­ siones en que éste participe no están determinadas. Incluso aunque el aleatorizador sólo operase en las situaciones de preferencia nula, las consecuencias de estas decisiones aleatorias tendrían un eco en toda la existencia del individuo, y eso lo libraría de la garra de hierro del pasado. ¿Qué ocurre si el determinismo universal es falso, pero el determinismo neurofisiológico es verdadero? En este caso tampoco habría razón para decir que nuestros futuros están fijados. El ojo humano es lo bastante sensible como para permitir la detección consciente de la llegada a la retina de un único cuanto de luz43; y que se emita o no un único cuanto desde su fuente en un momento particular es aleatorio según la física moderna. Una forma efectiva de «desatar» nuestro fu­ turo sería colocarnos en el aparato que Sakitt empleó para demostrar esta notable sensibilidad del ojo y hacer con nosotros mismos un contrato del tenor siguiente: «Si durante los próximos tres segundos detecto una emisión de un fotón, dejo todo y me voy a la India en autostop.» No hace falta, en realidad, llegar tan lejos. En un universo cuántico, el flujo diario de estímulos que llegan a nuestros órganos sensoriales no está determinado por un lejano pasado, ni tampoco 43 Sakitt, B-, «Counting Every Quantum».

Inteligencia artificial. Una introducción filosófica

242

nuestro futuro, por más deterministas que fueran nuestros procesos internos. La situación es análoga al caso de un computador. Aunque la salida de un computador está determinada por sus entradas y sus estados internos, la salida está «fijada por el pasado» sólo si la entrada también lo está, y en un universo que admite uñ auténtico azar esto no es necesario. Sin embargo, un compatibilista no se puede contentar con poner en cuestión la premisa del argumento que estamos considerando, pues el compatibilismo es la afirmación de que poseemos libertad de elección aunque el determinismo universal sea verdadero. Propongo conceder al argumento su determinismo universal y objetarlo por ra­ zones lógicas. ¿Depende algo de mí? La afirmación de que ninguna dé mis decisiones o acciones de­ pende de mí me choca hasta el absurdo; más parece fruto de una pe­ sadilla sobre el determinismo que de una cuidadosa indagación filo­ sófica de las consecuencias lógicas del determinismo. Imaginemos un x'etazo infinitesimal del vasto desfile de causas y efectos que es el uni­ verso determinista: yo desayunando en el jardín. El sol es agradable y no tengo obligaciones acuciantes, así que decido quedarme un rato tomando una segunda taza de café. Cuando sirvo el café y me de­ moro con él, ¿depende de mí lo que estoy haciendo? J. L. Austin, un filósofo con sentido común, dijo enojado acerca de la silla que tenía delante: «Bueno, si esto no es ver una silla real, entonces no sé qué lo es»44, Estaba ridiculizando la afirmación —otra pesadilla— de que ni él ni nadie podría jamás saber si la cosa que tenía delante era real­ mente una silla. La idea de que nunca depende de mí lo que hago me­ rece el mismo lacónico desprecio. Si entretenerse deliberadamente con el café no depende de mí, entonces no sé qué depende de mí. Mi acción de servir una segunda taza fue el producto causal de mi deci­ sión de hacerlo, que a su vez fue producto de mis inclinaciones, y yo no estaba bajo ninguna compulsión, externa o, lo que tiene la misma importancia, interna. Decir en estas circunstancias que mi acción no dependía de mí, y no me entretuve libremente con la segunda taza, es 44 Austin, J. L., Se?i$e and Sensibilia>p. 10.

Libertad

243

un uso perverso de las palabras, incluso equívoco, igual que cuando una persona sostiene que no sabe si hay una silla en la habitación al tiempo que la ve clara como la luz del día. Espero que ahora quede claro que el «por tanto» que aparece en el argumento anuncia uñ escandaloso non sequitur. Es verdad que nunca dependieron de mí las cosas anteriores a mi nacimiento, y es verdad que no puedo violar las leyes de la naturaleza, pero es falso que mis acciones nunca dependan de mí, ni sean voluntarias ni libres. Nota técnica Formalmente, el problema se refiere a la regla de inferencia que Van Inwagen llama ((3): NB se sigue de las premisas N (A 3 B) y N A 45. («3» es la implicación material: véase la sección 5.6). NA se lee: «Es verdad que A y nadie tiene ni ha tenido ninguna elección acerca de si A»46. Así «N Todos los hombres son mortales» es una abreviatura de «Es verdad que todos los hombres son mortales y na­ die tiene ni ha tenido ninguna elección acerca de si todos los hombres son mortales.» En resumen, traduzcamos NA por «la verdad de A no depende de nosotros (ni de nadie) ni nunca ha dependido». Los compatibilistas no ven razones para aceptar la validez de la regla (p), puesto que en su opinión (P) puede llevar a veces de premi­ sas verdaderas a conclusiones falsas, como muestra el argumento exa­ minado. Van Inwagen dice a sus lectores que su creencia en la validez de (P) tiene dos orígenes. El primero es la intuición. «Cuando considero cuidadosamente (P) me parece válida... La regla (P) atrae inmediata­ mente al intelecto reflexivo: igual que el modus tollens, la mente la capta con facilidad y ve que es verdadera»47. Estas observaciones di­ fícilmente persuaden; cuando yo considero cuidadosamente (p) me parece inválida. La segunda fuente es «el hecho de que no se me ocu­ rren ejemplos de (P) que tengan... premisas verdaderas y una conclu­ sión falsa» 48. Pero, como ya he indicado, supuesto el compatibilismo, el argumento examinado era precisamente un ejemplo. Tal como es45 Van Inwagen, P., An Essay on Freewill, pp. 93-4. 46 Van Inwagen, P., ibidem, pp. 93-4. 47 Van Inwagen, P., ibidem, pp. 97,124. 48 Van Inwagen, P., ibidem, pp. 97-8.

244

Inteligencia artificial. Una introducción filosófica

tin las cosas, Van Inwagen se ha limitado a una petición de principio contra el compatibilismo. Ha supuesto la validez de un principio que lleva inmediatamente a la conclusión de que el compatibilismo es falso. Para eso podría haber supuesto la falsedad del compatibilismo y habernos ahorrado la lógica. Sospecho que la regla (p) obtiene su plausibilidad de que es idéntica tipográficamente a una regla conocida del sistema minimal T de lógica modal, de Gódel, Feys y Von Wright49. El operador N de Van Inwa­ gen parece satisfacer muchas de las tesis de T, por ejemplo, NA 3 A, NAVNB 3 N (AVB), A 3-N -A , NA8cNBN(A6¿B) (aunque, para algunas dudas, se puede ver Slote, M., «Selective Necessity and the Free-Will Problem»). Pero no se puede suponer que porque un opera­ dor se parezca a los de T en parte de su conducta se parezca en todo. Llamemos a un operador N débilmente modal sólo si satisface todos los axiomas y reglas primitivas de T salvo el axioma N (A 3 B) 3 (NA 3 NB). (p) no es una regla de inferencia válida para un operador débilmente modal (excepto en el caso de que ambas premisas de la re­ gla sean tesis del sistema débil, un caso que aquí no nos interesa, por­ que en la aplicación de Van Inwagen las premisas de (P) no son tesis de lógica modal). Van Inwagen sólo tiene derecho a usar (p) si pri­ mero muestra que su N no es débilmente modal, y no lo ha hecho. Un ejemplo apropiado de lectura débilmente modal de NA es «A es verdadero y o bien A es lógicamente o necesariamente verdadero, o bien A es una ley física (o se sigue lógicamente de una o más leyes físicas, y de nada más) o entre las causas inmediatas de que ocurra A hay un subconjunto suficiente (causalmente) en el cual mis acciones, creencias, deseos, etc., no figuran ni como miembros ni como parte de la historia causal de un miembro o, por último, yo produje A, pero fui obligado o compelido a hacerlo» (hace falta la alusión a un subconjunto suficiente para abarcar los casos de sobíedeterminación causal). Van Inwagen debe mostrar no sólo que esta lectura deja fuera algún ingrediente del significado de «es verdad que nadie tiene ni ha tenido ninguna elección acerca de si A», sino que ese ingrediente basta para transformar N de operador débilmente modal en operador de necesidad fuerte de T 50. 49 Véase, por ejemplo, Hughes, G. H., y Creswell, M. J., An Introduction to Modal Logic, cap. 2. 50 Mi «Compatibilism and Modality» contiene ulteriores estudios de estos temas técnicos.

Libertad

245

Vivir con un futuro fijado Consideremos de nuevo la última frase del pasaje que estamos examinando: «Nuestro futuro está fijado, es inevitable, está a la es­ pera de que lo descubramos.» Se nos pinta como viajeros pasivos que no desempeñan ningún papel en la producción del futuro. Una ima­ gen, desde luego, absurda. A. J. Ayer ha puesto el dedo en la llaga: «Mis acciones intervienen con respecto al futuro: pues, tanto como efectos, son causas»51. Quedémonos con la primera mitad de la oración: «El futuro está fijado, es inevitable.» Si la palabra «fijado» sólo significa «determi­ nado por el pasado», es sin duda una implicación del determinismo que el futuro de cada uno está fijado. Esta idea ha dado que hacer a muchas personas reflexivas desde el inicio de la filosofía. Buda reco­ mendaba la meditación como una técnica para reconciliarse con el conocimiento de que la vida propia es simplemente un diminuto epi­ sodio de una gran cadena fijada de causas y efectos. El pensador del siglo XIX John Stuart Mill escribió sobre la «influencia depresiva y paralizadora» de su creencia en un futuro fijado, y Ted Honderich ha escrito recientemente sobre lo que llama su actitud de derrota ante su creencia de que el futuro de cada persona está fijado52. Puede que me falte imaginación, pero no me parece deprimente la idea de vivir en un universo cuyo futuro está fijado. Y me voy a explicar: 1. En primer lugar, aunque el futuro esté fijado, eso no significa que mis acciones no sean voluntarias, que no dependan de mí, que no sean libres. Espero que mis diversos argumentos ya hayan conven­ cido de eso. 2. Desde el punto de vista de Laplace, un futuro fijado es un fu­ turo predecible: una inteligencia escrutadora sobrehumana podría en principió calcular los detalles íntimos de todos nuestros futuros. Pero gracias a la teoría del caos sabemos que un futuro fijado no es necesa­ riamente predecible. Puesto que en un mundo conectado causalmente la impredictibilidad engendra impredictibilidad, la existencia de un solo agujero de caos frustraría los cálculos laplacianos. 51 Ayer, A. J., Philosophical Essays, p. 284 (las cursivas son mías). 52 Mill, J. S., Autobiography, p. 119; Honderich, T., A Theory of Determinism, ca­ pítulo 7.

246

Inteligencia artificial. Una introducción filosófica

3. Se dice a veces que si el futuro está fijado, entonces en la vida no hay oportunidades. No estoy de acuerdo. Imaginemos que com­ pramos un billete de lotería y luego leemos en las condiciones del an­ verso que el número ganador ha sido seleccionado por un comisario imparcial antes de que comenzara la venta de billetes (el ejemplo es de Dennett)53. «El número ganador ha sido guardado en un sobre sellado por el comisario y depositado en la cámara de un banco», dice el bi­ llete. ¿No creeríamos que tenemos una posibilidad de ganar? Saber que el resultado de la lotería ya está determinado no afecta: seguimos teniendo una oportunidad de ganar el premio. Y si una lotería presor­ teada nos ofrece la oportunidad de ganar el premio de nuestros sue­ ños, también nos la da un futuro predeterminado. En efecto, en un as­ pecto importante un futuro predeterminado es más halagüeño que una lotería presorteada. Una vez vendidos los billetes es inevitable que alguien vaya a ganar la lotería. Normalmente decimos que algo es ine­ vitable si va a ocurrir, hagamos lo que hagamos54. Pero muchos de los acontecimientos de nuestro futuro ocurrirán precisamente porque ha­ remos por producirlos. La inevitabilidad no consiste en eso, 4. Un futuro fijado no es un futuro en que experimentemos des­ validos el flujo de los acontecimientos. Gran parte de nuestro futuro será fruto de nuestra acción: muchas de las cosas que ocurren lo ha­ cen porque —y sólo porque— decidimos que lo hagan y tomamos medidas efectivas para originarlas. Si el determinismo es verdadero, entonces cada acontecimiento de nuestras vidas es el resultado de fuerzas causales preexistentes, pero a menos que estemos esclaviza­ dos o en coma, entre estas fuerzas serán eminentes nuestras propias decisiones y acciones. Por mi parte, éste es el único poder sobre los acontecimientos que necesito. En resumen, pues, he examinado tres géneros de libertad: la libertad del azar, la libertad compatibilista y la libertad trascendental o «contra­ causal». Es difícil entender que los seres humanos tengan libertad tras­ cendental, y, de todas maneras, no me parece que valga la pena anhelar esta clase de libertad. Por lo que se refiere a los otros dos tipos de liber­ tad, los seres humanos pueden poseer el primero y sin duda poseen el se­ gundo. Ambos tipos de libertad podrían existir en un artefacto real que tenga el mismo refinamiento que el robot imaginario Turbo Sam. 53 Dennett, D. C., Elbow Room> p, 120. 34 Dennett, D. C., ibidem, p. 127.

Capítulo 8 CONCIENCIA

¿Podría un artefacto sintetizar la joya suprema de la existencia humana, la conciencia? Cuando Turbo Sam atisba por medio de sus ojos artificiales un macizo de narcisos, ¿se limitan sus circuitos elecirónicos a registrar características numéricas de la luz reflejada en los pétalos? ¿O sufre una experiencia consciente del amarillo, una sensa­ ción interna a la que acaso abandonarse, como un Wordsworth de silicio? 8.1. Nágel y el desorden Es sobrecogedor lo poco que la ciencia contemporánea del cere­ bro dice sobre la conciencia: este tema está más allá de las fronteras actuales del conocimiento. Durante mucho tiempo era tabú, víctima del principio «Si no puedes explicar algo, haz como si no existiera». Esta máxima se conoce malintencionadamente como Navaja de Skin­ ner, por B. F. Skinner, una figura prominente del movimiento conductista. El conductismo dominó la psicología entre los años veinte y los sesenta. En 1963 un investigador de la IA que pretendía hacer un estudio de las posibilidades de la conciencia mecánica informaba me­ 747

248

Inteligencia artificial. Una introducción filosófica

lancólicamente de que «la psicología moderna... no encuentra utilidad científica a la idea de una conciencia que acompañe a la conducta... el concepto de conciencia se considera... a la vez indeseable e innecesa­ rio... en la ciencia de la conducta humana» h Un autor reciente que escribe sobre la conciencia se burla de la época conductista: «Cierta­ mente una forma de resolver el problema de la conciencia y su lugar en la naturaleza es negar que haya conciencia»12. Aunque a los científicos del cerebro ya no les da vergüenza usar en público la palabra «conciencia», se sigue sin saber mucho en el or­ den científico sobre ese fenómeno. En efecto, se sabe tan poco que quien escribe sobre el asunto se arriesga a que lo acusen de desperdi­ ciar papel. «En mi opinión no se ha escrito nada sobre la conciencia que valga el papel de impresión gastado», dice Stuart Sutherland, di­ rector del Centro para la Investigación de la Percepción y la Cogni­ ción de la Universidad de Sussex3. A pesar de estas palabras pesimis­ tas, me propongo hacer un breve viaje hasta las fronteras de este misterioso territorio. Pido perdón por la vaguedad del paisaje. Mi objetivo al emprender el viaje es convencer de que, en ese poco que conocemos, nada hay que sugiera que es imposible la conciencia de las máquinas. La necesidad de una taxonomía Freud señaló en una ocasión que «no hace falta explicar lo que se entiende por consciente: está fuera de toda duda» 4. Estaba equivo­ cado por completo. Eso es lo primero que tenemos que aclarar. Lo mejor es no considerar la palabra «conciencia» como un término que designe un estado unitario, sino como una etiqueta algo vaga que se usa pax*a fenómenos no muy emparentados5. Sospecho que cuando la 1 Culbertson, J. T., The Minds of Robots, p. 77. 2 Jaynes, J., The Origin of Consciousness in the Breakdown of the Bicameral Mind, p. 13. 3 Sutherland, S., «Removing the Mystery of Intelligence». 4 Freud, S., Neue Folge der Vorlesungen zur Einfiihrung in die Psychoanalyse, pp. 76-7. 5 Es muy interesante la noticia de Kathy Wilkes según la cual la palabra «conscious­ ness» («conciencia») no apareció en el inglés hasta medidados del siglo xvn. No había, dice, ningún término correspondiente en el griego clásico, y el chino actual parece ca­ recer de equivalentes próximos. El adjetivo «conscious» («consciente») existía en inglés antes del siglo XVII, pero no con su significado moderno. La palabra se usaba sólo para

Conciencia

249

gente dice irreflexivamente cosas como «claro que los perros son conscientes» o «yo sé que soy consciente», no tiene claro a qué se re­ fiere. Como veremos, podrían referirse a varias cosas enteramente distintas. Incluso las obras científicas o filosóficas sobre la conciencia se resienten del hecho de que diferentes autores se refieren a veces a cosas distintas con ese término, y no es raro que las discusiones entre expertos se disuelvan en la incomprensión mutua. Las tres próximas secciones proponen una breve taxonomía del género conciencia. La taxonomía no aspira a ser completa. Entre los varios sentidos que no se mencionan está la conciencia como el estado de vigilia y conciencia en el sentido de sensibilidad hacia alguna di­ mensión particular de la existencia humana (como en las expresiones «conciencia política» o «conciencia espiritual»). Dos sentidos impor­ tantes —conciencia como sentido del yo y conciencia como un «espa­ cio interior» metafórico— sólo se mencionan de pasada, pues creo que en buena parte caen debajo de la segunda entrada de la taxonomía. 8.2. La base borrosa Según Julian Jaynes, «es perfectamente posible que pudiera haber existido una raza de hombres que hablaran, juzgaran, razonaran, re­ solvieran problemas, que, en suma, hicieran la mayor parte de las co­ sas que hacemos nosotros, pero no fueran conscientes»6. Si esto nos suena estrambótico es porque probablemente estemos tomando la palabra «consciente» en lo que yo llamo el sentido básico. En ese sen­ tido, una entidad es consciente, por definición, si, en primer lugar, es capaz de percibir el mundo a través de órganos sensoriales de algún tipo y, en segundo lugar, es capaz de realizar actividades internas de la clase mencionada en la cita: razonar, deliberar, juzgar, inventar hi­ pótesis, planear, etc. aludir al conocimiento compartido: varías personas eran conscientes de un conoci­ miento si todas lo poseían. Este sentido persiste en expresiones como «todos somos conscientes de que». (Véase Wilkes, K., «-*, yishi, duh, urn and consciousness».) 6 Jaynes, J., The Origin of Consciousness in the Breakdown of the Bicameral Mind, p. 47. Jaynes es una figura controvertida que ha llegado a afirmar que las gentes de las civilizaciones primeras —los griegos homéricos, por ejemplo— no eran conscientes. Jaynes aporta una masa de datos históricos, arqueológicos y literarios en apoyo de su postura. A mí no me convence. Pero el estudio que hace Jaynes de la conciencia es rico y estimulante.

Inteligencia artificial. Una introducción filosófica

250

Jaynes sugiere que podría haber una raza de seres que cumplan estas condiciones básicas y, no obstante, no sean conscientes, en otro sentido de la palabra* Una buena manera de hacerse cargo con la ima­ ginación de lo que pretende Jaynes es figurarnos que conducimos por un tramo de carretera habitual mientras nos absorbemos en nuestros pensamientos o en una conversación7. Quien no conduzca que se imagine caminar hasta la parada del autobús mientras tiene una enso­ ñación. De una u otra forma, la experiencia que voy a describir resul­ tará familiar para todo el mundo. Debido a la concentración en la charla o en la ensoñación, poca información o ninguna relativa a la carretera se filtra hasta nuestra conciencia. Pero los datos siguen flu­ yendo desde los ojos y oídos al cerebro, y aunque no nos percatemos conscientemente de hacerlo, continuamente planeamos maniobras, juzgamos distancias, leemos señales, cambiamos marchas, etc. Este estado se aproxima al que debe ser el de la raza de gente sin concien­ cia de la que habla Jaynes: la información sensorial fluye, se toman decisiones, se inventan y ejecutan planes, pero todo ello sin perca­ tarse conscientemente. Quien le tenga apego al sentido básico de conciencia sentirá inco­ modidad ante mi descripción del ejemplo del coche. Sin duda hay un sentido claro en el que la conductora es consciente del coche que tiene delante cuando lo sobrepasa, porque si no fuera consciente de él, chocaría en vez de maniobrar. Quienes no aceptan el sentido bá­ sico responderán que aunque la conductora, en efecto, percibe el co­ che de delante, la percepción puede acontecer sin percatarse cons­ cientemente. Es curioso que los psicólogos en una conferencia reciente se dividieran mitad por mitad ante la cuestión de si una con­ ductora es o no consciente de la carretera en las circunstancias ex­ puestas 8. Es de suponer que también se dividirían al 50 por 100 sobre la cuestión de si una criatura —o máquina— que esté siempre en este estado de «percatarse pero no percatarse» es consciente. El desacuerdo sobre lo que llamo sentido básico del término «consciente» es más bien un caso de diferentes preferencias verbales. Algunas personas hallan natural aplicar la palabra «consciente» a cualquier entidad que satisfaga las condiciones básicas, mientras que otras personas prefieren evitar la palabra si no se dan otras condicio­ 7 Jaynes, J., The Origin of Consciousness in the Breakdown of the Bicameral Mind,

p. 85.

8 Lo recoge Kathy Wilkes en

yishi, duh, um, and consciousness», nota 11.

Conciencia

251

nes además. No tiene objeto atribuir la razón a uno u otro grupo. Un taxonomista aplicado se limitará a incluir el sentido básico en la taxo­ nomía de la conciencia y a añadir una nota a propósito de que algu­ nas personas prefieren reservar el término «consciente» a las entida­ des que poseen otros rasgos adicionales, detallados en otro lugar de la taxonomía, en vez de malgastar la palabra con organismos o mecanis­ mos que llegan hasta la línea básica, pero no van más allá. Como he indicado en el capítulo 3, yo pertenezco al segundo grupo, y no se me hace rara la idea de una raza de seres que perciben y piensan, pero no son conscientes. Sin embargo, si sus intuiciones le dicen que habría que llamar conscientes a estos «seres básicos», no tengo nada que ob­ jetar, pues téngase en cuenta que si los seres básicos se consideran conscientes, se facilita mi tarea de argumentar que una máquina cons­ ciente es una posibilidad conceptual. Un robot pensante como Turbo Sam cumpliría de sobra las condiciones básicas y, por tanto, sería in­ discutiblemente consciente en el sentido básico. 8.3. La conciencia como un tipo de supervisión interna9 Una conductora abstraída que percibe un vehículo delante y, sin embargo, no se percata de que lo percibe, es, en algunos aspectos, se­ mejante a una persona con visión ciega (fenómeno del que nos ocu9 Para conocer cinco teorías detalladas de este género, véanse Armstrong,' D. M., A Materialist Theory of the Mind, caps. 6 y 15; Dennett, D. C-, «Towards a Cognitive Theory of Consciousness»; Gazzaniga, M. $., «Brain Modularity: Towards a Philo­ sophy of Conscious Experience»; Johnson-Laird, P. N., Mental Events, cap. 16, y The Computer and the Mind, cap. 19; Weiskrantz, L., «Some Contributions of Neuropsy­ chology of Vision and Memory to the Problem of Consciousness» y «Neuropsycho­ logy and the Nature of consciousness». La explicación de Jaynes se superpone un poco con las explicaciones de este tipo. «La percepción es sentir un estímulo y responder adecuadamente. Y esto puede ocurrir en un nivel no consciente, como he intentado des­ cribir al hablar de la conducción de un coche... Considero que el rasgo principal de la conciencia es el espacio mental... nos relatamos simulaciones analógicas de conductas reales... La conciencia está todo el tiempo encajando cosas en una narración... La defini­ ción connotativa básica de la conciencia es, pues, un «yo» analógico que narra en un es­ pacio mental funcional... hay diferentes modos de narración, como la verbal... la percep7 tíva (imaginar escenas), conductual (imaginar que hacemos algo), fisiológica (supervisar nuestra fatiga o incomodidad o apetito) o musical (imaginar música)... es esta llamativa intimidad de acontecimientos encubiertos lo que denominamos conciencia» (The Origin of Consciousness in the Breakdown of the Bicameral Mind, pp. 448, 450, 452, 453).

252

Inteligencia artificial. Una introducción filosófica

paraos en la sección 3.1). Estas personas informan de la pérdida de una parte de su campo visual después de una intervención quirúrgica, y aseguran ser incapaces de ver las luces y figuras que se proyectan sobre la región «ciega» adquirida. Sin embargo, hay experimentos que revelan que estos pacientes perciben las luces y figuras, a pesar del hecho de que no se percatan conscientemente de elloi012. Éstos y otros casos sugieren que el cerebro contiene alguna clase de mecanismo de supervisión. Larry Weiskrantz, el descubridor de la visión ciega, conjetura que cuando la persona con visión ciega percibe una luz en su área ciega, la percepción, por alguna razón, no es super­ visada, con el resultado de que la persona no puede informar de su presencia n. David Armstrong ha expresado la hipótesis del supervi­ sor interno por medio de una vivida metáfora: «En la percepción, el cerebro escruta el entorno. Én la conciencia de la percepción, otro proceso cerebral escruta ese escrutinio»í2. No todo lo que nos ocurre cae dentro del alcance de este su­ puesto supervisor. La respuesta de las pupilas, por ejemplo, no está supervisada13. El iris está continuamente expandiéndose o contrayén­ dose, no sólo en respuesta a los cambios de iluminación, sino también en respuesta al interés que el objeto de la visión despierta en el sujeto: si miramos a un extraño con las pupilas más abiertas, eso es indica­ ción de que nos atrae. Pero no somos conscientes de dar esta señal: los procesos cerebrales que controlan la respuesta de la pupila no es­ tán supervisados. Tampoco las cosas que caen dentro del alcance del sistema son supervisadas todo el rato (como ilustra el ejemplo de la conductora); y en situaciones que exigen una celeridad de pensa­ miento extrema, el supervisor puede «desentenderse» más o menos completamente. Los pilotos aéreos y de carreras informan a menudo de que se les pone la mente en blanco en los momentos en que —co­ mo indica su conducta— toman series de decisiones a gran velocidad. Hay teóricos que sugieren que el supervisor se alimenta del cen­ tro lingüístico del cerebro. Es el supervisor el que nos permite nues­ 10 Weiskrantz, L., Warrington, E. K., Sanders, M. D., y Marshall,}., «Visual Capa­ city in the Hemianopic Field Following a Restricted Occipital Ablation»; Weiskrantz, Blindsight. 11 Weiskrantz, L., «Some Contributions of Neuropsychology of Vision and Me­ mory to the Problem of Consciousness», pp. 194-5. 12 Armstrong, D. M., A Materialist Theory of the Mind, p. 94. 13 Weiskrantz, L., «Some Contributions of Neuropsychology of Vision and Me­ mory to the Problem of Consciousness», p. 184.

Conciencia

253

tra plática interna sobre lo que estamos haciendo y por qué y cómo lo hacemos. Este monólogo interno incesante, y el espejismo conco­ mitante de un «espacio interior privado» constituye una gran parte de nuestro sentido de mismidad. Sin duda hay otras formas de super­ visión más rudimentarias que pueden darse en criaturas no lingüísti­ cas, y es posible que esta forma de conciencia exista en todos los ma­ míferos complejos. Michael Gazzaniga dio con la idea de que el cerebro contiene un mecanismo de supervisión relacionado con el lenguaje como resul­ tado de su trabajo con pacientes que habían sufrido la sección quirúr­ gica del cuerpo calloso. Éste es el «puente» de fibras nerviosas que conecta los hemisferios izquierdo y derecho del cerebro. Se corta el cuerpo calloso como tratamiento de la epilepsia intratable. Ésa es la operación de división del cerebro (aunque en realidad la operación no divide literalmente el cerebro: los dos hemisferios permanecen co­ nectados en el nivel subcortical). En términos generales, el hemisferio derecho del cerebro procesa la información de la mitad izquierda del campo visual, y controla el lado izquierdo del cuerpo (los movimientos del brazo y los dedos, por ejemplo), mientras que el hemisferio izquierdo se ocupa de la mitad derecha del campo visual y del lado derecho del cuerpo. En las perso­ nas diestras, el área cerebral responsable del lenguaje se localiza gene­ ralmente en el hemisferio izquierdo, y al revés en el caso de las zurdas (una explicación posible de esto es que la región responsable en la ac­ tualidad del lenguaje haya sido originariamente responsable de los ges­ tos). Una vez cortado el cuerpo calloso, los hemisferios ya no pueden compartir información. Esto produce unos efectos muy extraños14. En una famosa serie de experimentos, se colocó a sujetos con el cerebro dividido frente a una pantalla de manera que lo que era pro­ yectado en el lado derecho de la pantalla sólo era «visto» por el he­ misferio izquierdo, y viceversa (figura 8.1)I5. Si se proyecta breve14 Hay divergencia de opiniones sobre si el sistema de supervisión de un paciente con el cerebro dividido se ha dividido también en dos, o si el sistema ha quedado loca­ lizado por entero en un hemisferio y ya no tiene acceso a lo que pasa en el otro. Gaz­ zaniga cree que ocurre lo último. Si fuera lo primero, la cabeza de un paciente con el cerebro dividido podría contener dos «flujos de conciencia» separados, de sólo uno de los cuales se podría informar verbalmente. Para una interesante discusión filosófica de esta posibilidad, véase Nagel, T., «Brain Bisection and the Unity of Consciousness». t5 Gazzaniga, M. $., Bogen, J. E., y Sperry, R. W., «Observations on Visual Percep­ tion After Disconnection of the Cerebral Hemispheres in Man»; Sperry, R. W., «Some

254

Inteligencia artificial. Una introducción filosófica

FIGURA 8.1. C ada hem isferio sólo «ve» una m ita d de la pantalla

mente una figura indecorosa en el lado izquierdo de la pantalla, un sujeto diestro informa ordinariamente que no ve nada, pero puede ruborizarse y reír tontamente durante unos minutos. Cuando se les pregunta por qué se han sonrojado, los sujetos dicen que no lo saben. Su sistema de supervisión dañado les está jugando una mala pasada. Si se proyecta un triángulo en el lado izquierdo de la pantalla y un círculo en el derecho, el sujeto diestro informará de que ve un círculo Effects of Disconnecting the Cerebral Hemispheres»; Gazzaniga, M, $., y Le Doux, J. E., The Integrated Mind.

Conciencia

255

(porque, recordemos, el área responsable del lenguaje está localizada en el hemisferio izquierdo). Pero si se le pide que dibuje lo que hay en la pantalla qon la mano izquierda, pintará un triángulo. Y si se le pregunta qué ha dibujado, insistirá en que ha producido un círculo (suponiendo, claro está, que no se le permita quitar los ojos de la pantalla y mirar). Gazzaniga propone la idea de que el sistema de supervisión del cerebro está dispuesto a hacer conjeturas cuando no tiene seguridad: el supervisor es un intérprete activo más que un registro pasivo I6. Como dice Gazzaniga, el supervisor «construye hipótesis» sobre lo que está sucediendo 17. Las conjeturas del sistema no siempre son acertadas, como en el caso de la hipótesis de que la mano izquierda había dibujado un círculo. Gazzaniga describe varios casos en que el supervisor de un paciente con el cerebro dividido es sorprendido en el acto mismo de fabricar una hipótesis falsa. En un experimento, la disposición de la pantalla que acabo de mencionar se empleó para presentar una imagen de una casa rodeada por la nieve y un coche ante el hemisferio derecho de un hombre y un dibujo de una pata de pollo ante el hemisferio izquierdo. Se le pidió luego que mirara una fila de ocho dibujos de objetos y que empleara ambas manos para elegir los dos mejor asociados con lo que había visto en la pantalla (figura 8.2). Con la mano izquierda señaló una pala (recordemos que la mano izquierda está controlada por el hemisferio derecho) y con su mano derecha escogió un dibujo de un pollo. Cuando se le pidió que explicara su selección, su centro del lenguaje (localizado en el he­ misferio izquierdo) transmitió esta hipótesis del supervisor: «Ah, muy sencillo. La pata de pollo va con el pollo, y hace falta una pala para limpiar la porquería de los pollos» 1S. El sistema de supervisión dañado ya no tenía acceso a todo lo que necesitaba saber para expli­ car correctamente ambas elecciones, pero eso no le impidió aventurar una hipótesis. La propuesta de Gazzaniga no es sólo que el supervisor de un ce­ rebro dañado hará conjeturas cuando tenga que hacerlas, sino que la interpretación y la conjetura son una parte rutinaria de la actividad del supervisor de todo el mundo. Esto suscita la perturbadora posibiu Gazzaniga, M. S., «Brain Modularity: Towards a Philosophy of Conscious Ex­ perience». 17 Gazzaniga, M. S., ibidem, p. 219. u Gazzaniga, M. S., ibidem, p. 223.

256

Inteligencia artificial. Una introducción filosófica

F igura 8.2. C ada uno de los hem isferios escoge objetos diferentes cuando se p id e a l sujeto con el cerebro d ivid id o qué dibujos asocia con el que v e en la pantalla. (D e la figura 42 de G azzan iga, M. S. y L e D o u x E . > The Integra­

ted Mindd

lidad de que nuestras creencias sobre nuestras actividades —incluso las más mundanas— a veces, o quizá a menudo, pueden no ser más que invenciones aderezadas por nuestro supervisor. Experimentos como el siguiente parecen confirmar esta posibilidad. Las mujeres de un centro comercial a las que se les pidió seleccionar un par de me­

Conciencia

257

dias de nylon de un mostrador tendieron en general a elegir un par del extremo derecho del muestrario, aunque todos los pares eran idénticos. (Es bien sabido que la elección de artículos por parte de un comprador está muy influida por la posición espacial.) Cuando se le pidió a cada mujer que dijera por qué había elegido el par que había elegido, dieron explicaciones tan ilegítimas como la de la pala y el po­ llo: el par elegido tenía un color más bonito o estaba más nuevo, etc. Ninguna de las mujeres mencionó la explicación verdadera: la posi­ ción espacial 19. Si el sistema de supervisión es un fabulista inveterado, entonces la narración coherente que fluye por nuestra cabeza, cuyo objeto es integrar nuestra vida mental, es una mezcla poco de fiar compuesta de hechos y ficciones. Volviendo a la taxonomía, bajo los términos de la entrada que es­ tamos considerando, una entidad es consciente si —y debo pedir dis­ culpas por la vaguedad de la siguiente caracterización— posee alguna clase de sistema de alto nivel de visión de conjunto capaz de supervi­ sar muchos de los estados y procesos cognitivos de la entidad. (Aun­ que, naturalmente, una alarma contraincendios autosupervisada no es consciente. Sólo nos ocupamos de las entidades que satisfacen las condiciones básicas.) La entidad se percata conscientemente de aque­ llas actividades que son supervisadas. Los estados a los que tiene ac­ ceso el supervisor pueden incluir otros además de los perceptivos: pueden ser supervisados deseos, necesidades, metas, temores, creen­ cias, recuerdos, planes, y otros muchos más. En este sentido, una ne­ cesidad o un temor o un plan, etc., es consciente si la entidad forma la creencia de que lo tiene como resultado del acceso directo del super­ visor (en contraposición a inferir que lo tiene como resultado de re­ flexionar sobre su propia conducta)20. ¿Podría un artefacto ser consciente en este sentido? Parece claro que la respuesta es sí, al menos en principio. Hay muchas razones por las que una máquina como Turbo Sam podría no existir en la rea­ lidad, pero un laboratorio hipotético de robótica capaz de fabricar lo demás no tendría, supongo, dificultades especiales en procurarle un sistema de supervisión e interpretación integrado con el lenguaje. Si alguien duda de que un robot en posesión de tal sistema sea real y verdaderamente consciente, eso quiere decir que, para esa persona, 19 Nisbett, R. E., y Wilson, T. D., «Telling More Than We Can Know: Verbal Re­ ports On Mental Processes», pp. 243-4. 20 Véase Armstrong, D., M., A Materialist Theory of Mind, caps. 6 y 15.

258

Inteligencia artificial. Una introducción filosófica

la verdadera esencia de la conciencia está en otro lugar de la taxono­ mía. Sigamos. 8*4. La inefable sensación Un día, cuando Turbo Sam vagabundeaba solo por los cerros y valles que rodean el Instituto Turing, vio de pronto multitud de nar­ cisos. Se quedó admirándolos un largo rato, abstraído de toda otra cosa. Su color era más rico, más pleno que nada que hubiera encon­ trado en el entorno del laboratorio. Grabó un facsímil de alta reso­ lución de la escena en su memoria permanente y, mucho después de haber partido de Inglaterra, los narcisos, de vez en cuando, resplan­ decen ante el ojo interior de su contemplativo sistema supervisor. ¿Qué le parece a Turbo Sam mirar los narcisos? Ve flores de cierto color, sí, pero ¿se parece la sensación que tiene cuando los ojos artificiales escrutan, el paisaje de narcisos a la sensación que usted o yo tenemos en esas circunstancias?, ¿es su sensación visual inimagi­ nablemente distinta de la nuestra? Quizá sus sensaciones visuales sean tan diferentes de las nuestras como nuestras sensaciones gustati­ vas lo son de las táctiles. En este punto se presenta un problema in­ quietante: ¿hay alguna manera de asegurarse de que usted y yo tene­ mos sensaciones visuales semejantes cuando miramos un macizo de narcisos? Decimos que los narcisos son amarillos, igual que Turbo Sam, pero eso no sirve. Los tres seguimos la norma de aplicar la pala­ bra «amarillo» de las cosas que nos parecen amarillas, pero, con todo, podida ocurrir que las cosas amarillas tuvieran diferente apariencia para cada uno. Al preguntar qué le parece a Turbo Sam mirar los narcisos hemos dado mucho por supuesto. Quizá a Turbo Sam no le parezca nada. Puede que Turbo Sam en realidad no «experimente» nada cuando ve una flor amarilla o pasa sus sensores gustativos sobre la menta o de­ tecta el inequívoco tufillo que indica que se está sobrecalentando una de sus placas de circuitos. Ve los narcisos, se da cuenta de que los ve (gracias a su supervisor interno), sabe que son de color amarillo do­ rado en vez de amarillo verdoso o castaño, puede identificar su fami­ lia botánica, y es capaz después de recordar la escena de las flores con gran detalle, incluido (así se lo cuenta a sí mismo) cómo se extiende el color claro e intenso inundando el terreno como una neblina. Pero todo esto parece posible sin que el comercio sensorial del robot con

Conciencia

259

las flores (o la mente o la placa recalentada) posean ningún «carácter subjetivo» o «cualidad fenomenológica inmediata» o «sensibilidad» (que cada cual elija el término que prefiera)21. Al fin y al cabo, algu­ nos de los sencillos robots que hoy día hay en las plantas de mon­ taje de automóviles tienen sensores táctiles y sistemas visuales rudi­ mentarios, pero carecen, se supone, de sensaciones con cualidades fenomenológicas, y quizá le pase lo mismo a Turbo Sam (compare­ mos estas perennes preguntas infantiles: ¿sienten en realidad algo los gatos/moscas/ranas cuando malvadamente se les tira del rabo/arrancan las alas/estruja el cuerpo?). Supongo, dicho sea de paso, que usted, como ser humano, tiene una comprensión intuitiva de lo que estoy diciendo: la sensación del viento soplando contra el cabello, el aspecto del cielo azul despejado, la incon­ fundible pero inefable sensación del calor en la piel, el carácter sordo y profundo de un dolor de estómago. Aunque no me apetecería tener que explicarle a Turbo Sam qué es exactamente lo que nos tememos que le falta. Sin duda insistiría, dolido, en que no le falta nada, que él también sabe cuándo sopla el viento contra su cabello. Turing propone que tra­ temos estas situaciones cediendo con cortesía si un robot nos asegura que es consciente fenomenológicamente, a pesar de que alberguemos dudas. Y señala divertido que, al fin y al cabo, todo el mundo adopta esta convención en sus relaciones con el resto de la humanidad22. Una entidades consciente en el tercer y último sentido de esta ta­ xonomía si sus episodios sensoriales tienen «propiedades sensibles». Deseosos de un término técnico con empaque, los filósofos hablan generalmente de qualia (singular, quale) en vez de propiedades sensi­ bles, y entonces, la entrada oficial de la taxonomía dice: una entidad consciente es una cuyas interacciones sensoriales con el mundo van generalmente acompañadas de qualia de alguna clase. : ¿Qué son exactamente los qualia? y ¿podría experimentarlos una máquina? Éstas son grandes preguntas y el resto del capítulo está de­ dicado a ponderarlas. 21 Thomas Nagel emplea la expresión «carácter subjetivo» en este contexto en «What is it Like to Be a Bat?». Saul Kripke, en Naming and Necessity, usa la expresión «cualidad fenomenológica inmediata». Bill Lycan habla de las «propiedades sentidas» de los dolores, sensaciones de color, etc., en Consciou$ne$$>cap. 5. 22 «Computing Machinery and Intelligence», p. 446. El tratamiento que da Turing de la conciencia es algo superficial. Recomienda su Prueba como diagnóstico de la con­ ciencia (pp. 445-7). Pero, a la vista de los argumentos del capítulo 3, la Prueba de Tu­ ring no es un indicador fiable ni siquiera de la conciencia en el sentido básico.

260

Inteligencia artificial. Una introducción filosófica

8.5. En el corazón del misterio En 1866 Thomas Huxley escribió lo siguiente en sus Lecciones de Fisiología Elemental: «No sabemos lo que es la conciencia, y cómo es que algo tan notable como un estado de conciencia aparece de resul­ tas de la irritación de un tejido nervioso, es tan inexplicable como la aparición del Genio cuando Aladino frotó su lámpara» 23. Ha pasado más de un siglo y el misterio permanece sin resolver. Aún nos falta una concepción firme de la relación entre los qualia y la actividad eléctrica y química que acontece en el cerebro y en el sistema ner­ vioso. Algunos científicos y filósofos creen que los qualia son cosas únicas y peculiares que siempre estarán fuera del alcance de la ciencia objetiva. Es fama que Einstein dijo que la ciencia no nos puede expli­ car el sabor de una sopa24. Dentro de unas pocas páginas examinaré con cierto detalle esta línea de pensamiento. Pero antes —sin que sea ajena la intención de crear una cierta aura de mistificación—■ deseo desacreditar un par de intentos de rechazar la idea de que haya algo exclusivo y desconcertante en los qualia. Reacción despectiva «Me parece que todo el “misterio” es simplemente el resultado de coger el rábano por las hojas. Las llamadas "propiedades sensibles” no están en absoluto en el cerebro o la mente. Están en el mundo, como propiedades de los objetos que percibimos. El queso es amari­ llo, la hierba es verde, el azúcar es dulce, la sopa es salada. Estas pro­ piedades no presentan ningún problema especial. Cualquier bromatólogo puede decirnos lo que le da el sabor a un plato de sopa.» Una manera sencilla de ver dónde está el fallo de estas observacio­ nes es considerar el dolor. Como bien sabemos, pinchar los tejidos humanos con un alfiler va acompañado de propiedades «sensibles» distintivas, y es difícil considerarlas como propiedades del alfi­ ler mismo. Los qualia los causa el alfiler en nosotros. Igual ocurre con el gusto (y las otras modalidades sensoriales), como ilustrará un ejemplo25. 23 Huxley, T. H., Lessons in Elementary Physiology, p. 193. 24 Véase Dennett, D. C., «Quining Qualia», p. 48. 25 El ejemplo es de Bennett, J., «Substance, Reality and Primary Qualities», p. 9.

Conciencia

261

La fenoltiourea es una sustancia que tiene un sabor intensamente amargo para el 75 por 100 de las personas y es más o menos insípida para el resto. ¿Es amarga la fenoltiourea? Ésta es una pregunta ex­ traña para quien cree ingenuamente que un enunciado como «el azú­ car es dulce» dice algo acerca del azúcar mismo, en contraposición al efecto que tiene en nosotros el azúcar. Pero hay algo peor. La res­ puesta de una persona a la fenoltiourea está determinada genética­ mente. Eso significa que si a quienes la encuentran amarga se les im­ pide —imaginémoslo— tener descendientes, la sustancia se volverá insípida para todo el mundo en quizá una docena de generaciones (igual que los ojos azules se podrían extinguir si a las personas con ojos azules de cada generación se les impidiera reproducirse). De este modo, la fenoltiourea pasaría de ser una sustancia que le sabe amarga a la mayoría de la gente a ser una sustancia universalmente insípida, todo ello sin ninguna alteración en las propiedades químicas o físicas de la fenoltiourea. El amargor está en el continente, no en lo contenido. Los qualia no están «en el mundo», sino que son causados en nosotros por obje­ tos externos que interactúan con nuestro aparato sensorial. Otra reacción despectiva «Mira, en esto de los qualia no hay ningún gran misterio. No son más que estados o procesos que tienen lugar en el cerebro. Cierto, aún no sabemos con precisión qué estados o procesos constituyen los qualia, pero tampoco sabemos cómo el cerebro reconoce las caras, hace aritmética o genera las oraciones que emitimos. Aún quedan por resolver muchas cuestiones en la ciencia del cerebro. Todas son fasci­ nantes, pero ninguna merece el apelativo de misterio sin solución. Todo eso de que los qualia sean el enigma último del universo es pura exageración.» Réplica ofendida «¿Cómo puede consistir sentir un dolor en el paso de iones a través de las membranas de las células del cerebro? ¿Cómo pueden la sensación de azul o el olor a jazmín estar formados por la actividad eléctrica de la corteza cerebral? ¿O la sensación de sed ser un incremento en la concen­

262

Inteligencia artificial. Una introducción filosófica

tración de aminoácidos en el hipotálamo? ¿O el placer del orgasmo ser uno y lo mismo que una reacción química en una pequeña porción de tejidos a mitad de camino entre las puntas de las orejas? Y, sin embargo, la opinión anterior asegura con toda tranquililidad que los qualia son li­ teralmente procesos cerebrales como éstos. Nunca he oído nada tan in­ creíble. Y, de paso, no confundamos lo que dice mi antagonista con la afirmación mucho más débil de que es la actividad electroquímica del cerebro lo que produce o causa los qualia asociados con el orgasmo, la sed, etc. Es enteramente plausible decir que acariciar a un gato causa que ronronee, pero enteramente implausible decir que el ronroneo es la cari­ cia. X es Y es muy diferente de X está causado por Y.» La incongruencia que implica la idea de que los qualia son procesos cerebrales es, pienso, muy llamativa. Es una idea no menos extraña que el absurdo de que la nota do pueda ser literalmente un pez: en ambos casos parece no haber la menor semejanza entre los elementos yuxtapuestos. Sin embargo, como he dicho ya varias veces, la rareza no es necesaria­ mente indicadora de falsedad, y podría resultar que —sea como fuere— nuestros qualia no sean sino acontecimientos físicos del cerebro. (La his­ toria está llena de precedentes: el rayo, esa fuerza ultraterrena de los dio­ ses, al final resultó no ser sino una mundana descarga de electricidad.) Per­ sonalmente, espero sin duda que así acabe esto. La idea de que los qualia sean presencias etéreas, no físicas, que permean mi sistema nervioso cen­ tral como fantasmas entrometidos es, por decir lo menos, inquietante26. Pero, al contrario, sólo quienes padezcan una grave ceguera para los mis­ terios sostendrán que aquí no hay misterio. Lo hay, y gordo27. Quienes piensan que nuestros qualia resultarán no ser más que acon­ tecimientos biofísicos del cerebro son fisicalistas. El bando contrario, de quienes piensan que los qualia trascienden lo biofísico, se conocen como antifisicalistas. Los anti-fisicalistas reciben también el nombre de dualistas, porque creen que los seres humanos son un compuesto de dos cosas radicalmente diferentes, la materia y la mente; por un lado está nues­ tro aspecto biofísico y por otro está esa corriente florida y rumorosa de qualia irreductiblemente mentales.28Por su parte, los fisicalistas creen que 26 El neurocientífico John Eccles monta una defensa de esta idea de resonancias ocultas en The Human Mystery, cap. 10. 27 Un intento animoso de provocar ceguera para los misterios es el de Daniel Den­ nett, Consciousness Explained. 28 El llamado dualismo de las sustancias mantiene que los seres humanos están, lite­ ralmente, compuestos por dos sustancias distintas, «la materia física» y la «materia

263

Conciencia

los seres humanos son de naturaleza completamente biofísica, y la noción de que poseemos mentes no físicas es anatema. El profesor Ramsey, un personaje de Al Faro,- de Virginia Wolf, dio una versión agradablemente concisa del fisicalismo: «Lamente, Señor, es carne»29. Según la visión que los fisicalistas tienen del futuro, el avance progre­ sivo de las neurociencias acabará por atrapar los qualia, con lo que se les despojará abruptamente de sus misterios. Y de acuerdo con los antifisicalistas seguiremos sin saber más de los qualia incluso cuando las neuro­ ciencias estén completas y se sepa todo lo que haya que saber sobre el ce­ rebro biofísico. «Dime todas las cosas físicas que hay que saber sobre lo que ocurre en un cerebro vivo», dice un antifisicalista destacado, «y... no me habrás dicho nada sobre lo penoso de los dolores, lo picajoso de los pi­ cores, las lanzadas de los celos, ni sobre la experiencia característica de sa­ borear un limón, oler una rosa, oír un estruendo o ver el cielo»30. En las dos próximas secciones examinaré dos argumentos propuestos recientemente en apoyo de la afirmación de que los qualia no son de natu­ raleza física. El primero se debe a Thomas Nagel y el segundo a Frank Jackson. Los argumentos son interesantes, pero, en mi opinión, no con­ vencen. 8.6. ¿A qué se parece ser un murciélago?31 Los murciélagos perciben el mundo externo principalmente me­ diante sonar o ecolocalización32. El murciélago emite cuando vuela rápidos chillidos de alta frecuencia, que los objetos circundantes de­ •7

mental». Es una posición un poco anticuada, y se asocia en especial al filósofo del si­ glo XVII René Descartes (por eso se denomina a veces dualismo cartesiano). La mayor parte de los dualistas modernos son dualistas de las propiedades: están de acuerdo con los fisicalistas en que sólo hay un tipo de materia —los seres humanos no son bocadi­ llos—, pero mantienen que esta materia tiene dos tipos radicalmente distintos de pro­ piedades, biofísicas y «sentidas». 29 Virginia Wolf, To the Lighthouse, Hogarth Press, 1927, y Colin Gregg Films Ltd., 1982. El libro contiene pocos diálogos. El guionista Hugh Stoddart basó las opi­ niones filosóficas de Ramsey en ideas del padre de Wolf (comunicación privada). Mar­ vin Minsky es famoso por su ocurrencia parecida de que la mente es una «máquina de carne». 30 Jackson, F. C., «Epiphenomenal Qualia», p. 127. 31 Nagel, T., «What is it Like to be a Bat?». Llama la atención que, a partir de sus escritos, no se sabe bien si Nagel es fisicalista o antifisicalista. Sin embargo, su argu­ mento sobre los murciélagos tiene claramente una significación antifisicalista. 32 Para ser precisos, los microquirópteros.

264

Inteligencia artificial. Una introducción filosófica

vuelven reflejados. En el cerebro del murciélago hay mecanismos es­ pecializados que correlacionan los chillidos emitidos con los ecos de retorno, lo que permite al murciélago hacer discriminaciones detalla­ das de distancia, tamaño, forma, movimiento y textura. Desde un punto de vista humano, el murciélago es una criatura fundamental­ mente ajena. Siente el mundo externo por medio de un sistema per­ ceptivo radicalmente distinto de todo lo que poseemos. Nagel comienza su argumentación suponiendo que los murciéla­ gos son conscientes en el tercer sentido de la taxonomía. Explica: «He elegido los murciélagos en lugar de las avispas o los rodaballos porque si uno desciende demasiado por el árbol filogenético, la gente deja poco a poco de creer que haya experiencia de ningún género»33. Estoy seguro de que algunas personas tienen sus dudas también so­ bre los murciélagos, pero por mor del argumento, concedamos el su­ puesto de Nagel. A continuación nos invita e imaginar a qué se puede parecer la experiencia que un murciélago tiene del mundo. Nagel está convencido de que no podemos. «El sonar del murciélago, aunque es claramente una forma de percepción, no se asemeja en su operación a ninguno de nuestros sentidos, y no hay ninguna razón para suponer que se parezca subjetivamente a nada de lo que experimentamos o imaginamos» 34. Cuando intentamos imaginar a qué se parece ser un murciélago no tenemos más que nuestras propias experiencias como material básico, y éstas, nos recuerda Nagel, están irremediablemente ligadas a nuestro propio y rígido punto de vista. Los horizontes de nuestra imaginación están firmemente trazados por el carácter de nuestro aparato perceptivo. «Cuando contemplamos los murciélagos, estamos en una posición semejante a la de murciélagos inteligentes o marcianos que intentaran formarse una concepción de a qué se parece ser uno de nosotros. La estructura de sus propias mentes les podría imposibilitar tener éxito» 35. No podemos imaginar a qué se parece ser un murciélago, ¿o sí? Después Nagel cambia el foco del argumento, y pasa de los qualia del murciélago al cerebro del murciélago. La biología del cerebro del murciélago, de su sistema nervioso y su aparato perceptivo «es un dominio de hechos objetivos por excelencia —la clase de cosas que pueden observar y entender... individuos que tengan sistemas percep­ 33 Nagel, T., «What is it Like to be a Bat?», p. 438. 34 Nagel, T., ibidem, p. 438. 35 Nagel, T., ibidem, p. 440.

Conciencia

265

tivos diferentes», escribe Nagel. «No hay obstáculos comparables de la imaginación para que los científicos humanos adquieran conoci­ mientos relativos a la neurofisiología del murciélago, y los murciéla­ gos inteligentes o los marcianos podrían aprender más del cerebro humano de lo que nunca seremos capaces»36. En suma, los hechos re­ lativos al funcionamiento del cerebro del murciélago caen bajo el do­ minio público, y, en principio, nada se interpone en el camino para descubrir todo lo necesario sobre las actividades neurofisiológicas de los murciélagos. Sin embargo, los hechos relativos a a qué se parece ser una criatura que percibe el mundo por medio del sonar sólo son accesibles desde el punto de vista subjetivo del murciélago. Ningún acervo de datos neurofisiológicos objetivos puede ayudar a nuestra coja imaginación a formarse una concepción de a qué se parecen las experiencias subjetivas de un murciélago, dice Nagel. Y concluye que la neurociencia objetiva es inherentemente incapaz de dar cuenta de los qualia37. Su reino es el territorio de los hechos accesibles pública­ mente acerca de lo que ocurre en el cerebro de una criatura, mientras que los hechos concernientes a los qualia, puesto que son subjetivos, son de naturaleza radicalmente distinta38. Se pueden elevar dos críticas contra este argumento, una menor y otra importante. Primero la menor: ¿tiene derecho Nagel a estar tan seguro de que datos neurofisiológicos futuros no ofrecerán una con­ cepción mejor de a qué se parece ser un murciélago? El siguiente ejemplo sugiere que no39. Desdé el punto de vista neurofisiológico, los mecanismos gustativos de los humanos son bastante similares a los de los gatos y las ratas. Una pequeña diferencia, descubierta gra­ cias a la representación de la actividad eléctrica de las rutas neurona36 Nagel, T., «What is it Like to be a Bat?», p. 442. 37 Nagel desarrolla más este tema en los capítulos II y III de The View From Nowhere. 38 Espero que mi exposición haya hecho justicia al argumento de Nagel. En mi opinión, hay críticos que han entendido mal el argumento, en parte por su deseo de hacerlo más claro de lo que es, y en parte porque han pasado por alto que la preocupa­ ción principal de Nagel es la limitación de lo que podemos imaginar acerca de lo que parecen las cosas desde el punto de vista de un murciélago. En especial, no encuentro en el artículo de Nagel indicios de que cometa la falacia de aplicar la ley de Leibniz en un contexto referencialmente opaco (véanse, por ejemplo, Churchland, P. S., Neurophilosophy, pp. 327-30; Churchland, P. M., «Reduction, Qualia, and the Direct Intros­ pection of Brain States», pp. 19-22; Lycan, W. G., Consciousness >pp. 75-8). 39 El ejemplo es dé Paul Churchland, «Some Reductive Strategies in Cognitive Neurobiology», p. 302.

266

Inteligencia artificial. Una introducción filosófica

les pertinentes, es que en ciertos aspectos nuestro mecanismo es me­ nos sensible que el del gato y más sensible que el de la rata. Las va­ riaciones de sensibilidad son particularmente señaladas en el ex­ tremo amargo del «espectro gustativo». Quizá, pues, una sustancia que le sabe ligeramente amarga a un humano no le sabrá amarga a la rata y le sabrá moderadamente amarga a un gato. Puede que la saca­ rina, que tiene un sabor remotamente amargo para los seres huma­ nos, tenga el mismo sabor que el azúcar para la menos sensible rata y sea inaceptablemente amarga para el más sensible gato. Éstas son es­ peculaciones sobre los qualia de la rata y del gato: un pequeño des­ cubrimiento relativo a la neurofisiología del gusto nos ha permitido captar con la imaginación un poco mejor cómo pueden ser las cosas para las ratas y los gatos (resulta interesante que los gatos coman azúcar pero no sacarina, mientras que las ratas comen ambos indis­ criminadamente). Admito que el sabor de la sacarina en contraposi­ ción al del azúcar sólo es una puntada en todo el telar de la experien­ cia, pero si un descubrimiento neurofisiológico.tan modesto como éste puede dai'le un empujoncito a la imaginación, cómo saber el efecto que los avances neurofisiológicos de los próximos cuatro o cinco siglos podrán tener sobre nuestra capacidad de imaginar todo lo que se refiere al gato, la rata o el murciélago. Puede que Nagel se haya precipitado. La segunda crítica es muy directa. Nagel no ha apuntado bien con su argumento. Los fisicalistas no tienen por qué rechazar su afirma­ ción de que nunca podremos imaginar completamente a qué se pa­ rece ser un murciélago. La teoría que defienden se refiere a la natura­ leza de los qualia, no a las capacidades de la imaginación humana* El fisicalismo es la afirmación de que los murciélagos —como todos los demás organismos— son entidades puramente biofísicas. Esta afir­ mación no compromete de ningún modo a los fisicalistas a creer que, si conociéramos todo lo que hay que conocer acerca de la neurofisio­ logía del cerebro y del aparato perceptivo del murciélago, entonces seríamos capaces de imaginar a qué se parece ser una criatura con ese aparato perceptivo. Naturalmente, los seres humanos tendrán dificul­ tades para imaginar las experiencias perceptivas de una criatura que fundamentalmente percibe el mundo por ecolocalización, pero, ¿y qué? Es difícil que esto baste para demostrar que los murciélagos no pueden ser de naturaleza puramente biofísica. Como el profesor Ramsay de Virginia Wolf podría expresarlo: el hecho de que una má­ quina de carne sea incapaz de imaginar el mundo desde el punto de

Conciencia

267

vista de otra máquina de carne con un aparato perceptivo radical­ mente diferente, difícilmente se puede tomar como prueba de que la segunda no es una máquina de carne. 8.7, Lo que María no sabe El argumento de Frank Jackson es en algunos aspectos una versión purificada del de Nagel40. Busca una conclusión semejante —que el fisicalismo se deja algo fuera— pero elige una vía que evita la infruc­ tuosa excursión de Nagel por el tema de si podemos imaginar a qué se parece ser una criatura de especie diferente. María, la heroína del argumento, es congénitamente insensible al dolor41. Las personas que padecen esta afección sencillamente no sienten dolor y, en consecuencia, son proclives a ocasionarse graves daños. María acaba tullida por forzar excesivamente sus articulacio­ nes. Sin embargo, gracias a atentos cuidados, sobrevive a su infancia. En la universidad consigue matrícula de honor en filosofía y en neurociencias, y se convierte —paradójicamente— en una de las prin­ cipales expertas del mundo en la neurofisiología del dolor. Puesto que vive en el cuarto milenio de nuestra era, tiene acceso a un cuerpo de conocimientos más o menos completos relativos al cerebro y sis­ tema nervioso humanos. Lo que María no sabe de la neurofisiología del dolor no vale la pena saberlo. Pero, desde luego, nunca ha experi­ mentado el dolor, y a la edad .de cuarenta años la curiosidad la induce a someterse a un tratamiento carísimo que repara su química cerebral. Un mes después está tendida en una camilla quirúrgica, con una ex­ presión expectante en la cara mientras su neurofarmacéutica se dis­ pone a clavarle un alfiler esterilizado en la nalga. Un chillido triun­ fante sale de sus labios y se felicita de haber conocido por fin el dolor. Jackson concluye, a partir de esta puesta en escena, que el fisicalismo es falso. Antes del tratamiento, María sabía todos los he­ 40 Jackson, F. C., «Epiphenomenal Qualia», Jackson reconoce que su argumento debe mucho al de Nagel (nota 10). 41 La presentación de Jackson se refiere a la visión del color más que al dolor. Los detalles no son esenciales. Como él dice, el argumento «se podría desarrollar para el gusto, el oído, las sensaciones corporales, y en general para los diversos estados menta­ les que se dice que poseen sensaciones puras, rasgos fenomenológicos o qualia, como con diversos nombres se les alude» («Epiphenomenal Qualia », p. 130).

268

Inteligencia artificial. Una introducción filosófica

chos biofísicos concernientes al dolor, pero cuando el alfiler pin­ chó su carne experimentó algo nuevo. Por tanto, en lo que se re­ fiere al dolor, hay algo por saber además de lo que puedan decir los hechos biofísicos. «Se sigue», dice Jackson, «que el fisicalismo deja algo fuera»42. El dolor no puede ser un fenómeno puramente biofísico. El argumento de Jackson es ingenioso, pero yo sigo sin dejarme convencer. Es verdad que antes del tratamiento, el conocimiento del dolor por parte de María era el de un observador externo, mientras que después del tratamiento, el dolor se convierte en algo con lo que está familiarizada de primera mano; pero de ahí no se sigue que el fi­ sicalismo sea falso, como intentaré demostrar. Consideremos un caso paralelo. Van Planck, un eminente jardi­ nero holandés, conoce hasta el menor hecho relativo al árbol kauri de Nueva Zelanda. Pero Van Planck, que tiene fobia a volar, nunca ha visitado Nueva Zelanda para observar de primera mano los objetos de su conocimiento. Cuando tiene sesenta años encuentra por fin tiempo para viajar por mar, y en los bosques de Northland se queda impresionado ante su primer encuentro personal con un kauri de ta­ maño natural. ¿Era incompleto el conocimiento previo que tenía Van Planck del kauri? En un sentido sí y en otro sentido no. Hace falta una distinción semántica para describir con precisión el caso. La dis­ tinción está comprimida en la frase «no la conozco, pero conozco muchas cosas de ella». En el primer sentido no conocemos a alguien hasta que lo hemos encontrado; en el segundo sentido podemos co­ nocer una cantidad ilimitada de cosas sobre alguien a quien nunca he­ mos visto. Por un lado hay conocimiento en el sentido de la familiarización personal, y en el otro hay conocimiento en el sentido de poseer hechos43. Antes de visitar Nueva Zelanda, Van Planck conocía todos los hechos que vale la pena saber sobre los kauris. Su conoci­ miento fáctico de ellos era esencialmente completo. Lo que suminis­ tró su visita no fue más conocimiento en el sentido fáctico, sino fa42 Jackson, F. C , «Epiphenomenal Qualia», p. 129. También p. 130. 43 Esta distinción la trazó Bertrand Russell en 1912. Empleaba los términos «cono­ cimiento por familiarización» y «conocimiento de verdades» (Thé Problems of Philo­ sophy, capítulo 5). Diversos autores han usado de formas diferentes la distinción con­ tra el argumento de Jackson, en especial Paul Churchland («Reduction, Qualia, and the Direct Instrospection of Brain States»), David Lewis («Postcript on Mad Pain and Martian Pain») y Laurence Nemirow («Review of Thomas Nagel’s Mental Ques­ tions»).

Conciencia

269

miliarización personal con los objetos de un conocimiento fáctico ya total. Armado con esta distinción, el fisicalista puede describir la ilumi­ nación de María de forma enteramente consistente con la teoría de que el dolor es un fenómeno puramente biofísico. En realidad la misma María es una fisicalista (sin saberlo Jackson), de modo que oi­ gamos la historia de su propia boca. «Sé que algunos filósofos del siglo XX consideran mi caso una refutación del fisicalismo. Temo que no puedo estar de acuerdo. Nunca he dudado de que el dolor fuera de naturaleza puramente biofísica, y los acontecimientos re­ cientes no han hecho nada para cambiar mi opinión. Estoy de acuerdo, desde luego, en que antes de mi tratamiento, el dolor me era desconocido en el sen­ tido de que nunca lo había sufrido. Nunca lo he visto personalmente, por así decir. Pero insisto en que, no obstante, mi conocimiento fáctico del dolor era completo. Sabía todo lo que hay que saber sobre los procesos neuroquímicos que constituyen el dolor, pero, debido a mi anormalidad congénita, esos pro­ cesos nunca habían tenido lugar dentro de mí. El tratamiento que recibí re­ guló la química de mi cerebro y de mi sistema nervioso, con el resultado de que ahora puedo albergar esos procesos en mi cuerpo. »Por tanto, el profesor Jackson tiene razón al mantener que mi conoci­ miento previo del dolor dejaba algo fuera. El ingrediente que faltaba era el conocimiento en el sentido de familiarización personal. Sin embargo,, cierta­ mente de esto no, se sigue que el fisicalismo sea falso. Sufrir dolor no es nada más ni menos que albergar un proceso biofísico, nada en absoluto. »Me gustaría citar al profesor Nagel; dice: "Si los procesos mentales son efectivamente procesos físicos, entonces hay algo a lo que se parece, intrínse­ camente, sufrir ciertos procesos físicos”44. Es verdad. El dolor es un proceso puramente biofísico, y ciertamente se parece a algo albergar ese proceso en el sistema nervioso de uno. Lo que me llamó la atención fue el comentario de Nagel acerca de este hecho. Continúa: "En qué consiste que tal cosa .ocurra sigue siendo un misterio... el fisicalismo es una posición que no puedo enten­ der porque en la actualidad no tenemos formada una concepción de cómo podría ser verdadero”45. Estas observaciones, honestas y agonísticas, me pa­ recen fascinantes, incluso conmovedoras. Me resulta tan difícil imaginar cuán desconcertante ha debido parecer la conciencia en su era. Gracias a Dios llegó la ilustración, aunque no, me temo, en el curso de sus vidas. Los hom­ bres y mujeres del siglo XX deben consolarse con la idea de que sería avari­ cioso querer sondear ellos solos todos los misterios de la vida.» 44 Nagel, T., «What is it Like to be a Bat?», pp. 445-6. La cursiva es mía. 45 Nagel, T., ibidem, p. 446.

270

Inteligencia artificial. Una introducción filosófica

En un artículo posterior, Jackson retoca ligeramente su argumen­ to 46. Insiste en que María aprende algo acerca de los demás como re­ sultado de su tratamiento. «El problema del fisicalismo es que... ella se dará cuenta de cuán pobre ha sido su concepción de la vida mental de los demás durante todo ese tiempo... Durante todo el tiempo, sus experiencias... tenían un rasgo muy sobresaliente que para ella ha es­ tado oculto»47. El argumento revisado transcurre así. Puesto que María aprende algo acerca de la gente como resultado de su trata­ miento, hay algo que ella no conocía sobre la gente antes del trata­ miento; sin embargo (por hipótesis), antes del tratamiento María co­ nocía todo lo que, desde un punto de vista físico, hay que conocer acerca de las demás personas. Por tanto, el fisicalismo deja algo fuera48. Pero la respuesta de María a esto es sencilla: aprendió a qué se parece albergar cierto proceso biofísico, el dolor, en su propio sis­ tema nervioso, y así, por extensión, también aprendió a qué se pa­ rece que las personas alberguen este proceso biofísico (ella tiene que suponer aquí que nó «se está permitiendo una generalización ilegí­ tima de un caso a otro», pero Jackson parece concederle tranquila­ mente ese supuesto)49. También ahora se puede describir la ilumina­ ción de María de una manera perfectamente compatible con la verdad del fisicalismo. 8.8* Se unen los cabos Por lo que yo sé, no hay argumentos convincentes contra el fisica­ lismo, ni tampoco a su favor. Aquí está la teoría pendiente, destilando misterio, sostenida sólo por la fe. Pero quienes nos consideramos fisicalistas apreciamos en la teoría cierta plausibilidad confortadora y te­ rrenal. La alternativa antifisicalista —una dimensión mental irreducti­ ble que sobresale de un universo, en lo demás físico, como un dedo dolorido— nos desagrada. Ofende nuestra expectativa de que la natu­ raleza sea armónica e integrada. Pero la verdad es que, cuando llega­ mos a los qualia., nadie sabe. 46 Jackson, F. C., «What Mary Didn’t Know», continuación de «Epiphenomenal Qualia». 47 Jackson, F. C., ibidem, pp. 292-3. 48 Jackson, F. C., ibidem, p. 293. 49 Jackson, F. C., ibidem, p. 294.

Conciencia

271

Quedan por esbozar las implicaciones de todo esto para la con­ ciencia de las máquinas. Si el antifisicalismo es verdadero, entonces puede o puede que no sea posible que un robot experimente qualia. Habría que saber mucho más antes de poder dar una respuesta defi­ nitiva. Si un cerebro natural puede generar propiedades no físicas, en­ tonces, ¿por qué no también un cerebro artificial? Por otro lado, si el fisicalismo es verdadero, entonces la conciencia es un fenómeno fí­ sico, en cuyo caso no se puede negar que un artefacto apropiado pueda experimentar qualia. Tampoco hay en la actualidad ninguna razón para pensar que la «fisiología» de tales artefactos se tendría que parecer a la nuestra50. Es mero chauvinismo suponer a priori que los qualia son exclusivos de nuestro tipo de tejidos. Recordemos la ex­ traterrestre rellena de gelatina del capítulo 3. Por hipótesis, nada de lo que ocurre en sus tejidos tiene mucha semejanza con lo que ocurre en los nuestros, pero, con todo, podría llevar una existencia poblada de qualia. En cualquiera de los dos casos —que el fisicalismo sea verdadero o que sea falso— espero que me concedan que he establecido la afir­ mación anunciada en los capítulos 3 y 7. A pesar de las opiniones de los escépticos de bar, está lejos de ser evidente que un artefacto no pueda tener conciencia.

50 Véanse David Lewis, «Mad Pain and Martian Pain»; Hilary Putnam, «Philo­ sophy and our Mental Life» y «The Mental Life of Some Machines».

Capítulo 9 ¿SOMOS COMPUTADORES?

En su mayor parte, los hombres y mujeres de la época victoriana creían que eran espíritus incorpóreos cuyos parientes no humanos más próximos eran los ángeles. Un siglo después, un inmisericorde recorrido por las teorías de Darwin, Marx y Freud nos ha dejado una incertidumbre colectiva sobre qué somos, y cada vez más personas parecen dispuestas a aceptar que nuestros parientes más próximos pueden no ser los ángeles, sino los productos de la IBM y la Digital Equipment Corporation. Algunos ciudadanos decididos de finales del siglo XX declaran abiertamente que son computadores y otros muchos sospechan calladamente que pudieran serlo. Incluso quienes desprecian esa idea pueden a veces ser sorprendidos jugueteando con ella bajo expresiones como «lo peor de un divorcio es reprogramarte para vivir solo» y «estamos programados por la sociedad». Esta nueva imagen de la mente humana como un computador ha echado raíces en la cultura popular con una fuerza asombrosa. Mi propósito es a la vez desenmascarar y aplaudir la nueva imagen. Como he explicado, la imagen goza de una popularidad que sobre­ pasa de largo los indicios científicos; en realidad no hay por ahora ningún indicio firme en favor o en contra de la teoría de que el cere­ bro humano sea un computador. Por otro lado, me parece que in272

¿Somos computadores?

273

cluso aunque la teoría resultara finalmente falsa en los detalles, su es­ píritu es acertado. Si no somos computadores, entonces somos má­ quinas físicas con alguna otra descripción. La imagen de la naturaleza humana del siglo pasado nos hacía andar incómodamente por dos te­ rrenos a la vez, y nos hemos librado de ella. 9,1. La hipótesis fuerte del sistema de símbolos La hipótesis del sistema de símbolos es la conjetura de que en principio es posible construir un sistema universal de símbolos que piense (sección 4.6). La hipótesis fuerte del sistema de símbolos, por otro lado, es la conjetura de que sólo los sistemas universales de sím­ bolos son capaces de pensar (sección 4.7). Según esta hipótesis, se de­ mostrará que cualquier cosa con capacidad de pensar —y el cerebro humano en particular— es, en último análisis, un sistema universal de símbolos. Si la hipótesis fuerte del sistema de símbolos es verdadera, la IA tiene que ser posible, al menos en principio, por la sencilla ra­ zón de que el cerebro humano mismo es literalmente un computador. La hipótesis fuerte del sistema de símbolos (HFSS) se denomina así porque hace una afirmación más fuerte que la hipótesis del sis­ tema de símbolos (HSS). Es posible que la HSS sea verdadera y su pariente más fuerte sea falsa. Los zepelines y las aves comparten la capacidad de volar, pero no se sigue qué las aves sean zepelines es igualmente los computadores y los cerebros acaso compartan la capacidad de pensar (con lo que la HSS sería verdadera) sin que los cerebros fueran computadores (con lo que la HFSS sería falsa). El ce­ rebro pensante podría operar de manera por entero diferente del ma­ nipulador de símbolos pensante. He aquí un esbozo de la mente humana dibujado por Zenon Pylyshyn, defensor aventajado de la HFSS h «La idea de que el pro­ cesamiento mental es computación es, en efecto, una hipótesis empí­ rica seria... La mente está... de continuo ocupada en buscar, recordar, razonar rápida, y en gran medida, inconscientemente, y en general en1 1 Otros exponentes notables de la HFSS son Fodor {The Language of Thought) y Newell y Simon («Computer Science as Empirical Enquiry: Symbols and Search»). Estos últimos son responsables en parte de la terminología que empleo: lo que yo llamo «hipótesis fuerte del sistema de símbolos» es un aspecto de su hipótesis del sis­ tema de símbolos físicos.

274

Inteligencia artificial Una introducción filosófica

manipular conocimiento... [Este conocimiento está] codificado en propiedades del cerebro de la misma manera, en términos generales, que los contenidos semánticos de las representaciones del computa­ dor están codificados en estructuras simbólicas instanciadas físicamente»2. Aunque no nos demos cuenta, nuestra actividad men­ tal consiste en el fondo en manipulaciones de expresiones simbólicas de tipo preposicional, dice Pylyshyn; fundamentalmente, el pensa­ miento humano es la manipulación de oraciones de un lenguaje o có­ digo mental interno3. Este hipotético lenguaje interno se denomina a veces «mentalés». El mentalés puede o no puede asemejarse al código binario que emplean los artefactos hoy día (lo más probable es que no), e igualmente las operaciones computacionales básicas empleadas por el cerebro pueden ser muy diferentes de las enumeradas en la sec­ ción 4.5. Como se cuidan de destacar los defensores de la HFSS, el computador de la cabeza puede tener poco parecido con las máqui­ nas comerciales contemporáneas. La nueva y vigorosa área de investigación conocida como ciencia cognitiva se funda en la idea de* que el computador nos puede decir mucho sobre el cerebro. Esta investigación interdisciplinaria de los contenidos del cráneo humano capta sus adeptos de la psicología, la neurociencia, la filosofía, la informática, la lingüística, la antropología y la zoología. Como es de esperar, hay muchos matices de opinión entre tan diversa muchedumbre. Los científicos cognitivos duros aceptan la HFSS literalmente. Otros consideran la identificación del cerebro con un computador como una simple metáfora útil o como una analogía para la investigación. Otro grupo aún cree que el cere­ bro es una «especie de» computador, un computador en cierto sen­ tido, pero no un manipulador de símbolos. Esta idea se retoma en el próximo capítulo. Éste se centra en la afirmación dura de que el cere­ bro es literalmente un computador, en el sentido de «computador» definido en el capítulo 4. La ciencia cognitiva es una disciplina emocionante. El cerebro hu­ mano es el objeto más complicado y misterioso del universo cono­ cido y los científicos cognitivos tienden a imaginar que están al bor­ de mismo de descubrir cómo funciona. Yo soy optimista acerca de las perspectivas de comprensión que brinda este empuje nuevo, po­ 2 Ésta es una cita compuesta, tomada de las páginas 55, 193 y 258 de Pylyshyn, Z/, Computation and Cognition. 3 Pylyshyn, Z., Computation and Cognition, p. 194.

¿Somos computadores?

275

deroso y multidisciplinario; aunque abrigo el recelo básico de que cuando finalmente se produzca la brecha, la HFSS caerá arrollada por la gran avenida hacia el conocimiento. No todo el mundo tiene una actitud tolerante hacia la HFSS. Karl Lashley, una de las más famosas figuras en el desarrollo de la ciencia del cerebro, y John Searle, famoso en las habitaciones chinas, han se­ ñalado la existencia de una propensión histórica entre científicos y fi­ lósofos a usar como modelos de la actuación del cerebro la tecnología más de moda en el momento4. A mediados del siglo xvil, cuando los relojes y los autómatas hidráulicos hacían furor, Descartes desarrolló una teoría hidráulica de las actividades del cerebro. Medio siglo des­ pués Leibniz propuso que el cerebro se podía comparar a una fábrica. Freüd se apoyó con fuerza en el electromagnetismo y la hidráulica en sus descripciones de las operaciones del cerebro. Después, sir Charles Sherrington, el eminente neurocientífico británico, asemejó él sistema nervioso al telégrafo. Cuando el telégrafo fue desbancado por el telé­ fono, el cerebro se convirtió en una centralita telefónica. Según los cí­ nicos, la HFSS es simplemente el último paso de esta procesión de in­ tentos de comparar el cerebro con el último grito de la alta tecnología. En 1951 Lashley rechazaba enojado la teoría de que el ce­ rebro sea un computador, llamándola «analogía traída por los pelos», y Searle no es menos desdeñoso en sus obras recientes5. Quizá desvelar que la ciencia del cerebro sea una empecinada se­ guidora de las modas ponga la HFSS bajo una luz algo diferente, pero, a fin de cuentas, la denuncia de Searle y Lashley no demuestra gran cosa. Aunque hoy día nadie se incline a creer que el cerebro hu­ mano está ocupado por un reloj de agua en miniatura o por una cen­ tralita telefónica, eso no basta para probar que el cerebro no sea un computador. La HFSS es una teoría empírica y nada "que no sea un estudio cuidadoso de los indicios puede suministrar una estima­ ción de su plausibilidad.

4 Beach, F. A., Hebb, D. O., Morgan, C. T., y Nissen, H. W. (comps.), The Neu­ rophysiology of Lashley, p. XIX; Searle, J., Minds, Brains and Science, p. 44. 5 The Neurophysiology of Lashley, p. XIX; Minds, Brains and Science, esp. cap. 3; véase también «Is the Brain a Digital Computer?», de Searle.

276

Inteligencia artificial Una introducción filosófica

9.2. El soporte informático frente al soporte biológico Como sabe todo el mundo, los diversos elementos y piezas que llenan la cubierta metálica o de plástico de un computador comercial se conocen colectivamente como hardware. Los enamorados de la analogía del computador llaman wetware (aparato biológico) a los ju­ gosos pliegues de tejido gris y blanco que llenan el cráneo humano. Esta sección indaga el grado de semejanza entre ambos. El aparato biológico consta predominantemente de dos categorías de células: neuronas y células gliales. Las neuronas son las protago­ nistas del conjunto. Las aburridas células gliales, que superan a las neuronas en la proporción de diez a uno, desempeñan diversos pape­ les secundarios. Éstos incluyen retirar las neuronas muertas y procu­ rar que las vivas permanezcan cómodamente inmersas en sus baños de nutrientes. Cada neurona ostenta un enorme número de fibras conectoras, conocidas como proyecciones dendríticas y proyecciones axonales (véase la figura 9.1). Estas fibras serpentean por todo el cerebro, y co­ nectan cada neurona hasta con diez mil de sus vecinas. Imaginemos una neurona como un cuerpo con muchos pies y manos. Cada mano (proyección axonal) agarra el pie de una vecina (proyección dendrítica)6. Cada uno de los cuerpos es el centro de una enmarañada red de proyecciones ligadas, y pende en una malla de imponente comple­ jidad. En una estimación prudente de mil «manos» por neurona y 1012 neuronas por cabeza (esto es, un billón) hay un asombroso total de mil billones de conexiones interneuronales en cada cerebro. En palabras de Steven Rose, un eminente neurobiólogo: «Las estructuras e interacciones posibles en este [laberinto] superan toda descripción o matematización. La fascinación se aproxima al terror...»7. En 1843 se descubrió que el sistema nervioso opera de forma pri­ mordialmente eléctrica, y a comienzos de los años cuarenta de este si­ glo se tenía un esquema detallado de cómo la neurona recibe y trans­ mite impulsos eléctricos. Se puso de relieve que el principal propósito de la vida de una neurona es emitir breves descargas de electricidad a sus vecinas, en las que las proyecciones axonales funcionan como fi6 Ahora se sabe que la ordenada imagen que pintaba la neurología clásica no es del todo exacta; a veces los axones cogen axones, y las dendritas, dendritas. Además, hay algunos tipos de neuronas que carecen de axones. 7 Rose, S., The Conscious Bminyp, 71.

¿Somos computadores?

277

278

Inteligencia artificial. Una introducción filosófica

bras de salida y las proyecciones dendríticas como fibras de entrada. En el cuerpo celular se desarrolla una descarga eléctrica, viaja a lo largo del axón o «cola» hasta el árbol de fibras de salida y por último excita las fibras de entrada de una miríada de neuronas próximas8. Parece que en una neurona se produce una descarga siempre que un número suficiente de neuronas conectadas a sus fibras de entrada «disparan» también. Si, por ejemplo, son excitados 700 de los 1.000 pies de una neurona, automáticamente dispara y excita todos los pies que sus manos agarran. Esta descripción es interesante, pero su punto débil es que no in­ forma mucho y es incluso circular. Una neurona dispara impulsos hacia sus vecinas, pero estos impulsos sólo sirven para incitarlas a disparar impulsos hacia sus vecinas. ¿Cuál es el objeto de todo esto? El centenar de años que va de 1840 a 1940 produjo una gran cantidad de conocimientos detallados relativos a las propiedades químicas, eléctricas y celulares de las neuronas, pero este conocimiento no era nada comparado con las tierras ignotas que quedaban en el mapa. ¿Qué podían estar haciendo estas células, en lo individual bien com­ prendidas, cuando operaban misteriosamente juntas en sus enormes y grotescamente complicadas mallas? ¿Qué armonía o razón podía ha­ ber en su conducta cooperativa? El estudio detallado de las propieda­ des de las neuronas individuales había revelado poco sobre la opera­ ción del cerebro en su conjunto. En retrospectiva, esto no puede sorprender. Pensemos en lo poco que se podría aprender sobre la organización y funcionamiento de un computador a partir de un estudio detallado de los transistores indi­ viduales: casi nada. La época estaba madura para que apareciera una teoría con una perspectiva de nivel superior. Entonces aparecen Wa­ rren McCulloch, un neurofisiólogo, y Walter Pitts, un matemático. En 1943 publicaron un artículo histórico con un título de los que echan para atrás: «Un cálculo lógico de las ideas inmanentes a la acti­ vidad nerviosa». La ciencia del cerebro nunca volvería a ser la misma. McCulloch y Pitts propusieron que se considerara que cada neu­ rona estaba activa o inactiva, sin estados intermedios. Según su teoría, lo único que importa de una neurona es si dispara o no; todo lo de­ más (como la intensidad de la descarga o las fluctuaciones en la com­ posición química de la célula) se cataloga como detalle no esencial y 8 Este «toque» final es de naturaleza química más que eléctrica. Véase el trata­ miento de los neurotransmisores de la sección 10.5.

¿Somos computadores?

279

se pasa por alto (del mismo modo, una explicación del funciona­ miento de una bomba de bicicletas pasa por alto cosas como el color, el peso y la composición química). Así, suponiendo que la neurona es un simple conmutador encendido/apagado, se la puede considerar como un mecanismo que sirve para realizar físicamente uno u otro de Un conjunto de dos símbolos. Sí o no, verdadero o falso, 0 o 1: como en el caso de los bits que manipula un computador artificial, no im­ porta la manera de escribirlos. Continuando con este enfoque, McCulloch y Pitts explicaron el funcionamiento de pequeños grupos de neuronas como manipuladores muy simples de símbolos. Por ejemplo, se pueden conectar tres neuro­ nas de forma que la tercera dispare cuando, y sólo cuando, las otras dos lo hagan. En la terminología del capítulo 4, este manipulador de símbolos ejecuta la instrucción: escribe una cruz (o 1 o sí o verdadero) en la posición 3 si, y sólo si, las posiciones 1 y 2 contienen cruces. Los computadores están llenos de mecanismos como éste. Los ingenieros electrónicos les llaman «puertas lógicas». (Si recuerda las tablas de verdad, verá que la puerta que acabo de describir hace el pa­ pel de la tabla de verdad de «y». La nota 9 da la tabla.) Sin embargo, McCulloch y Pitts escribieron justo antes de que comenzara la época de los computadores. Hacia el final de su artículo hicieron una com­ paración abstracta entre una red de neuronas interconectadas y una máquina de Turing (sección 6.4), pero, aparte de esto, en el artículo no se mencionan los computadores. Hasta dos años después no em­ pezaron a circular noticias sobre el diseño de ENIAC y de EDVAC. Las conexiones con la obra de McCulloch y Pitts atrajeron el interés, y de pronto un montón de gente sumó dos y dos. Puede que las neu­ ronas sean el mismo tipo de cosas que los elementos biestables y laspuertas lógicas binarias de EDVAC. Medio siglo después está claro que la gente sumó dos y dos y le salió cinco. Incluso en aquel momento había cierto número de indi9 La tabla de verdad de Y (CONJUNCIÓN) es la siguiente (siguiendo las líneas horizontales): Enunciado X Verdadero Verdadero Falso Falso

Enunciado ZX Verdadero Falso Verdadero Falso

C O N JU N C IÓ N Z

Verdadero Falso Falso Falso

280

Inteligencia artificial. Una introducción filosófica

cios molestos relativos a las desemejanzas entre neuronas y componentes de los ordenadores (indicios lo bastante patentes como para hacer dudar al pionero de la informática John von Neumann de que el cerebro fuera un computador)1012.La dificultad era un cuerpo de da­ tos que sugerían que «activo o inactivo» no era ciertamente el único rasgo importante de la actuación de una neurona. Por ejemplo, la tasa a la cual emite una neurona impulsos eléctricos parece desempeñar un papel vital en el procesamiento cerebral, mientras que la tasa de dis­ paro de un elemento biestable no tiene significación computacional. Otra desemejanza conocida entre las neuronas y la electrónica se refiere a la densidad de las conexiones. Cada neurona tiene un nú­ mero enorme de conexiones de entrada y de salida (algunas exhiben hasta 100.000 de cada). En abierto contraste, las conexiones que ro­ dean a un elemento biestable o a una puerta lógica se pueden contar con los dedos de una mano. Una tercera dificultad se refiere a la di­ versidad. Mientras que el procesador central de un computador sólo contiene unos pocos tipos básicos de unidades (sólo elementos biestables y puertas), el cerebro contiene muy diferentes especies de neu­ ronas. Algunas tienen la figura de pirámides, otras de estrellas, otras de husos, otras de candelabros11. No es plausible eliminar esta varie­ dad como detalle ño esencial. Porque parece haber una correlación entre el tipo de la neurona y su función específica, y en diferentes áreas del cerebro predominan neuronas con distintas figuras. Así, pues, en realidad sólo hay una semejanza superficial entre las neuronas y los componentes básicos de los computadores manufactu­ rados. Por citar a Thomas Poggio, uno de los exponentes de una nueva raza de investigadores de la IA que se interesan por la neurofisiología: «Las neuronas son ingenios complejos, muy diferentes de los simples interruptores digitales... que retrataban... McCulloch y Pitts» !2. Pero ésta es sólo una de las muchas dificultades de la supuesta analogía entre ferretería y biología que se han puesto de manifiesto. Ahora está claro que la analogía falla de varias maneras fundamentales. El resto de esta sección da un análisis pormenorizado de esta fractura. t0 Von Neumann, J., «The Computer and the Brain» y «The General and Logical Theory of Automata». 11 Todavía es una cuestión abierta cuántos tipos distintos de neuronas hay: quizá varios miles (véase Crick, F., y Anasuma, C., «Certain Aspects of the Anatomy and Physiology of the Cerebral Cortex», p. 358. 12 Poggio, T., y Koch, C., «Ill-Posed Problems in Early Vision: from Computatio­ nal Theory to Analogue Networks», p. 304.

¿Somos computadores?

281

La limitación de los 100 pasos13 En comparación con los elementos electrónicos, el cerebro es len­ tísimo. Los acontecimientos singulares electrónicos —un cambio de posición de 0 a 1 de un elemento biestable, por ejemplo— emplean alrededor de una milmillonésima de segundo, mientras que una neu­ rona necesita una milésima entera aproximadamente para responder a la estimulación de sus pies con una descarga eléctrica a lo largo de sus brazos. En términos de las operaciones eléctricas básicas, pues, a un cerebro le lleva un tiempo mil veces superior actuar que al más hu­ milde computador personal (y recordemos que un millón de segun­ dos son casi quince días). Supongamos, por mor del argumento, que el cerebro trabaja como si siguiera un programa; esto es, supongamos que el cerebro trabaja siguiendo paso a paso una serie de instrucciones, igual que un com­ putador que esté ejecutando un programa de IA. Veamos dónde nos lleva esta suposición. Debido al tiempo que emplea una neurona en operar, una milésima de segundo, el cerebro necesitaría al menos este tiempo en obedecer cada instrucción (o mucho más si la instrucción exige varios ciclos sucesivos de actividad). Así, el número máximo de instrucciones que puede manejar en una décima de segundo es 100, y una décima de segundo es más o menos el tiempo que el cerebro em­ plea en extraer el significado de una oración o en reconocer un pa­ trón visual. De esto se deduce que si el cerebro realiza tareas como ésta siguiendo paso a paso un programa, entonces el programa para cada tarea debe tener un máximo de 100 instrucciones. Y eso es ri­ dículo. Los programas de IA actuales contienen miles y miles de ins­ trucciones: 100 es una bagatela. Escribir en 100 líneas un programa de procesamiento del lenguaje o de reconocimiento visual es como ali­ mentar a 5.000 personas con cinco panes y dos pececitos. Estamos abocados a la conclusión de que, sea lo que sea el cere­ bro, no es un ingenio que ejecute programas de IA tradicionales. Las operaciones que ocurren en el computador de Roger Schank cuando ejecuta Sam deben tener una similitud muy difusa con lo que ocurre en la cabeza del propio Schank. í3 Esta terminología tiene su origen en Feldman, J. A., y Ballard, D. H. («Conneo tionist Models and their Properties», p. 206).

282

Inteligencia artificial. Una introducción filosófica

Actividad paralela Los computadores comunes o caseros se denominan procesa­ dores secmnciales porque se deslizan a lo largo de sus instrucciones secuencialmente, y las obedecen una tras otra. Por el contrario, un procesador paralelo realiza muchas operaciones simultánea­ mente (o «en paralelo»). Por ejemplo, supongamos que Alí Babá se esconde en uno de los cuarenta cántaros. Un procesador secuencial lo encontraría siguiendo las instrucciones Busca en el cántaro 13 Busca en el cántaro 2... Un procesador paralelo que constara de cuarenta esclavos convenientemente apostados encon­ traría a Alí siguiendo las cuarenta instrucciones a la vez. La ven­ taja evidente de un ingenio paralelo sobre uno secuencial es la ve­ locidad. Una máquina, u órgano, con componentes lentos como caracoles y un modo de operación paralelo es favorita ante un competidor con componentes de alta velocidad, pero un modo de operación secuencial. (La excepción es, claro está, que la tarea en cuestión requiera por su propia naturaleza úna aproximación se­ cuencial H. Un ejemplo sencillo es la tarea de calcular la secuencia 22, (22)\ ((22)>)\ etc.) El límite de los 100 pasos es un fuerte indicio de que el cere­ bro opera en paralelo, de algún m odo1415. Si cada «paso» consta de miles de operaciones realizadas simultáneamente, entonces se puede empaquetar una gran cantidad de procesamiento en la mi­ lésima de segundo que aproximadamente emplea el cerebro en identificar un patrón visual o en atribuir significado a una ora­ ción. (Los estudios anatómicos tienden a confirmar que el cere­ bro es un tipo de ingenio paralelo: la pauta de niveles paralelos de neuronas que operan simultáneamente se repite en todas par­ tes.) Sin embargo, en ciertos ambientes hay una especie de tradi­ ción de obliterar la distinción entre procesamiento paralelo y se­ cuencial. El filósofo Aaron Sloman insiste en que «la distinción... no tiene gran importancia teórica»; y Roger Schank la ha descrito 14 Shimon Ullman denomina estas tareas «esencialmente secuenciales» («Visual Routines», p. 120). Ullman sugiere que la secuencialidad esencial puede ser un rasgo de algunos aspectos del procesamiento visual humano. 15 Rumelhart, D, E., y McClelland,}. L., «PDP Models and General Issues in Cog­ nitive Science», p. 131.

¿Somos com putadores?

283

como «uno de los preciosos señuelos de la IA» 16. La razón habi­ tual para pensar que la distinción no debe tener mucha importan­ cia es que todo lo que se puede hacer en paralelo se puede hacer secuencialmente: en vez de hacer un montón de cosas a la vez, to­ mémoslo con calma y hagamos una cosa cada vez. Cualquier pro­ cesamiento paralelo se puede simular en una máquina secuencial. La debilidad de esta línea de razonamiento tradicional está en que no puede dar cuenta de la complejidad del cerebro. Si nos to­ mamos en serio las cifras, aparece una imagen completamente dis­ tinta. «Si las estimaciones actuales del número de [conexiones] del cerebro son remotamente acertadas», escribe James McClelland (un crítico destacado de la IA tradicional), «incluso a uno de los más rápidos computadores de hoy día le llevaría entre varios años y varios siglos simular el procesamiento que tiene lugar en el ce­ rebro humano durante un solo segundo» 17. Cuando vemos bien a la tortuga, nos damos cuenta de que Aquiles está perdido. Recuperación de recuerdos Cada localización de la memoria de un computador tiene una dirección única (sección 4.3). Estas direcciones, como las de las casas, se forman simplemente numerando las localizaciones (así, la localización de almacenamiento con dirección 10 podría contener mi número de la Seguridad Social, y la localización con dirección 11 mi fecha de nacimiento). Estas direcciones forman el único es­ labón que une el programa con el almacén de la memoria: una in­ formación no se puede recuperar si en el programa no se especi­ fica su dirección numérica. Por ejemplo, si el programa tiene que multiplicar el número total de lechugas vendidas por el precio de la unidad, tiene que saber las direcciones en las que están coloca­ das estas informaciones. Si no hay dirección no hay recuerdo I8. 56 Sloman, A., The Computer Revolution in Philosophy, p. 135. Se cita a Schank en Waldrop, M. M., «Artificial Intelligence in Parallel», p. 610. 17 McClelland, J. L.} «Models of Perception and Memory based on Principles of Neural Organisation», p. 22 (citado por Patricia Churchland en Neurophilosophy). 18 Quien sólo haya tenido trato con los lenguajes de programación de alto nivel, como el BASIC o el Pascal, puede extrañarse del concepto de dirección, pues las direc: ciones no aparecen nunca en el programa. Es el compilador del programa —otro pro­ grama que traduce las instrucciones del primer programa a código de máquina— quien

284

Inteligencia artificial. U na introducción filosófica

Los seres humanos, por ei contrario, no recuperan los recuerdos por medio de direcciones asignadas, sino gracias a una descripción de la información requerida. La pregunta «¿qué comimos la última vez que te invitamos?» describe la información que busca la hablante, y, provisto de la descripción, mi cerebro probablemente será capaz de rescatar el recuerdo en cuestión. Cada información que está en la memoria de un computador po­ see una única dirección o «agarradera». Por el contrario, el cerebro humano puede usar cualquiera de entre una colección ilimitada de descripciones para recuperar el mismo hecho. Por ejemplo, mi anfitriona podría haber suscitado el mismo recuerdo preguntando: «¿Qué tomamos la tarde que vimos esa comedia sobre Turing?». El principio general parece ser que si se especifica parte del conte­ nido de un recuerdo (la última comida en casa de Marta, la comida consumida con Marta antes de ir a ver «El juego de imitación»), en­ tonces el cerebro puede recuperar el resto del recuerdo. Por esta razón, se dice qué las memorias humanas son direccionables por el contenido: se accede a sus recuerdos a través del contenido. En un computador, por el contrario, el acceso tiene lugar a través de una di­ rección tan relacionada con el contenido del recuerdo como el nú­ mero de una casa con sus muebles. A menudo, la descripción que inicia la rememoración se relaciona con un aspecto muy abstracto del recuerdo en cuestión. He aquí un ejemplo curioso. «Un amigo me dijo, hace poco que [en] la primera edición de la Encyclopaedia Britannica... a la A le correspondieron 511 páginas, y desde la M a la 2 ocuparon en conjunto 753 páginas. Este hecho sorprendente provocó en mí al instante la recuperación del recuerdo, implantado en mi mente hace años bajo circunstancias del todo olvidadas, de cómo se solían hacer los discos fonográficos en se encarga de asignar direcciones, a las variables y constantes que empleamos. Por ejemplo, si introducimos la línea COSTETOTAL = LECHUGAS x PRECIOUNIDAD el compilador la convertirá en algo como MULTIPLICAR Al A2 A3 donde A l es la dirección del valor de LECHUGAS, A2 de PRECIOUNIDAD y A3 de COSTETOTAL.

¿Somos com putadores?

285

los tiempos en que no había cinta magnética y el master se grababa directamente durante la actuación en vivo. Los intérpretes cantaban o tocaban hasta que de pronto el ingeniero de grabación se daba cuenta de que no quedaba mucho disco, y a los intérpretes se les hacía una señal para que se apresuraran. En consecuencia, el tempo era más vivo cuanto más se acercaba la aguja al centro del disco»i9. La brizna de contenido que sirvió para recuperar este recuerdo es tan abstracta que es difícil captarla con palabras: tiene algo que ver con que hay más espacio al inicio que al final. El ejemplo ilustra con viveza cuán abierto es el acceso que tenemos a nuestros recuerdos. No se puede averiguar qué aspecto del contenido del recuerdo puede servir para recuperarlo, lo que está muy lejos del rígido uso de direc­ ciones asignadas. El computador es un imitador brillante. Si el programador tiene suficiente astucia, se puede persuadir a un computador de que imite muchas cosas que no es, desde una explosión nuclear hasta el estó­ mago de una vaca. Como la dirección por contenidos es un rasgo tan deseable para un sistema de memoria, se han invertido considerables esfuerzos en diseñar programas que permitan a los computadores imitar a los sistemas direccionables por contenido. Sin embargo, hasta ahora sólo se han conseguido torpes parodias. Un método es hacer que el computador busque exhaustivamente todos los ítems de su memoria hasta, dar con el que tenga el contenido en cuestión. Un método más eficiente de programación hace uso de la «dispersión». La codificación dispersa (o almacenamiento disperso) es una técnica de programación que permite al computador recuperar un dato cuando se le presenta una parte predeterminada de él, conocida como pista (o clave). Por ejemplo, si el dato que recupera es la oración «Kant escribió la Crítica de la razón pura»> la pista puede ser «Kant escribió». El truco está en almacenar los datos en una localización de memoria cuya dirección se pueda calcular a partir de la pista me­ diante alguna función prevista. El programador puede, por ejemplo, decidir almacenar los datos en la localización cuya dirección es el nú­ mero que resulta de sumar los códigos ASCII de todas las letras de la pista (hay varias técnicas comunes en uso, y se las conoce colectiva­ mente como funciones de dispersión20). El computador responde a la pista con el cálculo de la dirección correspondiente y la recuperación 19 Hofstadter, D., «Variations On A Theme as the Essence of Imagination», p, 20. 20 Kohonen, T., Content-Addressable Memories, capítulo 2.

286

Inteligencia artificial. U na introducción filosófica

de los datos que el programador ha almacenado ahí. La limitación obvia de este método es que el programador tiene que especificar por anticipado las pistas. El método, por tanto, no capta lo que llamo el carácter abierto del acceso que poseemos a la información almace­ nada en nuestros cerebros: no se sabe de antemano qué «parte» de un recuerdo dado puede servir de «pista». Nadie se ha aproximado siquiera a hincar el diente al problema de reconciliar el sistema de direcciones ciegas al contenido de un computador con el carácter abierto del recuerdo humano. Distribución En un computador, cada cadena de marcas de símbolos existe en una localización física específica: en una porción de cinta magnética quizá o almacenada en una fila de elementos biestables. Un ingeniero podría poner un trozo de material bajo un microscopio, señalar un sitio particular y decir: «Ahí es donde está almacenado el recuerdo de que tal y cual: justo ahí.» El recuerdo podría ser destruido completa­ mente limpiando la localización (y cualquier localización que con­ tenga copias, claro). El almacén de memoria de un computador se compara a menudo con un archivo o una biblioteca: cada paquete de información está almacenado en un lugar particular y la recuperación implica «ir al sitio y coger la información». A menudo comparamos nuestra memoria a un archivo. Ésta es probablemente una concepción muy desencaminada. Hay fuertes in­ dicios de que la memoria humana no funciona según el principio de «cada ítem su localización». Años atrás Karl Lashley realizó una va­ riedad de estudios con animales, ratas en particular, con la intención inicial de encontrar los aposentos exactos en el cerebro de recuerdos específicos. Usó una técnica conocida como ablación. En un experi­ mento típico se entrenaba a 100 ratas para que aprendieran una ruta a través de un laberinto para encontrar una recompensa de comida. Una vez que las ratas habían memorizado la ruta, Lashley le extir­ paba quirúrgicamente (ablación) a cada una un área diferente del ce­ rebro. Luego se volvían a poner las ratas en el laberinto. Lashley ob­ tuvo el resultado nada intuitivo de que la destrucción de hasta el 10 por 100 aproximadamente de la corteza producía muy pocos efectos, con independencia de la región destruida. Cuando se extirpaba más corteza, el número de errores al recorrer el laberinto era proporcional

¿Somos com putadores?

287

al área de superficie destruida, pero.no se relacionaba con la posi­ ción21. El recuerdo de la ruta correcta no parecía estar almacenado en ningún sitio en particular. En 1950 Lashley resumió los resultados de treinta y tres años de estudios sobre la ablación como sigue: N o es posible demostrar la localización aislada de un rastro de un recuerdo en ningún lugar del sistema nervioso... La [huella] está representada en toda la región... Está justificada la. conclusión, creo,... de que todas las células del cerebro están activas constantemente y participan, por una especie de suma algebraica, en todas las actividades. N o hay células especiales reservadas para recuerdos especiales... cada caso de recuperación requiere la actividad de mi­ llones, literalmente, de neuronas. Las mismas neuronas que retienen las hue­ llas del recuerdo de una experiencia deben también participar en otras innu­ merables actividades22.

Estos resultados eran un rompecabezas para Lashley. Como seña­ laba con ironía: «A veces tengo la sensación, al revisar los datos sobre la localización de las huellas de la memoria, de que la conclusión ne­ cesaria es que el aprendizaje no es posible. Es difícil concebir un me­ canismo que satisfaga las condiciones impuestas»23. ¿Cómo es posi­ ble, preguntaba Lashley, que la información de la corteza no esté almacenada en ningún sitio en particular, sino en todas partes? Una década^más o menos después de que Lashley escribiera estas palabras, la técnica recién inventada de la hólografía proporcionó a los investigadores de la memoria un modelo de almacenamiento de la información que podría encajar con sus desconcertantes resultados 24. Los hologramas son «fotografías láser»; su rasgo más famoso es el mágico efecto tridimensional que producen cuando se proyecta la luz de un láser a través de una placa fotográfica. Si se sitúa la placa frente a una luz ordinaria, no parece más que un negativo fotográfico ordi­ nario. No se discierne ninguna imagen, sólo una mezcla borrosa. Sor­ prendentemente, cualquier trocito de esta confusión almacena toda la escena. El resultado de hacer un agujero en la placa es notablemente 21 Lashley, K. S., «In Search of the Engram», p. 492. 22 Lashley, K. S., ibidem, pp. 500,501, 502. 23 Lashley, K. S., ibidem,p. 501. 24 Longuet-Higgins, H. C., «The Non-Local Storage of Temporal Information»;

Pribram, K. H., Nuwer, M., y Baron, R. J., «The Holographic Hypothesis of Memory Structure in Brain Function and Perception».

2S8

Inteligencia artificial. U na introducción filosófica

similar al efecto que tiene la pérdida de tejido sobre la memoria; hay una debilitación global del detalle de la imagen proyectada, pero no desaparece ninguna parte específica de la escena. Una placa holográfica es un ejemplo de lo que se llama ahora un sistema distribuido de almacenamiento de información: esto es, un sistema en el que las in­ formaciones individuales no ocupan localizaciones separadas, sino que se esparcen uniformemente por el medio de almacenamiento. Los resultados seminales de Lashley son una indicación de que el ce­ rebro hace un uso considerable del almacenamiento distribuido. Estudios recientes han tendido a confirmar la conclusión global de Lashley de que no hay ninguna relación evidente entre la localización precisa de una lesión (esto es, el área destruida) y el déficit resultante en la conducta25. Sin embargo, cuando los juzgamos mediante crite­ rios actuales, sus métodos experimentales eran algo bastos, y pocos aceptan hoy día sus hallazgos con su plena integridad. Su hipótesis de «no hay células especiales reservadas para recuerdos especiales» es dudosa, como lo es su sugerencia de que cada actividad cognitiva in­ volucra todas las células del cerebro. Los estudios por medio de microelectrodos del comportamiento de neuronas aisladas (que conllevan introducir un delgado cable en el cerebro de un animal consciente) han revelado la presencia de neuronas que responden máximamente a estímulos muy específicos. Por ejemplo, la corteza visual superior del macaco contiene neuronas aisladas que parecen dispararse cuando aparece una mano de mono en el campo visual del macaco26. Éste es, al parecer, exactamente el tipo de especificidad que Lashley negaba. El peso general de los indicios que suministran los estudios con microelectrodos es que las células que muestran tan extrema especifi­ cidad pueden ser muchas menos que las menos especializadas. Las neuronas aisladas responden generalmente a un amplio rango de estí­ mulos diferentes, lo que indica que cada neurona puede estar involu­ crada en el almacenamiento de muchas informaciones diferentes27. 25 Véanse, por ejemplo, Chow, K. L., «Visual Discriminations After Extensive Ablation of Optic Tract and Visual Cortex in Cats»; Keating, E. G., y HoreL, J. A., «Effects of Prestriate and Striatre Lesions on the Monkey's Ability to Locate and Dis­ criminate Visual Forms». 26 Gross, C. G., Bender, D. B., y Rocha-Miranda, C. E., «Inferotemporal Cortex: A Single-unit Analysis». 27 Eccles, J. C., «Possible Synaptic Mechanism Subserving Learning»; Anderson, J. A., Silverstein, J. W., Ritz, S. A., y Jones, R. S., «Distinctive Features, Categorical Per­ ception, and Probability Learning: Some Applications of a Neural Model», pp. 421-2.

¿Somos com putadores?

2S9

Incluso la «neurona de la mano de mono» responde a otros estímulos que no son la mano, aunque la respuesta es más débil28. En la fase presente, la imagen global no está clara, y hay desacuer­ dos considerables entre los neurocientíficos acerca del número de neuronas que el cerebro usa para almacenar una huella de memoria. James Anderson y Michael Mozer conjeturan que en el almacena­ miento de una sola huella participan entre setecientas mil y siete mi­ llones de neuronas (una estimación considerablemente inferior a la de Lashley)29. En el otro extremo de la escala, Horace Barlow sugiere que el número puede ser mil neuronas (una cifra que muchos ten­ drían por demasiado baja para ser compatible con los resultados de los estudios de ablación y de lesiones)30. Si Anderson y Mozer tienen razón, entonces las huellas de me­ moria están enormemente distribuidas en el cerebro, como mostrará jugar un poco con la aritmética. Su cifra de siete millones representa aproximadamente el 10 por 100 de las neuronas de la corteza visual primaria31. Supongamos que en el curso de la vida nuestro cerebro ha almacenado N recuerdos visuales. Evidentemente N será un número descomunal. En el supuesto de que cada uno de los recuerdos re­ quiera el 10 por 100 de las memorias disponibles para almacenarlo, cada neurona individual deberá participar en el almacenamiento de N/10 recuerdos visuales (mientras que en un computador cada elemento biestable participa en el almacenamiento de exactamente una información). Dado él tamaño de N, hay una distribución a gran escala. Está claro que la memoria humana es de naturaleza muy distinta de la de los almacenes no distribuidos, direccionados de los computa­ dores actuales. 28 Gross, C. G.; Bender, D. B., y Rocha-Miranda, C. E., «Inferotemporal Cortex: A Single-unit Analysis», pp. 231-3. 29 Anderson, J. A., y Mozef, M. C., «Categorization and Selective Neurons», p. 217. 30 Barlow, H. B., «Single Unit and Sensation: A Neuron Doctrine for Perceptual Psychology?», pp. 385 y 389-90. 31 La corteza visual primaria es importante aquí, porque se cree que las localizacio­ nes más probables del almacenamiento de recuerdos son las mismas áreas de la corteza donde toman forma las impresiones sensoriales iniciales. Parece que están implicadas otras estructuras, como el hipocampo y la amígdala, en la consolidación y recupera­ ción de recuerdos. (Véase Squire, L. R., y Zola-Morgan, S., «Memory: Brain Systems and Behaviour».)

290

Inteligencia artificial U na introducción filosófica

Degradación elegante Los computadores son proclives a morir con la menor herida. Un repentino golpe con el destornillador en casi cualquier lugar del pro­ cesador central y la máquina se vuelve loca. En los viejos tiempos, cuando los componentes electrónicos destacaban por su baja fiabili­ dad, los computadores solían pasar más tiempo en un estado de com­ pleta parálisis que funcionando; y aun hoy día, el fallo de un mise­ rable semiconductor puede poner a su merced una instalación multimillonaria. En el caso del aparato biológico las cosas son muy diferentes. Soporta bien los daños. Incluso las lesiones graves pueden tener poco o ningún efecto sobre las funciones centrales del cerebro, como muestra el famoso caso de Phineas Gage, un ferroviario. Minu­ tos después de que sus lóbulos anterior y medio del lado izquierdo de su cerebro hubieran sido machacados por una barra de hierro, Gage estaba consciente, recordaba y hablaba. Según John Harlow, el médico de Gage, el efecto de la herida y la posterior infección fue ha­ cerle «propenso a los arrebatos, irreverente... obstinado... dubita­ tivo... inclinado a veces a las más graves blasfemias... impaciente ante la prohibición o el consejo... [pero] con las pasiones animales de un hombre fuerte»32. Gage tuvo una vida viajera durante los trece años posteriores al accidente, y murió por causas desconocidas. Los estudios de laboratorio de sujetos que han perdido pequeñas cantidades de tejido cerebral (por lesión o cirugía) indican que el daño produce un deterioro gradual de la actuación. Cuanto más te­ jido se pierde, más se empeora, por ejemplo, en la discriminación de patrones visuales o en la comprensión del lenguaje (la naturaleza pre­ cisa del deterioro depende del lugar del cerebro donde ocurre la agre­ sión). No hay un colapso repentino. La actuación de un cerebro se degrada poco a poco y con elegancia conforme aumenta el daño, mientras que un computador se desploma al menor asomo de dificul­ tades 33. Otra vez encontramos una profunda falta de semejanza entre el soporte informático y el soporte biológico.

32 Harlow, J. M., «Recovery from the Passage of and Iron Bar Through the Head», pp. 339-40. 33 El término «degradación elegante» lo emplean en este contexto Rumelhart y McClelland («PDP Models and General Issues in Cognitive Science», p. 134).

¿Somos com putádores?

291

9.3. Adiós, Von Neumann A los oponentes de la HFSS les agradaría poder concluir a partir de esta lista de desemejanzas entre la biología y la ferretería, que el ce­ rebro no es un computador. Varios autores lo hacen. En opinión de la filósofa Patricia Churchland «estas diferencias [hacen] parecer más que tenue la metáfora que identifica el cerebro con un computador, y el biólogo John Young afirma francamente, sobre la base de estas di­ ferencias, que «la analogía del computador es intolerablemente inade­ cuada para describir el funcionamiento del cerebro»34. Sin embargo, no se puede extraer esa conclusión. Lo único que se puede concluir legítimamente es que el cerebro no tiene lo que se conoce como una arquitectura Von Neumann. Me explicaré. Cuando el equipo de ENIAC se disgregó en 1946, John von Neumann emprendió la reorganización y extensión del diseño de esta máquina pionera. El resultado fue un conjunto de brillantes propues­ tas arquitectónicas que han sido pilares del diseño de computadores desde entonces35. Un computador construido según las especificacio­ nes de Von Neumann se llama simplemente una máquina Von Neu­ mann. Incluso hoy, la arquitectura Von Neumann és prácticamente universal en la industria de los computadores. Una lista de los rasgos centrales de la arquitectura Von Neumann es casi como releer los puntos de la sección precedente. 1. Una máquina Von Neumann es un procesador secuencial: ejecuta una tras otra las instrucciones de su programa36. 2. Cada cadena de símbolos está almacenada en una localización específica de la memoria. 3. El acceso a una cadena almacenada procede siempre a través de la dirección numérica de la localización de la cadena. 34 Churchland, P. S., Neurophilosophy, p. 459; Young, J. Z., Philosophy and the Brain, p. 18 (véase también la p, 64). 35 Burks, A. W., Goldstine, H. H., y Von Neumann, J., «Preliminary Discussion of the Logical Design of an Electronic Computing Instrument». , 36 Se dice a veces que una máquina von Neumann «sólo hace una cosa cada vez». Esto es un poco metafórico. Un computador moderno puede, en un momento dado, pasar los resultados de la instrucción del programa a una localización de memoria, obedecer la instrucción n 4* 1 (esto es, realizar la manipulación que requiere la instruc­ ción) y leer la instrucción n + 2.

292

inteligencia artificial. U na introducción filosófica

4. Hay un único «puesto de control», la unidad central de pro­ cesamiento o CPU. La CPU contiene un registro especial, el «registro de instruc­ ción», en el que se introducen las instrucciones una por una (véase la sección 4.3). Por ejemplo, supongamos que en el registro de instruc­ ciones entra el código binario de «cambiar» (como se explica en la sección 4.4, la función de esta instrucción es cambiar todo lo que está en el registro un lugar hacia la derecha. El bit del extremo derecho del registro «cae» y se introduce un cero en el extremo izquierdo. El resultado de cambiar 0101 es 0010). La llegada de la instrucción al re­ gistro de instrucciones inicia un ciclo de actividad de tres partes en la CPU. Primero, la cadena de símbolos sobre la que hay que operar se transfiere de la memoria principal a un registro de almacenamiento a corto plazo (buffer) que está en la CPU. Segundo, se realiza el cam­ bio y se coloca la cadena resultante en el almacén a corto plazo que está en la CPU. Tercero, se transfiere la cadena de esta localización provisional a la dirección originaria de la memoria principal. Este ci­ clo de tres partes se conoce como ciclo recuperar-operar-almacenar. Pertenece a la naturaleza de una máquina que trabaje así el degradarse con estrépito, pues para su funcionamiento necesita la salud, perma­ nente de cada una de las partes del procesador central. Si falla uno de sus registros, la actividad de la unidad central de procesamiento debe detenerse. Lo que emana de la sección precedente es que el cerebro no es una máquina Von Neumann. Sin embargo, no se sigue de esto que el cerebro no sea un computador. La arquitectura Von Neumann es sólo una aproximación a la construcción de sistemas universales de símbolos, una aproximación que ha evolucionado y medrado en el entorno ingenieril propio de la segunda mitad del siglo XX. Pero es difícil que sea la última palabra. Si el cerebro hubiera resultado ser una máquina Von Neumann, eso habría sido apenas menos sorpren­ dente que si el corazón hubiera resultado ser un tornillo de Arquímedes. La arquitectura Von Neumann no es más que la primera mani­ festación de una tecnología nueva y dinámica.1 1. No hay ninguna conexión necesaria entre la manipulación de símbolos y el procesamiento secuencial. En los últimos años ha habido un progreso experimental considerable en el diseño de ingenios que operen en paralelo (aunque no se ha logrado

¿Somos com putadores?

293

nada parecido al grado de paralelismo que se encuentra en el cerebro). Los computadores con una arquitectura paralela se denominan acertadamente máquinas «no Von». 2. El sistema de la memoria de un manipulador de símbolos no tiene por qué basarse en el método de las direcciones numéri­ cas. Una posibilidad es ciertamente un computador que use un sistema de almacenamiento direccionable por el conte­ nido, aunque en el momento actual ese recurso es poco más que un brillo en los ojos de los investigadores. 3. La idea de Von Neumann de una única unidad de procesa­ miento corre pareja con un modo secuencial de operación, y lo más probable es que las arquitecturas paralelas futuras sustituyan el control centralizado por la cooperación multi­ lateral. La HFSS no se pronuncia sobre asuntos de arquitectura. Sólo sos­ tiene que el cerebro es un sistema universal de símbolos. Los temas de la actividad paralela, la distribución, etc., no afectan a la verdad o falsedad de la hipótesis. Como dice Zenon Pylyshyn, «lo que ha im­ pedido a muchas personas tomar la computación como una explica­ ción literal de los proceso[s] mentales es no distinguir entre computa­ ción como tipo de proceso y las formas físicas particulares que toma en las máquinas computadoras actuales»37. La HFSS deja abierta la cuestión de cómo almacena el cerebro sus símbolos y cómo organiza sus operaciones sobre ellos. Los científicos cognitivos entienden que éstos son temas de detalladas investigaciones empíricas mediante mé­ todos que aún no se han desarrollado. El estado de la cuestión Aunque los hechos repasados en la sección 9.2 no afectan a la ver­ dad o falsedad de la HFSS, tienen, no obstante, un importante papel por desempeñar en nuestra indagación. Ponen de manifiesto que los cerebros tienen poca o ninguna semejanza con los computadores tal como ahora los conocemos y entendemos, y esto ilumina el carácter esquemático de la HFSS. La HFSS contiene varios «parámetros» des­ conocidos que aún no sabemos llenar. La teoría de que el cerebro es 37

pylyShyn, Z., Computation and Cognition, p. 55.

294

Inteligencia artificial. U na introducción filosófica

una máquina Von Neumann es, por lo menos, una afirmación precisa y detallada, algo que se puede comparar con los datos, mientras que la teoría de que el cerebro es un computador de arquitectura desco­ nocida, que usa símbolos desconocidos y operaciones fundamentales desconocidas, es un atisbo esquemático. Sin duda, con el tiempo, estas incógnitas serán reemplazadas por propuestas detalladas y contrastables experimentalmente; pero, por ahora, esta imprecisión, unida a nuestros limitados datos experimentales acerca de la función cerebral, hace que la HFSS esté bien lejos del alcance de la refutación o la confirmación por medios empíricos. Las polémicas filosóficas florecen en áreas en las que los indicios empíricos son tenues, y los científicos cognitivos acuden principal­ mente a consideraciones filosóficas cuando recaban apoyo para la HFSS. El paso siguiente de nuestra investigación, pues, es examinar los argumentos filosóficos que proponen. Éste es el programa para las cuatro próximas secciones. Antes, sin embargo, quiero desembarazar el camino de un argu­ mento que se podría emplear contra la HFSS. Dice así: muchos as­ pectos del funcionamiento del cerebro no tienen nada que ver con la manipulación de símbolos; por tanto, la HFSS es errónea. Supongamos, por ejemplo, que el ruido del cortacésped de nues­ tro vecino nos provoca un dolor de cabeza, o que perdemos el auto­ bús y nos pasamos de mal humor el resto del día. ¿Cómo va a consis­ tir en una manipulación de símbolos el dolor de cabeza o ponerse de mal humor? El rasgo central de las cadenas de símbolos es que, como las oraciones, codifican información. Se comprende que adquirir una creencia pueda consistir en formar una cadena de símbolos; pero, al contrario que las creencias, los dolores de cabeza y los estados de ánimo no codifican información y, por consiguiente, es un completo enigma que los procesos de adquirirlos sean manipulaciones de sím­ bolos 38. Éste es el tipo de consideraciones que hay detrás de la pre­ misa del argumento. Sin embargo, la premisa no proporciona el menor apoyo a la con­ clusión. Un ingenio que es principal y cardinalmente un procesador de símbolos puede soportar otras actividades además de la manipula­ ción de símbolos, igual que un procesador de alimentos incurre en actividades distintas de la manipulación de alimentos (puede tener 38 Para un estudio emparentado, véase Haugeland, J., «Artificial Intelligence: The Very Idea», pp. 230-8.

¿Somos com putadores?

295

sistemas de refrigeración o de lubricación). La ciencia cognitiva no se compromete ciertamente a ver todo lo que ocurre en el cerebro en términos de manipulación de símbolos. El cerebro es una mezcla de múltiples actividades, y la HFSS sólo se ocupa de los procesos que están implicados fundamentalmente en el pensamiento y en la pro­ ducción de la conducta inteligente. 9.4. Dar significado a la carne Por cortesía de mi cerebro soy capaz de hacer cosas tales como prever'las consecuencias posibles de mis acciones, razonar sobre lo inobservado a partir de lo observado y desear que ciertas situaciones fueran de otra manera. Una condición previa para hacer esto es que mi cerebro se forme representaciones de acontecimientos, hechos y estados de cosas, actuales y potenciales. Por ejemplo, mi cerebro po­ see alguna forma de representar el hecho de que la salsa de tomate de­ jará una engorrosa mancha si se derrama sobre la camisa: de uno u otro modo, contiene esa información. Dicho de otra manera, ciertos sucesos de mi cerebro tienen signi­ ficado, en el sentido de que esos sucesos se refieren a y representan otras cosas: objetos, hechos, acontecimientos, etc. ¿Cómo es esto? Al fin y al cabo, la carne y el significado son compañeros dispares, pero están juntos en mi cráneo; ¿Cómo? Ésta es una de las mayores lagu­ nas en la comprensión del cerebro. Un tipo más ordinario de entidad portadora de significado es la oración común o de cultivo, hablada o escrita y sus numerosos deri­ vados, tales como códigos, notaciones técnicas y las cadenas de sím­ bolos que habitan los computadores. La oración «Fido lame a Ber­ nardo» es una representación simbólica del hecho de que Fido lame a Bernardo. Ojalá fuera igual de fácil en el caso del cerebro. «Yo creo que lo es» (éste es un defensor de la HFSS que entra en el momento oportuno39). «Las oraciones, y los símbolos lingüísticos en general, suministran el único modelo auténtico que poseemos de cómo un fragmento de materia puede representar un hecho. Sabemos que el cerebro debe contener estados representacionales; por tanto, es 39 Véase Fodor, J., The Language of Thought, capítulo 2, y ««Fodor’s Guide to Mental Representation», pp. 90-95; Pylyshyn, Z., Computation and Cognition, pp. 29 y 39 y ss.

296

Inteligencia artificial. Una introducción filosófica

natural teorizar que estos estados son literalmente oraciones: las re­ presentaciones que usa el cerebro son cadenas de tipo oracional de símbolos. Eso resuelve el problema de cómo los significados están en la carne y da también una explicación de qué hace el cerebro real­ mente cuando razona, planea, etc. Está manipulando estas cadenas de símbolos». Pero ahora explique a qué se refiere cuando dice que el cerebro con­ tieney literalmente, oraciones. «Bueno, por supuesto, no me refiero a que haya palabras, literalmente, escritas. Los símbolos de los que ha­ blo están realizados físicamente en el cerebro por medio de algún gé­ nero de actividad eléctrica o química. En una máquina Von Neu­ mann los símbolos binarios están realizados por medio de cambios magnéticos, estados de los elementos biestables, etc. No tengo nada que decir sobre el método o métodos que emplea el cerebro. Eso es asunto de ulterior indagación empírica.» ¿Dice usted que cuando pensamos siempre lo hacemos en un lenguaje f «Sí, en cierto modo. No digo que el cerebro piense en oraciones del inglés o el alemán u otro idioma. Eso lo hacemos en un nivel cons­ ciente, pero el nivel de actividad cerebral al que aludo está por debajo de la conciencia (y, de paso, también por debajo de las imágenes mentales)40. El lenguaje del cerebro no puede ser un lenguaje hablado ordinario, sencillamente porque los niños que aún no han adquirido un lenguaje materno se comportan con maneras que indican con fuerza que ya tienen la capacidad de formar representaciones menta­ les. No, el lenguaje es una especie de código cerebral especial. Yo lo llamo mentalés por darle un nombre. Me inclino a creer que es in­ nato, parte de nuestra dotación genética, más que aprendido.» ¿ En qué se supone que las representaciones del cerebro se parecen a oraciones? ¿Por qué decir que el mentalés es un «lenguaje»? «Quiero que se me entienda literalmente cuando digo que estas representacio­ 40 Algunos autores consideran que la existencia de las imágenes mentales es un problema para la teoría de que el pensamiento consiste en la manipulación de oracio­ nes (pues, al fin y al cabo, las imágenes no son oraciones). Véanse Kosslyn, S. H., Image and Mind y Ghosts in the .Mind's Machine; Block, N., «Mental Pictures and Cognitive Science»; Haugeland, J., Artificial Intelligence: The Very Idea, pp. 221-30. Para una discusión crítica, véase Pylyshyn, Z., Computation and Cognitiony capítulo 8.

¿Somos computadores?

297

nes son oracionales. Ése es el meollo de mi teoría. La idea básica es que, de un lado, tenemos este enorme misterio sobre el modo como los estados físicos del cerebro representan hechos, y, de otro, tene­ mos estas agradables y simples oraciones, que ofrecen un modelo perfecto de cómo tiene lugar la representación. Lo que digo es: resol­ vamos el misterio postulando que estos estados del cerebro son lite­ ralmente oraciones. Lo que implica que las representaciones en men­ talés comparten varias características centrales de las oraciones del lenguaje ordinario. Hay dos que hallo sobresalientes: primero, lo que llamo construcción a partir de unidades básicas del vocabulario, y, segundo, el uso de la forma para, por así decir, “capturar” el signifi­ cado pretendido. En español empezamos con unidades básicas del vocabulario, como "lame”, “Fido” y “Bernardo” y, a partir de ellas, construimos oraciones. Lo que propongo es que, en este aspecto, el mentalés es semejante. Sobre el segundo punto, es la forma o patrón en que disponemos las unidades básicas lo que determina qué hecho se representa: Fido lame a Bernardo o Bernardo lame a Fido. Cuando digo que el mentalés es un lenguaje, me refiero a que las representa­ ciones del mentalés poseen ambos rasgos.» Explíqueme por qué eso equivale a decir que el cerebro es un compu­ tador. «Bueno, la relación es muy simple. Según esta teoría, un cere­ bro y un computador son el mismo tipo de ingenio. Ambos operan manipulando oraciones dé un código lingüístico interno. Las cadenas de bits tienen los dos rasgos que he mencionado: están construidas a partir de unidades básicas de vocabulario y el patrón en que se dispo­ nen las unidades desempeña un papel crucial para determinar el signi­ ficado (Sección 4.2). Por poner un ejemplo sencillo, si l i l i es la uni­ dad básica que significa “copiar” y 00 y 01 nombran dos registros, podemos combinar estas tres unidades según dos patrones diferentes para obtener dos instrucciones diferentes: copiar 00 en 01, y vice­ versa. De paso, aquí vemos en acción un factor importante, y es que la forma relaciona el significado con la actividad. Si en el procesador central entra la instrucción l i l i 00 01, la máquina responde de una forma, y si entra l i l i 01 00, se causa una acción diferente. Vemos, pues, que en un computador es la forma o estructura de la cadena lo que, por así decir* lleva a término causalmente el significado de la ca-* dena. Esto debería, tener atractivo para un filósofo. Los significados son cosas bastante misteriosas y abstractas, y a primera vista es un rompecabezas entender cómo una cosa etérea como un significado

Inteligencia artificial. Una introducción filosófica

298

puede causar que una máquina haga algo. En los computadores este problema está resuelto con el uso de un código simbólico que refleja todas las distinciones de significado pertinentes por medio de distin­ ciones formales a las que es sensible el aparato. Lo que digo es que no se nos ocurre de qué otra forma podría estar ligado el significado a la actividad, si no es a través de un código simbólico estructurado, y, por tanto, sugiero que debe haber tal código en el cerebro»41. Me parece que usted lo único que ha hecho ha sido proponer una ex­ plicación de cómo representa los hechos el cerebro, pero no ha hecho nada por mostrar que ésta es la explicación correcta. «Efectivamente, no lo he hecho. Pero, como iba diciendo, nadie tiene otras ideas sobre la unión del significado con la actividad. Puesto que la nuestra es la única explicación sobre el tapete, pensamos que hay que tomarla en serio. Como dijo en cierta ocasión Lyndon B. Johnson, "Soy el único presidente que tenéis.” Tenemos una teoría verosímil, que encaja bien y que carece de rivales.» Pasemos a un segundo argumento en apoyo de la HFSS. 9.5. Creer lo que no se cree Ibrahim, un vendedor de alfombras, se sienta sosegadamente con un refresco en un rincón sombreado del bazar. En esto por detrás de él aparece de súbito una extranjera rubia. «Hola», le dice sonriente y simpática. «Me llamo Nancy. Estoy haciendo turismo por tu país en una moto.» El corazón de Ibrahim se acelera y se pone a cavilar la mejor forma de conseguir que salga a cenar con él. Ahora administremos un breve cuestionario a Ibrahim. 1. ¿Pretende salir a cenar con esta atractiva y joven turista? 2. ¿Pretende salir a cenar con el Ángel de la Muerte? 41 Adviértase que éste es un argumento para tomar en serio la HFSS en toda su di­ mensión. El argumento sostiene que la única explicación que poseemos de cómo un in­ genio físico puede representar hechos es que emplee un código simbólico, y eso se aplica también a ese ingenio que es el cerebro humano o a una pella de baba verde.

¿Somos computadores?

299

Pues, bajo la encantadora sonrisa, ésta es la verdadera identidad de Nancy. Ibrahim responde sí a la primera pregunta y un alarmado no a la segunda. Asume el objetivo de cenar con Nancy y renuncia por en­ tero al objetivo de cenar con el Ángel de la Muerte. Es un poco difi­ cultoso que esto sea posible, porque en cierto sentido son el mismo objetivo, pero es un hecho que para Ibrahim son objetivos diferentes y tiene (o tenía) uno, pero nunca ha tenido el otro. Ibrahim, como todo el mundo, puede hacer este desconcertante truco con las creencias y con las intenciones. Nunca ha creído que el Ángel de la Muerte fuera mortal, pero creía que Nancy lo era. Para asegurarnos, volvamos atrás y prologuemos el cuestionario con una pregunta que solicite su opinión sobre la posible inmortalidad de Nancy. La respuesta de Ibrahim es definitiva. «Ella es como el agua derramada en la arena del desierto», contesta. También sería con­ tundente si se le pidiera exponer su creencia de que el Ángel de la Muerte, por el contrario, no es mortal. Puesto que Nancy y el Ángel de la Muerte son la misma persona, la creencia de que Nancy es mor­ tal es en cierto sentido la misma que la creencia de que el Ángel de la Muerte es mortal; pero, paradójicamente, Ibrahim es capaz de mante­ ner la una y no la otra. ¿Dónde, se preguntarán ustedes, nos lleva esta fantasía? Los fenó­ menos de este tipo —tener intenciones que no se tienen, creer lo que no se cree— constituyen las llamadas paradojas de la intencionali­ dad42. ¿Cómo son posibles estas hazañas aparentemente paradójicas? Jerry Fodor y Zenon Pylyshyn tienen una explicación. «Una explicación natural de lo que es mantener una creencia», es­ cribe Pylyshyn, «es que mantener una creencia consiste en almacenar en una... “caja de creenciasespecial una marca... de una oración en mentalés»43. Lo que Pylyshyn describe metafóricamente como la «caja de creencias» del cerebro es su almacén de creencias (la idea es que lo que hace que algo sea una creencia en vez de una meta o un te­ mor o cualquier otra cósa es estar en esta «caja»44.) La hipótesis de 42 Los verbos que generan estas paradojas —creer, pretender, temer, esperar, etc.— se conocen colectivamente como verbos intencionales. Un estudio clásico de los ver­ bos intencionales es el de Chisholm, R. M., Perceiving: A Philosophical Study, cap. 11. 43 Pylyshyn, Z., Computation and Cognition, p. 195; Fodor, J., The Language of Thought, p. 71-9. 44 La «caja de creencias» es una metáfora de Steven Schiffer.

300

Inteligencia artificial. Una introducción filosófica

que el contenido de la «caja» son oraciones de mentalés explica la ca­ pacidad de Ibrahim para creer que Nancy es mortal y a la vez no creer que el Ángel de la Muerte es mortal* Hay alguna estructura de símbolos X del mentalés que corresponde a la oración «Nancy es mortal» y otra diferente Y que corresponde a la oración «el Ángel de la muerte es mortal». Aunque X e Y registren el mismo hecho, evi­ dentemente es posible que el cerebro de Ibrahim puede contener X y no Y en su «caja de creencias». He aquí, pues, una resolución limpia y simple de las paradojas de la intencionalidad. En resumen. Si los actos de tener una intención, creer, dudar, etc., se analizan'en términos de operaciones cerebrales realizadas sobre es­ tructuras simbólicas, en seguida se comprende todo un mundo de fe­ nómenos inicialmente paradójicos. Esto añade atractivo al análisis. 9.6. Productividad y sis tema ticidad Decir que el pensamiento es productivo (en el sentido técnico que entraña este tercer argumento a favor de la HFSS) es decir que en principio podemos tener un número ilimitado de pensamientos. Si el pensamiento es productivo, entonces, dada una vida infinitamente larga, un ser humano podría tener un número infinito de pensamien­ tos diferentes. En el transcurso de una vida, una persona sólo puede tener un nú­ mero finito de pensamientos. Supongamos que una persona tiene exactamente diez mil millones antes de que se aparezca el Ángel de la Muerte. Habría otras muchas cosas en las que podría haber pensado pero no lo hizo. Llamemos a éstos «pensamientos potenciales». Por ejemplo, alguien bien podría pasar toda su vida sin engendrar el pen­ samiento «no es necesario afeitar el puente del puerto de Sidney to­ das las mañanas». Negar que el pensamiento humano es productivo equivale a afirmar que hay un número máximo N de pensamientos actuales y posibles. Tenemos la sensación de que, por grande que se suponga N, siempre podríamos idear otro pensamiento, el N + 1, no importa cuán pintoresco (puede que valga simplemente el pensa­ miento de que hay al menos N + 1 pensamientos). Pero imaginar que podemos hacer esto no demuestra que podamos, claro está. Es una cuestión empírica. Nadie sabe de cierto ;si el pensamiento humano es o no productivo. Sin embargo, mucha gente lo considera una hipóte*^ sis plausible (algunos defensores del procesamiento distribuido para­

¿Somos computadores?

301

lelo —la aproximación al conocimiento qne se estudia en el próximo capítulo— son enemigos destacados45). En palabras de Jerry Fodor, si el pensamiento, no es productivo, entonces «en principio podría ocurrir que, después de mucho pensar, nuestras experiencias alcancen a nuestras capacidades cognitivas y hayamos conseguido pensar todo lo que éramos capaces de pensar». Y continúa: «No es prudente decir que esta consecuencia es absurda: eso lo admito, pero mi anciana tía no»46 (la sección 10.8 contiene un examen más exhaustivo del tema de la productividad). Decir que el pensamiento es sistemático, en el sentido de Fodor, significa que la capacidad de tener ciertos pensamientos está «intrín­ secamente conectada» con la capacidad de tener otros47. «... no exis­ ten personas que puedan tener el pensamiento de que Juan ama a la muchacha y no puedan formar el pensamiento de que la muchacha ama a Juan», explican Fodor y Pylyshyn48. Si una persona posee los recursos conceptuales necesarios para pensar que las mapuritas hue­ len peor que los dingos, entonces, puesto que el pensamiento es siste­ mático, está obligada a poder pensar que los dingos huelen peor que las mapuritas. Advirtamos que la sistematicidad y la productividad son fenómenos distintos: podemos aceptar la afirmación de que el pensamiento es sistemático aunque creamos que no es productivo. El lenguaje humano es productivo. El número de oraciones gra­ maticales del español, por ejemplo, no tiene límite. Esto es fácil de demostrar. Escojamos cualquier oración (verdadera), P, y proceda­ mos como sigue: «P» es verdadera, «WP” es verdadera» es verdadera, «WT ’ es verdadera” es verdadera» es verdadera... Enseguida se hacen inmanejables, pero todas son gramaticales (como que son verdaderas) y su número no tiene límite. (Es sistemático el lenguaje ordinario? Fodor y Pylyshyn piensan que sí. Por ejemplo, no encontramos hablantes nativos que sepan decir que Juan ama a María, pero no sepan decir que María ama a Juan. Si encontráramos a 45 Rumelhart, D. É., y McClelland, J. L., «PDP Models and General Issues in Cog­ nitive Science», pp. 119-20. 46 Fodor, J., Psychosemantics, p. 148. 47 Fodor, J., Psychosemantks, p. 149; Fodor, J., y Pylyshyn, Z., «Connectionism and Cognitive Architecture: A Critical Analysis», pp. 33-41. 48 Fodor, J., y Pylyshyn, Z., «Connectionism and Cognitive Architecture: A Criti­ cal Analysis», p. 39.

302

Inteligencia artificial Una introducción filosófica

alguien en este apuro, lo tomaríamos como indicio presunto de que no es un hablante nativo, sino un turista o algo así49. En realidad, la cuestión de la sistematicidad del lenguaje ordinario es menos directa que la de la productividad, porque no está claro a qué equivale la sistematicidad. La productividad es una propiedad de lá lengua per se. Fodor y Pylyshyn no aclaran si la sistematicidad es igualmente una propiedad del lenguaje per se o si es más bien una re­ lación entre el lenguaje y ciertos hablantes. Les corresponde aclarar qué significa exactamente decir que un lenguaje es sistemático. Pero ésta es una queja relativamente menor y no hay por qué insistir. Pasemos ahora al argumento en favor de la HFSS. Supongamos que el pensamiento es productivo. ¿Cómo lo consigue el cerebro? Puesto que sabemos que el lenguaje es productivo, la explicación más sencilla es que el pensamiento sea lingüístico. Si cada uno de nuestros pensamientos es una oración de mentalés, entonces, en principio, po­ demos concebir un número ilimitado de pensamientos. El pensa­ miento es productivo porque lo es el mentalés. Si no queremos supo­ ner que el pensamiento es productivo, tomemos la afirmación de que es sistemático. ¿Cómo lo consigue el cerebro? La misma historia: po­ demos aducir la sistematicidad del mentalés para explicar la sistemati­ cidad del pensamiento. De cualquier modo tenemos un argumento en favor de la existencia del mentalés50. 9.7. Valoración de los argumentos Reducidos a su esencia, los argumentos de las secciones 9.4, 9.5 y 9.6 vienen a afirmar que la única manera posible de explicar los fenó­ menos del caso (la productividad y sistematicidad del pensamiento, las paradojas de la intencionalidad y la capacidad fundamental de re­ presentación del cerebro) es postular un código simbólico interno. Una caricatura puede iluminar la debilidad de este tipo de argumen­ tación. Fenómeno: Fido muerde a Bernardo. Una explicación posi­ ble: Fido cree que Bernardo tiene una extraña enfermedad que sólo 49 Fodor, J., Psych osemantics, p. 149. 50 Fodor, J., «Fodor’s Guide to Mental Representation», pp. S9-90, y Psychosemantles^ pp. 147-53; Fodor, J., y Pylyshyn, Z., «Connectionism and Cognitive Archi­ tecture: A Critical Analysis», pp. 33-41.

¿Somos computadores?

303

un mordisco de perro puede curar. Inventar una explicación posible es una cosa, y demostrar que es la correcta es algo muy diferente, y algo hacia lo que ni siquiera apuntan los tres argumentos. En mi opinión, Fodor y Pylyshyn tienen razón en mantener que las paradojas de la intencionalidad dan cierto grado de apoyo a la idea de que el cerebro es capaz de formar varias representaciones diferen­ tes del mismo hecho. Sin embargo, las consideraciones a que dan lu­ gar las paradojas no tienden a mostrar que estas representaciones sean oraciones de mentalés, y eso es lo decisivo. Puede que el cerebro sea capaz de formar diferentes representaciones del mismo hecho, pero esas representaciones no tienen por qué ser las cadenas de sím­ bolos postuladas por la HFSS. Fodor y Pylyshyn intentan contrarrestar este escepticismo con la insistencia en que la hipótesis del mentalés es la única explicación ra­ zonable de los fenómenos en cuestión. Pylyshyn la describe como «la única que queda a flote» y Fodor usa la broma «soy el único presi­ dente que tenéis» como epígrafe51. El problema es, sin embargo, que quedan otras teorías a flote y no parecen menos prometedoras que la hipótesis del mentalés. El siguiente capítulo está dedicado a una de esas teorías. Una muy discutida en los tiempos de Turing y vuelta a poner en candelero por Phil Johnson-Laird y Colin McGinn (entre otros) es la hipótesis de que los procesos cerebrales son representa­ ciones analógicas52. Un ejemplo simple de representación analógica es la maqueta tri­ dimensional que hace un arquitecto de un edificio. Los rasgos del edificio real están representados por los rasgos correspondientes de los elementos del modelo. Los ángulos del tejado están representados por las hojas de cartulina que representan el tejadó; el número y forma de las lunas de cristal de cada ventana están representados por el número y forma de los paneles de plástico adheridos a las cartuli­ nas que representan las paredes, y así sucesivamente. Hay muchos ti­ pos diferentes de representaciones analógicas: modelos a escala de to­ 51' Pylyshyn, Z., Computation and Cognition, pp. 39, 63. La cita procede de McCle­ lland, J. L., «The Basis of Lawful Behaviour: Rules or Connections?», p. 16. Fodor, J., The Language of Thought, p. 27. 52 Johnson-Laird, P., Mental Models', McGinn, C., Mental Content, El clásico del enfoque de los «modelos mentales» es The Nature of Explanation, de Kenneth Craik, publicado en 1943. Véanse también Kosslyn, S, H., Image and Mind y Ghosts in the Mind's Machine; y Block, N., «Mental Pictures and Cognitive Science».

304

Inteligencia artificial. Una introducción filosófica

das clases, mapas, dibujos, gráficos, y las imágenes de la retina, por mencionar unos pocos. Los gráficos son un caso interesante. En la maqueta del arquitecto el ángulo está representado por el ángulo, el número por el número y la forma por la forma, y en los mapas, la distancia por la distancia. El ejemplo de los gráficos pone en claro que la representación análoga no siempre ha de ser de lo semejante por lo semejante. En un gráfico, la distancia en un eje puede representar la masa o la velocidad o la in­ teligencia de un objeto. No es fácil decir con precisión lo que tienen en común las repre­ sentaciones analógicas. Sin embargo, la idea básica es obvia. Como dice McGinn, «en las [representaciones] analógicas, las propiedades de los estados de cosas representados están de algún modo reflejadas en los rasgos de lá [representación]»53. En una representación analó­ gica, los rasgos que representan los «representantes» varían de modo que reflejan o mimetizan o modelan la variación de los «representa­ dos»: más cuadritos de plástico significan más ventanas, un azul más oscuro en una carta marina significa agua más profunda, una mayor distancia del 0 en el gráfico significa mayor inteligencia54. Las representaciones analógicas tienen diferencias llamativas con las representaciones lingüísticas. Consideremos los mapas. El hecho de que la carretera entre Londres y Leeds sea más larga que la carre­ tera entre Londres y Birmingham está representado por el hecho de que una línea azul del mapa es más larga que otra. Como todo el mundo sabe, las líneas de las carreteras representan la longitud en los mapas por medio de su propia longitud, que varía en proporción a la longitud de la carretera representada. Las oraciones, por el contrario, evidentemente no se representan de forma que varíen en su magnitud en proporción a la magnitud de la propiedad representada. La cadena de símbolos «la carretera Londres-Birmingham tiene 200 kilómetros» es en realidad más larga que la cadena «la carretera Londres-Leeds tiene 300 kilómetros», y si alargáramos esta última rellenándola de espacios blancos, eso no tendría ninguna importancia representacional. Para extraer información de una representación analógica hace falta algo semejante a una escala, y este concepto es ajeno entera­ mente a las representaciones mediante oraciones. 53 McGinn, C., Mental Contenty p. 178. 54 Para un análisis más completo del concepto, véase Lewis, D., «Analog and Digi­ tal», y Haugeland, J., «Analog and Analog».

¿Somos computadores?

305

A veces se alude a las representaciones analógicas llamándolas modelos. Quizá el cerebro use modelos. Puede que las representacio­ nes que tiene el cerebro del mundo externo sean analógicas y sean manipuladas por procesos a su vez análogos a las manipulaciones que se pueden realizar físicamente sobre los objetos representados, tales como rotarlos o doblarlos. (De manera parecida, el modelo del arqui­ tecto se puede manipular mediante procesos análogos a las manipula­ ciones que se pueden realizar sobre el edificio real: se pueden cortar nuevas puertas en las paredes del modelo, se pueden recolocar los tragaluces, etc.) Esta es una imagen del cerebro muy diferente de la que dibuja la HFSS: representaciones oracionales manipuladas me­ diante procesos del mismo jaez que los de una máquina Von Neu­ mann. McGinn (siguiendo a Craik) ofrece este esquema del proceso de resolución de problemas en un cerebro analógico: Primero, se «traduce» un estado de cosas externo a una representación analó­ gica. En el caso más simple, esto entraña originar, en el nivel de la percep­ ción, un modelo apropiado: el estado de cosas externo causa que el cerebro construya una simulación interna del estado de cosas. Segundo, el modelo es manipulado por varios procedimientos y algoritmos que lo transforman, lo relacionan con otros modelos, operan experimentalmente sobre él. Estos procedimientos son, a su vez, análogos a otros procesos externos. Tercero, estas operaciones intérnas tendrán un resultado, o bien una acción (si el razo­ namiento era práctico) o bien una nueva creencia (si él razonamiento era teó­ rico). Éstas son las tres fases por las que pasa un ingeniero que hace un mo­ delo de un puente y son las tres fases.que entraña para el cerebro resolver un problema por medio de sus modelos internos... El pensamiento orientado a problemas experimenta sobre representaciones analógicas originadas y alma­ cenadas en el cerebro. Proyecta, por así decir, ensayos previos con copias o réplicas hechas en el cerebro5556.

Esta otra imagen posible puede ser más vaga incluso que la HFSS, pero es eso, una posibilidad?6. El psicólogo Irving Biederman ha propuesto recientemente que en la visión, en particular en el reconocimiento visual, el cerebro usa 55 McGinn, C , Mental Content, p. 180. 56 Mucha gente ha señalado que el uso de modelos analógicos simplifica considera­ blemente el problema del marco (capítulo 5). En un modelo analógico dinámico, la ac­ tualización se consigue, hasta cierto punto, gratis, y la información sobre los cambios subsiguientes se puede extraer mediante un proceso parecido a la observación.

306

Inteligencia artificial, Una introducción filosófica

una especie de representación analógica conocida como representa­ ción geónica5758.Las unidades básicas de estas representaciones son los geones, que son volúmenes generalmente simétricos tales como cilin­ dros , bloques paralelepípedos, esferas, conos, cuernos, cuñas y lámi­ nas rectangulares planas. La idea de Biederman es que es posible reconstruir aproximadamente los objetos sobre los que se fijan nues­ tros ojos mediante grupos de geones. Por dar unos cuantos ejemplos sencillos, se puede construir aproximadamente una lámpara de mesa mediante un cono truncado (que representa la pantalla) y un cilindro (que representa el pie), y una linterna se puede representar con un ci­ lindro alargado (el cuerpo), otro cilindro más ancho y achaparrado (donde va la bombilla) y un pequeño paralelepípedo (el interrup­ tor) 5S. (Dos lámparas de mesa de figura idéntica pero distinto tamaño se pueden representar mediante dos grupos de volumen diferente)59. Los geones forman la base de un poderoso sistema de representación. Biederman estima que un sistema que use sólo 36 geones primitivos tendría el potencial para representar 154 millones de objetos que consten de tres o menos segmentos principales, cifra considerable­ mente superior al número real de objetos que un adulto puede reco­ nocer. Se pueden combinar representaciones geónicas para formar repre­ sentaciones de escenas y objetos complejos. Una representación geó­ nica de un objeto muy complejo, como una lanzadera espacial, se puede generar a partir de las representaciones geónicas de sus com­ ponentes, disponiéndolos de modo que se obtenga un modelo de las relaciones espaciales entre los componentes. Biederman observa que la fuerza del método geónico de repre­ sentación deriva esencialmente de la misma fuente que el método oracional. En ambos casos, el poder de representación deriva del enorme número de combinaciones que surgen a partir de un número modesto de elementos básicos. En el habla las relaciones se limitan a ordenamientos por la dere­ cha o por la izquierda (secuenciales). En el dominio visual hay un con­ junto más rico de relaciones posibles que permite una capacidad de repre­ 57 Biederman, L, «Recognition by Components: a Theory of Human Image Un­ derstanding». 58 Biederman, L, ibidem, p. 130. 59 Biederman, L, ibidem, p. 119.

¿Somos computadores?

307

sentación más rica a partir de un número comparable de elementos básicos60.

En este contexto, uno de los aspectos más interesantes de la re­ presentación geónica es que, como las representaciones oracionales, posee una estructura recursiva 61. Una representación geónica se de­ fine como una colectividad de representaciones geónicas relacionadas espacialmente entre sí. Esto posee el mismo tipo de «circularidad» que la definición recursiva de «identificador» que di en la sección 4.2: el término «representación geónica» aparece en los dos lados de la definición. La «espiral recursiva» descansa en los geones mismos, que son las representaciones geónicas más simples. Los sistemas de representación recursivos son productivos. Se pueden combinar los geones básicos para formar cantidades en prin­ cipio ilimitadas de representaciones geónicas (de objetos reales e irrea­ les). Además, las representaciones geónicas parecen ser sistemáticas en el sentido de Fodor. Si se poseen los recursos geónicos para repre­ sentar un gato sentado encima de una persona, también tenemos los recursos para representar una persona sentada encima de un gato. El sistema geónico demuestra que los sistemas de representación analó­ gicos pueden ser productivos y sistemáticos. Cada uno de los tres argumentos en favor de HFSS invita a una respuesta escéptica. La hipótesis del mentalés es una respuesta al enigma de la unión de la carne y el significado, pero no es la única posible. El cerebro podría forjar sus representaciones por medio de modelos mentales, no oraciones de mentalés. Se podrían explicar las paradojas de la intencionalidad postulando que el cerebro es capaz de representar el mismo hecho de varias maneras, pero esas representa­ ciones podrían ser analógicas. Se puede dar cuenta de la productivi­ dad y la sistematicidad mediante la hipótesis de que pensamos en mentalés, pero también con la hipótesis de que pensamos en un me­ dio analógico.

60 Biederman, I., «Recognition by Components: a Theory of Human Image Un­ derstanding», p. 116. 61 Michael Corballis hace esta observación {The Lopsided Ape, p. 222).

308

Inteligencia artificial. Una introducción filosófica

9.8. El significado de «computador» «Pero aunque el cerebro no fuera un manipulador de símbolos, podría ser un computador de otro género.» Esta es una apreciación natural en este punto de la discusión, y es verdad, desde luego, que se puede ampliar el significado de la palabra «computador» de manera que los manipuladores de símbolos sólo sean un tipo de computador. Me gustaría señalar los peligros de estos juegos de palabras. Turing predijo en cierta ocasión que al cabo de cincuenta años el significado de la palabra «pensar» cambiaría tanto que «se podrá ha­ blar de máquinas pensantes sin temer ser contradecido»62. Creo, aná­ logamente, que dentro de cien años, el significado de la palabra «computador» habrá cambiado tanto que se podrá llamar compu­ tador al cerebro sin temor de ser contradecido. Los términos técnicos cambian de significado. Por ejemplo, los oficiales de marina a me­ nudo llaman «radar» a los equipos de sonar, una extensión razonable, puesto que «ambos» realizan una función similar y se usan de manera semejante (en los sentidos originarios de los términos, los equipos de radar detectan los objetos distantes por medio de ondas de radio y los de sonar por medio de ondas sonoras). Los sucesores de los com­ putadores actuales retendrán, sin duda, el nombre «computador», sean o no manipuladores de símbolos. Sin embargo, eso no nos exime de la obligación de asignar, aquí y ahora, un significado preciso a la palabra «computador». Es necesario para que la discusión no sea vaga y confusa. Al fin y al cabo, no aclara mucho decir que el cerebro es un computador en un sentido todavía completamente oscuro de la palabra. En realidad, eso significaría sim­ plemente que el cerebro es el cerebro. Si la hipótesis de que el cerebro es un computador es una afirmación definida, la palabra «computa­ dor» debe tener un significado preciso. El significado al que me he ajustado en este libro es el declarado en el capítulo 4: un computador es un sistema universal de símbolos. Repasaré algunas alternativas con vistas a defender esta definición. Una forma perfectamente legítima de hablar es decir que un com­ putador es algo que computa en el sentido originario de la palabra, esto es, calcular. Así, un diccionario define un computador como «una calculadora, una máquina o aparato... para realizar cálculos es­ 62 Turing, A. M., «Computing Machinery and Intelligence», p. 442.

¿Somos computadores?

309

pecialmente complejos» 63. Von Neumann favoreció esta definición. Señalaba que «una máquina computadora en sentido propio» es una máquina capaz de realizar operaciones aritméticas64. Si se define así la palabra «computador», es indiscutible que el cerebro humano es un computador, pues podemos hacer aritmética mental. Aparte de otras cosas, el cerebro es ciertamente un aparato que puede hacer cálculos. Una victoria sin sangre, pero vana. La cuestión de si el cerebro es un computador pierde todo interés si el significado de la palabra «computador» se amplía tanto que la cues­ tión se decide por nuestra simple capacidad de sumar dos y dos. Quizá debería insistir en que no estoy polemizando con el diccio­ nario. La definición del diccionario da una explicación correcta de la palabra «computador» en su sentido más general. Lo importante es que esta definición hace trivial la teoría de que el cerebro es un compu­ tador; de modo que quien crea que ésta es una teoría seria e intere­ sante tiene que usar la palabra «computador» de una forma diferente y menos general. Algunos autores modernos definen la computación, no como el procesamiento de cadenas de símbolos, sino como el procesamiento de cualesquiera representaciones 65 (volviendo a la sección 9.4, las re­ presentaciones son aquellos estados de una máquina o un órgano que sirven para describir hechos acerca del mundo externo). Otros auto­ res consiguen el7mismo efecto conservando la palabra «símbolo» en la definición de computación, pero con un significado más amplio que abarca cualquier tipo dé representación66. Estas propuestas pade­ cen el mismo mal que la definición del diccionario: despojan la afirmación de que el cerebro es un computador de gran parte de su interés. Porque el enunciado dé que el cerebro contiene y procesa re­ presentaciones no dice sino que el cerebro se usa para razonar sobre estados de cosas posibles y actuales del entorno, o poco más. La cuestión de si el cerebro es un procesador de representaciones o no (y un computador en este sentido) es, indudablemente, empírica: al fin y 65 Chambers Concise 20th Century Dictionary. 64 Von Neumann, J., The Computer and the Brain, p. 75. 65 Véanse, por ejemplo, Patricia Churchland, Neurophilosophy, p. 9; Paul Churchland, «Some Reductive Strategies in Cognitive Neurobiology», p, 281. Andras Pellionisz vitupera este cambio de terminología en «Oíd Dogmas and New Axioms in Brain Theory». 66 Anderson, J. A., e Hinton, G. E., «Models of Information Processing in the Brain», pp. 29-30; Young, J. Z., Philosophy and the Brain, p. 139.

310

Inteligencia artificial Una introducción filosófica

al cabo, los antiguos griegos pensaban que el cerebro no era más que un refrigerador de la sangre, e incluso los conductistas de hace pocas décadas decían cosas bastante raras sobre el cerebro. Sin embargo, esa cuestión no es de las punteras en la investigación moderna del cere­ bro. El problema candente es si las representaciones que usa el cere­ bro son cadenas de símbolos de tipo oracional o algo completamente distinto67. Así, pues, lo que hace falta es una definición de la palabra «com­ putador» que logre dar un sentido no trivial a afirmaciones como «los computadores pueden pensar» y «el cerebro humano es un com­ putador». Prefiero llamar «procesador de información» a cualquier ingenio que procese representaciones, y reservar la palabra «computa­ dor» para un ingenio que procese representaciones que consten de cadenas de símbolos en el sentido originario: las cadenas composicionales, estructuradas recursivamente, cuasi lingüísticas, descritas en el capítulo 4. Entonces la pregunta de si el cerebro es o no un compu­ tador evita la trivialización que sufre a manos, de las otras definicio­ nes que he examinado, y el hecho relativamente incontrovertido de que el cerebro crea y manipula representaciones se puede resumir en el enunciado de que el cerebro es un procesador de información. Una salvedad importante. Sería ingenuo olvidar que el avance arrollador del conocimiento científico ha acarreado la ruina de mu­ chas recomendaciones terminológicas que en su día parecieron razo­ nables. Es posible que la investigación futura muestre que la actividad del cerebro es a la vez semejante y diferente de la manipulación de ca­ denas de bits en aspectos sobre los que ahora ni siquiera podemos es­ pecular. En este caso, mi recomendación terminológica dejaría sin respuesta la pregunta «¿el cerebro es un computador?». Igualmente, la pregunta de si la Tierra se mueve alrededor del Sol ha caído desde Einstein en ese limbo, por más que una vez condujera a Galileo ante la Inquisición. En resumen, la HFSS es una conjetura provocadora y fascinante que es en la actualidad objeto de una intensa investigación68. Toda­ 67 Aunque algunos filósofos desestiman la importancia del concepto de representa­ ción. Por ejemplo, Stich, S., From Folk Psychology to Cognitive Science, 68 Algunas de las investigaciones más importantes hasta la fecha han tenido lugar en el área de la adquisición del lenguaje. Para una revisión, véase Fodor, J., The Lan­ guage of Thought, cap. 3; Pinker, S., y Prince, A., «On Language and Connectionism:

¿Somos computadores?

311

vía es pronto, pero no hay hasta el momento ninguna razón positiva para creer que el cerebro es —o es en parte— un computador. No hay aún indicios empíricos netos en favor de la hipótesis, y los argu­ mentos filosóficos que hemos examinado no suministran mucha co­ rroboración. El próximo capítulo se ocupa de investigaciones que parecen anunciar un tipo enteramente nuevo de máquina procesadora de in­ formación. Estas investigaciones rompen de raíz con el enfoque tra­ dicional de la IA. Las máquinas que se están desarrollando tienen un funcionamiento muy diferente del de los manipuladores de símbolos, y si en un futuro lejano se demostrara que son capaces de pensar, eso no sería una verificación de la hipótesis del sistema de símbolos. Al contrario, representaría el triunfo de un enfoque nuevo, todavía no bien comprobado, de la IA. La existencia en embrión de estos nuevos procesadores de información ha socavado dolorosamente la con­ fianza en la hipótesis de que el cerebro es un computador.

Analysis of a Parallel Distributed Processing Model of Language Acquisition»; Pinker, S., Language Leamability and Language Development; Berwick, R. C., y Weinberg, A. S., The Grammatical Basis of Linguistic Performance; Language Use and Acqui­ sition.

Capítulo 10 UN NUEVO PUNTO DE PARTIDA PARA LA IA: EL PROCESAMIENTO DISTRIBUIDO EN PARALELO

Las grandes colecciones de neuronas pueden, en efecto, pensar. Por tanto, quizá sea sorprendente que los investigadores de la IA ha­ yan dedicado tanto esfuerzo a programar computadores disponibles en el comercio y tan poco a construir e investigar redes de neuronas artificiales. En la Conferencia de Dartmouth se trató sobre las poten­ cialidades de este enfoque —la «simulación neuronal», como se le llama a veces— para lograr la IA, pero durante años fue canónico en la IA tradicional sostener que la simulación neuronal es una pérdida de tiempo. Los investigadores que se aproximaron a la IA en los años 60 y 70 no veían mucho objeto a intentar construir un tipo entera­ mente nuevo de máquina basada en el cerebro humano, poco com­ prendido y prohibitivamente complejo, cuando estaba a mano el computador de Von Neumann, y además funcionaban programas pe­ queños, pero impresionantes como el GPS, Shrdlu y Sam. En 1969 Marvin Minsky y Seymour Papert sometieron a una crítica demole­ dora la obra de un investigador que se tomó en serio la simulación neuronal, Frank Rosenblatt1. 1 Rosenblatt llamaba «perceptrones» a sus redes artificiales de neuronas (véanse sus Principles of Neurodynamics). En su libro Perceptrons, Minsky y Papert mostraron 312

Un nuevo punto de partida para la IA

313

De pronto, estas apreciaciones tradicionales sufren un ataque generalizado desde dentro. Un grupo de investigadores desilu­ sionados del enfoque convencional de la IA han resucitado las ideas de Rosenblatt y comenzado a experimentar con pequeñas redes de neuronas artificiales. Sus resultados son alentadores. Las redes que ha construido el grupo despliegan una capacidad casi misteriosa para organizarse y, una vez organizadas, comportarse como si contuvieran programas de computador. Las redes operan muy en paralelo y almacenan información de manera distribuida (véase la sección 9.2, donde están las explicaciones dé los térmi­ nos paralelo y distribuido). El grupo ha bautizado su aproxima­ ción a la IA «Procesamiento Distribuido en Paralelo», PDP en abreviatura.1 que los mecanismos de Rosenblatt eran incapaces de calcular una clase particular de fun­ ciones (las llamadas funciones linealmente inseparables). En esta clase caen muchas fun­ ciones importantes, y él ámbito de la comunidad de la IA tomó este resultado como el epitafio del perceptrón. Parte del problema era que los ingenios de Rosenblatt sólo cons­ taban de dos estratos de neuronas artificiales (se presentaba la entrada en un estrato y la saüda’se leía en el otro). Minsky y Papert mostraron que si se insertaban entre ambos más niveles de «neuronas», los ingenios resultantes podrían calcular funciones lineal­ mente inseparables. Pero no se vio esto como la salvación de Rosenblatt, porque su algo­ ritmo para ajustar las conexiones de las «neuronas» para garantizar las salidas correctas a partir de las entradas (conocido como procedimiento de convergencia del perceptrón) deja de ser fiable cuando se introducen los llamados estratos pcultos (véase nota 7), lo cual condujo a Minsky y Papert a condenar como «estéril» el proyecto de ios niveles in­ termedios (p. 232). Los estratos ocultos se usan ahora tranquilamente en el procesa­ miento distribuido paralelo, y la búsqueda de métodos sistemáticos para ajustar las mirí­ adas de conexiones en estos «perceptrones ampliados» es un área fundamental de investigación. En la tabla que sigue se da una función que no puede calcular el percep­ trón de dos niveles. La idea es que se presenta como entrada del perceptrón el par It I2, y O es la salida buscada. I,

I2 O

1 1 0 0

1 0 1 0

0 1 1 0

Esta función tiene una importancia particular, pues representa la operación lógica bá­ sica XO (o excluyeme). Un ejemplo de enunciado con XO es «usted puede reclamar o bien el descuento A o bien el descuento B»: el enunciado es falso si usted puede reclamar ambos descuentos o ninguno, y es verdadero en los demás casos. Rumelhart, D. E., Hin­ ton, G. E., y Williams, R. J., «Learning Internal Representations by Error Propagation», p. 321, describen una sencilla red para XO con una sola «neurona» oculta.

Inteligencia artificial. Una introducción filosófica

314

La IA ha sido siempre un campo de grandes esperanzas y monu­ mentales predicciones. El PDP no es una excepción. «Es verosímil que [el PDP] ofrezca el progreso más significativo de los últimos mi­ lenios en el problema mente/cuerpo», escribe el psicólogo e informá­ tico Paul Smolensky2. (Hubert Dreyfus, como siempre pinchando el globo, desinfla la exageración afirmando que no es verosímil que los próximos veinte años de investigación en PDP produzcan una red con la capacidad intelectual de una babosa3.) Hasta la fecha, los éxi­ tos del PDP han sido modestos, y en muchos sentidos más modestos que los de la IA tradicional. Las redes construidas hasta ahora son minúsculas en comparación con el cerebro humano, y su actuación, aunque fascinante, es trivial cuando se la compara con la de organis­ mos inferiores como la hormiga o la lombriz de tierra. La teoría ma­ temática del funcionamiento de las redes PDP está aún en un estado primitivo, y la investigación de laboratorio entraña mucho juego de ensayo y error con las enormes cantidades de conexiones que unen las neuronas artificiales. El PDP está en su infancia. Sus defensores conceden que «hay serios obstáculos que superar para que [el enfo­ que] pueda ofrecer... una potencia comparable a la de la computación simbólica» (Smolensky otra vez4). Estará bien avanzado el siglo pró­ ximo antes de que podamos juzgar la verdadera significación de este nuevo y emocionante desarrollo de la IA. 10.1. Las ideas básicas Una neurona se considera una unidad que está activa o inactiva,; dispax*a o no dispara (sección 9.2). Dispara si a su vez dispara un nú­ mero suficiente de neuronas conectadas con ella. Para aclarar los de­ talles, consideremos una neurona muy simplificada con tres conexio­ nes de entrada procedentes de otras neuronas (figura 10.1). Las tres fibras de entrada serán denominadas AB, AC y AD. Se sabe que las conexiones neuronales tienen diferente «fuerza» (o «peso» o «factor de conductividad»). Ésta está determinada en parte por el diámetro de la fibra conectora y en parte por la composición química de la unión o sinapsis entre la fibra de salida de una neurona 2 Smolensky, R, «On the Proper Treatment of Connectionism», p. 3. 3 Citado en The Economist, 29 de junio de 1985. 4 Smolensky, P., «On the Proper Treatment of Connectionism», p. 2.

Un nuevo punto de partida para la IA

315

FIGURA 10.1. La neurona dispara una descarga p o r sus fibras de salida cuan­ do la sum a pon derada de sus entradas sobrepasa su um bral

y la fibra de entrada de la otra. Supongamos que la fuerza de las co­ nexiones de AB, AC y AD es, respectivamente, 1, 2 y 3. Esto signi­ fica, en efecto, que la conexión AC «amplifica» el desencadenamiento de la actividad de la neurona C por un factor de 2 y AD «amplifica» el desencadenamiento de D por un factor de 3. Así, desde el punto de vista de la neurona A, el efecto de que se ponga en marcha la neurona C es doble que el de que se ponga en marcha la neurona B, y el de que se ponga en marcha D es triple que el de que se ponga en marcha la neurona B. Una forma simple de describirlo es que cuando B, C

316

Inteligencia artificial. Una introducción filosófica

y D están activas, la entrada total de A es 6 «unidades de cuenta»: 1 unidad de B, 2 de C y 3 de D. Si sólo están activas B y D, la entrada total es 4, y así sucesivamente. El umbral de una neurona es la entrada mínima que hará que se ponga en marcha. Supongamos que el umbral de A es 4. Esto signi­ fica que A dispara si C está inactiva, pero B y D están activas, puesto que entonces la entrada total es 4. A dispara también cuando están activas todas, B, C y D (entrada total = 6) y cuando C y D están acti­ vas, pero B inactiva (entrada total = 5). Sin embargo, si B y C están activas y D inactiva, la entrada total, 3, es inferior al umbral y la neu­ rona no dispara. Se sabe que algunas conexiones neuronales son inhibitorias. Tie­ nen exactamente el efecto contrario al de las conexiones que acabo de describir (que se llaman excitatorias). Para ver cómo funcionan, su­ pongamos que AC es ahora una conexión inhibitoria de fuerza 2. Si están activas B y D, pero no C, la entrada total es 1 + 3, por lo que la neurona A dispara (el umbral de A sigue siendo 4). Sin embargo, si B, C y D están todas activas, la entrada total es 1 + 3 - 2, donde el «- 2» es la contribución inhibitoria. Puesto que la entrada total ahora es in­ ferior al umbral, la neurona no dispara. Ejercicio rápido Sea 2 el umbral de A. Como antes, AB es excitatorio, con fuer­ za 1; AC es inhibitorio, con fuerza 2, y AD excitatorio, con fuerza •. ¿Dispara A cuando • B está inactiva, C está inactiva y D está activa? • B está inactiva, C está activa y D está activa? • B está activa, C está activa y D está activa? (Las respuestas se dan en la nota5.) Las redes PDP Los bloques constituyentes básicos de una red son unidades sim­ ples del tipo de los interruptores que están activas o inactivas. Éstas 5 Sí; no; sí.

U n nuevo punto de partida para ía IA

317

son las neuronas artificiales. Una red consta de un cúmulo densa­ mente interconectado de estas unidades. Algunas conexiones son ex­ citatorias y algunas inhibitorias. Cada conexión tiene una fuerza es­ pecífica y cada unidad tiene un umbral. En cierto sentido, estas redes operan de una forma extremada­ mente simple. Lo único que ocurre es que las unidades mismas se ac­ tivan o desactivan en respuesta a los estímulos que reciben de sus ve­ cinas. Cuando la entrada total que recibe una unidad de sus vecinas iguala o excede su umbral, se activa, y tan pronto como la entrada to­ tal cae por debajo del umbral, se vuelve a desactivar. Este sencillo principio de operación lleva a una conducta global grotescamente complicada. Puesto que todas las unidades están interconectadas, di­ rectamente o a través de unidades intermedias, todas influyen en otras y los patrones de interacción son tan complejos cono las rutas de las conexiones (véase la figura 10.2). Cuando cualquier unidad salta a un estado de activación o de inactividad, los efectos se dejan sentir en toda la red, las olas de la excitación y de la inhibición causan que otras muchas unidades se enciendan o se apaguen. La red es una colmena rumorosa de interacciones paralelas, donde las unidades cau­ san que unas enciendan y apaguen a las otras frenéticamente. Predecir la conducta de una red de sólo unas cuantas docenas de unidades es una tarea temiblemente complicada. Para hacerse cargo de la complejidad de7la situación, imaginemos una docena de bolas de billar rodando por una mesa. Como las bolas chocan, influyen en el movimiento de las demás, directa o indirectamente, y, a través de una cadena de colisiones, la influencia puede incluso, mediante un bucle, afectar a su propio movimiento. Es bien sabido que las matemáticas de situaciones semejantes tienen la propiedad de inspirar horror. Entradas y salidas Imaginemos que las unidades de la red están dispuestas en estra­ tos (figura 10.2). Las unidades del estrato superior o de entrada están preparadas de forma que el operador las puede «fijar» en posición ac­ tiva o inactiva, y con ello sujetar su tendencia a cambiar de estado en respuesta a la actividad de sus vecinas. Para «computar» con una red, se fijan las unidades del nivel superior en un patrón de activación ó desactivación. Este patrón es la entrada. Las repercusiones de esta perturbación se transmiten a lo largo de la red en un ciclo tras otro de

Inteligencia artificial. Una introducción filosófica

318 Estrato de entrada

1r

Estratos ocultos

Estrato de salida

F igura 10.2. Conexiones entre los estratos de neuronas artificiales en una red P D P

actividad paralela. La reacción violenta amaina gradualmente y la red acaba por instalarse en un estado estable y amortiguado. Dicho meta­ fóricamente, la red se tranquiliza poco a poco según va descubriendo la manera de vivir en armonía con la entrada, hasta que por último cristaliza en una configuración determinada, con algunas unidades permanentemente activas y otras permanentemente inactivas. La red «encuentra» el estado en el que las demás unidades viven en equili­ brio con el estrato fijo de la entrada. Una vez que la red se ha acomo­ dado a la entrada, la salida se lee en el estrato inferior. La salida es, si podemos decirlo así, uno de los «bordes» del patrón estable en que

U n nuevo p u nto de partida para la IA

319

cae la red. Se describe una aplicación significativa de este procedi­ miento computacional en la sección 10.2. En la práctica, un patrón dado de entrada es capaz generalmente de producir varios estados estables distintos: el más «tranquilo» y va­ rias «treguas incómodas», estados lo bastante estables para impedir que la red busque una forma más armoniosa de acomodarse a la en­ trada. Si una red se instala en uno de esos estados de compromiso se «colgará» y nunca producirá la salida deseada. Para evitar que esto ocurra se puede disponer que las unidades operen sobre una base probabilística: una unidad puede activarse o no cuando la entrada total que recibe excede su umbral, y la probabilidad de que lo haga depende de en cuánto supera la entrada el umbral. Este «ruido de fondo» tiene la virtud de sacudir la red para sacarla de los estados de compromiso en que pueda caer. Geoffrey Hinton (inventor de un tipo de red PDP conocido como máquina Boltzmann) ha acuñado una intuitiva imagen para describir este proceso de sacar la red de sus estados de compromiso6. Imaginemos una bola que rueda sobre una placa de metal en la que se han cortado varias estrías. Una es un hoyo hondo, que representa el estado estable óptimo, y el resto son peque­ ñas ranuras superficiales apenas lo bastante profundas para atrapar la bola. Hay posibilidades de que la bola ruede hasta una de estas ranu­ ras someras y se quede, sin alcanzar la estría más profunda. Sin em­ bargo, si continuamente se hace vibrar la placa —el equivalente de añadir «ruido» al sistema— la bola saldrá de las ranuras superficiales y acabará por caer en una honda. Las conexiones adecuadas Las conexiones entre las unidades, y sobre todo sus fuerzas, des­ empeñan un papel crucial para determinar la conducta de la red. El cambio de la fuerza de una sola conexión puede lanzar una red estabi­ lizada a un estado de actividad frenética. Un operador puede configu­ rar la salida de una red a partir de una entrada determinada si modifica las fuerzas de las conexiones (puesto que si se alteran las fuerzas, la red tiene que instalarse en un estado diferente para llevar una convi­ vencia estable con la entrada). Disponer una red para que realice una tarea dada es cuestión de atinar con la fuerza precisa de cada conexión 6 Hinton, G. E., «Learning in Parallel Networks», pp. 267-70.

320

Inteligencia artificial.. U na introducción filosófica

individual* Como les gusta decir a los investigadores del PDP, el co­ nocimiento de una red «está almacenado en la fuerza de las conexio­ nes». (A menudo al PDP se le llama simplemente «conexionismo».) Entrenamiento de una red El método usado más comúnmente para disponer las redes para tareas específicas es un proceso cíclico de ajuste conocido como en­ trenamiento. Como ejemplo, consideremos la tarea de invertir un pa­ trón de entrada; esto es, recrear el patrón de entrada en orden inverso en las unidades de salida (figura 10.3). Se eligen al azar unos cin­ cuenta patrones de entrada con vistas al entrenamiento. El operador fija las unidades de entrada en el primero de estos patrones y deja que la red se instale en un estado estable. (Puesto que en esta fase la red está desentrenada, la salida que obtiene el operador seguramente no tendrá relación con el patrón deseado.) Después el operador toca los botones que ajustan las fuerzas de las conexiones a lo largo de la red. Diré algo más sobre cómo funciona esto dentro de un instante. Se re­ pite este proceso con los demás patrones de la muestra. Luego, em­ pleando los mismos patrones, el operador repite el ciclo una y otra vez. En el experimento que describe la próxima sección fue necesario repetir el ciclo casi 200 veces. Estrato de entrada

Estrato de salida

FIGURA 10.3. Inversión de un patrón de entrada

U n nuevo punto de partida para la IA

321

La clave del procedimiento de entrenamiento es, claro está, qué botones se tocan para ajustar la fuerza de las conexiones de la red. He aquí los detalles. Una vez la red se ha instalado en un estado estable, se comparan una por una las unidades de salida con el patrón de sa­ lida deseado. Si una unidad de salida que debería estar activa está inactiva, se presiona un botón para aumentar ligeramente las fuerzas de las conexiones excitatorias que llegan a esa unidad procedentes de otras unidades activas. Eso significa que la próxima vez que se dé a la red el mismo patrón de entrada será más probable que esa unidad se active (puesto que un aumento de las fuerzas de estas conexiones produce un incremento de la entrada total que la unidad recibe de sus vecinas). Igualmente, si una unidad de salida que debería estar desactivada está activa, se aprieta un botón para disminuir ligeramente las fuerzas de las conexiones excitatorias que le llegan desde unidades ac­ tivadas. (En realidad esto lo hace con un computador, y no a mano: los botones son un recurso explicativo). Se producen los mismos efectos fortaleciendo o debilitando las conexiones inhibitorias, y ele­ vando o reduciendo los umbrales de las unidades. En la práctica se usa una mezcla de ajustes. Cuando una red contiene estratos intermedios entre los de entrada y salida («estratos ocultos», como los llaman) el número de combina­ ciones posibles de ajustes es descomunal. Un área importante de in­ vestigación en PDP Consiste en idear «algoritmos de aprendizaje» para estas redes; esto es, hallar fórmulas que seleccionen combinaciones efectivas de ajustes. Hasta ahora se han descubierto pocos algoritmos, y se cree que su aplicación es limitada, aunque el progreso en el PDP depende decisivamente de avanzar en este terreno7. 7 El algoritmo descrito en el párrafo anterior es esencialmente el procedimiento de convergencia del perceptrón clásico de Rosenblatt (véase nota 1). Una generalización sencilla que se puede usar cuando hay n estratos ocultos es repetir el procedimiento n + 1 veces, empezando por el nivel de salida y retrocediendo a través de los estratos interme­ dios hasta llegar al de la entrada. Esto se conoce como propagación retroactiva. El proce­ dimiento de convergencia del perceptrón es universal, en el sentido de que se puede usar para configurar un perceptrón de dos estratos que calcule cualquier función que puedan calcular estos ingenios. Se sabe que el algoritmo de propagación retroactiva no es univer­ sal [ésta es la base del prematuro juicio de Minsky y Papert de que el enfoque de los es­ tratos ocultos es «estéril» (nota 1)]. En el momento actual no está claro cuáles son los lí­ mites del uso de este algoritmo. La escala es un problema prominente: es dudoso que se pueda usar el algoritmo para configurar una red muy grande en un tiempo razonable. (Se describen algunos estudios empíricos del algoritmo en Rumelhart, D. E., Hinton, G. E, y Willliams, R. J., «Learning Internal Representations by Error Propagation».)

322

Inteligencia artificial- U na introducción filosófica

Lo' llamativo es que, una vez acabado el entrenamiento, la red puede invertir no sólo los patrones de la muestra, sino patrones que nunca se ha encontrado antes. A partir de los ejemplos de la muestra, la red aprende el principio general de la inversión. Cada una de las inversiones de la muestra de entrenamiento plantea sus propias exi­ gencias a las conexiones de la red y, así, cada paso del ciclo de .en­ trenamiento empuja ligeramente las fuerzas de las conexiones en direcciones ligeramente distintas. El efecto de repetir el ciclo de en­ trenamiento muchas veces es crear un sistema de fuerzas de conexio­ nes que vale para todas. La mera repetición pone a punto una confi­ guración de fuerzas que se acomoda a las diferentes necesidades de cada inversión de la muestra. Mientras la muestra de entrenamiento contenga la diversidad suficiente para representar todas las exigencias que pueda plantear a las conexiones cada inversión, esta configura­ ción de fuerzas permitirá a la red invertir patrones de entrada que no pertenezcan a la muestra. Vale la pena destacar que el procedimiento tde ajuste de las fuerzas de las conexiones no incorpora «inteligencia». Si una unidad que de­ bería estar activa está inactiva, el procedimiento se limita a localizar las conexiones excitatorias activas que conducen hasta esa unidad y mecánicamente aumentar la fuerza de cada una de ellas en la misma cantidad (y al contrario las conexiones inhibitorias). El procedi­ miento es invariable en todas las tareas de aprendizaje. Supongamos que los patrones de salida en el entrenamiento no deben ser los inver­ sos, sino los conversos de los patrones de entrada; esto es, el resul­ tado de reemplazar cada «activo» del patrón de entrada por un «inac­ tivo» y cada «inactivo» por un «activo». El entrenamiento con esta muestra dará a la red la capacidad de formar conversos en vez de in­ versos, sin ningún cambio en los procedimientos de ajuste. Los investigadores del PDF insisten en que esto tiene mucho mé­ rito. Una crítica dirigida a menudo contra los programas tradiciona­ les de IA es que toda su «inteligencia» es de segunda mano, un pálido reflejo de la inteligencia humana que requiere analizar el problema e inventar las reglas que llevan al computador a la solución. Las redes PDP, por el contrario, parten de cero. Puede que la inversión sea una tarea trivial, pero por lo menos la red aprende a hacerla sin que le ayude un programador. Puede que estas redes que se organizan solas nos ofrezcan una visión muy simplificada de los mecanismos que subyacen a nuestra capacidad de aprender.

U n nuevo punto de partida para la IA

323

10.2. Lecciones de inglés Ni con la mejor voluntad del mundo es fácil dejarse impresionar con la noticia de que las redes PDP son capaces de aprender cosas como crear el inverso o el converso de la entrada. Esta sección describe algo más emocionante. Los campeones de la revolución PDP, James McClelland y David Rumelhart, han entrenado una red para que produzca los tiempos pretéritos de los verbos ingleses8. La red es capaz dé contestar co­ rrectamente en verbos que no ha encontrado durante el entrena­ miento? e incluso cuando el verbo no es regular, la red da a menudo correctamente el pretérito (por «regular» se entiende el verbo cuyo pretérito se forma añadiendo «ed» a la raíz del verbo: push/pushed, pull/pulled). Cuando a la red entrenada se le presentó por vez pri­ mera el verbo guard, respondió guarded; y, lo que es más llamativo, contestó wept cuando por primera vez tropezó con weep; respondió clung a cling y dripped a drip (obsérvese la «p» doble). Un problema básico al que se tuvieron que enfrentar Rumelhart y McClelland mientras planeaban el experimento fue el de representar los verbos ingleses de manera asequible para la red. Les llevó dos años encontrar un método que sirviera. Este gran gasto de tiempo y cavilaciones ilustra la dificultad del PDP. Los iniciadores de la compu­ tación simbólica tuvieron pocos problemas para idear un sistema ge­ neral de conversión de palabras y otras informaciones a una forma que pudiera usar el computador: el método habitual de asignar códi­ gos binarios a las letras del alfabeto, etc. Por el contrario, uno de los aspectos más espinosos de la investigación en PDP es inventar méto­ dos para presentar información a las redes. El método que usaron Rumelhart y McClelland es en realidad extremadamente restringido. Antes de darles un uso más serio a las redes PDP hay que ingeniar sistemas generales y poderosos de representación. Voy a pasar por alto los embrollados detalles del método de Ru­ melhart y McClelland. En líneas generales, los verbos se analizan en conjuntos de rasgos fonéticos especiales (llamados «rasgos Wickel»9). Cada una de las unidades de los estratos de entrada y de salida (hay 8 Rumelhart, D. E., y McClelland, J. L., «On Learning the Past Tenses of English Verbs». 9 Por el lingüista Wickelgren. Para un tratamiento completo, véase la referencia ante­ rior, pp. 233-9.

324

Inteligencia artificial. U n a introducción filosófica

460 en cada nivel) se emplea para representar un rasgo. Los experi­ mentadores fijan en activa o inactiva cada unidad de entrada según esté o no presente el rasgo fonético que representa en el verbo con­ siderado. El entrenamiento de la red comenzó con una mezcla de diez ver­ bos regulares e irregulares. También los niños comienzan por apren­ der de memoria un pequeño manojo de pretéritos, y RumelKárt y McClelland eligieron deliberadamente una muestra típica del re­ pertorio infantil inicial de pretéritos, verbos como carne, got, gave, looked, needed, took y went. El entrenamiento consistió en presen­ tar la raíz de un verbo (come, go, etc.) al estrato de entrada, com­ parar luego las salidas reales con las deseadas y ajustar las fuerzas de las conexiones como se ha dicho en la sección anterior. La red fue ca­ paz de producir sola los tiempos pretéritos después de exactamente diez ciclos de entrenamiento (esto es, diez ciclos de exposición a la muestra). Después de esto, añadieron aproximadamente 400 verbos a la muestra (de los que más o menos el 80 por 100 eran regulares). La red necesitó 190 ciclos de entrenamiento para dominarlos. En esta fase la red fue capaz de responder a verbos que no había encontrado nunca, y acertó kept a partir de keep y clung a partir de cling. Durante el en­ trenamiento, las conexiones de la red adquirieron la relación «añadir ~ed» y las más sutiles relaciones que existen entre la entrada y la sa­ lida en el caso de los verbos irregulares. La adquisición de este cono­ cimiento por parte de la red fue el resultado exclusivo de repetidos ajustes mecánicos de las fuerzas de las conexiones, y el experimento es un bonito ejemplo de una máquina que «aprende sola». Pero la red sólo acertaba en el 70 por 100 de sus respuestas, aproximadamente. Algunos de sus fallos más clamorosos fueron squawked a partir de squat, shipped a partir de shape y membled a partir de mail. Estos errores, en particular, están producidos por lo que se llama «mezclar» i0. Un ejemplo menos extremo de formación de una mez­ cla es «ated» a partir de las respuestas «ate» y «eated». Las redes PDP son proclives a cometer errores de esta naturaleza. Mientras «crecía», la red cometió algunos de los errores que come­ ten los niños con los verbos. Después de las diez primeras sesiones, 10 Para un estudio de la «mezcla», véase Pinker, S., y Prince, A., «On Language and Connectionism: Analysis of a Parallel Distributed Processing Model of Language Ac­ quisition», p. 136-45.

U n nuevo p u n to de partida para la IA

325

la.red era capaz de formar correctamente el pasado de come y go —como los niños pequeños—, pero cuando empezó a aprender la muestra más amplia, comenzó a regularizar más de la cuenta, y a pro­ ducir respuestas como comed, goed y wented. Con el tiempo se debi­ litó la adhesión al principio «añadir -ed» y la red volvió a carne y went* Es probable que la semejanza con los niños no tenga ninguna significación. La sobrerregularización se produjo debido a la transición de la muestra inicial, que sólo contenía dos verbos regulares, a una muestra en que predominaban los verbos regulares. No hay datos de que la sobrerregularización de los niños esté también precedida por un gran cambio en la proporción de verbos regulares que encuentran11. Este experimento de apariencia inocente constituye, en realidad, un serio reto para el punto de vista ortodoxo. Entre los científicos cognitivos siempre ha sido muy popular la teoría de que el cerebro principalmente inicia y controla la conducta siguiendo reglas (sec­ ción 5.5), y las reglas lingüísticas siempre han sido uno de los ejem­ plos favoritos. La red, sin embargo, no emplea reglas para producir su salida. El concepto de programa es enteramente extraño al modo como opera la red (la sección 10.4 abunda en esto). La consecuencia para la teoría ortodoxa es clara: es muy posible que seguir incons­ cientemente una regla no desempeñe ningún papel en la producción del habla humana. Si la red no necesita un programa, entonces quizá tampoco lo necesite el cerebro humano. 10.3. ¿Despertar de una pesadilla? Uña de las obsesiones principales de la IA tradicional es la dificul­ tad de programar computadores para que reconozcan que objetos di­ ferentes pero semejantes son ejemplos del mismo tipo de cosa. A ve­ ces se le .llama el problema de la clasificación. Fijémonos en la letra a escrita por distintas manos. Las dos difieren, quizá drásticamente, pero es posible que la mayor parte de la gente que usa alfabeto latino sea capaz de reconocer que los dos patrones de marcas de tinta son instancias de la misma letra, sobre todo si viene en su ayuda un con­ texto circundante. Los computadores, en cambio, son extremada­ mente torpes en estas tareas. 11 Pinker, S., y Prince, A., «On Language and Connectionism: Analysis of a Parallel Distributed Processing Model of Language Acquisition», pp, 136-45.

326

Inteligencia artificial. U na introducción filosófica

La pesadilla de un programador sería intentar escribir un con­ junto de reglas de reconocimiento que incorpore las descripciones de un ámbito razonablemente amplio de las variaciones que puede sufrir la letra a. Echemos un vistazo a la figura 10.4 para comprobarlo. Otra pesadilla dentro de la pesadilla es que un conjunto de reglas que abar­ cara las aes y las aes mayúsculas cogería también un buen puñado de ues, haches mayúsculas, oes, bes, des y efes mayúsculas y es. Se ha reconocido hace tiempo que los problemas que subyacen al reconocimiento de letras son de los más rebeldes de la IA, (Como dijo una vez Douglas Hofstadter, «el problema central de la IA es: ¿qué son la a y la í ?» 12.) En áreas muy diversas se cosechan los mis­ mos problemas, y es esta ubicuidad lo que hace del problema de la clasificación uno de los fundamentales de la IA. ¿Se puede programar un computador para que reconozca mi cara sonriendo en una fiesta cuando, hasta el momento, sólo me ha visto fruncir el ceño ante su

F igura 10.4. Algunas variantes de la letra «A» que se encuentran en el.ca­ tálogo de L etraset

n Hofstadter, D., Metamagkal Themas: Questing for the Essence of Mind and Pat­ tern, p. 633.

Un nuevo punto de partida para la IA

327

ojo de TV en el laboratorio, y además antes de quitarme la barba? ¿Se puede proporcionar a un computador la capacidad intuitiva del aje­ drecista humano para ver como esencialmente iguales dos posiciones de partidas diferentes, aunque el número de piezas y las posiciones exáctas sean distintas? ¿Cómo se puede programar un computador para que entienda el habla de personas cuyas voces nunca ha escu­ chado? Y así sucesivamente. Los intentos de escribir programas que identifiquen caras o en­ tiendan el habla natural se han empantanado, soberanamente, en la prolijidad de descripciones necesarias para dar un tratamiento realista de las variantes que puede haber en los objetos. Puede que el PDP tenga la virtud de sacar a la IA de esta pesadilla, y el concepto de con­ texto parece ser la clave. La maldición del contexto1314 Las letras se entienden mucho mejor en un contexto que aisladas, como ilustra la figura 10.5. También la figura 10.4 contiene varias aes que no se podrían identificar sin un contexto. El contexto desempeña un papel igualmente importante en la identificación del habla. Un experimento que demuestra esto em­ plea sujetos que'escuchan cintas magnetofónicas con lenguaje hu­ mano grabado, pero manipuladas aquí y allá con la inclusión de breves chasquidos audibles H. Así, el sujeto puede escuchar legisla­ tura,t en la que el * es un chasquido colocado cuidadosamente para ocultar el sonido de la s. El contexto que suministran los fonemas circundantes induce a los sujetos a interpolar una 5 en el hueco. Los sujetos no se dan cuenta conscientemente de que lo han hecho. In­ forman de haber oído la $ ausente, y describen el chasquido como un «sonido aparte».

F igura 10.5. L a m aldición d el contexto 13 Esta feliz expresión es de Keith Gunderson (.Mentality and Machines, p. 98). 14 Warren, R. M., «Perceptual Restoration of Missing Speech Sounds».

328

Inteligencia artificial. Una introducción filosófica

Los programadores han hallado que el contexto es extremada­ mente duro de roer y muchos investigadores creen que esta resis­ tencia es una maldición lanzada sobre la IA por un distraído John von Neumann. Veamos cómo es esto. Imaginemos que intenta­ mos leer una palabra escrita con una letra inusual y extraña. Lo natural es considerar cada letra en el contexto de la palabra: para­ dójicamente, usamos las letras para identificar la palabra y la pa­ labra para identificar las letras. En un frenesí de actividad en pa­ ralelo, las hipótesis sobre las letras individuales interactúan con las conjeturas sobre la palabra. Las conjeturas se obstaculizan y se refuerzan entz*e' sí hasta que surge un patrón estable de hipóte­ sis y de pronto queda claro cuál es la palabra. Una máquina Von Neumann, con su modo secuencial de operación, puede, como mucho, ofrecer una torpe parodia de este género de cosas. Las re­ des PDP, en cambio, son procesadores paralelos por excelencia, y puede que se demuestre que son. el sustrato físico ideal para el tipo de resolución de problemas que consiste en dejar que equi­ pos rivales de hipótesis forcejeen simultáneamente hasta que surja una ganadora. Los primeros datos de laboratorio indican que las redes PDP pueden, de un golpe, conjurar la maldición y resolver el problema de la clasificación. En estudios piloto se han producido redes maestras en reconocer palabras escritas y habladasI5. Las redes explotan al má­ ximo el contexto. Todas las letras o sonidos de la palabra se examinan simultáneamente, y las «conjeturas» sobre sus identidades individua­ les caminan en paralelo y en mutua influencia. Sonrisas y ceños Igor Aleksander, profesor de tecnología de la información en el Imperial College de Londres, ha conseguido construir una red que reconoce caras humanas. Aunque Aleksander no trabaja bajo la ban­ 15 McClelland, J. L., Rumelhart, D. E., y Hinton, G. E., «The Appeal of Parallel Dis­ tributed Processing», pp. 20-23 [ed.cast., «El atractivo del Procesamiento Distribuido en Paralelo», en Introducción al Procesamiento Distribuido en Paralelo, Madrid, Alianza Editorial, 1995]. Rosenberg, C. R., y Sejnowski, T. J., «Parallel Networks that Learn to Pronounce English Text»; Elman, J. D., y Zipser, D., «Learning the Hidden Structure of Speech».

Un nuevo punto de partida para la IA

329

dera del PDP, su investigación de redes de «neuronas» estilizadas tiene muchos puntos de contacto con el PDP 1617. Durante su entrenamiento, el Wisard (como llama Aleksander a su máquina) escruta la cara de una persona a través del visor de su te­ levisión y aprende gradualmente las pautas características de altera­ ción que sufre una cara cuando la persona habla, sonríe, etc. Después de un entrenamiento suficiente, el Wisard identifica con fiabilidad a la persona en los encuentros subsiguientes, a pesar de los cambios su­ tiles en la apariencia y la expresión. Como las otras máquinas que he descrito, el Wisard tiene la capacidad de generalizar a partir de la muestra empleada en el aprendizaje. Esto le permite analizar las ex­ presiones de perfectos desconocidos y decir si están sonriendo o fruncen el ceño. El entrenamiento adecuado permite al Wisard reco­ nocer muchos tipos de objetos y sus posibilidades industriales son considerables. (Aleksander ha construido redes de neuronas artificia­ les desde mediados de los años sesenta, y cuando las primeras olas de entusiasmo por el PDP empezaban a barrer los laboratorios de IA de Norteamérica, Aleksander calladamente obtenía un contrato para po­ ner el Wisard en producción comercial.) 10.4. La diferencia con los computadores Los computadores, como, ya sabemos, actúan con símbolos. Los programas son listas codificadas simbólicamente de instrucciones, la información se almacena en la memoria bajo la forma de símbolos y cada paso de una computación consiste en una operación sobre una cadena de símbolos. Por el contrario, el procesamiento que tiene lu­ gar en la red de los pretéritos, o en la red de inversión de la sección 10.1, consiste en la excitación y la inhibición de unas unidades sobre otras, y no en la manipulación regida por un programa de expresio­ nes simbólicas almacenadas. (Como dicen McClelland y Rumelhart, «la moneda con que trafican nuestros sistemas no son los símbolos, sino la excitación y la inhibición» í7.) Las redes simplemente «se agi­ u Aleksander, I., y Burnett, P., Thinking Machines: The Search for Artificial Intelligencey capítulo 9. Véase también Aleksander, I. (comp,), Neural Computing Architectu­ res: The Design of Brain-Like Machines.

17 Rumelhart, D. E., y McClelland,]. L., «PDP Models and General Issues in Cogni­ tive Science», p. 132 [ed. cast., «Modelos PDP y cuestiones generales de la ciencia cognitiva», en Introducción al P rocesam iento op. cit.].

330

Inteligencia artificial. Una introducción filosófica

tan» hasta que «se sienten cómodas» con la entrada, y tienen más en común con una gota de metal fundido que se va solidificando que con los pasos que dan un VAX o un IBM cuando siguen un programa. Advirtamos que se puede considerar la red de inversión como un manipulador de bits (aunque carente de programa). Una cadena de bits es, al fin y al cabo, una sucesión de activaciones y desactivaciones y, por tanto, podemos entender la red como un ingenio que trans­ forma unas cadenas de bits en otras. En efecto, es posible usar una colección coordinada de redes para simular una máquina Von Neu­ mann (se entrena una red para realizar cambios, otra para realizar comparaciones por la derecha, y así sucesivamente). Es importante el hecho de que se puedan usar redes para sustentar computaciones simbólicas, y volveré a él en la sección 10.10. Lo que aquí me gustaría poner de relieve es que, aunque se puedan usar las redes como mani­ puladores de símbolos, en general son harina de otro costal. Sería un completo error pensar que el PDF no es más que la exploración de un tipo nuevo de manipulador de símbolos. Para no complicar el cuento, hasta ahora sólo he descrito un tipo especial de unidad: el modelo activo/inactivo. El modelo más general, hasta ahora olvidado, puede adoptar un rango de niveles de actividad que varían entre completamente activo y completamente inactivo 18. Así, el nivel de actividad de una unidad en un momento particular podría ser 0,75 (dicho metafóricamente, la unidad está operando por debajo del pleno volumen). El nivel de actividad depende de la canti­ dad de entrada que la unidad recibe de otras unidades. Por ejemplo, el nivel de actividad puede saltar de 0 a 0,5 una vez que la entrada to­ tal alcanza el umbral de la unidad y luego ascender sostenidamente hasta 1 si la entrada continúa aumentando (figura 10.6). Los patrones de entrada y de salida de una red compuesta de unidades tales no constarán de cadenas de ceros y unos, sino de secuencias de números reales. Un ejemplo de los patrones de salida posibles de una red con cuatro unidades de salida es . Evidentemente, todo parecido con las cadenas de bits se ha desvanecido. (En términos ma­ temáticos, las redes toman como entrada un vector numérico y pro­ ducen como salida otro vector numérico. Podemos, pues, considerar las redes como ingenios que realizan transformaciones de vectores.) 18 Rumelhart, D. E., Hinton, G. E., y McClelland, J. L., «A General Framework for Parallel Distributed Processing», pp. 45-54.

Un nuevo punto de partida para la IA

331

FIGURA 10.6. E l n iv e l de la salida depende de la cantidad de entrada que la unidad reciba de otras unidades

La diferencia entre una máquina Von Neumann y las redes del pretérito y de la inversión es clara como el agua. Sin embargo, no es fácil formular un criterio neto que exprese en general la diferencia en­ tre las redes PDP y los manipuladores de símbolos, pues recordemos que la clase de los manipuladores de símbolos ha quedado un poco indeterminada. Lós defensores de la HFSS conceden que las opera­ ciones fundamentales de manipulación de símbolos del cerebro pue­ den diferir de maneras radicales —y por ahora desconocidas— de las operaciones fundamentales de una máquina Von Neumann. Igual­ mente conceden que el código simbólico del cerebro puede ser muy distinto de todo lo que ahora conocemos. Dicho de otro modo, no hay un criterio neto y universal para dis­ tinguir entre una red que se está usando como manipulador de sím­ bolos y otra que no. Lo mejor que se puede hacer —y eso basta— es citar ejemplos paradigmáticos de estructuras simbólicas (códigos bi­ narios composicionales recursivos, fórmulas del cálculo de predica­ dos, etc.) y ejemplos paradigmáticos de operaciones fundamentales de manipulación de símbolos (cambiar la cadena que está en una lo­ calización de almacenamiento dada un bit a la izquierda, comparar dos cadenas y colocar un marcador en una localización de almacena­ miento dada si son idénticas, sustituir una variable ligada por una constante) y después juzgar una arquitectura nueva en términos de su grado de semejanza, si lo tiene, con los paradigmas.

332

Inteligencia artificial. Una introducción filosófica

Comparemos el famoso problema del parecido de familiaI9. Co­ mo todo el mundo sabe, los miembros de una familia (la de Wittgen­ stein, por ejemplo) a menudo se parecen entre sí más que a los miem­ bros de una familia no emparentada (los Sartre, digamos). ¿Es posible formular un criterio nítido que encierre de una vez por todas los ras­ gos que distinguen a los Wittgenstein de los Sartre? Probablemente no. Los parecidos de familia no se prestan a eso. Como dije en el capítulo anterior, la teoría de que el cerebro es un manipulador de símbolos alcanzó la fama entre los científicos cognitivos, no porque hubiera datos firmes en su favor, sino porque pare­ cía la única que «quedaba a flote». No parecía haber concepciones alternativas plausibles del funcionamiento del cerebro. El PDP ha cambiado el panorama: ya flotan más maderos a los que agarrarse. Se­ gún la nueva teoría, el cerebro es una compleja trama de redes estrati­ ficadas. No hay símbolos ni programas. Más avanzado el capítulo consideramos algunas objeciones a la nueva teoría. Por ahora goce­ mos de la novedad. 10.5. Comparaciones con la biología Una dé las credenciales de la nueva teoría es el grado en que las redes PDP muestran rasgos de semejanza con el cerebro. He aquí una lista de similitudes (Puede ser conveniente repasar la sección 9.2):123* 1. Las unidades individuales de una red se parecen algo a las neuronas auténticas. 2. Se suele aceptar que el aprendizaje del cerebro entraña la mo­ dificación de la fuerza de las conexiones (aunque eso no está demostrado). 3. Las redes son paralelas a gran escala. La salida está generada por la perturbación del estrato de la entrada a través de una orgía de excitaciones e inhibiciones en la que participan si­ multáneamente todas las unidades. Se sabe que las poblacio­ nes de neuronas auténticas se dedican a un tipo muy similar de actividad en paralelo. 19 Wittgenstein, L., Philosophical Investigations , secciones 65-78.

Un nuevo punto de partida para la IA

333

4. Las redes almacenan información de forma distribuida, y cada conexión individual participa en el almacenamiento de elementos muy diferentes de información. La pericia que per­ mite a la red de los pretéritos formar wept a partir de weep no está almacenada en ninguna conexión específica, sino que es creada durante el entrenamiento. Las redes, pues, suministran un modelo para entender los resultados de Lashley y otros relativos al carácter no localizado de la memoria (sección 9.2). 5. Se puede hacer que una red funcione como una memoria direccionable por el contenido, en el sentido de que si se le pre­ senta como entrada una parte de un patrón recordado, se genere como salida el patrón completo20. La direccionabilidad por el contenido es uno de los rasgos más llamativos de la memoria humana. 6. Las redes se degradan con elegancia. Si aquí y allá se rompen unas cuantas conexiones, la red sigue en funcionamiento, aunque el daño producirá una tendencia a cometer errores. Según aumenta el daño, la actuación de la red empeora pro­ gresivamente (de una manera que recuerda vagamente a los cerebros que padecen alguna enfermedad degenerativa)21. Sin embargo, estas semejanzas entre las redes y la biología están acompañadas por una lista de desemejanzas importantes. Las redes PDP existentes no constituyen en realidad sino la más tosca aproxi­ mación a las redes de neuronas auténticas, y harán falta muchos refi­ namientos para que el PDP pueda presumir de haber ofrecido una comprensión significativa de las funciones del cerebro. El resto dé esta sección es un examen de algunas de las divergencias principales. Las neuronas auténticas El cerebro contiene una gran cantidad de tipos diferentes de neu­ ronas: con forma de pirámide, de estrella, de candelabro y otras mu­ chas. Varios factores indican que los diversos tipos ejecutan funcio20 McClelland, J. L., Rumelhart, D. E., y Hinton, G. E., «The Appeal of Parallel Dis­ tributed Processing», pp. 25-9 [ed cast., «El atractivo...», op. cit.]. 2* Wood, C, C., «Variations on a Theme by Laschley: Lesion Experiments on the Neural Model of Anderson, Silverstein, Ritz and Jones».

334

Inteligencia artificial. Una introducción filosófica

nes diferentes. Por ejemplo, la «proporción» de neuronas no es uni­ forme en todo el cerebro: en distintas regiones predominan tipos di­ ferentes de células. Además, las neuronas de los diferentes tipos tie­ nen otras cantidades de conexiones, que varían desde unas pocas centenas a centenas de miles. Esta diversidad no se refleja en las redes PDP, que siempre contienen un mismo tipo de unidades. Sólo por esta razón hay que considerar las redes actuales como un modelo muy basto de la biología humana. Peor aún, las unidades PDP no se corresponden con ningún tipo conocido de neurona. Todas las neuronas reales se dedican o bien a inhibir el disparo de otras células o bien a incitarlas al disparo, nunca a ambas cosas. Las unidades PDP, por el contrario, son híbridas: cada una de ellas tiene una combinación de conexiones inhibitorias y exci­ tatorias. Hasta el momento no han tenido éxito los intentos de cons­ truir redes operativas con unidades no híbridas. Las dificultades de este estilo han llevado a algunos investigadores a proponer que se considere cada unidad como representación de un grupo de neuronas, algunas de ellas inhibitorias y otras excitatorias22. Esta estratagema se ha ganado un ácido comentario del biólogo Fran­ cis Crick: «Si dijeran con claridad cómo se puede formar un grupo con neuronas más o menos reales... [la sugerencia] podría ser acepta­ ble para los neurocientíficos..., pero esto no se hace o se hace rara vez»23. El proceso de aprendizaje Además de unas cuantas desemejanzas serias entre el aprendizaje de un cerebro y de una red, no hay una analogía detallada. Todos los procedimientos conocidos para modular las fuerzas de las conexiones en el entrenamiento dependen decisivamente de la re­ petición. Para completar su entrenamiento, una red tiene que pasar por toda la muestra de entrenamiento un número considerable de ve­ ces. Aunque en el aprendizaje humano la repetición es importante, 22 McClelland, J. L., Rumelhart, D. E., y el Grupo de Investigación PDP, Parallel Distributed Processing: Explorations in the Microstructure of Cognition, vol. 2: Psycholo­ gical and Biological Models, p. 329. 23 Crick, F., y Anasuma, C., «Certain Aspects of the Anatomy an Physiology of the Cerebral Cortex», p. 370.

Un nuevo punto de partida para la IA

335

no es de ningún modo esencial en todos los casos. Por ejemplo, quien tenga buena memoria puede aprender una lista de instrucciones o una página de vocabulario francés en una sola lectura. Otra diferencia importante la pone de manifiesto el hecho de que las redes sólo aprenden sus habilidades con ayuda de un maestro (aun­ que se están buscando algoritmos de aprendizaje «autosupervisados»). Los cerebros, por supuesto, dependen mucho más de sí mismos. Du­ rante mi primer encuentro con el windsurf, los errores repetidos per­ mitieron a mi cerebro aprender qué señales de salida debía producir en el sistema muscular la grácil unión del filósofo y el viento. En el trans­ curso de este proceso de aprendizaje, mi cerebro no tenía un conoci­ miento previo de las salidas correctas. No había ningún ser externo casi omnisciente que le suministrara a mi cerebro las especificaciones preci­ sas de las señales que había que buscar. Los procedimientos de apren­ dizaje de las redes exigen una especificación externa de las salidas desea­ das. Cada paso del ciclo de entrenamiento entraña la comparación de la salida real con la salida que quiere conseguir el entrenador, y luego ti­ rar para arriba o para abajo de las conexiones, según. Está claro, pues, que aunque el cerebro aprenda a través de la mo­ dificación de la fuerza de las conexiones, los procedimientos que usa tienen poco parecido con los que hasta ahora se usan en el PDP. La química del cerebro Paradójicamente, la unión de un par de fibras neuronales interco­ nectadas consiste sobre todo en un espacio vacío. En su punto más próximo, las fibras están separadas por lo que se conoce como hiato sináptico, y las señales excitatorias e inhibitorias que pasan de una neurona a otra son «transportadas» a través de estas soluciones de continuidad por sustancias químicas llamadas neurotransmisores24. En la última década, aproximadamente, se han identificado unos cin­ cuenta tipos diferentes de neurotransmisor y los investigadores creen que el total será mucho mayor. La inyección de neurotransmisores en sujetos ha producido efec­ tos tan dispares como mejorar la memoria, alegría, tristeza, analgesia 24 Para un breve tratamiento de los detalles del proceso, véase el Oxford Companion to the Mind, comp, por Gregory, R. L., pp. 554-7 [ed, cast, Diccionario Oxford de la mente, Madrid, Alianza Editorial, 1995].

336

Inteligencia artificial. Una introducción filosófica

y estimulación erótica. Se han usado con bastante éxito las sustancias químicas que interfieren con la actividad de los neurotransmisores en el tratamiento de enfermedades como la esquizofrenia 25. Evidente­ mente, los neurotransmisores desempeñan diversos papeles sistemáti­ cos en las operaciones del cerebro. (También se especula algo sobre que puedan tener un papel en el mecanismo del cerebro para modifi­ car las fuerzas de las conexiones entre neuronas.) Acaso se demuestre que entender la contribución general de las sustancias químicas al procesamiento de la información es tan importante como entender la actividad eléctrica de las neuronas. El PDP se ha centrado en la se­ gunda tarea y prácticamente ha pasado por alto el aspecto químico de las operaciones del cerebro26. La geometría del cerebro Las neuronas y sus fibras conectoras están con frecuencia dis­ puestas en pautas extraordinariamente regularés. Los científicos del cerebro son proclives a caer en el lirismo cuando describen este orde­ namiento geométrico. En el nivel microscópico el cerebro está «ex­ quisitamente estructurado», es «bella y eminentemente regular», «a veces de apariencia casi cristalina». Por tomar un ejemplo específico, la estructura microscópica del cerebelo —un órgano que está en la parte posterior del encéfalo— se asemeja a una rejilla tridimensional rectangular. Enormes cantidades de fibras de entrada, largas y hori­ zontales, se ordenan en capas de limpias líneas paralelas, y, entrete­ jido perpendicularmente a este haz, hay otro conjunto igualmente denso de fibras de salida, cada una inmaculadamente perpendicular a las fibras horizontales que la rodean. En cambio, una red PDP no tiene geometría, por así decir. Ayuda imaginar que las unidades yacen en estratos horizontales y que las co­ nexiones ligan los estratos en vertical (como en la figura 10.2), pero esto es una comodidad. No importa que la red esté aplastada en un solo nivel o que esté retorcida al azar. Lo único que importa es cómo están conectadas las unidades, y en las redes existentes esto depende mucho menos de la estructura espacial que en el caso del cerebro. En la 25 Davis, J. M., y Carver, D. L., «Neuroleptics: Clinical Use in Psychiatry». 26 Véase McClelland, J. L., y Rumelhart, D. E.,«Amnesia and Distributed Memory»

para unos primeros pasos en esta dirección.

Un nuevo punto de partida para la IA

337

red de dos niveles para los pretéritos, por ejemplo, cada unidad de en­ trada está conectada uniformemente con todas las unidades de salida. En ningún sentido una unidad de entrada está conectada a más unida­ des de salida «próximas» que «distantes». En el cerebro, por el contra­ rio, cada neurona se conecta profusamente con su vecindad inmediata y más parcamente con las neuronas situadas a una distancia ligera­ mente mayor. Cuando un grupo entero de neuronas está conectado a larga distancia con un segundo grupo, las conexiones pueden respetar la relación geométrica de las neuronas. Simplificando, si en el primer grupo la neurona B está situada entre las neuronas A y C, es probable que B esté conectada con una neurona del segundo grupo que esté si­ tuada a su vez entre las neuronas que conectan con A y con C. No se sabe si la intrincada geometría del cerebro desempeña o no un papel esencial en su funcionamiento. Un ingenio puede constar de com­ ponentes organizados en pautas regulares sin que esa regularidad pinte nada en el modo como funciona el ingenio. Tomemos un aparato de TV. Es habitual agrupar los componentes en el chasis con armonía, pero éso es para comodidad en el montaje y la reparación. La limpia disposición geométrica de los condensadores, resistencias, interruptores, etc., no contribuye en absoluto al funcionamiento del aparato, mientras que el funcionamiento correcto de un microscopio o de un reloj depende deci­ sivamente de las disposiciones geométricas precisas de sus componen­ tes. Estos ingenios trabajan según principios geométricos. ¿En qué categoría cae el cerebro? ¿Es la geometría esencial para su funcionamiento o es sobre todo accidental? En el momento pre­ sente, esta pregunta está, en términos generales, abierta. Se ha conje­ turado que la geometría del cerebro puede tener un papel vital en la coordinación del ojo y la mano, el procesamiento de sensaciones, la comprensión lingüística, y otras muchas cosas27. Pero, por otro lado, 27 Por ejemplo, Churchland, P. M., «Some Reductive Strategies in Cognitive Neuro­ biology». Para la hipótesis de Churchland es decisivo el hecho de que se sabe que hay una cantidad considerable de «mapas» neuronales. Por ejemplo, parte de la superficie de la corteza contiene una representación bidimensional del campo visual activo en cada momento de los ojos. Otros mapas lo son del panorama auditivo y la orientación de los músculos. Estos mapas están a menudo deformados por la curvatura local del tejido de la corteza. Churchland especula que esta deformación geométrica sirve para el registro o «sincronización» mutua de los diversos mapas. Si eso es cierto, la geometría cerebral puede ser básica para la coordinación mano-ojo, mano-oído, y otras muchas cosas. (Véa­ se también Pellionisz, A., y Llinás, R., «Brain Modeling by Tensor Network Theory and Computer Simulation», esp. pp. 344-5.)

338

Inteligencia artificial.. Una introducción filosófica

es posible que la intrincada geometría del cerebro tenga más relación con las exigencias del crecimiento biológico que con la función cognitiva del órgano. Si el cerebro opera según principios geométricos, entonces las re­ des PDP que hasta ahora se han estudiado son como un retrato que omite el rostro. Cuando los investigadores del PDP comiencen a ex­ perimentar con redes que incorporen aspectos de la geometría del ce­ rebro, su investigación acaso ayude a desvelar la significación de h exquisita estructura del cerebro. 10.6. El gimnasio chino de Searíe A John Searle el PDP no le inquieta más que la IA tradicional

Sostiene que ninguna red PDP es capaz de aprender un lenguaje en e¡ sentido pleno ni de realizar ninguna otra tarea que exija entendió miento. Ha construido adaptaciones de su experimento mental de la habitación china que, según cree, lo demuestran. Dice: La IA fuerte afirma que pensar es simplemente la manipulación de símbolos formales... Los Churchland tienen razón cuando dicen que el argumento ori: ginario de la habitación china fue ideado con la vista puesta en la IA tradicio­ nal, pero se equivocan al pensar que el conexionismo [esto es, el PDP] es in­ mune al argumento... el sistema conexionista está sujeto, incluso en sus propios términos, a una variante de la objeción del argumento de la habita­ ción china... [El argumento] se aplica a cualquier sistema computacional... es­ tén hechas [las computaciones] en serie o en paralelo. Por esto el argumente de la habitación china refuta la IA fuerte bajo cualesquiera de sus formas28.

En realidad, las dos adaptaciones de Searle del argumento de la habitación china son más poderosas de lo que parece creer. Si vale al­ guna de las dos, refuta la afirmación general de que alguna forma dt arquitectura PDP es capaz de cognición, no sólo la afirmación más li­ mitada a la que Searle denomina «IA fuerte».

28 Searle, J., «Is the Brain»s Mind a Computer Program?», pp. 20, 22. El ensayo 3 que Searle se refiere es Churchland, P. M., y Churchland, P. S., «Could a Machine Think?».

Un nuevo punto de partida para la IA

339

Primer argumento Imaginemos que, en vez de una habitación china, tenemos un gimnasio chino, un salón que contiene muchos hablantes monolingües del inglés. Estas personas están realizando las mismas operaciones en los nodos y sinapsis [esto es, las unidades y conexiones] de una arquitectura conexionista... el re­ sultado sería el mismo que el de tener a un solo hombre que manipule sím­ bolos según un libro de reglas. En el gimnasio nadie habla una palabra de chino, y no hay manera de que el sistema en su conjunto aprenda el signifi­ cado de las palabras chinas. No obstante, con los ajustes apropiados, el sis­ tema podría dar las respuestas correctas a preguntas en chino29, Searle no especifica exactamente cómo simulan las gentes del gim­ nasio las unidades de la red, pero es fácil completar algunos detalles. Como hemos visto, lo que hace una unidad es difundir la salida a sus vecinas cuando la entrada total que recibe sobrepasa el umbral. Las personas del gimnasio pueden mimetizar esto pasándose piezas de plástico. Con piezas verdes, por ejemplo, se representa la entrada desde una conexión excitatoria y con rojas desde una conexión inhi­ bitoria. El número de piezas que pasan de uno a otro jugador (en una transacción) representa la fuerza de la conexión. Puesto que en la si­ mulación participará una cantidad muy grande de personas, sin duda será una buena idea dar a los jugadores listas que detallen a quiénes les deben dar las piezas y cuántas. Durante la fase de entrenamiento de la simulación, los jugadores introducen cambios en sus listas con­ forme a las instrucciones que vocifera el entrenador. Se puede conceder a Searle que por muchas piezas que se manejen y por mucho que se juegue con las listas, ningún jugador individual aprenderá el chinó. Pero de esto no es permisible inferir que el tin­ glado, como un todo, es incapaz de aprender el chino. Como ya es probablemente obvio, esta nueva versión del argumento de la habita­ ción china incurre exactamente en la misma falacia que la antigua. La conclusión de Searle de que este montaje no entiende el chino no se sigue de la premisa de que ninguno de los jugadores individuales en­ tiende el chino, igual que la premisa de que José Culebrón ignora el chino no implica que el sistema del que José forma parte no entiende el chino (sección 6.2). 29 Searle, J., «Is the Brain's Mind a Computer Program?», p. 22.

Inteligencia artificial. Una introducción filosófica

340 S e g u n d o a r g u m e n to

Debido a que las máquinas paralelas son aún escasas, los programas conexionistas [sicj se ejecutan generalmente en máquinas seriales ordinarias... Computacionalmente, los sistemas seriales y paralelos son equivalentes... Si el hom­ bre de la habitación china es equivalente computacionalmente a ambos, entonces si él no entiende el chino en virtud de las computaciones que rea­ liza, ningún sistema lo hará30.

Cuando Searle dice sin mucho precisar que los sistemas paralelos y seriales son equivalentes, se refiere al hecho de que, con recursos ilimitados, una máquina Von Neumann puede simular cualquier red PDP (las secciones 10.7 y 10.9 examinan con detalle este hecho a pri­ mera vista sorprendente). Expresado con rigor, el argumento de Searle parece ser éste: sea N una red PDP supuestamente capaz de entender el chino. El hombre de la habitación es capaz de simular N, aunque opere de forma serial (por lo anterior). Llevar a cabo la simulación no le permite entender el chino (basta con preguntarle). Por tanto, N no entiende el chino. Voy a explicar por qué no es válido este engañoso argumento (en este segundo argumento no hacen falta el gimnasio chino ni sus ocupantes, otra simulación de N). Lo primero que se advierte es que este argumento comete la misma falacia parte-todo que el argumento originario de la habita­ ción china. «El hombre no entiende» no implica «la simulación glo­ bal de N, de la cual es parte el hombre, no entiende». Mi segunda critica es un poco menos directa. Searle mismo ha lanzado frecuentes avisos sobre los peligros de confundir una simula­ ción por computador con la cosa simulada. He aquí algunos pasajes característicos. Nadie supone que la simulación que hace un computador de una tormenta nos moja... ¿Por qué diablos ha de suponer alguien que esté en sus cabales que una simulación computacional de los procesos mentales tiene de hecho procesos mentales?31 Milagros aparte, no podemos hacer andar a nuestro coche mediante una simulación computacional de la oxidación de la gasolina, y no podemos dige­ rir una pizza ejecutando [un] programa que simule la digestión. Parece evi­ dente que una simulación de la cognición (incluso una que «sea fiel hasta la 50 Searle, J., «Is the Brain's Mind a Computer Program?», p. 22. 31 Searle, J., Minds , Brains and Science, pp. 37-8.

Un nuevo punto de partida para la IA

341

última sinapsis») tam poco igualmente producirá los efectos de la neurobiología de la cognición32. A partir, del hecho de que se pueda sim ular un sistema por medio de m a­ nipulaciones de símbolos, y de que [el sistema] piense, no se sigue que el pensamiento sea equivalente a una manipulación formal de sím bolos33.

Los ejemplos de Searle muestran vigorosamente que, en general, no es válido argumentar como sigue: S es una simulación de X; X puede □ ; luego S puede □ . Una tormenta nos puede mojar, pero difícilmente se sigue que una simulación por computador de una tormenta nos pueda mojar. Permítaseme llamar a esta forma de argumento «la Bestia Negra de Searle». Consideremos una versión ligeramente distinta: S es una simulación de X; S no puede □ ; luego X no puede □ . Esta es, como la denominan los lógicos, la forma contrapuesta, o contraposición, de «S es una simulación de X; X puede □ ; luego S puede □ ». La contraposición de un argumento se obtiene cuando in­ tercambiamos la conclusión con una de las premisas e insertamos un «no» en cada uno de los enunciados desplazados. (Así, un argumento contrapuesto de A, B C es: A, no-C .\ no-B.) Lo interesante de los contrapuestos es que, si un argumento no es válido, entonces tam­ poco lo es ninguno de sus contrapuestos. (Esto se puede demostrar formalmente. Quien quiera hacer la demostración puede reflexionar en que si de «B es falso» se sigue que «A es falso», entonces de «A es verdadero» se sigue «B es verdadero».) El problema de Searle es que su segundo argumento no es más que una. contraposición de su propia Bestia Negra. Si tomamos la forma contrapuesta de la Bestia Negra («S es una simulación de X; S no puede □ ; luego X no puede □ ») y sustituimos «S» por «el hombre de la habitación china», «□ » por «entiende el chino», y «X» por «N», lo que obtenemos exactamente es el argumento de Searle: el hombre de la. habitación china simula N; el hombre no entiende el chino; 32' Searle,]., «Is the Brain’s Mind a Computer Program?», p.23. 33 Searle, J., ibidem, p. 21.

342

Inteligencia artificial. Una introducción filosófic

luego N no entiende el chino. El segundo argumento de Searle y L Bestia Negra se sostienen o se caen juntos. [Démonos cuenta de que el paso de «la simulación de X no en tiende el chino» a «X no entiende el chino» no hace falta en el argu mentó originario de la habitación china. Ello se debe a que el tinglad< de la habitación no es una simulación de un manipulador de símbo los, sino un manipulador de símbolos,] Ahora que ha salido a escena la Bestia Negra de Searle, puede volver a la discusión del argumento del gimnasio chino. Como ya si habrán dado cuenta, este argumento consta de dos inferencias, una ; partir de una premisa sobre los jugadores individuales del gimnask para obtener una conclusión sobre la simulación como un todo, i una segunda a partir de esta conclusión intermedia para obtener uní afirmación acerca de la red simulada. Ningún jugador individual, entiende el chino. .*. La simulación como un todo no entiende el chino. La red simulada no entiende el chino. Espero que me concedan que hay que rechazar el argumento d< Searle en favor de la conclusión intermedia (porque comete la falacií parte-todo). Pero puede que aún quede la disposición a conceder \ Searle que la conclusión del argumento es verdadera: simplemente, lí estrafalaria simulación de N contenida en el gimnasio no puede aspi! rar a entender el chino. Estoy seguro de que ésta será una intuiciói muy común. Si se le concede a Searle esto, ¿hemos de seguirle cuande infiere que N no entiende el chino? No. Searle es la última personj que debería defender esta inferencia, pues tiene la forma, como antes de una contraposición de la Bestia Negra: el tinglado del gimnasio ei una simulación de N, la simulación no entiende el chino, luego N nc entiende el chino. Ciertamente, no hay ninguna razón por la cual quienes creen qui entender el chino (y en general tener estados mentales) consiste en 1; clase de procesamiento que acontece en las redes PDP, deban acepta la inferencia. En una escala, una simulación puede variar entre pobri y exacta, y la afirmación de que los actos mentales son un procesa miento distribuido paralelo no implica, en efecto, que toda simula ción de la mente tenga mente. Lo que implica que si un ingenio PDl entiende el chino, entonces una simulación suficientemente exacta de ingenio entenderá el chino (pues una simulación de un procesamienti

Un nuevo punto de partida para la IA

343

distribuido paralelo es simplemente un procesamiento distribuido paralelo). La contraposición de esto da una forma condensada de la segunda mitad del argumento del gimnasio: si una simulación sufi­ cientemente exacta de un ingenio PDP no entiende el chino, entonces el ingenio mismo no entiende el chino. Esto, no obstante, no le sirve de nada a Searle, porque la simulación del gimnasio «dista mucho de ser una simulación exacta de N». Es una insensatez la idea de que la gente del gimnasio puede ofre­ cer una simulación exacta de una red lo bastante compleja como para procesar y responder adecuadamente a una entrada de oraciones en chino. Como hemos visto en el capítulo 6, muchas de las objeciones de Searle a la ciencia cognitiva entrañan un rechazo deliberado a to­ mar en serio las realidades físicas y biológicas. He aquí un ataque característico a la hipótesis fuerte del sistema de símbolos: «... si in­ tentamos tomar en serio la idea de que el cerebro es un computador digital, llegamos a la incómoda conclusión de que podríamos fabricar un sistema que haga lo mismo que el cerebro con casi cualquier cosa... gatos y ratones y queso o palancas, o tuberías o palomas o lo que sea...»34. La teoría de que el cerebro es un computador no im­ plica (¿tengo que decirlo?) que se pueda realmente hacer con palomas un cerebro artificial. (La teoría sería absurda si lo implicara: Searle tiene razón en eso.) Sólo en el país de las hadas se hacen computado­ res con gatos, ratones^y queso o se puede hacer una simulación exacta de una gigantesta red PDP con un escuadrón de personas en un gim­ nasio. ¿Qué pasa si un defensor de la segunda parte del argumento del gimnasio grita «{experimento mental!» en este momento? Recorde­ mos que en el caso del experimento mental de la habitación china no me importaba pasar por alto que un ser humano auténtico no puede ejecutar a mano con bastante precisión y rapidez un programa ex­ tenso de IA. Si quiero ser consistente, ¿no debería hacer ahora una concesión similar? Sin embargo, sería un error táctico que el defensor del argumento siguiera esta línea en el momento presente de la discu­ sión. («Venga, no se ponga picajoso e imagine un mundo en que la gente del gimnasio fuera capaz de ofrecer una simulación exacta de N».) El efecto sería anular la intuición de que el tinglado del gim­ nasio no entiende el chino. El protagonista del argumento estaría pi­ diéndonos considerar un mundo que difiere tanto del mundo real 34 Searle, J., «Is the Brain a Digital Computer», p. 25.

344

Inteligencia artificial. Una introducción filosófica

que permite que un grupo de seres humanos con los bolsillos llenos de piezas de colores escenifiquen una simulación exacta de una red de quizá mil billones de conexiones. No tengo intuiciones muy firmes sobre el país de las hadas, salvo que en él hay que esperar cosas es­ trambóticas, y no tengo la menor inclinación a insistir en que ni si­ quiera en el país de las hadas la extraña «máquina» del gimnasio sería incapaz de entender el chino. Volveré a las opiniones de Searle sobre la simulación en la sec­ ción 10.9. Afirma (en la cita de unas páginas atrás) que una simula­ ción por computador de la cognición hecha neurona por neurona, y sinapsis por sinapsis no sería, a su vez, un sistema cognitivo. En mi opinión, ahí se equivoca. Lo interesante no es si tal simulación, caso de que existiera, sería un sistema cognitivo, sino si podría existir la simulación. Éste es uno de los asuntos de los que ahora me ocuparé. 10.7. La tesis Church-Turing «¡Abajo los programas!», «¡Abajo la manipulación de símbolos!», «¡Abajo el mentalés!». Éstos son los gritos de guerra de la revolución PDP y se clavan en el corazón de la ciencia cognítiva y de la IA orto­ doxas. No sorprende, pues, que las fuerzas de la ortodoxia se hayan aprestado al contraataque 3\ Én lo que queda de capítulo, revisaré el armamento de los contrarrevolucionarios, empezando por la tesis Church-Turing. Tenemos que considerar dos temas. En primer lugar está la cues­ tión de si la revolución PDP es un peligro para la hipótesis del sis­ tema de símbolos. En segundo lugar está la cuestión de en qué me­ dida el PDP amenaza la hipótesis fuerte del sistema de símbolos. ¿Qué murallas puede disponer la ciencia cognitiva ortodoxa en torno a su teoría de que el cerebro biológico es un procesador de símbolos? Estas preguntas son complejas. La tesis Church-Turing destaca en el paisaje y es un punto de partida natural.35 35 Véanse, por ejemplo, Fodor, J., y Pylyshyn, Z., «Connectíonism and Cognitive Architecture: A Critical Analysis»; Pinker, S., y Prince, A., «On Language and Connectionism: Analysis of a Parallel Distributed Processing Model of Language Acquisition»; y el comentario que sigue al artículo de Smolensky «On the Proper Treatment of Connectionism».

Un nuevo punto de partida para la IA

345

Alonzo Church es un lógico norteamericano que, como Turing, realizó trabajos de profunda importancia para la computación en la década anterior a la construcción de las primeras máquinas. Church y Turing trabajaron de forma independiente, el primero en Princeton y el segundo en Cambridge, pero, con una diferencia de pocos meses, presentaron esencialmente la misma tesis36. Turing expresó su ver­ sión en términos de (las que luego se han denominado) máquinas de Turing, y Church en términos de su propio invento, el cálculo lambda. (Este es un poderoso simbolismo capaz de representar las operaciones matemáticas de la abstracción y la generalización 37. McCarthy, posteriormente, habría de usar el cálculo lambda para construir el lenguaje LISP.) Pronto se demostró que las dos versiones de la tesis eran equivalentes. Aunque la tesis Church-Turing se enun­ ció por primera vez en 1936, su importancia en la teoría de la compu­ tación sigue siendo fundamental. Para enunciar la tesis necesitará los conceptos de algoritmo y de proceso calculable algorítmicamente. Empecemos por los algoritmos (la palabra deriva del nombre de un influyente matemático persa del siglo IX, Abu Jaafar Muhammad ibn Musa al-Khuwarizmi). Diré que los pasos de un procedimiento son rutinarios si para llevarlos a cabo ño hace falta perspicacia, talento ni creatividad. Se conoce como «al­ goritmo» un procedimiento para lograr un fin determinado cuando: I) cada paso del procedimiento es rutinario; 2) al final de cada paso es rütinario qué hay que hacer a continuación (esto es, no se necesita ta­ lento, etc., para saberlo); 3) está garantizado que el procedimiento conduce al resultado determinado en un número finito de pasos (su^ poniendo que cada paso se ejecute correctamente). Por dar un ejemplo sencillo, si hemos mezclado las llaves y, mi­ rándolas, no sabemos cuál encaja en la puerta de casa, el conocido ex^pediénte de probarlas una por una es un algoritmo para encontrar la buena: el procedimiento acabará por funcionar (suponiendo que no lá hayamos perdido) y es rutinario. Los algoritmos son útiles y adop­ tan formas tan diversas como lós patrones de punto, las recetas de los libros de cocina para los ineptos culinarios y los procedimientos me­ cánicos que aprendemos en el colegio para hacer multiplicaciones y 36 Church, A., «A Note on the Entscheidungsproblem»; Turing, A., «On Computa­ ble Numbers, with an Application to the Entscheidungsproblem». 37 Church, A., «An Unsoivable Problem of Elementary Number Theory».

346

Inteligencia artificial. Una introducción filosófica

divisiones largas. Y, por supuesto, todos los programas (que termi­ nan) de computador son algoritmos3S. Un sistema (real o abstracto) es calculable algorítmicamente si hay un algoritmo —conocido o desconocido— para calcular su con­ ducta. Dicho con más detalle, el sistema es calculable algorítmica­ mente sólo en el caso de que haya uri procedimiento algorítmico para derivar descripciones correctas de las salidas del sistema a partir de descripciones correctas de las entradas que recibe (y, además, que el procedimiento funcione con todas las entradas posibles). Tautológi­ camente, un computador con un conjunto dado de programas es un sistema calculable algorítmicamente (suponiendo que no se estropee) porque, desde luego, los programas son algoritmos para pasar de en­ tradas a salidas. Las redes PDP son también sistemas calculables algo­ rítmicamente. He aquí la tesis Church-Turing (contada en términos que no son de Church ni de Turing): Cualquier sistema calculable algorítmicamente puede ser simulado mediante un sistema de símbolos universal.

En otras palabras, un computador con una memoria lo bastante grande puede simular cualquier sistema calculable algorítmicamente (un computador puede simular otro sistema si, y sólo si, se puede programar el computador de manera que genere descripciones sim­ bólicas correctas de las salidas del sistema a partir de descripciones de las entradas, para toda entrada posible). La tesis Church-Turing es un enunciado sobre la potencia de los computadores: no hay ningún in­ genio calculable algorítmicamente más potente que un computador. Todo lo que se pueda hacer con semejante ingenio se puede hacer con un computador (aunque es posible que no en el mismo tiempo). La palabra «tesis» se usa para dar idea de la condición relativa­ mente extraña del enunciado. Todo, el mundo lo cree, pero todo el mundo está de acuerdo en que no ha sido demostrado. En efecto, no es una proposición que se pueda demostrar formalmente, porque el 38 Hay una distinción importante entre el programa real (que es un algoritmo) y el algoritmo que el programa encarna. Por ejemplo, un programa en BASIC y un programa en Fortran son dos algoritmos diferentes, pero el programa en BASIC y el programa en Fortran para sacar raíces cuadradas pueden estar usando el mismo algoritmo matemático para extraer las raíces.

Un nuevo punto de partida para la ÍA

347

concepto de calculabilidad algorítmica es muy informal, pues lo ca­ racterizamos en términos de ideas tan imprecisas como talento o perspicacia. Los argumentos en favor de la tesis son indirectos, pero imperativos. A lo largo de los años se han construido definiciones matemáticas precisas que intentan captar el concepto informal de que algo es calculable algorítmicamente. Aunque todas estas definiciones se han vertido en términos muy diferentes, todas han resultado ser equivalentes entre sí. Éste es un argumento en su favor: por así decir, se dan apoyo mutuo. Además, cada definición hace verdadera la tesis Church-Turing, y eso es susceptible de prueba formal, puesto que lo obtenido al reformular la tesis en términos de una definición precisa es un enunciado exacto matemáticamente (advirtamos que, de paso, la recíproca de la tesis Church-Turing es trivial: si se puede simular un sistema mediante un computador —en el sentido preciso de «simular» utilizado—, entonces es un sistema calculable algorítmi­ camente). Si la tesis Church-Turing es verdadera (como piensa todo el mundo) y si nuestros procesos cognitivos son calculables algorítmicamente, entonces se sigue que, en principio, un computador podría dar una simulación exacta de la mente. A veces se presenta esto como argu­ mento general en defensa de que la aproximación del sistema simbó­ lico a la IA es plausible. El argumento es el primer elemento de juicio de nuestra revisión del arsenal contrarrevolucionario. El argumento tiene una dificultad. Es importante darse cuenta de que la tesis Church-Turing no dice nada sobre la viabilidad práctica de usar un computador para simular un sistema dado calculable algo­ rítmicamente. La tesis sólo nos dice que se puede hacer la simulación en un mundo ideal de recursos ilimitados, un mundo en el que no cuenta el tiempo, en el que se pueden ignorar los problemas de la confiabilidad y del error acumulativo y, lo más importante, en el que la capacidad de la memoria del computador no tiene límite. Es una cuestión del todo distinta que la simulación se pueda llevar a cabo en el menos munifÍcente entorno que ofrece el mundo real. Los computadores idealizados del ensayo de 1936 de Turing son una rica fuente de ejemplos de las simulaciones posibles en un mundo ideal, pero imposibles en el real. (Recordemos que una máquina de Turing sólo consta de una cabeza de lectura y escritura y una cinta de papel de longitud ilimitada.) La formulación originaria de Turing de la tesis Church-Turing empleaba estas máquinas idealizadas: cual­ quier sistema calculable algorítmicamente lo puede simular una má-

348

Inteligencia artificial. Una introducción filosófica

quina de Turing. Por tanto, una máquina de Turing puede simular el supercomputador Cray, que es el último grito (porque un Cray, claro está, como todo computador, es calculable algorítmicamente). Sin embargo, a una máquina de Turing le llevaría siglos simular unas pocas horas de operaciones de Cray, y la simulación requeriría segu­ ramente más papel del que se puede conseguir en el planeta. La dis­ tinción entre simulaciones reales e ideales; esto es, entre simulaciones posibles en la práctica y posibles sólo en principio, es importante y volverá a aparecer en las secciones 10.8 y 10.9. La distinción real/ideal apunta hacia una debilidad seria del in­ tento de usar la tesis Church-Turing como muro defensivo de la aproximación del procesamiento simbólico a la IA. Si es verdad que nuesti'os procesos cognitivos son calculables algorítmicamente, en­ tonces, en principio, los puede simular un computador, pero la pega es que puede no ser ni remotamente posible hacer la simulación en el mundo real Además hay otra debilidad, lo bastante significativa como para merecer una sección. 10.8. ¿Son nuestros procesos cognitivos calculables algorítmicamente? La tesis Church-Turing tiene algo de caballo de Troya. De prime­ ras parece un tributo a la potencia y generalidad de la aproximación simbólica a la IA, pero en realidad, las ideas que Turing presentó en 1936 pueden servir de base a un escepticismo relativo a los funda­ mentos tanto de la IA simbólica como del PDP. Esta sección es la historia de esta amenaza externa a la IA, una amenaza que se cierne sobre la revolución PDP y la contrarrevolución ortodoxa. (Quien esté impaciente por continuar con la contrarrevolución puede saltarse esta sección. El mejor lugar para volver a ella es la sección 10.11.) Si la tesis Church-Turing es verdadera y si nuestros procesos cog­ nitivos son calculables algorítmicamente, entonces, en principio, un computador lo bastante grande puede dar una simulación exacta de la mente. Pero ¿qué ocurre con el segundo «si»? En su ensayo de 1936 Turing vacilaba sobre la posibilidad de que nuestros procesos cogni­ tivos fueran calculables algorítmicamente39. Después esto se ha con­ 39 Turing, A., «On Computable Numbers, with an Application to the Entschei dungsproblem», pp. 249-52.

Un nuevo punto de partida para la IA

349

vertido en artículo de profunda fe entre los investigadores de la IA, e incluso ha adquirido la condición de algo «demasiado evidente para mencionarlo». Tomemos la expresión de Newell de la defensa todotérreno de la IA simbólica que hemos estado considerando: «Un sis­ tema universal [de símbolos] contiene siempre el potencial de ser otro sistema, si así se le instruye. Por tanto, un sistema universal se puede convertir en un sistema inteligente en general» 40. La hipótesis de que un sistema que muestre inteligencia general es calculable algo­ rítmicamente se cree tan obvia que ni se menciona. Justin Leiber no es menos dogmático: «En principio somos máquinas de Turing, pero hacemos las cosas a través de procesos paralelos maravillosa y dies­ tramente coordinados, en los que predominan la economía y la sim­ plificación» 41. En realidad no hay ninguna razón —aparte de las ga­ nas— para creer que nuestros procesos cognitivos son calculables algorítmicamente. Esto es tierra incógnita y, por lo que sabemos, mu­ chos aspectos de la función cerebral podrían no ser computables. Para seguir con este punto necesitamos un poco de terminología especializada. Sea S un conjunto de oraciones. Por el momento no importa cuáles; voy a emplear S como base para varias definiciones generales, en el sentido de que se aplican a cualesquiera oraciones de S. Llamemos L al lenguaje en el que las oraciones S están escritas. (L podría ser el español o el cálculo diferencial o el cálculo de predi­ cados de primer orden, etc.). Decir que S es deádible equivale a decir que hay un algoritmo para establecer si cualquier oración dada es o no un miembro de S. El álgoritmo debe dar la respuesta acertada para cada miembro de S. Así, para que S sea decidible debe haber un algo­ ritmo que se pueda aplicar a cada oración de L, y que emita la res­ puesta «Sí, esta oración está en S» o «No, esta oración no está en S» (y además las respuestas deben ser siempre acertadas). Se dice que S es indecidible si no hay tal algoritmo. Si lo hay, se le denomina (un) procedimiento de decisión para S42. Por dar un ejemplo evidente de un conjunto decidible, sean los únicos miembros de S las oraciones «Londres está en Inglaterra» y «París está en Francia». Es fácil componer un procedimiento de deci­ sión para este conjunto de dos miembros: dada una oración del espa­ 40 Newell, A., «Physical Symbol Systems», p. 170. 41 Leiber, J., An Invitation to Cognitive Science, p. 100. 42 Un conjunto decidible puede tener más de un procedimiento de decisión. Por de finición, los diferentes procedimientos tienen que coincidir en sus respuestas.

350

Inteligencia artificial. Una introducción filosóficí

ñol, revisémosla carácter por carácter y determinemos si es o ne idéntica al primer miembro de S o al segundo miembro de S. Si es idéntica a una de ellas, entonces la salida es «Esta oración está en S», y si no «Esta oración no está en S». Esto se llama procedimiento de decisión por inspección (o algoritmo de inspección). El programa con­ tiene una lista completa de los miembros de S y comprueba la perte­ nencia de las oraciones a S inspeccionando la lista. Cualquier conjunto finito de oraciones tiene un procedimiento de decisión por inspección. En otras palabras, todo conjunto finito de oraciones es decidible. Los procedimientos de decisión por inspec­ ción son menos practicables cuanto mayor es el conjunto en cuestión. En efecto, es fácil imaginar procedimientos de decisión por inspec­ ción completamente imposibles de llevar a la práctica. Tomemos un conjunto que conste de N oraciones en español, donde N es el nú­ mero de átomos del universo conocido. Puesto que N es finito, este conjunto tiene un procedimiento de decisión por inspección, pero ningún computador real puede ejecutarlo. (Aunque una máquina de Turing podría, porque las máquinas de Turing tienen recursos ilimi­ tados.) Por eso, los procedimientos de decisión por inspección para conjuntos muy grandes no tienen cabida en la IA. Muchos conjuntos tienen procedimientos de decisión que no entrañan la inspección. Un ejemplo es el conjunto de las oraciones españolas que tienen menos de 100 caracteres (para comprobar si una oración dada es miembro del conjunto basta contar los carac­ teres). Sin embargo, algunos conjuntos finitos no tienen ningún procedimiento de decisión aparte de uno de inspección. Las ora­ ciones de este libro forman uno de esos conjuntos. No hay nin­ guna regla para generar las oraciones de las que pueda sacar partido un algoritmo. Diré que estos conjuntos son «indecidibles salvo me­ diante inspección». Si la teoría de la cognición contuviera grandes conjuntos indecidibles salvo mediante inspección, sería mal nego­ cio para la IA. Un conjunto infinito es un conjunto que contiene al menos tantos miembros como números enteros hay. Si un ser eterno empezara a contar los miembros de un conjunto infinito, uno, dos, tres, cuatro..., entonces, por muy grande que fuera el número al que llegara, siempre le quedarían miembros que contar. Los conjuntos infinitos no son necesariamente cosas exóticas. Se puede construir un conjunto infi­ nito extremadamente aburrido a partir nada más que de la oración «Alfredo es un tipo corriente» y la regla si X es un miembro del con­

Un nuevo punto de partida para la IA

351

junto, también lo es «es falso que X»* He aquí los primeros de los in­ finitos miembros del conjunto. Alfredo es un tipo corriente. Es falso que Alfredo es un tipo corriente. Es falso que es falso que Alfredo es un tipo corriente. Es falso que es falso que es falso que Alfredo es un tipo corriente.

Ejercicio Este conjunto infinito es decidible. Esboce un procedimiento de decisión para él (la nota 43 da la respuesta). La lógica ofrece ejemplos dé conjuntos decidibles e indecidibles. El conjunto de las oraciones válidas de lo que se conoce como lógica veritativo funcional es infinito y decidible. La lógica veritativo fun­ cional es la rama de la lógica que se ocupa de las expresiones «si-entonces», «y», «es falso que» y «o». Una oración valida es una oración que es verdadera pase lo que pase, verdadera bajo todas las circuns­ tancias. Un ejemplo de oración válida en lógica veritativo funcional es «Alfredo es un tipo corriente o es falso que Alfredo sea un tipo co­ rriente». El siguiente escalón después de la lógica veritativo funcional es la lógica cuantificacional de primer orden. Los cuantificadores son «algunos» y «todos». En el lenguaje de la lógica cuantificacional (pero no en el de la lógica veritativo funcional) se pueden formar ora­ ciones tales como «Todas las zarzas tienen espinas» y «Algunos lógi­ cos tienen espinas». Los libros de lógica rebosan de ejemplos de ora­ ciones válidas de lógica cuantificacional: «Si es falso que en el bar todo el mundo esté borracho, entonces en el bar alguien no está bo-43 43 El procedimiento de decisión emplea una regla recursiva: para que X sea un miem­ bro, X debe o bien ser «Alfredo es un tipo corriente» o X debe ser de la forma «es falso que Y», donde Y es un miembro. [La regla es recursiva porque define la pertenencia (de X) én términos de pertenencia (de Y); véase la sección 4.2.]

352

Inteligencia artificial. Una introducción filosófic

rracho», «todo el mundo ama a Susana o alguien no ama a Susana» «si todo lo que hay en la casa me pertenece o me pertenece, entonce todo lo que hay en la casa me pertenece», y así sucesivamente. E conjunto de las oraciones válidas de la lógica cuantificacional de pri mer orden es infinito e indecidible. (Lo demostró por vez primer; Church44.) Todo intento de formular un algoritmo para comproba, la validez de cualesquiera enunciados arbitrarios de la lógica de pri mer orden está abocado al fracaso. Cualquier procedimiento que s< nos ocurra está destinado a fallar, a dar a la larga respuestas errónea: o no darlas, al menos tantas veces como dé respuestas correctas. N< hay ningún procedimiento de decisión para el conjunto de las oracio­ nes válidas de la lógica cuantificacional de primer orden. Sin embargo, este conjunto no es inabordable computacionalmente. Hay un algoritmo que cumple las siguientes condiciones45. 1. Siempre que se aplique el algoritmo a una oración válida d< lógica cuantificacional de primer orden, emitirá (dándole tiempo sufi­ ciente) la respuesta «Sí, esta oración es válida.» 2. Siempre que se aplique el algoritmo a una oración de logics cuantificacional de primer orden que no sea válida, o bien dará el re* sultado «No, esta oración no es válida» o no dará ninguna respuesta (esto es, se quedará computando «para siempre»: en la práctica hasta que alguien lo corte o se le acabe la memoria y se estropee). Un algoritmo que cumple estas dos condiciones se llama procedi­ miento de semi-decisión. Si hay un procedimiento de semidecisión para un conjunto S, se dice que S es semidecidible. Toda respuesta que da un procedimiento de semi-decisión es correcta, y cada vez que se aplica el algoritmo a una oración que pertenece al conjunto, da una respuesta correcta, si esperamos bastante. Cuando el algoritmo se aplica a una oración que no pertenece al conjunto puede dar una res­ puesta (la correcta) o puede no acabar sus cálculos. ¿Se ve por qué un procedimiento de semidecisión no es un proce­ dimiento de decisión? El punto fastidioso es la advertencia de que es­ peremos lo suficiente. Si estamos comprobando una oración y no sale ninguna respuesta, entonces, a pesar de lo que esperemos, nunca po­ 44 Church, A., «A Note on the Entscheidungsproblem». 45 En realidad hay varios. Dos de los mejor conocidos los proporciona el método de los árboles de verdad y el método de resolución, respectivamente.

Un nuevo punto de partida para la IA

353

dremos tener la seguridad de si el algoritmo está a punto de pronun­ ciarse, quizá positivamente, o si la oración es de las inválidas para las que el algoritmo nunca emite un resultado. ¿Hay conjuntos no semidecidibles, esto es, conjuntos para los que ni siquiera haya un procedimiento de semidecisión? Sí. La lógica, otra vez, ofrece un ejemplo. Se sabe que el conjunto de las oraciones válidas de la lógica cuantificacional de segundo orden no es semidecidible. La lógica de primer orden se ocupa de expresiones que dicen que las cosas tienen propiedades y tienen relaciones con otras cosas: «todas las cosas tienen masa», «algunas cosas tienen la propiedad de con lógico y de tener espinas», «hay alguna cosa que tiene la relación ser mayor que con todas las otras cosas». El lenguaje de la lógica de segundo orden no sólo nos permite cuantificar sobre cosas, sino so­ bre las propiedades que tienen las cosas y las relaciones que unas co­ sas tienen con otras. Es decir, en el lenguaje de la lógica de segundo orden podemos escribir oraciones que contienen expresiones como «toda propiedad que» y «hay algunas relaciones que». En el lenguaje de la lógica de segundo orden (pero no en el de la lógica de primer orden) es posible hacer enunciados como «Jules y Jim tienen algunas propiedades en común», «toda cosa tiene alguna propiedad», «Napo­ león tenía todas las propiedades necesarias para ser un buen general» y «todas las relaciones constitucionales que hay entre el presidente y el Senado de los Estados Unidos, las hay también entre el primer mi­ nistro británico y la Cámara de los Comunes». El conjunto de las oraciones válidas de la lógica de segundo orden es intratable computacionalmente como tal. Cualquier intento de escribir un algoritmo que diga «Sí, es un miembro», cuando se aplica a un miembro de un conjunto (y nunca cuando se aplica a algo que no pertenece) está condenado al fracaso. No hay tal algoritmo: lo cual significa que es un conjunto de oraciones no semidecidible. Hay una conexión íntima entre el concepto de que un sistema sea calculable algorítmicamente y el concepto de que un conjunto sea se­ midecidible. Sean los miembros de S descripciones de la conducta entrada/estado/salida de un sistema B. Esto es, cada miembro de B es de la forma «Si el sistema B recibe la entrada I mientras su estado in­ terno es X, entonces pasa al estado Y y produce la salida O». S con­ tiene todas las oraciones verdaderas relativas a B que tienen esta forma. (En algunos tipos de sistemas, los parámetros de estado in­ terno sobran, y en algunos sistemas la entrada a veces producirá un cambio de estado, pero no una salida.) A menos que S sea semidecidi-

354

Inteligencia artificial. Una introducción filosófica

ble, B no será calculable algorítmicamente. Si S no es semidecidible* no puede haber ningún algoritmo que empareje cada descripción de la entrada de B con una descripción correcta de la salida consiguiente (si la hay). En el caso particular de que el sistema B sea el cerebro humano, llamaré a este conjunto de descripciones de la conducta entrada/es^ tado/salida B. Los miembros de B son oraciones muy complicadas. Cada una recoge la salida total (eléctrica y química) que produce el cerebro en respuesta a una entrada total particular recibida mientras el cerebro está en un estado interno (total) específico. ¿Es B infinito? Ésa es una cuestión empírica cuya respuesta no conocemos. Es cierto que el conjunto correspondiente en el caso de una máquina universal de Turing es infinito, puesto que hay infinitas entradas posibles (infinitas maneras de inscribir ceros y unos en la cinta ilimitada antes de poner en marcha la máquina). Mucha gente cree que hay buenas razones a primera vista para creer que también 1 es infinito. Es cierto, desde luego, que un cerebro sólo puede proce­ sar una cantidad finita de entradas finitas en su finita vida. Pero no es evidente que sólo haya una cantidad finita de entradas potenciales de la que salgan las entradas reales que encuentra un cerebro dado. Las entradas potenciales parecen ilimitadas, igual que en el lenguaje co­ mún hay un número ilimitado de oraciones (véase el examen de la productividad de la sección 9.6). Si el número de entradas potenciales es infinito, entonces B es infinito, porque B contiene todas las des­ cripciones entrada/estado/salida, potenciales y actuales. Lo mismo ocurre con los estados. Cada cerebro sólo puede adop­ tar un número finito de estados en su vida, pero el conjunto de esta­ dos potenciales del que se extrae esta cantidad finita puede ser infi­ nito. (De manera análoga, el potencial eléctrico de una membrana celular sólo puede tomar un número finito de valores en el curso de la finita vida de la célula, pero hay un número indefinido de valores posibles entre los valores máximo y mínimo de la membrana del cual se obtiene el conjunto de valores reales.) «Pensar que P» es un ejem­ plo de estado interno, y ciertamente parece que no hay límite al nú­ mero de cosas diferentes que una persona puede pensar. Como dice Jerry Fodor: ... los pensamientos que una persona abriga a lo largo de una vida mental comprenden un subconjunto relativamente asistemático de la enorme varie­ dad de pensamientos que podría haber abrigado si hubieran tenido la oportu­

Un nuevo punto de partida para la IA

355

nidad de surgir. Por ejemplo, probablemente nunca se le ha ocurrido que en los canguros no crece hierba. Pero, una vez llamada la atención sobre ese punto, es una idea que somos perfectamente capaces de abrigar y, probable­ mente admitir46.

¿Cuántas oraciones verdaderas se pueden producir a partir de lo siguiente sustituyendo k por números? ¿Un número finito o infinito? Alguien puede pensar que 1 es menor que k.

(Los números muy grandes se prestan mal a la notación lineal co­ mún, pero recordemos que el cerebro no está restringido a esta nota­ ción. Puede usar una notación exponencial (3,14159 x 105398), intro­ ducir abreviaturas (61 x (3,9)ww, donde w = 7954, cambiar las bases, etc.). Si el número de oraciones verdaderas que se puede producir es infinito, el número de pensamientos potenciales es infinito; si el nú­ mero de pensamientos potenciales es infinito, el número de estados internos potenciales es infinito; y si el número de estados internos es infinito, entonces B es infinito47. ¿Es B decidiblé? No lo sabemos. ¿Es, por lo menos, semidecidible? No lo sabemos. Si B no es semidecidible, el cerebro humano no es calculable algorítmicamente48. Aunque B resultara ser finito po­ dría ser indecidiblq excepto mediante inspección. La existencia, en 46 Fodor,

«Fodor’s Guide to Mental Representation», p, 89. Véase también Psy-

chosemanticSy pp. 147-8.

47 Una máquina de Turing sólo puede tener un número finito de estados (de otro modo no se podrían especificar las transiciones de estado por medio demna tabla finita de estados). Hodges atribuye a Turing la «audaz sugerencia» de que el conjunto de los estados potenciales de la mente humana es también finito (Alan Turing: fTbe Enigma, p. 105). Sin embargo, lo que pensaba Turing, parece ser, es que una máquina de Turing puede simular un ingenio que tenga una cantidad infinita de estados internos empleando símbolos para representar los estados. «La restricción fa un número finito de estados] no afecta seriamente a la computación, pues se puede evitar el uso de estados mentales más complicados escribiendo más símbolos en la cinta» («On Computable Numbers», p. 250). 48 Marian Boykan Pour-El e Ian Richards han mostrado que las soluciones de la ecuación de onda de Maxwell no siempre son computables. Las soluciones computables en un tiempo t pueden no ser computables en un tiempo t 4- 1 (Pour-El, M. B., y Ri­ chards, L, «The Wave Equation with Computable Initial Data such that its Unique Solu­ tion is Not Computable»; «Computability and Noncomputability in. Classical Analy­ sis»). No hay razones para pensar que los campos que estas soluciones describen existan en el mundo real. Sin embargo, el resultado de Pour-El y Richards tiene importancia conceptual. Establece, de forma muy directa, la posibilidad de sistemas físicos que no sean calculables algorítmicamente.

356

Inteligencia artificial. Una introducción filosófica

teoría, de un procedimiento de decisión por inspección podría no te­ ner ninguna aplicación concebible en la IA, dado el tamaño de B y la pura dificultad de formular y registrar sus miembros. Las ambiciones de la IA de simular el cerebro dependen de la viabilidad de que haya un conjunto practicable de algoritmos que puedan generar los miem­ bros de B 49. La demostración de Turing Turing mismo demostró en su ensayo de 1936 la existencia de lo incomputable. Su demostración es simple y elegante. Por puro entre­ tenimiento, he aquí una versión de ella. Una secuencia binaria es cualquier secuencia de los dígitos básicos 0 y 1. Cada registro de la memoria de un computador contiene una secuencia binaria. La cinta de cada máquina de Turing que usa el alfa­ beto binario tiene inscrita una secuencia binaria50. Si la cinta es de longitud finita, la secuencia binaria inscrita en ella es, naturalmente, finita, pero puesto que las máquinas de Turing son abstracciones, se permiten las cintas infinitas y, por tanto, las secuencias binarias infi­ nitas. Simplifica la prueba que voy a dar imaginar que una cinta de una máquina de Turing siempre contiene una secuencia binaria infi­ nita; así, pasemos por alto las máquinas con cintas finitas. Cualquier computación que puede realizar una máquina con una cinta finita también la puede realizar una máquina con una cinta infinita. 49 Se puede esperar que, aunque el cerebro no fuera algorítmicamente calculable, fuera, no obstante, «aproximable recursivamente», en el sentido de Rose y Ullian (Rose, G. F., y Ullian, J. S., «Approximation of Functions on the Integers»). Un sistema es aproximable recursivamente si y sólo si hay un algoritmo que computa las descripciones (no necesariamente en tiempo real) de la conducta de entradas y salidas del sistema, de modo que, después de haber generado un numero suficientemente grande de descripcio­ nes, la proporción de descripciones incorrectas nunca exceda una cifra preestablecida. Pero, por ahora, eso no es más que una .esperanza, Hay incontables funciones que no son aproximables recursivamente (teorema 3.2, op. cit, p. 700). (Véase también Horowitz, B. M., «Constructively Nonpartial Recursive Functions».) 50. Podemos pasar por alto las máquinas de Turing que no usan el alfabeto binario (esto es, máquinas que usan tres o más símbolos básicos), puesto que las pueden simular máquinas que usen el alfabeto binario. También podemos pasar por alto las máquinas de Turing cuyas cintas son infinitas en ambas direcciones, pues las pueden simular máqui­ nas cuya cinta sea infinita en sólo una dirección. Lo mismo ocurre con las máquinas con varías cintas (Minsky, M., Computation: Finite and Infinite Machines, pp. 129-30).

Un nuevo punto de partida para la IA

357

Decir que una secuencia binaria es computable es lo mismo que decir que hay una máquina de Turing que produce la secuencia como salida. Supongamos que todas las secuencias binarias computables es­ tán listadas una detrás de otra (no importa en qué orden). La lista se extenderá infinitamente hacia abajo y hacia la derecha. La esquina su­ perior izquierda de la lista podría tener este aspecto: Cinta de la 1.a máquina: Cinta de la 2.a máquina: Cinta de la 3.a máquina: Cinta de la 4.a máquina:

100111100001111... 110100010011000... 001001101111110... 111000000000111...

Estas secuencias son las salidas de las máquinas. En la cinta de la máquina se inscribe la entrada antes de que comience a funcionar (y, en general, se escribirá encima de ella en el curso de la computación). Leído desde la izquierda, el contenido inicial de una cinta de máquina consta de una secuencia binaria finita, la entrada, seguida por una cadena infinita de ceros que «rellenan» el resto de la cinta. Si no enten­ demos cómo se puede escribir una cadena infinita de ceros, pensemos que la máquina usa unos y espacios en blanco en vez de unos y ceros. La entrada —una cadena finita de blancos y unos— está inscrita al comienzo de una cinta infinitamente larga vacía (ahora el problema es saber cómo han llegado ahí los espacios en blanco). Algunas de las máquinas se detendrán: dejarán de escribir en las cintas después de un tiempo finito. Que la máquina se detenga o no, está determinado por la tabla de máquina y la entrada. Algunas má­ quinas nunca se detienen. Se embarcan en una secuencia infinita. Sin embargo, hay casos en que, siguiendo las instrucciones de su tabla, la máquina acaba por obtener todos los dígitos de la secuencia en un tiempo finito. En la lista anterior están todas las secuencias computables. La clave de demostrar la existencia de lo incomputable es especificar una secuencia binaria que no esté en la lista, y, por tanto, no sea computable. El primer paso para especificar esa secuencia es considerar la se­ cuencia binaría infinita cuyo primer dígito es el primer dígito de la primera secuencia de la lista, cuyo segundo dígito es el segundo dí­ gito de la segunda secuencia de la lista, cuyo tercer dígito es el tercer dígito de la tercera secuencia de la lista, y así sucesivamente (de este modo, la secuencia comienza 1110...). Esta es la secuencia diagonal.

358

Inteligencia artificial. Una introducción filosófica

El paso siguiente es sustituir cada cero de la secuencia diagonal por un uno y cada uno por un cero. El resultado se llama el comple­ mento de la secuencia diagonal. El complemento de la secuencia dia­ gonal no está en la lista. Esto es fácil de establecer. El complemento difiere de la primera secuencia de la lista en el primer dígito, de la se­ gunda secuencia en el segundo dígito, etc. Esto es consecuencia de cómo hemos construido el complemento. Por tanto, el complemento de la secuencia diagonal es una secuencia binaria no computable. Si fuera computable estaría en la lista, y no lo está51. Démonos cuenta de que la lista de secuencias computables bina­ rias se podría haber obtenido de infinitas maneras, pues hay un nú­ mero infinito de candidatas para ocupar el primer lugar de la lista. Se sigue que hay infinitas secuencias binarias que no son computables. Cada lista tiene su propia secuencia diagonal; por tanto, dado que hay infinitas listas, tiene que haber infinitas secuencias no compu­ tables. Recojamos los frutos. Decir que una secuencia no es computable es simplemente decir que no puede haber una máquina de Turing que genere esta secuencia sobre su cinta. Llamaré TURING al conjunto de todas las secuencias que las máquinas de Turing pueden generar y ANTITURING al conjunto de todas las secuencias que ninguna má­ quina de Turing puede generar. No puede haber ningún algoritmo que compute los miembros de ANTITURING, pues si lo hubiera, en­ tonces, por la tesis Church-Turing, una máquina de Turing sería ca­ paz de mimetizar el algoritmo y generar un miembro de ANTITU­ RING, lo cual es imposible. ANTITURING está más allá del alcance de la computación. Decir que un conjunto de secuencias infinitas es decidible equi­ vale a decir, en primer lugar, que hay un algoritmo que puede generar cada miembro del conjunto y, en segundo lugar, que hay un algo­ ritmo que puede generar cada uno de los elementos no pertenecientes al conjunto. Decir que un conjunto de secuencias infinitas es semidecidible equivale a decir que hay un algoritmo que puede generar cada miembro del conjunto, pero no hay algoritmo que genere cada uno de los elementos no pertenecientes. (Cuando extendemos los concep­ tos de decidibilidad y semidecidibilidad, introducidos previamente, a 51 Se conoce este argumento como diagonalización. El primero en usarlo fue Georg Cantor en su famosa demostración, aludida en el capítulo 4, de que hay conjuntos más grandes que el conjunto de los enteros.

Un nuevo punto de partida para ia IA

359

conjuntos de secuencias infinitas, tenemos que omitir, evidente» mente, la idea de que un algoritmo pueda establecer la pertenencia o no pertenencia al conjunto en un tiempo finito.) El conjunto TURING es indecidible, pues como hemos visto, no hay ningún algoritmo que pueda generar cada uno de los elementos que no pertenecen al conjunto. En realidad, TURING no es ni siquiera semidecidible. Esto se debe a que no hay ningún algoritmo único que pueda generar cada secuencia binaria computable. Aquí no hay nin» guna paradoja. Aunque cada una de las secuencias computables sea producida por un algoritmo, no hay ningún algoritmo que las pro­ duzca todas. Como a cada persona la ha producido una madre, pero no hay madre que haya producido a todas. La razón de que no haya tal algoritmo es simple: si lo hubiera, se podría adaptar para que generara un miembro de ANTITURING. El truco estaría en parar continuamente el algoritmo. Le dejaríamos producir sólo el primer dígito de la primera secuencia computable, sólo los dos primeros dígitos de la segunda secuencia computable, sólo los tres primeros dígitos de la tercera secuencia computable, etc. Entonces se ejecutaría otro algoritmo que fuera por detrás reco­ giendo el dígito final de cada una de las secuencias truncadas. Así, en­ tre los dos algoritmos estarían produciendo la secuencia diagonal. Ahora añadimos otro algoritmo que sustituye cada 1 por un 0 y cada 0 por un 1.^Entre los tres estarían computando el complemento de la secuencia diagonal, lo cual es imposible52. 52 Turing demostró que el conjunto de las secuencias binarias computables es indecidible. Mostró que el conjunto de las que llamaba secuencias binarias satisfactorias es in­ decidible. Una secuencia es satisfactoria si y sólo si constituye una codificación —en len­ guaje ensamblador, por ejemplo— de la tabla de máquina y contenido inicial de la cinta de una máquina de Turing que acabe por detenerse (esto es, cuya cabeza, una vez com­ pletada la computación, se pare). Por decirlo de manera menos formal, una secuencia sa­ tisfactoria equivale a: a) que sea una especificación binaria de un programa y una entrada, b) que el programa aceptará la entrada, computará y terminará felizmente. (Como todo aspirante a programador sabe, no todos los programas son así. Algunos se enredan inter­ minablemente en bucles hasta que se les para por la fuerza.) El resultado de Turing de que el conjunto de las secuencias binarias satisfactorias es indecidible se ha venido a de­ nominar Problema de la Parada. Cuando se combina con la tesis Church-Turing, el Pro­ blema de la Parada produce un resultado sorprendente: no puede haber ningún método algorítmico, aplicable a todo computador C y a todo programa P escrito en el código de máquina de C, que determine si C conseguirá obedecer cada instrucción de P. (Recorde­ mos del capítulo 4 que los programas en código de máquina terminan con una instruc­ ción de detención.) No hay ningún método universal para computar si los programas terminarán felizmente.

360

Inteligencia artificial. Una introducción filosófica

En un mismo artículo Turing sacó a la luz la idea de que nuestros procesos cognitivos son calculables algorítmicamente y suministró los recursos conceptuales para entender cómo eso podría no ocu­ rrir53. El éxito de ventas de Roger Penrose La nueva mente del empe­ rador contiene muchas meditaciones interesantes sobre la cuestión que suscita la prueba de Turing. Escribe: «El tipo de problema que intento suscitar es si es concebible que un cerebro humano pueda, pertrechado de leyes físicas "no corríputables” adecuadas, compor­ tarse "mejor”, en algún sentido, que una máquina de Turing»54. Los investigadores de la IA suelen decir que tratan de averiguar las leyes de Maxwell del pensamiento. En el siglo pasado, Maxwell redujo la electrodinámica a unas pocas y elegantes ecuaciones. La idea de hacer lo mismo con la cognición es ciertamente atractiva. Minsky habla de la búsqueda de «los tres algoritmos». Usa la metá­ fora de un niño que tira tres guijarros a un estanque. El patrón ondu­ latorio producido por cada guijarro es muy simple —anillos concén­ tricos que se desplazan hacia afuera—, pero la interacción de los tres patrones produce una confusión de ondas y rizos. La esperanza es —aunque se está debilitando— que la complejidad de nuestra vida cognitiva también resultará ser producto de un pequeño número de elegantes algoritmos. La falta de éxito en la búsqueda de las leyes de Maxwell del pen­ samiento está desembocando en una nueva perspectiva. Se empieza a ver la mente como un revoltijo de muchos algoritmos especializados, un surtido variado de herramientas ad hoc reunidas por la Madre Programadora, la más pragmática del universo. La última generación de sistemas de IA refleja esta nueva imagen. El CYC de Lenat ya contiene unos treinta mecanismos especializados de inferencia. 53 En 1936 Turing sacó someramente a colación la idea de que nuestros procesos cognitivos son calculables algorítmicamente. Después fue más franco. En una conferen­ cia dada en 1947, cuando trabajaba en el ACE, se refirió explícitamente al cerebro como máquina computadora digital («Lecture to the London Mathematical Society», p. 111). [Su afirmación de 1945 de que iba a «construir un cerebro» se ha hecho famosa (Hodges, A., Alan Turing: The Enigmay p. 290).] En «Intelligent Machinery» (p. 16) conjetura «que la corteza cerebral de un niño es una máquina desorganizada, que se puede organi­ zar mediante un adecuado... entrenamiento». Y continúa: «La organización podría pro­ ducir la modificación de la máquina y su conversión en una máquina universal o algo pa­ recido.» [Como ha señalado Justin Leber {An Invitation to Cognitive Scienceyp. 158), las ideas que contiene este ensayo de Turing son una chocante anticipación del PDP.] 54 Penrose, R., The Emperor's New Mind, p. 172.

Un nuevo punto de partida para la IA

361

La IA se polariza en torno a estos dos puntos de vista: un pe­ queño número de algoritmos muy poderosos frente a un gran nú­ mero de algoritmos más débiles y embrollados. Pero queda una ter­ cera y desalentadora posibilidad. Puede que la mente no tenga mucho que ver con los algoritmos, puede que éstos sólo sean personajes se­ cundarios, como mucho. La escritura tradicional de programas de IA ha unido su destino, claro está, ál supuesto de que los procesos cognitivos son calculables algorítmicamente por medio de algoritmos practicables (esto es, algo­ ritmos que se pueden ejecutar en tiempo real usando recursos reales). El PDP también está ligado a este supuesto (como he dicho, las redes PDP son sistemas calculables algorítmicamente). No sugiero, ni por asomo, que ese supuesto sea falso. Me limito a indicar que por ahora hay pocas razones, si hay alguna, para pensar que es verdadero. 10.9. Simulación de redes por computador Puesto que las redes PDP son calculables algorítmicamente, los computadores las pueden simular. La investigación en PDP saca mu­ cho partido de esto. Puede sorprender saber que los investigadores rara vez construyen o estudian redes auténticas: es mucho más con­ veniente estudiar simulaciones de computador. La famosa red de tiempos pretéritos nunca ha tenido existencia concreta, y el experi­ mento descrito en este capítulo se hizo empleando una simulación de computador. No es una trampa. Gran parte del trabajo diario con computadores consiste en mimetizaciones: de terremotos, de explo­ siones nucleares, de sistemas meteorológicos, de economías naciona­ les, de alas de aviones, etc. A menudo es mucho más conveniente trabajar con una simulación de computador que con la entidad misma. (Si un equipo de ingenieros aeronáuticos quiere saber el in­ cremento del alabeo de un ala que producirá añadir un 5 por 100 al peso de los motores, no se dedican a darle vueltas al ala real, sino que alimentan un modelo de computador con los datos de los nue­ vos pesos de los motores y dejan que el programa calcule el incre­ mento del alabeo). Rumelhart y McClelland construyeron un modelo de computa­ dor detallado de la red de pretéritos. Esto es, escribieron un pro­ grama de computador que contenía las especificaciones del número de unidades de la red, sus umbrales, el patrón de las interconexiones,

362

Inteligencia artificial. Una introducción filosófica

las fuerzas iniciales de las conexiones y la fórmula para ajustar las fuerzas de las conexiones durante el entrenamiento. El programa cal­ cula exactamente la conducta de la red propuesta. Se le dice al com­ putador que el estrato de entrada de la red está fijado en el patrón co­ rrespondiente al verbo «squat», por ejemplo, y el programa calcula que, dados los valores actuales de las fuerzas de las conexiones, la red responderá con el patrón de salida correspondiente a «squawked». Estudiar la conducta de la simulación por computador es tan útil como estudiar la conducta de la red real, y mucho más conveniente (no es lo menos importante el hecho de que se ahorra el procedi­ miento físico de aumentar o disminuir las fuerzas de las conexiones reales, a cambio del más simple cometido de alterar los valores numé­ ricos correspondientes del programa). La capacidad de los computadores para simular redes da lugar a una cuestión filosófica evidente. Según el manifiesto de Rumelhart, se supone que el PDP es un contrincante serio de la aproximación clá­ sica a la IA. Pero ¿cómo puede ser eso, si un programa de compu­ tador puede reproducir exactamente la conducta de una red? ¿Son, al fin y al cabo, compatibles el PDP y la hipótesis del sistema de sím­ bolos? Oigamos a representantes de ambos enfoques debatir la cuestión. En mi opinión, el PDP no constituye nin­ gún reto para el proyecto de lograr la IA mediante la programación de computadores. Eso no significa que yo quiera desacreditar el PDP. Estas redes tienen algunos rasgos fascinantes, como la capaci­ dad de proporcionar un acceso direccionable por el contenido a la in­ formación que almacenan. Creo que es muy probable que el PDP aporte muchas ideas significativas a la IA. Sin embargo, me gustaría destacar que, puesto que un programa puede simular todos los aspec­ tos pertinentes de la conducta de una red, la tradicionalista puede co­ ger lo que le guste de las propiedades de las redes sin apartarse del enfoque programador de la IA.

CATALINA DEL SÍMBOLO.

Cierto que, en principio, un programa puede si­ mular cada una de nuestras redes. Pero hay que tener cuidado de lo que se infiere de eso. Las simulaciones posibles en principio no son, con frecuencia, posibles en la práctica. Hasta ahora hemos podido usar simulaciones de computador en nuestras investigaciones, pero sólo porque estudiábamos redes relativamente simples. Aun así, las

MAGNO PARALELO

Un nuevo punto de partida para la IA

363

simulaciones llevan una cantidad de tiempo embarazosa. Por ejem­ plo, es absurda la idea de usar un computador para simular una red lo bastante grande como para mostrar auténtica inteligencia. Nos podría­ mos morir esperando. Sí, los computadores disponibles, con su arquitectura Von Neumann, no son lo bastante rápidos para hacer practicable la simulación de redes de gran tamaño. El rasgo más notable de la ar­ quitectura Von Neumann es el modo secuencial de operación. Así se han construido desde el comienzo. Sin embargo, en tiempos recien­ tes, se han empezado a dejar sentir las limitaciones de la arquitectura Von Neumann. Por ejemplo, nos gustaría construir sistemas expertos con decenas de miles de reglas de inferencia, pero un programa de ese calibre sería demasiado lento. Por ahora el límite práctico está en unos pocos miles. Por eso mucha gente decimos que los días de la ar­ quitectura Von Neumann han pasado. Muchos laboratorios están construyendo computadores experimentales con cantidades enormes de unidades procesadoras que operan en paralelo. Dentro de pocos años, las máquinas Von Neumann serán piezas de museo. CATALINA

También nosotros estamos experimentando con diseños de soportes físicos paralelos. Al fin y al cabo, el procesamiento paralelo es la esencia del PDP. Lo que dice usted me suena a que desea que unamos nuestros proyectos.

MAGNO

Hay puntos de contacto, por supuesto, pero tengamos cuidado de no confundir lo fundamental. Nuestro desacuerdo no se refiere al procesamiento paralelo. El meollo de la disputa es la mani­ pulación de símbolos. Nosotros la queremos y ustedes dicen que ño. Las máquinas paralelas que tenemos en perspectiva seguirán almace­ nando información por medio de un código simbólico, y las opera­ ciones fundamentales de esas máquinas seguirán consistiendo en ma­ nipulaciones, sensibles a la estructura, de fragmentos de este código. Mientras que, por recordarle una de sus propias divisas, el medio bá­ sico de intercambio en el PDP no son los símbolos, sino la excitación y la inhibición. Volviendo ahora al tema de la simulación, estoy de acuerdo en que un computador secuencial no podría simular una red compleja en un lapso razonable. Sin embargo, un computador profu­ samente paralelo debería ser capaz de realizar una simulación en tiempo real de la red más complicada que a ustedes se les pueda ocu­

CATALINA

364

Inteligencia artificial. Una introducción filosófica

rrir. Eso, desde luego, no lo podemos demostrar en el estadio actual, pero creemos que es una conjetura bastante razonable. Por tanto, sigo manteniendo mis posiciones iniciales. Puesto que es verosímil que un manipulador de símbolos pueda simular la conducta de redes arbitrariamente complejas, no veo por qué el PDP es un reto para la tesis de que la manipulación de símbolos es una base adecuada para la IA. MAGNO No estoy satisfecho. Está usted en arenas filosóficas move­

dizas con esas cosas que dice sobre la simulación. La hipótesis del sis­ tema de símbolos afirma que los computadores pueden pensar real­ mente, no que puedan simular el pensamiento. Me parece que, si tenemos razón cuando afirmamos que el cerebro humano no mani­ pula símbolos, entonces su hipótesis se viene abajo. Me voy a expli­ car. Supongamos por un momento que el cerebro humano es una madeja enormemente complicada de innumerables redes PDP, que no hay programas ni símbolos. CATALINA ¡Vaya camelo de suposición! MAGNO No se preocupe. Permítame hacer la suposición por mor

del argumento y veamos dónde nos lleva. Supongamos, además, que un equipo de programación se las arregla para disponer una perfecta simulación por computador de semejante cerebro. Esto es, escriben un programa que contenga una especificación de las conexiones de las neuronas, de las fuerzas de las conexiones, etc. El programa es ca­ paz de calcular el comportamiento exacto del cerebro. Ahora imagi­ nemos que la persona de cuyo cerebro se trata está pensando en el ajedrez. Sería ridículo afirmar que la simulación por computador está pensando en el ajedrez. Al fin y al cabo, ninguno de los símbolos del programa se refiere a piezas de ajedrez, ni a nada remotamente co­ nectado con el ajedrez. Sólo se refieren a unidades de la red, patrones de conectividad, valores umbrales, y así sucesivamente. Con otras pa­ labras, ninguna parte del programa se refiere ál ajedrez: el programa se refiere exclusivamente a redes. Por tanto, creo que debe usted con­ ceder que, aunque el computador simula a alguien que piensa en el ajedrez, él, por su parte, no piensa en el ajedrez. CATALINA Sí, ya he oído antes ese estilo de argumentación. Stuart Sutherland tiene una manera sentenciosa de presentarlo: «Si... el pen-

Un nuevo punto de partida para la IA

365

samiento humano entraña algo más que la manipulación de símbolos, puede que, con todo, fuera posible simular en un computador el pen­ samiento humano, pero el programa no pensaría, igual que el pro­ grama que simula un huracán no provoca vientos»55. Y Searle está en la misma onda: «Nadie supone que.*, la simulación por computador de un incendio vaya a quemar la casa. ¿Por qué diablos ha de suponer alguien que esté en sus cabales que una simulación computacional de los procesos mentales tiene de hecho procesos mentales?»56 MAGNO ¡Vaya! ¿De verdad me estoy poniendo del lado de John

Searle?

CATALINA Lo parece. En realidad hemos vuelto al argumento sobre

si piensa el robot Turbo Sam (sección 6.3). En mi opinión, si el compu­ tador que está en la cabeza de Turbo Sam ejecuta el programa de si­ mulación del cerebro de que habla usted, entonces tenemos un robot que piensa, entiende, y todo lo demás. Al fin y al cabo, Turbo Sam podrá jugar al ajedrez, llevar la casa, discutir de filosofía y, en gene­ ral, hacerse cargo de los rigores de su entorno como cualquiera que tenga un cerebro auténtico. Incluso es posible que Turbo Sam sea un pensador más profundo que el ser humano de cuyo cerebro es el suyo copia. Demos al robot una atenta educación y puede que su in­ telecto florezca como nunca lo hizo el de su «donante». En mi opi­ nión, no afecta a nada que el programa de Turbo Sam conste de sím­ bolos que se refieren a umbrales, patrones de conectivídad, etc. Lo que importa es que, como sistema adaptable para la generación de la conducta, el programa de simulación del cerebro rivaliza con el cere­ bro auténtico. Esto es lo que certifica que Turbo Sam piensa. Por lo tanto, Magno, en este tema está usted estrepitosamente derrotado. No es que el PDP suministre las bases para creer que la hipótesis del sistema de símbolos es falsa, sino que la verdad de la hipótesis se si­ gue de su supuesto de que el cerebro es una malla de redes PDP. Por­ que si el cerebro es eso, un computador lo puede simular y puede, pues, pensar. Cierto, el programa no empleará la receta tradicional para representar el conocimiento (secciones 4.6, 5.5). Según la receta 55 Sutherland, N. S., «Removing the Mystery from Intelligence». (Para conservar la continuidad, he escrito «pensamiento» donde el original pone «inteligencia».) No está claro si Sutherland se adhiere o no al argumento que cito. 56 Searle, J., Minds, Brains and Science, pp. 37-8.

366

Inteligencia artificial. Una introducción filosófica

tradicional, el cerebro se representa directamente. En el programa de simulación del cerebro, el conocimiento se representa indirectamente, a través de una red que «contiene» el conocimiento del caso. Pero eso no es problema. Si el cerebro conoce las reglas del ajedrez, entonces una simulación perfecta del cerebro también las conoce. M AGNO Se ha saltado usted las palabras «en principio», que son decisivas. Es una cuestión empírica por decidir que un computador posible físicamente pueda ofrecer una simulación en tiempo real de un conjunto enormemente complejo de redes (en especial, si los nive­ les de actividad de las unidades son continuos en vez de discretos). Cuando dice usted que un computador puede simular el cerebro, puede que esté hablando del país de las hadas, igual que John Searle cuando dice que se puede hacer un computador con tuberías de agua, llaves de flotador y llaves de paso (sección 6.4), o el filósofo Ned Block, cuando vislumbra la idea de fabricar un computador con mil millones de personas equipadas de emisores/receptores de radio57. Estas cosas son posibles en principio, pero no son posibles ahí donde importa; a saber, el mundo real. 10,10. La batalla del cerebro Volvamos al mentalés (secciones 9.1, 9.4). Según la ciencia cognitiva ortodoxa, el pensamiento humano consiste en la manipulación de «oraciones» de este lenguaje o código interno: el cerebro es un mani­ pulador biológico de símbolos. Según los PDPistas de la línea dura, sus resultados iniciales indican que el cerebro se las arregla muy bien sin mascar símbolos. Las redes simples de neuronas artificiales aguantan el tipo sin la ayuda de computaciones simbólicas; por tanto, es posible que también lo hagan las redes complejas de neuronas rea­ les. La Madre Naturaleza no tiene un lugar para el mentalés, dicen los PDPistas. ¿Cómo responden los ortodoxos? Oigamos una vez más a Catalina del Símbolo. «Las redes PDP son grandes mecanismos de memoria. En reali­ dad, conjeturo que una de las primeras aplicaciones comerciales del PDP será la manufactura de unidades especiales de memoria para 57 Block, N., «Troubles with Functionalism», p. 279.

Un nuevo punto de partida para la IA

367

asistencia de los computadores convencionales. Pero la cognición es algo más que memoria, evidentemente, y el problema es que puede que el PDP no dé para más. Los PDPistas son transparentes a este propósito. Escuchemos a Paul Smolensky: “No está nada claro que los modelos conexionistas [esto es, las redes PDP] tengan la capaddad... adecuada para realizar tareas cognitivas de alto nivel: hay que superar serios obstáculos para que [las redes] puedan ofrecer... una potencia comparable a la de la computación simbólica”5859. »Uno de los problemas principales es el de la inferencia. El com­ putador, como el ser humano, es un motor inferencial en extremo efi­ ciente. Decimos a un computador que Hamish es escocés y que todos los escoceses comen morcón, y la máquina deduce sin esfuerzo que Hamish come morcón. Las redes que no tienen símbolos, por el con­ trario, parecen incorregiblemente necias en la deducción. Hay in­ cluso razones para dudar de que las redes sin símbolos se las puedan haber con distinciones composicionales, como la que hay entre Ha­ mish come el morcón y el morcón come a Hamish59 [esto significa re­ nunciar también a la aritmética, porque la red no responde a la dife­ rencia entre (13x4) + 9 y l 3 x ( 4 + 9)]. Cuando los patrones de actividad correspondientes a Hamish, el morcón y comer, están acti­ vados, no hay nada que le diga a la red quién comió a quién. Las úni­ cas maneras de eludir esto propuestas hasta ahora son ad hoc y artifi­ ciales, no el tipo de métodos que se espera que use el cerebro. »Ninguna de estas dificultades aparece si tenemos símbolos a mano y las propiedades concomitantes de la composicionálidad y la estructura recursiva (sección 4.2). En un computador, los significados de Hamish es escocés y Todos los escoceses comen morcón se represen­ tan por medio de estructuras simbólicas relacionadas. La inferencia lógica es fácil cuando hay un código simbólico estructurado sistemá­ ticamente en el que hacerla. Esto indica que la manera de dotar a las redes de la capacidad de que parecen carecer es convertirlas en mani­ puladores de símbolos. »Como hemos visto, pues, una de las primeras tareas que afron­ tan los investigadores del PDP es idear la manera de que sus redes en­ carnen códigos simbólicos. Nuestro consejo, irónico, es: conviertan sus redes en computadores auténticos. Es una idea emocionante: la 58 Smolensky, P., «On the Proper Treatment of Connecdonism», p. 2, 59 Fodor, J., y Pylyshyn, Z., «Connecdonism and Cognitive Architecture: A Critical Analysis», pp. 21-7.

368

Inteligencia artificial. Una introducción filosófica

ferretería según el modelo de la biología humana es algo con lo que los informáticos han soñado durante años. Me complace decir que los intentos iniciales de hacer que las redes manipulen símbolos han sido alentadores. Por ejemplo, David Touretzky ha conseguido simular una red que ejecuta un programa sencillo que consta de instrucciones como ésta: Si en el espacio de trab ajo se p resen tan los símbolos GATO, bó rralo s y p o n en su lugar los sím bolos PERRO60.

»Ahora puedo comentar el problema de si el PDP está en con­ flicto con la teoría de que el cerebro es un computador. Una conse­ cuencia de lo que acabo de decir es que el cerebro podría constar de redes PDP y, a pesar de todo, ser un computador. Ambas cosas no son incompatibles, puesto que las redes pueden funcionar como pro­ cesadores de símbolos (en efecto, ganan potencia con ello). Los tradicionalistas gustan de considerar el PDP como una teoría sobre el modo como se realiza en el cerebro la computáción simbólica, o, más bien, como los inicios esquemáticos de semejante teoría61. En otras palabras, contemplan el PDP como una investigación de los mecanis­ mos que emplea el cerebro para mascar símbolos. »Un ejemplo aclarará lo que digo. Una potencia desconocida fa­ brica un robot militar secreto. La CIA roba uno y encarga a un labo­ ratorio de IA la tarea de averiguar cómo funciona su computador. El equipo tiene dos tareas emparentadas pero diferentes. Una es investi­ gar el aspecto simbólico: qué clase de código usa el computador y qué programas tiene. La otra es investigar cómo está diseñado el computador. ¿Tiene una arquitectura Von Neumann o es un tipo de procesador paralelo? ¿Usa un sistema de memoria distribuida y, si es así, cómo opera? ¿Qué mecanismos usa cuando ejecuta instrucciones si-entonces?, etc. Las cuestiones de este género se denominan a veces cuestiones de realización. Volviendo a la ciencia cognitiva, ésta tiene también dos niveles de indagación. Está el nivel simbólico, en que nos ocupamos de cuestiones tales como cuál es la naturaleza del código 60 Touretzky, D. S., y Hinton, G, E., «Symbols Among the Neurons: Details of a Connectionist Inference Architecture». 61 Broadbent, D., «A Question of Levels: Comment on McClelland and Rumelhart»; Fodor, J., y Pylyshyn, Z., «Connectionism and Cognitive Architecture: A Critical Analysis», pp. 54-68.

Un nuevo punto de partida para la IA

369

simbólico del cerebro, qué operaciones fundamentales de procesa­ miento de símbolos ha proporcionado la evolución y qué concatena­ ciones de estas operaciones usa el cerebro cuando ejecuta tareas cognitivas. Segundo, está él nivel de la realización: ¿cómo ejecuta esta masa de kilo y medio de tejido el procesamiento simbólico? ¿En serie o en paralelo? ¿De ambos modos? ¿Con programas almacenados o con el equivalente biológico de un componente físico modificable (como el ENIAC)? ¿Tiene un control centralizado o algo distinto? ¿Cómo se gestiona la memoria? ¿Qué clase de estructuras hacen las operaciones fundamentales de manipulación de símbolos? Y así suce­ sivamente. »Hay que estudiar el cerebro computacional en ambos niveles. Los PDPistas se inclinan a pensar que su trabajo es una ruptura radi­ cal con la ciencia cognitive tradicional. Por nuestra parte, vemos las cosas de otra forma. Saludamos el PDP por su esfuerzo original en el estudio del nivel de la realización del cerebro». 10.11. Observaciones finales Esta visión del PDP se llama realizacionismo. En el polo opuesto está el eliminativismo62. El eliminativista cree que se hará manifiesto, cuando avance el PDP, que todas las formas de cognición se pueden explicar sin aludir a un código cerebral de tipo lingüístico. Los eliminativistas dicen que la teoría de que el cerebro es un procesador de símbolos acabará por desaparecer. Entre ambos polos esta el moderativismo. Los moderados esperan que haga falta una diversidad de teo­ rías para explicar por entero el funcionamiento del cerebro. Prevén una división del trabajo, en la que el enfoque simbólico proporcio­ nará la descripción precisa de algunos procesos cognitivos y el PDP «puro» de otros (el procesamiento del lenguaje y el razonamiento ló­ gico se ponen como ejemplos posibles de lo primero y el recono­ cimiento de rostros y la mémoria asociativa de lo segundo). Además, los moderados esperan que el estudio del PDP modifique nuestra comprensión de la computación simbólica misma de forma imprede­ cible y quizá radical (los realizacionalistas pueden compartir o no 62 Empleo más o menos la terminología de Pinker, S., y Prince, A., «On Language and Connectionism: Analysis of a Parallel Distributed Processing Model of Language Acquisition», p. 77,

370

Inteligencia artificial. Una introducción filosófica

esta expectativa). Los moderados señalan que la investigación del uso de arquitecturas PDP para procesar símbolos puede conducir al des­ cubrimiento de una exuberancia de operaciones fundamentales igno­ tas. Las operaciones fundamentales de los computadores contempo­ ráneos —cambiar, comparar-por-la-derecha, copiar, etc.— forman un modelo inverosímil de las operaciones del cerebro. Las operacio­ nes fundamentales de manipulación de símbolos accesibles en las ar­ quitecturas PDP pueden contener mejores promesas. Así, pues, el moderado insiste en que, lejos de eliminar la teoría de que el cerebro es un procesador de símbolos, el estudio del PDP bien puede realzar la plausibilidad de la teoría. Sería prematuro especular sobre cuál de las tres posiciones es acertada. Quizá ninguna (sección 10.8). Hemos traspasado con creces las fronteras actuales del conocimiento. El realizacionismo, el eliminativismo y el moderativismo son las creencias que articulan tres vas­ tos programas de investigación. Estos tres programas compiten entre sí, pero también están estrechamente relacionados. Todos son vástagos de la IA. Para bien o para mal, estos tres programas de investiga­ ción inspirados en el computador dominan los proyectos actuales del estudio del cerebro. Son proyectos que ocuparán a la ciencia cognitiva hasta bien entrado el siglo próximo.

EPÍLOGO

D ecir que un anim al es una m áquina es indicar que su m odo de fu n ­ cionam iento no difiere esencialm ente de las m áquinas que los hom bres pueden hacer o concebir ... E quivale a decir que los organism os vivos están constituidos de tal form a que podem os entenderlos com o los in­ genieros o los físicos entienden sus sistemas .

Richard L. Gregory 1

En 1745 el filósofo y médico Julien de la Metírie afirmó que los seres humanos son máquinas. Como no es de extrañar, sus opiniones fueron recibidas con hostilidad y escarnio. Escribía para una audien­ cia cuyos ejemplos más acabados de máquinas eran los telares y los relojes mecánicos. No se les puede reprochar que hallaran la teoría incomprensible y humillante. («El cuerpo no es sino un reloj», expli­ caba De la Mettrie con osadía. «El hombre no es sino... una colección de resortes que se dan cuerda unos a otros... El cerebro tiene múscu­ los para pensar igual que las piernas tienen músculos para andar» 2.) Mientras que a los contemporáneos de De la Mettrie les era arduo entender que los seres humanos pudieran ser máquinas, hoy día al­ gunas personas hallamos difícil de entender que no lo sean (quizá us­ ted pertenezca, o esté en camino de pertenecer, a ese grupo). El reloj era el mejor ejemplo de artefacto que tenía De la Mettrie; entre los mejores de los nuestros se encuentran artefactos cuya conducta es toscamente similar a la del tejido cerebral. Y cuatro décadas de tra­ bajo experimental en IA nos han enseñado muchas cosas relativas a la 1 Gregory, R. L., «The Brain as an Engineering Problem», p. 310.

2 Mettrie, J. O. de la, Man a Machine, pp. 132.135. 371

372

Inteligencia artificial. Una introducción filosófica

riqueza y la flexibilidad potenciales de las máquinas. Es más, posee­ mos argumentos filosóficos en favor de la posibilidad de que el pen­ samiento y la acción libre sean propiedades de un artefacto, y tam­ poco encontramos razones para dudar de que incluso la conciencia sea un fenómeno puramente físico. En 1637 René Descartes, el padre de la filosofía moderna, sostenía que la capacidad de pensar es nuestra verdadera esencia: eso hace que seamos lo que somos, lo que nos distingue de los animales3. Cogito, ergo snmy decía. Pienso, luego existo. Cuando el siglo XX se acaba,, muchos nuevos seguidores de De la Mettrie añaden sin empacho «machina» después de «sum». Pienso, luego soy una máquina.

3 Descartes, R., «Discurso de! Método».

BIBLIOGRAFÍA

Aikins, J. S. (1983). «Prototypical Knowledge for Expert Systems». Artificial Intelligence, 20, pp. 163-210. Aleksander, I. (comp.) (1989). Neural Computing Architectures: The Design of Brain-Like Machines. Cambridge, MIT Press. Aleksander, L, y Burnett, P. (1987). Thinking Machines: The Search for Arti­ ficial Intelligence. Oxford, Oxford University Press. Anderson, J. A., y Hinton, G. E. (1981). «Models of Information Processing in the Brain», En Hinton, G. E., Anderson, J. A. (comps.) (1981). Parallel Models of Associative Memory. Hinsdale, Lawrence Erlbaum, pp. 9-48. — y Mozer, M. C. (1981). «Categorization and Selective Neurons». En Hin­ ton, G. E., y Anderson, J, A. (comps.) (1981). Parallel Models of Associa­ tive Memory, pp. 213-36. —, Silverstein, J. W,, Ritz, S. A., y Jones, R, S. (1977). «Distinctive Features, Categorical Perception, and Probability Learning: Some Applications of a Neural Model». Psychological Review , 84, pp. 413-51. Armstrong, D. M. (1968). A Materialist Theory of Mind. Londres: Routledge and Kegan Paul. Atanasoff, J. V. (1940). «Computing Machine for the Solution of Large Sys­ tems of Linear Algebraic Equations». En Randell, B. (comp.) (1982). The Origins of Digital Computers. Berlin, Springer-Verlag, pp. 315-35. Augarten, S. (1984). Bit by Bit. Nueva York, Ticknor and Fiels. 373

374

Inteligencia artificial. Una introducción filosófic

Austin, J. L. (1962). Sense and Sensibilia. Oxford: Clarendon (vers. esp. ei Tecnos). Ayer, A. J. (1954). Philosophical Essays. Londres, Macmillan. Barlow, H. B. (1972). «Single Units and Sensation: a Neuron Doctrine fq Perceptual Psychology?». Perception 1, pp. 371-94, Bates, A. M., Bowden, B. V., Strachey, C , y Turing, A. M. (1953).«Digits Computers Applied to Games». En Bowden, B. V. (comp.) (1953). Paste than Thought. Londres, Pitman, pp. 286-310. Bauer, F. L. (1980). «Between Zuse and Rutishauser - The Early Develop ment of Digital Computing in Central Europe», En Metropolis, N* Howlett, J., y Rota, G. C. (comps.) (1980). A History of Computing it the Twentieth Century. Nueva York: Academic Press, pp. 505-24. Beach, F. A., Hebb, D. O., Morgan, C. T., y Nissen H. W. (comps.) (1960) The Neuropsychology of Lash ley. Nueva York: McGraw-Hill. Bennett, J. (1965). «Substance, Reality, and Primary Qualities». American Philosophical Quarterly, 2, pp. 1-17. Berry, A. (1983). The Super-Intelligent Machine. Londres, Jonathan Cape Berwick, R. Q, y Weinberg, A. S. (1984). The Grammatical Basis of Linguistic Performance: Language Use and Acquisition. Cambridge, Massachu­ setts, MIT Press. Biederman, I. (1987). «Recognition by Components: a Theory of Humar Image Understanding». Psychological Review , 94, pp. 115-47. Biro, J. L, y Shahan, R. W. (comps.) (1982), Mind, Brain and Function: Es­ says in the Philosophy of Mind. Brighton, Harvester. Blair, P., Guha, R. V., y Pratt, W. (1992). «Microtheories: An Ontologica Engineer's Guide». MCC Technical Report Number CYC-050-92. Aus­ tin, Texas, Microelectronics and Computer Technology Corporation. Blakemore, C , y Greenfield, S. (comps.) (1987). Mindwaves. Oxford, Basi Blackwell. Block, N. (1978). «Troubles With Functionalism». En Savage, C. W. (comp.) (1978). Perception and Cognition: Issues in the Foundations of Psycholo­ gy. Minneapolis, University of Minnesota Press, pp. 261-325. — (1981). «Psychologism and Behaviourism». Philosophical Review , 90, pp. 5-43.

— (1983). «Mental Pictures and Cognitive Science». The Philosophical Re­ view , 92,499-541. — (1990). «The Computer Model of the Mind». En Osherson, D. N., y Lasnik, H. (comps.) (1990). An Invitation to Cognitive Science. Vol. 3. Thin­ king. Cambridge, Massachusetts, MIT Press, pp. 247-289. Bloomfield, B. P. (comp.) (1987). The Question o f Artificial Intelligence. Londres, Croom Helm. Bobrow, D. (1968). «A Turing Test Passed». ACM SIGARTNewsletter , di­ ciembre 1968, pp. 14-15.

Bibliografía

375

Born, I. (trad.) (1971). The B om -E instein Letters. Londres, Macmillan. Boswell, J. Life o f Sam uel Johnson . Ed. Birrell, A. (1896). Westminster, Ar­ chibald Costable. Bowden, B. V. (comp.) (1953). Faster than Thought. Londres, Pitman. Breton, A. (1924). M anifestes du Surréalism e. Paris, Editions du Sagittaire. Broadbent, D. (1985). «A Question of Levels: Commmet on McClelland and Rumelhart». J o u rn a l o f E xperim en tal P sych ology: G en eral , 114, pp. 189-192. Bromley, A. G. (1982). «Charles Babbage’s Analytical Engine, 1838». Annals o f the H istory o f Com putings 4, pp. 196-217. Bundy, A. (comp.) (1980). A rtificial Intelligence. Edimburgo, Edinburgh University Press. Burks, A. W. {1980). «From ENIAC to the Stored-Program Computer: Two Revolutions in Computers». En Metropolis, N., Howlett, J., y Rota, G. C. (comps.) (1980). A H istory o f C om puting in the T w entieth C en­ tury. Nueva York, Academic Press, pp. 311-44. —, Goldstine, H. H., y Von Neumann, J. (1946). «Preliminary Discussion of the Logical Design of an Electronic Computing Instrument». Hay una versión modificada en Randell, B. (comp.) (1982). The O rigins o f D igital Com puters. Berlín, Springer-Verlag, pp. 399-413. Carpenter, B. E., y Doran, R. W. (comps.) (1986). A. M . Turingfs A C E R e­ p o rt o f 1946 a n d O th er Papers. Cambridge, Massachusetts, MIT Press. Carruthers, P. (1986). Introducing Persons. Londres, Croom Helm. Chisholm, R. M. (1957). Perceiving: A P hilosophical S tu dy. Nueva York, Cornell University Press. Chow, K. L. (1968). «Visual Discriminations After Extensive Ablation of Optic Tract and Visual Cortex in Cats». Brain Research , 9, pp. 363-6. Church, A. (1936a). «A Note on the Entscheidungsproblem». The Journal o f Sym bolic Logic , 1, pp. 40-1. — (1936b). «An Unsolvable Problem of Elementary Number Theory». The Am erican Journal o f M athem atics , 58, pp. 345- 63. Churchland, P. M. (1985). «Reduction, Qualia, and the Direct Introspection of Brain States». The Journal o f Philosophy, 82, pp. 8-28. — (1986). «Some Reductive Strategies in Cognitive Neurobiology». M in d , 95, pp. 279-310. —, Churchland, P. S. (1990). «Could a Machine Think?». Scientific Am erican, 262(1), pp. 26-31 (ed. cast, en Investigación y C iencia , n.° 162, marzo 1990). Churchland, P. S. (1986). Neurophilosophy: T ow ard a U nified Science o f the M ind/B rain. Cambridge, Massachusetts, MIT Press. Colby, K. M. (1975). A rtificial Paranoia. Nueva York, Pergamon. — (1981). «Modeling a Paranoid Mind». B ehavioural an d Brain Sciences, 4, pp.515-34.

Inteligencia artificial. Una introducción íilosófic:

376

Colby, K., Watt, J. B., y Gilbert, J. P. (1966). «A Computer Method of Psy chotherapy: Preliminary Communication». The Journal of Nervous am Mental Disease, 142, pp. 148-152. —, Weber, S., e Hilf, F. D. (1971). «Artificial Paranoia». Artificial Intelligent ce, 2,1-25. Cooper, D. (comp.) (1993). Companion to Aesthetics. Oxford, Basil Blackwell. Copeland, B. J. (1979). «On When a Semantics is not a Semantics». Journal of Philosophical Logic, 8, pp. 399-413. — (1980). «The Trouble Anderson and Belnap have with Relevance». Philo­ sophical Studies, 37, pp. 325-34. — (1984). «Horseshoe, Hook, and Relevance», Theoria, 50, pp. 148-64. — (1985). «Substitutional Quantification and Existence». Analysis, 45, pp. 1-4. — (1986). «What is Semantics for Classical Negation?» Mind , 95, pp. 478-90. — (1993a). «The Curious Case of the Chinese Gym». Synthese (en prensa). — (1993b). «Compatibilism and Modality» (en prensa). — (1993c). «What is Computation?» (en prensa). — (1993d). «Vagueness and Bivalence» (en prensa). — (comp.) (1994). Logic and Reality: Essays in Pure and Applied Logic In Memory of Arthur Prior. Oxford, Oxford University Press (en prensa). Copi, I. M. (1961). Introduction to Logic. Segunda edición. Nueva York, Collier-Macmillan. Corballis, M. (1991). The Lopsided Ape . Nueva York, University Press. Cottingham, J., Stoothoff, R., y Murdoch, D. (1985). The Philosophical Wri­ tings of Descartes. Cambridge, Cambridge University Press, vol. 1. Craik, K. J. W . (1943). The Nature of Explanation. Cambridge: Cambridge University Press. Crik, F., y Asanuma, C. (1986). «Certain Aspects of the Anatomy and Phisiology of the Cerebral Cortex». En McClelland, J. L., Rumelhart, D. E., y el grupo PDP (1986). Parallel Distributed Processing: Explorations in the Microestructure of Cognition. Vol. 2: Psychological and Biological Models. Cambridge, Mass: MIT Press, pp. 333-71. Culbertson, J. T, (1956). «Some Uneconomical Robots». En Shanon, C. E., y McCarthy, J. (comps.) (1956). Automata Studies. Princeton, Princeton University Press, pp. 99-116. — (1963). The Minds of Robots: Sense Data , Memory Images, and Beha­ viour in Conscious Automata. Urbana, University of Illinois Press. Darrach, B. (1970). «Meet Shakey, The First Electronic Person», Life, vol. 69, parte 21, 20 noviembre 1970, pp. 58B-68. Davidson, D. (1967). «The Logical Form of Action Sentences». En David­ son, D. (1980). Essays on Actions and Events. Oxford, Clarendon Press, pp. 105-22.

Bibliografía

377

Davidson, D. (1973). «Freedom to Act». En Davidson, D. (1980). Essays on Actions and Events. Oxford, Oxford Clarendon Press, pp. 63-81. — (1980). Essays on Actions and Events . Oxford: Oxford Clarendon Press. Davis, J. L., y Garver, D. L. (1978). «Neuroleptics: Clinical Use in Psy­ chiatry». En Iverson, L. L., Iverson, S. D., y Snyder, S. H. (comps.) (1978). Handbook of Psychopharmacology. Nueva York, Plenum, vol. 10, pp. 129-64. Deecke, L., Grozinger, B., y Kornhuber, H. H. (1976). «Voluntary Finger Movement in Man, Cerebral Potentials and Theory». Biological Cyherneticsy 23, pp. 99-119.

Degn, H., Holden, A. V., y Olsen, L. F. (comps) (1987). Chaos in Biological Systems. Nueva York, Plenum, vol. 10, pp. 129-64. Dejong, G. (1977). «Skimming Newspaper Stories by Computer», Procee­ dings in the Fifth International Joint Conference on Artificial Inteligence.

Cambridge, Massachusetts Institute of Technology, p. 16. Dennett, D. C., (1978a). Brainstorms: Philosophical Essays on Mind and Psy­ chology. Brighton, Harvester. — (1978b). «On Giving Libertarians What They Say They Want». En Den­ nett, D. C. (1978). Brainstorms: Philosophical Essays on Mind and Psy­ chology. Brighton, Harvester, pp. 286-99. — (1978c). «Toward a Cognitive Theory of Consciousness». En Dennett, D . C. (1978). Brainstorms: Philosophical Essays on Mind and Psychology. Brigthon, Harvester, pp. 149-73. — (1984). Elbow Room: The Varieties of Frewill Worth Wanting. Oxford, Clarendon Press. — (1988). «Quining Qualia». En Marcel, A. J., y Bisiach, E. (comps.) (1988). Consciousness in Contemporary Science. Oxford, Clarendon Press, pp. 42-77.

— (1991). Consciousness Explained. Boston, Little Brown. Descartes, R. (1641) (1995). Discurso del método, Alianza Editorial, Madrid, 18.a edición. Doyle, J. (1979). «A Truth Maintenance System». Artificial Intelligence, 12, pp. 231-72.

Dreyfus, H; L. (1965). Alchemy and Artificial Intelligence. Santa Monica, Rand Corporation Report P-3244, Die. 1965, — (1979). What Computers Can't Do: The Limits of Artificial Intelligence. Edición revisada. Nueva York, Harper & Row. — y Dreyfus, S. E. (1986). Mind Over Machine. Nueva York, Macmillan/The Free Press. Eccles, J. C. (comp.) (1966). Brain and Conscious Experience. Berlin, Sprin­ ger-Verlag. — (1972). «Possible Synaptic Mechanism Subserving Learning». En Karcz-

378

Inteligencia artificial. Una introducción filosofía

mar, A. G., y Eccles, J. C. (comps.) (1972). Brain and Human Behaviour. Berlin, Springer-Verlag, pp. 39- 61. Eccles, J. C. (1979). The Human Mystery. Nueva York, Springer. Eckert, J. P. (1980). «The ENIAC». En Metropolis, N., Howlett, J., y Rota G. C. (comps.) (1980). A History of Computing in the Twentieth Cen­ tury. Nueva York, Academic Press, pp. 525-39. Elgot, C. C., y Robinson, A. (1964). «Random-Access Stored-Program Ma­ chines, an Approach to Programming Languages». Journal o f the Asso­ ciation for Computing Machinery, 11, pp. 365-99. Elman, J. D., y Zipser, D. (1988). «Learning the Hidden Structure of Spe­ ech». Journal of the Acoustical Society of America 83, pp. 1615^29. Ernst, G. W,, y Newell, A. (1969). GPS: A Case Study in Generality and Problem Solving. Nueva York, Academic Press. Feigenbaum, E. A., y Feldman, J. (comps.) (1963). Computers and Thought Nueva York, McGraw-Hill. Feldman, J. A., y Ballard, D. H. (1982). «Connectionist Models and theii Properties». Cognitive Science, 6, pp. 205-54. Fleck, J. (1982). «Development and Stablishment Lin Artificial Intelligence». En Bloomfield, B. P. (comp.) (1987). The Question of Artificial Intelli­ gence. Londres, Croom Helm, pp. 106-64. Flew, A. (1955). «Divine Omnipotence and Human Freedom». En Flew, A., y MacIntyre, A. (comps.) New Essays in Philosophical Theology. Lon­ dres, SMC Press. — y MacIntyre, A. (comps.) New Essays in Philosophical Theology. Lon­ dres, SMC Press. Fodor, J. A. (1975). The Language of Thought. Nueva York, Thomas Y. Crowell [hay ed. cast. (1985): El lenguaje del pensamiento , Madrid, Alianza Editorial]. — (1985). «Fodor’s Guide to Mental Representation, The Intelligent Aun­ tie's Vade-Mecum». Mindy 94, pp. 76-100. — (1987). Psychosemantics: The Problem of Meaning in the Philosophy of Mind . Cambridge, Massachusetts, MIT Press. — y Pylyshyn, Z. (1988). «Connectionism and Cognitive Architecture: A Critical Analysis». En Pinker, S., y Mehler, J. (comps.) (1988). Connec­ tions and Symbols. Cambridge, Massachusetts, MIT Press, pp. 3-71. Frankfurt, H. G. (1971). «Freedom of the Will and the Concept of a Per­ son». En Frankfurt, H. G. (1988). The Importance o f What We Care About : Philosophical Essays. Cambridge, Cambridge University Press, pp. 11-25. — (1976). «Identification and Externality». En Frankfurt, H. G. (1988). The Importance of What We Care About: Philosophical Essays. Cambridge, Cambridge University Press, pp. 58-68.

Bibliografía

379

Frankfurt, H. G. (1988). The Importance of What We Care About: Philosohical Essays. Cambridge, Cambridge University Press. Freud, S, (1932). Nene Folge der Vorlesungen zur Einführung in die Psychoa­ nalyse. Frankfurt, S. Fischer Verlag. Fuller, L. L. (1958). «Positivism and Fidelity to Law - A Reply to Professor Hart». Harvard Law Review , 71., pp. 630-72. Gazzaniga, M. S; (1988). «Brain Modularity: Towards a Philosophy of Cons­ cious Experience». En Marcel, A. J,, y Bisiach, E. (comp.) (1988). Cons­ ciousness in Contemporary Science. Oxford, Clarendon Press, pp. 218-38. —, Bogen, J. E., y Sperry, R. W. (1965). «Observations on Visual Perception After Disconnection of the Cerebral Hemispheres in Man». Brain , 8, pp. 221-36. —, Le Doux, J. E. (1978). The Integrated Mind. Nueva York, Plenum. Gelernter, H., Hansen, J. R., y Loveland, D. W. (1960). «Empirical Explora­ tions of the Geometry Theorem Proving Machine». En Feigenbaum, E. A., y Feldman, J. (comps.) (1963). Computers and Thought. Nueva York, MacGraw-Hill, pp. 153-63. Gentzen, G. (1934). «Investigations Into Logical Deduction». En Szabo, M. E. (comp.) (1969). The Collected Papers of Gerhard Gentzen . Ams­ terdam, North-Holland, pp. 68-131. Ginet, C. (1966). «Might We Have No Choice?». En Lehrer K. (comp.) (1966). Freedom and Determinism. Nueva York, Random House. Giuliano, V. E, (1965). «Comments on a Paper by R. F. Simmons». Compu­ tational Linguistics, -.8, pp. 69-70. Gleick, J. (1988). Chaos: Making a New Science. Londres, Cardinal. Goldstine, H. H. (1872). The Computer from Pascal to Von Neumann. Prin­ ceton, Princeton University Press. — y Goldstine, A. (1946). «The Electronic Numerical Integrator and Com­ puter». En Randell, B. (comp.) (1982). The Origins of Digital Computers. Berlin, Springer-Verlag, pp. 359-73. Good, I. J. (1980). «Pioneering Work in Computers at Bletchley». En Metro­ polis, N., Howlett, J., y Rota, G. C. (comps.) (1980). A History of Compu­ ting in the Twentieth Century. Nueva York, Academic Press, pp. 31-45. Goodall, J. van Lawick (1971). In the Shadow of Man. Londres, Collins. Gregory, R. L. (1961). «The Brain as an Engineering Problem». En Thorpe, W. H., y Zanwill, O. L. (comps.) (1961). Current Problems in Animal Behaviour. Cambridge, Cambridge University Press, pp. 307-30. — (comp.) (1987). The Oxford Companion to the Mind. Oxford, Oxford University Press (hay ed. cast.: (1995), Diccionario Oxford de la Mente, Alianza Editorial, Madrid). Gross, C. G., Bender, D. B., y Rocha-Miranda, C. E. (1974). «Inferotemporal Cortex: A Single-unit Analysis». En Schmitt, F. O., y Worden, F. G.

Inteligencia artificial. Una introducción filosófica

380

(comps.) (1974). The Neuro sciences: Third Study Program. Cambridge, Massachusetts, MIT Press, pp. 229-38. Gruenberger, F. J. (1979). «The History of the JOHNNIAC». Annals of the History of Computings 1, pp. 49-64. Guha, R. V. (1990). «The Representations of Defaults in CYC». MCC Tech­ nical Report Number ACT-CYC-083-90. Austin, Texas, Microelectro­ nics and Computer Technology Corporation. — y Lenat, D. B. (1990). «CYC: A Mid-Term Repon». AI Magazine, Fall, pp. 32-59. — y Levy, A. Y. (1990). «A Relevance Based Meta Level». MCC Technical Report Number ACT-CYC-040-90. Austin, Texas, Microelectronics and Computer Technology Corporation. Gunderson, K. (1985). Mentality and Machines. Londres, Croom Helm. Hanks, S., y McDermott, D. (1986). «Default Reasoning, Nonmonotonic Logics, and the Frame Problem». Proceedings of the Fifth National Conference on Artificial Intelligence, pp. 328-33. Harlow, J. M. (1868). «Recovery From the Passage of an Iron Bar Through the Head». Massachusetts Medical Society Publications, 2, pp. 328-47. Harth, E. (1982). Windows of the Mind: Reflections on the Physical Basis of Consciousness. Brighton, Harvester. Haugeland, J. (comp.) (1981a), Mind Design: Philosophy, Psychology,Artifi­ cial Intelligence. Cambridge, Massachusetts, MIT Press. — (1981b). «Analog and Analog». En Biro, J. I., y Shahan, R. W. (comps.) (1982). Mind, Brain, and Function: Essays in the Philosophy of Mind . Brighton, Harvester, pp. 213-25. — (1985). Artificial Intelligence: the Very Idea . Cambridge, Massachusetts, MIT Press. Heiser, J. F., Colby, K. M., Faught, W. S., y Parkinson, R. C. (1980). «Can Psychiatrists Distinguish a Computer Simulation of Paranoia from the Real Thing?» Journal of Psychiatric Research, 15, pp. 149-62. Herken, R. (comp.) (1988). The Universal Turing Machine. Oxford, Oxford University Press. Hinton, G, E. (1985). «Learning in Parallel Networks». BYTE, abril 1985, p p .265-73.

— Anderson, J. A. (comps.) (1981). Parallel Models of Associative Memory. Hillsdale, New Jersey, Lawrence Erlbaum. Hobbes, T. Works. Ed. Molesworth, E. (1839-45). Londres, John Bohn. Hodges, A. (1983). Alan Turing: The Enigma. Londres, Burnett. Hofstadter, D. R. (1980). Godel, Escher, Bach: an Eternal Golden Braid. Nueva York, Basic [hay ed. cast.: (1989), Godel, Escher, Bach, Barcelona, Tusquets]. — (1982). «Variations on a Theme as the Essence of Imagination». Scientific American, 247 (4), pp. 14-21.

Bibliografía

381

Hofstadter, D. R. (1985). Metamagical Themas: Questing for the Essence of Mind and Pattern. Nueva York, Basic Books. — y Dennett, D. C. (comps.) (1981). The Mind's L Nueva York, Basic Books. Holden, A. V. (comp.) (1986). Chaos. Manchester, Manchester University Press. Honderich, T. (comp.) (1988). A Theory of Determinism: The Mind, Neuroscience, and Life-Hopes. Oxford, Clarendon Press. Horowitz, B. M. (1980). «Constructively Nonpartial Recursive Functions». Notre Dame Journal of Formal Logic, 21, pp. 273-6. Hospers, J. (1967). An Introduction to Philosophical Analysis. Londres, Routledge & Kegan Paul [hay ed. cast. (1984), Introducción al análisis filosó­ fico, Madrid, Alianza Editorial]. Hughes, G. E,, y Cresswell, M. J. (1968). An Introduction to Modal Logic. Londres, Methuen. Hume, D. (1748). An Enquiry Concerning Human Understanding. Ed. Selby-Bigge, L. A. (1902). Oxford, Clarendon Press [hay ed. cast. (1993), Investigaciones sobre los principios de la moral, Madrid, Alianza Edito­ rial]. Huxley, T. H. (1866). Lessons in Elementary Psychology. Londres, Mac­ millan. Jackendoff, R. (1987). Consciousness and the Computational Mind. Cam­ bridge, Massachusetts, MIT Press. Jackson, F. C. (1982). «Epiphenomenal Qualia». Philosophical Quarterly, 32, 127-36. — (1986). «What Mary Didn’t Know». The Journal of Philosophy, 83, pp. 291-5. — (comp.) (1991). Conditionals. Oxford, Oxford University Press. Jackson, P. (1986). Introduction to Expert Systems. Wokingham, AddisonWesley. Jaynes, J. (1990). The Origin of Consciousness in the Breakdown of the Bica­ meral Mind. Segunda ed. Boston, Houghton Mifflin. Jefferson. G. (1949). «The Mind of Mechanical Man». British Medical Jour­ nal, 25, junio 1949, pp. 1105-10. Johnson-Laird, P. N. (1983). Mental Models: Towards a Cognitive Science of Language, Inference and Consciousness. Cambridge, Cambridge Univer­ sity Press. — (1988). The Computer and the Mind: An Introduction to Cognitive Science. Londres, Fontana [hay ed. cast. (1990), El ordenador y la mente: introducción a la ciencia cognitiva, Barcelona, Paidós] Kant, I. 1788. Critique of Practical Reason. Trad, de Beck, L. W. (1949). Chi­ cago, University of Chicago Press [hay ed. cast. (1984), Crítica de la ra­ zón práctica, Madrid, Espasa-Calpe].

Inteligencia artificial. Una introducción filosófic

382

Karczmar, A. G., y Eccles, J. C. (comps.) (1972). Brain and Human Beba viour. Berlín, Springer Verlag, Keating, E. G., y Horel, J. A. (1972). «Effects of Prestriate and Striate Le sions on the Monkey's Ability to Locate and Discriminate Visua Forms». Experimental Neurology, 35, pp. 322-36. Kilburn, T., y Williams, F. C. (1953). «The University of Manchester Com puting Machine». En Bowden, B. V. (comp.) (1953). Faster that Thought. Londres, Pitman, pp. 117-29. Kohonen, T. (1980). Content-Adressable Memories. Berlin, Springer-Verlag Kosslyn, S. H. (1980). Image and Mind, Cambridge, Massachusetts, Harvarc University Press. — (1983). Ghosts in the Mind's Machine: Creating and Using Images in thi Brain. Nueva York, Norton. Krantz, D. H., Atkinson, R. C., y Luce, R. D., Suppes, P. (comps.) (1974) Contemporary Developments in Mathematical Psychology. Vol. 2: Mea­ surement, Psychophysics, and Neural Information Processing. San Fran­ cisco, W. H. Freeman. Kripke, S. A. (1980). Naming and Necessity. Oxford, Basil Blackwell. Lackner, J. R., y Garrett, M. F. (1972). «Resolving Ambiguity, Effects ol Biasing Context in the Unattended Ear». Cognition,1, pp. 359-72. Lamb, J. (1977). «On a Proof of Incompatibilism». Philosophical Review , 86, pp. 20-35.

Laplace, P. (1814). Essai Philosophique sur les Probabilités. Segunda ed. París, Courcier [hay ed. cast. (1985), Ensayo filosófico sobre las probabilidades, Madrid, Alianza Editorial]. Larson, E. R. (1974). «Honeywell Inc. v. Sperry Rand Corp., et al». US Pa­ tent Quarterly, 180, pp. 673-772. Lashley, K. S. (1950). «In Search of the Engram». En Beach, F. A., Hebb, D. O., Morgan, C. T., y Nissen, H. W. (comps.) (1960). The Neurophisiology of Lashley. Nueva York, McGraw-Hill, pp. 478-505. Lavington, S. H. (1975). A History of Manchester Computers. Manchester, NCC Publications. — (1980). Early British Computers. Manchester, Manchester University Press. Lehrer, K. (comp.) (1966). Freedom and Determinism. Nueva York, Random House. Leiber, J. (1991). An Invitation to Cognitive Science. Oxford, Basil Blackwell. Lenat, D. B. (1982). «The Nature of Heuristics». Artificial Intelligence, 19, pp. 189-249. — (1984). «Computer Software for Intelligent Systems». Scientific Ameri­ can, 251 (3), pp. 152-60.

Bibliografía

383

Lenat, D. B., y Feigenbaum, E. A. (1991a). «On the Thresholds of Know­ ledge», Artificial Intelligence, 47, pp. 185-230. — y Guha, R. V. (1990). Building Large Knowledge-Based Systems: Repre­ sentation and Inference in the CYC Project. Reading, Massachusetts, Adisson-Wesley. Lewis, C. L, y Langford, C. H. (1932). Sym bolic Logic. Nueva York, Dover, (1959). Lewis, D. K. (1971). «Analog and Digital». Nous , 5, pp. 321-7. — (1980). «Mad Pain and Martian Pain». En Lewis, D. (1983b). Philosophi­ cal Papers, vol. 1. Nueva York, Oxford University Press, pp. 122-30. — (1983a). «Postscript to Mad Pain and Martian Pain». En Lewis, D. (1983b). Philosophical Papers, vol. 1. Nueva York, Oxford University Press, pp. 130-2. — (comp.) (1956). Contemporary British Philosophy, Series 3. Londres, George Allen 51 Unwin. Libet, B. (1985). «Unconscious Cerebral Initiative and the Role of Conscious will in Voluntary Action». Behavioural and Brain Sciences, 8, pp. 529-39. Longuet-Higgins, H. C. (1968). «The Non-Local Storage of Temporal Infor­ mation». Proceedings of the Royal Society, Series B, 171, pp. 327-34. — (1972). «To Mind Via Semantics». En Kenny, A. J. P., Longuet-Higgins, H. C., Lucas, J. R., y Waddington, C. H. (1972). The N ature o f M ind. Edimburgo, Edinburgh University Press, pp. 92-107. Lovelace, A. A., y Menabrea, L. F. (1843). «Sketch of the Analytical Engine Invented by Charles Babbage, Esq.» En Bowden, B. V. (comp.) (1953). Faster than Thought. Londres, Pitman, pp. 341-408. Lycan, W. G. (1987). Consciousness. Cambridge, Massachusetts, MIT Press. Mabbot, J. D. (1956). «Freewill and Punishment». En Lewis, H. D. (comp.) (1956). Contemporary British Philosophy, Series 3. Londres, George Allen 6c Unwin, pp. 289-309. Marcel, A. J., y Bisiach, E. (comps.) (1988). Consciousness in C ontem porary Science. Oxford, Clarendon Press. McCarthy, J. (1980). «Circumscription - A Form of Non-Monotonic Reaso­ ning». Artificial Intelligence, 13, pp. 27-39,171-2. — (1986). «Applications of Circumscription to Formalising Common-Sense Knowledge». Artificial Intelligence, 28, pp. 89-116. — y Hayes, P. J. (1969), «Some Philosophical Problems from the Standpoint of Artificial Intelligence». En Meltzer, B. y Michie, D. (comps.) (1969). Machine Intelligence 4. Edimburgo, Edinburgh University Press, pági­ nas 463-502. . McClelland, J. L. (no publicado). «Models of Perception and Memory Based on Principles of Neural Organisation». — (1987). «The Basis of Lawful Behaviour: Rules or Connections?». The Computers and Philosophy Newsletter, 2 (1) pp. 10-16.

384

Inteligencia artificial. Una introducción filosófica

McClelland, J. L. y Rumelhart, D. E. (1986). «Amnesia and Distributed Me­ mory». En McClelland, J. L., Rumelhart, D. E., y el PDP Research Group (1986). P arallel D istrib u ted Processing: Explorations in the M icroestructure o f C o g n itio n . VoL 2: P sychological a n d B iological M odels . Cambridge, Massachusetts, MIT Press, pp. 503-27. —, Rumelhart, D. E., e Hinton, G. E. (1986). «The Appeal of Parallel Distri­ buted Processing». En McClelland, J. L., Rumelhart, D. E., y el PDP Re­ search Group (1986). P arallel D istrib u ted Processing: Explorations in the M icroestructure o f C ogn ition . VoL 1: Foundations. Cambridge, Massa­ chusetts, MIT Press, pp. 3-44 [hay trad. cast. (1992), «El atractivo del procesamiento distribuido en paralelo», en Introducción a l Procesam iento D istribuido en Paralelos Madrid, Alianza Editorial]. —, Rumelhart, D. E., y el PDP Research Group (1986). P arallel D istribu ted Processing: Explorations in the M icroestructure o f C ognition . VoL 2: Psy­ chological an d Biological M odels . Cambridge, Massachusetts, MIT Press, (ed. cast, parcial, presentada por J. A. García Madruga, de ambos volú­ menes bajo el título Introducción al Procesam iento D istribu ido Paralelo , Madrid, Alianza Editorial). McCorduck, P., M achines 'Who T hink , Nueva York, W. H. Freeman. (Vers, esp. en Tecnos). McCulloch, W. S., y Pitts, W. (1943). «A Logical Calculus of the Ideas Im­ manent in Nervous Activity», B ulletin o f M ath em atical Biophysics , 5, pp. 115-33. McDermott, D. (1976). «Artificial Intelligence Meets Natural Stupidity». En Haugeland, J. (comp.) (1981). M in d Design: Philosophy , Psychology , A rti­ ficial Intelligence. C am bridge , Massachusetts, MIT Press, pp. 143-60. — y Doyle, J. (1980). «Non-Monotonic Logic I». A rtificial Intelligence , 13, pp. 41-72. McGinn, C. (1989). M en tal C on ten t . Oxford, Basil Blackwell. Meltzer, B., y Michie, D. (comps.) (1969). M achine In telligen ce 4. Edim­ burgo, Edinburgh University Press. Metropolis, N., Howlett, J., y Rota, G. C. (comps.) (1980). A H isto ry o f C om puting in the T w entieth C entury. Nueva York, Academic Press. — y Worlton, J. (1980). «A Trilogy of Errors in the History of Compu­ ting». A nnals o f the H istory o f Com putings 2, pp. 49-59. Mettrie, J. O. de la (1748). M an a M achine . Trad. Gertrude Bussey (1912). Illinois, Open Court (1953). Michie, D. (1974). O n M achine Intelligence. Edimburgo, Edinburgh Univer­ sity Press. Mill, J. S. (1924) (1873). A u tobiograph y . Nueva York, Columbia University Press. Minsky, M. L. (1967). C om putation : Finite an d In fin ite M achines. Engle­ wood Cliffs, New Jersey, Prentice-Hall.

3ibliografía

385

Víinsky, M. L. (comp.) (1968). Semantic Information Processing, Cambridge, Massachusetts, MIT Press. — (1974). «A Framework for Representing Knowledge» Una version resu­ mida aparece en Haugeland, J. (comp.) (1981). Mind Design: Philosophy, Psychology, Artificial Intelligence. Cambridge, Massachusetts, MIT Press, pp. 95-128. — (1984). «Adaptive Control: From Feedback to Debugging». En Selfridge, O. G., Rissland, E. L., y Arbib, M. A. (comps.) (1984). Adaptive Control of Ill-Defined Systems. Nueva York, Plenum, pp. 115-25. — (1986). The Society of Mind. Nueva York, Simon and Schuster. — y Papert, S. (1969). Perceptrons: An Introduction to Computational Geo­ metry. Cambridge, Massachusetts, MIT Press. —, Papert, S. (1972). «Progress Report on Artificial Intelligence». Cam­ bridge, Massachusetts, MIT AI Lab Memo 252. Moravec, H. (1988). Mind Children: The Future of Robot and Human Inte­ lligence.:Cambridge, Massachusetts, Harvard University Press. Moto-Oka, T. (comp.) (1982). Fifth Generation Computer Systems. Amster­ dam, North-Holland. — y otros (1982). «Challenge for Knowledge Information Processing Sys­ tems. (Preliminary Report on Fifth Generation Computer Systems.)», en Moto-Oka, T. (comp.) (1982). Fifth Generation Computer Systems. Amsterdam, North-Holland, pp. 3-89. — y Kitsuregawa, M. (1985). The Fifth Generation Computer. The Japanese Challenge. Nueva Yolk, Wiley. Nagel, T. (1971). «Brain Bisection and the Unity of Consciousness». Synthese, 22, pp. 396-413. —* (1974). «What is it Like to be a Bat?». Philosophical Review , 83, 435-50. — (1986). The View from Nowhere. Nueva York, Oxford University Press. Nemirow, L. (1980). «Review of Thomas Nagel’s M ortal Q uestions». Philosophical Review ,89, pp. 473-7.

Newell, A.

(1980). p p .135-83. (1982).

«Physical Symbol Systems». Cognitive Science, 4,

— «The Knowledge Level. Artificial Intelligence», 18, pp. 87-127. —, Shaw, J. C., y Simon, H. A. (1957). «Empirical Explorations with the Logic Theory Machine: a Case Study in Heuristics». En Feigenbaum, E. A., y Feldman, J. (comps.) (1963). Computers and Thought, Nueva York, McGraw-Hill, pp. 279-93. — y Simon, H. A. (1976). «Computer Science as Empirical Inquiry: Symnbols and Search». En Haugeland, J. (comp.) (1981). Mind Design: Philosophy, psychology, Artificial Intelligence. Cambridge, Massachusetts, MIT Press, pp. 35-66. Nisbett, R. E. y Wilson, T. D. (1977). «Telling More Than We Can Know:

386

Inteligencia artificial. Una introducción filosófica

Verbal Reports On Mental Processes». Psychological Review , 84, pági­ nas. 231-59. Osherson, D. N., y Lasnik, H. (comps.) (1990). An Invitation to Cognitive Science. Vols. 1-3. Cambridge, Massachusetts, MIT Press. Pellionisz, A. J. (1986). «Old Dogmas and New Axioms in Brain Theory». Behavioural and Brain Sciences, 9, pp. 103-4. — y Llinás, R. (1979). «Brain Modeling by Tensor Network Theory and Computer Simulation. The Cerebellum: Distributed Processor for Pre­ dictive Coordination». Neuroscience, 4, pp. 323-48. Penrose, R. (1989). The Emperor's New Mind . Oxford, Oxford University Press [hay ed. cast. (1991), La nueva mente del emperador, Madrid, Mondadori]. Pinker, S. (1984). Language Learnability and Language Development. Cam­ bridge, Massachusetts, MIT Press. — y Mehler, J. (comps) (1988). Connections and Symbols. Cambridge, Mas­ sachusetts, MIT Press. — y Prince, A. (1988). «On Language and Connectionism: Analysis of a Parallel Distribute Processing Model of Language Acquisition». En Pin­ ker, S., y Mehler, J. (comps.) (1988). Connections and Symbols. Cam­ bridge, Massachusetts, MIT Press.. Poggio, T., y Koch, C. (1985). «Ill-posed Problems in Early Vision: from Computational Theory to Analogue Networks». Proceedings of the Ro­ yal Society of London , B226, pp. 303—23. Pour-El, M. B., y Richards, I. (1981). «The Wave Equation with Computable Initial Data such that its Unique Solution is Not Computable». Advances in Mathematics, 39, pp. 215-39. — (1983). «Computability and Noncomputability in Classical Analysis». Transactions of the American Mathematical Society, 275, pp. 539-60. Pribram, K. H., Nuwer, M., y Baron, R. J. (1974). «The Holographic Hy­ pothesis of Memory Structure in Brain Function and Perception». En Krantz, D. H., Atkinson, R. C., Luce, R. D., y Suppes, P. (comps.) (1974). Contemporary Developments in Mathematical Psychology. Vol. 2: Measurement, Psychophysics, and-Neural Information Processing. San Francisco, W. H. Freeman, pp. 416-57. Proudfoot, D. (1993). «Fictional Entities». En Cooper, D. (comp.) (1993). Companion to Aesthetics, Oxford, Basil Blackwell. Putnam, H. (1964). «Robots: Machines or Artificially Created Life?» en Put­ nam, H. (1975b). Mindy Language and Reality. Cambridge, Cambridge University Press, pp. 386-407. — (1967). «The Mental Life of Some Machines». En Putnam, H. (1975b). Mindy Language and Reality . Cambridge, Cambridge University Press, pp. 408-428. — (1975a). «Philosophy and our Mental Life», en Putnam, H. (1975b).

Bibliografía

387

Mind, Reality and Language. Cambridge, Cambridge University Press, pp. 291-303.

Putnam, H. (1975b). Mind, Language and Reality. Cambridge, Cambridge University Press. Pyiyshyn, Z. W. (comp.) (1970). Perspectives On The Computer Revolution. Englewood Cliffs, New Jersey, Prince-Hall. — (1980). «The "Causal Power” of Machines». Behavioural and Brain Sciences, 3, pp. 442-4. — (1984). Computation and Cognition: Towards a Foundation for Cog­ nitive Science. Cambridge, Massachusetts, MIT Press (vers. esp. en Debate). Randell, B. (1972). «On Alan Turing and the Origins of Digital Computers». En Meltzer, N., y Michie, D. (comps.) (1972). Machine Intelligence 7. Edimburgo, Edinburgh University Press, pp. 3-20. — (1980). «The Colossus». En Metropolis, N., Howlett, J., y Rota, G. C. (comps.) (1980). A History of Computing in the Twentieth Century . Nueva York, Academic Press, pp. 47-92. — (comp.) (1982). The Origins o f Digital Computers. Berlin, Springer Verlag. Raphael, B. (1976a). The Thinking Computer: Mind Inside Matter. San Fran­ cisco, W. H. Freeman. . — (1976b). «The Robot "Shakey” and "His” Succesors». Computers and People 25 (10), p. 7. Ringle, M. (comp.) (1979). Philosophical Perspectives in Artificial Intelligen­ ce. Brighton, Harvester. Rose, F. (1985). Into the Heart of the Mind. An American Quest for Artifi­ cial Intelligence. Nueva York, Vintage Books. Rose, G. F., y Ullian, J. S. (1963). «Approximation of Functions on the Inte­ gers». Pacific Journal of Mathematics, 13, pp. 693-701. Rose, S. (1976). The Conscious Brain. Edición revisada. Hardmondsworth, Penguin. Rosenblatt, H. (1962). Principles o f N euro dynamics. Washington, D. C., Spartan. Roszak, T. (1986). «Smart Computers ar Insecure Stage». New Scientist, 3 de abril, 1986, pp. 46-7. Rumelhart, D. E., McClelland, J. L., y el grupo PDP (1986). Parallel Distri­ buted Processing: Explorations in the Microstructure, of Cognition. Vol. 1: Foundations. Cambridge, Massachusetts, MIT Press [hay ed. cast, parcial (1992), Introducción al procesamiento distribuido en paralelo, Madrid, Alianza Editorial]. — y McClelland, J. L. (1986a), «On Learning the Past Tenses of English Verbs». En Rumelhart, D. E., McClelland, J. L., y el grupo PDP (1986).

Parallel Distributed Processing: Explorations in the Microstructure of

Inteligencia artificial. Una introducción filosófica

388

Cognition. VoL 2: Psychological and Biological Models. Cambridge, Mas­

sachusetts, MIT Press, pp. 216-781 Rumelhart, D, E., y McClelland, J. L. (1986b). «PDP Models and General Is­ sues in Cognitive Science». En Rumelhart, D. E., McClelland, J. L., y el grupo PDP (1986). Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Vol. 1: Foundations. Cambridge, Massachu­ setts, MIT Press, pp. 110-46 [hay ed. cast. (1992), «Modelos PDP y cues­ tiones generales de la ciencia cognitiva», en Introducción al Procesa­ miento Distribuido en Paralelo, Madrid, Alianza Editorial]. —, Hinton, G. E., y McClelland, J. L. (1986). «A General Framework for Parallel Distributed Processing». En Rumelhart, D. E,, McClelland, J. L., y el PDP Research Group (1986). Parallel Distributed Processing: Explo­ rations in the Micro structure of Cognition. Vol. 1: Foundations. Cam­ bridge, Massachusetts, MIT Press, pp. 45-76 [hay ed. cast. (1992), «Un marco general para el Procesamiento Distribuido en Paralelo», en Intro­ ducción al Procesam iento op. cit.]. —, Hinton, G. E, y Williams, R. J. (1986). «Learning Internal Representa­ tions by Error Propagation», En Rumelhart, D. E., McClelland, J. L.> y el PDP Research Group (1986). Parallel Distributed Processing: Explora­ tions in the Microstructure of Cognition. Vol. 1: Foundations. Cambridge, Massachusetts, MIT Press, pp. 318-62 (hay ed. cast: (1992), «El aprendi­ zaje de las representaciones internas por propagación del error», en In­ troducción al Procesamiento..., op. cit.). Russell, B. (1912). The Problems of Philosophy. Oxford, Oxford University Press. Sakitt, B. (1972). «Counting Every Quantum». Journal of Physiology, 223, pp. 131-50. Samuel, A. L. (1959). «Some Studies in Machine Learning Using the Game of Checkers». En Feigenbaum, E. A., y Feldman, J. (comps.) (1963). Com­ puters and Thought. Nueva York, McGraw-Hill, pp. 71-105. Savage, C. W. (comp.) (1978). Perception and Cognition: Issues in the Foun­ dations of Psychology. Minneapolis, University of Minnesota Press. Schank, R. C. (1979). «Natural Language, Philosophy and Artificial Intelli­ gence». En Ringle, M. (comp.) (1979). Philosophical Perspectives in Arti­ ficial Intelligence. Brighton, Harvester, pp. 196-224. — (1980). «Understading Searle». Behavioural arid Brain Sciences, 3, pp. 446-7.

— (1984). The Cognitive Computer. Reading, Mass.; Addison-Wesley. — y Abelson, R. (1977). Scripts, Plans, Goals and Understanding. Hillsdale, New Jersey, Lawrence Erlbaum [hay ed. cast. (1988), Guiones, planes, metas y entendimiento, Barcelona, Paidos]. Schmitt, F. O., y Worden, F. G. (comps.) (1974). The Neurosciences: Third Study Program. Cambridge, Massachusetts, MIT Press.

Bibliografía

389

Searle, J. (1980a). «Minds, Brains, and Programs». Behavioural an d Brain Sciences , 3, pp. 417-24. — (1980b). «A uthor's R esponse». B e h a v io u ra l a n d Brain Sciences , 3, pp. 450-6. — (1989). M inds , Brains an d Science: the 1984 R eith Lectures. Londres, Pen­ guin (hay ed. cast.: (1985), M entes , cerebros y ciencia , Madrid, Cátedra). — (1990a). «Is the Brain's M ind a C om puter Program ?». S cien tific A m erican , 262 (1), pp. 20-5. (ed. cast, en Investigación y Ciencia , n.° 162, marzo (1990). — (1990b). «Is the Brain a Digital Computer?», Proceedings an d Addresses o f the A m erican Philosophical Association , 64, pp. 21-37. Sejnowski, T. J., y Rosenberg, C. R. (1987), «Parallel Networks that Learn to Pronounce English Text». C om plex System s , 1, pp. 145-68. Selfridge, O . G., Rissland, E. L., y Arbib, M. A. (comps.) (.1984). A daptive C ontrol o f Ill-D efin ed System s. Nueva York, Plenum. Shaffer, J. A. (1968). Philosophy o f M ind. Englewood Cliffs. N ew Jersey, Prentice-Hall. Shannon, C. E., y McCarthy, J. (comps.) (1956). A utom ata Studies. Prince­ ton, Princeton University Press. Shortliffe, E. H . (1976). C om puter-B ased M edical Consultations: M Y C IN . Nueva York, Elsevier. Shurkin, J. (1983). «Computer Pioneer and H is Historic Program Still Active at Stanford». Stanford, Stanford University N ew s Service. — (1984). Engines o f the M ind. Nueva York, W . W . Norton. Simon, H. A. (1965). The Shape o f A utom ation: For M en and M anagem ent , Nueva York, Harper 6c Row. — (1977a) «What Computers Men for Mand and Society». Science, 196, p p .1186-91. — (1977b). «Artificial Intelligence Systems that Understand». Proceedings o f the Fifth Internation al Joint Conference on A rtificial Intelligence. Cam­ bridge, Massachusetts Institute of Technology, pp. 1059-73. Simon, H. L., y N ew ell, A. (1958). «Heuristic Problem Solving: The Next Advance in Operations Research». O perations Research , 6, pp. 1-10. — y Newell, A. (1964). «Information-Processing in Computer and Mand». En Pylyshyn, Z. W. (comp.) (1970). Perspectives on the C om puter R evo­ lution. Englewood Cliffs, N ew Jersey, Prentice-Hall, pp. 256-73. Simons, G. L. (1983). Are Computers Alive f Brighton, Harvester. — (1984). In troducin g A rtificial In telligen ce . Manchester, N C C Publica­ tions. [hay ed. cast (1987), Introducción a la A. /., Díaz de Santos]. — (1985). The B iology o f C om puter Life. Brighton, Harvester. Sloman, A. (1978). The C om puter R evolution in Philosophy. Brighton, Har­ vester.

390

Inteligencia artificial. Una introducción filosófica

Slote, M. A. (1980) «Understanding Free Will». The Journal o f Philosophy , 77, pp. 136-51. Smith, B. C. (1991). «The O w l and the Electric Encyclopaedia», A rtificial Intelligence , 47, pp. 251-88. Smolensky, P. (1988). «On the Proper Treatment of Connectionism», Behabioural a n d Brain Sciences , 217, pp. 1-23. Sperry, R. W. (1982). «Some Effects of Disconnecting the Cerebral Hem is­ pheres», Science , 217, pp. 1223-6. Squire, L. R., y Zola-Morgan, S. (1988). «Memory: Brain Systems and Beha­ viour». Trends in N euroscience , 11, pp. 170-5. Sterelny, K. (1990). The R epresen tation al Theory o f M in d . Oxford, Basil Blackwell. Stern, N . (1979). «The BINAC: A Case Study in the History of Techno­ logy». A nnals o f the H istory o f C om putings 1, pp. 9-20. Stich, S. (1983). From Folk P sych o lo g y to C o g n itiv e Science: The C ase A gainst B elief . Cambridge, Massachusetts, MIT Press. Sussman, G. J. (1975). A C om pu ter M odel o f Skill A cquisition . Nueva York, Elsevier. . Sutherland, N . S. (1986). «Removing the Mystery of Intelligence». The Ti­ m es H igh er Education Supplem ent , 8, fer., 1986, p. 16. Thorp, J. (1980). Free W ill: A D efence A gainst N europhysiological D eterm i­ n ism . Londres, Routledge & Kegan Paul. Thorpe, W. H ., y Zangwill, O. L. (comps.) (1961). C urrent P roblem s in A n i­ m al B ehaviour , Cambridge, Cambridge University Press. Touretzky, D . S., e Hinton, G. E. (1985). «Symbols Among the Neurons: Details of a Connectionist Inference Architecture». Proceedings o f the N in th In ternation al Join t Conference on A rtificial Intelligence . Los A l­ tos, Morgan Kaufmann, pp. 238-43. Trusted, J. (1984). Free W ill a n d R esponsibility . Oxford, Oxford University Press. Turing, A. M. (1936). «On Computable Numbers, with and Application to the Entscheidunsproblem», Proceedings o f the London M athem atical So­ ciety , serie, 2,42, (1936-37), pp. 230-65. — (1947). «Lecture to the London Mathematical Society on 20 February 1947». En Carpenter, B. E., y Doran, R. W. (comps.) (1986). A. M . Tu­ ring's A C E R eport o f 1946 an d O th er Papers , Cambridge, Massachusetts, MIT Press, pp. 106-24. — (1948). «Intelligent Machinery». En Meltzer, B., y Michie, D . (comps.) (1969). Machine Intelligence 5. Edimburgo. Edinburgh University Press, pp, 3-23. — (1950). «Computing Machinery and Intelligence». M ind 59, pp. 433-60. Turing, S. (1959). Alan Turing . Cambridge, W. Heffer.

Bibliografía

391

Turkle, S. (1984). The Second Self: C om puters a n d the H um an Spirit. Nueva York, Simon and Schuster, Ullman, S, (1984). «Visual Routines». C ognition , 18, pp. 97-159. Van Inwagen, P. (1983). A n Essay on F reew ill . Oxford, Clarendon Press. Von Neumann, J. (1945). «First Draft of a Report on the EDVAC». Aparece una versión corregida en Randell, B. (comp.) (1982). The O rigins of D igi­ tal Com puters. Berlín, Springer Verlag, pp. 383-92. — (1951). «The General and Logical Theory of Autómata». En Pylyshyn, Z. (comp.) (1970). P erspectives on th e C om pu ter R evo lu tio n . Englewood Cliffs, N ew Jersey, Prentice-Hall, pp. 87-113. — (1958). The C om pu ter an d the Brain. N ew Haven, Yale University Press. Waldrop, M. M. (1984). «Artificial Intelligence in Parallel». Science , 225, pp. 608-10. — (1987). M an-M ade minds: The Prom ise o f A rtificial Intelligence. Nueva York, Walker. Waltz, D. L. (1975). «Understanding Line Drawings of Scenes With Sha­ dows». En Winston, P. H. (comp.) (1975). The Psychology o f Com puter Vision. Nueva York, McGraw-Hill, pp. 19-91. — (1982) «Artificial Intelligence». Scientific A m erican , 147 (4), pp. 101-22. Warren, R. M. (1970). «Perceptual Restoration of Missing Speech Sounds», Science, 167, pp. 392-3. Weiskrantz, L. (1977). «Trying to Bridge Some Neuropsychological Gaps Between Monkey and Man». British Journal o f Psychology , 68, pp. 431-45. — (1986). B lindsight . Oxford, Oxford University Press. — (1987). «Neuropsychology and the Nature of Consciousness». En Blakemore, C. y Greenfield, S. (comps.) (1987). Mindwaves. Oxford, Basil Blackwell, pp. 307-20. — «Some Contributions of Neuropsychology of Vision and Memory to the Problem of Consciousness». En Marcel, A. J., y Bisiach, E. (comps.) (1988). C onsciousness in C o n tem p o ra ry Science . Oxford, Clarendon Press, pp. 183-99. —■ Warrington, E. K., Sanders, H. D., y Marshall, J. (1974). «Visual Capacity in the H em ionopic Field Follow ing a Restricted Occipital Ablation». Brain , 97, pp. 709-28. Weizenbaum, J. (1966); «ELIZA - A Computer Program for the Study of Natural Language Communication Between Man and Machine» C om ­ m unications o f th e Association fo r C om puting M achinery , pp. 36-45. — (1976). C om pu ter P ow er a n d H um an Reason: From Judgem ent to Calcu­ lation,. San Francisco, W. H. Freeman. Whitehead, A. N ., y Russell, B. (1910). Principia M athem atica. Cambridge, Cambridge University Press. Wiggins, D . (1973). «Towards a Reasonable Libertarianism», En Honderich,

392

Inteligencia artificial. Una introducción filosófica

T. (comp.) (1973). Essays on Freedom o f A ction . Londres, Routledge and Kegan Paul, pp. 31-61. Wilkes, K. «-. Yishi, Duh, Um, and Consciousness». En Marcel, A. J., y Bi~ siach, E. (comps.) (1988). Consciousness in C on tem porary Science . O x­ ford, Clarendon Press, pp. 16-41. Winograd, T. A. (1971). Procedures as a R epresentation fo r D a ta in a C om ­ p u ter P rogram fo r U nderstanding N a tu ra l Language. Cambridge, Mas­ sachusetts, MIT Project MAC. — (1972). U nderstanding N a tu ra l Language . NuevaYork, Academic Press. — (1975). «Breaking the Complexity Barrier Again». S IG P L A N N otices, 10, p p .13-22. — (1980). «What D oes it Mean to Understand Language?» C ognitive Scien­ ce■, 4, pp. 209-41. — A rtificial In telligen ce an d L anguage C om prehension. Reading, Massa­ chusetts, Addison-W esley. — y Flores, F. (1986). U nderstanding C om puters an d C ognition . N o rw o o d , N ew Jersey, Ablex. Winston, P. H . (comp.) (1975a). The Psychology o f C om pu ter Vision. Nueva York, M cGraw-Hill. Winston, P. H . (1975b). «Learning Structural Descriptions from Examples». En Winston, P. H . (comp.) (1975a). The Psychology o f C om puter Vision. Nueva York, M cGraw-Hill, pp. 157-209. Wittgenstein, L. (1953).* Philosophical Investigations . Oxford, Basil Blackwell [hay ed. cast. (1988), Investigaciones filosóficas, Barcelona, Crítica]. W ood, C. C. (1987). «Variations on a Theme by Lashley: Lesion Experi­ ments on the Neural M odel of Anderson, Silverstein, Ritz and Jones». Psychological R e v ie w , 85, pp. 582-91. Wooldridge, D . (1963). The M achinery o f the B rain . Nueva York, McGrawHill. W oolf, V. (1927). To The Lighthouse . Londres, Hogarth. Young, J. Z. (1987). Philosophy a n d the Brain. Oxford, Oxford University Press. Zuse, K. (1980). «Some Remarks on the H istory of Com puting in Ger­ many». En Metropolis, H., H owlett, J., y Rota, G. C. (comps.) A H istory o f C om pu tin g in the T w entieth C en tu ry. Nueva York, Academic Press, pp. 611-27.

INDICE ANALITICO

Ablación, 286-290 Abu Jaafar Muhammed iba Músa alKhuwárizmi, 345 acceso aleatorio direccionamiento indirecto y, 122n v e r tam bién direccionamiento nu­ mérico; memoria ACE, 32, 32n, 129n, 360n acontecimientos estatuto ontológico de, 162, 162n, 163 activación continua, 330,366 discreta, 314-319,366 adaptabilidad profusa artefactos y, 93-96, 97,365 caracterización, 93 en la formulación de la hipótesis del sistem a de sím bolos, 126, 127 Aikins, J., 60

ajedrez, 27, 30n, 49-51, 64, 140, 150,364,366 ajedrez problema del tablero in­ completo, 140 Ajena 54, 54n, 88 aleatoriedad cerebro y, 223,241 en la entrada de la máquina, 242 Einstein y, 220n estimulación sensorial y, 241 hardw are y, 223,223n libertad de la voluntad y, 222-226, 223n, 233,234,241,246 Turing y, 223,223n, 224 v e r tam bién determinismo; mecá­ nica cuántica Aleksander, L, 328, 329, 329n ALGOL, 21n algorítmica, calculatibilidad aproximabilidad recursiva y, 356n caracterización, 345-347 cognición y, 348-361, 360n 393

394

Inteligencia artificial. Una introducción filosófica

ecuación de onda y, 355n tesis Church-Turing y, 346-348, 359n v e r ta m b ién algoritmo; decibilidad algoritmo aproximabilidad recursiva y, 356n en arquitectura analógica, 305 caracterización, 345-347 cerebro y 349, 355, 356, 356n, 360, 361 decibilidad y, 348-359 leyes de M axw ell del p en sa­ miento, 360 no existencia de, 352-354, 356, 358,361 realizabilidad m últiple de, 129, 346, 349n teorema de la parada y, 359n v e r tam bién; calculabilidad algo­ rítmica; decibilidad AM, 159 Amígdala, 289n analógico, 25In, 303-307, 305n Anderson, J., 2 8 9 ,289n androide, 43, 91n; v e r ta m b ié n Turbo Sam aprendizaje algoritmos de aprendizaje, 313n, 321, 321n, 322 argumento de las diversas incapa­ cidades y, 215 argumento de la habitación china, 339 cerebro y, 322,332,334,335 generalización y, 322, 323-325, 329 frente a alimentación manual, 81, 127, 160, 165, 166 en PDP, 313n, 320-325, 324n . presupone conocimiento, 159 programas de aprendizaje, 27, 44,

45,47-49, 54, 133, 150, 160, 161, 165 Turing y el, 8 1 ,360n v e r tam bién memoria Armstrong D., 25ln, 252, 252n arquitectura analógica, 303-307 cerebro y, 291-295, 366-370 examen, 74-76, 85-87, 138-140, 192n, 350, 356,357 nivel de realización y, 369 paralela, 293, 313n, 316-322, 332, 333,363 problema de distinguir entre pro­ cesam iento de sím bolos y no procesamiento de símbolos, 331 procesamiento de símbolos, 108126, 291, 292, 308-311, 329-331, 362-369' Von Neuman, 25, 291-295, 291n, 363,368 v e r ta m b ié n PDP; m áquina de Turing; máquina von Neumann artificiales, neuronas, v e r PDP A SC II, 101, lO ln, 102, 108, 110, 111,191,285 Ashby, JL, 32n Atanasoff, J., 2 4 ,24n Augarten, S., 21 n Austin, J. L., 242,242n avispa cavadora, 93, 93n axóñ, v e r neurona A yer, Á. J., 225, 225n, 226, 245, 245n Babbage, C., 31n, 129,129n Ballard, D., 28 ln Barlow, H ., 289,289n base 2, v e r números binarios BASIC; 34,35, 108,283n, 346n Beal, D., 50n Bennett, J., 260n Bereitschaftspotential, 218,218n Berliner, H., 50

índice analítico Berry, A .y 28n Biederman, L, 305, 306, 306n, 307n biestable, elemento, 100, lOOn, 107, 279,280,286,289,296 BINAC, 2 2 ,2 3 ,22n, 30 binaria, secuencia, 356-359 secuencias binarias satisfactorias, 359n binarios, números, 101 n, 106, 107, 111-113, llln , 116-122,191 binarios, símbolos, 100-123 almacenamiento de, 100, 111, 112, 289 alternativas a, 107, 108, 129, 274, 331,359n argumento de la habitación china y, 190-193,195-197,202 cerebro y, 129,130,274,279 com posicionalidad y, 101-104, 297 direccionamiento, y 112, 113, 283286 ejemplo paradigmático de código simbólico, 331 Máquina de Turing y, 206, 207, 21 On, 211, 211n, 354, 356-358, 356n, 359n neurona de M cC ulloch-Pitts y, 279 no computabilidad y, 356-360 operaciones fundamentales sobre, 99,100,108-123,292 programas almacenados y, 25n, 108-114,207,359n programar con, 108-113, 117-123 realizabilidad m últiple de, 101, 128-130, 279 recursion y, 104,105 redes PDP y, 329-331 representación de las letras y, 101, 323 representación de números y, 105107,115-117

395

representación del conocim iento y, 102-104, 156, 157, 202 representación indirecta y, 126n, 366 v e r tam bién código simbólico di­ reccionam iento; lenguaje en­ sam blador; m anipulación de símbolos; secuencia binaria; ta­ blas de verdad Bletchley Park, 21, 3 1 ,32n Block, N ., 79n, 196n, 296n, 366 b loques, m undo de, 40-43, 94, 132, 144-147, 171, v e r tam bién micromundo Bobrow, D ., 72n Boltzmann, máquina de, 319 Boswell, J., 217,217n búsqueda, 26, 49, 51, 136-143, 165, 166,177-187,273,285 Cantor, G-, 127,127n, 358n caos, teoría del, 236-240,245 Carnegie Mellon University, 29, 50, 52,151,216 Carruthers, P., 80 causalidad conexión necesaria y, 163 epistemología y, 163 libertad de la voluntad y, 219-221, 226-229,231-236,242-245 mecánica cuántica y, 241 paradoja de la implicación mate­ rial y, 170-172 problema del marco y, 172-177 qualia y 260-262 representación de la, 170-177, 170n, 176n responsabilidad moral y, 235 valoración de las inferencias y, 184 v e r tam bién aleatoried.ad; determinismo Centaur, 60, 60n, 61

396

Inteligencia artificial. Una introducción filosófica

centro cerebral del habla, 253, 253n, 255 gesto y, 253 cerebelo, 336 cerebro, aprendizaje y, 322, 332, 334, 335 argumento de la habitación china, y 204-211 centro del habla del, 253, 253n, 255 cerebros divididos, 252-256, 253n com o computador, 19, 30, 54, 97, 98, 130, 156-158, 272-311, 354356, 355n, 356n, 360, 360n, 366'370 comparación con inventos tecno­ lógicos, 98,275 conciencia y, 65-69,247-271 conexiones dentro del, 187, 276, 276n, 277, 280, 282, 283, 332338 degradación elegante del, 290, 290n, 333 del murciélago, 264-266 determ inism o y, 220, 221, 227, 228, 232,249 direccionam iento por contenido y, 284,285,285n, 333 distribución y, 286-289 diversidad de procesamiento en el, 295, 303, 305-307, 310, 369, 370 finitud del, 354, 355,355n geometría y, 336-338,337n gesto y, 253 hemisferios del, 253-256,253n hologramas y, 287, 288 no máquina von Neum ann, 291295 no com putabilidad y, 349, 355, 355n, 356, 356n, 360 operaciones computacionales fun­ damentales, 130, 274, 294, 296, 307,309, 310, 331, 366-370

PD P y, 312-329, 332-338, 348, 361,364, 365, 366-370 potencial de aprestamiento y, 218 procesamiento paralelo en el, 282, 283, 293, 332, 349 productividad del pensamiento y, 300-307, 355 qualia y, 260-271 química del, 262, 267, 269, 278, 278n, 335, 336 redundancia y, 199, 286-289, 333 reglas y 156-158, 325, 360 representaciones en el, 130, 156158, 274, 289n, 293, 295-311, 298n, 310n, 331, 344, 366-370 símbolos binarios y, 129-130, 274, 279 simulación de, 282, 283, 342-344, 344-348, 356,361-365 sistema supervisor y, 251-258 teoría del caos y 239 tesis Church-Turing y, 348-361 v e r tam bién arquitectura; deter­ m inism o n eu ro fisio ló g ico ; h ardw are; hipótesis fuerte del sistema de sím bolos; neurona cerebros divididos, 252-256, 253n certeza, factor de, 61 chimpancés, 79, 88, 94,95 china, argumento de la habitación, 188-214, 237 interpretación errónea del, 192n invalidez lógica del, 195,196 PDP y, 338-344 Chisholm, R., 299n Church, A., 183n, 207n, 345, 345n, 346, 352, 352n ve r tam bién tesis Church-Turing Church-Turing, tesis, 344-360 argumentos en favor de la, 347348 en demostraciones de incomputabilidad, 360

índice analítico

procesos cognitivos y, 347-360 Colossus, 2 1 ,21n, 31 versiones de, 344-348 comisurotomía, 252-256, 251 n teorema de la parada y, 359n 229-246,229n Churchland, R M., 265n, 337n, 338, compatibilismo, compilador, 108,110-112,283n 338n Churchland, R S., 265n, 291, 338, 338n

397

complejidad, barrera de la 146, 186, 187 composicionalidad ciclo recuperar-operar-almacenar, caracterización, 102 292 código sim bólico, 102, 126, 310, clasificación, problema de la, 325367-369 329 recursion y, 105,108,126, 367 cláusula cornuta, 176n, 177n, 185n símbolos binarios y, 101-104, 105, datos inconsistentes y, 185n 106.331 codificación dispersa, 285 com putabilidad, v e r decidibilidad códigos, desciframiento de, 21, 31, computable, número, v e r secuencia 32n computable cognitiva, ciencia computable, secuencia, 357-360 caracterización, 274,275 com putacionales, prim itivos, v e r fermentos de la, 310,344 operaciones fundamentales hipótesis fuerte del sistem a de computador símbolos y, 274, 293-295, 296, cerebro como, 19, 30, 54, 97, 98, 332, 344, 366-370 130, 156-158, 272-311, 354-356, investigación en dos niveles, 368, 355n, 3$6n, 360, 360n, 366-370 369 comparación con redes, PDP 330objeciones de Searle a la, 188-211, 332,361-366 338-344 consciente, 18, 91 n, 216, 248, 250, perspectivas actuales, 370 251,257,259,271 programas de investigación rival, definición de, 123-126, 3Ó8-311, 274, 293, 369, 370 330.331 reglas y, 139-41, 156-158, 323-329 libre, 19, 54, 109, 215-217, 222, vástago de la IA, 370 223, 223n, 228, 238, 246, 372 . v e r tam bién hipótesis fuerte del historia de, 20-26, 21n-33n, 106, sistema de símbolos 107, 113, 114, 129, 129n, 279, neurociencia; PDP 323 cognitivos, com putabilidad de los pensante, 17, 18,29-33, 51, 53, 54, procesos, 348-361 64, 65, 69, 69-96, 97, 98, 126v e r tam bién decidibilidad; hipóte­ 128, 131-142, 144-151, 188-190, sis fuerte del sistema de símbo­ 204-211, 216-217, 273-274, 364los; hip ótesis del sistem a de 366, 372 tesis Church'Turing y, 346-349 símbolos v e r tam bién arquitectura; código Colby, K., 36, 37, 74-76, 74n color, términos de, 40-43, 81, 144, simbólico; hardware; manipula­ ción de símbolos; operaciones 145, 171,258

398

Inteligencia artificial. Una introducción filosófica

fundamentales; programación; representación interna; sím bo­ los binarios conciencia en cerebros divididos, 252-256, 253n la ciencia del cerebro tiene poco que decir sobre la, 247,248 conciencia de las m áquinas, 18, 91n, 216, 248, 250, 251, 258, 259,271 conductismo y 247 el efecto filtro de Broadbent y la, 68, 69 ejem plo de conducir un coche, 250,251,251n, 252 fabulación y, 253-258 fisicalismo y, 262-271, 262n, 263n, 372 lenguaje del pensamiento y, 274, 296 libertad de la voluntad y, 217, 218 no necesaria para el pensamiento y, 64-69, 92 en otras personas, 84, 258, 259, 264-267,269,270 en otros animales, 253, 263-267 Prueba de Turing y 259n qualia y, 258-271, 260n, 263n, 265n, 268n reconocimiento de palabras, y 66, 68, 69, 327,328 sen tid o básico, 2 4 9 -251, 249n, 25 ln, 257,259n significado del término, 248, 248n, 249 supervisión interna y, 249n, 251257,251n, 258 taxonomía de la, 248-251,257,259 visión ciega y, 67,252 dei yo, 249,251n,253 v e r tam bién fisicalismo; qualia

condicional, 157, 170-177, 181-186, 213,214 v e r tam bién contrafáctico; impli­ cación material; inferencia; ló­ gica; ramificar conductism o, 84-89, 247, 248, 310 conocimiento, 141-143,153-167 almacenamiento en arquitecturas distribuidas paralelas, 320-325, 333 en ausencia de creencia conscien­ te, 66-68 por familiarización, 268-270, 268n libertarismo y, 233 metáfora grotesca y, 146,151 m odelo de los datos, 156-158, 156n, 157n, 165, 178, 182 de otras mentes, 84, 258, 259, 263267,263n, 269,270 representación directa e indirecta de, 126n, 366 de tareas específicas, 141,159 del yo, 257 v e r tam bién base de conocimien­ tos; epistemolgía; memoria; mi­ cro-m undos; ontología; pro­ blem a del co n o cim ien to ; problem a del marco; sentido común; sistema experto conocimientos, base de, 60, 78, 141143, 153, 154, 158-187, 176n actualización de, 142, 143, 147, 155, 166, 172-177 adaptabilidad profusa y, 126, 127 búsqueda pertinente en, 177-181 cerebro y, 274 inconsistencia y, 181-187 organización de, 142, 143, 155, 166,180,186 representación del saber cómo en, 156,157 sistemas expertor y, 147, 159, 160 v e r ta m b ié n C Y C ; m em oria;

índice analítico micro-mundo; pertinencia; pro­ blema del conocim iento; pro­ blema del marco; representa­ ción interna; sentido común; sistemas expertos conocim iento, ingeniería del, 60, 160,165,167-170 ve r tam bién base de conocimien­ tos; conocimiento; saber cómo conocimiento; problema del estrategia de micro-mundos, 144148 modelos analógicos del, 305n sentido com ún y, 153-156, 158161 soluciones propuestas ,en CYC, 158-187, 170n, 174-177n, 183n185n . versiones del, 78,142,143 v e r tam bién base de conocimien­ tos; conocim iento; CYC; m i­ cro-mundos; pertinencia; pro­ blem a del m arco; sen tid o común; sistemas expertos conexionismo, 320, 338, 367 v e r tam bién PDP conjuntos, teoría de, 127, 127n, 167169, 244, 3499-359, 349n, 358n, 359n consistencia, 164, 165, 174, 181-187, 182n, 185n, 299 comprobación de la consistencia, 183 contenido, direccionabilidad por el ve r memoria contexto pertinencia y, 178,179 problem a de la clasificación y, 327,328 contingente, 236,240 contradicción, v e r inconsistencia contrafáctico, 168, 170-172, 211, 227, 232, 233

399 contrapositiva, 341, 342 Corballis, M., 307n corteza cerebral, 67, 94, 199, 252256, 261, 286-290, 288n, 289n, 334n, 337n, 360n ver tam bién cerebro CPU, v e r unidad central de procesa­ miento Craik, K., 303n, 305 Cray, 125,348 creeencia argumento de la habitación china, 193 en caracterización de la adaptabi­ lidad profusa, 93,126 elección libre y, 227, 228, 232, 234,244 explicación intencional y, 94, 95 fabulación y, 256, 257 lenguaje de pensamiento y, 299, 300, 301, 302,:307 paradojas de la intencionalidad y, 299,300,302,303, 307 como producto de manipulación de símbolos, 294 como salida de proceso analógico, 305 supervisión interna y, 257 Crick, F., 334, 334n cuántica, mecánica, 217, 221, 223, 223n, 234, 237, 241 amplificador cuántico, 223 cuantificador, 171, 176, 181, 352-353 no clásico, 183n sustitucional, 176n cuerpo calloso, 253 ver tam bién comisurotomía Culbertson, J., 86n, 248n Cullingford, R., 55n C Y C , 158-187, 160n-162n, 165n, 170n-177n, 183n~185n axiomas de pertinencia de, 177181

400

Inteligencia artificial. Una introducción filosófica

cláusulas cornutas y, 176n, 177n, 185n descripción de, 158-161 'filosofíay, 161-165 inconsistencia y, 181-187, 182n, 185n inferencia en, 163-165, 170-177, 176n, 177n, 181-187 predicciones acerca de, 160, 165167,172 ontologíay, 167-169 problema de la proyección tem ­ poral y, 172-177, 173n representación de la causalidad en, 170-172, 170n, 174-177, 176n damas, 27, 28n, 47-49, 54, 131, 149 Darrach, B., 148n Dartmouth, Conferencia de, 28, 29, 30n, 31, 51, 54n, 312 datos, m odelo de los, v e r con oci­ miento, modelo de los datos Davidson, D., 162n decidibilidad, 349-361, 349n, 359n aproximidad recursiva y, 356n calculabilidad algorítmica y, 353356, 355n caracterización, 349-350 cerebro y, 354-356 del conjunto de secuencias infini­ tas, 358 ecuación de onda y, 355 lógica de primer y segundo orden y, 183,265n-266n, 351-353 máquinas de Turing y, 356-359, 359n mediante inspección, 350,355, 356 no semidecidibilidad, 353-355 problema de la parada y, 359n sem idecidibilidad, 352, 353, 355, 358 decisión, 91, 92,96,215-246 conciencia y, 250

v e r ta m b ié n elección; determ i-

nismo; libertad de la voluntad decisión, problema de la, v e r decidi­ bilidad decisión, procedimiento de, 348-359 v e r decidibilidad declarativo, paradigma, v e r conoci­ miento, modelo de los datos; hi­ pótesis del sistema de sím bolos deducción, v e r implicación; inferen­ cia; lógica; validez Deep Thought, 49, 50,131 degradación elegante, 290, 290n, 333 Dejong, G., 56, 56n Dendraí, 60,147 dendrita, v e r neurona Dennett, D ., 82n, 246, 246n, 25 ln , 260n, 262n Descartes, R., 7 1 ,263n, 275, 372 descomposición, árbol de, 105 deseo compulsivo, 229-231 entraña representaciones, 295 lenguaje del pensamiento y, 299, 300,302,307 libertad de la voluntad y, 228-235, 244 paradojas de la intencionalidad y, 299, 300,302,303,307 de segundo orden, 230,231 supervisión interna y, 257 determinismo de aparatos program ados, 217, 22 3 ,223n caracterización, 220 compatibilismo y, 226-229, 240246 inevitabilidad del futuro y, 240246 libertarismo y, 231-236 lógica y, 242,244 de la máquina de Turing, 236

Indice analítico mecánica cuántica y, 221, 223n, 249 neurofisiológico, 219-221, 222224,227,228, 232, 237, 240, 241 responsabilidad moral y, 225, 226, 235 teoría del caos y, 236-240, 245 ver tam bién aleatoriedad; libertad de la voluntad; predicción DEUCE, 33n direccionam iento, 112, 113, 115, 123n, 283-286, 283n, 284n, 289, 291,292 acceso aleatorio y, 122n indirecto, 25n, 116,122n variable, 23n, 25n, 122n diagonal, secuencia, 357-359 diagonalización, 357-359,358n digital, 20, 24, 47, 97, 209, 343, 360n distribución caracterización, 288 cerebro y, 286-289 hologramas y, 287,287n, 288 memoria y, 286-289 en PDP, 313,334 T pertinencia y, 180,181 v e r tam bién , PDP dolor, 162, 259n, 260, 261,267n insensibilidad congénita al, 267 puramente biofísico, 268-270 Doyle, J., 164n Dreyfus, H ., 50n, 63n, 135, 135n, 136, 141, 141n, 151n, 152, 152n, 155n, 157n, 157n, 314 D reyfus, S., 50n, 63n, 135, 135n, 136, 152n dualismo, 262 dualismo de las propiedades, 263n dualism o de las sustancias, 262, 262n ver tam bién , fisicalismo EBCDIC, 101 Eccles, J., 262

401

Eckert, J. P., 23-25, 25n,31 ecuación de onda, 355n EDSAC, 22n, 30 EDVAC, 25n, 279 efectivam ente calculable, función, 207n efecto Eliza, 62 Einstein, A., 128, 220, 220n, 260, 310 electrónico, 21-24, 21n, 23n, 30, 215, 247,281,290 significado de, 21 n elección, 215-246 con candidato destacado, 226 de preferencia nula, 223, 224, 226, 241 ver también> determinismo; liber­ tad de la voluntad Elgot, C , 122n Eliza, 37-39, 43, 62, 65, 72-78, 73n, 78n, 85, 89, 144, 197,208 empírica, cuestión caracterización, 188 el determinismo neurofisiológico como, 223 la finitud del cerebro como, 354, 355 la hipótesis fuerte del sistema de sím bolos com o, 211, 273, 275, 293,294,311 la hipótesis del sistema de símbo­ los como, 188,203-204 la productividad del pensamiento como, 300,354 la realización múltiple como, 205, 206, 296 la simulabilidad usando recursos reales como, 366 E N IA C , 23-25, 23n-25n, 30, 31n, 106,113,129n, 279,291, 369 Enigma, 31n, 32n ensamblador, lenguaje, 108-123, 214, 359n

402

Inteligencia artificial. Una introducción filosófica

entendimiento artefactos, 19, 39, 54-59, 64, 65, 91, 151,201-204,216,217 conciencia y, 68 manipulación de símbolos y, 127, 188-211 PDP y, 338-344 Prueba de Turing y, 80-82, 85, 86 representación del problem a y, 139,140 Shrdlu, 144-148, 171 v e r ta m b ié n , procesam iento del lenguaje; semántica epistem ología, 161, 163, 171, v e r ta m b ién , base de conocim ientos; conocim iento; ingeniería del co­ nocimiento; problema del conoci­ miento; sistemas expertos Ernst, G., 136n, 139n, 140n, 141 escala, problema de la, 321n esencial, propiedad de la conciencia, 258 de los conjuntos, 169 del ser humano, 371 del ser pensante, 92, 94 estados de ánimo, 294 etiquetado (técnica de program a­ ción), 145, 146, 170-172, 174-176, 174n, 175n Eurisko, 132, 159 ex falso quodlibet, v e r Q u odlibet

excitación, 314-316, 321, 329, 334, 339 excluyente, o (d isyu n ción exclu ­ yeme, X O ), 313n experim ento mental, 84-86, 89-92, 190-193, 199, 200, 204-206, 225, 226, 238, 239, 267-271, 339-343 expertos, sistemas actualización y búsqueda rele­ vante en, 147 caracterización, 59-63 conocimiento y, 159,160

CYC y, 160,186 estrategia de los micro-mundos y, 146,147,159,160 fragilidad de los, 159,165 limitaciones de la arquitectura de von Neumann y, 363 en medicina, 59-62 peligros de los, 62,63, 159 representación del conocim iento en, 156-158, 165 sentido común y, 159,160 tratamiento del tiem po en, 147, 147n fabulación, 253-258 fallo cuántico, 221,236 Feigenbaum, E., 17n, 18n, 28n, 161n Feldman, J., 28n, 281n fenoltiourea, 261 fenomenológica, cualidad, 259, 259n ver tam bién , qualia Ferranti Limited, 22 Ferranti Mark L, computador, 22 Feys, R., 244 fijación de valores en una red PDP, 317,318, 320,324,362 fisicalismo argumentos de Nagel y Jackson contra, 263-271, 263n~265n, 267n, 269n caracterización, 262, 263,263n fundam entos para sustentarlo, 269,270,371 v e r ta m b ié n , conciencia; dua­ lismo, qualia Fleck,]., 28n flexión del dedo, 218,218n, 221 Flores, F., 152n, 153n, 157n Fodor, 130n, 273n, 295n, 299, 299n, 301-303, 301n-303n, 307, 355n, 367n Fortran, 108, 346n fragilidad, 159,165 Frankel, S., 31n

índice analítico Frankfurt, H., 230,230n Fredkin, E., 17,18,149 Freud, S., 65,248,272,275 Frump, 56, 58, 59, 132 fuerte, IA, 338 fuerza bruta, 140 Fuller, L., 90n función dispersa, 285 funcionalism o, v e r realizabilidad múltiple fundamentales, operación del com ­ putador en arquitecturas paralelas, 329, 363.366- 369 caracterización, 98-100 cerebro y, 130, 274, 294, 296, 307, 309.310.331.366- 370 comparadas con operaciones so­ bre representaciones analógicas, 305 CPU y, 113,292 en la definición de computador, 123-126 ejemplos de, 99,109-111,114-116, 123,331 entendimiento y, 188-193,203 equivalencia de dos conjuntos de, 125, 125n, 207n lenguaje ensamblador y, 108-122 de la máquina de Turing, 206, 207, 212-214 redundancia y, 12 3 ,124n v e r ta m b ié n , arquitectura; cere­ bro; código simbólico; manipu­ lación de símbolos; máquina de Turing; máquina von Neumann Gage, PL , 290 Garrett, M., 68 G azzaniga, M ., 251n, 253, 253n, 254n, 255,255n, 256 Gelertner, H ., 26n generalización (en el aprendizaje de las máquinas), 322, 323-325, 329

403 geometría cerebro y, 336-338, 337n demostración de teoremas y, 26, 26n, 27 programa de aprendizaje y, 132 representación analógica y, 303307 geón, 306, 307 Ginet, C., 240n Giuliano, V., 135n glial, célula, 276 Gódel, K., 244 Goldstine, FL, 122n Good, I. J., 32n Goodall, J., 9 5 ,95n GPS, 51-54, 51n, 64, 131, 136-142, 136n, 144,150,312 gramatical, regla, 104, 105, 189 Guha, R., 159n-162n, 165n, 167n170n, 174, 174n, 175, 175n,-177n, 178, 178n, 179, 179n, 180-184n, 185,175n guiones, 55-59 Gunderson, K., 327n Hacker, 43-47, 43n, 132, 146,150 H anks-M cDerm ott, problema de, v e r problem a de la proyección temporal Hanoi, torre de, 52,53,132, 139 hardware

arquitectura von Neumann para, 291-293 degradación elegante, 290, 333 distribución y, 287-289, 293, 333 ferretería y biología, 98, 187, 220, 221, 276-289, 332-338, 368, 369 historia del, 20-26, 21n-28n, 2993 3 ,29n-33n, 128-130 limitación de los 100 pasos, 281 no determines tico, 223,223n procesam iento paralelo y, 282, 283,293,317-322

404

Inteligencia artificial. Una introducción filosófica

procesamiento secuencial y, 282, 283,291,292 realizabilidad múltiple y, 128-130, 204-211 para con ocim ien to de ob jetos, 328, 329 simulación de, 361-366 v e r también> arquitectura; direccionam iento; electrónica; ele­ m ento biestab le; m em oria; puerta lógica Harlow J , 290,290n Haugeland, J., 144, 145n, 294n, 304n heurística, 28n, 138 H inton, G., 319, 319n, 321n, 330n, 333n hipocampo, 289n hipotálamo, 94, 262 hipótesis fuerte del sistema de sím ­ bolos, 273-311 argumentos a favor y en contra, 188-211, 210n, 215, 295-307, 305n, 311, 348-361, 356n, 366369 defendida por Turing, 360n caracterización, 130, 273 ciencia cognitiva y, 274, 366, 369, 370 cinismo acerca de, 275 hipótesis del sistema de símbolos físicos y, 273n independencia de la arquitectura, 291=295,368,370 independencia del con cep to de programa almacenado, 369 indicios y, 275, 293-295, 311, 322 naturaleza esquem ática de, 293295, 331 PD P y, 156-158, 311, 312-314, 331,332,344,366-370 proponentes destacados de, 130n, 273n

realizabilidad múltiple y, 343, 368, 369 representaciones analógicas com o alternativa a, 305-307 significado de la palabra ‘compu­ tador’ y, 308-311 supuesta trivialidad de, 209, 210, 210n, 310 tesis Church-Turing y, 344, 348361 v e r tam bién argum ento de la ha­ bitación china; cerebro; len­ guaje del pensamiento; manipu­ lación de sím bolos, problem a del conocim iento; representa­ ción interna hipótesis del sistema de sím bolos, 97-130 argumento de la habitación china contra la, 188-204 barrera de la complejidad y, 186, 187 contraejem plos supu estos a la, 208, 209, 343,344, 366 com o hipótesis empírica, 17, 64, 95-96, 97-98,188, 189,203 exageración acerca de, 18, 148-153 formulación de, 98, 126-128 hip ótesis fuerte del sistem a de símbolos y, 130,273 hipótesis del sistema de símbolos físicos y, 98n indicios en favor de la 129, 131148,187 m odelo de los datos del conoci­ miento, 156-158, 157n, 165 nexo de pertinencia y, 181 objeción biológica a, 204-211 PD P com o orientación alterna­ tiva, 98, 158,311,332, 344 realizabilidad múltiple y, 128-130 significado de la palabra ‘compu­ tador’ y, 308-311

índice analítico

tesis Church-Turíng y, 348-360, 364-366 v e r tam bién , aprendizaje; base de conocimientos; búsqueda; código simbólico; conciencia; CYC; en­ tendimiento; hipótesis fuerte del sistema de símbolos; inferencia; inteligencia; libertad de la volun­ tad; metas a largo plazo de la IA; operaciones fundamentales; pen­ samiento; percepción; problema del marco; procesamiento del lenguaje; Prueba de Turing; realizabilidad múltiple; reconoci­ miento; resolución de problemas; sentido común; sistema universal de símbolos hipótesis del sistema dé símbolos fí­ sicos, 98n* 273n, v e r hipótesis fuerte del sistema de símbolos; hi­ pótesis del sistema de símbolos historia de los computadores, 20-^26, 21n33n, 106, 107, 114, 129, 129n, 130,279,323 de la filosofía de la IA, 29-33, 30n de la IA, 26-33, 26n-33n, 34-63, 51n, 54n, 131-153 312-314 del PDP, 312-313, 3Í2n-313n, 360n Hitech, 50,131 Hobbes, T., 90n, 229n Hodges, A., 32n, 54n, 223n, 355n Hofstadter, D.,65, 82n, 285n, 326, 326n holograma, 287, 287n* 288 Honderich, T., 245,245n Honeywell, 24,24n Hospers, J., 228,228n Hsiung Hsu, 50 humana dignidad, 17, 17n, 19, 148-150, 215, 216,371

405

inteligencia artificial humana, 54, 54n, 88 naturaleza, 18n, 19, 215, 216, 222, 263,273, 371 Hume, D., 163n, 229n Huxley, T., 260* 260n IA, metas a largo plazo, 17, 17n, 29, 39, 69-72, 95, 96, 149-151, 165, 166,186,187,202,356 IBM, 21n, 23n, 47, 48, 114, 272, 330 IBM-701,28n identidad, condiciones de, 90, 91, 162,168,169 imágenes, 296, 296n, v e r ta m b ién analógico implicación definición de, 182 inferencia e, 26,183,243,244 paradoja de la, 170, 182-184, 182n, 184, 185n problema de la proyección tem­ poral e, 173n representación de la causalidad e, 170-177,170n, 176n tabla de verdad para la implica­ ción material, 171n ver tam bién , condicional; inferen­ cia; lógica; validez incomputabilidad, demostración de Turing de, 356-361 inconsistencia cláusulas cornutas e, 185n gestión de bases de datos incosisterites, Í65, 181-186 intuicionismo e, 185 lógica clásica é, 181-186, 183n paradoja de la intencionalidad e, 299 problema del marco e 174 inferencia adaptabilidad profusa e, 93 causal, 170-177,184

406

Inteligencia artificial. Una introducción filosófica

cláusulas cornutas e, 176n, 177n, 185n constructiva, 185 guiones e, 57-59 inconsistencia e, 181-187, 182n, 185n longitud de, 184, 185n no monotónica, 164 paradojas sobre la, 171, 181-187, 182n, 184n, 185n PDP e, 366-370 pertinencia e, 177-181 problema del marco e, 172-177 programas para obtener, 26-28, 39-43, 53, 55, 56, 163-165, 170187,360 simulación e, 340-344 v e r tam bién , contrafáctico; impli­ cación; lógica; razonamiento; regla de inferencia; tablas de verdad; validez inferencia, regla de cláusula cornuta, 182n, 185n contraposición, 341, 342 CYC y, 170-187, 360 datos inconsistentes y, 181-187, 182n, 185n ejemplos de, 26, 27, 61, 62,184 implicación material y, 171, 172, 183,336 modal, 243,244 modelo de los datos del conoci­ miento, 156-158 no monotonicidad y, 164 sistemas exportados, 60-63, 157, 363 infinito capacidades infinitas, 300-302, 354-356 conjuntos infinitos, 125n, 127, 355n, 356n número de estados internos, 354356, 355n

recursos infinitos, 32n, 125n, 206208, 346-348, 354-358, 355n, 356n información, procesador de, 136, 309-311 inhibición, 316, 317, 321, 322, 334, 335, 339 inspección, 74-76, 85-87, 138-140, 192n, 350, 356, 357 inteligencia de artefactos, 17, 18, 18n, 19, 26, 27, 40, 48, 51, 81n, 94n, 135, 136-142, 148-151,155, 158, 165, 166, 169, 186, 187, 192, 314, 322, 362, 363 calculabilidad algorítmica e, 348, 349 duplicación y simulación de la, 19 humana, 17, 18, 18n, 26, 53-55, 94n, 158, 169,192,193 sobrehumana, 18n v e r ta m b ié n búsqueda; conoci­ miento; entendimiento; hipóte­ sis fuerte del sistema de símbo­ los; hipótesis del sistema de símbolos; inferencia; pensa­ miento; Prueba de Turing; ra­ zonamiento intencional, explicación, 94-96, 94n intencionalidad, paradojas de la, 298-300,299n, 302,303, 307 intuicionismo, 185 inversión, tarea de, 320-322, 329, 330 IPL-V, 141 isomorfismo, 209,210,21 On Jackendoff, R., 66n Jackson, F., 263, 267-270, 267n, 268n, 270n Japón, 148,151 Jaynes, J., 248n, 249-250, 249n-251n Jefferson, G., 30 JOHNNIAC, 25, 26, 26n, 29, 51n

índice analítico

Johnson, Dr. S., 217,217n Johnson-Laird, P., 25 In, 303 Kant, L, 229,229n, 285 Kasparov, G., 49,50 Kilburn, T., 22,22n Kornhuber, H., 218,218n, 221 Kosslyn, S., 296n, 3G3n Kripke, S. 259n Lackner, J., 68, 68n Lamb, J., 240n lambda, cálculo, 345 Laplace, P., 220, 220n, 223, 237, 245 Larson, Juez, 24n Lashley, K., 66, 66n, 275, 275n, 286289,287n, 333,333n Lavington, S., 22n, 25n LeDoux, J., 1,256 LeiberJ. 1,349, 349n Leibniz, G., 265n, 275 Lenat, D., 132, 132n, 135, 135n, 158162, 158n-162n, 165-169, 165n170n, 174n, 176n, 177, 177n, 179, 180,180n, 185, 186, 183n-186n lenguaje del pensamiento argumentos en fávor y en contra de su existencia, 295-307 caracterización, 273,274 conciencia y, 273, 296 imágenes y, 296,296n operaciones fundamentales y, 274, 294 paradojas de la intencionalidad y, 298-300 PDP y, 157, 158,344, 366-370 posible innatismo del, 296 . productividad y, 300-307,355 relación con símbolos binarios, 274,293-295, 331 representaciones analógicas como alternativas a, 306-307 semejanzas con el lenguaje natu­ ral, 296-297 sistematicidad y, 300-307

407 v e r tam bién ,

hipótesis fuerte del sistema de símbolos; represen­ tación interna lenguaje, procesamiento del argumento de las diversas incapa­ cidades, 215 argumento de la habitación china, 188-204, 338, 344 conocimiento de sentido común y, 154, 165,166 geometría del cerebro y, 336-338, 337n humanos, en, 65, 66, 261, 3í0n, 311n, 369 limitación de los cien pasos y, 281 PDP y, 323-328 problema del reconocimiento y, 66,325-329 programas para, 34-43, 55-59, 7278,144-146,152 Prueba de Turing y, 69-72, 80-82, 85, 86 v e r tam bién , composicionalidad; entendimiento; lenguaj.e del pensamiento; productividad; recursón; sistematicidad lesión, 286-288 letras, reconocimiento de, 66, 325328 Levy, A., 178,179, 178n-180n Lewis, C. L, 185n Lewis, D., 268n, 302n libertad de la voluntad, 215-246 aleatoriedad y, 222-226, 223n, 233,234,241 argumento de las consecuencias y, 241-244 artefactos y, 19, 54, 109, 215, 217, 221, 222, 223, 223n, 228, 238, 246,371, 372 compatibilismo y, 226-236, 229n, 237,238,240,241-246 deseos compulsivos y, 229-231

408

Inteligencia artificial. Una introducción filosófica

determinismo y, 53, 217-222, 226229, 236-246 inevitabilidad del futuro y, 240246 libertarismo y, 229n, 231-236, 246 lógica y, 242,244 opiniones de Turing sobre, 222226,223n ramificar y, 109 responsabilidad moral y, 225, 226, 235 teoría del caos y, 236-240,245 v e r tam bién, determinismo libertarismo, 229, 231-236 v e r tam bién, compatibilismo Libet, B., 218n limitación de los 100 pasos, 281 LISP, 28,108, 141, 345 Llinás, R., 337n localización de funciones, 286-289 v e r tam bién, distribución Loebner, H., 89 lógica axiomas del marco y, 174 cláusula cornuta, 176n, 177n, 185n cuanuficacional, 176n, 182, 183n, 351-353 decidibilidad y, 349n, 351-355, 35ln,359n incomputabilidad y, 355n, 356360, 356n inconsistencia y, 181-187, 182n, 185n intuicionista, 185 modal, 170-172,170n, 243,244 monotónica, 164 no clásica, 163, 182n, 183n, 185 no monotónica, 164, 164n, 172175 problema de la parada, 359n representación de la causalidad y, 170-177 de la simulación, 339-344

veritativo funcional, 26, 27, 53, 170-176, 170n, 171n, 182n, 183, 184,279n,313n,351 ve r tam bién, contrafáctico; decidi­ bilidad; implicación; inconsis­ tencia; inferencia; Lógico Teó­ rico; máquina de Turing; regia de inferencia; teoría de conjun­ tos; tesis Church-Turing; vali­ dez lógica clásica, 181-185 alternativas a, 164, 164n, 172-177, 184,184n, 185, 185n paradojas de, 170-172, 1.82, 183n Lógico Teórico, 26-28, 29, 51, 51n, 132 precedido por el programa de da­ mas de Samuel, 27 Longuet-Higgins, C., 73n, 287n Lovelace, A., 31n, 129n Lycan, W., 259n, 265n MabbottJ. D., 235,235n manipulación de símbolos, 98-126 caracterización, 98-100 cerebro, 273-311, 331, 364, 365, 366-370 comparada con operaciones sobre representaciones analógicas, 303-306 computador definido como, 124, 125,308-310 contrastada con PDP, 311, 329332,344 en PDP, 330, 331,366-369 entendimiento y, 127, 189, 190, 201-204 es un concepto de parecido de fa­ milia, 332 eslabón de pertinencia, 181 hipótesis fuerte del sistema de símbolos, 130,273-275 hipótesis del sistema de símbolos, 126-128

índice analítico

independencia de la arquitectura, 128-130, 204-209, 273, 274, 291-294, 296, 343, 363, 364, 367-369 lenguaje ensamblador, 108-123 máquina von Neumann, 292, 293 neurona y, 279 operaciones fundamentales, 98100, 109, 110,114-116, 123-126, 130, 274, 293, 329-331, 366-370 problema de clasificación, 325-329 simulación de redes PDP me­ diante la, 340, 341, 346, 361-366 tesis Church-Turing y, 344-361 ver tam bién, argumento de la ha­ bitación china; base de conoci­ mientos; cerebro; código sim­ bólico; CYC; hipótesis fuerte del sistema de símbolos; hipóte­ sis del sistema de símbolos; operaciones fundamentales; pensamiento; problema del marco; realizabilidad múltiple; sistema universal de símbolos manual, ejecución manual de un programa, 191-193,202,211 manuales, modificaciones de una base de conocimientos, 126, 160, 166 máquina natural, significado de, 371, 372 Manchester, computador Mark I de, 22, 22n, 23,25n, 29,30,114 Manchester, Universidad de, 22, 22n, 23,25n, 30, 33,114,129n Máquina Analítica, 129,129n máquina de carne, 263, 263n, 266, 267 marco, axioma del, 174 marco, problema del caracterización, 143 conocimiento de sentido común y, 156, 166,173-176

409

CYC y, 167, 174-177 lógica no monotónica y, 164 micro-mundos y, 144,147 modelos analógicos y, 305n problema de la proyección tem­ poral y, 172-177 ver tam bién base de conocimien­ tos; conocimiento; pertinencia; problema del conocimiento; problema de la proyección tem­ poral Mauchly, 23-25,25n, 31 Maxwell,]. C., 355n, 360 Maxwell, leyes de Maxwell del pen­ samiento, 360 McCarthy, J., 28, 29, 86n, 143n, 345 McClelland, J., 29Gn, 301n, 303n, 323, 323n, 324, 328n, 329, 329n, 330n, 333n, 334n, 336n McCulloch, W„ 278-280 McDermott, D., 136, 136n, 164n, 173n McGinn, C., 3Ó3-305,303n~305n medicina, aplicaciones a, 60-62, 147, 160,160n ver tam bién , Centaur, Mycin medios, lista de, 137-139 medios-fines, análisis, 136-142 memoria acceso serial y aleatorio, 122n cadena de símbolos y, 330 codificación dispersa de la, 285 degradación elegante de la, 290, 290n, 333 direccionable por el contenido, 283-286,293,333, 362 direccionable numéricamente, 112, 113, 283-285, 289, 291,-293 distribución y, 286-289, 293, 333, 368 ilimitada, 125n, 207n, 346, 347 humana, 286-289, 289n, 335, 336 modelo holográfico de la, 287, 288

410

Inteligencia artificia!. Una introducción filosófica

supervisor interno y, 257 v e r tam bién, base de conocimien­ tos; cerebro; conocimiento; má­ quina von Neumann; PDP; programa almacenado; registro mentales, modelos, 305-307, 305n; mentales, v e r lenguaje del pensa­ miento mentalidad, 204-206, 209, 215, 342, 343 v e r ta m b ié n , cerebro; pensa­ miento mente, 54, 65, 66, 130, 146, 187, 216, 243,-262, 263, 264, 272, 273, 274, 347, 348, 355n v e r tam bién, cerebro meta, 93-96, 136-141,299 supervisión interna y, 257 meta-hecho, 143, 179-181 Metropolis, N., 129n Mettrie, J. de la, 371, 372 mezclar, error de, 324, 324n Michie, D., 29 micro-mundo, 92-94, 144n, 153 ver tam bién, base de conocimien­ tos; conocimiento; mundo de bloques, problema del conoci­ miento; sistemas expertos Mill, J. S., 245, 245n Minsky, M., 17,.17n, 29 30n, 135, 135n, 143n, 144n, 151, 159, 164n, 207, 221, 22ln, 263n, 312, 312n, 313n, 321n, 360 misioneros y caníbales, problema de los, 51-53, 132, 136, 137 modal, operador, 170n, 243, 244 operador modal débil, 244 mono, célula especializada en ma­ nos, 288,289 Moore School, 129n Moravec, H., 151, 151n Mozer, M., 289,289n múltiple, realizabilidad

de un algoritmo en el so ftw a re , 346n caracterización de, 128 del pensamiento, 92, 96, 97-98, 204-206, 365 del programa en el hardw are, 88, 129 de los qualia, 274 del sistema universal de símbolos, 130, 273, 274, 295, 365, 368, 369 murciélagos, 263-267, 263n, 265n Mycin, 60,60n,61,132,147 Nagel, T., 253n, 259n, 263-265, 263265n, 266, 267, 267n, 269, 269n National Physical Laboratory, 32, 32n, 129n necesaria, conexión, 163,219 necesaria, verdad, 237, 240, 243, 244 ve r tam bién, lógica modal Nemirow, L., 268n neural, red, ve r PDP neural, simulación, 312; v e r PDP neurociencia, ve r cerebro; concien­ cia; determinismo; memoria neurona; PDP; percepción; qualia neurona, 276-280, 314-316 almacenamiento de información, 287-289, 332, 333, 335 axón, 276-280, 276n comparación con unidades PDP, 312, 332-338,366 conexiones interneuronales, 276280, 282, 283, 314-316, 332-334, 335-338 dendrita, 276-280,276n diversidad de tipos, 280, 280n, 333,334 especificidad de, 286-289 operaciones básicas de, 276-278, 314-316 propiedades binarias 279, 314-317 sensibilidad de, 241 teoría del caos y, 239

índice analítico

tiempo de respuesta, 281 vías gustativas, 265,266 neurotransmisor, 278n, 335, 336 Newell, A., 26, 26n, 28, 29, 51, 51 n, 53, 53n, 54n, 98n, 124n, 125n, 136n, 139n, 140n, 141, 150, 150n, 152,152n, 273n, 349, 349n Nilsson, N., 54n Nissen, H., 66n no computabilidad, v e r decidibilidad; incomputabilidad no semidecidibilidad, ve r decidibilidad «no Von», máquina, 293 NPL, v e r National Physical Labora­ tory números binarios, lOln, 106, 107, 111-113, llln ,116-122,191 objeto, reconocimiento de artefactos y, 133,134,329 cerebros divididos y, 253-256 contexto y, 327,328 ejemplos de, 66,134, 326, 327 inspección y, 87 limitación de los cien pasos, y, 281 problema de clasificación, 325, 326 representaciones analógicas y, 306 v e r tam bién , perpepción recono­ cimiento de caras; reconoci­ miento de palabras objeto no existente estatuto ontológico de, 163, 163n, 168,169 oncología, 161-163, 167,169 otras mentes, problema de las, 84, 258,259,264-266,271 Papert, S., 144n, 312, 312n, 313n, 321n parada, teorema de la, 359n paralelo, procesamiento arquitectura para, 292, 293, 312n, 313n, 317-322, 332,333, 363

411

caracterización, 282 en el cerebro, 282, 283, 291-293, 332, 333, 349 en el nivel de la realización, 368, 369 en PDP, 313, 317, 332, 333, 338 reconocimiento de objetos y, 327329 simulación mediante ingenio secuencial, 282,283, 339-341 velocidad de, 282, 283, 363, 366 v e r tam bién , PDP paralelo, procesamiento distribuido, ver PDP parecido de familia, 332 paridad, control de, 211 n, 213 Parry, 35-37, 64, 74-77, 76n, 85, 86, 132,192n parte-de, principio de la, 199 parte-todo, falacia, 193-201, 340-342 patrones, comparación de, 75-78 ver tam bién , reconocimiento de pa­ labras Pascal, 108,283n PDP, 19, 54, 97, 98, 136, 157, 312370 algoritmos de aprendizaje en, 321, 321 n, 322, 335 anticipado por Turing, 360n argumento de la habitación china y, 338-344 búsqueda pertinente y, 180, 181 calculabilidad algorítmica y, 346, 360,360n, 361 comparado con el procesamiento del cerebro, 54, 312, 332-338, 364 degradación elegante, 333 como descripción del nivel de la realización, 366-369 direccionabilidad por contenidos, 333, 362

412

Inteligencia artificial. Una introducción filosófica

entradas/salidas y, 313n, 317-322, unidades comparadas con neuro­ 324, 330, 331,333, 362 nas reales, 312,313,332-338 entrenamiento y, 320-325, 333, unidades, conexiones entre, 314334, 335,339,360n, 362 321, 323, 324, 332-338, 343, 362 error de mezclar, 324 unidades ocultas, 313n, 318, 321 escala, 32 ln unidades, operación probabilístíca fuerza (‘peso’) de las conexiones de, 319 en, 314-316, 320-325, 332, 333, v e r ta m b ién , arquitectura; cere­ 334-335, 339, 362 bro, distribución; memoria generalización y, 322, 323-325, procesamiento paralelo; procesa­ 329 miento secuencial geometría y, 336-338 Pellionisz, A., 309n, 337n historia de, 312-313, 312n~313n, Penrose, R., 360, 360n 369n pensamiento inferencia y, 367 adaptabilidad profusa y, 93-96, 97, modelo de ,adquisición del preté­ 126,127,365 rito y ,323-325 argumento de la habitación china, operaciones básicas de las unida­ 193,203 des, 314-322 artefactos, 17-19, 29, 30, 499-50, paradigma simbólico y, 309, 310, 51-55, 64-66, 69-96, 97, 98, 125312-314,330-332, 344-370 128, 131-153, 188, 204-211, problema de la disyunción exclu­ 215-217,371,372 yeme, 313n barrera de la complejidad, 186, predicciones acerca de, 312-314 187 productividad y, 300, 301 caracterización, 89-96 química y, 335, 336 concepciones de Turing sobre, 29reconocimiento y, 325-329 33, 30n, 31n, 54, 69-72, 79, 81, redes en computador, 339-341, 84,85,223n, 308, 360n 361-366 conciencia y, 65-69, 249-251, 257 regias y, 325, 331 esencia de los seres humanos, 370 representaciones internas en, 320explicación intencional y, 94-96 322, 323, 330, 333, 366-368 hipótesis fuerte del sistema de rudimentos de, 314-322 símbolos y, 130, 273-275, 291simulación de redes PDP me­ 311 diante computador, 339-341, hipótesis del sistema de símbolos 361-366 y, 97, 98, 126-128, 208, 209, 273 tesis Church-Turing y, 346 libertad de la voluntad y, 217, 226 umbral de las unidades, 314-317, máquina de Turing y, 207, 208, 321,330, 331,339, 362 347,348 unidades, activación continua y, PDP y, 311, 361 330,366 unidades, activación discreta y, por medio de representaciones 314-319,366 analógicas, 302-307

índice analítico

proceso dependiente de la biolo­ gía, 18, 71,84, 92,204-208 productividad y, 300-307, 354-356 Prueba de Turing para el 69-89 simulación del 82-84,364-366 sistematicidad y, 300-307 tesis Church-Turing y, 344-361 v e r ta m b ién , aprendizaje; argu­ mento de la habitación china; cerebro; conciencia; conoci­ miento; creencia; CYC; deseo; entendimiento; hipótesis fuerte del sistema de símbolos; hipóte­ sis del sistema de símbolos; in­ teligencia; leyes de Maxwell del pensamiento; libertad de la voluntad; memoria; PDP; per­ cepción; Prueba de Turing; ra­ zonamiento; reconocimiento; representación interna; resolu­ ción de problemas percepción artefactos y, 18, 80-82, 86-87, 133, 134, 328,329 cerebros divididos y, 252-256 conciencia y, 65-69, 247-271, 251n, 253n geometría del cerebro y, 337* 337n en murciélagos, 263-267 problema de la clasificación y, 325-328 qualia y, 258-271 representación analógica y, 307 v e r tam bién , cerebro; órganos de los sentidos; reconocimiento de caras, reconocimiento de obje­ tos; reconocimiento de palabras perceptrón, 312n, 313n procedimiento de convergencia en el, 313n, 321n ver tam bién , PDP pertinencia axioma de, 179-180

413

nexo de pertinencia, 181 paradoja de la implicación mate­ rial y, 171,179,180 problema de búsqueda en bases de datos, 143,147, 155 representaciones distribuidas y, 181 tratamiento en CYC, 166, 177-181 pesos (de las conexiones), v e r PDP, fuerza de las conexiones en Pinker, S., 310n, 324n, 325n, 344n, 369n Pitts, W., 278-280 planificación adaptabilidad profusa, 91, 93, 96, 126 conciencia y, 249,250,257 programas para, 39-47, 51-53,132, 136-142 representaciones internas necesa­ rias para 295 Poggio, T., 280,280n posibles, mundos, 163, 168, 169, 182n, 236,237 ve r tam bién , lógica modal potencial de aprestamiento, 218, 218n Pour-El, M.B., 355n precondiciones, 138 predicados, cálculo de* ve r lógica, cuantificacional predicción comparada con la explicación, 94, 95 del éxito de la IA, 17, 17n, 18n, 148-153, 165-167,312-314 intencional, 94-96 libertad de la voluntad y, 217-222, 236-238,240, 245 teoría del caos, 238-240, 245 v e r tam bién , aleatoriedad; determinismo; libertad de la volun­ tad; predictivismo

414

Inteligencia artificial. Una introducción filosófica

predictivismo, 236-240 pretérito adquisición por parte de los niños, 324, 325 modelo de adquisición, 323-325, 331,333, 337 primitivas, operaciones (del compu­ tador), v e r operaciones funda­ mentales Prince, A., 31 On, 324n, 325n, 344n, 369n Princeton, máquina clase Princeton, 26n problemas, resolución de en arquitectura analógica, 305 axiomas del marco y, 172-177, 173n, 180,183 conciencia y, 66,249,250 inconsistencia y, 181-187 pertinencia y, 177-181 programas para, 26-28, 39-63, 131-148 v e r tam bién , análisis medios-fines; CYC; planificación; reconoci­ miento; sistemas expertos producción, regla de, 61,157 v e r ta m b ié n , regla de inferencia productividad, 300-302, 355 de las representaciones analógicas, 307 programa almacenado controversia acerca del origen, 25n definición de sistema universal de símbolos y, 123-126 direccionamiento indirecto y, 25n, 116, 122n historia de, 23, 23n, 24, 25, 25n, 32n, 113,114 máquina de Turing y, 25n, 31, 32, 32n, 122n máquina von Neumann y, 108114,291,292

modificación durante la ejecución, 116,122n ve r tam bién , computador, historia dé; programación programa, contador del, 113 programación en BASIC, 34, 35 direcciones y, 283n, 284n en lenguaje ensamblador, 108-123, 214 máquinas de Turing y, 211-214, 211n, 212n las primeras máquinas y, 20-24, 21n-25n, 29-33,108 programadores compulsivos, 4347,43n ve r tam bién , ASCII; codificación dispersa; comparación de patro­ nes; fuerza bruta; manipulación de símbolos; símbolos binarios Prolog, 108 propagación retroactiva, 32ln v é a se ta m b ié n , algoritmos de aprendizaje, PDP propósito especial, 21,207, 361 propósito general, 20, 21,31, 125 Proudfoot, D., 163n, 220n puerta lógica, 279, 280, v e r tam bién , arquitectura; h ardw are pupilas, reacción de las, 252 Putnam, H., 91n, 271 n Pylyshyn, Z., 130, 205, 205n, 206, 273, 274, 274n, 293, 293n, 295n, 296n, 299, 299n, 301-303, 301n303n, 344n, 368n qualia, 258-271 del dolor, 260,267-271 no externos, 261 fisicalismo y, 260-271, 262n, 263n, 267n de gatos y ratas, 265,266 Jackson y los, 263, 263n, 267-270, 267n, 268n, 270n

índice analítico

de los murciélagos, 263-267y 265n Nagel y los, 263-267, 263n-265n, 267n, 269,269n de otras personas, 258, 259, 271 química del cerebro, 262, 267, 269, 278,278n, 335,336 Q u o d lib et (ex falso qu idlibet), 181187, 182n, 184n, 185n cláusulas cornutas y, 185n ramificar, instrucción, 109-113, 116123,124,124n libertad de la voluntad y, 109 ver tam bién , condicional RAND Corporation, 26n, 51n razonamiento adaptabilidad profusa, 93, 96, 99 artefactos y, 26-28, 39-43, 53, 55, 56, 60, 61, 163-165, 172-187, 185n conciencia y, 249-251 lenguaje del pensamiento y, 274, 296, 367, 369 PDP y, 366-369,370 representaciones internas necesa­ rias para, 295, 309 ver tam bién , inferencia; lógica; re­ solución de problemas real, mundo contraejemplos a la hipótesis del sistema de símbolos y, 208, 209, 343,366 dominios simplificados y, 94, 126, 144-148,169 existencia del caos en el, 239 recursos y, 207, 347, 348, 350, 361 representación indirecta de, 126, 126n,364-366 simulación de redes PDP en, 343, 365, 366 tesis Church-Turing y, 347, 348 ver tam bién , mundos posibles; si­ mulación realización, nivel de la, 368,369

415 v e r tam bién , hardw are;

realizabilidad múltiple reconocimiento, v e r percepción; re­ conocimiento de caras; reconoci­ miento de letras; reconocimiento de palabras; reconocimiento de objetos reconocimiento de caras, 261, 326, . 327,369 reconocimiento de palabras, 66, 68, 69, 325-328 recursion caracterización, 104, 105 como contrapartida sintáctica de la composicionalidad, 105 definición de computador y, 309, 310, 322 inferencia y, 367 lenguaje del pensamiento y, 297, 367 potencia expresiva del código sim­ bólico y, 102, 105,108,126 reglas recursivas, 104, 105, 35In representaciones analógicas y, 307 ve r tam bién , composicionalidad; función aproximable recursiva­ mente recursivamente aproximable, fun­ ción, 356n registro, 99, 100, 109-126, llln , 210n, 283-287,292,297 v e r ta m b ién , dirección; máquina von Neumann; memoria regla de aprendizaje en PDP, 313n, 320322, 334,335 para formar pretéritos, 323-325 gramatical, 104,105 problema de la decisión y, 349, 350 de producción, 61,157 propagación retroactiva, 32 ln reconocimiento, 326, 327

416

Inteligencia artificial. Una introducción filosófica

recursiva, 104, 105, 35 ln reducción de la pericia a, 156-158, 325 v e r ta m b ié n , regla de inferencia representación interna analógica, 303-307, 305n, 337n adaptabilidad profusa y, 93, 126, 127 binaria, 101-104,105-107 de la causalidad, 171-177 cerebro y, 130, 156-158, 274, 293, 295-311, 298n, 312n, 332, 344, 366-370 composicionalidad y, 101-104, 105, 107,108 definición de "procesador de in­ formación' y, 309-311 distribuida, 181, 320-322, 333 geónica, 306, 307 indirecta, 126, 364-366 lenguaje del pensamiento y, 295307,298n modelo de los datos del conoci­ miento, 100-102,165 necesaria para planificar, razonar, etc., 295, 309 ontologíay, 162,167-169 en PDP, 320-322, 323, 330, 333, 366,368 pertinencia y, 180, 181 recursion y, 104,105, 108 en Shrdlu, 145 del tiempo, 140n, 147 v e r tam bién , base de conocimien­ tos; cerebro; código simbólico conocimiento; hipótesis fuerte del sistema de símbolos; hipóte­ sis del sistema de símbolos; ma­ nipulación de símbolos; símbo­ los binarios representación de un problema, 140, 141

responsabilidad moral, 225, 226, 235,236 v e r ta m b ién , compatibilismo; determinismo; libertad de la vo­ luntad Resolutor General de Problemas, ve r GPS Richards, L, 355n Riesbeck, C., 55 Robinson, A., 122n robot conciencia y, 91n, 247, 250, 251, 258, 259, 271 criterio del diseño y, 87, 88 ejemplos de, 39-47, 133-135 entendimiento y, 201-204 exageraciones sobre los robots, 148,149 explicación intencional y, 94-96 heurística y, 138 hipótesis del sistema de símbolos . ^ 127 libre voluntad y, 216, 217, 221, 223,228,237,238,246 pensamiento y, 94, 96, 204, 364, 365 v e r ta m b ié n , androide; Shakey, Shrdlu; Turbo Sam Rose, G., 356n Rosenblatt, F., 312-313, 312n, 313n Roszak, T., 152n Rumelhart, D., 282n, 290n, 301 n, 313n, 323, 323n, 324, 328n, 329, 329n, 330n, 333n, 334n, 336n Russell, B., 27,268n saber-cómo, 156-158,333 Saint-Pol-Roux, 66 Sakitt, B., 241,241n Sam, 54-59, 132, 190-192, 192n, 197, 198,201,202,281,312 Samuel, A., 27, 47-49, 54, 131, 149 y el primer programa heurístico acabado, 28n

índice analítico

Schaefer, H., 219n Schank, R., 55, 55n, 56, 57n-59n, 151, 151n, 197, 197n, 198n, 281 Schiffer, S., 299n Searle, J., 19, 188-211, 265n, 192n, 195n, 196n, 198n,200n, 202n, 205n, 208n, 210n, 275, 275n, 338344, 338n, 341n, 343n, 365, 365n, 366 secuencial, procesamiento caracterización, 282, 283 máquina von Neumann y, 291 293, 291n, 363 reconocimiento de objetos, 281, 328 Searle y, 338-340 significado de en el paradigma simbólico, 282,291-293 simulación de ingenio paralelo por medio de, 283, 339-341, 346-348,361-366 simulación de por medio de inge­ nio paralelo, 330 tareas esencialmente secuenciales, 282, 282n v e r tam bién , máquina Von Neu­ mann semántica, 171, 177, 189, 200, 209, 274 lenguaje del pensamiento y, 295298 ver tam bién , argumento de la ha­ bitación china; composicionalidad; entendimiento; recursion; significado semidecidibilidad, ve r decidibilidad sensación, v e r qualia sentido común, 151, 153-156, 158187,242 sentidos, órganos de los argumento de la habitación china, 201-204 conciencia y, 247,249,251-258

417

mecánica cuántica y, 241 Prueba de Turing y, 80-82, 87, 88 qualia y, 258-271 robótica y, 133-135, 325-329 serial, acceso, 122n ver tam bién, acceso aleatorio; má­ quina de Turing serial, procesamiento, v e r procesa­ miento secuencial Shaffer, J., 224,224n Shakey, 133,134, 141, 146, 148 Shannon, C,, 86n Shaw, C., 26-28, 26n, 51 Sherrington, C, 275 Shortliffe, E., 60,61n Shrdlu, 39-43, 44, 63, 64, 76, 94, 132, 135, 144-148, 153, 171, 187, 312 Shurkin, J., 24n, 25n, 149n significado argumento de la habitación china, 190-193,338 de consciente, 248, 248n, 249 estatuto ontológico del, 162, 163 erstructura y, 296-300, 367 manipulación de símbolos y, 128, 170,177,190-193 nominalismo y, 168,169 peligros de ampliarlo; 308-310 representaciones internas y, 296298, 307 v e r tam bién , composicionalidad; entendimiento; procesamiento del lenguaje; representación in­ terna; semántica simbólico, código en arquitecturas paralelas, 329, 363-369 cerebro y, 130, 156-158, 274, 293307,298n, 331 comparado con representaciones analógicas, 303-307 es un concepto de parecido de fa­ milia, 332

418

Inteligencia artificial Una introducción filosófica

definición del término ‘computa­ dor’ y, 123-126, 308-311, 308 inferencia y, 367, 369 v e r ta m b ié n , cerebro; hipótesis fuerte del sistema de símbolos; hipótesis del sistema símbolos; representación interna; símbo­ los binarios simbólico, paradigma, v e r base de conocimientos; cerebro; código simbólico conocimiento; CYC, hipótesis fuerte del sistema de símbolos; hipótesis del sistema de símbolos; lenguaje del pensa­ miento; manipulación de símbo­ los; modelos de datos de Simon, H., 26, 28, 29, 30n, 51, 53, 53n, 54n, 98n, 130n, 141n, 146, 146n, 150, 152, 150n-152n, 216, 216n, 273n Simons, G., 28n, 60n, 222, 222n, 224,224n simulación del cerebro, 282, 283, 342-344, 344-348,356,361-365 cognitíva, 54 en demostraciones de equivalencia de sistemas de símbolos, 207 distinción real/ideal acerca de, 348, 356, 362, 365, 366 duplicación y, 19, 82, 83, 204-206 grados de, 83, 342, 343 lógica de, 341-343 de la máquina de Turing mediante programa en lenguaje ensam­ blador, 213,214 de la máquina Von Neumann me­ diante red PDP, 330 de memoria direccionable por el contenido mediante memoria direccionable numéricamente, 285 neuronal, 312

de objetos del mundo real me­ diante computador, 40-45, 286, 361 de procesador paralelo mediante procesador secuencial, 282, 283 Prueba de Turing y, 82, 83 de red PDP mediante personas, 338-344 de red PDP mediante procesador de símbolos, 339-341, 346-348, 361-366 de sistemas caóticos por computa­ dor, 239 representación indirecta y, 364, 365 Searle y, 19,203-206,338-344 tesis Church-Turing y, 346, 347, 348 v e r tam biény mundo real sinapsis, 276n, 314,335, 336 sintaxis, 170n, 189n, 190, 200, 209; v e r tam bién , composicionalidad; manipulación de símbolos; recur­ sion; regla gramatical sistemas, réplica de, 195-201 sistematicidad, 301, 302 representaciones analógicas, 307 ve r tam bién , productividad Skinner, B. F., 247 navaja de Skinner, 247 Sloman, A., 282,283n Slote, M., 244 Smith, B. C., 167,167n, 180n Smolensky, P., 314, 314n, 367, 367n sobrerregularición, 325 Sperry-UNIVAC, 24,24n SSEC, 21n, 23n, 114 Stairmand, M., 86n Sterelny, K., 192n Stich, S., 31On Stoddart, H., 263n subjetivo, 217, 218, 222, 259, 259n, 263-267, ve r tam bién , qualia

índice analítico

419

anticipa el PDP, 360n sustancia, estatuto ontológico de, conocimiento del trabajo de Bab­ 167-170 bage, 129n Superparry, 85-89, 86n, 192n cree que el cerebro es un compu­ supervisor interno, 251-257, 25ln, tador, 54, 129, 21On, 348, 355n, 258 360,360n Sussman, G., 44, 44n, 45, 45n, 47, demuestra que todas las funciones 150 efectivamente calculables son Sutherland, S., 248, 248n, 364, 365n Turing-computables, 206, 207n temporal, problema de la proyec­ demuestra el teorema de la parada, ción, 172-176,172n, 181,183 359n tensor, 199, 200, 337n descifrador de códigos, 31, 32n Teseo, barco de, 90 fundador de la filosofía de la IA, Thorp, Jt, 224, 224n, 227, 227n, 233, 29-33,30n, 54 233n, 234,234n Manchester Mark I y, 22n, 32,108 tiempo obra de teatro sobre, 284 búsqueda pertinente y, 179, 180 origen del concepto de programa como recurso, 124n, 283, 321n, almacenado y, 25n, 31, 31n, 346, 347, 350, 355, 361, 363, 366 32n, 359n decidibilidad y, 350, 353, 355, puntos de vista sobre el aprendi­ 357-359 zaje, 81,360 limitación de los cien pasos y, puntos de vista sobre la concien­ 281-283 cia, 259n paradoja de la implicación mate­ puntos de vista sobre el elemento rial y, 172 aleatorio en las computaciones, problema del marco, 172-177 22n, 223,223n relatividad y, 127,128 puntos de vista sobre la libertad representación del 140n, 147, 163 de la voluntad, 222-226, 223n v e r tam bién , determinismo; pre­ puntos de vista sobre eliproblema dicción de las otras mentes,, 84, 259, tiempo compartido, 28 259n tipo/marca, distinción, 128 tornasol, prueba de, 79, 88 puntos de vista sobre la relación Touretzky, D., 368,368n de la máquina universal de Tu­ Trusted, J., 234,234n ring con ACE, 32n Turbo Sam puntos de vista sobre los artefac­ tos pensantes, 29, 30, 30n, 69conciencia de, 247, 251, 257, 258259 72, 79, 84, 215, 223n, 308, 360n como agente libre, 216, 217, 222, von Neumann reconoce su tra­ 223,228,237,238,246 bajo fundacional, 31n con entendimiento y pensa­ v e r tam bién , Bomba de Turing, miento, 201-204,365 Máquina de Turing, Prueba de Turing, A. Turing, Tesis Church-Turing ACE y, 32,32n, 33n, 108,360n Turing, Bomba de, 32n

420

Inteligencia artificial. Una introducción filosóf:

Turing, Máquina de caracterización, 206-208, 211-214 cerebro y, 207, 279, 349, 360, 360n equivalencia de la máquina uni­ versal de Turing y el sistema universal de símbolos, 125n, 207, 207n,211n,212n entrada/salida de, 207, 21 ln, 212n, 212,213,358 ejemplos de, 211-214, 21 ln, 212n hipótesis del sistema de símbolos, 204, 207 historia de, 25n, 31-32, 31n-32n, 206 máquina universal de Turing, 31n, 32n 122n, 207, 207n, 213, 354 multicinta, 356n predictibilidad de, 236 problema de la parada, 359n recursos reales y, 207, 350, 359n relación con ACE, 32n resultado de Elgot-Robinson y, 122n tabla de máquina de, 207n, 212, 213,236,357, 359n tesis de Church-Turing, 345, 347, 348 uso en la demostración de la exis­ tencia de números incomputables, 356-361 Turing, S., 32n Turing, Prueba de, 69-89, 72n, 192, 196, 259n Turkle, S., 150n, 216 Ullian, J., 356n U liman, S., 282n umbral, 315-319, 321, 330, 331, 339 unidad central de procesamiento, 113, 280, 290,292,293,297 UNIVAC, 22,23 universal, sistema de símbolos arquitectura y, 291-293

capacidad para simular otros sist mas, 346-348 cerebro como, 1299-130, 211, 27 311 definición de, 125 hipótesis del sistema de símboL y, 126, 127,273 máquina universal de Turing i 125n, 207,207n, 21 ln, 212n tesis Church-Turing* establéele en términos de, 346 ve r tam bién , hipótesis fuerte d sistema de símbolos; hipótes del sistema de símbolos; man pulación de símbolos; máquií Von Neumann validez (de la inferencia), 176 i 177n, J82-185, 185n, 194, 19! 197, 198, 237, 243, 244, 341, 34 Van Inwagen, P., 224n, 227, 227i 240n, 243n, 244 vector, transformación de, 330 verdad, sistema que preserva la, 16164n, 183,185 v e r tam bién , lógica no monote nica verdad, tablas de, 171, 171n, 27' 279n, 313n verdad, valor de, 163,185 virtual, máquina, 221 visión ciega, 67,251, 252 Voltaire, 231 Von Neumann, J., 176n, 177n, 181 185, 185n, 194, 195, 197, 198, 23: 243, 244, 341,342 controversia sobre el programa a macenado y, 25n Von Neumann, máquina caracterización, 291,291n, 292 cerebro y, 291-293, 296, 305, 33 comparada con la red PDP, 33 ejemplo de operación de, 110-11

índice analítico

historia de la computación y, 25, 25n, 26n,31n, 291,312 limitaciones de, 291-293, 328, 363 máquina de Turing simulada me­ diante, 214 red DPD simulada mediante, 340, 361-366 simulada mediante máquina de Turing, 348 simulación mediante red PDP, 330 v e r ta m b ién , arquitectura; cere­ bro; código simbólico; compu­ tador; memoria; procesamiento secuencial; registro von Wright, G., 244 Waldrop, M., 28n, 283n Waltz, D., 133, 133n, 153, 153n Warren, R., 327n Weiskrantz, L., 67, 67n, 25ln, 252, 252n Weizenbaum, J., 37-39, 37n-39n, 43, 43n, 62, 72, 77, 78, 78n Whitehead, A. N., 27

421

Wickel, rasgo, 323, 323n, 324 Wickelgren, W., 323n Wiggins, D., 240n Wilkes, K., 248n, 250n Williams, F. C., 22,22n Williams, R., 313n Winograd, T., 40, 40n, 41, 62, 63n, 76, 145n, 146, 146n, 153, 152n154n, 187, 187n Winston, P., 132,132n, 134 Wisard, 329 Wittgenstein, L., 92, 92n, 332, 332n Wooldridge, D., 93,93n Woolf, V., 263,263n, 266 Wordstar, 209-211,210n Worlton, J., 23n, 129n Yale, problema de los disparos, 172177,183 ve r tam bién , problema de la pro­ yección temporal Young, J. 2., 291,291 n Zuse, K., 20,20n, 21, 21n

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF