Memoria Natural y Artificial

January 14, 2018 | Author: Enrique Landa | Category: Central Processing Unit, Calculator, Integrated Circuit, Artificial Neural Network, Supercomputer
Share Embed Donate


Short Description

Memoria Natural y Artificial...

Description

M E M O R I A N A T U R A L A R T I F I C I A L Autora: LAURA VIANA CASTRILLÓN COMITÉ DE SELECCIÓN EDICIONES AGRADECIMIENTOS I. INTRODUCCIÓN II. HISTORIA DE LA COMPUTACIÓN III. PRINCIPIOS DE OPERACIÓN DE LAS COMPUTADORAS ACTUALES IV. SISTEMA DE ARCHIVO Y BÚSQUEDA DE INFORMACIÓN V. EL HOMBRE Y LAS MÁQUINAS PENSANTES VI. EL CEREBRO Y LA MENTE VII. MEMORIA Y APRENDIZAJE VIII. MATERIALES MAGNETICOS IX. COMPUTADORAS NEURONALES BIBLIOGRAFÍA CONTRAPORTADA

1 / 99

Y

C O M I T É

D E

S E L E C C I Ó N

Dr. Antonio Alonso Dr. Juan Ramón de la Fuente Dr. Jorge Flores Dr. Leopoldo García-Colín Dr. Tomás Garza Dr. Gonzalo Halffter Dr. Guillermo Haro † Dr. Jaime Martuscelli Dr. Héctor Nava Jaimes Dr. Manuel Peimbert Dr. Juan José Rivaud Dr. Emilio Rosenblueth † Dr. José Sarukhán Dr. Guillermo Soberón Coordinadora Fundadora: Física Alejandra Jaidar † Coordinadora: María del Carmen Farías

2 / 99

E D I C I O N E S Primera edición, 1990 Segunda edición, 1995 La ciencia desde México es proyecto y propiedad del Fondo de Cultura Económica, al que pertenecen también sus derechos. Se publica con los auspicios de la Subsecretaría de Educación Superior e Investigación Científica de la SEP y del Consejo Nacional de Ciencia y Tecnología. D.R. © 1990, FONDO DE CULTURA ECONÓMICA, S. A. DE C. V. D.R. © 1995, FONDO DE CULTURA ECONÓMICA Carretera Picacho-Ajusco 227; 14200 México, D.F. ISBN 968-16-48O7-2 (2a. edición) ISBN 968-16-3481-0 (1a. edición) Impreso en México

3 / 99

A G R A D E C I M I E N T O S Quisiera agradecer a todas las personas que con sus comentarios y sugerencias me ayudaron en el desarrollo de este libro. En particular, al matemático Arturo Gamietea, por su revisión cuidadosa del manuscrito, al señor Francisco Ruiz por su trabajo en el laboratorio de fotografía, y al doctor José Alberto López G. También quisiera agradecer al Centro Internacional de Física Teórica (ICTP), con sede en Trieste, Italia, por su hospitalidad durante mi asistencia al "College on Neurophysics" (noviembre de 1988), en donde realicé parte de este trabajo.

4 / 99

I .

I N T R O D U C C I Ó N Los fundamentos de la ciencia como un todo, y de la física en particular, esperan sus grandes revelaciones de la biología, y especialmente del análisis de las sensaciones... La observación psicológica por un lado, y la observación física por el otro, pueden progresar tanto que terminarán estando en contacto, y de esta manera, muchos conocimientos podrán salir a la luz. Los resultados de esta investigación no constituirán un dualismo sino una ciencia, la cual al incluir tanto lo orgánico como lo inorgánico, interpretará los hechos que son comunes a ambas. (MACH, 1914)

siempre ha tenido interés por conocerse a sí mismo y al mundo que lo rodea y este interés ha sido uno de los motores que le ha permitido, en su estancia relativamente corta sobre la Tierra, lograr una transformación tan grande del mundo. Esta transformación se ha llevado a cabo primero muy lentamente, a lo largo de miles de años, y después, de una forma cada vez más acelerada. Así, tenemos que durante este siglo se ha producido la primera revolución técnico-científica: por un lado, se ha logrado un gran avance en el conocimiento de la naturaleza fundamental de la materia, y por otro, la ciencia se ha involucrado, muy profundamente, con la industria y la agricultura. EL HOMBRE

En los años cercanos a los albores del siglo XX, la vida era muy diferente a la que ahora tenemos. Así vemos que, por ejemplo, las casas aún no contaban siquiera con luz eléctrica, ya que la lámpara incandescente recién se había inventado (Figura 1). En aquellos años se realizaron inventos muy ingeniosos, como el kinetoscopio, antecedente del cinematógrafo, en el cual únicamente una persona podía disfrutar del espectáculo. También corresponden a esa época el lanzamiento al mercado de los primeros gramófonos y fonógrafos, de las primeras máquinas sumadoras y el invento del teléfono, el cual vino a revolucionar el mundo de las telecomunicaciones. En el plano del transporte, tenemos la creación y desarrollo del automóvil, de los primeros aviones 5 / 99

pequeños y de los gigantescos dirigibles. En el terreno militar, se inicia el uso de los primeros explosivos estables, los cuales no estallan a menos de que se pongan en contacto con las substancias que los activan. En el ámbito de la investigación en materiales, se crean los primeros plásticos útiles (la baquelita que se utiliza como aislante eléctrico), etcétera. En cuanto a la actividad científica, ésta estaba prácticamente concentrada en Inglaterra, Francia y Alemania. Por aquellos días se descubren los rayos X, se inventa el ultramicroscopio (capaz de aumentar el tamaño de las imágenes 7 500 veces debido a que utiliza luz ultravioleta) y se confirma la naturaleza atómica de la materia. Por esos años se inició una aceleración súbita y sin precedentes de la actividad científica y de sus aplicaciones, la cual continúa hasta nuestros días; de manera que en los últimos años, se han llevado a cabo más trabajos científicos que en toda la historia previa de la humanidad. Como consecuencia, hemos experimentado un cambio total en nuestra concepción del mundo y en nuestro estilo de vida. Este desenvolvimiento técnico tan acelerado, ha dado origen y ha sido a su vez resultado de una interpenetración, en los países industrializados, entre la ciencia y la industria. El avance científico y el progreso técnico han quedado ligados de manera que ahora es prácticamente imposible hablar de ellos por separado.

Figura 1. Apuntes de Edison en los cuales se muestran los esbozos de las primeras bombillas eléctricas. Algunas de las características que describen el desarrollo científico-técnico del presente siglo, son el inicio de la producción en serie, el control automático de los procesos industriales, la disponibilidad y control de la energía, la aparición de los medios de comunicación masiva, y la substitución del hombre en la ejecución de ciertos trabajos por máquinas o dispositivos electrónicos. Todos estos factores proporcionaron la explotación en gran escala de los recursos naturales, la producción de materias primas, y el desarrollo de industrias como la eléctrica, química, farmacéutica, alimenticia, etc. Ahora contamos con fertilizantes, insecticidas, detergentes, plásticos y fibras sintéticas, antibióticos, armas químicas, entre otros. Un elemento más de capital importancia en el avance de la ciencia ha sido el deseo de dominio y supremacía del hombre sobre sus semejantes de manera que la industria bélica ha sido responsable de muchos refinamientos e innovaciones de la electrónica, las telecomunicaciones, la industria química, nuclear, etcétera. 6 / 99

Los diferentes esquemas de organización política y desarrollo económico también han desempeñado un papel decisivo. Así, otra característica de nuestro tiempo ha sido, por un lado, el crecimiento de los grandes monopolios de carácter comercial e industrial en cuyos departamentos de investigación se realiza 80% de la investigación aplicable, y por otro lado, la institucionalización de la investigación científica, de modo que la planeación de la investigación ha ido substituyendo a la inventiva aislada e individual. Entre los frutos de este auge técnico-científico tenemos, a manera de ejemplo, los siguientes. El hombre ha iniciado la conquista del espacio: ha sido capaz de llegar a la Luna y de enviar naves a hacer travesías en nuestro sistema solar (véase la figura 2), las cuales han conseguido enviar información a la Tierra desde lugares tan lejanos como Neptuno. También se han creado bombas que podrían acabar con la humanidad en cuestión de horas. Posteriormente se han descubierto y fabricado materiales superconductores que, por debajo de cierta temperatura, son capaces de conducir energía eléctrica prácticamente sin pérdidas de ésta (Figura 3). Se han construido refrigeradores capaces de llegar a temperaturas muy cercanas al cero absoluto, microscopios capaces de "ver" átomos individuales (Figura 4), y dispositivos electrónicos que detectan fotones (cuantos de luz), también individuales. Otro instrumento creado es el láser, que tiene una serie muy amplia de aplicaciones, que van desde su uso en tocadiscos compactos hasta su aplicación en microcirugía y en la industria bélica. Por otro lado, se han desarrollado técnicas muy importantes con aplicaciones a la medicina, como el ultrasonido y la microcirugía, y se han producido vacunas que han contribuido al control de enfermedades como la viruela y la poliomielitis, etcétera, asimismo han nacido los primeros "bebés de laboratorio" engendrados en probetas.

Figura 2. Figura que muestra las trayectorias de las naves espaciales Voyager I y Voyager II, a través de la parte exterior de nuestro sistema solar. Uno de los desarrollos más sobresalientes del siglo XX, el cual aún no hemos mencionado, es el de las computadoras. Estas han sido tan importantes que a menudo nuestra época se denomina "la era de las computadoras". Las computadoras han sido, por un lado, un logro tecnológico de primera línea, y por otro lado han desempeñado un papel muy importante por sí mismas. Primero, en el avance de la ciencia, ya que constituyen una herramienta muy útil en la investigación científica (realización de 7 / 99

cálculos matemáticos y simulación numérica). Segundo en el desarrollo tecnológico, ya que han contribuido como herramienta de diseño e instrumento de control en los procesos industriales (Figura 4). Y tercero, y no menos importante, han contribuido como medio para el manejo y almacenamiento de información.

Figura 3. Esta fotografía muestra un imán levitando sobre un material superconductor (efecto Meisner). Cortesía: doctor Ramiro Pérez, IFUNAMEnsenada.

Figura 4. Fotografía de la imagen obtenida al observar una muestra de grafito a través de un microscopio de tunelaje. En ella puede apreciarse la presencia de átomos individuales. Cortesía: doctor Leonardo Morales, IFUNAM-Ensenada.

8 / 99

Figura 5. Los sistemas de visón automatizada permiten llevar a cabo el "control de calidad" durante todas las etapas del proceso de producción. El uso de las computadoras no ha quedado restringido a los ámbitos técnico, científico y administrativo. En los últimos años su existencia ha cambiado radicalmente nuestras vidas, pues ahora forman parte esencial de la mayoría de los aspectos del quehacer humano. Hace tan solo algunos años, el uso de las computadoras dentro del hogar formaba parte de la ficción científica. Actualmente, en los países industrializados existen computadoras en gran cantidad de hogares, y los cursos de computación constituyen una parte importante del currículum escolar del nivel elemental. Además en estos países existen grandes bancos de datos a los cuales se puede tener acceso, desde la comodidad del hogar, a través de una computadora personal. De esta manera, es posible conocer los horarios de ferrocarriles y aviones, obtener información acerca de los espectáculos y del estado del tiempo, hacer pedidos comerciales, tener acceso a las cuentas personales de banco, etcétera. Algunas personas se alarman debido a que sienten que las computadoras están "reemplazando" al ser humano en muchas de sus funciones. Si bien esto es en gran parte cierto, hasta ahora las computadoras no son capaces de hacer nada por sí mismas, únicamente son capaces de seguir instrucciones. Pero, ¿continuará siempre siendo de esta manera?, ¿podrán algún día crearse computadoras que al igual que el ser humano "aprendan" a partir de la experiencia y sean capaces de autoprogramarse? Este ha sido el tema central de muchas novelas de ciencia ficción, y aunque se están dando pasos muy importantes en esta dirección, la respuesta definitiva sólo la tendremos con el paso del tiempo. En la actualidad, una computadora pequeña es capaz de efectuar, en cuestión de segundos, una cantidad tal de operaciones matemáticas, que a un hombre le tomaría meses o años realizarlas. Sin embargo, hay otro tipo de trabajos para los cuales las computadoras están claramente en desventaja. Estas tareas suponen la solución de problemas que se caracterizan por tener un gran número de soluciones, y por no ser posible dar instrucciones concretas para encontrarlos, más adelante explicaremos a qué nos referimos. En lo sucesivo denominaremos a estos problemas complejos. 1

9 / 99

Entre los problemas complejos, tenemos problemas de optimización o toma de decisiones, de reconocimiento, etcétera. Por ejemplo, un niño de tres años es mucho más eficiente reconociendo imágenes como caras de personas, que una poderosa computadora que trabaja con los programas más elaborados. Asimismo, un niño es capaz de efectuar generalizaciones y clasificar imágenes que nunca ha visto, mediante el uso de elementos extraídos de la experiencia previa, es decir, haciendo comparaciones y analogías entre el contenido de la imagen nueva que se presenta y el contenido de las imágenes que ha visto en el pasado. El origen de esta diferencia de eficacia radica en que los procedimientos utilizados por los humanos y las computadoras son en esencia de carácter diferente. Las computadoras trabajan ejecutando instrucciones precisas, las cuales pueden definirse de una manera sucinta en un algoritmo o receta del procedimiento a seguir. Una computadora puede ser programada para hacer comparaciones, pero es necesario que el programador defina, de manera concisa y exhaustiva, todos los criterios necesarios a considerar para efectuar dichas comparaciones. Muy recientemente, se ha empezado a desarrollar un nuevo concepto en computadoras denominadas redes neuronales, las cuales tienen como objetivo la solución de los problemas complejos. El diseño de estas computadoras se basa en lo poco que conocemos acerca de la forma en que el cerebro humano procesa y almacena la información. Estas máquinas se encuentran en sus primeras etapas de desarrollo, y muy lejos de poderse considerar cerebros sintéticos, ya que su poder de procesamiento es inferior, por muchos órdenes de magnitud, al de la mente humana; sin embargo, se espera que en cuanto estas computadoras sean perfeccionadas contribuyan a resolver los problemas de manejo de información y toma de decisiones. En este libro hablaremos de manera paralela de dos temas correlacionados. Por un lado, acerca de las computadoras: de su evolución, y de la forma en que manejan información. Por otro lado, de lo que sabemos o creemos saber acerca de los mecanismos por medio de los cuales se lleva a cabo el almacenamiento de la memoria en los seres vivos, y la manera en que se recuerdan o evocan estas memorias. De esta manera, haremos hincapié en las similitudes y diferencias de estos procesos. Hablaremos además de los intentos recientes por crear máquinas útiles para resolver problemas complejos, cuyas memorias funcionen mediante mecanismos similares a los utilizados por los seres vivos. El plan de este libro es el siguiente: en el capítulo II relataremos, a grandes rasgos, la historia de la computación, desde el momento en que el hombre adquirió la necesidad de contar, hasta finales de los años ochenta. En el capítulo III hablaremos de los principios generales que hacen funcionar a las computadoras de hoy en día. En el capítulo IV analizaremos de manera comparativa la eficiencia en el desempeño de los procesos de almacenamiento y llamado de información de las computadoras y el hombre. En el capítulo V analizaremos algunas características humanas que sería importante comprender y reproducir, si se desea crear máquinas "pensantes". Más adelante, en el capítulo VI, hablaremos de manera muy general acerca del cerebro humano y de los diferentes puntos de vista de su estudio. Posteriormente, en el capítulo VII, hablaremos de los conocimientos con que contamos acerca de las bases fisiológicas de las capacidades humanas de memorización y remembranza. En el capítulo VIII haremos un paréntesis para hablar de los materiales magnéticos, con el fin de hacer, en el capítulo IX, una analogía entre el comportamiento de ciertos materiales 10 / 99

magnéticos y el del cerebro humano. Esta analogía nos permitirá utilizar herramientas de la física para hacer un tratamiento probabilístico del comportamiento colectivo de un conjunto de neuronas interconectadas, y nos dará una visión cualitativa de los mecanismos que permiten al cerebro almacenar y recuperar información. Y en este capítulo hablaremos un poco acerca de la nueva generación de computadoras, y de los esfuerzos actuales por construir computadoras con capacidades "más humanas". Este libro trata, en gran parte, de temas que no tienen una explicación definitiva y que han inquietado al hombre desde tiempos inmemorables. Sin embargo, la reciente incursión de la física estadística en la investigación del funcionamiento de la mente, ha dado nueva luz a este problema y ha permitido apreciarlo desde un punto de vista nuevo. Nuestra intención no es hacer una exposición profunda en ninguna de las disciplinas involucradas en este tema, sino exponer, de manera sencilla y accesible, algunas ideas de un tema interdisciplinario de gran interés, e introducir al lector al tipo de modelos que la física ha empezado a desarrollar para estudiar algunos aspectos del funcionamiento del cerebro. Es por esto que no pretendemos dar la respuesta acerca del funcionamiento de la memoria humana, sino únicamente compartir con el lector algunas ideas e inquietudes de un grupo cada vez más grande de científicos que en la actualidad trabaja con gran entusiasmo en este tema.

11 / 99

I I .

H I S T O R I A D E C O M P U T A C I Ó N

L A

EN LA historia de la ciencia, hay ciertos momentos claves en los que el ingenio e inteligencia de ciertas personas, aunados a toda una situación social e ideológica propicias, les permiten percibir algo que nadie antes había sido capaz de ver. En muchas ocasiones esta revolución en los conceptos viene acompañada de innovaciones tecnológicas que constituyen grandes saltos en el desarrollo de nuevos aparatos. De esta manera, nos encontramos con que en general el avance científico-tecnológico tiene dos tipos de etapas: en la primera surge una idea o descubrimiento innovador muy importante, y la segunda comprende los tiempos durante los cuales se maduran y establecen las ideas. Durante estos periodos, se construyen aparatos cada vez más elaborados con base en estos principios. Este proceso continúa hasta que surge una nueva idea que permite de nueva cuenta un avance significativo. Con esta idea en mente, podríamos dividir la historia de la computación en varias etapas, cada una caracterizada por una revolución tecnológica importante. A continuación relataremos de manera muy general el desarrollo de la computación, desde sus orígenes hasta finales de los años ochenta. SISTEMAS NUMERALES Puede decirse que la historia de la computación comienza cuando el hombre adquiere la necesidad de contar. Seguramente en un principio el hombre comenzó a contar con los dedos, para después hacerlo mediante marcas en el piso o utilizando piedras. Con la invención de la escritura, diferentes civilizaciones encontraron sendas maneras de contar y más tarde, de efectuar operaciones. La figura 6 nos muestra, de una manera comparativa, algunos sistemas numerales.

12 / 99

Figura 6. Esta figura nos muestra algunos sistemas numerales.

Figura 7. En la numeración maya un punto representa una unidad, una barra corresponde a cinco unidades, y el número cero es representado por una concha. Combinando estos signos pueden escribirse los números del 0 al 19. Para designar Números mayores al 19 se utiliza el sistema de posiciones: de abajo hacia arriba, la nésima posición representa unidades de n-ésimo orden. Una de las escrituras más antiguas que se conoce es la egipcia. Esta civilización adoptó un sistema de contar de diez en diez, de manera que marcaban las unidades con líneas verticales y las decenas con un signo similar a la U invertida. Otras culturas adoptaron sistemas más complicados; por ejemplo, los babilonios contaban de 60 en 60, y aunque su sistema era muy poco práctico, se cree que de ellos provienen las bases del sistema actual de contar los minutos y los segundos. Otra numeración antiguamente utilizada fue la romana, la cual era muy simple y permitía efectuar operaciones aritméticas aunque no con mucha sencillez. Aún perdura la tradición de utilizarla en algunos contextos específicos; por ejemplo, en las carátulas de los relojes, para denominar los tomos o capítulos de los libros, para escribir algunas fechas, etcétera.

13 / 99

Entre las culturas de América, es interesante señalar que los mayas contaron con un sistema numeral vigesimal muy avanzado y utilizaron el cero aun antes que en Europa o Asia. La figura 7 nos muestra esta numeración.

Figura 8. En el sistema decimal se utiliza un criterio de posiciones con el cual cada dígito tiene un peso diferente, de acuerdo con una base diez. Esta figura nos muestra la forma en que se construye el número 1 968. Podríamos continuar esta lista señalando más culturas y explicando sus sistemas de numeración, sin embargo, tan sólo queremos hacer hincapié en lo siguiente: la forma en que contamos actualmente, eso es, utilizando el sistema decimal (arábico), no es ni la única posible ni la única correcta, sino sólo una forma que hemos heredado de nuestros antepasados y que ha sobrevivido por ser simple y adecuada para nosotros debido a que tenemos diez dedos en las manos. Los principios de esta numeración se ilustran en la figura 8. USO DE ARTEFACTOS PARA SUMAR El siguiente paso en el desarrollo de la computación se dio con la invención de aparatos útiles para efectuar operaciones matemáticas. El ábaco es la primera calculadora o computadora de que tenemos noticias. Aunque se inventó hace aproximadamente 4 000 años, aún tiene un uso muy amplio en algunos países de Asia, debido a que se trata de una calculadora muy rápida y práctica, útil para efectuar operaciones de adición, substracción, multiplicación y división. Este artefacto se muestra en la figura 9. Muchos años tuvieron que pasar antes de que se lograran progresos en el desarrollo de nuevas calculadoras. En 1617, el escocés John Napier inventa los llamados huesos de Napier o tablas de multiplicar (de donde proviene el nombre utilizado hasta nuestros días). Éstos consisten de una regla fija y otra móvil que se desliza sobre la primera, de manera que deja ver el producto de dos números cualesquiera (véase la figura 10). Posteriormente las tablas de Napier evolucionaron hasta llegar a la regla de cálculo, la cual funciona con el mismo principio pero es útil para llevar a cabo operaciones de multiplicación, división y raíz cuadrada, entre otras. Debido a su portabilidad, este artefacto tuvo una gran acogida en el mundo occidental y fue de uso frecuente hasta hace pocos años, cuando se generalizó el uso de las calculadoras de bolsillo. A mediados del siglo XVII se inicia una nueva era de calculadoras mecánicas cuando, en 1642, Blaise Pascal, quien sólo contaba con 19 años de edad, introduce una máquina 14 / 99

sumadora mecánica con el objeto de facilitar los cálculos de su padre (Figura 11). Esta máquina consistía en un sistema con ruedas pequeñas acopladas entre sí y que, de derecha a izquierda correspondían a unidades, decenas, centenas, etcétera. Estas ruedas se encontraban divididas en 10 partes iguales; de manera que para efectuar una suma se hacían girar manualmente un número de pasos acorde con el número que se deseaba introducir. La rotación completa de un círculo en la dirección positiva, causaba automáticamente que el círculo a su izquierda avanzara una posición. Para efectuar sustracciones el proceso era el inverso.

Figura 9. En el ábaco, cada barra horizontal contiene siete móviles separadas por una barra vertical. Aquéllas en el lado izquierdo valen uno, y las del lado derecho valen cinco; el número cero está representado cuando todas las cuentas están alejadas de la barra central. Las sumas se efectúan al mover, hacia la barra central, las cuentas correspondientes a la cantidad que se desea sumar. Algunos años más tarde, Leibniz inventa una máquina similar a la de Pascal pero más compleja, la cual podía sumar, restar, multiplicar y dividir. Es la computadora, ilustrada en la figura 12, se empleó extensivamente hasta el advenimiento de las computadoras electrónicas. LA ERA DE LA PROGRAMACIÓN SE INICIA Los siguientes avances significativos se logran hasta el siglo XIX, cuando Joseph Jacquard, quien era obrero en una fábrica de sedas de Lyon, introduce la idea de programar máquinas mediante el uso de tarjetas perforadas. La invención de Jacquard consistió en un telar que utilizaba tarjetas perforadas para controlar de manera automática el diseño y los colores de los tejidos. Esta idea es adaptada a la computación, en la llamada "máquina analítica" (Figura 13), por un matemático inglés llamado Charles Babbage, quien vivió obsesionado con el diseño y construcción de máquinas calculadoras. Más adelante hablaremos de esta máquina.

15 / 99

Figura 10. Esta figura muestra una variante de las "tablas de multiplicar", en la cual las tablas se ven substituidas por elementos que giran. Este aparato nunca llegó a funcionar satisfactoriamente.

Figura 11. Máquina de pascal.

Figura 12. Diagrama que muestra un corte de la máquina de calcular de Leibnitz. Babbage hizo su primer esbozo de una máquina calculadora a la que llamó máquina diferencial", en 1822. Sin embargo, constantemente tenía nuevas ideas que mejoraban el diseño original, por lo cual iba echando por tierra todo el trabajo realizado anteriormente. Es probable que esta situación hubiese continuado por muchos años, de 16 / 99

no ser por una discusión que tuvo con su mecánico, después de la cual este último desmontó el taller y partió con todos los diseños. En esta coyuntura, Babbage tiene que empezar un nuevo diseño, y así concibe una calculadora totalmente nueva: su "máquina analítica", la cual habría de ser más fácil de construir y tendría mayor poder de cálculo que la anterior. Así, diseña una computadora mecánica digital a la cual habrían de suministrársele datos e instrucciones a seguir a través de tarjetas perforadas de acuerdo con un código. La computadora a su vez proporcionaría las soluciones también en forma de perforaciones en tarjeta. Como consecuencia, esta máquina "programable" ofrecía dos nuevas ventajas: i) por primera vez, una máquina sería capaz de utilizar durante un cálculo los resultados de otro anterior sin necesidad de reconfigurar la máquina, lo cual permitiría llevar a cabo cálculos iterativos, y ii) habría la posibilidad de que la computadora siguiese instrucciones alternas, dependiendo de los resultados de una etapa anterior del cálculo. Babbage describió esta máquina como "la máquina que se muerde la cola".

Figura 13. El dispositivo que se muestra en esta figura, forma parte de la máquina analítica de Babbage y nos da idea de su complicación; está diseñado para efectuar la operación de multiplicar ( o dividir) un número por una potencia de diez. Los planes de Babbage eran crear una máquina de no menos de 20 cifras de capacidad y precisión de seis cifras. Probablemente, las debilidades más grandes de este diseño fueron el cuidado y precisión requeridos para su construcción. De manera que, aunque su diseñador dedicó el resto de su vida, y gran parte de su fortuna, a tratar de terminar esta máquina, sólo pudo hacer una versión pequeña del modelo. De haberse construido, la máquina hubiese consistido de cerca de dos toneladas de maquinaria de relojería de latón y acero. Para dar una idea al lector de la importancia de "la máquina que se muerde la cola", diremos que hasta ese momento, cada vez que se quería efectuar una serie de operaciones matemáticas, había que introducir, una a una y manualmente, todas las instrucciones y datos de la operación conforme se iban necesitando. A cada paso la máquina iba dando el resultado parcial d la operación específica efectuada, de manera que el "usuario" de la máquina podía decidir cuál sería la siguiente operación. 17 / 99

LA ERA MODERNA DE LA COMPUTACIÓN Con el desarrollo posterior de la electricidad aparecieron las llamadas computadoras electromecánicas, las cuales utilizaban solenoides e interruptores mecánicos operados eléctricamente. La primera de ellas se creó en 1944 y fue la llamada Mark I. Las instrucciones "se cargaban" por medio de cinta de papel con perforaciones, y los datos se proporcionaban en tarjetas de cartón, también perforadas. Esta computadora tenía aproximadamente 15.5 m. de largo por 2.5 de altura, y multiplicaba dos números en aproximadamente 3 segundos. Tres años más tarde, la computadora Mark II. era capaz de llevar a cabo la misma operación en menos de un cuarto de segundo; esto es, 12 veces más rápido. Mientras estas computadoras analógicas2 eran construidas, se gestaba un nuevo concepto de computadoras. Éstas eran las llamadas computadoras digitales, acerca de cuya paternidad existen gran cantidad de disputas. Sin embargo, como narraremos a continuación, en una batalla legal en las cortes de los Estados Unidos de América se atribuyó el derecho a llamarse inventor de la computadora digital" a John V. Atanasoff, un físico estadounidense, hijo de un ingeniero eléctrico y una maestra de álgebra. Desde muy pequeño, Atanasoff encontró gran placer en el estudio del álgebra. Cuando tenía 10 años de edad, su madre le dio un libro en el cual se explicaba cómo calcular números en otras bases diferentes a la base diez. Años más tarde, Atanasoff comentaría: "Cuando inicié mi trabajo en computadoras, una de las cosas que tenía en mente era que tal vez las computadoras trabajarían mejor si utilizaran para sus cálculos alguna otra base que no fuese diez." Más adelante, Atanasoff estudió ingeniería eléctrica e hizo estudios de posgrado en matemática y física, para posteriormente llegar a ser profesor asociado de física y matemáticas en la Universidad de Iowa. Una de las motivaciones de Atanasoff para trabajar en el diseño de computadoras fue su gran frustración ante la incapacidad de sus alumnos para encontrar las soluciones de sistemas grandes de ecuaciones diferenciales simultáneas; ya que consideraba que el tiempo invertido en esta tarea les impedía dedicarse a otros problemas más interesantes. Dicho sea de paso, la solución de este problema matemático era imposible de obtener utilizando las calculadoras analógicas existentes en ese momento. Es en esta época cuando Atanasoff tuvo varias ideas muy brillantes que revolucionaron las máquinas calculadoras y que de hecho hicieron posible el inicio de la era moderna de la computación. Estas ideas fueron las siguientes: 1) El remplazo de los relevadores electromecánicos por bulbos. Los relevadores electromecánicos utilizados hasta ese momento eran una especie de interruptores que podían abrirse o cerrarse cientos de veces por minuto. Dada la naturaleza de este proceso, no podía llevarse a cabo con más rapidez. Por otro lado, los bulbos pueden prenderse y apagarse (conducen o dejan de conducir electrones), cientos de veces por segundo. Esto es, operan con una rapidez mucho mayor que los relevadores electromecánicos. 2) La substitución del sistema decimal por el sistema binario. Tanto los circuitos electrónicos como los relevadores electromecánicos tienen dos estados posibles; esto es, pueden estar prendidos o apagados, lo cual puede estar representado por ceros y unos, respectivamente. Esto hace que sea más natural para una computadora efectuar cálculos utilizando para ello un sistema numérico binario.

18 / 99

3) La utilización de condensadores para construir dispositivos encargados de guardar información ("memorias"). Estos nuevos dispositivos estarían formados por un gran número de condensadores (también llamados capacitores), los cuales, al estar cargados o descargados, guardarían información, de acuerdo con un código binario. Sin embargo dado que es imposible lograr un aislamiento eléctrico perfecto del dispositivo, era de esperarse que la carga se "escaparía" en cuestión de milisegundos. Atanasoff ideó entonces un procedimiento llamado refrescamiento de memoria, el cual consiste en leer la información registrada en cada área de la memoria e inmediatamente reescribirla en el mismo lugar. Esta operación debería llevarse a cabo periódica y automáticamente, a intervalos de tiempo regulares. Durante los años subsecuentes, Atanasoff trabajó junto con un estudiante en la construcción de un prototipo de computadora que utilizara estos principios, y que fue de hecho la primera en hacer aritmética electrónicamente. Ésta fue la llamada ABC (Atanasoff-Berry Computer), la cual utilizaba 300 bulbos para los circuitos lógicos, y capacitores para la regeneración automática de la memoria. Por otro lado, mientras esto sucedía, Atanasoff firmó un convenio con la universidad en la que prestaba sus servicios. En dicho documento, el inventor convenía en ceder a la universidad la mitad de las regalías obtenidas por su computadora. A su vez, la universidad se comprometía a tramitar la patente. Desafortunadamente, la universidad nunca cumplió con su parte, aparentemente debido a negligencia y falta de confianza en este proyecto por parte de las autoridades. Fue en est época, mientras trabajaba en el perfeccionamiento de la ABC, que Atanasoff tuvo su primer encuentro con un experto en computadoras llamado John Mauchly. Con esta persona tuvo largas discusiones acerca del tema que a ambos interesaba, le mostró los principios de operación de su computadora y le pidió que guardara el secreto de su existencia hasta que ésta estuviese patentada. Fue entonces cuando estalló la segunda Guerra Mundial; Atanasoff fue llamado entonces a colaborar con la Fuerza Naval de su país en un proyecto relacionado con la supervisión de pruebas acústicas de minas. Debido a estas circunstancias, se tuvo que abandonar el proyecto de la computadora ABC, por lo cual ésta nunca superó la etapa de pruebas. La primera máquina que llegó a estar en plena operación utilizando los principios ideados por Atanasoff fue la llamada ENIAC y fue ¡precisamente Mauchly! quien la construyó junto con otro colaborador llamado Presper Eckert. Esta computadora tenía 19 000 bulbos, 1 500 relevadores, cientos de miles de capacitores, resistores e inductores, y aproximadamente 500 000 conexiones soldadas. Por otro lado, consumía casi 200 kilovatios de potencia y llevaba a cabo una multiplicación en 2.8 milisegundos (1 000 milisegundos = 1 segundo), esto es, ¡mil veces más rápido que su predecesora, la computadora Mark II! Aunque Mauchly sostenía que esta computadora era totalmente diferente de la ABC, años más tarde la patente de la ENIAC fue invalidada. Después de una batalla de demandas y contrademandas entre compañías constructoras de computadoras, por no pagar los derechos de patente, Atanasoff, apoyado por la IBM, inicio un juicio contra la patente de la ENIAC. En este juicio, fue reconstruida la ABC y se demostraron los principios que ésta utilizaba en su funcionamiento. El 19 de octubre de 1973, 28 años después de construida la ENIAC, el juez falló en favor de Atanasoff. Sin embargo, esta noticia no tuvo el impacto que era de esperar, debido a que ese mismo día salió a la luz el escándalo de Watergate.

19 / 99

En años subsecuentes ha habido un desarrollo acelerado de las computadoras electrónicas digitales: el invento del transistor y el avance posterior en la electrónica han logrado una diferencia dramática en eficiencia y costos. Así se han logrado: un aumento en la rapidez con que se efectúan las operaciones matemáticas, un aumento en la cantidad de información que es posible manejar y almacenar, la disminución del volumen de las máquinas, y la disminución de su costo de operación y mantenimiento. Para dar una idea de la magnitud de estos avances, diremos que una pequeña calculadora programable de bolsillo tiene, hoy día, el mismo o un mayor poder para hacer cálculos que las voluminosas computadoras de principios de los años cincuenta, además de estar al alcance de casi cualquier bolsillo y tener un costo de mantenimiento prácticamente nulo. La historia reciente de la computación se ha dividido en las llamadas generaciones de computadoras, cada una de las cuales está caracterizada por un desarrollo o una innovación importante. A continuación haremos una breve reseña de estas etapas. Primera generación: bulbos Esta es la era de las computadoras construidas con bulbos; se inicia en 1951 con la primera computadora industrial, la llamada UNIVAC 1. Las computadoras de esta generación eran muy grandes y de funcionamiento costoso. Los bulbos eran de gran tamaño y consumían mucha energía eléctrica, por lo que generaban mucho calor y se fundían con frecuencia. Por lo anterior estas computadoras debían ser instaladas en cuartos con aire acondicionado, con el propósito de mantener el sistema lo más frío posible para disminuir la ocurrencia de fallas. Segunda generación: el transistor La segunda generación de computadoras se inició, a finales de los años cincuenta, con el remplazo de los bulbos por transistores. Los transistores son dispositivos electrónicos útiles para generar, amplificar y controlar señales eléctricas. Si comparamos los bulbos con los transistores, podemos ver que estos últimos son mucho más pequeños, más confiables, generan menos calor y requieren menos energía para su operación. Todo esto contribuyó a crear computadoras más pequeñas, baratas y confiables. En esta época comenzó el auge de las computadoras desde el punto de vista comercial, se crearon muchas compañías dedicadas a su diseño y construcción. Tercera generación: las familias de computadoras y los circuitos integrados Las máquinas de la tercera generación se distinguen por dos aspectos importantes: por un lado, su componente fundamental lo constituyen los circuitos integrados, y por otro, se forman las familias de computadoras caracterizadas por tener compatibilidad hacia arriba. A continuación hablaremos de estos dos puntos. Los circuitos integrados están formados por un elemento base de silicio (chip), con un gran número de transistores y otras componentes integradas, interconectadas, que 20 / 99

ocupan un espacio aproximado de 2.5 cm de largo por 1.25 cm de ancho. El uso de estos circuitos hizo a las computadoras más económicas, confiables, compactas y con un costo de operación mucho más bajo. Todo esto, con respecto a las computadoras de generaciones anteriores. Las familias de computadoras fueron creadas en un intento por lograr compatibilidad entre máquinas de modelos diferentes, construidas por un mismo fabricante. Las computadoras de la segunda generación tenían el problema de que los programas escritos para máquinas pequeñas no podían ser utilizados por máquinas más grandes (ni viceversa), aunque ambas fuesen producidas por la misma firma comercial. Al construirse máquinas compatibles se dio un paso muy importante desde el punto de vista comercial y práctico, ya que permitió a pequeñas empresas en desarrollo el ir adquiriendo máquinas cada vez más poderosas según el aumento de sus necesidades. De esta manera, los programas escritos para las máquinas pequeñas podrían ejecutarse en máquinas más grandes de la misma familia, haciendo, en el peor de los casos, tan sólo pequeñas modificaciones. Cuarta generación: el microprocesador La cuarta generación de computadoras se caracteriza por el uso del microprocesador. Éste consiste en un solo circuito integrado, el cual contiene en su totalidad a la unidad central de procesamiento (CPU), o cerebro de la computadora. En esta generación, el mayor logro consistió en hacer computadoras pequeñas, con mayor poder y menor volumen y costo. Quinta generación: procesamiento en paralelo, redes neuronales y computadoras ópticas Actualmente se trabaja en la creación de la quinta generación de computadoras. Esta nueva generación seguramente incluirá dos cambios importantes. El primero consiste en un cambio fundamental en la manera de efectuar el procesamiento de la información, y por tanto, implica el diseño de arquitecturas conceptualmente diferentes.3 El segundo cambio que esperamos, consiste en el desarrollo y adaptación de nuevas tecnologías. Las computadoras convencionales procesan la información en serie, efectúan una instrucción después de otra. Como consecuencia, la mayor parte de la computadora y de sus periféricos están ociosos gran parte del tiempo mientras esperan instrucciones del procesador central. Con el objeto de proceso, han sido diseñadas grandes máquinas, llamadas supercomputadoras, cuyo propósito es llevar a cabo el procesamiento de la información en paralelo; esto es, constan de varios elementos procesadores, cada uno de los cuales efectúa tareas de manera independiente y simultánea. De esta forma, el trabajo se divide en subtrabajos independientes, los cuales son asignados a diferentes elementos procesadores. Un ejemplo de estas máquinas es la computadora modelo CRAY 1, la cual consta de 64 elementos procesadores.

21 / 99

Estas supercomputadoras paralelas tienen un costo de producción muy alto, que se refleja en su costo de uso comercial;4 de manera que existen muy pocas en el mundo. Debido a esto, en los Estados Unidos de América se han organizado centros de supercomputación en los cuales se da servicio a un gran número de usuarios, a través de la línea telefónica. Además de su elevado costo, este tipo de computación presenta algunas inconveniencias: es difícil programar una computación paralela, ya que el programador debe fraccionar el problema en pequeñas tareas independientes, y optimizar la manera de asignarlas. Además, la mayor parte de los problemas no son paralelos por naturaleza; es decir, no siempre es posible dividir un trabajo en subtrabajos independientes, o hacerlo de manera eficiente, pues algunos procesadores requieren de los resultados obtenidos por otros para poder continuar sus cálculos. Como consecuencia, a menudo nos encontramos con que la más veloz supercomputadora opera casi a la misma velocidad que un procesador en serie. Este problema es conocido como el cuello de botella de Neumann. En los últimos años, ha aparecido un nuevo concepto en la computación, que probablemente proporcionará una solución a algunos de los problemas recién indicados. Este nuevo concepto, conocido con el nombre de redes neuronales, es radicalmente diferente al anterior: se utilizan elementos electrónicos que emulan neuronas simplificadas, los cuales se conectan entre sí formando redes similares a las que se encuentran en el cerebro, aunque a una escala mucho menor. Recientemente, los investigadores dedicados al desarrollo de las redes neuronales han logrado resultados sorprendentes, y todo parece indicar que, en el futuro, estos dispositivos podrán domar a las computadoras de capacidades similares a las humanas para la solución de problemas complejos. Más adelante explicaremos las bases de las redes neuronales y discutiremos algunas de las perspectivas inmediatas en cuanto a su aplicación a la computación. El segundo cambio que creemos caracterizará a la quinta generación de computación consiste en el desarrollo y adaptación de nuevas tecnologías. No es posible continuar reduciendo indefinidamente el tamaño de los circuitos integrados, ni lograr que disipen menos energía, como tampoco es posible conseguir que los electrones se transporten con mayor rapidez. Si se desea hacer una mejora substancial, es necesario recurrir al desarrollo y adaptación de nuevas tecnologías que ofrezcan ventajas sobre las actuales. En este terreno, se avecina la era de las computadoras ópticas, las cuales utilizarán fuentes de luz coherente (rayos láser), lentes, y fibras ópticas para transportar a los fotones a lo largo de trayectorias no rectas. Por consiguiente, funcionarán con base en el transporte de fotones y no de electrones, como sucede en la actualidad. Por último, tal vez pronto veremos reflejado en las nuevas computadoras el hallazgo reciente de materiales que son superconductores a temperaturas relativamente altas (hasta ahora del orden de -150°C). Lo cual significa que si estos materiales se mantienen por debajo de una cierta temperatura, sus electrones son capaces de viajar sin disipar energía y por lo tanto, sin producir calor.5

22 / 99

I I I . P R I N C I P I O P E R A C I Ó N D C O M P U T A D O A C T U A L E

O S D E E L A S R A S S

ya se discutió anteriormente, en los últimos años la computación ha tenido un desarrollo acelerado y ha contribuido en forma notable a la aparición de nuevas tecnologías y a la organización de la sociedad. Este desarrollo se ha llevado a cabo en un periodo muy corto de tiempo, de manera que la mayor parte de las personas adultas hoy en día, crecieron teniendo poco o nulo contacto con las computadoras, percatándose tiempo después de la gran importancia que éstas tienen, ya que están presentes en casi todos los aspectos de nuestras vidas. Esto ha ocasionado que todo el mundo esté familiarizado con las computadoras, pero que por otro lado, sean pocas las personas que tienen conocimiento de lo que realmente son. COMO

Existe todo un mito acerca de las capacidades de las computadoras, tanto que a menudo se mencionan cosas tan impresionantes como que éstas: "pueden calcular la explosión de una bomba de hidrógeno, analizar las ondas de choque y determinar la intensidad de la radiación resultante; todo ello en relación con las condiciones atmosféricas existentes durante la explosión", o también que "son capaces de predecir los resultados de una elección antes de que se hayan juntado todas las boletas de los votantes", o bien que "pueden determinar las probabilidades de encontrar petróleo en ciertos tipos de subsuelo",6 etc. Este tipo de aseveraciones reflejan la creencia, bastante generalizada, de que las computadoras son capaces de llevar a cabo cualquier tarea con tan solo "pedírselo". La validez de esta afirmación depende del significado que se confiera a la palabra "pedir", ya que las computadoras consisten en un complicado conjunto de circuitos electrónicos, el cual es capaz únicamente de llevar a cabo operaciones aritméticas y lógicas, de la manera que más adelante explicaremos. Corresponde al programador dar a la computadora las instrucciones precisas para llevar a cabo un cálculo o seguir un procedimiento. Debido a esto último, tenemos que la solución a un problema dependerá de los modelos o criterios utilizados por el programador para plantearlo. Por lo que los resultados sólo serán correctos en la medida en que el modelo utilizado lo sea. A continuación diremos, en términos generales, cuáles son los principios que utilizan las computadoras actuales para su funcionamiento y el tipo de operaciones que desempeñan. Esto, con el objeto de posteriormente hablar un poco acerca de los nuevos terrenos que la computación ha empezado a explorar. CIRCUITERÍA Y PROGRAMAS La ciencia de la computación tiene que ver con la información: cómo se representa, se procesa, se guarda y se transmite. Para ello se requiere de dos tipos de elementos que se conocen como circuitería y programas.7 La circuitería está constituida por los elementos físicos de la computadora y de su equipo periférico, como son las impresoras, graficadoras, pantallas (monitores), cintas magnéticas o discos duros para

23 / 99

almacenar información, etcétera. La circuitería del procesador central es también conocida con el nombre de arquitectura. Por otro lado, los programas están constituidos por las series de instrucciones que hacen posible el funcionamiento de la computadora. Estos dos aspectos de las computadoras están estrechamente ligados, y se reflejan el uno en el otro, ya que la estructura de la computadora está diseñada de manera que ésta es capaz de ejecutar cierto tipo de tareas. Esto lo explicaremos a continuación. La mayoría de las computadoras procesan y almacenan todos los datos y las instrucciones para procesarlos en forma de números binarios. Esto es así debido a que este sistema numeral es el más adecuado para ellas. Lo anterior puede ser fácilmente comprendido si pensamos que para utilizar los números en su forma decimal, las computadoras necesitarían 10 niveles diferentes de voltaje para poder expresar 10 dígitos. Por otro lado, los dígitos binarios 0 y 1 pueden ser representados usando circuitos electrónicos muy simples, que tan solo necesitan ser prendidos o apagados. Como consecuencia, tenemos que la única información que se puede manejar de esta manera se reduce a un "sí" o un "no". Esta cantidad de información es llamada bit, y es la unidad fundamental de todo dato. Las figuras 14 y 15 nos permiten apreciar la forma en que se representan los números en las computadoras digitales. Pero las computadoras no sólo "representan" números, sino que los procesan de acuerdo con las instrucciones recibidas; además transfieren información de una parte a otra de ellas mismas, y de una máquina a otra (véase la figura 16). Todas las instrucciones que estas máquinas deben ejecutar son resumidas en programas, los cuáles son, en esencia, mensajes escritos de acuerdo con algún código binario. Esto es, el lenguaje de máquina también se expresa en términos de bits.

Figura 14. Este diagrama nos ilustra el procedimiento de divisiones sucesivas, utilizado para cambiar un número de representación decimal a su representación binaria. El número 1 983 está representado por 11110111111, lo cual se obtiene al leer los residuos de las divisiones empezando por el ultimo y teminando con el primero ( o sea de abajo hacia arriba). Aunque el lenguaje de máquina es el más adecuado para las computadoras, no lo es así para el hombre. Si fuese necesario que nosotros utilizáramos dicho lenguaje para 24 / 99

comunicarnos con las máquinas, tendríamos más problemas de los que intentamos resolver. Para dar solución a este problema han sido creados los lenguajes de alto nivel, los cuales consisten en una serie de instrucciones que pueden ser entendidas, y aprendidas, tanto por el hombre como por las máquinas. Dentro de la computadora, estos programas puente, comprensibles para el hombre, son traducidos al lenguaje de máquina por programas llamados compiladores.8

Figura 15. Esta figura muestra la representación binaria de los 10 dígitos del sistema decimal. Cualquiera de estos números puede ser representado mediante las diferentes combinaciones, abierto o cerrado, de cuatro interruptores.

Figura 16. Transmisión del número 4 utilizando cuatro cables, de acuerdo con la tabla de valores mostrada en la figura anterior. Se han creado muchos lenguajes de alto nivel. Algunos lenguajes son más fáciles de utilizar para el hombre que otros, o más simples, o más lógicos, o mejor estructurados, o más compactos, o con características más apropiadas para llevar a cabo cierto tipo de trabajo, etcétera, pero todos sirven para el mismo fin: facilitar la comunicación hombre-

25 / 99

máquina. Entre los lenguajes más comunes tenemos el FORTRAN, el BASIC, el PASCAL, el "C", etcétera. Ahora bien, ¿de qué manera se lleva a cabo el procesamiento de la información?, ¿cómo puede un conjunto de interruptores llevar a cabo operaciones matemáticas y procesar información tan compleja para así contribuir a predecir, por ejemplo, los resultados de una explosión? La respuesta a estas preguntas está en la adaptación a las computadoras de un álgebra especial, llamada álgebra booleana, la cual fue creada a finales del siglo pasado con el objeto de hacer deducciones lógicas utilizando para ello el lenguaje de las matemáticas. A continuación daremos una breve explicación de los principios básicos del álgebra booleana y de su aplicación en las computadoras. ÁLGEBRA BOOLEANA Y CIRCUITOS LÓGICOS En 1847, un matemático inglés llamado Georg Boole publicó un ensayo acerca del análisis matemático de la lógica. En este documento estableció un conjunto de axiomas a partir de los cuales pueden deducirse afirmaciones lógicas más complicadas. Lo interesante del método por él introducido es la herramienta utilizada para llevar a cabo las deducciones: el álgebra. Esto es, las proposiciones son escritas en términos algebraicos mediante el uso de símbolos que representan ideas, y se llega a las deducciones por medio de operaciones algebraicas. En otras palabras, esta álgebra nos permite inferir, a partir de un conjunto de premisas, cuáles son las conclusiones a las que se puede llegar de una manera lógica. Y dado que una conclusión puede ser verdadera o falsa (2 estados), esta álgebra puede representarse mediante el uso de interruptores. El álgebra booleana está basada en los siguientes principios: i) cualquier proposición única, simple o compleja, es llamada variable y está representada por una letra del alfabeto; ii) existen ciertos símbolos que muestran las relaciones entre las proposiciones; y iii) estas relaciones pueden expresarse matemáticamente. A continuación explicaremos estos principios con algunos ejemplos: Las proposiciones A, B, C y D pueden significar respectivamente: "mayor de 60 años más de veinticinco años de servicio", "jubilación" y "jubilación con salario completo". Por otro lado, las relaciones básicas entre las proposiciones son las siguientes: "OR" (O no exclusiva), "AND" (Y) y "NO" (NO).9 Estas relaciones se ilustran a continuación. A y B son dos afirmaciones independientes, entonces tenemos que la afirmación conjunta

"A OR B"

(se denota A + B).

será verdadera si al menos una de las afirmaciones es verdadera. Esto es, la afirmación A + B = C será verdadera si se trata de una persona ya sea mayor de 60 años o con 25 años de servicio. Por otro lado, si se trata de una persona que además de ser menor de 60 años, tiene menos de 25 años trabajando, entonces la afirmación será falsa (se trata de "OR" no exclusiva). Ahora consideremos la afirmación conjunta

26 / 99

(se denota A · B)

"A AND B"

Para que la afirmación A · B = D sea verdadera, será necesario que la persona cumpla con ambos requisitos para obtener la jubilación con salario íntegro; esto es, deberá ser mayor de 60 y con más de 25 años de trabajo. Si alguna de las afirmaciones, o ambas, son falsas, entonces la proposición "A AND B" será falsa. Finalmente, la afirmación

"NO A"

(se denota

)

será cierta únicamente si la persona en cuestión es menor de 60 años. Pueden hacerse combinaciones más elaboradas de premisas, a partir de las relaciones básicas; así como también es posible escribir una misma relación de maneras diferentes. Por ejemplo:

B A= A + B significa: tener a "todos los que tienen más de 60 años de edad o que tienen más de 25 años de antigüedad" es lo mismo que tener a todos los que son mayores de 60 años o que además de ser menores de 60 años tienen más de 25 años de antigüedad. Nótese que aun con relaciones muy simples como ésta se vuelve difícil traducirlas al lenguaje común, y más aún, efectuar deducciones. Esto nos muestra que una de las grandes ventajas de reducir operaciones lógicas a términos de operaciones matemáticas es que, a diferencia del lenguaje común, las matemáticas no tienen ambigüedades. La figura 17 nos muestra un resumen de las leyes del álgebra booleana, las cuales nos son útiles para simplificar expresiones. Para utilizar el álgebra booleana en la computadora, se le asigna el valor "1" a la palabra VERDADERO, y el valor 0 a FALSO, o "prendido" y "apagado", respectivamente, y se construyen circuitos electrónicos dentro de la computadora, que se comportan al igual que estas funciones lógicas. Éstos son los llamados circuitos lógicos9 (véase la figura 18). De esta manera, cuando la computadora ejecuta un programa, envía la información a los circuitos compatibles con el tipo de operación que se desea efectuar. Por otro lado, las figuras 19 y 20 muestran los símbolos convencionales y las tablas de verdad para algunos circuitos simples. Por supuesto, no es necesario construir un circuito especial para cada problema que deseamos resolver, ya que cualquier problema expresable en términos matemáticos, por complicado que sea, puede realizarse por partes en las diferentes unidades encargadas de efectuar operaciones. Dentro del cerebro central de una computadora existe un gran número de circuitos lógicos, algunos de ellos de gran complejidad; cada uno de estos circuitos ha sido diseñado para llevar a cabo cierta operación lógica específica, dependiendo de su arquitectura (Figura 21). Es papel del procesador central el controlar cómo y cuándo deben efectuarse las operaciones, y transferir los datos e instrucciones a las unidades encargadas de llevarlas a cabo.

Absorción :

Distribución : 27 / 99

A+ ( A+ B ) =A A· (A+ B ) =A

A· ( B + C ) = (A· B ) + (A· C ) A+ ( B · C ) = (A+ B ) · (A+ C )

Anulamiento :

Doble negación :

A+1=1 =A

A·0=0

Dualidad :

Asociación : (A+ B ) + C =A+ ( B +C) (A· B ) · C =A· ( B · C)

Conmutación :

Y = A + B equivale a

= =

A+0=A

A·B=B·A

A·1=A

Complementos :



Y = A · B equivale a

Identidad :

A+B=B+A

A+

Principio útil ( en realidad no se trata de una regla) :

Tautología : A· A=A

=1

A+ A= A

=0

de De Morgan : = =

· +

Figura 17. Resumen de las leyes del álgebra booleana. 28 / 99

+ ·

Figura 18. Circuitos que representan funciones lógicas, a) función AND ("Y"): a y B deben estar cerrados para que la corriente circule a través del circuito; esto es, A · B = VERDADERO únicamente si A=VERDADERO y B= VERDADERO; b) función OR ("O") : el circuito quedara cerrado a condición de que la corriente circule, ya sea por A, por B o por ambas, esto es , si A= VERDADERO o B= VERDADERO. Las tablas de verdad para estos dos circuitos se incluyen en la fig. 19.

29 / 99

Figura 19. En esta figura se muestran los símbolos convencionales y tablas de verdad para los circuitos elementales NOT, AND y OR. Las tablas de verdad de un circuito están formadas por las partes de éste ante todas las combinaciones de" FALSO "y "VERDADERO" de las funciones de entrada.

30 / 99

Figura 20. Símbolos convencionales y tablas de verdad para los circuitos compuestos NAND y NOR.

Figura 21. El primer paso para la construcción de un circuito es su diseño.

31 / 99

PRINCIPALES COMPONENTES DE UNA COMPUTADORA Desde el punto de vista operativo, una computadora electrónica digital puede ser representada esquemáticamente por tres subsistemas. Éstos son: la unidad de entrada y salida de datos, la unidad central de procesamiento y finalmente, lo que nos ocupa en este libro, la memoria. La unidad de entrada y salida de datos sirve como enlace entre la computadora y el exterior. Como su nombre lo indica, tiene dos funciones: la primera consiste en permitir la entrada de los programas, datos e instrucciones a la computadora, y la segunda es permitir la salida de la información, una vez que ésta ha sido procesada, ya sea hacia el usuario de la máquina, hacia otras computadoras, o hacia algún otro dispositivo. La unidad central de procesamiento es el cerebro de la computadora y está encargada de controlar su funcionamiento integral. Esto es, lee los programas de la memoria, transfiere información de una parte a otra de la máquina, lleva a cabo cálculos necesarios y las operaciones requeridas por el programa, y controla los dispositivos asociados con la computadora. Finalmente, las memorias son dispositivos utilizados para almacenar información en las computadoras, y se denomina memorización al proceso por medio del cual se modifica el la memoria. Esta modificación se lleva a cabo de acuerdo con un código, de manera que el nuevo estado del dispositivo representa la información que ha sido almacenada. MEMORIAS Una de las funciones más importantes de las computadoras es el almacenamiento de grandes bancos de datos. Pero las memorias no sirven únicamente para este propósito. Ellas son parte esencial de las computadoras, sin la cual no sería posible el procesamiento de la información, ya que funcionan como gavetas en las cuales se guarda, de una manera ordenada, todo el material mientras éste no es utilizado. Las memorias pueden clasificarse con base en su función o conforme a sus características De acuerdo con la primera clasificación, se dividen en memoria principal o de trabajo y memoria secundaria o auxiliar. La memoria principal almacena temporalmente los programas que se están "ejecutando" o están en proceso de hacerlo, así como los datos, antes y después de ser procesados.10 Esta memoria puede ser complementada con memoria secundaria o auxiliar, generalmente en forma de cinta o discos magnéticos, los cuales se encuentran físicamente fuera de la computadora. Este tipo de memoria puede guardar de manera semipermanente, y por un tiempo indefinido, toda la información que deseemos conservar. Por lo general se utiliza para guardar grandes cantidades de información. La cantidad de información almacenable mediante el uso de memorias auxiliares es prácticamente ilimitada, sin embargo ésta se recupera con mucha lentitud en comparación con la almacenada en la memoria principal. Por otro lado, de acuerdo con sus características, existen varios tipos de memorias, cada uno de los cuales ofrece ventajas y desventajas frente a los otros, por lo cual resultan ser más apropiados para una u otra tarea. Generalmente en estas memorias se puede leer y escribir información, aunque hay memorias en las cuales la información almacenada no puede ser alterada, esto es, únicamente puede leerse. Entre las memorias mejor

32 / 99

conocidas, se encuentran las memorias de anillos magnéticos, las memorias semiconductoras y las memorias de burbujas magnéticas. Las memorias de anillos magnéticos están formadas por un arreglo de anillos de ferrita, cada uno de los cuales es magnetizable en una de dos direcciones; de manera que puede representar un bit de información. La figura 22 muestra este tipo de memoria. Por otro lado, las memorias semiconductoras consisten en circuitería integrada a diferentes escalas. Las memorias de muy grande escala de integración son muy compactas, ya que un chip de silicón de medio centímetro de largo puede contener cientos de miles de circuitos microelectrónicos, cada uno de los cuales guarda un dígito binario. Algunas memorias semiconductoras son volátiles, esto es, en cuanto se interrumpe el suministro de energía eléctrica, se borra la información almacenada. Todas estas memorias guardan la información de una manera conceptualmente igual, aunque técnicamente la forma de construirlas sea diferente. La idea es la siguiente: las memorias están formadas por un gran número de celdas individuales de almacenamiento, cada una de las cuales es capaz de retener un número binario. Estas celdas se agrupan en localidades o palabras, constituidas por un cierto número de celdas básicas; este número varía de una máquina a otra, siendo las palabras de ocho bits (conocidas como bytes) las más comúnmente utilizadas. Por último a cada palabra se le asigna una identificación numérica, o dirección, la cual sirve para señalar la posición de la palabra dentro del dispositivo, para así tener acceso a la información en ella contenida. La capacidad o tamaño típico de las memorias de las computadoras personales de hoy en día es del orden de kilobytes, K, por ejemplo 16k, 32 k, 64 k, etcétera (1 kilobyte es aproximadamente igual a 1 000 bytes)

FIGURA 22. Memoria de anillos magnéticos. En este tipo de memoria, cada anillo es del tamaño de una cabeza de alfiler, y es

33 / 99

capaz de guardar un bit de información. Actualmente, este tipo de memorias ha sido substituido por las memorias semiconductoras. En el próximo capítulo compararemos esta forma de almacenamiento de información con la que se piensa que utilizan los seres vivos. Ambas formas de almacenamiento son esencialmente diferentes, lo cual se refleja en su eficiencia en el desempeño de diversos tipos de tareas.

34 / 99

I V . S I S T E M A D E A R C H I V O Y B Ú S Q U E D A D E I N F O R M A C I Ó N Por qué viene el recuerdo éste y no otro si nada nunca lo llama lo repite lo convoca éste y no otro éste BENEDETTI CON EL desarrollo de la sociedad aparece la necesidad de guardar cada día más cantidad de información. Así tenemos que en la actualidad una de las funciones más importantes de las computadoras es ayudar a la organización de la sociedad y al control de varios aspectos de ésta, mediante el almacenamiento y manejo de grandes bancos de datos. Hace ya algunos años, la aparición de las máquinas de oficina aceleró la rapidez del trabajo, pero trajo consigo problemas de carácter diferente: se empezó a producir un número de documentos cada vez mayor, de manera que se necesitaron más archiveros para almacenarlos. La gran cantidad de documentos hizo necesario idear un sistema de archivo adecuado al tipo de empresa u organización en cuestión. Por ejemplo, en una oficina se podría clasificar conforme a alguno de los siguientes criterios: por orden alfabético del nombre de las personas, por fechas de inicio de operaciones, por número de registro, por orden cronológico de los sucesos, por temas, etcétera, y la manera óptima de organizar la información depende de los objetivos de la o las personas interesadas en el manejo de dicha información. En un principio, esta información se guardaba "físicamente" en archiveros. Más adelante muchas empresas utilizaron, por ejemplo, el sistema de microfichas, esto es, fotografías de tamaño reducido cuyos negativos sirven como archivo permanente; de esta manera era posible almacenar un archivo de 2 600 tarjetas de 7.5 cm X 12.5 cm en un rollo de 30 m de película de 16 milímetros. Posteriormente, con la aparición de las computadoras modernas, gran parte de la información extraída de los documentos se pudo grabar en cintas o discos magnéticos de acuerdo con un código binario. En estas computadoras, la organización de la información se lleva a cabo de una manera muy similar a la requerida para archivar en gavetas. El tiempo de acceso a la información, y el espacio físico que ocupan, son en la práctica las principales diferencias entre ambos medios de almacenamiento. Es por esto que, teniendo claras estas diferencias, en ocasiones hablaremos de manera indistinta de ambas formas de almacenar. Las computadoras como nuevo medio de almacenamiento de datos, no sustituyen del todo a los sistemas de microfichas y archivos en papel. Sin embargo, han permitido un importante ahorro de espacio y una disminución considerable en el tiempo de acceso a la información, con respecto a los medios utilizados anteriormente. Pero existe un

35 / 99

problema: conforme aumenta la cantidad de información almacenada, se vuelve más difícil el acceso a ésta. La situación se agrava cuando, debido a la naturaleza de la información requerida, no existen métodos eficientes para encontrar los datos requeridos en un tiempo corto. Por ejemplo, algunas corporaciones han invertido millones de dólares en bases de datos de proporciones inmensas. Sin embargo, aunque los ejecutivos saben que esos enormes almacenes de información contienen todos los datos necesarios para tomar cierta decisión, en términos prácticos es imposible tener acceso a éstos. A continuación explicaremos a que nos referimos con esto. ALMACENAMIENTO POR CONTENIDO Y POR DIRECCIÓN Para las computadoras es sumamente fácil buscar en listas ordenadas de datos, y ésta es por tanto una tarea que llevan a cabo en fracciones de segundo. Sin embargo, hay veces que es necesario obtener información de otro tipo. Por ejemplo, supongamos que un centro hospitalario cuenta con un archivo en el cual la información se encuentra almacenada en orden alfabético del apellido de los pacientes. De esta manera, cuando un médico requiere el expediente de un paciente, éste es encontrado de inmediato con sólo proporcionar su apellido. A este tipo de almacenamiento se le denomina por dirección, ya que al conocer el apellido del paciente sabemos exactamente la localización, o dirección, del expediente con respecto a los demás. Empero, si por ejemplo, en un momento dado surgiera la necesidad de saber los datos de todas las personas que recibieron transfusiones de sangre durante la semana 23 del año, debido a una sospecha de que hubo sangre contaminada con el virus del SIDA, o si se quisiera obtener la lista de todas las personas a las cuales se les aplicó algún tratamiento o se les administró cierto medicamento, o si se quisiera localizar grupos de alto riesgo para alguna enfermedad con base en el sobrepeso, tipo de vivienda, antecedentes hereditarios, hábitos alimenticios, consumo de tabaco o alcohol, etcétera, entonces sería necesario analizar, uno a uno, todos los expedientes para poder encontrar a los grupos de personas de interés. Esto es, para localizar información con base en su contenido, la persona encargada del archivo tendría que hacer una búsqueda secuencial. Si la información estuviese almacenada en una computadora, esta búsqueda tomaría un tiempo bastante largo. Pero si estuviese en gavetas el trabajo sería prácticamente irrealizable. Al organizar un archivo o base de datos que será almacenado en una computadora, es posible dar varias vías de acceso a la información. Esto se hace definiendo ciertas palabras claves que funcionarán como etiquetas o "banderas" que indiquen el contenido del archivo, lo cual equivaldría al uso de tarjeteros para los archiveros. Estas palabras claves podrían ser sexo, ocupación, nivel socioeconómico, grupo de edad, apellido, clave del Registro Federal de Causantes, o cualquiera otra. De esta manera, la computadora formula una lista ordenada, para cada una de estas palabras claves, en la cual se incluye la dirección para tener acceso a la información requerida. Entonces, se podría pedir a la computadora, por ejemplo, que hiciese un listado con base en las palabras claves que incluyera a todas las mujeres entre los 30 y los 40 años de edad. Sin embargo, existen complicaciones, ya que, por un lado, es imposible introducir como palabras claves toda la información que pudiera llegar a ser importante o pertinente en un momento dado, y por otro, en el momento de organizar la base de datos es necesario decidir cuáles serán estas palabras claves, pues la inclusión posterior de una palabra clave implicaría la revisión, uno a uno, de todos los archivos, con el objeto de actualizar las banderas de salida de la información almacenada. 36 / 99

Este procedimiento de organización es igual al utilizado en los diccionarios enciclopédicos, ya que se ha encontrado que proporciona la forma más fácil de efectuar consultas. En estos libros, la información está ordenada alfabéticamente por temas, y se incluye un índice alfabético de las palabras claves en una sección especial. En dicho índice se incluyen los tomos y páginas donde aparece la información relacionada (esto es, su dirección). De esta manera, si quisiéramos, por ejemplo, encontrar el nombre de los satélites del planeta Júpiter, o el significado de alguna palabra, podríamos encontrarlos con suma rapidez. Sin embargo, si quisiéramos encontrar un dato como la duración más corta de un reinado, o el nombre de la persona que escribió cierta novela, entonces tendríamos que contar con otra información adicional que nos permitiera escoger ciertas palabras claves. Por ejemplo, conocer los nombres de los países en que ha habido monarquías, o para el segundo ejemplo, conocer el idioma o época en que la novela fue escrita. Las otras alternativas serían revisar, palabra por palabra, una gran parte de la enciclopedia, o mejor aún, preguntar a alguna persona que supiese de historia y de literatura. Esta última solución es la más fácil, debido a que este tipo de búsqueda de información es mucho más eficiente en la mente humana. Podríamos decir que nosotros tenemos una infinidad de palabras claves que nos permiten tener acceso a la información de muchas maneras diferentes y en un tiempo muy corto. Esto es, nosotros somos capaces de almacenar información directamente por contenido y recordamos con base en asociaciones de ideas. Muchas veces un olor, una palabra, algún sonido, etcétera, bastan para hacernos recordar algo. Somos capaces inclusive de recordar información al azar, sin que aparentemente haya habido ninguna idea o estímulo que propiciara algún recuerdo en particular. Otra característica importante de nuestra memoria es que ésta tolera errores, y que a su vez, es capaz de cometerlos. También tenemos la capacidad para establecer analogías entre cosas similares con base en diferentes criterios. Podemos reconstruir imágenes, o situaciones con base en información incompleta. Podemos leer "entre líneas", esto es, al leer un texto podemos intuir su significado real (cuando éste es diferente al consignado), si es que tenemos información adicional relativa a los factores que intervienen en la situación. También podemos captar un "doble sentido" en las expresiones que escuchamos; podemos "intuir" el estado de ánimo de una persona con tan solo observar sus actitudes, etcétera. En el proceso de reconocimiento de imágenes, si únicamente fuésemos capaces de reconocer imágenes "idénticas" a las que tenemos memorizadas, seríamos muy poco eficientes, siendo que, por ejemplo, nunca percibiremos a una persona de la misma manera que en otro momento anterior: variará el peinado, la expresión, habrá cambios causados por el tiempo, inclusive la cantidad y color de la luz variarán de un momento a otro produciendo un efecto diferente en la apariencia del sujeto, etc. Sin embargo, si la imagen que se nos presenta es lo suficientemente "cercana" a la información que tenemos almacenada, esto es, al recuerdo que tenemos de dicha persona, no tendremos dificultad alguna en reconocerla. Esta característica se extiende a otros tipos de identificación: si dentro de un texto nos encontramos con una palabra escrita con un error ortográfico, somos capaces de saber el significado correcto de esta palabra únicamente por el contexto. De igual modo, podemos reconocer de manera auditiva una misma palabra pronunciada con diferentes acentos y timbres de voz, o incluso en diferentes idiomas (suponiendo que los conozcamos). Todas las características anteriores son características naturales de la mente humana y no tienen paralelo en las computadoras convencionales.

37 / 99

Se han creado programas para estas computadoras cuyo objetivo es llevar a cabo tareas específicas de reconocimiento de algún tipo. Sin embargo, estos programas son de poca eficiencia y versatilidad comparados con el desempeño humano. Por ejemplo, las ambigüedades inherentes a cualquier lenguaje han hecho difícil el desarrollo de "programas" destinados a la lectura de textos "en voz alta", ya que este trabajo implica una cierta comprensión de las frases con el objeto de darles el énfasis correspondiente. Una computadora, en caso de encontrarse con una palabra escrita con un error ortográfico, le atribuiría a esta palabra el significado consignado en su diccionario (en caso de que existiese tal palabra), aunque la frase resultante careciese de significado.11 Regresemos, al ejemplo utilizado en el capítulo I para definir los problemas complejos. Dicho ejemplo corresponde a una tarea muy sencilla desde nuestro punto de vista. Si le presentamos a un niño de tres años una serie de fotografías de personas, escogidas al azar entre la población, y le pedimos que identifique si se trata de hombres o mujeres, nos encontraremos con que no tendrá ningún problema de reconocer a la mayoría de ellas. Si repetimos la prueba de un niño un poco mayor veremos que el porcentaje de error se reducirá, aunque la posibilidad de error siempre existirá (por pequeña que sea). Esto es debido a que, según el criterio del niño, algunos individuos no tendrán exclusivamente características típicas de uno u otro sexo (con características típicas nos referimos a rasgos ya sea de carácter biológico o social). Por otro lado, la probabilidad de error dependerá de la experiencia previa del niño, esto es, del medio en que se desenvuelve, de su nivel socioeconómico y del tipo de información que recibe: televisión, revistas, escuela, amistades de los padres, etcétera. Esto se debe a que los humanos aprendemos a través de la experiencia. Es de esperarse que si al niño se le presentaran imágenes de personas vestidas a la usanza del siglo XVII (¡o XVIII!), el porcentaje de aciertos no sería el mismo que el obtenido con imágenes de personas propias de su tiempo y de su medio. Ya que debemos recordar que en el hombre el desempeño de diferentes habilidades es producto, primordialmente, del entrenamiento obtenido. Si ahora quisiéramos programar una computadora convencional para que llevara a cabo este mismo trabajo, indispensable darle instrucciones precisas para que efectuara dicha identificación. Por ejemplo, podríamos decirle que el pelo largo se da preferentemente en mujeres (lo cual es más cierto ahora que en los años setenta y completamente falso en otras épocas o culturas), o que la gran mayoría de las personas que usan aretes son mujeres, o que las mujeres tienen en general rasgos más suaves que los hombres. Como puede apreciarse, definir estos criterios no es tarea fácil, ya que no siempre es verdad que el hombre sea feo, fuerte y formal, y un gran número de personas no corresponde a los estereotipos. Además sería necesario determinar qué tan importante son unos criterios con respecto a otros. Por otro lado, habría que dar a la computadora las definiciones de las definiciones: ¿qué es el pelo?, ¿cómo distinguirlo de sombras?, ¿qué son las orejas, los aretes, la nariz, la manzana de Adán?, ¿qué significa tener rasgos finos, boca grande, pestañas largas, mirada dulce?, ¿con respecto a qué? Por otro lado, para complicar más la situación, todas estas definiciones no podrían darse en palabras, ya que éstas no tienen ningún significado para la computadora, sino que habrían de darse en un lenguaje apropiado para la máquina.12 Dados los mecanismos de funcionamiento de las computadoras actuales, es fácil darse cuenta de por qué un niño pequeño será capaz de llevar a cabo este trabajo con mucho más éxito que una gran computadora que trabaja con programas muy elaborados.

38 / 99

Es común escuchar que las computadoras tienen una capacidad para almacenar y procesar información muy superior a la del hombre. Nosotros creemos que esta información carece de sentido, ya que no es correcto comparar habilidades diferentes. Por un lado, la capacidad de almacenamiento de las computadoras es prácticamente ilimitada, ya que siempre es posible aumentarla mediante el uso de discos o cintas magnéticas; aunque la rapidez para localizar esta información se ve seriamente mermada cuando se trata de obtener información por contenido. Por otro lado, la cantidad de información que puede almacenar un hombre en su memoria es inmensa, e imposible de cuantificar, aunque éste no siempre sea capaz de recordarla. Algunas personas podrían calificar la mayor parte de la información que almacenamos como inútil en términos prácticos; sin embargo ésta constituye gran parte de lo que son nuestro carácter, personalidad, sentido común, tacto, intuición, capacidad para manejar situaciones, percepción de signos de peligro y de situaciones anormales, etcétera. Esto dejando de lado todo el conocimiento necesario para efectuar con destreza el movimiento de las diversas partes de nuestro cuerpo, indispensable para conservar el equilibrio, caminar, comer, escribir, correr, rascarnos, sentarnos, etcétera. Tareas todas que debemos aprender a efectuar. Casi todos hemos visto en el cine una u otra historia basada en la famosa novela acerca de Frankestein escrita por Mary W. Shelley. Dicha novela trata de la historia del doctor Frankestein, quien construye un ser a partir de restos de cadáveres humanos y es capaz de darle vida. Más adelante, esta criatura empieza a aprender los conocimientos necesarios para desempeñarse como un ser humano. Si nos ponemos a pensar tan solo un momento en la cantidad de información que necesitaría aprender para logran este objetivo, podremos darnos cuenta de lo ambicioso de este proyecto, pues sería necesaria toda una vida para lograrlo. No es casual que los niños sean ingenuos, poco maliciosos, espontáneos y que manifiesten sus estados de ánimo en forma más directa, esto es, que carezcan de cierta "sofisticación" presente en los adultos, además de poseer menos datos, o información cuantificable en su memoria (como lo que comúnmente se denomina "cultura general"). Para finalizar, quisiéramos mencionar otra característica que diferencia a las memorias de las computadoras de las de los seres humanos. A una computadora se le puede programar para que haga una lista en la que incluya "toda" la información que tiene almacenada. Esta tarea es realizable, en principio, independientemente de la cantidad de información almacenada. Por el contrario, los seres humanos somos incapaces de hacer una relación de "todos" nuestros conocimientos; 13 y esta limitación no es sólo de carácter práctico, sino de índole fundamental. Esto se debe a que el procedimiento mediante el cual almacenamos y recordamos la información no es compatible con esta tarea. Esperamos que esto sea claro para el lector al finalizar la lectura de este libro. Esperamos también que a estas alturas se haya logrado despertar en el lector un interés por encontrar la respuesta a preguntas como: ¿de qué manera consigue la mente humana recordar información en el momento en que la necesita?, ¿cuáles son los mecanismos de almacenamiento y remembranza?, ¿en dónde es que se almacena dicha información?, ¿cómo se procesa ésta? Aunque aún no podemos dar una respuesta a la mayoría de estas preguntas, creemos tener una idea clara acerca de cuáles son los principios fundamentales que intervienen en el proceso de almacenamiento de información. Los avances en este terreno, además de ser de un gran interés desde el punto de vista de nuestra necesidad de conocernos a nosotros mismos, tienen un gran potencial tecnológico, pues de conocerse las respuestas a estas preguntas, salvo 39 / 99

limitaciones de carácter tecnológico, podrían utilizarse estos mismos mecanismos en la construcción de computadoras.

40 / 99

V . E L H O M B R E Y L A S M Á Q U I N A S P E N S A N T E S Me parece que los ingredientes de la mayoría de las teorías de inteligencia artificial y de psicología, han sido en general demasiado minuciosos, locales e inestructurados como para dar cuenta, práctica y fenomenológicamente, de la efectividad del sentido común. Los "pedazos" de razonamiento, lenguaje, memoria y "percepción" deben ser más grandes y mejor estructurados, y su contenido de hechos y procedimientos debe estar conectado más íntimamente para poder explicar la rapidez y el poder de las actividades mentales. MINSKY, 1975 anteriores hablamos acerca de las computadoras actuales; esto es del papel que desempeñan en la sociedad, de su historia y evolución, de su arquitectura, de las bases de su funcionamiento y los métodos de archivo de la información. En este capítulo quisiéramos comentar un poco acerca del camino que debemos recorrer para lograr la construcción de máquinas con ciertas capacidades propias del hombre; es decir, con habilidad para la solución de problemas complejos como la toma de decisiones para la planeación de empresas, la evaluación de riesgos para las compañías de seguros, pruebas de eficiencia de motores, detección de arritmias cardiacas, análisis y evaluación de encefalogramas, sismogramas, espectros de luz emitida o absorbida por estrellas o por materiales, etcétera. Todos estos problemas consisten en optimización o EN CAPÍTULOS

toma de decisiones no basada en reglas concretas.14 Entre el tipo de trabajos que estas máquinas podrían realizar, el de aplicación más directa es el reconocimiento y procesamiento de imágenes. Esto engloba desde tareas relativamente simples y específicas, como la identificación de firmas, voces, huellas dactilares, reconstrucción de imágenes con mucho ruido, etc., hasta tareas de gran complejidad como la identificación y clasificación de personas y objetos. Este último tipo de tareas representa una mayor dificultad debido a que se debe lograr invariancia de la detección con respecto a rotación, cambios de escala, perspectiva, oclusión parcial, cambio en las condiciones de iluminación, etcétera. Una computadora con las habilidades que acabamos de describir podría utilizarse de una manera limitada únicamente por la imaginación. Por ejemplo, podrían construirse dispositivos provistos de visión artificial cuyo objetivo fuese la identificación de huellas digitales, firmas o voces. Estos dispositivos podrían utilizarse en cajas automáticas de banco, donde la única identificación necesaria para tener acceso a una cuenta sería la firma del usuario, o el sonido de su voz. Este mismo método también podría utilizarse en lugar de un número de combinación para las cajas de seguridad, a fin de tener acceso a claves de usuario de computadoras, como substituto de llaves para 41 / 99

la casa, oficina, automóvil, para ayudar a la identificación de personas buscadas por la policía. También, el procesamiento de imágenes sería de utilidad para el análisis de imágenes médicas, de señales obtenidas a través de percepción remota, para el procesamiento de datos experimentales, y por último, para la construcción de robots "inteligentes". ROBÓTICA Conceptualmente, existen dos tipos diferentes de robots: los robots con trayectorias programadas, y los robots "inteligentes". Los primeros son programados para llevar a cabo una y otra vez la misma función; los segundos, en cambio, serían robots capaces de aprender con base en la experiencia y de tomar decisiones basadas en la información con que contasen. En la actualidad un gran número de robots de trayectoria programada se ha incorporado a la planta productiva en los países desarrollados. Estos robots ofrecen grandes ventajas a los patrones (si bien no a los trabajadores desplazados por ellos), ya que efectúan su trabajo con gran precisión y rapidez. Por otro lado, no causan problemas laborales, no requieren de seguro social, no padecen enfermedades industriales, no faltan a su trabajo y no pierden el tiempo platicando. El segundo grupo de robots estaría formado por aquéllos dotados de inteligencia. Estos robots aún no existen como tales, pero se encuentran en sus primeras etapas de desarrollo y las perspectivas para la construcción de robots inteligentes destinados a tareas específicas son buenas. Sin embargo, ignoramos hasta dónde podrá llegar el hombre en la construcción de este tipo de máquinas. De esto hablaremos más adelante. Dentro de los robots "no inteligentes" existe un subgrupo constituido por robots que aunque "aparentan" ser inteligentes, en realidad no lo son (Figura 23). Estos robots están dotados de ciertas capacidades de procesamiento de imágenes y ajuste a las condiciones externas, tienen arquitecturas convencionales y basan su funcionamiento en el uso de algoritmos o en el seguimiento de reglas concretas. Por ejemplo, tenemos robots provistos de un sistema de navegación que les permite evadir obstáculos. La construcción de un robot con estas características no es un trabajo fácil, ya que la imagen "visual" recibida es una imagen bidimensional, por lo cual se necesita idear una estrategia que les permita diferenciar entre los objetos y el fondo, y que los dote de la capacidad de evaluar profundidades y distancias (véase la figura 24). La disciplina que estudia el desarrollo de este tipo de robots, y de dispositivos con algunas de estas capacidades, se denomina inteligencia artificial.

42 / 99

Figura 23. Existen robots que "aparentan" ser inteligentes, aunque en realidad no lo son. En los últimos años, el desarrollo de esta rama de la computación ha cobrado una particular importancia, y se han logrado grandes avances dentro de este terreno. Por ejemplo, se han creado programas capaces de hacer jugar ajedrez a las computadoras. A simple vista, estas máquinas podrían ser confundidas con máquinas inteligentes, ya que un hombre, para poder jugar, necesita manejar conceptos abstractos. Sin embargo, estos programas se basan, por lo general, en el empleo de la llamada "fuerza bruta", esto es, en la evaluación exhaustiva de todas y cada una de las posibles secuencias de n jugadas, junto con las posibles respuestas de su rival. Otros algoritmos, más eficientes, desechan algunas de las posibilidades antes de evaluar la secuencia completa, por considerarlas malas jugadas. En cualquier caso, el cálculo está lejos de poder ser calificado como "inteligente",15 ya que la computadora suple las capacidades humanas de análisis y planeación con su gran rapidez para evaluar todas las posibilidades. Hace algún tiempo se pensó que se podrían hacer programas de computadora con los cuales sería fácil ganarle a los mejores jugadores de ajedrez. Sin embargo, después de 30 años de trabajo intenso de muchas personas, aún no se ha podido diseñar un programa capaz de vencer, sistemáticamente, a los mejores jugadores. Esto se debe a que para jugar ajedrez se requiere de algo más que saber la posición de las piezas y las reglas del juego: la habilidad humana para este juego requiere de "intuición educada", esto es, de la percepción conjunta de un grupo de piezas interrelacionadas, de la existencia de un plan o estrategia a seguir, de la ejecución de jugadas tendientes a llevarlo a cabo, de la anticipación de los movimientos del adversario, etcétera. Una estrategia típica, comúnmente utilizada en el desarrollo de inteligencia artificial en computadoras convencionales, es la siguiente: dado un problema concreto, se proporciona un árbol de decisiones en el cual se jerarquizan los diferentes criterios a considerar y quedan definidos explícitamente cuáles criterios de evaluación son más importantes que otros. Para esto, a cada criterio se le asigna un peso que intenta reflejar su importancia relativa. Después se resuelve el problema considerando distintas alternativas y evaluándolas cuantitativamente de acuerdo con este árbol. Este procedimiento proporciona resultados razonablemente buenos, pero pobres con respecto al desempeño de un hombre entrenado en este tipo de tareas, pues la rapidez y eficacia de su funcionamiento están limitadas por el tipo de mecanismo que las

43 / 99

computadoras convencionales utilizan para evaluar situaciones y para recuperar información.16

Figura 24. Un robot con capacidad autónoma de navegación, necesita contar con una estrategia que le permita diferenciar entre los objetos y el fondo, y evaluar profundidades y distancias, para poder así evadir obstáculos. En suma, para evaluar situaciones en las cuales intervienen muchos factores tenemos que: i) un hombre capaz y "entrenado" en una cierta tarea es mucho más eficiente que las computadoras y ii) para efectuar estas tareas el hombre no utiliza los mismos procedimientos que las computadoras. Creemos que para lograr construir máquinas cuya eficiencia en estas labores sea comparable con la del hombre, no basta con hacer computadoras más grandes, más veloces, o más económicas. Es necesario cambiar el procedimiento utilizado por éstas, y este cambio de procedimiento debe verse reflejado en su arquitectura. Dado que el hombre es mucho más eficiente que las computadoras en la solución de problemas complejos, ofrece un modelo inmejorable a imitar, de ahí que sea importante encontrar las estrategias por él utilizadas y tratar de imitarlas. Es razonable suponer que si fuésemos capaces de diseñar una máquina con arquitectura similar a la del cerebro humano (o de alguna subparte de éste), ésta sería más eficiente que las actuales para resolver este tipo de problemas. SISTEMAS SENSORIALES. LA PERCEPCIÓN En los seres vivos, toda la información que recibe el sistema nervioso proveniente del exterior es adquirida a través de los órganos sensoriales. En el ser humano la percepción sensorial está siempre asociada a un proceso cognoscitivo, lo cual significa que no basta con "ver" o escuchar algo, sino que también hace falta un cierto procesamiento previo de la información antes de que ésta sea guardada e interpretada. Existe una diferencia sutil, y muy importante, entre las funciones de "sentir" y "percibir". Nuestros órganos sensoriales captan las señales provenientes del exterior, y las someten a un cierto procesamiento que las convierte en percepciones; es hasta entonces que nosotros nos percatamos de la existencia de esa información. Dicho en 44 / 99

otras palabras, "sentir" es una operación simple a nivel de los sentidos, "percibir" es una función compleja a nivel cerebral. Las figuras 25, 26 y 27 nos muestran tres casos en los cuales una misma señal de entrada nos puede producir dos percepciones diferentes. Por todo lo que acabamos de mencionar, creemos que si hemos de crear máquinas inteligentes, es necesario dotarlas de un sistema cognoscitivo, para lo cual es necesario comprender mejor cuáles son los procesos cognoscitivos del hombre, o diseñar otros procesos artificiales que cumplan este mismo propósito, pues en principio podrían existir problemas para los cuales alguna solución artificial pudiese ser más eficiente que las soluciones biológicas, o al menos factible de construir desde el punto de vista tecnológico. El tipo de procesamiento que realiza el cerebro humano para transformar las sensaciones en percepciones está ilustrado por los ejemplos siguientes.

Figura 25. Cuando una imagen observada es ambigua, la imagen que se hace consiente, llamada Gestalt, será una de las alternativas disponibles. Aunque se puede cambiar de Gestalt, únicamente una de las alternativas puede ser observada a un mismo tiempo.

Figura 26. Esta figura nos puede mostrar ya sea a una bella joven o a una vieja desdentada.

45 / 99

Figura 27. Ilustraciones de Gestalt. Pato/ conejo de Jastrow y cubos de Necker. Las imágenes mentales que almacenamos son copias directas de experiencias reales, las cuales han sido simplificadas y promediadas. Estas imágenes corresponden a estereotipos que han sido el resultado de desechar los detalles no esenciales y promediar con base en las características principales (Figura 28). Por ejemplo, nosotros somos capaces de recordar un gran numero de imágenes: sin embargo, éstas no contienen toda la información original, sino únicamente la información relevante. Así resulta que podemos recordar "perfectamente" bien a una persona y no tener problema alguno para identificarla. Sin embargo, si necesitáramos hacer una descripción detallada, o un dibujo de ésta, con base en la imagen memorizada, muy probablemente seríamos incapaces de hacerlo, aunque tuviésemos la habilidad verbal o manual necesarias para hacerlo (Figura 29). Otro ejemplo interesante es el siguiente: en el centro de nuestro campo visual tenemos una pequeña región "ciega", la cual no puede percibir luz. Sin embargo nosotros subsanamos este problema utilizando la información proveniente de las zonas vecinas del punto ciego y completando la imagen, de manera que no somos capaces de darnos cuenta de que esta zona existe. La percepción es un trabajo de sintetización y procesamiento de información que implica una combinación de elementos simples en un "todo". Las personas perciben casas, árboles, perros, etc., en vez de percibir puntos, líneas, colores, texturas, etc., por separado (Figura 30). También es necesario establecer una relación entre las imágenes observadas y varios contextos, en diferentes grados de abstracción, para hacer una apreciación selectiva.

46 / 99

Figura 28. Esta figura muestra la forma en que nuestra concepción de las cosas altera la forma en que las recordamos. A dos sujetos se les mostró, durante un tiempo breve, el dibujo que se encuentra en la parte superior. Al primero, se le dijo que se trataba de unas gafas, y al segundo, que se trataba de una pesa para hacer ejercicios. Después se les pidió que repitiesen el dibujo observado. Los resultados se muestran en la parte inferior de la figura.

Figura 29. La figura izquierda nos muestra un reloj, tal como era recordado por un sujeto; mientras que la figura a la derecha muestra una mejor reproducción del reloj en la realidad. Las omisiones y distorsiones en la imagen recordada nos muestran que, al mirar el reloj, lo que miramos es la hora ; esto es, únicamente tomamos la información que necesitamos. Otra facultad del hombre es su capacidad para "poner atención" a cierta parte de la información que se recibe y desechar el resto de ésta. Sin embargo, aun cuando el sujeto esté concentrado en una parte de la información, tiene la sensación permanente de que el resto del mundo se halla presente en todo momento, aunque no esté dentro de su campo visual. Continuamente recibimos información a través de nuestros cinco sentidos, y sin embargo sólo estamos conscientes de una pequeña parte de ésta, esto es, tenemos un mecanismo de filtrado que solamente permite el paso de cierta información relacionada con cambios abruptos del medio externo: por ejemplo un ruido súbito o un cambio de temperatura. En general, nosotros podemos desactivar a voluntad ese mecanismo de filtrado y poner atención a ciertos olores, sabores, imágenes, temperatura, presión, etcétera. En términos físicos, podemos decir que las funciones automáticas, a las cuales no les prestamos ninguna atención, son funciones que se llevan a cabo en la médula espinal. En el momento en que cobramos conciencia de una sensación es porque hemos hecho partícipe de ésta a nuestro cerebro.

47 / 99

Figura 30. ¿ Qué tipo de estrategia utilizamos para reconocer en estas líneas a una bailarina? EL "SENTIDO COMUN" Otra importante diferencia entre los hombres y las computadoras es el llamado "sentido común". El hombre, en su vida diaria, se enfrenta continuamente a la necesidad de tomar un sinnúmero de decisiones con base en una gran cantidad de información y opciones alternativas. La mayoría de estas decisiones son tomadas sin siquiera concederles unos segundos de atención, esto es, de manera automática. Por ejemplo, cuando manejamos un automóvil, no pensamos continuamente en todas las operaciones que estamos efectuando; esto es, el uso que hacemos del embrague, o de los cambios de velocidades, o el uso de las luces direccionales y el control del volante. Todas éstas son funciones que efectuamos de manera automática. Existen momentos en los cuales es necesario tomar decisiones más importantes o difíciles, para lo cual es preciso elegir, en el nivel consciente, entre varias alternativas y razonar explícitamente la conveniencia de una sobre otra. La mayor parte de las elecciones que el hombre enfrenta a lo largo de su vida las resuelve con base en su sentido común, el cual está formado por un número inmenso de experiencias acumuladas durante su vida. El sentido común es de naturaleza cualitativa, en el sentido de que raramente involucra relaciones numéricas entre conceptos; en cambio, ofrece perspectivas múltiples de un problema, a veces de manera simultánea. Alguien ha dicho que "el menos común de los sentidos es el sentido común", refiriéndose al hecho de que las decisiones personales no siempre son adecuadas según los criterios de otras personas, o de acuerdo con las consecuencias directas de llevarlas a cabo. Estas son otras características importantes del hombre: su manera de razonar es individual y siempre existe la posibilidad de que cometa errores de juicio. Sin embargo, aunque a veces nuestro sentido común nos lleva por caminos equivocados, constituye una herramienta fundamental para nuestra supervivencia. Para poder construir computadoras que emulen ciertas capacidades mentales del hombre como el sentido común, es de importancia primordial entender de qué manera se logra la organización de la información en el cerebro humano, y conocer la forma en que se lleva a cabo el razonamiento. En el capítulo anterior analizamos de manera comparativa la forma en que se desempeñan las computadoras y los humanos, en cuanto se refiere al acceso a la

48 / 99

información que tienen almacenada. De esta manera, pudimos observar que este proceso tiene características muy diferentes en ambos. Esto nos hace suponer que los mecanismos encargados del almacenamiento de la información, en computadoras y seres vivos, son por fuerza de carácter fundamentalmente distinto. Más adelante veremos que la posibilidad de error es una consecuencia natural de la estructura del cerebro, esto es, es inherente al hombre. NUEVAS DIRECCIONES Hasta el momento, una de las diferencias básicas que existen entre computadoras y seres humanos tiene que ver con la utilidad práctica del material memorizado. Esta diferencia consiste en que mientras una computadora almacena información que únicamente puede ser llamada de manera explícita por un programa, el ser humano "aprende". En el hombre, la adquisición de nueva información modifica su comportamiento (o su forma de pensar), en la medida que le aporta nuevos criterios para la toma de decisiones, tanto a nivel consciente como inconsciente. El hombre debe su gran capacidad de adaptación, también llamada plasticidad, a su habilidad para aprender. Anteriormente mencionamos que para poder construir máquinas que tengan ciertas características de inteligencia es necesario el diseño de arquitecturas radical y conceptualmente diferentes. Ésta es la filosofía presupuesta en el estudio de las llamadas redes neuronales (artificiales). Estas redes constituyen un concepto totalmente nuevo y diferente de la computación, el cual se basa en un modelo simplificado de la manera en que las neuronas se organizan en redes dentro del cerebro. Más adelante explicaremos en qué consisten estos modelos. Las "redes neuronales" (artificiales) se encuentran en sus primeras fases de desarrollo, sin embargo, se ha encontrado que tienen capacidades autónomas de aprendizaje, y que la información que almacenan es recuperable con base en su contenido. También se ha observado que estos sistemas pueden "recordar" a partir de información incompleta o con mucho ruido. Todas éstas son características análogas a las de la mente humana. Recientemente ha habido un gran auge de la investigación en redes neuronales y neurocomputadoras, y como consecuencia se han logrado grandes avances de carácter fundamental. Estos avances comienzan a verse reflejados en el plano tecnológico, ya que se empiezan a desarrollar computadoras que funcionan con base en estos principios. En estos momentos ya existen en el mercado algunos programas que operan en computadoras convencionales y que funcionan "imitando" estas nuevas arquitecturas. Estos programas son ejemplos modestos de lo que tendremos en los años por venir. Todo parece indicar que el estudio de este tipo de modelos contribuirá al desarrollo de los llamados "robots inteligentes". Idealmente, la característica principal de estos nuevos robots inteligentes sería su alto grado de adaptación, esto es, exhibirían un comportamiento que se ajustaría a las condiciones externas de una manera apropiada. Para ello sería necesario dotarlos de funciones sensoriales artificiales, y de un sistema para procesar la información recibida a través de los "sentidos". Después de procesada, la información sería almacenada, y de manera paralela esta información recién aprendida modificaría las respuestas del robot al medio. Esto es, se pretende lograr construir máquinas en las cuales los circuitos mismos aprendan a partir de la

49 / 99

experiencia, y que se autoorganicen. Por el momento, sin embargo, esto es aún ciencia ficción. Pero de eso hablaremos más adelante.

50 / 99

V I .

E L

C E R E B R O M E N T E

Y

L A

La mente es la más fina y pura de todas las cosas. ANAXÁGORAS, aprox. 500 a.C. Los propósitos principales de todo sistema nervioso son el control centralizado de las funciones biológicas y el control de la interacción del organismo, como un todo, con el ambiente. En el primer grupo de funciones tenemos la regulación de procesos como el metabolismo, la respiración, el sistema cardiovascular, las funciones de emergencia, etcétera, los cuales se llevan a cabo mediante mecanismos fisiológicos innatos. Por otro lado, la interacción del organismo con el medio incluye tareas muy diversas que van desde acciones elementales instintivas, hasta acciones muy complejas como el comportamiento social en los seres más desarrollados.

Figura 31. Esta figura muestra el tamaño relativo de los cerebros de algunos vertebrados, y su aumento en complejidad. En organismos inferiores el sistema nervioso es muy rudimentario; por ejemplo, en los invertebrados el centro de aprendizaje (equivalente al cerebro) está formado tan solo por ganglios constituidos por agrupaciones de cuerpos celulares. Conforme avanzamos en la escala evolutiva nos encontramos con sistemas nerviosos más desarrollados, hasta llegar a los vertebrados, quienes poseen un órgano central llamado cerebro, el cual se encarga de controlar las funciones más complejas. En los mamíferos, y de manera muy particular en e hombre, el comportamiento social y las capacidades de aprendizaje tienen un grado de desarrollo muy grande (Figura 31). De acuerdo con su estructura podríamos dividir al sistema nervioso en dos partes llamadas sistema nervioso central (SNC) y sistema nervioso periférico (SNP). El SNP se encarga de transmitir hacia el centro la información proveniente del interior y del exterior del organismo, y en sentido contrario. Por su parte, el SNC lleva a cabo el procesamiento de la información y emite señales como respuesta. El SNC está integrado por la médula espinal contenida en la columna vertebral, el tallo cerebral y el cerebro. El cerebro es el órgano maestro del sistema nervioso, y es allí donde se llevan a cabo las funciones más complejas. 51 / 99

El estudio del cerebro humano se ha llevado a cabo desde diferentes puntos de vista, en diversas disciplinas, y a diferentes niveles. Estos estudios podrían dividirse, a grosso modo en dos ramas principales que incluyen, respectivamente, los aspectos físicos y los llamados aspectos mentales del cerebro. Por otro lado, todos los conocimientos que tenemos acerca del cerebro se encuentran enmarcados por el conjunto de concepciones filosóficas que la sociedad tiene del hombre y de su relación con el resto del Universo. Entre los aspectos físicos del cerebro tenemos todos aquellos relacionados con un punto de vista biológico, los cuales pueden reducirse a términos físicos y químicos. Por ejemplo, los puntos de vista anatómico, fisiológico, bioquímico, biofísico, embriológico, etcétera. Estas disciplinas describen al cerebro, ya sea desde su punto de vista morfológico, o con base en su funcionamiento desde el punto de vista de la operación de sus componentes a partir de primeros principios (leyes fundamentales de la naturaleza). Por otro lado, tenemos que los aspectos mentales del cerebro son examinados por otras disciplinas como la psicología y la psiquiatría. La psicología estudia el comportamiento del hombre (y otros animales) y la manera de percibir, pensar, razonar, etcétera. Algunas corrientes de esta disciplina estudian el cerebro como si fuese una "caja negra", esto es, estudian su funcionamiento con base en el análisis de la conducta de los individuos. La psiquiatría estudia los fenómenos psíquicos o de la mente y las desviaciones conductuales de individuos con respecto al comportamiento del individuo promedio, etcétera. Por otro lado, la filosofía desempeña un papel muy importante, ya que examina críticamente las bases de las creencias fundamentales y analiza los conceptos básicos empleados en la expresión de tales creencias. A continuación trataremos de dar una descripción acerca de los diversos puntos de vista presentes en el estudio del cerebro. Esta división es un tanto superficial y arbitrana, por lo cual el lector podrá apreciar que los puntos de vista a que hacemos mención poseen puntos en común y de contacto. EL PUNTO DE VISTA FILOSÓFICO El hombre, desde que adquirió la capacidad de razonar, ha tenido la inquietud de conocerse y ubicarse en el Universo, y se ha hecho preguntas acerca de su origen, naturaleza y fin. Esto le ha permitido formarse conceptos de sí mismo y del mundo que lo rodea, conceptos que a su vez han determinado su actitud frente a la vida. Podríamos decir que desde el punto de vista filosófico, el interés en conocer la mente es muy antiguo, y que la primera herramienta utilizada para inferir las características de su funcionamiento fue la introspección. El interés filosófico en la percepción tiene su origen en las preguntas sobre la validez del conocimiento humano. Algunas personas incluso han dudado de la existencia del mundo físico con independencia de la experiencia humana. Ellos se han preguntado: aun en caso de existir el mundo físico, ¿cómo podemos saber qué propiedades tiene y qué tan verdaderas o precisas son?, ¿cómo desligar su existencia objetiva de la percepción que tenemos de él? La actitud filosófica de una sociedad ante un problema es de gran importancia, ya que las ideas imperantes en un momento dado determinan las bases que sirven de marco a todo conocimiento y estudio, y proporcionan una referencia para la interpretación de los resultados observados. Por ejemplo, al proponer la teoría de la evolución de las especies

52 / 99

por medio de la selección natural, Charles Darwin tuvo que romper con la idea generalizada de que Dios creó al hombre a su imagen y semejanza, durante el sexto día de la creación. Para esto, primero necesitó tener la libertad de criterio necesaria para poder analizar, sin prejuicios, las evidencias colectadas en su viaje a las Islas Galápagos, y así poder interpretarlas de manera objetiva. En segundo lugar, tuvo que convencer al mundo de que su hipótesis era correcta. ¿Cómo convencer al mundo de que el hombre, "creado a imagen y semejanza de Dios, y centro de la creación", tiene ancestros comunes con otros seres inferiores como son los monos, reptiles, etc.?, ¿cómo hacerlo aceptar que nos hemos diferenciado del resto de los seres vivos, únicamente a través de un proceso evolutivo? Las revoluciones importantes en el pensamiento han tenido como característica común haber ofrecido una explicación racional a ciertos aspectos de la naturaleza considerados en épocas anteriores como sobrenaturales, o inexplicables en términos racionales. De esta manera, para que estas revoluciones se puedan dar, han debido venir acompañadas de una ruptura epistemológica, esto es, de una ruptura con las ideas establecidas. Como otros ejemplos de esta ruptura con las ideas imperantes tenemos que Copérnico señaló que la Tierra no es el centro del Universo, que Einstein introdujo nuevas nociones del tiempo, del espacio, de la materia y la energía (Figura 32), y a Watson y Crick, quienes demostraron que la herencia biológica puede ser entendida en términos de procesos físicos y químicos. Creemos que ahora estamos cerca de explicar los mecanismos de la memoria y el aprendizaje, y que éstos van a cambiar nuestra concepción del mundo, y de nosotros mismos, de una manera importante. Asimismo creemos que estos conocimientos tendrán una repercusión importante en la tecnología de nuestra época.

Figura 32. " La mayoría de nosotros preferimos ver hacia fuera, en lugar de hacia adentro de nosotros mismos; ya que en el segundo caso no vemos sino un hoyo negro, lo cual significa: nada" (Einstein, 1933). Dibujo de la autora. Como consecuencia de la gran correlación entre la postura filosófica y las teorías científicas de una época, tenemos que diferentes corrientes filosóficas se encuentran representadas por sus corrientes científicas correspondientes. Por consiguiente, quisiéramos hablar un poco acerca de la posición de algunas de las corrientes presentes en la filosofía occidental, frente a las facultades mentales del hombre. Como facultades mentales entenderemos capacidades como la posesión de intenciones, sensaciones, imágenes, sueños, emociones, memorias, creencias, expectativas, deseos, pensamientos, 53 / 99

imaginaciones, etcétera. Facultades que parecen no estar localizadas en ningún lugar específico del cerebro. Tradicionalmente, cuando hablamos del cerebro, hacemos una separación tajante entre las cuestiones físicas y mentales, ya que a menudo las consideramos cosas diferentes. Esta tendencia, muy arraigada en la filosofía occidental, tiene sus orígenes en tiempos muy antiguos. Platón, por ejemplo, creía que la mente (psyque) era un ente inmaterial, encargado del cuerpo y de la dirección de sus movimientos. Por otro lado, desde entonces se sabe que la memoria humana opera utilizando principios asociativos. Estos principios han sido resumidos en leyes de contigüidad, que relacionan en tiempo y lugar unos objetos con otros, y leyes de refuerzo e interferencia, que nos indican que la presencia de estímulos positivos refuerza las conductas y la de estímulos negativos produce su extinción u olvido. De hecho, algunas de estas ideas son expuestas por Aristóteles, de manera cualitativa, en sus tratados acerca de la memoria y la remembranza. Posteriormente, en el siglo XVII, nos encontramos con el dualismo, el cual es fuertemente influenciado por el platonismo. Esta teoría, encabezada por el filósofo y naturalista francés René Descartes, propone que mente y materia son dos tipos diferentes de substancia, de naturaleza opuesta, capaces de existir de manera independiente. Sin embargo les concede cierta capacidad de interacción. Entre las corrientes actuales se encuentra la reduccionista, la cual supone que las percepciones corresponden a ciertos estados neurofisiológicos, por lo cual, al reproducirse un cierto estado neurofisiológico, se evoca la percepción correspondiente. De manera que sentir dolor es para el cerebro estar en un estado neurofisiológico determinado. Esta corriente es llamada en ocasiones teoría del paralelismo psicofísico de Spinoza o William James. Las imágenes ópticas virtuales se explican por el mismo principio: para crear una ilusión es suficiente reconstruir los planos de onda ópticos, los cuales son réplicas aproximadas de las imágenes originales. EL PUNTO DE VISTA DE LA PSICOLOGÍA Y LA PSIQUIATRÍA Como dijimos en la sección anterior, la actitud filosófica determina en gran medida la actitud ante los problemas. Por lo anterior, los estudios psicológicos y psiquiátricos del cerebro están fuertemente ligados a la concepción que el hombre tiene del mundo que lo rodea. Antiguamente, muchas enfermedades mentales eran consideradas como males de origen mágico o religioso. Se pensaba que éstas eran causadas por espíritus malignos que, de alguna manera, lograban entrar al cuerpo del enfermo. Fruto de esta creencia fue el hecho de que los egipcios utilizaran la trepanación con fines terapéuticos. Ellos creían que al hacer un orificio en el cráneo permitían a los espíritus malignos, causantes de la enfermedad, salir del cuerpo que los albergaba. También nos encontramos con ideas similares en el Nuevo Testamento de los cristianos, donde Jesús expulsa a los espíritus malignos y desempeña un papel similar al psicoterapeuta de nuestros días. Tiempo después, surgen otros puntos de vista más materiales acerca de las enfermedades mentales. La actitud naturalista considera que las enfermedades mentales o bien son resultado de vivir bajo fuertes presiones de carácter social o psicológico, o 54 / 99

tienen su origen en disfunciones orgánicas. La primera de estas ideas tuvo importantes consecuencias en el siglo XIX, cuando Josef Breuer y Sigmund Freud encontraron que existe una estrecha relación entre las experiencias traumáticas de la infancia y los desórdenes mentales. Estas ideas constituyen la base del psicoanálisis, el cual consiste en utilizar la asociación libre de ideas para explorar la personalidad de los pacientes. Este tratamiento ha tenido repercusiones trascendentales en la medicina y en la vida de nuestro tiempo. Además de crear el psicoanálisis, Sigmund Freud dio un gran impulso a la psiquiatría al proponer una importante teoría que distingue tres zonas de la personalidad: el yo, formado a partir de la educación y la experiencia, el super yo, producto del ideal de perfección del individuo, y el ello, el cual constituye la parte innata de los individuos. Esta última zona está formada por los instintos y carece de inhibiciones y trabas de carácter moral, estético o social. A mediados del siglo XIX, la idea de que las enfermedades mentales estaban ligadas a enfermedades orgánicas tuvo un gran auge. Esta idea tuvo muchas consecuencias negativas, ya que contribuyó a que los hospitales para enfermos mentales se transformasen en reclusorios, en los cuales únicamente se aislaba a los pacientes para darles un tratamiento que consistía exclusivamente en la administración de fármacos y descargas eléctricas. Cuando era necesario calmar a un paciente se administraban depresores del sistema nervioso; en cambio, si lo que se deseaba era sacar al enfermo de un estado de depresión, se le suministraban drogas útiles para excitarlo. Es de esperarse que un tratamiento de este tipo, sin el uso de ninguna terapia de índole psiquiátrica. Sólo contribuyese a empeorar el estado físico y mental del paciente, al descompensar la química de su organismo y producir farmacodependencia. La psicología es una disciplina científica que estudia el comportamiento humano y de otros animales. Para esto, ignora el tipo de preguntas acerca de la validez de los conocimientos humanos y da por hecho la existencia del mundo físico. Una rama muy importante de la psicología se dedica al estudio del proceso por el cual la estimulación sensorial se traduce en experiencia organizada, esto es, en percepciones. Al tratar de estudiar los procesos perceptuales, los psicólogos se encontraron frente a un serio problema: estos procesos no son directamente observables (excepto por el sujeto perceptor), por lo cual la validez de las teorías de la percepción únicamente puede ser comprobada de una manera indirecta. Originalmente, el estudio de la percepción tenía como herramienta básica la introspección, complementada por un relato de parte del sujeto de estudio, acerca de las "vivencias" obtenidas durante la experiencia de la percepción. De esta manera, estos estudios se reducían a observaciones subjetivas sin carácter general. John Watson fue un severo crítico de este método, y sus observaciones lo llevaron a proponer el conductismo, el cual concibe los eventos perceptuales como meras inferencias. Por lo anterior, limita sus estudios a descripciones objetivas y mediciones del comportamiento observable, verbal y no verbal. Esta doctrina se basa en la idea de que existe una correspondencia entre términos mentales y conductuales, por lo cual afirma que la mente debe ser analizada en términos de su conducta. No prohíbe el uso de la introspección como fuente de hipótesis, pero sí como herramienta para comprobar la validez de éstas.

55 / 99

Durante el siglo XIX, encontramos otras teorías importantes que daban alguna explicación acerca de las capacidades mentales del hombre. En particular, la frenología fue una hipótesis fisiológica que se desarrolló de manera empírica y que tuvo un gran auge, aun hasta principios del siglo XX. Se basaba en cinco principios: i) el cerebro es el órgano de la mente; ii) todas las capacidades mentales son una combinación de un número definido de facultades independientes; iii) estas facultades son innatas, y cada una de ellas se localiza en una parte definida de la superficie cerebral; iv) el tamaño de cada una de estas regiones es proporcional a la importancia, en el carácter del individuo, de la facultad correspondiente; y v) el cráneo se adapta a la corteza cerebral, de manera que basta con hacer una inspección visual de la forma exterior de su cráneo para poder describir moral e intelectualmente a un individuo. En la figura 33 se muestra la localización y nomenclatura frenológica de Johann K. Spurzheim, quien dividió el cráneo en 35 secciones con diferentes atributos. La hipótesis frenológica fue desechada científicamente, ya que las descripciones de individuos hechas a partir de la observación de sus protuberancias craneales no coincidían con la conducta que éstos manifestaban. Ahora sabemos que las facultades intelectuales, afectivas e instintivas no se encuentran localizadas en ningún lugar del cerebro. Por otro lado, hemos aprendido que sí existe un cierto tipo de localización, pero de un carácter esencialmente distinto. Como veremos más adelante, han sido identificadas algunas áreas funcionales de la corteza cerebral. La figura 34 muestra las áreas sensora y motora de la corteza. LA PERCEPCIÓN La capacidad de tener sensaciones es una capacidad innata. Esto es, nacemos con ella. Por otro lado, la percepción es una capacidad individual y de índole personal, ya que es fruto de un aprendizaje, y como tal, depende de las experiencias individuales, del entorno y de las características personales. Como muestra de lo anterior podemos hablar de los siguientes experimentos. Se han hecho estudios en personas ciegas de nacimiento a causa de la presencia de cataratas, quienes en la edad adulta han obtenido el don de la vista. En un principio, cuando recién han adquirido sensibilidad a cambios de iluminación y color, en dichas personas se observa que aunque pueden decir cuándo hay una figura presente, no pueden discriminar aún entre formas simples. Después de varios meses de haber recobrado la vista, estas personas pueden diferenciar entre un cuadrado y un triángulo con sólo observarlos; antes de esto, necesitan contar las esquinas de las figuras para poder hacer la discriminación. Lo anterior nos indica que aunque estas personas poseen el concepto de las diferentes figuras geométricas, ya que las pueden identificar si cuentan las esquinas, ese concepto no lo tienen relacionado con las imágenes respectivas. Esto es, tienen que aprender a "percibir" imágenes visuales.

56 / 99

Figura 33. Mapa de Spurzheim, quien dividió el cráneo en 35 regiones con los siguientes atributos; 1) amatividad; 2) filogenitura; 3) habitatividad; 4) afeccionividad; 5) combatividad; 6) destructividad; 7) secretividad; 8) adquisitividad; 9) constructividad; 10) aprecio de sí mismo; 11) aprobatividad; 12) circunspección; 13) benevolencia; 14) veneración; 15) firmeza; 16) concienciosidad; 17) esperanza; 18)maravillosiadad; 19) idealoidad; 20) chistosidad; 21) imitación; 22) individualidad; 23) forma o configuración; 24) tamaño o extensión; 25) peso o resistencia; 26) colorido; 27) localidad; 28) cálculo numérico; 29) orden; 30) eventualidad; 31) tiempo o duración; 32) tonos; 33) lenguaje; 34) comparación; 35) casualidad.

57 / 99

Figura 34. Representación esquemática de los centros sensitivo-motores de la corteza cerebral del hombre. De la misma manera, se ha encontrado que no existen conexiones innatas entre la identificación auditiva del sonido producido por un objeto y su identificación visual. Todas estas asociaciones de ideas deben establecerse a través de la experiencia y forman una parte importante del aprendizaje que se lleva a cabo en niños pequeños. De aquí la importancia de que los niños crezcan en ambientes enriquecidos, ya que la experiencia temprana tiene una gran importancia en el desarrollo perceptual, intelectual y emocional. Más adelante expondremos la idea de que el proceso de desarrollo de la percepción, al igual que otros tipos de aprendizaje, está íntimamente relacionado con cambios físicos y funcionales en el organismo. LOS FÍSICOS Y LA PERCEPCIÓN Durante la segunda mitad del siglo XIX, algunos físicos de renombre trabajaron exitosamente en el campo interdisciplinario de la física y la psicobiología, e hicieron contribuciones importantes e este campo. Un ejemplo notable lo constituye el físico Jame C. Maxwell quien, por un lado, contribuyó de manera importante al desarrollo de la teoría electromagnética, y por otro, desarrolló una teoría tricromática del color. Por su lado Ernst Mach, gran pensador y físico, quien contribuyera con sus ideas a la formulación de la teoría de la relatividad, es famoso también por sus investigaciones en

58 / 99

el campo de la visión. Por último, Hermann von Helmholtz, quien inició su carrera científica como médico, hizo contribuciones importantes a la física en los terrenos de la óptica y la acústica. Asimismo, contribuyó al desarrollo de teorías relacionadas con la percepción auditiva y visual. En este último terreno formuló una hipótesis llamada de inferencia inconsciente, según la cual las imágenes que percibimos están modificadas por la experiencia previa (Figura 35).

Figura 35. La serie de siluetas que aquí se muestran constituyen el test de Frenkel-Brunswik, utilizado para investigar la flexibilidad o rigidez mental de los niños. La primera silueta muestra a un gato; luego va perdiendo gradualmente sus características distintivas hasta convertirse en un perro. Cuando esta figuras se presentan en secuencia para su identificación, los sujetos rígidos se aferran a su primera respuesta, y continúan identificando como gato a las figuras ambiguas, hasta que al final de la prueba reconocen súbitamente al perro. Grossber afirma que a finales del siglo XIX hubo un gran cisma entre la física y la psicología. Uno de los motivos principales de este rompimiento fue la revolución general del pensamiento ocurrida a principios del siglo XX. En esta época, todas las teorías físicas que se desarrollaron eran expresables de manera cuantitativa en términos de las matemáticas existentes en la época. Por ejemplo, cuando Einstein desarrolló su teoría general de la relatividad, se encontró con que necesitaba cierto tipo de matemáticas para expresarla. Para su fortuna, también se encontró con que la geometría de Bernhard Riemann, recién desarrollada, era una excelente herramienta para este propósito. Los físicos interesados en el estudio del cerebro y de la mente no fueron tan afortunados, y se vieron enfrentados a una disyuntiva debido a que las matemáticas de su tiempo no les servían para explicar los fenómenos psicológicos. Como consecuencia de esta crisis, abandonaron el estudio de la psicología y la neurobiología para dedicarse a desarrollar teorías de moda, pero no por eso menos valiosas, que pudiesen expresarse cuantitativamente utilizando las herramientas matemáticas existentes. Por otro lado, los psicólogos y los neurobiólogos devolvieron el favor, abandonando los conceptos físicos y las matemáticas, debido a que les resultaban impertinentes por inútiles. Este rompimiento entre las dos ciencias fue tan profundo, que actualmente los profesionistas de la carrera de psicología no reciben un entrenamiento formal en la

59 / 99

física y las matemáticas. Esto ha dificultado el trabajo interdisciplinario, ya que profesionistas de diferentes áreas no poseen un lenguaje y herramientas comunes. EL PUNTO DE VISTA BIOLÓGICO En este renglón17 hablaremos acerca de los estudios del cerebro y sistema nervioso que suelen clasificarse bajo el nombre de neurociencias. Esto abarca aspectos que pueden reducirse a términos físicos y químicos e incluye disciplinas que estudian al cerebro desde sus puntos de vista morfológico y funcional, a diferentes niveles, que van desde el estudio integral de sus componentes hasta estudios de tejidos, o celulares. Todos estos aspectos son de importancia fundamental y son indispensables para comprender el funcionamiento del cerebro. Desde finales del siglo XVII, el hombre tenía un conocimiento muy amplio acerca de la anatomía del cerebro y de sus diversas partes. Sin embargo, el conocimiento del sistema nervioso a nivel celular inició hasta principios de siglo. En parte esto fue una consecuencia natural de la falta de técnicas e instrumentos apropiados que permitiesen llevar a cabo ciertas observaciones y experimentos. A lo largo del siglo XX esta situación se ha ido modificando, y con ello las neurociencias han tenido un impulso muy importante. Entre el gran número de técnicas y tecnologías desarrolladas durante este tiempo tenemos la autorradiografía, la tomografía de emisión de positrones, y la resonancia magnética nuclear. Gracias a las nuevas técnicas18 podemos en la actualidad observar el cerebro en funcionamiento e identificar cuáles grupos de neuronas están activas mientras realizamos diversas actividades como hablar, escuchar, soñar, mover alguna parte de nuestro cuerpo, etcétera; lo cual ha permitido hacer mapas de las conexiones entre las neuronas y las diferentes partes del sistema nervioso. Como un ejemplo de la forma en que funcionan estas técnicas tenemos la autorradiografía, la cual consiste en lo siguiente: se inyecta una substancia química radioactiva en alguna estructura del cerebro; esta substancia es absorbida por los cuerpos celulares y transmitida a lo largo de las terminales nerviosas hasta sus extremos (transporte anterógrado), o en sentido inverso, esto es, de los extremos hacia el cuerpo celular (transporte retrógrado). Si una emulsión fotográfica es puesta en contacto con un corte de tejido cerebral, ésta es afectada por la substancia radiactiva, dejando ver la trayectoria que siguen los axones. Otra técnica que sirve para "marcar", a las neuronas que intervienen activamente en alguna función específica del cerebro, se basa en el uso del análogo radioactivo de la glucosa, ya que la glucosa es la fuente de energía de las neuronas y por tanto es requerida durante las funciones celulares. Si se inyecta esta substancia y después se aplica un estímulo, las células activas toman la glucosa radioactiva pero no la pueden metabolizar. Por lo anterior, estas neuronas quedan marcadas y pueden detectarse y seguirse desde fuera del cerebro. A nivel del análisis del tejido nervioso tenemos otro grupo de técnicas que han sido fundamentales para el nacimiento y desarrollo de las neurociencias. Éstas son las técnicas de teñido selectivo, las cuales permiten teñir o marcar células individuales, o partes de ellas con propiedades en común, de manera que contrastan con respecto al fondo y permiten hacer observaciones selectivas. Algunas de estas técnicas son útiles para obtener mapeos por transporte retrógrado o anterógrado. Otra técnica permite teñir únicamente las terminaciones sinápticas, esto es, los puntos de contacto entre neuronas

60 / 99

o entre neuronas y órganos, lo cual permite apreciar las ramificaciones neuronales. También tenemos que en la etapa embriológica es posible teñir a las neuronas con substancias que se diluyen conforme se lleva a cabo la bipartición de las células, lo cual permite estudiar la migración y edad de las neuronas. Todos estos métodos han contribuido al estudio de diversos aspectos de la morfología y la fisiología del sistema nervioso y han permitido obtener una idea adecuada acerca de la geometría de las neuronas y de sus conexiones. Actualmente las neurociencias son un campo de investigación muy activo en el que se han logrado grandes avances. Sin embargo, aún estamos muy lejos de poder decir que entendemos lo que sucede en el cerebro. La metodología empleada es muy diversa e incluye estudios comparativos entre individuos de especies diferentes, estudios del desarrollo embriológico en individuos normales e individuos con alguna alteración inducida, estudios de las disfunciones en individuos con lesiones cerebrales localizadas, el estudio de la conducta de individuos en los cuales se ha llevado a cabo la extirpación o aislamiento quirúrgico de ciertas regiones del cerebro, etcétera. Podríamos llenar páginas y páginas acerca de todo lo que nos falta por conocer y entender. Sin embargo, entre algunas de las preguntas que nos interesa resolver tenemos las siguientes: ¿cuáles son los mecanismos de reloj del desarrollo neurológico?, ¿cuáles son los mecanismos de activación y control de los genes?, ¿cuáles son los papeles de la herencia y del ambiente en el desarrollo neuronal?, ¿qué es lo que determina el crecimiento y direccionamiento de las extensiones neuronales?, ¿qué papel desempeña la muerte neuronal?; y por supuesto, preguntas relacionadas con los mecanismos por medio de los cuales se llevan a cabo los procesos de aprendizaje, de memorización, etcétera, acerca de los cuales aún conocemos muy poco. Las neuronas: unidad básica del sistema nervioso En la práctica ha sido muy difícil estudiar la estructura del tejido nervioso debido a que las células que lo constituyen, llamadas neuronas, están densamente empacadas y poseen un gran número de ramificaciones. Así tenemos que en un centímetro cúbico de tejido nervioso existe un número del orden de 10 millones de neuronas, cada una de ellas con un gran número de ramificaciones, delgadas y largas, las cuales forman una especie de "maraña" extendida e imposible de separar, y en la cual es imposible distinguir unas neuronas de otras. Algunas de estas extensiones neuronales llegan a tener más de un metro de largo y son tan delgadas que ocupan un volumen muy pequeño. Imaginemos que tuviésemos varios millones de madejas de estambre, todas del mismo color y enredadas entre sí (y que ocuparan un volumen similar al de un cubo de 10 m de lado), y tuviésemos que decidir cuántas madejas son, y dónde empieza y dónde acaba cada una de ellas. ¡Y en este ejemplo las madejas tienen una extensión única, y no de cientos o miles de ellas! Debido a lo anterior, los antiguos anatomistas tuvieron grandes problemas para apreciar neuronas individuales. Tanto así que a finales del siglo XIX, la idea generalizada era que el tejido nervioso era un tejido continuo. Por otro lado, las observaciones a través del microscopio óptico no aportaban evidencias que pusieran en duda esta idea. Por

61 / 99

aquellos días, Camilo Golgi observó bajo el microscopio un corte de tejido nervioso sobre el cual se había derramado accidentalmente una solución de sales de plata, y encontró algo sorprendente: la plata había impregnado ciertas áreas del tejido, revelando la existencia de células nerviosas individuales, y delineando la forma de éstas y de sus extensiones (véase la figura 36). Así se demostró que las neuronas, unidad básica del tejido nervioso, son células separadas unas de otras; con este descubrimiento se abrió el camino hacia la neurociencia moderna.

Figura 36 . Copia de un dibujo de Ramón y Cajal, en el cual se muestra tejido nervioso proveniente de la corteza visual de una rata teñido con la técnica de Golgi. Ahora sabemos que las neuronas son células altamente especializadas cuya función central consiste en la generación y transmisión de señales, esto, con el objeto de comunicarse con las demás neuronas del sistema nervioso y con el exterior del organismo. Debido a su alto grado de especialización, las neuronas han perdido hasta la capacidad de reproducirse. Así que en el momento del nacimiento, el ser humano cuenta con el máximo número de neuronas que tendrá en su vida, aunque la mayoría de 62 / 99

las conexiones entre ellas no están aún establecidas. Sin embargo, aunque las neuronas que mueren no son substituidas por nuevas neuronas, en general sí pueden ser remplazadas, desde el punto de vista funcional, por otras neuronas ya existentes. Entre las neuronas encontramos una gran diversidad de formas y sus dimensiones varían entre .002 mm y .5 mm, dependiendo del tipo de neurona de que se trate. Típicamente, están compuestas de tres partes: el cuerpo celular, las dendritas y el axón, y los puntos de contacto entre neuronas se denominan sinapsis (véase la figura 37). El cuerpo celular contiene al núcleo de la célula y es allí donde se sintetizan las enzimas y se llevan a cabo las operaciones esenciales para la sobrevivencia de la célula. El conjunto de cuerpos celulares es lo que le da su color característico a la llamada substancia gris. Las dendritas son extensiones del cuerpo celular con ramificaciones cortas y tubulares, a través de las cuales cada neurona recibe señales provenientes de un número muy grande de otras neuronas (miles, por lo general). Estas señales son sumadas o promediadas, y en caso de que la intensidad total del estímulo recibido sea mayor que un cierto umbral característico de la neurona en cuestión, ésta generará y emitirá una señal eléctrica de respuesta. Esta señal será enviada a través de una extensión larga denominada axón —la cual también puede tener numerosas ramificaciones— hasta las sinapsis, en donde de nueva cuenta se transmitirá la información hacia otras neuronas mediante intercambio químico.

Figura 37. Neurona Típica de un vertebrado, en la cual se pueden apreciar los tamaños relativos del cuerpo celular y el axón. De acuerdo con la escala este axón que se muestra doblado, tendría 1 cm de largo; sin embargo algunos axones llegan a tener más de un metro de largo. La llegada de un impulso al final de una fibra nerviosa hace que se libere un compuesto químico, llamado substancia transmisora, el cual excita a la neurona vecina. Una misma neurona podrá tener conexiones inhibidoras y excitadoras con diferentes neuronas, para lo cual necesitará producir ciertas substancias químicas que actúan como transmisores. Una sinapsis será excitadora o inhibidora, dependiendo de la presencia de

63 / 99

diferentes tipos de receptores y transmisores en la membrana celular (véase la figura 38). Los mecanismos bioquímicos que intervienen en el metabolismo y funcionamiento de las neuronas son muy complicados. Prueba de esta complejidad es el hecho de que en la transmisión de los impulsos nerviosos a través de las sinapsis intervienen más de 30 moléculas diferentes. Sin embargo, todas las señales eléctricas transmitidas a lo largo de los axones son en esencia iguales, independientemente del tipo de fibra nerviosa que intervenga (las fibras nerviosas son haces de axones que parten de células relacionadas con una misma función). De tal suerte que lo que varía de un caso a otro es el número de impulsos transmitidos por unidad de tiempo. Los axones celulares están cubiertos por una substancia grasa llamada mielina, la cual da un color blanco característico a ciertas partes del sistema nervioso (substancia blanca del encéfalo, médula y de algunos nervios). Este envoltorio las aísla eléctricamente del exterior, de manera que la transmisión de los impulsos nerviosos se lleva a cabo únicamente a través de las sinapsis. Los impulsos nerviosos viajan a lo largo de las fibras nerviosas con una velocidad de casi 500 kilómetros por hora. Esta velocidad es muy alta comparada con la que nosotros nos desplazamos (menos de 10 km/h), y muy lenta si se compara con la velocidad de propagación del sonido en el aire (aproximadamente 1 300 km/h) o la velocidad de la propagación de la luz en el vacío (300 000 km/seg ~ 10 g km/h). 9

Otro nivel de organización: el cerebro Como mencionamos anteriormente el sistema nervioso central es el encargado de integrar y procesar la información sensorial, y de dirigir las respuestas motoras del organismo. En los vertebrados este sistema está formado por la médula espinal y el encéfalo.

Figura 38 Las sinapsis pueden ser excitadoras o inhibidoras dependiendo del tipo de transmisor que liberan. Con ayuda del

64 / 99

microscopio electrónico ambos tipos de sinapsis pueden ser distinguidos morfológicamente. La médula espinal está situada dentro de la columna vertebral. Entre las conexiones vertebrales existen unos espacios por donde salen las prolongaciones laterales de la médula, las cuales se ligan a los ganglios y nervios espinales. De manera que los nervios captan información del exterior, a través de los sentidos, y la transmiten al encéfalo a través de la médula espinal. El encéfalo está contenido dentro de la caja craneana, y está compuesto por el tallo cerebral y el cerebro. El cerebro es la parte anterior y superior del encéfalo; es una parte muy importante del sistema nervioso de los organismos superiores y también la más voluminosa e importante. En el hombre, este órgano es en el que residen las actividades mentales superiores: es el centro del pensamiento, del razonamiento abstracto y de las actividades conscientes, y su masa constituye aproximadamente 85% de la masa total del encéfalo. El cerebro consiste de una gruesa capa de materia gris, con profundas circunvoluciones y separado en dos hemisferios, izquierdo y derecho, por una fisura profunda. Estos hemisferios se encuentran conectados entre sí por un grupo de fibras nerviosas llamado cuerpo calloso. Cada hemisferio se encuentra dividido por fisuras profundas en cuatro secciones. Éstas son los lóbulos frontal, temporal, parietal y occipital. El hemisferio derecho controla la mitad izquierda del cuerpo y la derecha de la cara, y viceversa. A nivel macroscópico, ambos hemisferios son prácticamente imágenes de espejo. Sin embargo existen importantes diferencias funcionales. Por ejemplo, en la mayoría de las personas las áreas que controlan el lenguaje están localizadas en el hemisferio izquierdo, mientras que el control de las percepciones espaciales reside en el derecho. Dentro de la corteza cerebral se han identificado algunas áreas funcionales, por ejemplo: la corteza visual en el lóbulo occipital, la corteza auditiva en el lóbulo temporal, la corteza motora en el lóbulo frontal y la corteza sensitiva en el lóbulo parietal. La figura 39 nos muestra un mapa de las regiones sensora y motora de la corteza, llamado así debido a que en él se encuentran representadas todas las regiones del cuerpo; el área que cada una de estas regiones ocupa es aproximadamente proporcional al grado de refinamiento del control y de la sensibilidad requeridos por dichas áreas.

65 / 99

Figura 39. Regiones sensoras y motoras de la corteza cerebral humana. Cada parte de estas regiones está relacionada con la parte del cuerpo que se muestra en el dibujo. Sin embargo, en los primates, una gran parte de la corteza no se dedica a ninguna función motora o sensorial específica. Esta "corteza de asociación" aparentemente interviene en actividades mentales superiores, tales como el razonamiento. En el hombre, esta parte constituye la mayor parte de su corteza cerebral.

66 / 99

V I I . M E M O R I A A P R E N D I Z A J E

Y

¿Qué es la mente? Esta palabra nos resulta útil, y a menudo insustituible, pero carece de un significado concreto y a menudo denota algo etéreo y no localizable. Pero, ¿podemos concebir a la mente como algo sin bases físicas? cada una de las disciplinas mencionadas anteriormente ha aportado una cantidad enorme de conocimientos acerca del cerebro, el funcionamiento de "la mente" sigue siendo, en lo fundamental, misterioso y desconocido. En particular, es poco lo que estas disciplinas han aportado con respecto al conocimiento de los procesos físicos por medio de los cuales se almacena y procesa la información a nivel global (Figura 40). Sin embargo, gracias a estos estudios se ha acumulado una gran cantidad de conocimientos, que aunque por sí solos no ofrecen una explicación integral acerca de los procesos por medio de los cuales se almacena la información y se logra la evocación mental, constituyen algunas piezas del rompecabezas que tratamos de armar. AUNQUE

A lo largo de la historia han sido propuestas muchas teorías que intentan explicar los mecanismos de almacenamiento y remembranza. Por ejemplo, hace algunos años se propuso la teoría de que la información se almacenaba codificada en una secuencia de molécula, de una manera similar al modo en que la información genética se almacena en las moléculas de ácido desoxirribonucleico (ADN). Para probar esta teoría se efectuaron numerosos experimentos que consistían, por ejemplo, en entrenar animales de una cierta manera y después moler sus cerebros para examinar si estas enseñanzas habían producido cambios químicos en ellos. Otros experimentos consistían en utilizar como alimento los cerebros de animales entrenados, para después tratar de encontrar ,"estadísticamente significativas" en otros animales alimentados con éstos. Pero afortunadamente la teoría tuvo que ser desechada debido a que no se encontraron evidencias que la apoyaran. (No resulta difícil imaginar las implicaciones que esta teoría hubiese tenido, en caso de aceptarse como correcta).

Figura 40. Esquema de la organización global del cerebro, el cual sugiere el flujo de información. El área izquierda representa las señales sensoriales de entrada y el área a la derecha representa a las neuronas motoras que terminan en la células musculares. Es 67 / 99

muy poco lo que sabemos acerca de lo que sucede en la región intermedia. Esto es, la manera en que se procesa la información. Las neuronas son células altamente especializadas y se distinguen de otros tipos de células, entre otras cosas, porque son capaces de generar y transmitir señales eléctricas. Sin embargo, son regidas por las mismas leyes de la naturaleza que las células de otros tejidos. Las señales químicas y eléctricas producidas y transmitidas por las neuronas pueden ser medidas, registradas e interpretadas, de manera que resulta natural pensar que el funcionamiento del cerebro puede estudiarse al igual que el de cualquier otra parte del cuerpo humano. Pero entonces, ¿en qué momento es que la mente adquiere capacidades como las de la imaginación, la creatividad, el aprendizaje, la memorización, etc., que parecen no estar localizadas en ninguna parte del cerebro? A falta de una mejor respuesta a estas preguntas, en muchas civilizaciones, y desde épocas muy antiguas, se ha recurrido a ideas como la de la existencia del alma. En el diccionario19

encontramos las siguientes definiciones:

Memoria. Potencia intelectual del alma por medio de la cual se retiene y recuerda lo pasado. Mente. Potencia intelectual del alma. Sin embargo, aunque atribuir estas funciones a un alma es la respuesta más fácil de formular, no tiene bases científicas y por tanto, aceptarla o rechazarla viene a ser sólo un acto de fe, y no resuelve el problema. Por otro lado, tenemos que otros seres vivos, con sistemas nerviosos menos desarrollados que el nuestro, y a los cuales generalmente no se atribuye la posesión de un alma, comparten con nosotros algunas de estas características aunque en ellos estos procesos no sean tan complejos. Por ejemplo, algunos chimpancés y gorilas han sido enseñados a utilizar el "lenguaje norteamericano de señas", comúnmente utilizado por sordomudos. Estos animales han sido capaces de adquirir un vocabulario de más de 100 palabras, y de improvisar nuevas palabras, combinaciones de las ya conocidas, para ajustarse a situaciones nuevas. Las siguientes preguntas resumen algunas de nuestras incógnitas: ¿cómo es posible que un grupo de células cuya función primordial puede resumirse en la generación y transmisión de señales eléctricas, sea capaz de procesar y almacenar información?, ¿de qué manera puede ser útil conocer en detalle los procesos que se llevan a cabo en cada neurona para entender el funcionamiento de la mente?, ¿qué tan relevantes son los detalles estructurales del cerebro con respecto a estas funciones? Por otro lado, ¿es posible reducir cualquier función mental a una colección de señales eléctricas, reacciones químicas, etcétera? De ser así, ¿será posible la construcción de máquinas que lleven a cabo eficazmente las mismas funciones que nosotros?, y en caso negativo, ¿se deberá esto a limitaciones tecnológicas, o de carácter fundamental? El cisma entre la física y la neurobiología que mencionamos en el capítulo anterior, contribuyó a que los físicos creyesen imposible construir una teoría del comportamiento del cerebro. Sin embargo, esta creencia se ha ido modificando gradualmente, y en los últimos 25 años los aspectos del aprendizaje y la memoria se han empezado a estudiar desde el punto de vista de la física estadística. Por otro lado, las matemáticas han tenido un desarrollo importante en años recientes, en cuanto a que han empezado a lidiar con sistemas cuyas características son no-linealidad, no-localidad, y no-estacionalidad. Los resultados obtenidos por estas nuevas teorías son prometedores, pues aunque apenas representan un entendimiento cualitativo de algunos de los procesos más elementales 68 / 99

que tienen lugar en el cerebro, este enfoque ha dado nueva luz a muchas cosas antes desconocidas por completo y nos ha mostrado una nueva dirección par continuar la búsqueda. MEMORIA Y APRENDIZAJE DESDE EL PUNTO DE VISTA FISIOLÓGICO Como ya mencionamos, ha habido algunas teorías tendientes a explicar los mecanismos de memoria y evocación mental, las cuales no han podido sobrevivir debido a que carecen de rigor científico y no se encuentran sustentadas por evidencias experimentales. Debido a lo anterior, no pasan de ser ideas interesantes. Si aceptamos que el comportamiento colectivo de las células de nuestro cerebro es el responsable de todas nuestras capacidades mentales, de nuestras emociones, gustos, intereses, habilidades, recuerdos, etc., entonces la siguiente pregunta sería, ¿cuáles son los mecanismos responsables de ellas?, y en particular, ¿cuáles son los mecanismos responsables de la memoria y del aprendizaje? Antes de intentar dar respuesta a esta última pregunta es conveniente analizar cuáles son las evidencias de tipo fisiológico con que contamos. Es muy difícil iniciar el estudio de un problema muy complicado empezando con el problema mismo. Por lo anterior, a menudo buscamos problemas más simples de la misma naturaleza que nos puedan aportar conocimientos de carácter general. Posteriormente, tratamos de analizar cuáles de sus características son generalizables y qué esperaríamos encontrar en sistemas más complejos. Otro procedimiento consiste en separar un sistema muy complicado en subsistemas más simples y estudiar las partes por separado. En cierto tipo de problemas, otro método posible consistiría en estudiar el desarrollo de la formación de dicho sistema. En la investigación del cerebro se han utilizado todos los recursos recién mencionados. Así, el estudio de organismos simples ha ayudado a comprender, a nivel celular, la manera en que se lleva a cabo el aprendizaje. Por otro lado, el estudio comparativo en animales de diferentes especies ha permitido observar que algunos procesos neuronales tienen características comunes a todos estos sistemas. Por ejemplo, parece ser que las neuronas y sinapsis del hombre son muy similares a las neuronas y sinapsis de organismos simples; de manera que no existen diferencias fundamentales en su estructura, su química y sus funciones. Por otro lado, no es posible diferenciar entre distintos tipos de neuronas de un mismo individuo, o aun entre neuronas pertenecientes a individuos de especies diferentes, viendo tan solo el registro de un impulso nervioso de éstas. También tenemos que la experimentación en animales desarrollados, como el chimpancé, ha sido de importancia fundamental. Por un lado, estos animales son cercanos al hombre, poseen una gran destreza manual y pueden ser entrenados en conductas de gran complejidad. Por otro lado, con ellos es posible realizar una serie de experimentos de gran importancia desde el punto de vista científico, los cuales son imposibles de efectuar en seres humanos debido a problemas éticos. Finalmente, el estudio del desarrollo fetal en animales simples y complejos ha contribuido al entendimiento de muchos mecanismos y factores que intervienen en el desarrollo del sistema nervioso. RESULTADOS EXPERIMENTALES EN ORGANISMOS SIMPLES

69 / 99

Para entender los procesos de aprendizaje y memoria es muy importante encontrar a qué nivel de organización aparecen los primeros siglos de aprendizaje que caracterizan el comportamiento humano. Por este motivo, es conveniente iniciar el estudio con organismos muy simples, los cuales ofrecen grandes ventajas, ya que el número reducido de sus neuronas permite relacionar la función de células específicas con ciertos comportamientos.20 Mediante el estudio de varios tipos de invertebrados se ha encontrado que éstos son capaces de "habituarse" a situaciones. Esta es la forma más rudimentaria y simple de aprendizaje, la cual consiste en lo siguiente: si a un organismo se le presenta un estímulo desconocido, éste provocará una respuesta refleja de defensa; si el estímulo se repite en numerosas ocasiones y no viene acompañado de ninguna agresión hacia el animal, este último terminará por "habituarse", esto es, dejará de responder a su presencia con un reflejo de defensa. Este aspecto ha sido estudiado extensivamente en un tipo de animal marino llamado Aplysia californica que tiene un sistema nervioso muy simple con sus neuronas identificables individualmente (esto se muestra en la figura 41). Estos animales fueron sometidos a una serie de estímulos táctiles, y se logró su habituación en una sesión de 10 a 15 estímulos. Sin embargo, se encontró que esta "conducta" había sido completamente olvidada al día siguiente. Por otro lado, si el habituamiento se lograba mediante cuatro sesiones de 10 estímulos cada una y separadas por varias horas, la habituación persistía durante varias semanas (¡de aquí la importancia de no estudiar únicamente antes de los exámenes!). Al examinar las respuestas de las células nerviosas, antes y después de la habituación, se encontraron resultados realmente interesantes: se observó que la habituación, ya sea de corta o de larga duración, provoca un cambio en la efectividad de las interacciones sinápticas entre las neuronas sensoriales y las neuronas motoras. La única diferencia encontrada entre ambos tipos de habituamiento radica en el periodo durante el cual persiste la modificación mencionada. Éste es un resultado muy interesante debido a que anteriormente se pensaba que los mecanismos celulares de almacenamiento de memoria, de corta y larga duración, eran esencialmente distintos. Por otro lado, estudios similares llevados a cabo en muchos otros animales permiten concluir que este mecanismo es general.

70 / 99

Figura 41. Esta figura muestra a la Aplysia californica, y un mapa de su ganglio abdominal, en el cual se pueden observar neuronas identificables individualmente. Otro tipo de estudios, basados en el análisis citológico del tejido nervioso, nos indica que un gran número de conexiones sinápticas son establecidas antes del nacimiento y el resto se establece a lo largo de la vida; siendo la edad temprana, al menos en el hombre, la época de mayor "plasticidad" o capacidad para el establecimiento y modificación de nuevas conexiones. El mecanismo de selección de conexiones incluye la formación inicial de un número excesivo de ramas axonales y dendríticas, seguidas por la posterior degeneración y reabsorción de un gran número de éstas. Esto fue descubierto en la primera década del siglo por Santiago Ramón y Cajal, quien propuso que todas las ramificaciones que no establecen conexiones correctas desaparecen. Por otro lado, se observa que el recién nacido presenta axones casi totalmente desprovistos de mielina; después del nacimiento se inicia un proceso bastante rápido de recubrimiento de los axones, el cual finaliza alrededor de los cinco años de edad. LA MEMORIA DEL HOMBRE A partir de su nacimiento, el hombre tiene que aprender una gran cantidad de cosas, que van desde el control voluntario de las partes de su cuerpo, hasta el desarrollo de su percepción, de la adquisición del sentido común, de la cultura, de las reglas de carácter social, moral, religioso. Todos estos, conocimientos fundamentales para su sobrevivencia. La memoria, el aprendizaje y el olvido, son procesos acumulativos que implican un cambio conductual, o en la forma de pensar durante cierto tiempo. Sabemos muy poco acerca de los mecanismos que intervienen en el proceso de memorización a nivel global. Sin embargo, a nivel celular sabemos que la memoria está relacionada con modificaciones anatómicas y/o funcionales de las interacciones sinápticas.

71 / 99

La mayoría de los neurobiólogos opinan que todas las disposiciones humanas para tener sentimientos, emociones, pensamientos, etcétera, residen en los patrones de interconexión de las neuronas. Por otra parte la presencia de ciertos neuromoduladores controla y modifica la eficiencia de las sinapsis. Ahora es importante establecer un puente entre los mecanismos de almacenamiento de información a nivel celular y a nivel global en el cerebro, esto es, encontrar los mecanismos de almacenamiento a un nivel de organización más alto. Existen evidencias de que en el hombre las funciones complejas del cerebro, como el razonamiento abstracto, tienen lugar en la corteza cerebral. Antiguamente se pensaba que el aprendizaje tenía lugar exclusivamente en regiones limitadas y especificas de la corteza. De esta manera se suponía, por ejemplo, que los lóbulos frontales tenían un papel fundamental en la memorización necesaria para resolver problemas. Sin embargo, se ha encontrado que animales, a los cuales se les ha removido quirúrgicamente la totalidad de la corteza cerebral, si bien pierden su capacidad para aprender tareas complejas, continúan manifestando cierta capacidad para ser condicionados. El psicólogo Karl S. Lashley encontró que en los humanos todas las partes de la corteza cerebral son igualmente importantes para el aprendizaje. Al analizar el comportamiento de individuos con lesiones en esta región del cerebro, descubrió que mientras mayor es la cantidad de corteza dañada, mayor es la incapacidad posterior del individuo para memorizar y realizar tareas complejas. Esto, independientemente de la localización de la parte afectada. Sabemos que en el cerebro existe la substitución funcional de unas neuronas por otras, a diferentes niveles. Continuamente, el número de nuestras neuronas decrece, pues como dijimos antes, las neuronas no tienen capacidad de reproducción. Sin embargo, la falta de un número pequeño de neuronas, con respecto al número total, no produce cambios apreciables en el desempeño de la memoria.21 A otro nivel, se ha observado que la remoción quirúrgica de una parte de los lóbulos temporales, practicada para controlar la epilepsia, puede producir problemas de memoria. Cuando esta remoción se practica únicamente en el lóbulo dominante, el paciente puede tener problemas para aprender de nuevo el material verbal hasta por tres años después de la cirugía. Esto es, aunque hay pérdida de material almacenado, con el tiempo se logra la substitución funcional de unas neuronas por otras y el material puede ser reaprendido. Por supuesto, el grado de recuperación depende del tamaño del área afectada. Los argumentos anteriores nos sugieren lo siguiente: i) el aprendizaje se lleva a cabo fundamentalmente en la corteza cerebral, y ii) el aprendizaje no es una función exclusiva ni de la corteza, ni de regiones particulares de ésta. El cerebro está formado por un número muy grande de neuronas. Se considera que este número es del orden de 10 células, y que en promedio cada una de ellas recibe o envía información de otras 10 células. De manera que el número total de conexiones en el cerebro deber ser del orden de 10 . Se cree que dentro de esta maraña de conexiones, los caminos principales de comunicación se encuentran predeterminados por la herencia, de manera que las extensiones neuronales crecen durante la gestación hasta aquellos lugares donde posteriormente serán requeridas. Sin embargo el resto de las conexiones deben ser adquiridas después del nacimiento, de manera que el tamaño y estructura de esta red cambia radicalmente, y de manera continua, durante la vida de los individuos. Esta programación, que se consigue después del nacimiento, está 11

4

15

72 / 99

relacionada con el aprendizaje y una parte importante tiene relación con la memoria. Básicamente tiene lugar a través de dos mecanismos: la modificación de las estructuras de interconexión y el cambio de la eficacia de las sinapsis. LA FÍSICA ESTADÍSTICA Y EL CEREBRO El cerebro humano es de una gran complejidad. Aunque la frase anterior es un cliché, no por eso deja de ser verdad; se trata del sistema más complejo que conocemos en la naturaleza. Sin embargo, si la física estadística ha de ser exitosa en su tarea de describir algunos aspectos colectivos del funcionamiento del cerebro, como el almacenamiento y llamado de información, necesita proporcionar un modelo con las características siguientes: debe describir el cerebro o alguna subparte de éste de la manera más sencilla posible, y ha de ser capaz de captar los ingredientes fundamentales responsables de llevar a cabo los procesos que nos ocupan. Esto es, se necesita de un modelo simple que prediga, a partir de las características individuales relevantes de un arreglo de neuronas y de sus interacciones, un comportamiento colectivo con ciertas características que describiremos más adelante. Desde hace algunos años, ha habido intentos por hacer modelos físicos muy simples para describir algunos aspectos del cerebro. Estos modelos se basan en el hecho de que el cerebro tiene un gran número de neuronas, del orden de 10 10 a 1011, 22 y en que no es relevante la contribución individual específica de cada una de ellas. Por lo anterior, es razonable suponer que debe haber un mecanismo colectivo involucrado en las funciones que señalamos anteriormente; de ser así, parece adecuado hacer un tratamiento probabilístico de la actividad neuronal. 23 En esta medida, podríamos introducir un modelo muy simple, tomado de la física estadística, para describir el comportamiento colectivo de un conjunto muy grande de neuronas interconectadas. Aunque este modelo es completamente inadecuado para explicar y predecir el comportamiento de las neuronas a otros niveles, se ha encontrado que capta algunas características fundamentales que permiten ver estos sistemas como almacenes de información. El modelo al que haremos mención se basa en una analogía matemática que puede ser establecida entre algunas características de una red de neuronas interconectadas, y un tipo de materiales magnéticos denominados vidrios de espín. Para poder comprender este modelo y sus implicaciones, haremos un paréntesis con el fin de hablar de los materiales magnéticos que existen en la naturaleza.

73 / 99

V I I I . M A T E R I A L E S M A G N É T I C O S EN ALGUNOS materiales, a los que llamaremos materiales magnéticos, se observa que sus átomos o iones se comportan como si fuesen pequeños imanes que interactúan entre sí.24 En estos casos se dice que los átomos tienen un momento magnético diferente de cero, el cual se caracteriza por su magnitud y la dirección en la que está orientado. En lo sucesivo, a estos pequeños imanes los denominaremos espines magnéticos o simplemente espines. Pero no todos estos materiales se comportan de la misma manera, debido a que sus propiedades magnéticas dependen de dos factores. Éstos son: la magnitud de sus espines individuales, y la orientación relativa de éstos: Si los espines no tuviesen ninguna interacción, ya sea entre ellos o con sus alrededores, entonces cada uno de ellos podría apuntar en cualquier dirección, puesto que no tendría preferencia alguna. Sin embargo, éste no es en general el caso: la orientación que tomará cada uno de ellos dependerá del balance de varios factores que pueden resumirse en factores internos y externos. Como su nombre lo indica, los factores internos dependen de las características intrínsecas de cada material, esto es, del tipo de interacciones entre los espines. Por otro lado, los factores externos son los que están relacionados con el ambiente, es decir, que dependen de la interacción del sistema con sus alrededores. Como ejemplo de factores externos tenemos la posible existencia de un campo magnético producido por una fuente ajena al material, y por otro lado, de manera muy importante, la temperatura ambiental, ya que el medio ambiente funciona como una fuente de calor y agitación para el material. Un ejemplo típico de un material magnético, que todos conocemos, es el de los imanes permanentes. En este caso, una gran parte de los espines está alineada permanentemente en la misma dirección relativa. Y aunque el campo producido por cada uno estos espines es muy pequeño, al sumarse sus contribuciones individuales se produce un campo magnético que puede observarse macroscópicamente. En el otro extremo tenemos los materiales paramagnéticos. En estos materiales los espines apuntan en direcciones totalmente azarosas, por lo que las contribuciones de los espines individuales tienden a anularse. Como consecuencia, a nivel macroscópico no se observa un campo magnético resultante. Sin embargo, existen localmente pequeños campos magnéticos producidos por los espines, y un pequeño "imán de prueba" sentirá las variaciones de este campo a lo largo del material. INTERACCIONES ENTRE LOS ESPINES Las interacciones entre los espines son originadas por mecanismos diversos, algunos de los cuales no son del todo conocidos. Sin embargo, para nuestra discusión, únicamente es pertinente conocer el efecto de dichas interacciones, sin importar las causas que las originan. Lo que sí es necesario señalar es que debido a un principio muy general de la naturaleza, la orientación final de los espines será aquella en donde la energía libre del

74 / 99

sistema sea mínima. Para explicar a qué nos referimos, haremos una analogía entre un par de espines microscópicos y dos imanes permanentes. Esta analogía nos permitirá hacernos una idea acerca de lo que sucede a nivel molecular. Si tomamos dos imanes permanentes, observaremos que los extremos de uno y otro se atraen o se repelen, debido a que cada uno de ellos tiene dos tipos de polos magnéticos. Como consecuencia, si los ponemos en contacto veremos que tienden a alinearse de una cierta manera que resulta "natural" para ellos. Decimos entonces que los imanes han tomado su posición de mínima energía, o de equilibrio. Si ahora tratamos de girar uno de ellos 180°, veremos que necesitamos hacer un trabajo; esto es, dado que esta nueva posición es de energía mayor que la anterior, necesitaremos suministrar energía para lograr y mantener esta nueva posición, ya que en el momento en que dejemos de administrar esta energía extra, o sea, en cuanto dejemos de hacer fuerza para detener a los imanes y les permitamos girar libremente, éstos cambiarán de dirección y se alinearán de nueva cuenta en su antigua dirección, esto es, regresarán a su estado de mínima energía. Algo similar sucede a nivel microscópico con los materiales a que nos hemos referido, únicamente que en vez de tener un par de imanes, tendremos un número del orden de 10 pequeños imanes interactuando entre sí. Entonces, cada par de espines tratará localmente de orientarse de la forma más natural posible, es decir, de manera que la energía de ese par sea mínima. Como resultado de este proceso tenemos una gran 23

diversidad de comportamientos en los diferentes materiales magnéticos.

25

PROPIEDADES DE LOS MATERIALES MAGNÉTICOS Los materiales se clasifican de la siguiente manera de acuerdo con sus propiedades magnéticas (véase la figura 42): 1) Diamagnéticos. Son aquellos materiales en los que sus átomos no tienen momento magnético resultante; debido a esto no pueden interactuar magnéticamente con otros materiales. 2) Paramgnéticos. Son materiales en los cuales los átomos sí tienen momento magnético. Sin embargo, en ausencia de un campo magnético externo los espines individuales apuntan en direcciones diversas, de manera que sus contribuciones individuales se anulan; como consecuencia, no se observa un campo magnético resultante. Si se aplica un campo externo, entonces los espines se orientan ligeramente, dando como resultado una imantación en la dirección del campo aplicado. Todos los materiales magnéticos se comportan como paramagnetos cuando se encuentran a una temperatura alta;26 se dice entonces que se encuentran en su fase paramagnética. Este comportamiento se debe a que a temperaturas altas los factores externos dominan sobre los internos, por lo cual el tipo de interacciones entre los espines pierde importancia.

75 / 99

Figura 42. Diferentes tipos de materiales mágneticos. a) Paramagneto. Los espines apuntan en direcciónes al azar, las cuales varían al paso del tiempo. b) Ferromagnetos. Los espines tienen tendencia a alinearse en una misma dirección. c) antiferromagnetos. Tendencia de los espines a alinearse antiparalelamente a sus vecinos. d) Vidrios de espín. Los espines apuntan en direcciones aparentemente al azar, pero fijas al paso del tiempo. Para poder diferenciar entre los casos a) y b) necesitamos observar ambos sistemas durante un largo tiempo. 3) Ferromagnéticos. En estos materiales las interacciones entre los espines son tales, que éstos tienden a alinearse paralelamente. Debido a esto, a temperaturas bajas, esto es, cuando los efectos internos son mucho más importantes que los externos, hay en estos materiales una orientación única con la cual se reduce a su valor mínimo la energía del material. Esta orientación corresponde a todos los espines que apuntan exactamente en la misma dirección. 4) Antiferromagnéticos. En estos materiales, las interacciones entre los espines tienden a alinearlos antiparalelamente. Como resultado, a bajas temperaturas y en ausencia de un campo magnético externo, habrá una configuración única de mínima energía. En este estado del sistema, todos los espines apuntan alternadamente hacia arriba y hacia abajo, y el material no exhibe magnetismo a nivel macroscópico. 5) Vidrios de espín. En este tipo de materiales encontramos que algunos pares de espines van a reducir su energía si se alinean paralelamente, mientras que otros lo van a hacer cuando sus posiciones sean antiparalelas. Dado que cada espín interactúa con muchos otros espines, algunos de "sus compañeros" le pueden "pedir" que se alinee en una dirección y otros en otra. Una consecuencia será que no todos los espines se puedan poner de acuerdo y que a temperaturas bajas no habrá una, sino muchas configuraciones diferentes que correspondan a estados de energía mínima. Para cada una de estas configuraciones tenemos que no todos los pares de espines contribuyen a reducir la energía libre; entonces se dice que los pares que no contribuyen se encuentran frustrados. Por consiguiente toda configuración de mínima energía contendrá muchos pares frustrados, diferentes en cada caso, ya que no será posible hacer que todos ellos contribuyan simultáneamente a reducir la energía del sistema.

76 / 99

Durante la década pasada y principios de ésta, los vidrios de espín atrajeron el interés de muchos científicos debido a que presentan propiedades para las cuales no se encontraba explicación.27 Actualmente se entiende bastante bien su comportamiento, y se sabe que la frustración desempeña un papel central en éste. Todo el trabajo de investigación realizado en este campo nos ha permitido entender otros problemas análogos, que tienen en común la presencia de frustración; éstos son los problemas complejos. Los vidrios espín serán el foco de nuestra atención debido a la propiedad de que su energía libre posee muchos mínimos. Por tanto, más adelante volveremos a tocar este tema para explicar con mayor detalle sus propiedades. MODELO MATEMÁTICO DE LOS SISTEMAS MAGNÉTICOS Para poder predecir las propiedades de los materiales magnéticos es necesario, primero, hacer un modelo o idealización que describa dichos materiales de una manera simple pero sin dejar de lado las características esenciales del sistema, y segundo, hacer los cálculos pertinentes para ese modelo dentro del marco de la mecánica estadística. Una vez que se han seguido estos dos puntos, se confrontan los resultados de los cálculos matemáticos con los resultados obtenidos experimentalmente. Esta comparación nos permitirá evaluar si el modelo logró captar las características fundamentales del sistema a estudiar, y nos aportará nuevos elementos que permitirán confirmar, modificar o desechar el modelo. Existen varios modelos para describir los materiales magnéticos. Nosotros utilizaremos el llamado modelo de Ising, según el cual los espines pueden orientarse únicamente a lo largo de dos direcciones: hacia arriba o hacia abajo. Para explicar la idea de este modelo, dividiremos mentalmente el material que queremos describir en bloques pequeños, de manera que en cada bloque se encuentre localizado un espín. Matemáticamente, denotaremos al espín que se encuentra en el lugar i-ésimo por medio de la cantidad Si, la cual podrá tornar dos valores: +1 si el espín apunta hacia arriba, y -1 si apunta hacia abajo. Llamaremos configuración a cada uno de los posibles arreglos o combinaciones de estados de los espines (véase la figura 43). La función que representa la energía total del sistema se denomina hamiltoniana y está dada por la ecuación:

H= -  J ij S i S j - h  S i , ( ij )

i

(1)

en donde j es otro índice mudo, esto es, toma (de uno por uno) todos los valores entre 1 y N; Jij representa la magnitud de la interacción existente entre los espines i yj. Por otro lado, el símbolo  , presente en el primero y segundo términos de la ecuación (1), significa que debemos sumar, sobre todos los pares de espines y sobre todos los espines respectivamente.

77 / 99

Figura 43. Este diagrama ilustra lo que sería el modelo de Ising para una pequeña muestra hipotética del material magnético. El valor de i indica el número de cuadro dentro del material, y el valor de S nos dice la orientación que tiene el espín localizado en dicho lugar. 1

La ecuación que acabamos de escribir nos dice lo siguiente: la energía total del material está dada por la suma de las energías de interacción de cada uno de los pares de espines (i, j), más la energía de acoplamiento del sistema con el campo magnético externo h. Es decir, si conocemos el valor de las interacciones {Jij}, el uso de esta ecuación nos permitirá calcular la energía total que corresponde a cualquier configuración particular. Debe notarse que el valor de las interacciones entre los espines es fijo y depende del material; por otro lado, de acuerdo con el principio de mínima energía, los espines tienden a orientarse de manera que la energía total del sistema, representada por H, sea mínima. Si pudiéramos dibujar el valor de H para cada uno de los estados posibles, tendríamos una gráfica en N dimensiones; en ella podríamos observar que para algunos conjuntos de valores de {Si}, H toma valores muy altos, lo cual nos indica que dichas configuraciones serán muy poco probables debido a que tienen energías altas. De la misma manera, de acuerdo con este principio, las configuraciones o estados para los cuales H toma su valor mínimo son los estados más naturales para el sistema. La figura 44 muestra de manera esquemática el valor de H para diferentes configuraciones.

78 / 99

Figura 44. A partir de cualquier "estado inicial", el sistema evolucionará hacia estados de energía cada vez menor. El modelo de Ising puede ser utilizado, con mayor o menor éxito, para describir cualquier tipo de material magnético, siempre y cuando el conjunto de interacciones {Jij} tomen los valores adecuados. Para facilitar esta explicación, vamos a considerar el caso en que no hay ningún campo magnético externo; esto es, tomaremos h = 0. Si suponemos que la interacción Jij toma un valor J, mayor que cero, cuando los espines localizados en los lugares i y j son contiguos, y vale cero en cualquier otro caso, entonces podemos observar lo siguiente: la configuración {Si} para la cual H toma su mínimo valor posible, se da cuando todos los espines apuntan a lo largo de la misma dirección; esto es, cuando todos valen +1, o equivalentemente, si todos valen -1 (véase la ecuación (1). Si el material se encuentra en este estado, entonces todos y cada uno de los pares contribuyen a reducir el valor de la energía. Ahora supongamos que Jij toma el valor -J, (con J>0), si los lugares i y j son vecinos, y el valor cero en cualquier otro caso. En esta ocasión, tenemos que el valor mínimo que H puede tomar corresponde al caso en que los espines apuntan en direcciones alternadas. Esto se representa matemáticamente con Si = +1, Sj = -1, de manera que la contribución de cada par (i, j), dada por el producto Jij X Si X Sj, tiene un valor mayor que cero, con lo cual dicho par contribuirá a la reducción de la energía. En los dos casos anteriores, si queremos construir mentalmente la configuración de mínima energía, entonces tenemos que una vez escogida la dirección de uno de los espines, la dirección del resto quedará determinada. Así, hemos visto que la ecuación (1) describe materiales ferromagnéticos o antiferromagnéticos cuando las interacciones Jij tienen un valor mayor, o menor que cero, respectivamente. Pero, ¿qué sucede si algunas interacciones tienen valores positivos y otras negativos? Como mencionamos anteriormente, existen algunos materiales en los cuales no es posible que todos los pares de espines contribuyan simultáneamente a reducir su energía. Este es el caso de los vidrios de espín, los cuales pueden ser descritos con la ecuación (1) si algunas interacciones Jij tienen valores positivos y otras valores negativos. Esta mezcla matemática de interacciones positivas y negativas refleja el hecho de que a algunos pares les gusta alinearse paralelamente y a otros antiparalelamente. En estos materiales no podemos construir mentalmente una 79 / 99

configuración en la cual todos los pares de espines contribuyan a reducir la energía, ya que muy pronto llegaremos a contradicciones (véase la figura 45). Por esto no habrá una configuración única, de energía mínima. La figura 45(a) muestra una de las seis posibles configuraciones de mínima energía para un sistema hipotético, compuesto de tan solo tres espines. En el caso de un material magnético con frustración, el número de estados de energía mínima aumenta, muy rápidamente, en función del número de espines (para sistemas con frustración). ¡Y los materiales reales tienen del orden de 10 espines!

23

Pero si hay muchas configuraciones de energía mínima, ¿cuál de ellas será la que "escoja" el sistema? ¿Hacia cuál de ellas evolucionará? En las secciones subsecuentes trataremos de dar respuesta a esta pregunta. UN CAMINANTE EN UNA REGIÓN MONTAÑOSA Supongamos que un caminante, un poco corto de vista, con muy mala memoria y muy flojo, sale a dar un paseo por el campo en una región montañosa. Sabemos que el esfuerzo que esta persona necesitará hacer será mayor si asciende que si desciende. De manera que si caminara sin intención de llegar a algún lugar en particular, esto es, de una manera un tanto azarosa, y quisiera hacer el menor esfuerzo posible, optaría siempre por descender. También supondremos que la única fuente de energía de este singular caminante es su energía potencial (= masa X gravedad X altura), y que además arrastra tanto los pies que pierde toda su energía conforme va descendiendo. Si en un momento dado quisiéramos dar una descripción de la posición del caminante, podríamos proporcionar la altitud del lugar en donde se encuentra como función de la latitud y la longitud de aquel lugar.

Figura 45. Este esquema nos muestra dos de los 2 =8 posibles estados en un pequeño sistema hipotético compuesto por tres espines. Dos de los pares existentes interactúan 3

80 / 99

ferromagnéticamente (+J) y el tercero, antiferromagnéticamente (J). a) Nos muestra una de las seis configuraciones de mínima energía, con H = - J(podemos observar que únicamente un par está frustrado). b) Nos muestra una de las configuraciones de energía mayor, con H = 3j; en este caso los tres pares de espines se encuentran " en desacuerdo".. Esta persona podría caminar y caminar, y siempre hacia abajo, llegando a regiones cada vez más profundas. Por ejemplo, podría ir caminando dentro de un cañón que tuviese una salida en alguna dirección, y probablemente esa salida lo llevaría a regiones aún más profundas. Otras veces podría escoger entre dos o más direcciones igualmente descendentes, ya que podría haber valles dentro de los valles, pero tarde o temprano llegaría a un lugar profundo rodeado de regiones todas más altas que éste, esto es, se encontraría en el fondo de un valle. El lugar final donde el caminante terminaría su recorrido, o sea el fondo de un valle particular, dependería de manera importante, aunque no exclusivamente, del lugar donde el explorador iniciara su caminata (Figura 46), ya que en ocasiones existen varios caminos igualmente descendentes que lo podrían conducir a diferentes valles. Con respecto a la geografía del lugar, si el sujeto no conociera la región ni llevase mapas, y se encontrara en el fondo de un valle, no tendría manera de saber si ese valle es el lugar más profundo del área, o si más allá de las montañas existen lugares aún más profundos que éste. De manera que para él no tendría sentido hablar de la profundidad o altura absoluta del lugar donde se encuentra. Tampoco tendría forma de saber cuántas cimas de montañas existen, ni cuántos valles, ni cuántos cañones, ni de qué manera se encuentran éstos distribuidos. Sólo tendría un conocimiento local de la región, ya que lo único que el caminador puede saber es que está en un lugar profundo rodeado de montañas más altas. Además debemos tener presente que el tipo tiene muy mala memoria, por lo que es incapaz de recordar la geografía de los lugares previamente recorridos, y que su vista no le permite ver a lo lejos. Una vez que el caminante se encontraba en el punto más bajo de un valle, tendría que resignarse a permanecer indefinidamente en dicho lugar. Tal vez invirtiendo un poquito de energía sería capaz de subir una pequeña colina para después encontrarse con un valle mucho más profundo. Sin embargo esto él no lo sabe, por lo que quedaría atrapado a menos que sucediese alguna de las posibilidades siguientes: i) que tuviese la energía física necesaria para hacer un esfuerzo mayor (la cual sería mayor cuanto más altas fuesen las montañas que rodean a este lugar), o ii) que fuese rescatado y llevado a otra región, por ejemplo, por un helicóptero. Pero dado que esta persona no está dispuesta a hacer ni el más mínimo esfuerzo, pensamos que la segunda posibilidad sería la única factible.

81 / 99

Figura 46. El caminante llegará, tarde o temprano, a un lugar profundo rodeado de regiones más altas. Ahora podemos volver a pensar en la función hamiltoniana y hacer una analogía entre la geografía de una región montañosa y el espacio de configuraciones de un sistema físico con frustración, ya que la hamiltoniana es también una función que puede tomar valores altos o bajos, para diferentes configuraciones. Esta analogía nos será útil para dar una visión general de las ideas presentes. EL ESPACIO DE ESTADOS Como dijimos anteriormente, dado un sistema magnético, su hamiltoniano nos da el valor de la energía para cada configuración posible. Esto es, dada una configuración o arreglo de espines es posible, en principio, calcular el valor de la energía correspondiente a dicha configuración. De manera que si tuviésemos una paciencia infinita, y una vida aún más larga que nuestra paciencia, podríamos calcular la energía para cada uno de los estados posibles del sistema. (Este número está dado por 2 donde n es el número de espines en el material, el cual es a su vez ¡del orden de 10 !) En este caso, tenemos un espacio de N dimensiones, ya que podemos variar el estado de N espines, y no dos variables como en el caso del caminante en que se pueden variar su latitud y longitud únicamente. Suponiendo que pudiésemos hacer dibujos Ndimensionales, con los resultados obtenidos podríamos graficar el valor de la energía, lo que correspondería a la altura de las montañas del caso anterior, como función de cada uno de los estados posibles del sistema. Para completar la analogía, diríamos que el caminante parado en un lugar de la región montañosa correspondería a que el sistema magnético se encontrase en el estado caracterizado por el valor de todos sus espines en ese momento. De esta manera, un paso del caminante equivaldrá a invertir la dirección en que apunta alguno de los espines del material: si el paso es ascendente, en horizontal, o hacia abajo, esto corresponderá al aumento, mantenimiento o disminución de la energía, para este nuevo estado. 28

n

23

Si colocamos al caminante en un lugar arbitrario de la región y le pedimos que vague a su antojo, con la restricción de que haga el menor esfuerzo posible, muy probablemente éste terminará en el fondo del valle dentro de cuya cuenca se encontraba inicialmente. Por lo cual, para este efecto es completamente irrelevante si existen otros valles más 82 / 99

profundos más allá de las montañas. De la misma manera, si tenemos un vidrio de espín en un estado inicial arbitrario, cuya energía no es mínima, entonces cada espín, bajo la presión de sus vecinos, variará su orientación de manera que su estado concuerde con la petición de un número cada vez mayor de vecinos. Así, el sistema evolucionará de manera natural, hasta llegar a un estado que tenga energía mínima, y en el cual quedará atrapado. La geografía del lugar que hemos descrito, junto con el hecho de que para ir de un estado a otro es necesario pasar por los estados intermedios, explican la gran dependencia de la historia que tienen tanto el caminante como el vidrio de espín, (relación entre el estado inicial y el final). Esto se ilustra figura 47. El continuo descender del caminante, o equivalentemente, el aumento en el número de pares de espines que concuerdan, corresponderá a la evolución natural del sistema hasta estados de energía cada vez menor, y por tanto, cada vez más probables. Decimos entonces que cada uno de los mínimos actúa como un atractor; la importancia de un mínimo será mayor mientras mas grande sea su cuenca de atracción. Así, veremos que un valle muy grande tiene mayor probabilidad de ser visitado que una pequeña hondonada en el camino. A los materiales ferromagnéticos y antiferromagnéticos les corresponde una geografía en la cual hay únicamente un valle o una cuenca de atracción, por lo que no resulta difícil predecir dónde terminara el paseo. En el primer caso, este mínimo corresponde a un estado con todos los espines paralelos, y en el segundo, antiparalelos. Por el contrario, en el caso de los vidrios de espín tenemos que debido a la presencia de frustración, existe un número muy grande de montañas y valles.

Figura 47. El sistema permanecerá en un estado de energía mínima (localmente), independientemente de que existan estados de energía aún menor, si para llegar a éstos necesita aumentar su energía. Desafortunadamente, la imagen de una persona caminando en una región montañosa trae consigo la idea de lugar en el espacio real, lo cual puede prestarse a confusiones. Debemos recordar que en el caso del material magnético, su hamiltoniano nos da la energía como función del estado del sistema, y no como función de la ubicación de los espines, por lo que dos estados serán cercanos si la mayor parte de los valores de las variables Si coinciden en ambos. Todo esto, sin importar el lugar en que se localizan dichos espines.

83 / 99

Otra característica de nuestro sistema magnético consiste en que su estado total, descrito de acuerdo con el hamiltoniano, es función del estado de todos los espines. Por otro lado, dado que el número de espines en el material es muy grande (del orden de 10 ), si en un momento dado se removieran algunos de ellos, sin perturbar al material de alguna otra manera, su estado general no se afectaría de manera notable. Esta característica no tiene paralelo en nuestra descripción geográfica debido a la diferencia de la dimensión de ambos sistemas. 23

La ecuación (1) nos permite obtener predicciones de algunas propiedades físicas del sistema por ella descrito; para lo cual, afortunadamente, no es necesario llevar a cabo el trabajo de obtener el valor de la energía para cada uno de los estados posibles a fin de "reconstruir la geografía" y después encontrar los estados de energía mínima. Esto se debe a que contamos, por un lado, con las herramientas de la mecánica estadística,29 la cual estudia las características globales de un sistema a partir de las características individuales de sus componentes, y por otro lado, con la simulación numérica (simulación de una situación utilizando la computadora).

84 / 99

I X .

C O M P U T A D O R A S N E U R O N A L E S

EN CAPÍTULOS anteriores mencionamos que la computación ha tomado un nuevo rumbo, y que se ha empezado a trabajar en la creación de computadoras con habilidades para la solución de los problemas complejos. En este capítulo tenemos tres objetivos: primero, quisiéramos explicar las bases de los modelos de física estadística, que se han introducido con el objeto de describir y entender algunas de las propiedades colectivas de un arreglo de neuronas interconectadas; en segundo lugar, quisiéramos revisar, desde esta nueva perspectiva, algunas características de las memorias asociativas, y por último quisiéramos comentar acerca de algunos progresos que se han hecho en la construcción de redes neuronales artificiales. MODELO DE VIDRIO DE ESPÍN PARA REDES NEURONALES Denominaremos red neuronal a un conjunto compuesto por un número muy grande de neuronas interconectadas. Ahora contamos con las herramientas matemáticas y los conceptos físicos necesarios para introducir el modelo de vidrio de espín para redes neuronales, el cual nos permitirá estudiar algunas de sus propiedades colectivas. Únicamente se requiere hacer algunas simplificaciones, que a continuación mencionamos, a propósito de las neuronas y de sus conexiones. Aunque existe una gran variedad de formas y especializaciones entre las neuronas, básicamente su función puede resumirse en la generación y envío de señales eléctricas (Figura 48); por lo anterior, tomaremos a cada una de las neuronas como entes con dos estados posibles, ya que pueden estar activas o inactivas. Estas neuronas están en contacto, unas con otras, de manera que reciben señales provenientes de otras neuronas a través de las sinapsis. La interacción entre las neuronas podrá ser excitadora, si incita a la neurona a la actividad, o inhibidora, si tiende a mantenerla en reposo. Finalmente, la red neuronal recibe señales del exterior a través de las células receptoras. De esta manera, cada neurona, promediará las señales que recibe, y si la señal resultante tiene una magnitud mayor que un cierto umbral característico, entonces ajustará su estado emitiendo una señal de respuesta (Figura 49). En caso contrario permanecerá en reposo, esto es, no emitirá ninguna señal de respuesta. Si aceptamos estas simplificaciones, entonces podemos decir que una red de neuronas interconectadas podría ser descrita por el mismo hamiltoniano introducido en el capítulo anterior, si se escoge el conjunto apropiado de interacciones Jij. De esta manera, sabemos que todas las características que este hamiltoniano predice para los vidrios de espín tienen una contraparte en este modelo para las redes neuronales; en particular, la existencia de un espacio de configuraciones con un gran número de mínimos locales. Y como explicaremos a continuación, esta característica es precisamente que permite que un sistema tan simple como el que hemos descrito sea capaz de almacenar información. La figura 50 muestra un cuadro en el que se establece la analogía entre una red neuronal y un vidrio de espín, y se incluye la traducción entre los términos matemáticos utilizados en la descripción de ambos tipos de sistemas. 30

85 / 99

Figura 48. Aunque existe una gran variedad de formas y especializaciones entre las neuronas, básicamente su función pueda resumirse con generación y envío de señales eléctricas.

Figura 49. Las hileras de libros de esta figura muestran que los impulsos nerviosos son un evento del tipo todo o nada. Un estímulo si es demasiado débil, no producirá ningún efecto; pero si su "fuerza" está por encima de cierto umbral, entonces se generará un impulso nervioso. Si ahora hacemos el estímulo dos veces más intenso, tendrá el mismo efecto que el anterior. Físicamente, el hecho de que para una red de neuronas se prediga una energía" con muchos mínimos, se debe a que cada neurona recibe señales provenientes de un número muy grande de otras neuronas, algunas de las cuales pueden ser excitadoras y otras

86 / 99

inhibidoras. Sin embargo, la neurona no puede excitarse e inhibirse simultáneamente, por lo que "suma" las señales de entrada. Si la señal total es más fuerte que un cierto umbral, entonces la neurona se excita y emite una señal de respuesta; en caso contrario, la neurona permanece inactiva. De esta manera, podemos decir que siempre habrá un gran número de ''pares frustrados'' de neuronas, debido a que dichos pares no contribuyen a reducir la energía total de la red.31 La frustración existente en la red ocasiona que haya muchos estados "naturales o de energía mínima. En un momento dado, la evolución hacia uno y otro de estos estados naturales dependerá, en gran medida, del estado neurofisiológico previo (conjunto de los estímulos recibidos, tanto del interior como del exterior del organismo), de la misma manera que nuestro caminante arribará a uno u otro valle dependiendo del lugar donde inició su caminata. Según este esquema, los procesos de reconocimiento y aprendizaje consisten en lo siguiente. Continuamente nuestro cerebro recibe una gran cantidad de información. Esta información es adquirida a través de las neuronas receptoras (vía nervio óptico, neuronas sensoriales, terminales olfativas, etcétera), y su función es llevar al cerebro a un cierto estado al que llamaremos "estado inicial" (estos estímulos actúan como el helicóptero que traslada al caminante de una región a otra). A partir de ese momento se lleva a cabo un proceso de "relajamiento", por medio del cual el estado del cerebro evoluciona hacia estados cada vez "más naturales", hasta llegar a algún estado cercano de energía mínima;32 esto es, reconocemos. De esta manera, ciertas imágenes visuales, sensaciones táctiles, sonidos, olores, nos evocan personas, hechos, situaciones; conocimientos adquiridos anteriormente y relacionados de alguna manera con la señal que los "provocó". Mientras esto sucede, las "montañas", "collados", "valles", de nuestro espacio de estados ser modifican a través de un proceso continuo de aprendizaje y de ajuste a las condiciones externas, ya que en todo momento estamos interactuando con el medio ambiente y somos retroalimentados por éste. Esto es, el aprendizaje consiste en el proceso por medio del cual las interacciones sinápticas se modifican, de manera que un estado en particular se convierte en un estado de energía mínima, y por lo tanto, en un estado "atractivo".

Figura 50. Esta tabla resume la analogía matemática entre una red de neuronas interconectadas y un vidrio de espín. 87 / 99

Este modelo nos permite tener una visión cualitativa acerca del carácter de los mecanismos relacionados, a nivel global, en los procesos de aprendizaje y remembranza. Sin embargo, aunque en principio es aplicable al cerebro o al sistema nervioso como un todo, en la práctica, si deseamos hacer cálculos matemáticos, es imposible considerar explícitamente las diferencias existentes en la arquitectura de las conexiones neuronales, en una y otra región del sistema nervioso. Por lo anterior, nos encontramos con que para poder tratar matemáticamente este modelo es necesario introducir una especie de "anatomía promedio" con la cual se desprecian estas diferencias.33 Por otro lado, este modelo puede ser aplicable a regiones grandes de tejido nervioso, por ejemplo a la corteza cerebral. En este caso entenderíamos por estímulos externos, cualquier estímulo proveniente de neuronas ajenas a esta región. Como explicamos previamente, en los materiales magnéticos el valor de las interacciones no varía como función del tiempo y depende del material mismo. Por el contrario, en el caso de la red neuronal, las interacciones sinápticas dependen de varios factores. A saber: la herencia, el medio ambiente y el aprendizaje. Una parte importante de la investigación a realizar consiste en encontrar de qué manera se determinan estas interacciones, y expresarla matemáticamente en forma de una regla de aprendizaje. Han sido propuestos varios modelos matemáticos para las reglas de aprendizaje, la mayor parte de los cuales son variantes de una regla propuesta por Hebb en 1949. Esta regla nos dice que el cambio en la interacción sináptica entre dos neuronas es proporcional a la correlación entre la actividad de las neuronas pre y postsináptica. La concepción de la memoria como una propiedad colectiva de una red de neuronas interconectadas, que tiene origen en la frustración, nos proporciona la mejor explicación que tenemos hasta este momento acerca de los procesos de aprendizaje y remembranza, en seres vivos. Por otro lado, ha sido de gran utilidad en la construcción de memoria artificial. MECANISMOS DE RECONOCIMIENTO Y APRENDIZAJE Hasta este momento, hemos logrado ya exponer nuestra tesis acerca de cuál es el mecanismo probable por medio del cual se almacena la información en el cerebro humano (y en general, en el sistema nervioso). Podríamos resumir esta tesis de la siguiente manera: 1) Cada percepción o evocación mental está relacionada con un estado neurofisiológico, en el cual participan, colectivamente, un gran número de neuronas; por lo cual basta con repetir el estado neurofisiológico para evocar la percepción correspondiente. 2) El proceso de evocación mental o remembranza consiste en un proceso de relajamiento, regido por las leyes de la física, en el cual el estado del cerebro evoluciona hacia estados de "energía libre" cada vez menor. 3) La geografía del espacio de estados está determinada por el conjunto de las interacciones sinápticas, y los estados memorizados corresponden a estados de energía mínima. Es por lo anterior que al cerebro "le gusta" encontrarse en dichos estados. 4) El proceso de aprendizaje consiste en el establecimiento de nuevas conexiones sinápticas entre las neuronas, y la modificación funcional o estructural de las ya existentes. De manera que la "geografía" del espacio de estados cambia, con lo cual se crean nuevos mínimos o varía el tamaño de sus cuencas. Esto es, se adquiere nueva información o se refuerza u olvida la ya almacenada.

88 / 99

5) Las conductas no aprendidas, esto es, innatas, reflejas o instintivas, corresponden a conexiones determinadas por la herencia. 6) Las sensaciones son un vehículo utilizado para "colocar" al cerebro en un estado neurofisiológico, a partir del cual se inicia el proceso de relajamiento que lleva a recordar. 7) La estructura del espacio de estados se modifica constantemente, debido a la continua interacción con el medio y a los procesos de ajuste a éste. Por supuesto que este conjunto de suposiciones no proporciona una explicación a todas las características del funcionamiento de la mente, sino que, más bien, nos proporciona el marco conceptual en el que deberá llevarse a cabo la investigación posterior. Por ejemplo, no nos da explicación alguna acerca del proceso de inferencia, de la diferencia entre las actividades conscientes e inconscientes, del procesamiento explícito de la información que transforma a las sensaciones en percepciones, etcétera. Sin embargo, nos ofrece una explicación cualitativa acerca del tipo de mecanismos que intervienen en los procesos de aprendizaje y remembranza. VOLVIENDO A LA MEMORIA HUMANA Aunque aún quedan muchas dudas por responder, estas ideas son consistentes con la forma en que recordamos. Esto es, con el hecho de que almacenamos información por contenido, y que recordamos y reconocemos mediante el uso de asociaciones de ideas. Para ilustrar lo anterior, podemos divagar y tratar de interpretar algunas situaciones de la vida diaria en términos de estas nuevas ideas.34 ocurrirán algunos otros ejemplos importantes.

Seguramente al lector se le

A veces tenemos recuerdos pasajeros que de pronto "se nos escapan", y pasamos algún tiempo tratando de recordar sin conseguirlo. Esto lo podríamos interpretar como información almacenada en un valle poco profundo, de manera que cualquier otro estímulo funciona como una perturbación que distrae y hace que la idea se pierda (véase la figura 51(a)); lo cual equivale a dar un empujón al caminante lo suficientemente fuerte como para que éste salga del pequeño agujero en el que se encontraba. Un procedimiento que utilizamos a menudo para volver a recordar tales ideas que se nos "acaban de escapar, consiste en tratar de reproducir el ambiente y sensaciones presentes en el momento en que se originó la idea (conversación, posición, etc.), con el objeto de volver a llegar a ella. Lo cual corresponde a tratar de reproducir la "condición inicial" que nos provocó el recuerdo. En capítulos anteriores mencionamos que el trabajo de recordar explícitamente "todos y cada uno" de los recuerdos que tenemos, es una actividad incompatible con la manera en que almacenamos información. Ahora podemos justificar esta opinión: los seres vivos no almacenamos información de una manera explícita. Lo que hacemos es modificar las interacciones entre las neuronas de manera que ciertos estados neurofisiológicos se vuelven predilectos, con lo que se logra una tendencia natural del organismo a evolucionar hacia ellos. Estos estados se recordarán si la información que llega al cerebro en un momento dado es tal que lo sitúa en un estado lo suficientemente cercano a ellos. Por tanto, aunque cualquier información particular almacenada puede ser recuperada, es imposible recordar todo, ya que no hay manera de garantizar que el estado neurofisiológico del cerebro pasará lo suficientemente cerca de todos y cada uno de los recuerdos, como para ser "atraído" por éstos (habrá recuerdos con cuencas muy pequeñas o de difícil acceso). 89 / 99

Figura 51. Representación esquemática de varios tipos de ideas. a) Una idea que " se escapa" a causa de una perturbación (distracción), debido a que se trata de un valle poco profundo; b) una obsesión estaría caracterizada por tener una cuenca de atracción muy amplia; c) una idea difícil de recordar, debido a que no muchos estados iniciales conducen a ella. Cualquier información particular "almacenada" en nuestra memoria es en principio recuperable; aunque en muchas ocasiones sea difícil encontrar una ruta de acceso a ella. Cuando no podemos recordar dicha información, el olvido no es un olvido real, sino una falla temporal debida a la incapacidad de encontrar la información en un momento dado. Esto es, no encontramos una "ruta de acceso" a ésta. A veces pasamos un largo periodo tratando de recordar algún dato; tiempo después, la información es recordada súbitamente debido a que continuábamos buscándola a nivel inconsciente. De igual manera, muchas veces "olvidamos" hechos importantes de nuestra vida, debido a que nos hacen daño. Esto lo hacemos como un mecanismo de defensa ante las frustraciones y situaciones dolorosas. Sin embargo, lo que hacemos no es olvidarlos realmente, sino que perdemos el acceso a dichos recuerdos. Algunas veces es tan difícil el acceso a ellos, que se hace necesario recurrir a técnicas, como el psicoanálisis o la hipnosis, para poder recordarlos. Es por eso que uno de los objetivos del psicoanálisis consiste en recordar, analizar y racionalizar hechos y situaciones que nos causan daño, con el objeto de que sean asimilados a nivel consciente por el individuo, y dejen así de producir ansiedad. Cuando deseamos aprender algún dato "de memoria", si no existe una correlación natural entre el dato a aprender y nuestros conocimientos, entonces debemos recurrir al uso de reglas mnemotécnicas. Estas reglas consisten en establecer relaciones entre diversas ideas, de manera que se logra una ruta, fácil y conocida, de acceso a cierta información. En los ancianos se observa la pérdida de la habilidad para memorizar nueva información; sin embargo la memoria antigua, la cual se encuentra bien consolidada, se mantiene intacta. Este fenómeno encuentra una explicación en el hecho de que, debido a la edad, se dificulta la modificación de las eficiencias sinápticas. Las propiedades de la percepción han sido utilizadas por los psicólogos para explorar la personalidad de los pacientes. Por ejemplo, en el test de Rorschach se presenta al 90 / 99

paciente una serie de manchas de tinta, sin significado alguno, y se le pide interpretarlas. Como las manchas carecen de sentido, los individuos se ven obligados a imaginar posibles interpretaciones, y al hacerlo revelan sus conflictos y motivaciones más profundas. Por ejemplo, para el que tiene miedo una sombra puede ser confundida con un hombre al acecho, y para una persona obsesionada por el sexo cualquier forma imprecisa puede cobrar un significado erótico. De igual manera, la libre asociación de ideas constituye una herramienta muy importante en la interpretación de los sueños. En ambos casos, la explicación de estos fenómenos se encuentra en que nuestras obsesiones están relacionadas con muchos aspectos de nuestra vida. Podríamos ver las obsesiones como recuerdos con cuencas de atracción muy amplias, las cuales cubren una gran proporción de los estados posibles, de manera que un gran número de estímulos sensoriales conducen a ellas (véase la figura 51(b)). Esto hace que las obsesiones sean ideas difíciles de apartar de nuestra mente. También podríamos tratar de reinterpretar con base en estas ideas algunas enfermedades, como la esquizofrenia. En los casos en que se produce un desdoblamiento de la personalidad, esto correspondería, tal vez, a una separación del "espacio de estados", originada por la presencia dé una gran barrera; de manera que el acceso de una a otra región sea muy improbable. Esto propicia que sea difícil pasar de una región a otra, y que haya ciertas situaciones concretas que propicien este paso. Asimismo, puesto que algunas drogas modifican temporalmente la transmisión sináptica, tienen como efecto la alteración de la percepción del individuo. REDES NEURONALES ARTIFICIALES Algunas personas califican a los modelos de física estadística para redes neuronales de meras metáforas. Sin embargo creemos que se trata de más que una metáfora, ya que se ha demostrado que la frustración puede actuar como un mecanismo que permite el almacenamiento de información en una red constituida por elementos simples, con dos estados posibles, que interactúan entre sí. La prueba más palpable de que esto sucede la constituyen los logros recientes en la construcción de redes neuronales artificiales, acerca de los cuales hablaremos a continuación. Existen muchas variantes de redes neuronales, también llamadas "modelos conexionistas". Sin embargo, todas tienen una estructura similar: están formadas por un gran número de procesadores simples, ya sea con dos estados posibles o con varios niveles de actividad.35 Estos elementos están agrupados, de manera que los elementos en un grupo se encuentran interconectados entre sí; por otro lado existen conexiones entre diferentes grupos, o capas. Todas estas conexiones son modificables, con el objeto de que la red presente el comportamiento deseado. La operación de las redes neuronales consiste de dos etapas, que pueden presentarse solas o combinadas. Estas son: i) la etapa de aprendizaje,36 durante la cual el valor de las interacciones es variado de acuerdo con la experiencia o "entrenamiento" proporcionado, con base en alguna regla de aprendizaje; y ii) una vez que las conexiones están establecidas, la red debe ser "estimulada" de manera que lleve a cabo el trabajo que uno desea, esto se logra alimentando a la red con un estado inicial, a partir del cual la red procede a encontrar la información deseada. Además del tipo de computadoras con arquitectura "neuronal", existe la posibilidad de "simular" estas redes mediante el uso de programas que operan en computadoras

91 / 99

convencionales. Esto es, se hace un programa en el que se definen los elementos base tipo neurona, y se supone una regla de aprendizaje; esta regla da un valor para las interacciones entre las neuronas, como función de los datos administrados a la máquina. La rapidez de operación y capacidad obtenidas mediante el uso de estos programas son mucho menores que las que se lograrían mediante el uso de una computadora neuronal (red neuronal implementada en circuitería). Sin embargo, aunque estos programas son lentos, dan resultados más satisfactorios que los logrados con algoritmos complicados. Por otro lado, constituyen una opción económica con respecto a las computadoras con arquitectura neuronal, ya que no es necesario comprar una nueva computadora de uso específico. Un ejemplo concreto de la eficiencia de las redes neuronales nos lo dan los programas cuyo propósito es la conversión de texto escrito a inglés hablado (con ayuda de un sintetizador de voz). En este sentido el idioma inglés presenta un gran reto, ya que aunque cuenta con muchas reglas fonéticas, estas reglas tienen un gran número de excepciones y casos particulares. Por otro lado, lo ideal sería que la computadora "leyese de corrido", lo cual hace que se requiera gran rapidez en el procesamiento de la información. A lo largo de varios años, fue desarrollado un paquete de software (para computadora tradicional) denominado DECtalk. Este sistema, aunque de una gran complejidad, fue capaz de llevar a cabo esta tarea de manera satisfactoria, esto es, con pequeños y ocasionales errores de pronunciación. Recientemente, se creó un nuevo sistema,37 llamado NETtalk, con el mismo objetivo. En este caso, a sus creadores les tomó menos de tres meses desarrollar, a partir de cero, un sistema que efectuara la misma tarea con una eficiencia similar. Resulta curioso, aunque predecible, que durante la etapa de entrenamiento del sistema éste cometía el mismo tipo de errores que los niños pequeños. Con respecto a las arquitecturas neuronales, ya han sido patentados varios modelos de éstas. En estas computadoras, cada "neurona" artificial constituye un elemento procesador que funciona independiente y simultáneamente a los demás. Las diferencias principales entre las computadoras tradicionales y las computadoras neuronales se resumen en la figura 52. EL FUTURO Como mencionamos en la introducción, la evolución de la ciencia y la técnica en los países capitalistas se ha llevado a cabo bajo las presiones de intereses políticos y económicos, principalmente. Dentro de este contexto, la creación de máquinas pensantes es de primordial importancia, debido a su potencial de comercialización y a su uso con objetivos militares. Podríamos decir que su rango de aplicaciones sería prácticamcnte ilimitado.

Computadoras Tradicionales

Útiles para precisas.

seguir

Computadoras Neuronales

instrucciones

Útiles para resolver problemas en lo que no es posible dar una receta precisa

92 / 99

Excelente para matemáticos

efectuar

cálculos

Se alimentan con programas; requiere del uso de algoritmos.

No muy confiables matemáticos.

se

para

efectuar

cálculos

Se alimentan con datos; no se requiere del uso de algoritmos.

No "aprenden "; su desempeño es siempre el mismo.

"Aprenden" mediante la inspección de datos; su desempeño mejora con la cantidad de información recibida.

No toleran errores.

Toleran errores.

No se "equivocan" (si acaso, el que se equivoca es el programador).

Pueden equivocarse.

No usan los datos guardados en su memoria, a menos que éstos sean explícitamente "llamados" por el programa.

Usa activamente, toda la información guardada en la memoria.

Su funcionamiento depende del buen funcionamiento de TODOS sus componentes.

Su funcionamiento no se ve alterado por la falla de un pequeño número de sus componentes.

Figura 52. Esta tabla compara las características de las computadoras convencionales y las computadoras neuronales. Lo anterior ha sido advertido por los gobiernos de los países poderosos, quienes apoyan de manera substancial proyectos institucionales y regionales cuyo propósito es la planeación de la investigación en este campo. Como muestra de lo anterior tenemos que Alemania (oeste) tiene un presupuesto gubernamental de 100 millones de dólares destinados exclusivamente al desarrollo de esta área; Japón tiene un programa llamado fronteras humanas, y la Comunidad Económica Europea ha creado un programa llamado BRAIN (investigación básica en inteligencia adaptativa y neurocomputación). 93 / 99

Por otro lado, a finales de 1988 la oficina de tecnología táctica del gobierno de Estados Unidos de América recomendó una inversión federal de casi 400 millones de dólares para investigación y desarrollo de redes neuronales. De igual manera, en estos países se han venido formando asociaciones científicas de investigadores activos y estudiantes interesados en estos proyectos. Estas asociaciones agrupan personas con diversas formaciones profesionales, que incluyen psicólogos, neurobiólogos, matemáticos, computólogos, físicos e ingenieros. También la iniciativa privada ha dedicado fuertes sumas de dinero para el desarrollo de sus propios proyectos de redes neuronales. Se calcula que para finales de 1988 había ya más de 200 compañías privadas en los Estados Unidos dedicadas a la fabricación de redes neuronales; por otro lado, cualquier revista de computación contiene una larga lista de anuncios relacionados con esta nueva tecnología que evoluciona día a día. Los cambios pequeños en las máquinas se dan mediante un proceso similar al de selección natural. Un fabricante introduce variaciones en su producto que lo hacen más útil o, al menos, más atractivo para el consumidor. Como resultado, el producto gana mercado a los productos elaborados por sus competidores. Estos últimos, para poder subsistir y recuperar mercados, deben innovar su producto introduciendo características análogas o superiores a las de los productos de los otros fabricantes. En este proceso muchas pequeñas compañías, incapaces de incorporar todos los avances tecnológicos, desaparecen. Otras compañías se consolidan y adquieren un lugar importante. Creemos que bajo toda esta presión, las redes neuronales tendrán un gran impulso en los años que se avecinan (Figura 53), y que esto repercutirá, aún más, en todos los aspectos de nuestra vida. Estas computadoras no substituirán a las computadoras convencionales, sino que las complementarán. De manera que podremos contar con computadoras híbridas, que utilicen uno u otro tipo de computación, dependiendo del problema, o de la parte del problema a resolver. Pero, ¿qué tan lejos nos encontramos de construir máquinas tan poderosas como el cerebro humano?

Figura 53. Se avecina la era de las computadoras neuronales. El cerebro humano tiene un número de conexiones del orden de 10 , transmite 10 impulsos eléctricos por segundo; por otro lado, el cerebro de una mosca trabaja enviando 10 señales por segundo. En comparación, la neurocomputadora TRW Mark V tiene 10 interconexiones y envía 1.6 X10 señales por segundo; y los programas de redes neuronales escritos para computadoras personales funcionan típicamente con 30 000 interconexiones que envían 25 000 señales por segundo. Como podemos ver a 15

9

7

7

94 / 99

16

partir de estas cifras, existe un abismo entre el cerebro humano y las neurocomputadoras. Aunque la tecnología de este nuevo tipo de computadoras está aún en su infancia, existe un gran entusiasmo y optimismo acerca de su futuro. Sin embargo, se considera muy remota la posibilidad de construir algo equiparable al cerebro humano. Según B. Widrow, director de la Sociedad Internacional de Redes Neuronales e inventor de un dispositivo tipo red neuronal utilizado para líneas de teléfonos de larga distancia, pasarán "más de mil años" antes de que se puedan construir cerebros sintéticos. Y usted, ¿qué cree?

95 / 99

B I B L I O G R A F Í A 1.INTRODUCCIÓN J.D. Bernal, La Ciencia en nuestro tiempo, UNAM/Ed. Nueva Imagen, México, 1979. Nueva Enciclopedia Temática, vol. VII. II. HISTORIA DE LA COMPUTACIÓN British Encyclopaedia, 15a edición, 1985. J.Hecht, Computers in Physics, vol. 1, núm. 1, PP. 44-49 (1987). The home study course in electronics and computers, GEJ Publishing Ltd., Londres, 1983. ITEC.

Nueva Enciclopedia Temática, vol. VII. III. PRINCIPIOS DE OPERACIÓN DE LAS COMPUTADORAS British Encyclopaedia, 15a edición, 1985. The home study course in electronics and computers, GEJ Publishing Ltd., Londres, 1983. ITEC.

Matemáticas en el mundo moderno, selecciones de Scientific American, Editorial Blume, 1974. Nueva Enciclopedia Temática, vol. VII. IV. SISTEMAS DE ARCHIVO Y BÚSQUEDA DE INFORMACIÓN Nueva Enciclopedia Temática, vol. VII. The home study course in electronics and computers, GEJ Publishing Ltd., Londres, 1983. ITEC.

*Las publicaciones marcadas con un asterisco son publicaciones especializadas. V. EL HOMBRE Y LAS MÁQUINAS PENSANTES James Burke, The day the universe changed, British Broadcasting Corporation, Londres, 1985. D.R. Hofstadter, Gödel, Escher, Bach: An eternal golden braid, First Vintage Books Edition, 1980. ITEC.

The home study course in electronics and computers, GEJ Publishing Ltd., Londres, 1983.

96 / 99

José Luis Pinillos, La mente humana, Biblioteca básica Salvat núm. 24, Salvat Editores, 1971. VI. EL CEREBRO Y LA MENTE British Encyclopaedia, 15a edición, 1985. James Burke, The day the universe changed, British Broadcasting Corporation, Londres, 1985. The Brain, A Scientific American Book (los capítulos aparecieron originalmente como artículos en la revista Scientific American de septiembre de 1979), W. H. Freeman and Company, San Francisco. Ciencia ilustrada, enciclopedia en fascículos, vol. 6, editor Victor Civita, Abril S.A. Cultural e Industrial, Brasil. *S. Grossberg, "Nonlinear Neural Networks: Principles, Mechanism, and Architectures", Neural Networks 1, p. 17, 1988. Cristina Piña, La física en la medicina, La Ciencia desde México, vol. 37, Fondo de Cultura Económica, 1987. Ricardo Tapia, Las células de la mente, La Ciencia desde México, vol. 30, Fondo de Cultura Económica, 1987. VII. MEMORIA Y APRENDIZAJE British Encyclopaedia, 15a edición, 1985. The Brain, A Scientific American Book (los capítulos aparecieron originalmente como artículos en la revista Scientific American de septiembre de 1979), W. H. Freeman and Company, San Francisco. Diccionario Enciclopédico Espasa, Ed. Espasa-Calpe, S. A., 1979. VIII. MATERIALES MAGNÉTICOS D. S. Fisher, G. M. Grinstein y A. Khurana, "Theory of Random Magnets", publicado en Physics Toda y, p. 56, vol. 41, diciembre de 1988. J. Tagueña y E. Martina, De la brújula al espín. El magnetismo, La Ciencia desde México, vol. 56, Fondo de Cultura Económica, 1989. IX. COMPUTADORAS NEURONALES J. A. Anderson, "Networks for fun and profit", publicado en Nature vol. 323, p. 406, julio de 1986. *T. Kohonen, "An Introduction to Neural Computing", publicado en Neural Networks, vol. 1, p. 3, 1988. *S. Grossberg, "Nonlinear Neural Networks: Principies, Mechanisms, and Architectures", Neural Networks, vol. 1, p. 17, 1988.

97 / 99

J. L. McClelland, D. E. Rumelhard & PDP Research Group, Parallel Distributed Processing, Cambridge, Massachusetts, MIT Press, 1986. H. Sompolinsky, "Statistical Mechanics of Neural Networks", publicado en PhysicsToday, p. 71, vol. 41, diciembre de 1988. S. Sutherland, "Parallel Distributed Processing", publicado en Nature, vol. 323, p. 486, octubre de 1986. D.W. Tank, J. J. Hopfield, "Collective Computation in Neuronlike Circuits", Scientific American, vol. 257, p. 104, diciembre de 1987.

98 / 99

C O N T R A P O R T A D A Hay quienes se alarman debido a que sienten que las computadoras están "reemplazando" al hombre en gran número de sus funciones. Lo anterior es cierto en parte, y cabe añadir que hasta ahora las computadoras son incapaces de hacer nada por sí mismas, únicamente siguen las instrucciones con que se las programa. Pero ¿continuará manteniéndose tal status?, se construirá algún día la computadora que, igual que el ser humano, "aprenda" de su experiencia y sea capaz de autoprogramarse? Este libro trata, en forma paralela, dos temas correlacionados: por una parte, de las computadoras, su evolución y sus métodos para manejar la información, y en segundo lugar de lo que sabemos o creemos saber acerca de los mecanismos mediante los cuales se lleva a cabo el almacenamiento y la evocación de la memoria en los seres vivos, poniendo de relieve, al referirse a cada tema, las similitudes y diferencias de estos procesos. Finalmente, menciona los intentos recientes de crear máquinas capaces de aprender, hacer generalizaciones y clasificar, cuyas memorias funcionen empleando mecanismos semejantes a los utilizados por los seres vivos, y analiza las perspectivas sobre las computadoras del futuro. En buena parte, este libro aborda asuntos de los que no se tiene una explicación definitiva y que han inquietado al hombre desde sus primeros tiempos —memoria, herencia, aprendizaje—, mas no intenta hacer una exposición profunda de las disciplinas anexas, ni dar "la" respuesta aún imposible, o por otra parte, sobre el funcionamiento de la mente humana. Exponer, de una manera sencilla y accesible, algunas ideas sobre la memoria natural y la artificial, que revisten gran interés, e introducir así al lector al tipo de modelos que la física ha empezado a desarrollar para estudiar algunos aspectos del funcionamiento del cerebro. Esto es, desea compartir con el lector las ideas e inquietudes de un grupo cada vez más grande de científicos que en la actualidad trabaja con gran entusiasmo en este campo. Laura Viana Castrillón hizo sus estudios de licenciatura en física en la Facultad de Ciencias de la UNAM, y obtuvo su doctorado en física teórica en la Universidad de Manchester, Inglaterra, con una tesis sobre los sistemas magnéticos desordenados. Radica en Ensenada, B.C., donde trabaja como investigadora de tiempo completo en el Instituto de Física de la UNAM. Diseño: Carlos Haces/Fotografía: Carlos Franco

99 / 99

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF