Resumen de Resumen de Gardner

November 7, 2016 | Author: Dan Scatman | Category: N/A
Share Embed Donate


Short Description

Howard Gardner...

Description

Resumen de Howard Gardner: The Mind’s New Science 1. Definición de ciencia cognitiva I define cognitive science as a contemporary, empirically based effort to answer longstanding epistemological questions –particularly those concerned with the nature of knowledge, its components, its sources, its development, and its deployment. Five features or aspects are generally associated with cognitive-scientific efforts, though not every cognitive scientist embraces every feature (the first two features incorporate the central beliefs of current cognitive science, the latter three concern methodological or strategic characteristics)1: 1. The belief that, in talking about human cognitive activities, it is necessary to speak about mental representations and to posit a level of analysis wholly separate from the biological or neurological, on the one hand, and the sociological or cultural, on the other. 2. The faith that central to any understanding of the human mind is the electronic computer. Not only are computers indispensable for carrying out studies of various sorts, but, more crucially, the computer also serves as the most viable model of how the human mind functions. 3. The deliberate decision to de-emphasize certain factors which may be important for cognitive functioning but whose inclusion at this point would unnecessarily complicate the cognitive-scientific enterprise. These factors include the influence of affective factors or emotions, the contribution of historical and cultural factors, and the role of the background context in which particular actions or thoughts occur. 4. The faith that much is to be gained from interdisciplinary studies. At present most cognitive scientists are drawn from the ranks of specific disciplines –in particular, philosophy, psychology, artificial intelligence, linguistics, anthropology, and neuroscience (I shall refer to these disciplines severally as the "cognitive sciences"). The hope is that some day the boundaries between these disciplines may become attenuated or perhaps disappear altogether, yielding a single, unified cognitive science. 5. The claim that a key ingredient in contemporary cognitive science is the agenda of issues, and the set of concerns, which have long exercised epistemologists in the Western philosophical tradition. To my mind, it is virtually unthinkable that cognitive science would exist, let alone assume its current form, had there not been a philosophical tradition dating back to the time of the Greeks.

2. El establecimiento de los fundamentos de la ciencia cognitiva El Hixon Symposium y el desafío al conductismo -Hixon Symposium (Septiembre de 1948): “Cerebral Mechanisms in Behavior”. 1 Estos aspectos determinan un parecido de familia, más que una definición en términos de condiciones necesarias y suficientes.

-Rango amplio de temas de discusión: comparación cerebro-computadora (von Neumann, matemático), paralelo entre sistema nervioso y “dispositivos lógicos” (W. McCulloch, matemático y neurofisiólogo). -Lashley (psicólogo): “The Problem of Serial Order in Behavior”: descubrimiento de los componentes necesarios para una ciencia cognitiva y ataque a las fuerzas que impedían su surgimiento. -Contexto disciplinar de la psicología de Lashley: (a) Comienzos de siglo: inserción de métodos experimentales en investigación psicológica, pero con predominio de la introspección (que no permitía la acumulación de conocimiento crucial para la ciencia). (b) Ataque conductista al introspeccionismo (Pavlov, Skinner, Thorndike, Watson, 1920s-1940s): i. Tesis 1: el psicólogo debe restringirse a métodos públicos de investigación, que cualquier científico pueda aplicar y cuantificar; ii. Tesis 2: el psicólogo debe enfocarse exclusivamente en la conducta, abandonando temas como la mente, el pensamiento, la imaginación, los planes, los deseos, los símbolos, las ideas, etc. iii. Supuesto: los individuos son reflectores pasivos de las fuerzas y factores del entorno, no actúan por sus propios eventos mentales internos. -Críticas de Lashley al conductismo: (a) Para que los descubrimientos sobre el cerebro o las computadoras impacten en la psicología es necesario confrontar el conductismo. (b) Cualquier teoría de la actividad humana debe explicar conductas complejas (especialmente las lingüísticas), que por su dificultad no han sido consideradas por el conductismo. (c) El marco teórico de la neurofisiología (cadenas asociativas simples entre estímulos y respuestas) no puede dar cuenta de conductas serialmente ordenadas, porque la velocidad de la conducta es mayor que la que requeriría la cadena causal, y porque ciertos errores en estas conductas muestran una anticipación a lo que debería seguirse según la cadena causal. Conclusión: las secuencias conductuales deben ser planificadas previamente, de manera jerárquica (comienza con planes más generales y se prosigue con los de grano más fino). La estructuración cerebral determina la manera en que el individuo responderá a un estímulo. (d) El sistema nervioso no está, como sostiene el conductismo, mayormente inactivo, y es falso que reflejos aislados se activan sólo cuando formas específicas de estímulos aparecen: el sistema nervioso consiste en un conjunto de unidades activas y organizadas jerárquicamente, en la que el control emana desde el centro, y el estímulo queda relegado a la periferia. Un momento crítico en la historia de la ciencia -Otros impedimentos para el cognitivismo: las escuelas filosóficas (positivismo, fisicismo, verificacionismo) que desdeñaban entidades inobservables e incapaces de medir; la intoxicación con psicoanálisis, que era incapaz de construir una ciencia a partir de entrevistas clínicas e historias personales retrospectivas, y constituía un campo no susceptible a la refutación; la destrucción del establishment científico europeo por parte del totalitarismo; el cambio de agenda del establishment científico norteamericano durante la segunda guerra mundial.

-Consecuencias positivas de la guerra: estímulo de ciertas actividades científicas y tecnológicas. Tuvo lugar el surgimiento de las computadoras, para realizar grandes cálculos. Hubo desarrollos de ingeniería (como la maquinaria antiaérea desarrollada por N. Wiener) que permitieron ciertas analogías entre las nuevas tecnologías y los procesos nerviosos o mentales que permitían desarrollar ideas de planificación, propósito y feedback con precisión matemática. Los médicos obtuvieron nueva información sobre el cerebro en sus tratamientos a los heridos por la guerra. Los psicólogos estudiaron los efectos de la propaganda y la selección de hombres apropiados para conducir unidades de combate. -Hacia fines de los ’40 se comenzó a notar la necesidad de una nueva y definitiva ofensiva científica a la mente humana. Gran parte del trabajo que se completó en la posguerra surgía de esfuerzos teóricos previos que habían sido oscurecidos por el conductismo o que habían sido transformados por los eventos de la guerra de maneras no anticipadas. Estas ideas constituyeron los inputs teóricos clave de la ciencia cognitiva. Los inputs teóricos clave de la ciencia cognitiva Matemática y computación -Hacia el cambio de siglo Gottlob Frege desarrolló una nueva forma de lógica que destronó a la lógica silogística de Aristóteles que había perdurado hasta entonces. Esta nueva lógica involucraba la manipulación de símbolos abstractos. A comienzos del siglo XX, Russell y Whitehead intentaron reducir las leyes básicas de la aritmética a proposiciones de la nueva lógica, y su trabajo tuvo influencia sobre matemáticos como Wiener y von Neumann, que contribuyeron a fundar la ciencia cognitiva. -El trabajo lógico-matemático más importante para la ciencia cognitiva fue desarrollado por el entonces desconocido matemático Alan Turing durante los 30s. En 1936 desarrolló una noción de máquina simple, la “máquina de Turing”, que en principio podía hacer cualquier cálculo posible. Esta máquina “teórica” requería sólo una cinta infinitamente larga que pudiera pasar por la máquina, y un escáner que leyera lo que estaba en la cinta, la cual estaba dividida en cuadrados idénticos que o bien estaban en blanco o bien contenían una barra. La máquina podía hacer cuatro movimientos con la cinta: moverla hacia la izquierda, moverla hacia la derecha, borrar la barra o imprimir la barra. Sólo con estas cuatro operaciones la máquina podía ejecutar cualquier programa expresado en un código binario (como el código de espacios en blanco y barras). -El teorema de Turing y su demostración fue de importancia para la investigación sobre dispositivos computadores, pues sugirió que un código binario, compuesto sólo de ceros y unos, haría posible el desarrollo y la ejecución de un número indefinido de programas, y que en principio era posible construir máquinas que operaran con ese principio. -Turing incluso sugirió, en 1950, que uno podía programar una máquina para que sea imposible para un interlocutor discriminar sus respuestas de las de un ser humano. Esta noción fue llamada “el test de Turing”, el cual es usado para refutar a quien dude que una máquina puede pensar: si un observador no puede distinguir las respuestas de una máquina de las de un humano, entonces la máquina pasa el test de Turing. -Los interesados en el pensamiento humano se dieron cuenta de que si podían describir con precisión los procesos de conducta y pensamiento de un organismo, podrían diseñar una computadora que operara de manera idéntica. Esto permitía testear en computadoras las distintas concepciones sobre el funcionamiento del ser humano, e incluso construir computadoras que uno pudiera considerar que piensan como humanos.

-Partiendo de ideas de Turing, von Neumann desarrolló la idea de diseñar un programa que instruyera a la máquina de Turing a reproducirse a sí misma. Esta fue la idea de un programa almacenado: la computadora era controlada por un programa que se almacenaba en su memoria interna, de modo que no tuviera que ser reprogramada para cada nueva tarea. Ésta fue la primera vez que se concibió que una computadora podía preparar y ejecutar sus propios programas. El modelo neuronal -W. McCulloch y el lógico W. Pitts mostraron en 1943 que las operaciones de una célula nerviosa y sus conexiones con otras células nerviosas (una “red neural”) podía ser modelada en términos de la lógica. Los nervios podían ser pensados como enunciados lógicos, y la propiedad de activación o no activación de nervios podía ser comparada con la operación del cálculo proposicional en la que un enunciado es verdadero o falso. Así como una proposición puede implicar otra, la activación de una neurona conduce a la activación de otra. La conclusión era que todo lo que podía ser descrito exhaustivamente y sin ambigüedad es realizable por una red neural finita apropiada. -Gracias a esta idea, la noción de máquina de Turing se perfilaba en dos direcciones: hacia un sistema nervioso compuesto de innumerables neuronas “todo o nada” (activadas o desactivadas), y hacia una computadora que pudiera realizar cualquier proceso descrito sin ambigüedad. Mientras Turing había mostrado la posibilidad en principio de máquinas computadoras de gran poder, McCulloch y Pitts demostraron que una de esas máquinas, el cerebro humano, podía ser pensado como operando por los principios de la lógica, y entonces como una computadora poderosa. -McCulloch sostuvo que los problemas fundamentales de la epistemología pueden formularse y resolverse sólo a la luz del sistema nervioso central, y ató sus afirmaciones sobre el pensamiento demasiado fuertemente a los conocimientos de su tiempo sobre el sistema nervioso. Se le critica que su analogía entre la lógica y el cerebro es demasiado directa, y que en realidad debe buscar analogías en un nivel más alto (McCarthy). -Uno de sus adelantos fue el apoyo a la investigación sobre las propiedades específicas de las células nerviosas individuales, lo cual ayudo a entender algunos de los aspectos más importantes del sistema nervioso. Además, actualmente revive en ciencias de la computación las ideas sobre la naturaleza y las conexiones de las células nerviosas. La síntesis cibernética -Durante sus trabajos en los 30s y 40s sobre servomecanismos, N. Wiener comenzó a pensar en la naturaleza del feedback y de los sistemas auto-correctores y auto-regulatorios, sean mecánicos o humanos. Colaboró con V. Bush, que fue pionero en el desarrollo de computadoras analógicas, y le interesaba el trabajo de McCulloch y Pitts. Sin embargo, fue más lejos que todos sus contemporáneos con la convicción en la coherencia entre estos variados desarrollos científicos y tecnológicos. -Wiener concibió estos nuevos desarrollos como constituyendo una nueva ciencia, centrada en temas de control y comunicación. Para él los problemas en ingeniería del control y de la comunicación eran inseparables, al centrarse no en las técnicas de la ingeniería eléctrica, sino en la noción de mensaje, sea éste transmitido por medios eléctricos, mecánicos o nerviosos. -Con sus colaboradores Rosenblueth y Bigelow, Wiener introdujo la idea de que es legítimo hablar de máquinas que exhiben feedback como motivadas por fines, como calculando las

diferencias entre sus fines y sus ejecuciones reales, y como trabajando para reducir esas diferencias. -También desarrollaron una nueva noción de sistema nervioso central. Éste no es más un órgano auto-contenido, que recibe inputs de los sentidos y realiza descargas sobre los músculos. Por el contrario, algunas de sus características más singulares sólo pueden ser explicadas como procesos circulares que emergen del sistema nervioso hacia los músculos, y reingresan en el sistema nervioso por los órganos sensoriales, sean propiocepctores u órganos de los sentidos especiales. Esto significó un nuevo paso en el estudio de la parte de la neurofisiología que se ocupaba del sistema nervioso como un todo integrado. Estas ideas son análogas a las críticas de Lashley al conductismo. -En 1948 integró sus ideas sobre el sistema nervioso, la computadora electrónica y la operación de otras máquinas en la nueva ciencia de la cibernética, definida como el campo completo de la teoría del control y la comunicación, sea en la máquina o en el animal. No obstante, esta síntesis no es más que un ejemplo pionero, y ganó más adeptos en la URSS que dentro de la ciencia cognitiva. La teoría de la información -A C. Shannon, un ingeniero electrónico, se le atribuye el desarrollo de la teoría de la información. A fines de los 30s vio que los principios de la lógica (en términos de proposiciones verdaderas y falsas), podían ser usados para describir los dos estados (encendido y apagado) de los conmutadores de transmisión electromecánicos (electromechanical relay switch), de modo que circuitos eléctricos como los de las computadoras podían encarnar operaciones fundamentales del pensamiento. -Junto con W. Weaver, Shannon desarrolló la noción clave de la teoría de la información: la información puede ser pensada de forma enteramente divorciada del contenido específico, como siendo simplemente una decisión entre dos alternativas igualmente plausibles. La unidad básica de la información es el bit (dígito binario), y es la cantidad de información requerida para seleccionar un mensaje de dos alternativas igualmente probables. -La intuición de Wiener [¿¿Shannon??] hizo posible que se pensara a la información con independencia de un dispositivo de transmisión particular, posibilitando un enfoque en la eficacia de cualquier comunicación de mensajes por cualquier mecanismo. De este modo, uno podía considerar a los procesos cognitivos con independencia de cualquier corporización particular, oportunidad que sería aprovechada por los psicólogos que pretendían describir los mecanismos subyacentes al procesamiento de cualquier información. -Recientemente se ha cuestionado entre los científicos cognitivos la idea de que es posible tratar toda la información de forma equivalente, ignorando cuestiones de contenido. Los síndromes neurofisiológicos -Durante las guerras se aprendió mucho sobre la afasia (déficit en el lenguaje), la agnosia (dificultad en el reconocimiento) y otras formas de patología mental que surgían como consecuencia del daño cerebral. -Uno de los descubrimientos fue que había similitudes en las patologías que traspasaban los límites culturales y lingüísticos, lo cual era un indicador de que las capacidades cognitivas en el sistema nervioso se organizan con más regularidad que la permitida por explicaciones puramente ambientales de los procesos mentales.

-Además, los patrones de colapso no podían ser explicados en términos de una disrupción entre estímulo y respuesta, sino en términos de una jerarquía de respuestas conductuales alteradas. -Los perfiles de habilidades y discapacidades que emergen con el daño cerebral proveyó de sugerencias fecundas acerca de cómo puede estar organizada la mente humana en individuos normales. Encuentros catalíticos y escritos influyentes -Hubo numerosos encuentros entre estos interesados en temas de cognición (de los cuales el Hixon Symposium fue sólo uno, aunque de especial importancia por las ideas manifestadas allí sobre la conexión cerebro-computadora y sobre el desafío al conductismo), y un número significativo de publicaciones (como Design for a Brain de Ashby, los escritos de lingüística de Jakobson, los de neuropsicología de Hebb, los de antropología de Bateson, y los trabajos de Bartlett, Lévi-Strauss, Luria, Piaget y Vygotsky) que ayudaron a promover una nueva ciencia interdisciplinar de la mente. -En gran medida todos estos desarrollos tuvieron lugar fuera de los campos de estudios establecidos, como actividades extracurriculares desde la perspectiva de las líneas predominantes (psicología conductista, lingüística estructural, antropología social funcionalista, neuropsicología del aprendizaje animal). Hizo falta eventos más dramáticos para que estos desarrollos adquirieran un lugar central. [Hipótesis para trabajo: el rol preponderante de lo institucional en la constitución de la ciencia cognitiva (por sobre las críticas al conductismo)].

3. La ciencia cognitiva: las primeras décadas Una fecha de nacimiento consensuada -Parece haber un consenso en que la ciencia cognitiva fue reconocida oficialmente en 1956. En este año tuvo lugar el Simposio de Teoría de la Información en el MIT, en el que Newell y Simon presentaron la primera prueba completa de un teorema llevada a cabo por una computadora, Chomsky presentó su propio enfoque sobre la gramática, y Miller su trabajo sobre la memoria a corto plazo. Por aquella época el lenguaje del procesamiento de información llegó a la psicología, ámbito en el que surgieron los trabajos de Bruner, Goodnow, Austin y Miller. Se publicó The Computer and the Brain de von Neumann. En neurociencia se registraron impulsos de neuronas únicas del sistema nervioso. Surgió la antropología cognitiva o etnosemántica. Comenzó a desarrollarse la inteligencia artificial. En filosofía, se usó la metáfora computacional para resolver los problemas filosóficos clásicos acerca de la mente: se concibió al cerebro como el hardware computacional y a la mente como el software. Paralelamente, hubo algunos desarrollos en etología animal. 1960: fortalecimiento -Durante los ‘60s germinaron las semillas plantadas en los ‘50s. La ciencia cognitiva obtuvo apoyo financiero gubernamental y privado, y su inserción académica (especialmente desde la fundación en 1960 del Center for Cognitive Studies en Harvard) permitió que tuviera nuevos adeptos.

-Ciertos libros sirvieron para difundir las ideas en boga. En Plans and the Structure of Behavior, de 1960, Miller, Pribram y Galanter criticaron la idea de arco reflejo de la psicología conductista y adoptaron un enfoque cibernético de la conducta. Unos años después comenzaron a aparecer libros de textos de psicología cognitiva, siendo Cognitive Psychology de Ulric Neisser, de 1967, el más influyente (si bien criticaba varios puntos importantes de la metáfora computacional de la mente). En The Sciences of the Artificial (1969), Simon proveía una explicación filosófica de su enfoque: tanto la computadora como la mente humana son entidades físicas que procesan, transforman, elaboran y manipulan símbolos de varios tipos. En 1972, Newell y Simon publican Human Problem Solving, en donde describen los programas solucionadores de problemas. En 1964, Fodor y Katz editaron The Structure of Language, en donde reunieron artículos acerca de la nueva lingüística. Computers and Thought, editados en 1963 por Feigenbaum y Feldman, y Semantic Information Processing, editado en 1968 por Minsky, presentaban los nuevos avances en inteligencia artificial. En el campo de la antropología se destacó Cognitive Anthropology (1969) de Tyler. -El clima intelectual predominante era que se estaba desarrollando una revolución similar a la revolución en física del siglo XVII: se creía que había muchos descubrimientos por hacer, que se tenía el método apropiado para hacerlos, que se requería una nueva matemática, una nueva ontología y un nuevo punto de vista sobre el método científico, y que se debía pelear contra hábitos intelectuales e institucionales obsoletos. La iniciativa de Sloan -La fundación privada Alfred P. Sloan Foundation estimuló a comienzos de los ‘70s un programa de neurociencias, un conjunto de disciplinas que exploran el sistema nervioso, que incluyen la neuropsicología, la neurofisiología, la neuroanatomía y la neuroquímica. -La fundación tenía interés en financiar otro proyecto similar, y los científicos cognitivos lograron convencer 1976 a la fundación de que financiara con veinte millones de dólares un proyecto en esta disciplina. -La iniciativa de la Sloan Foundation tuvo un efecto catalítico sobre el desarrollo del campo de la ciencia cognitiva. Se fundó la revista Cognitive Science, cuyo primer número fue publicado en 1977, y en 1979 se fundó una sociedad con el mismo nombre. Se desparramaron programas, cursos, periódicos y el resto de la parafernalia escolar acerca de la ciencia cognitiva, incluyendo libros de divulgación como The Universe Within (1982) de Hunt y esta misma obra. -Esta declaración del nacimiento de un campo disciplinar fue vitalizante, pero no aseguraba un consenso interno, ni un progreso científico apreciable. Había tensiones acerca de cuál era el campo, quién lo entendía, quién lo amenazaba, y en qué dirección debía progresar. -Un síntoma de esta falta de consenso fue el “State of the Art Report” de la Sloan Foundation. Ese reporte decía que la razón de ser de ese campo disciplinar era un objetivo de investigación común: descubrir las capacidades representacionales y computacionales de la mente y su representación estructural y funcional en el cerebro. Presentó además un esbozo de las interrelaciones disciplinares que ya se habían forjado (filosofía-psicología, filosofía-lingüística, psicología-lingüística, psicología-IA, psicología-antropología, psicología-neurociencia, lingüística-IA, lingüística-antropología, lingüística-neurociencia, antropología-neurociencia) y de las que quedaban por forjar (filosofía-IA, filosofíaantropología, filosofía-neurociencia, IA-antropología). La comunidad recibió negativamente el reporte, posiblemente porque cada científico lo leyó desde su propia

disciplina, y percibió el esfuerzo ecuménico de sus autores como un insulto a sus disciplinas o programas de investigación particulares. Además, como no hay un paradigma acordado, ningún conjunto común de supuestos y métodos, los científicos cognitivos suelen proyectar sus propios paradigmas a la totalidad del campo. -A pesar de esta falta de consensos, podemos esbozar una formulación tentativa del campo de la ciencia cognitiva. Aspectos clave de la ciencia cognitiva -Los primeros dos aspectos que veremos representan los supuestos centrales del campo, mientras que los otros tres son aspectos metodológicos o estratégicos. Representaciones -Es legítimo y necesario postular un nivel separado de análisis: el nivel de la representación. -Las entidades propias de este nivel son las entidades representacionales: símbolos, reglas, imágenes –las representaciones que se encuentra entre el input y el output. En este nivel se investiga los modos en que estas entidades representacionales se agrupan, se transforman o se contrastan con otras. -El científico cognitivo no niega que para algunos propósitos vale explicar la conducta en términos de células nerviosas, de influencias culturales, o de eventos experienciales o fenomenológicos. Sin embargo, para los fines científicos propone a las entidades representacionales como las más adecuadas para esta explicación. -Hay un abismo enorme entre los conceptos representacionales ordinarios (ideas, imágenes, símbolos, lenguaje de la mente) y los conceptos que pueden ser aceptados como constructos científicos aceptables. Antes de postular este nuevo nivel se debe mostrar su absoluta necesidad, y se debe describir la estructura y los mecanismos que son empleados en ese nivel. -Algunos críticos de la ciencia cognitiva critican la postulación de este nuevo nivel, desde una concepción conductista y aplicando la navaja de Ockham: conviene hablar sólo de estructuras neurológicas y de conductas visibles, y no de ideas, conceptos o reglas. -Otros críticos aceptan que se requiere un lenguaje de sentido común que utilice conceptos como los de planes, intenciones y creencias para explicar las conductas, pero que no es necesario un lenguaje científico separado y un nivel representacional de análisis: se puede ir directamente del lenguaje intencional ordinario al sistema nervioso, porque es en el sistema nervioso en donde están representados los estados intencionales. -También hay discusiones entre los que aceptan la postulación del nivel representacional: algunos postulan que hay una única forma de representación mental, que tiene estructura proposicional; otros sostienen que hay al menos dos formas, una con estructura proposicional y otra con estructura de imagen; otros sostienen que se pueden postular múltiples formas y que es imposible determinar cuál es la correcta. -Si bien todos los científicos cognitivos aceptan que los procesos mentales están en última instancia representados en el sistema nervioso central, no hay acuerdo acerca de la relevancia de la neurociencia para las investigaciones sobre cognición. La mayoría cree que la ciencia cognitiva puede desarrollarse con independencia de conocimientos detallados del sistema nervioso, sobre la base de que aun no poseemos esos conocimientos y de que se acepta el nivel de representación mental como autónomo. Con la consolidación del nivel cognitivo y los avances de las neurociencias esa distancia puede ser salvada. No es de

extrañar que a los neurocientíficos les entusiasme menos el nivel representacional que a los psicólogos, lingüistas y científicos de la computación. Computadoras -La computadora sirve, en primer lugar, como un modelo del pensamiento humano: si una máquina puede razonar, tener objetivos, revisar su conducta, transformar información, etc., entonces los seres humanos merecen ser caracterizados del mismo modo. -En segundo lugar, la computadora sirve como una herramienta de trabajo. -Algunos críticos sostienen que la computadora es otro modelo mecánico erróneo más que se propone para explicar la cognición humana. Consideran que es un error ver a los organismos activos como sistemas procesadores de información. El hecho de que se pueda simular la conducta no quiere decir que se haya alcanzado una descripción correcta de la conducta. -El involucramiento con el modelo computacional es diferente en las distintas disciplinas que constituyen la ciencia cognitiva. Ese involucramiento es central en inteligencia artificial, y es aceptado con algunas reservas en la lingüística y la psicología. En la antropología y la neurociencia la cuestión es más problemática, en la medida en que unos consideran suficientes las explicaciones cerebrales y otros las culturales. En filosofía hay actitudes variadas: desde un entusiasmo descarado a un escepticismo virulento. Menos énfasis en el afecto, el contexto, la cultura y la historia -Si bien la exclusión de factores afectivos, contextuales, culturales e históricos en la explicación de la conducta no es una tesis explícita de la ortodoxia cognitivista, es claro que en la práctica esos factores son apartados, incluso por los antropólogos cognitivos. -Esta exclusión puede deberse a su practicidad: la ciencia cognitiva no puede pretender incluir todos los factores, no sería capaz de construir una explicación completa de la acción, y los factores individuales pueden constituir una explicación bastante buena. -Algunos críticos del cognitivismo sostienen que los mencionados factores no pueden ser explicados por la ciencia, porque pertenecen a dimensiones inherentemente humanísticas o estéticas, pero juegan un rol central en la experiencia humana. -Otros críticos reconocen también que estos factores juegan un rol central, pero creen que son susceptibles de explicación científica: la ciencia cognitiva debe incorporarlos. Creencia en los estudios interdisciplinarios -Hay acuerdo en que no hay una ciencia cognitiva. En realidad, hay investigadores procedentes de diferentes disciplinas que creen que pueden interactuar productivamente para lograr una comprensión más poderosa de la que podrían lograr si trabajaran desde una única disciplina. -Algunos escépticos sostienen que no se progresa componiendo disciplinas, y que es más conveniente que cada una ocupe su lugar. -Otra crítica es que no es claro qué disciplinas contribuirán en última instancia a la ciencia cognitiva, por lo que se puede perder mucho tiempo en colaboraciones infructuosas. -En el mejor de los casos, para estos críticos debe haber cooperación entre disciplinas, pero nunca una fusión total. Enraizamiento en problemas filosóficos clásicos

-Los problemas filosóficos clásicos son un ingrediente clave de la ciencia cognitiva, si bien no todos los científicos cognitivos lo consideran así. -Sólo mediante la exploración de la historia de la filosofía puede mostrar a los científicos cognitivos que están tratando temas que fueron abordados antes por filósofos. Los científicos cognitivos pueden criticar que los problemas filosóficos fueron mal formulados, o no fueron resueltos, y que los filósofos hoy no tienen un rol que jugar en la ciencia cognitiva. Incluso los propios filósofos pueden pensar eso. Sin embargo, eso no quita que convenga revisar las concepciones filosóficas del conocimiento humano.

5. Psicología: el casamiento de los métodos con la sustancia El programa de la psicología cognitiva -Contra el conductismo, los nuevos enfoques hablaban de limitaciones estructurales a la cantidad de información que puede ser tomada, intentaban trazar los pasos involucrados en el procesamiento de esa información, y de postular estrategias generales para resolver problemas. El centro de atención se dirigió a las representaciones de la información dentro de la mente. -Este cambio no se debe a un único factor, pero el surgimiento de la computadora y del lenguaje de teoría de la información que se usó para caracterizarla ayudó a legitimarlo. -Hay una distinción entre unidades de análisis moleculares o de pequeña escala y unidades de análisis molares o de gran escala. Así, algunos programas, como los de psicofísica tradicionales y los de procesamiento de información contemporáneos, muestran una inclinación por unidades de menor escala (bits, perceptos individuales, asociaciones simples examinadas en breves períodos de tiempo), presuponiendo que sólo mediante un entendimiento de las unidades y procesos elementales es posible construir una explicación definitiva de las unidades y procesos complejos. Por el contrario, quienes proponen un enfoque molar se inclinan por unidades de gran escala (problemas afrontados durante un largo período de tiempo, esquemas, marcos, estrategias), a las que consideran las propiedades más prominentes de la cognición humana, y por tanto sirven como punto de partida lógico: las unidades más grandes parecen más cercanas a los datos y las experiencias de la vida ordinaria. -Esta distinción entre enfoques molares y moleculares se parece, pero no es idéntica, a la distinción entre enfoques arriba-abajo y abajo-arriba. Los enfoques arriba-abajo, de connotaciones racionalistas, suponen que el sujeto lleva a la tarea sus propios esquemas, estrategias o marcos que influencian fuertemente sus actuaciones. Los enfoques abajoarriba, de connotaciones empiristas, suponen que los detalles de una situación o tarea focalizada ejercen una influencia primaria sobre la actuación del sujeto. -Si bien estas dos distinciones no están lógicamente ligadas, típicamente se corresponden, por lo que con frecuencia las identificaremos. -La exageración de esta dicotomía conduce a una distorsión del campo: casi todos los psicólogos tienen simpatía por ambos enfoques, y muchos se mueven constantemente de abordajes moleculares a molares. Además, la elección de un enfoque no necesariamente se realiza por considerarlo primordial: uno puede preferir un enfoque molecular no porque piense que la conducta se explica en última instancia en términos moleculares, sino con el fin de adaptar posteriormente los métodos a entidades molares.

-Otra tendencia a tener en cuenta es la creciente fisura y especialización dentro de la psicología. Muchos psicólogos ignoran lo que acontece en el resto del campo, dificultando el desarrollo de conceptos unificadores. -También hay que mencionar la tendencia a la perfección metodológica. El diseño de estudios individuales y de conjuntos de estudios se ha hecho cada vez más elegante con la invención de nuevos instrumentos y la sofisticación de las técnicas estadísticas. Esta sofisticación es un logro positivo, pero no ha sido integrado completamente con la sustancia de la disciplina. Muchas cuestiones deben ser abordadas desde un enfoque molar, y estos métodos más rigurosos muchas veces no son apropiados para este enfoque. Enfoques abajo-arriba El número 7 mágico de George Miller -En su artículo de 1956 “El número siete mágico, más o menos dos: algunos límites de nuestra capacidad para procesar información” Miller mostró que las habilidades del individuo para hacer distinciones absolutas entre estímulos, para distinguir un fonema de otro, para estimar números con exactitud y para recordar un número de objetos discretos en todos los casos parecían sufrir un cabio crucial cercano al nivel de los siete objetos. Si el número era menor, los individuos podían hacer esas tareas sin dificultades; si era mayor, comenzaban a fallar. -Esta discontinuidad para Miller no era accidental, sino que surgía o bien por aprendizaje o bien por el diseño de nuestros sistemas nerviosos. -Los humanos desarrollan modos de superar esas limitaciones: pueden agrupar elementos y tratarlos como una unidad, o hacer juicios relativos en vez de absolutos, o recodificar la información en un lenguaje y recordar este simbolismo más abstracto. -El ensayo de Miller fue importante por varias razones: (i) porque agrupó un conjunto de datos dispersos para que apuntaran a una misma conclusión, (ii) porque al señalar que el número 7 no era accidental apuntó a investigar la naturaleza y estructura del mecanismo de procesamiento cognitivo, (iii) porque señalaba modos de trascender las limitaciones, y (iv) porque prometía conectar los datos recogidos durante años por los psicólogos con los nuevos enfoques de los científicos orientados a la ingeniería. El enfoque británico al procesamiento de información -En Gran Bretaña hubo otro movimiento que intentaba aplicar conceptos de la ciencia de la comunicación a la psicología, el cual surgió del trabajo de los psicólogos durante la Segunda Guerra Mundial. -Colin Cherry se concentró en las capacidades de los individuos para obtener información de canales ruidosos. Hizo que los sujetos se concentraran en un mensaje transmitido por un oído, y descubrió que no podían decir mucho de lo que les llegaba por el oído opuesto, al que no prestaban atención; a lo sumo podían mencionar características gruesas de la señal (como si era música o discurso), pero no cambios en el contenido o el idioma. -Donald Broadbent les presentó conjuntos de tres dígitos de manera simultánea a ambos oídos. Descubrió que los sujetos cometían menos errores cuando decían los dígitos presentados a un oído primero, y luego los presentados (al mismo tiempo) al otro. -Estos trabajos dieron origen a un modelo de los procesos de pensamiento que se parecía al empirismo. Comenzaba con información de los sentidos, pero se concentraba en el hecho

de que los individuos tienen una capacidad limitada para la toma y el almacenamiento de información. Además, en lugar de hablar de los límites estructurales de un modo estático, Cherry y Broadbent buscaron determinar precisamente lo que sucede con esta información desde el momento en que se la recibe. Así, Broadbent fue el primer psicólogo moderno en describir el funcionamiento cognitivo con un diagrama de flujo. El enfoque estratégico de Jerome Bruner -En colaboración con Jacqueline Goodnow y George Austin, Bruner publicó en 1956 A Study of Thinking, el cual creció del Cognition Project que Bruner dirigió en Harvard. El tema del libro era la clasificación, categorización, o formación/adquisición de conceptos. El problema era cómo una persona, frente a un conjunto de elementos, llegaba a agruparlos en categorías. -Los experimentos de Bruner consistían en indicarle al sujeto una determinada categoría, y mostrarle objetos para que diga si pertenecen o no a la categoría. -Si bien este tipo de experimentos era similar a otros anteriores, diferían en que Bruner no concebía a los sujetos como simple reactores a estímulos, sino como solucionadores de problemas activos y constructivos. Trató de analizar las propiedades informacionales de largas secuencias de acciones, llamadas “estrategias” (escaneo sucesivo, focalización conservativa, focalización apostadora). Bruner descubrió que el mejor modo de explicar los actos individuales es en términos de esos patrones generales o estrategias, más que en términos de respuestas particulares a estímulos particulares. Etapas posteriores del procesamiento de información -Durante los ‘60s se precisaron algunos detalles del procesamiento de información a partir de los trabajos de Brodabent. Se destacan los trabajos de Moray y Treisman. -Nielssen propuso una explicación informacional más compleja. Argumentó que un sujeto entiende una señal sintetizando una representación interna que se asocia con la señal. -Posteriormente, Broadbent revisó su modelo unidireccional de la atención, cambiándolo por uno de ida y vuelta. -Sperling hizo experimentos para mostrar cuánta información de una sola vez puede tomar un individuo por medio de la visión. -Sternberg estudió los detalles finos del procesamiento de información, llegando incluso a mediciones de tiempo. Un modelo de la memoria -Atkinson y Shiffrin propusieron un modelo influyente según el cual la memoria poseía tres almacenes: uno donde se registran inmediatamente los estímulos dentro del sistema sensorial apropiado, uno de corto plazo en donde la información entrante decae y desaparece rápidamente pero puede pasar al almacén de largo plazo. -Allport criticó la idea de que el input informacional es serial (bits entrando uno tras otro en un solo punto), defendiendo que es paralelo (hay múltiples entradas en múltiples puntos). -Shannon sostuvo que la información contextual afecta el procesamiento de la información sensorial, por lo que un modelo abajo-arriba o afuera-adentro que trate los bits de información con independencia de su significado y contexto de presentación no hará justicia a la cognición humana. -Las etapas del modelo de Atkinson y Shiffrin comienzan a diluirse cuando uno examina la cuestión más atentamente: la memoria a corto plazo no puede ser tan fácilmente separada

de la memoria intermedia, los procesos pre-atentos se mezclan con los buffers sensoriales, etc. Enfoques arriba-abajo Unidades de análisis molares -Estudios desarrollados por Bransford muestran que los sujetos no tienden a recordar la formulación exacta de las oraciones que encuentran, pero sí los significados de las oraciones. Esto demuestra que los individuos utilizan enfoques inferenciales e integradores al memorizar fragmentos del lenguaje, lo cual hace dudar de aquellos experimentos que se enfocan en la memoria de sílabas o frases que no tienen sentido. Los sujetos utilizan distintos esquemas organizadores que determinan el modo en que se interpreta la misma información sensorial. Además, los sujetos infieren algunas cosas de las oraciones que escuchan, y que muchas de sus respuestas se basan en esas inferencias, no en el contenido literal de las oraciones. -Rumelhart ha postulado la existencia de una “gramática” para las historias: un conjunto de supuestos subyacentes acerca de cómo debe desarrollarse la trama de una historia. Esta gramática afecta el modo en que los sujetos interpretan historias: suelen recordar más fácilmente aquellas historias que respetan la gramática, y suelen olvidar o “normalizar” las historias que no la respetan. -Estos nuevos enfoques no destronaron a los abordajes abajo-arriba, pero los investigadores comenzaron a apreciar que los sujetos no van a ejecutar las tareas como papeles en blanco. Por lo tanto, surge un enfoque alternativo que se centra en cómo el organismo, con estructuras ya preparadas para la estimulación, manipula y reordena la información que encuentra. -Estos nuevos enfoques son ecológicos, y arriba-abajo, y llegaron incluso a influir en los estudios más conservadores sobre la memoria (por ejemplo, Bower, Craik, Lockhart). -Hay un avance con esta nueva perspectiva, porque no se limita a reconocer la existencia de procesos arriba-abajo, sino que describe sus detalles. Síntesis y enfoques generales -Los modelos clásicos de procesamiento de información eran ciegos con respecto al contenido: se asumía que cualquier tipo de información era procesada de la misma manera. No obstante, estos supuestos fueron cuestionados. Shepard y Metzler intentaron mostrar que en una tarea los sujetos comparan figuras geométricas para determinar si son iguales rotándolas mentalmente, lo cual parece mostrar que no se las representa de manera proposicional, sino como imágenes (Kosslyn). Del hecho de que las computadoras transmiten información en un único simbolismo no se sigue que los humanos también se restrinjan a uno. -Uno de los problemas que enfrenta la psicología cognitiva es la partición del campo en muchas especialidades y subespecialidades. John Anderson propuso un intento ambicioso de unificación, un modelo general de la arquitectura de la cognición llamado “ACT” (o “CAP”: Control adaptativo del pensamiento”). Su noción central es la de sistema de producción: cuando un nodo de la red es lo suficientemente activado, surge una acción o producción. El sistema incluye varias formas de memoria (memoria de trabajo, memoria

declarativa, memoria de producción). Hay otros mecanismos: procesos de codificación, procesos de ejecución, procesos de almacenamiento, procesos de recuperación, etc. -Algunos psicólogos defienden modelos como el de Anderson, mientras otros lo rechazan. Para algunos, ACT no es un sistema predictivo, sino un marco muy general que impone pocas limitaciones detalladas a la naturaleza del sistema cognitivo. Y los más escépticos sostienen que la búsqueda de una teoría tan general es una pérdida innecesaria de energía. -Aquí defendemos que es demasiado prematuro para abandonar los esfuerzos de describir un sistema cognitivo general. Incluso si quienes se atreven a hacer este tipo de cosas se equivocan, se puede aprender de sus errores. Por otra parte, el trabajo de Anderson parece estar basado más en la lectura de otros psicólogos que en la inmersión en los fenómenos reales del pensamiento, la memoria, etc. Hasta este punto, parece que ACT es más bien internamente coherente que conectado externamente con los procesos reales del pensamiento humano. -Algunos investigadores, especialmente Jerry Fodor, han sugerido que la mente debe ser vista como constituida por dispositivos de procesamiento de información en gran medida separados, como compuesta de dispositivos diferentes para cada tipo específico de contenido. Este modularismo sostiene que los módulos han evolucionado para desarrollar formas específicas de análisis de manera rápida y encapsulada, que la comunicación entre módulos ocurre sólo subsecuentemente, y que incluso si hay un procesador central o una función ejecutiva, difícilmente se pueda dar cuenta de ella. Esta concepción se opone a las teorías ciegas al contenido o a las que creen en facultades horizontales, como la de Anderson, según las cuales todas las facultades trabajan de la misma manera para cualquier tipo de contenido. Una consecuencia del modularismo podría ser que la psicología puede dejar de pretender ser una disciplina unificada, por lo cual es bueno que se prosiga con el trabajo en explicaciones sintéticas como las de Anderson. -Hay algunos críticos de la psicología cognitiva que deploran la artificialidad de sus investigaciones, argumentando que los modelos más convincentes se basan en actividades que tienen poco que ver con las prácticas ordinarias de los humanos. Como señala Neisser, la insistencia en el modelo computacional y en los escenarios artificiales de laboratorio conduce a una carencia de una psicología ecológicamente válida que de cuenta de los tipos de cuestiones que los humanos encuentran y resuelven en la vida cotidiana. Entre quienes defienden modelos más ecológicos se cuentan Gibson, Rosch, los Bahrick y Wittlinger.

6. Inteligencia artificial: la herramienta experta Las ideas de inteligencia artificial -Acuerdos. Casi todos acuerdan en que la inteligencia artificial busca producir, en una computadora, un patrón de output que sería considerado inteligente si fuera exhibido por seres humanos. -Desacuerdos. Algunos puntualizan el diseño de programas, otros los lenguajes de programación, otros incluyen el hardware mecánico y el componente conceptual humano además del software.

Algunos quieren simular exactamente los procesos de pensamiento humano, mientras que otros se contentan con cualquier programa que conduzca a consecuencias inteligentes. Algunos tienen una “visión débil” de la metáfora del pensamiento, para la cual el diseño de programas “inteligentes” es sólo un medio de probar teorías sobre cómo los humanos podrían llevar a cabo operaciones cognitivas, mientras que otros tienen una “visión fuerte”, para la cual una computadora programada apropiadamente es en realidad una mente, en el sentido en que se puede decir literalmente que entienden y tienen otros estados cognitivos. Hay una tensión entre “generalistas” y “expertos”, que refleja la discusión entre perspectivas modularistas y de procesamiento central en la psicología: para los generalistas hay programas o familias de programas que pueden ser aplicados a cualquier tipo de problema; para los expertos los programas deben contener un conocimiento más detallado acerca de un dominio específico y restringirse a ese dominio. Para algunos la inteligencia artificial tiene importancia científica (muchos sostienen que reemplaza a la epistemología); para otros no es una ciencia, sino una forma de ingeniería aplicada sin el basamento teórico de una disciplina científica. Antecedentes históricos -En 1938 Shannon mostró que los circuitos que podían ser encontrados en una máquina electrónica podrían ser expresados en términos de una ecuación booleana: el sistema verdadero-falso era paralelo a los interruptores encendido-apagado, o a los estados abiertos y cerrados de un circuito. Cualquier operación que pueda ser descrita en un conjunto finito de pasos puede ser llevada a cabo por estos circuitos. -En 1936 Turing propuso su idea de que una tarea computacional explícitamente enunciada podría ser ejecutada por una máquina que poseyera un conjunto finito apropiado de instrucciones. Comenzó a pensar en la relación entre el pensamiento humano y el pensamiento artificial, lo que derivó en el famoso test de Turing. -Bush comenzó a construir máquinas capaces de resolver ecuaciones diferenciales. -Hacia 1943 McCulloch y Pitts desarrollaron sus ideas sobre redes neurales; especialmente la idea de que todo lo que pueda ser expresado exhaustivamente y sin ambigüedad puede ser realizado por una red finita apropiada de neuronas. El cerebro podía ser visto como una máquina de una forma más precisa que antes, y ser pensado como una máquina de Turing. -Wiener estaba aunando las corrientes de la cibernética, un nuevo campo interdisciplinar que investigaba los mecanismos de retroalimentación en materia orgánica y en autómatas. -A von Neumann suele atribuírsele la idea de un programa almacenado, donde las operaciones de la computadora pueden ser controladas por medio de un programa o conjunto de instrucciones, almacenado en la memoria interna de la computadora, siendo por tanto innecesario reprogramar la computadora para cada nueva tarea. También exploró las analogías y las diferencias entre las computadoras y el cerebro. El verano de 1956 en Dartmouth -En el verano de 1956 un grupo de jóvenes matemáticos y lógicos se encontraron en Dartmouth College con la conjetura de que cualquier aspecto de la inteligencia en principio puede ser describible tan precisamente que una máquina podría simularlo. Se expusieron las capacidades de las computadoras para llevar a cabo las siguientes tareas cognitivas: jugar al ajedrez (Alex Bernstein), jugar a las damas (Arthur Samuel), probar teoremas lógicos (Newell y Simon), modelar redes neurales (Nathan Rochester), y probar teoremas euclidianos (Minsky).

-Los propósitos de la reunión no fueron satisfechos, pero las ideas propuestas por la generación anterior (Wiener, von Neumann, McCulloch, Turing) podían ahora ser llevadas a cabo mediante el diseño de máquinas y la escritura de programas acerca de los cuales la anterior generación sólo había especulado. Programas para problemas: Allen Newell y Herbert Simon A. Logic Theorist -Su primer programa, Logic Theorist (LT), podía probar teoremas de los Principia de Russell y Whitehead. -Para desarrollarlo se enfrentaron a la dificultad de escribir programas directamente en el lenguaje de las computadoras: necesitaban un lenguaje de nivel superior, más simple para el programador humano, que pudiera ser traducido automáticamente al lenguaje de la computadora. Por ello diseñaron lenguajes de procesamiento de información (LPI), o lenguajes de procesamiento de listas. -El procesamiento de lista fue una técnica que resolvió el problema de la distribución del almacenaje en una memoria limitada de computadora, y permitió que los programadores crearan estructuras de datos para almacenar la información de una forma accesible similares a los procesos de pensamiento humano. -El programa contiene las reglas básicas de operación: una lista de axiomas y teoremas previamente demostrados. Luego, el programa recibe una nueva expresión lógica y se le instruye que descubra una prueba. El programa trata todas las operaciones que puede para encontrar una prueba. Si encuentra una, la prueba es impresa en una larga tira de papel, si no la encuentra, el programa declara que no puede resolver el problema y detiene sus operaciones. B. General Problem Solver -El proyecto más ambicioso de Newell y Simon fue el de desarrollar un solucionador general de problemas (SGP), un programa cuyos métodos en principio podrían ser utilizado para resolver todo tipo de problemas. -El proyecto no pretendía diseñar un programa que simplemente resolviera problemas, sino que lo hiciera imitando los procesos seguidos por humanos normales al resolverlos. Para ello recolectaron protocolos que registraran las introspecciones y anotaciones de los sujetos que se involucraban en la resolución de problemas. -En un análisis de medios-fines, uno primero establece la forma deseada de resolver el problema, y luego compara el lugar actual en el proceso de solución con el objetivo final deseado. Si esas dos instancias coinciden, el problema ha sido resuelto. Si no coinciden, el solucionador clarifica la diferencia y busca métodos para reducirla. Hay una tabla que asocia los fines del sistema con operadores que pueden ser de utilidad para lograrlos. Al computar la diferencia entre el estado actual y el fin, el sistema selecciona un operador asociado con esa diferencia y prueba si el operador es aplicable a la situación actual. Si es aplicable, y produce un resultado más cercano al estado deseado, se lo repite. Si es inaplicable, el sistema genera una sub-meta, que se propone reducir la diferencia entre la situación actual y la situación en la que el operador puede ser aplicado. Este proceso se repite hasta que la meta es lograda, o hasta que se demuestre que no puede ser lograda con la información dada, o con los operadores disponibles para el programa. -El proyecto del SGP fue abandonado, porque su generalidad no era tan amplia como sus creadores habían pretendido, y porque el campo de la IA continuó por otras direcciones. No

obstante, el proyecto puede ser considerado como el primero en simular un espectro de la conducta simbólica humana. Además, ocupó un rol importante en la concepción de Simon y Newell de la empresa de la IA, según la cual toda inteligencia involucra la manipulación de sistemas simbólicos, manipulación que ahora podía ser desarrollada también por máquinas. C. Visión de la inteligencia artificial -El concepto de sistema físico de símbolos fue considerado por Newell y Simon como la doctrina central de la ciencia de la computación. El trabajo del teórico es el de identificar el conjunto de procesos que opera sobre expresiones simbólicas para producir otras expresiones que crean, modifican, reproducen, o transforman estructuras simbólicas. -Una noción clave es la de sistema de producción, en el que una operación será llevada a cabo si una condición específica es satisfecha. Los programas consisten en secuencias largas de sistemas de producción que operan en la base de datos. Ese sistema es una especie de enlace estímulo-respuesta computacional: mientras los estímulos (condiciones) sean apropiados, la respuesta (producción) será ejecutada. -Lo que demostraron Newell y Simon fue: (i) que las computadoras podían desarrollar conductas que si fueran exhibidas por humanos serían consideradas inteligentes, y (ii) que los pasos seguidos por sus programas tienen un parecido no-trivial con los pasos que se observan en la resolución de problemas humana. -Tanto la mente humana como la computadora resuelven problemas de formas similares, sin importar las diferencias de hardware: son sistemas que procesan información a lo largo del tiempo siguiendo un orden más o menos lógico. Habiendo registrado los procedimientos realizados por sujetos humanos involucrados en las mismas tareas, el equipo logró encontrar muchas analogías. Newell y Simon no defendían un isomorfismo a nivel estructural entre el hardware y el cerebro, sino a nivel de la teoría del procesamiento de información. Este enfoque duró unos veinticinco años, y sólo recientemente se comenzó a prestar atención a lo que se sabe sobre el sistema nervioso dentro de la comunidad de la inteligencia artificial. D. Críticas -La información usada por un programa es colocada en él por humanos, por lo que el solucionador de problemas sólo hacía aquello para lo que fue programado. A esto Newell y Simon respondieron que en la medida en que el programa no realizaba una repetición mecánica de pasos, sino que usaban reglas para resolver problemas a los cuales no había sido expuesto antes, la conducta era tan inteligente como la de un humano: los humanos también han de ser pensados como programados con reglas. -Los seres humanos pueden improvisar atajos o heurísticas, mientras que las computadoras repetirán el mismo proceso, a menos que puedan ser programadas para aprender de esfuerzos anteriores. Conscientes de esta limitación, Newell y Simon se propusieron diseñar programas capaces de aprender. -El SGP sólo se proponía resolver desafíos lógicos, que se prestan a la expresión mediante formas simbólicas sobre las que se puede operar. Por lo tanto, el SGP sólo podía resolver problemas lógico-matemáticos. No obstante, muchos problemas resueltos por humanos no son fácilmente expresables por medio de lógica simbólica. Marvin Minsky y sus estudiantes

-Minsky no contribuyó muy activamente a la literatura sobre IA, ni se asocia una línea de trabajo a él, pero formó a un grupo activo de estudiantes. -T. G. Evans desarrolló un programa a fines de los ‘60s que resolvía analogías de tipo visual. Si se le mostraban dos figuras F y G que mantenían una relación de analogía A, el programa era capaz de seleccionar de un grupo de figuras otro par, F’ y G’, que también mantenían la relación A. El programa describe a F y G como figuras, y caracteriza la diferencia entre las descripciones (en términos como “dentro”, “sobre”, etc.); luego aplica la diferencia identificada como una regla de transformación a F’, para llegar a un patrón que tenga la misma descripción que uno de los patrones candidatos (G’). -Daniel Bobrow diseñó STUDENT, capaz de resolver el tipo de problemas de álgebra que podían encontrarse en libros de matemáticas de secundaria. El programa asumía que cada oración del problema era una ecuación. Se le daba conocimiento acerca de ciertas palabras para ayudarle a localizar la ecuación, analizando la sintaxis de las oraciones por medio de esos significados conocidos. STUDENT exhibe a la vez los poderes y las limitaciones de los programas de esa época: los programadores podían diseñar máquinas capaces de actuar inteligentemente, pero los procedimientos que éstas usaban eran muy diferentes a los empleados por humanos ordinarios. Mientras las computadoras podían desconocer el dominio de aplicación de las ecuaciones matemáticas (su conocimiento es puramente sintáctico), los humanos en general se valdrían de sus conocimientos de ese dominio para resolver el problema. Listas y lógica: John McCarthy -Uno de sus mayores logros de McCarthy fue el diseño de LISP (“list processing”), el lenguaje de computación que se volvió el más usado en el campo de la IA. LISP se preocupa por la presentación y manipulación de listas, de ítems de listas, y de listas de listas. El poder de LISP se deriva de que es un lenguaje recursivo, capaz de describir y manipular estructuras y conjuntos de estructuras. -McCarthy también tuvo ideas fuertes sobre los fines de la IA y los modos de lograrlos. Para él, el modo de hacer máquinas inteligentes es usando un enfoque formal riguroso en el que los actos que producen inteligencia sean reducidos a un conjunto de relaciones lógicas o axiomas que puedan ser expresados precisamente en términos matemáticos. El sistema de McCarthy se basaba en la fe en la consistencia de un sistema de creencias y en el punto de vista de que todo conocimiento puede ser pensado en términos puramente lógicos. Si este enfoque fuese adoptado, sería posible usar técnicas de demostración de teoremas que no sean dependientes de los detalles de los dominios particulares. McCarthy era un defensor de estos puntos de vista extremadamente generales. McCarthy trabajó en el diseño de una modificación no-convencional de la lógica estándar para modelar el razonamiento de sentido común, y su colega Hayes trató de formular en términos lógicos los procesos de pensamiento de la física de sentido común. Otros hitos en la programación -Feigenbaum diseñó DENDRAL, capaz de determinar, a partir de la enorme cantidad de datos de los espectrógrafos, qué compuesto orgánico estaba siendo analizado. El programa formulaba hipótesis sobre la estructura molecular del compuesto, y luego testeaba esas hipótesis mediante posteriores predicciones. El output definitivo era una lista de posibles compuestos moleculares listados en términos de plausibilidad decreciente. Sus resultados se compararon favorablemente con los de químicos expertos. A diferencia de programas

anteriores, usaba mucho conocimiento almacenado sobre química, y no emulaba los modos en que seres humanos resolverían el problema. -Por otra parte Colby y Weizenbaum desarrollaron programas capaces de dialogar. Ambos programas podrían, durante un tiempo, engañar a una persona. No obstante, alguien que conociera el diseño del programa, o que pudiera inferir que se trata de una máquina, podría desenmascararlo. Esto se debe a que, como en el caso de STUDENT, los programas no entienden las palabras usadas, sino que están diseñados para responder de un cierto modo a ciertas palabras. El fenomenal SHRDLU -Terry Winograd desarrolló un programa llamado SHRDLU, un experto que realmente “entiende” el lenguaje, aunque trabaja en un dominio muy limitado. -Winograd diseñó para su programa un mundo de bloques simples que podían ser apilados y dispuestos de varias formas. Su programa era lo suficientemente sofisticado en su conocimiento lingüístico como para llevar a cabo un conjunto complejo de instrucciones. Además, SHRDLU da muestras de que esas instrucciones son de hecho entendidas (una de esas muestras es que el programa pide clarificación cuando las instrucciones son ambiguas). -El mundo simulado era pequeño, y el número de acciones que podía llevar a cabo y el número de preguntas que podía responder era muy limitado. No obstante, dentro de su universo particular, el programa se comportaba de un modo plausible, percibiendo distinciones y llevando a cabo órdenes, sugiriendo que entendía lo que se le decía. -SHRDLU era más sofisticado que sus predecesores porque usaba una serie de especialistas lingüísticos. También poseía sistemas de creencias, conocimiento sobre resolución de problemas, y especialistas que detectan si una proferencia es una pregunta, una orden o un comentario. -De acuerdo con Dennett, una de las mayores contribuciones de SHRDLU es su exploración de las demandas impuestas sobre cualquier sistema que sigue instrucciones, planea cambios en el mundo, y mantiene un registro de ellos, a pesar de que no sea exactamente análogo a un humano. -SHRDLU también tenía limitaciones. No disponía de información semántica para distinguir entre los significados de palabras como “y”, “el” y “pero”. Además, no puede aprender a ejecutar mejor sus tareas. Un programa posterior similar, llamado HACKER, diseñado por Sussman, mostró que era posible que ocurriera ese aprendizaje. Cuestiones cruciales -Necesidad de sistemas expertos: mientras Newell y Simon lideraron la búsqueda de programas que pudieran tratar con cualquier tipo de problemas, hacia fines de los ‘60s las limitaciones de esos programas generales comenzaron a ser más evidentes. Feigenbaum sostuvo que sus maestros estaban trabajando con problemas de juguete, no con problemas del mundo real. El desarrollo de SHRLDU fue lo que terminó de evidenciar las limitaciones del programa generalista, y la necesidad de sistemas que poseyeran una gran cantidad de conocimiento especializado. -Representación procedimental versus representación declarativa: algunos favorecían una representación declarativa (conocimiento codificado como un conjunto de hechos o declaraciones almacenados) y otros una representación procedimental (conocimiento codificado como un conjunto de acciones o procedimientos a ser llevados a cabo). Los

defensores de LISP (representación declarativa) sostenían que los lenguajes declarativos eran más fáciles de entender y usar, y conducían a programas más económicos. Los procedimentalistas sostienen que la inteligencia humana debe ser pensada como un conjunto de actividades que los individuos saben cómo hacer, encarnándose cualquier conocimiento en los procedimientos para lograr resultados. Actualmente se reconoce la necesidad de combinar ambos modos de representación. -Tres ataques a la IA: Weizenbaum sostuvo que las afirmaciones de los teóricos de la IA eran demasiado excesivas, sin consonancia con los limitados logros que habían obtenido, y que se estaban confundiendo peligrosamente el ámbito de lo humano con el de las máquinas: hay experiencias únicamente humanas, como el amor y la moral. Dreyfus sostuvo que hay diferencias fundamentales entre los seres humanos y las computadoras que no pueden ser reducidas por la IA, porque los seres humanos tienen conciencia, tolerancia para la ambigüedad, un cuerpo que organiza y unifica la experiencia de objetos y de impresiones subjetivas, potencial para el aburrimiento, la fatiga y la falta de determinación, propósitos y necesidades claros que organizan su situación, y formas de inteligencia que no pueden ser descritas por reglas lógicas. Lighthill, un evaluador de la IA del gobierno británico, encontró relativamente poco que admirar y desaprobó la distancia entre las expectativas iniciales y los logros reales en los primeros veinte años de la IA (sólo guardó elogios para SHRDLU, defendiendo la tesis de Winograd de que la IA puede tener éxito en dominios limitados). Innovaciones en los ‘70s -A pesar de las críticas, los éxitos de la IA se renovaron. Había programas que eran capaces de percibir de manera holística; de usar el lenguaje creativamente; de traducir de un lenguaje a otro usando una representación semántica lingüísticamente neutra; de planear acciones de manera general e imprecisa, decidiendo los detalles en la ejecución; de distinguir entre diferentes tipos de reacción emocional de acuerdo con el contexto psicológico del sujeto, etc. A pesar de que el optimismo de los ‘50s no sería satisfecho, los logros del campo fueron notables. -El epítome de la segunda oleada de energías y logros a comienzos de los ‘70s fue SHRDLU, habiendo un giro de los sistemas generalistas a los sistemas expertos, y una fusión de enfoques declarativos y procedimentales. -Por la misma época se desarrolló una línea importante y controvertida: el uso de enfoques arriba-abajo para entender el lenguaje y otros dominios cognitivos. Schank sostuvo que un mecanismo capaz de entender un texto tiene expectativas acerca de cómo es un texto en general, y contiene un conjunto de conocimientos sobre los detalles del tema en cuestión. Esos “libretos” preestablecidos permiten tratar con textos de otro modo difíciles de entender. Minsky propuso la noción de marco: una estructura de conocimiento acerca de un dominio. En un marco se crea y se mantiene una descripción sustituyendo valores observados en lugar de valores predichos. Se supone que los individuos poseen cientos de marcos, y que combinaciones de ellos pueden ser invocadas en cualquier situación razonablemente compleja. Pluralismos -Para Minsky no hay un procesador general o central simple por el que pasa toda la información. En cambio, hay muchos agentes que pueden comunicarse entre sí, siendo cada uno un especialista de algún tipo, y que pueden manejar diferentes tipos de conocimiento

simultáneamente. Este enfoque no es una teoría susceptible de un testeo claro, sino un marco que conduce al diseño de programas que actúen más efectivamente y que modelen la actividad humana más fielmente. -Minsky, Hinton y Anderson sugirieron que así como el cerebro es un mecanismo paralelo, no seriado, la simulación de la cognición humana debía ser llevada a cabo por computadoras que operaran de forma paralela. Así como el cerebro aprende, ejecuta muchas actividades con propósitos especiales, y tiene información dispersa por grandes circuitos reverberantes, los programas deben incluir muchos agentes individuales cooperando. Muchos anticipan que las arquitecturas paralelas serán una innovación de la IA. Comprensión del lenguaje -Schank y personas asociadas a él lograron producir programas capaces de dar resúmenes de historias, de hacer lecturas rápidas de artículos periodísticos, y de responder preguntas y realizar inferencias sobre la trama, los personajes y la motivación en una historia. Schank sostuvo que todo el lenguaje se reduce a un grupo básico de elementos conceptuales, e incluso propuso cuáles eran esos elementos y cómo funcionaban. Con esos elementos básicos uno podría construir un entendimiento general del lenguaje, centrado sólo en la semántica, excluyendo factores sintácticos. Se le critica la carencia de principios de su “sistema semántico”. -Hay otras líneas de investigación. Woods y Quillian siguen el camino de la semántica. Marcus prefiere el de la sintaxis. Reddy desarrolló un programa que aborda el entendimiento del lenguaje desde distintos tipos de conocimiento (semántico, pragmático, sintáctico, léxico, fonémico y fonético) y analiza la señal en una variedad de niveles desde un segmento de sonido hasta la frase completa; cada fuente de conocimiento se fija en las hipótesis generadas por las otras, y apuesta a la mejor alternativa sobre lo que se dijo. Percepción -Rosenblatt desarrolló hacia 1960 un mecanismo capaz de reconocer letras y otros patrones. El mecanismo consistía en una grilla de cuatrocientas fotocélulas conectadas azarosamente con elementos asociadores que recolectaban los impulsos eléctricos. Minsky y Papert criticaron ese carácter azaroso, diciendo que era mejor encontrar previamente los principios que harían funcionar bien a la máquina y luego diseñarla. Por un tiempo se sostuvo que no se podía avanzar en el área del reconocimiento de formas usando sistemas basados en el modelo de las redes neurales. -A comienzos de los ‘70s Winston desarrolló un programa capaz de aprender a reconocer configuraciones de bloques mediante la confrontación con ejemplos y contraejemplos de cada configuración. -Waltz desarrolló un programa capaz de analizar una escena gráfica entera, de desarrollar una descripción tridimensional de los objetos de una escena dibujada, y de reconocer que dos dibujos diferentes son representaciones de la misma escena. -Marr se propuso modelar las fases tempranas de la percepción de objetos y escenas siguiendo un enfoque chomskiano. The Chinese Room -Searle believes that understanding is a property that comes from a machine like the human brain which is capable of certain processes, such as having and realizing intentions. Searle

seems to believe that, to do cognitive studies, one needs only two levels of explanation: the level of intentionality (a plain English discussion of the organism's wishes, beliefs, and so on) and a neurophysiological explanation of what the brain does in realizing these intentional states. He finds no need for a level of symbolic representation, which dominates work throughout the cognitive sciences: there is no representational level in which computers and humans are similar. However, Searle's positive assertions about intentionality have little force. Critics and Defenders: The Debate Continues -Weizenbaum raises ethical questions about whether A.I. should be allowed to impinge on territory that has hitherto been restricted to human beings. -Another line of criticism suggests that efforts to simulate human intelligence are perfectly valid, but that most of the A.I. community has heretofore used superficial models which do not approach the core of human thought processes. Scientists ought to be spending their time analyzing competent human beings themselves, and then to program computers to carry out intelligent operations. -The practice of A.I. entails deep philosophical issues which cannot be ignored or minimized. -There are limits to what can be explained by current A.I. methods, and even whole areas of study may lie outside of artificial intelligence, at least now and perhaps permanently. -There are increasingly close ties being forged between experimental cognitive psychology and artificial intelligence. Psychologists can benefit from the careful simulations made by A.I. researchers, and can put their own typically informal models to rigorous tests; A.I. scientists can determine whether their hypothesized models of human behavior are actually realized by the subjects about whom they have been speculating. -Parts of psychology and parts of computer science will simply merge into a single discipline, or they will form the central core of a newly forged cognitive science. There may well be areas of computer science, as well as of psychology, that do not take part in this merger. Nonetheless, the issue of the actual degree of similarity between humans and computers cannot be permanently ignored.

7. Lingüística: la búsqueda de la autonomía El modelo original Un nuevo concepto de gramática -Chomsky proceeded by proving that the theoretically most plausible method for generating sentences could not in principle work. He criticized finite-state grammars, according to which the speaker starts in a unique initial state and passes into a second state by producing the first word of a sentence, proceeding from state to state until it has reached the final state, at which time a complete sentence has been generated. These are inherently incapable of representing the recursive properties of English constructions. He also criticized phrasestructure grammars, according to which there is an initial set of strings, together with a finite set of phrase-structure or "rewrite rules," where one phrase can be rewritten in another permissible form.

-Chomsky’s transformational grammar posits a set of rules whereby sentences can be related to one another, and where one sentence (or more precisely, the abstract representation of a sentence) can be converted or transformed into another. A generative grammar is a rule system formalized with mathematical precision. Beginning with phrasestructure rules, one generates only kernel sentences, which are short active declarative assertions, following a set of instructions for constructing strings. All the other grammatical sentences of the language can be generated by means of transforming these kernel sentences. Transformations are an algorithmic set of procedures that occur in a prescribed order and allow one to convert one linguistic string to another. -All these transformations are structure-dependent: they do not operate on single words or on strings of words of arbitrary length, but they are imposed on strings (abstract representations of sentences) after these strings have been analyzed into appropriate syntactic categories and constituents (or phrase structures), which determine when and where the transformations can be applied. -Chomsky approached this task with a seriousness of purpose, an arsenal of logical and mathematical tools, a finesse and a finality of argument that had simply not been marshaled hitherto in linguistic analysis. -His view of grammatical generation was based on the notion of an automaton –a machine in an abstract sense which simply generates linguistic strings on the basis of rules that have been built (programmed) into it. The resulting grammar is neutral -equally valid as a description of linguistic production or linguistic comprehension. La revolución metodológica de Chomsky -Chomsky laid out the formal criteria for an adequate theory of linguistics suggesting (and demonstrating) how these criteria might be achieved. He expounded as well an ordered set of standards of adequacy: observational adequacy, where the grammar gives a correct account of observed linguistic data; descriptive adequacy, where the account also captures the native speaker's intrinsic competence, his own internalized knowledge; and explanatory adequacy, where the analyst uncovers principles underlying optimal grammar for the language. -Chomsky tried to state the rules that allow individuals to make, or to generate, all the correct sentences; to know that they are correct and what they mean; and to be able to pick out those sentences that violate these rules and are hence ungrammatical. To do this, the speaker must possess al some level a detailed set of rules or procedures indicating when different parts of speech can occur in given places in an utterance. The rules must capture the intuitions of native speakers about the relations obtaining within and among sentences. -His more general conviction that the several domains of mind (such as language) operate in terms of rules or principles that can be ferreted out and stated formally constitutes his main challenge to contemporary cognitive science. -Rather than trying to discern regularities from empirically observed utterances, Chomsky insisted that it was necessary to work deductively. One must figure out what kind of a system language is, and one must state one's conclusions in terms of a formal system. Once the system has been set up, one should then examine particular utterances to determine whether they can, in fact, be appropriately generated through adherence to the rules of the linguistic system.

-Hence, Chomsky's theory is not a mere reorganization of the data into a new kind of library catalogue, nor another speculative philosophy about the nature of Man and Language, but rather a rigorous explication of our intuitions about our language in terms of an overt axiom system, the theorems derivable from it, explicit results which may be compared with new data and other intuitions, all based plainly on an overt theory of the internal structure of languages. -One of Chomsky’s assumptions was that the syntax of language could be examined independently of other aspects of language. He even conceived syntax as the core of language, as the capacity unique to the human species to combine and recombine verbal symbols in certain specifiable orders, in order to create a potentially infinite number of grammatically acceptable sentences. Syntax is the primary, basic, or deep level of the language, with both semantics (meaning) and phonology (sound structure) being constructed upon a syntactic core. Chomsky also considered language to be an abstraction, a capacity that can merely be glimpsed in impure form in an individual's actual output. -Another assumption was that the discipline of linguistics could proceed independently of other areas of the cognitive sciences. He challenged the widespread belief in general powers of the mind, coming to think of the mind as a series of relatively independent mental organs or modules which follow their own rules. Language is an autonomous organ, so linguistics is an autonomous discipline. Superimposed on this modularity was a commitment to mentalism, to the existence of abstract structures in the mind which make knowledge possible. There was as well a swing to nativism, the belief that much of our knowledge is universal and inborn: the individual is born with a strong penchant to learn language, and the possible forms of the language which one can learn are sharply limited by one's species membership with its peculiar genetic inheritance (an evidence for this is that despite the difficult task faced by children who learn language, language is learned rapidly and with lack of explicit tutelage and enough stimuli). -These working assumptions about linguistic autonomy worked out propitiously and made linguistics a rapidly developing area of science. But whether these assumptions can ultimately be sustained constitutes a problem that has yet to be resolved. -Chomsky criticized behaviorism, which attempted to explain linguistic behavior in terms of the same stimulus-response chains and laws of reinforcement, ignoring the intricate structural properties of language, because it ignores the creative aspect of language. Cambios posteriores -In the “Standard Theory”, there are no longer initial kernel sentences. Instead, one now starts with the base grammar, which generates an initial phrase marker, the deep structure, major operations being performed upon this deep structure. There is a transformational component which converts the initial deep structure into other structures, the final of which is the surface structure. Deep-structure relations are interpreted by a semantic component: thus, the information necessary for semantic analysis must be represented in the deep structure. Phonological interpretation occurs on the surface structure string. -The Standard Theory was a more ambitious theory, attempting in part to accomplish for semantics what had been modeled for syntax alone in Syntactic Structures. It also proved

far more controversial and, because of various insufficiencies, eventually had to be abandoned. Particularly controversial was the notion of deep structure. The move of making semantics an interpretation of core syntactic arrangements was also widely debated. -The conservative branch of linguistics argued that only humanly invented systems like logic have the regularity Chomsky sought in language. They also rejected the separability of grammar and semantics and the separation of both from the rest of culture. -Some members of the younger generation who felt that Chomsky was not sufficiently radical. They questioned the simple positing of two levels of analysis. They also called into doubt the autonomy of syntax from semantics. Ultimately, these critics abandoned simple deep structure in favor of grammars whose underlying structures were much deeper and closer to semantic representation themselves. These generative semanticists set up rules that take semantic representations as their input and yield surface structures as their output, with no intervening level of deep structure. -The problems pointed out by the generative semanticists have stimulated Chomsky to develop certain notational forms (using symbolic logic) and new and highly abstract mechanisms. Even the transformational component has been entirely eliminated on some accounts or radically simplified on others. -Viewing language as a more abstract notion than grammar, more remote from actual mechanisms, Chomsky became more convinced that linguists should concentrate on solving the issues of syntax. There are no more attempts to systematize semantics. -Chomsky has tried to reduce the class of transformations by discovering general conditions that rules must meet. The transformational rules, at least for a substantial core grammar, can be reduced to the single rule "Move alpha" (that is, "move any category anywhere"). As transformational rules and phrase-structure rules become less prominent, more attention is being paid to the lexicon –to the particular rules governing specific words–, which now contains much of the information that used to be part of the transformational apparatus. And the notion of surface structure becomes much richer, yielding a "one level theory". -Chomsky describes his pursuit in theoretical terms as a search for universal grammar, which is genetically determined at its initial state and is specified, sharpened, articulated, and refined under conditions set by experience, to yield the particular grammars found in specific groups of individuals. To know a language is to be in a certain state of mind/brain: this state is described by a core grammar which consists of certain principles of universal grammar, which are to be discovered by linguists. Thus, Chomsky takes a purely realistic stance: language knowledge is a series of states in the brain. -Until fairly recently, his goal had been to describe the various rules that individuals must somehow know if they are to know a language. But now he has come to the conclusion that it is more productive to speak of various principles that govern language use, which begin in human biology. The principles of the universal grammar are various subsystems, each of which features a limited degree of parametric variation. If the universal grammar is sufficiently rich, then even limited linguistic data in the environment should suffice for developing rich and complex linguistic systems in the mind. -We see here the union of two visions in the science of the mind: the platonic vision that features language as a kind of idealized object, governed by a small set of universal principles, having relatively few parameters; ant the vision of language as an organic

system, or module, which has the potential to develop in a small and delimited range of ways. -Despite undeniable shifts in emphasis and strategy, the centrality of syntax, the belief in a transformational component, and the view of semantics as an interpretation of basic syntactic relations have endured. Reactions in Other Cognitive Sciences -George Miller became a convert to Chomskian linguistics and helped to turn the psychology of language into a testing ground for Chomsky's transformational claims, trying to demonstrate the "psychological reality” of transformations. This effort was not particularly successful, but important methods of psycholinguistic research were worked out in the process. -Chomsky’s ideas and definitions clash with established truth in psychology, finding suspicion about his formal methods, opposition to his ideas about language as a separate realm, and outright skepticism with respect to his belief in innate ideas. His particular notions and biases have thus far had only modest impact in mainstream psychology. -Chomsky had enormous influence in the psychology of language, or psycholinguistics. In the study of syntactic capacities, models for analysis were generally supplied by Chomsky. At times these models have been used as a means of characterizing the data collected; at other times, the data have been used to test the "psychological reality" of models. However, when Chomsky’s models were applied, the results have not been consistent with those models, at least in any straightforward way. Sometimes he has discounted empirical research in psycholinguistics, with the disclaimer that their theories have to do with idealized competence, and not with the facts of individual performance. -Jerrold Katz and Jerry Fodor introduced Chomsky’s model to philosophy. They developed a model of semantics which became incorporated into the "standard version" of transformational grammar. Philosophers have reacted coolly to Chomsky's promotion of seemingly discredited rationalist notions and to his enthusiasm for innate ideas. His ready use of terms like rules, structures, systems, with (apparent) disregard for the nontrivial technical problems involved in such concepts, and his facile reinterpretation of leading philosophical figures of the past have proven difficult for most philosophers to swallow. Also Chomsky's lack of interest in semantics has troubled many philosophers, who find in the work of semanticist Richard Montague some of the same formal elegance others have admired in Chomsky's syntactic discussions. -Several of Chomsky's main ideas are not readily implemented in computational formats. For example, there is no guarantee in principle that one can parse sentences using transformational grammatical approaches. Moreover, A.I. is very much oriented toward practical problems of designing programs that understand sentences or stories, and Chomsky's syntax-centered framework is not suited for the main issues of understanding discourse. Accordingly, computer scientists like Roger Schank have been publicly hostile to the theory, taking the position that semantics and pragmatics are central in language and that syntax is relatively unimportant. Schank has also attacked the modular notion. For his part, Chomsky has been rather critical of research in artificial intelligence, finding it mostly unmotivated and ad hoc.

Rival Positions within Linguistics -Bresnan has concentrated on developing a theory of language which is psychologically real. In opposition to Chomsky, who pays little attention to how his derivations might be realized by an individual speaker operating under "real-world" constraints, Bresnan and her colleagues have fashioned a perspective designed to illuminate how an individual will perceive or produce language. In her lexical-functional theory, there is no transformational component. The information traditionally embedded in the syntactic components is now placed in the individual's lexicon. -Reverting to the generalized phrase-structure grammars that Chomsky strongly attacked in his early publications, Gazdar argues that one does not need transformations, and that even unusual surface structures can be stated in a straightforward way. In Gazdar's theory, semantic interpretation is applied directly to the surface structure generated by a grammar. There are explicit semantic rules for each syntactical rule.

8. Antropología: más allá del caso individual Lucien Lévy-Bruhl examina la mente de los primitivos -When Lévy-Bruhl began his study of the thinking processes of primitive, it was assumed that members of "advanced" Western civilization represented the height of reasoning, and that "lesser individuals" around the world were simply inferior copies of the Western mind. Lévy-Bruhl challenged this received opinion, holding that primitives do not reason badly, but differently. The primitive mind follows a kind of logic, a "pre-logic," which is fundamentally different from our own. -Lévy-Bruhl proposed two major characteristics of primitive thought. First of all, such thought partakes of the law of participation. Primitive individuals see objects, beings, and other external phenomena as at once identical with themselves and also as something other than themselves. Second, primitive individuals can emit and receive mystical forces, properties, and qualities, which are felt as outside themselves, without their ceasing to be what they are. Given these properties, the primitive mind does not abstain from contradiction. -Later, Lévy-Bruhl became dubious that primitives really do exhibit a different, pre-logical form of thought. He virtually adopted the position he had originally opposed, and concurred with those who see differences between primitive and civilized as a question of degree. What has been described to us under the name of primitive mentality is undoubtedly a permanent structure of the human mind but in our society this structure is blurred by the supremacy of scientific thought whereas it remains in the foreground among preliterate peoples. The evolution of methods -Early in this century, the sources of evidence were principally textual: one read the myths or, less frequently, transcripts of conversations with preliterate individuals, and then drew conclusions about the kinds of thought reflected in them. -Increasingly in the twentieth century, anthropologically oriented scholars moved to "case studies", an important step in an empirical direction. The problem with individual

fieldwork, however, was that it left a great deal of discretion in the hands of a single investigator or a small cadre of fieldworkers. -The need of more objective methods which could be employed by a single investigative team gave rise in the 1960s to the field of ethnoscience. -While it seemed for a while that the new empirical procedures might place anthropology on a firmer scientific footing, there has recently been a disaffection with these methods. There has been at least a partial return to the view that anthropology ought to re-embrace the holistic methods of the in-depth case study, and perhaps align itself more with the humanities and less with the sciences. Edward Tylor’s empiricist anthropology -Edward Tylor undertook in his book a rationalist assault on the divine inspiration of religious beliefs. According to his revisionist perspective, human culture and religions were products of a natural, law-governed evolution of human mental capacities. -Tylor was declaring that human capacities are not simply part of one's birthright: they are rather derived from one's membership in a group and presumably could be changed, if the individuals were reared in a different group or if the group itself altered its practices or its values. -According to his own scheme, humanity could be arrayed along a linear track, ranging from savagery, to barbarism, to civilization. He believed in psychic unity, however, and held that all peoples were capable of making this progression. Further, even those individuals at the height of civilization were not bereft of earlier traces. Conversely, Tylor also held that even the most irrational customs are products of a reasoning capacity like our own. -Tylor also made important methodological contributions. Noteworthy was his statistical method of adhesion, whereby he attempted to determine which customs or practices hang together, by preparing massive lists of the practices carried out in various cultures, and noting which tended to occur at the same time. James Frazer’s speculative anthropology -Frazer traced a connecting thread from the pagan ceremonies of the past to the practices of Christianity and other modern religions. He described early forms of magic where one could control another individual simply by gaining possession of some vestige of that individual. These totemic practices anticipated the rise of religion where individuals gave up the belief that they themselves could control events, and instead posited nonhuman higher powers which govern the world. And finally, Frazer described the highest stage of development, that of science, where man once again began to manipulate nature, but this time sought to uncover and test the relevant physical laws. On this view, early men and contemporary primitives were seen as relatively irrational, though perhaps possessing the same potentials as modern man. -The tradition that Frazer represented eventually yielded to a less grandiose, more empirical approach. There was a large-scale expedition to the Torres Straits in the South Pacific. The interest was kept in primitive mentality, but there was a shift in method, trying to take systematic measurements of psychological characteristics in the field. Anthropologists did not focus on "higher" cognitive functions, but they probed abilities to make discriminations in various sensory modalities, to appreciate illusions, and to name colors. Nor were the results particularly decisive with respect to the controversy about primitive mentality. There

were some provocative findings: for example, a hint that the language available to individuals might influence the way in which they see or group colors; documentation of the Papuan's keen powers of observation; a suggestion that the perception of spatial relations may also be culturally conditioned; and the documentation of capacious memories for family genealogies. The American Version -Faced with the conflicting claims of the physicist -who sought objective explanations of color- and the explorer -who sought to capture the atmosphere of exotic cultures- Boas strove to reconcile these perspectives. He concluded that validity must be granted both to the scientific view of the outsider and to the subjective view of the particular individual or culture. He brought this lesson to the larger arena of anthropology, where he undertook a long-term study of Indian societies in the Pacific Northwest. In addition, he began to train nearly all of the next generation of anthropologists. -He avoided strong theoretical statements, preferring to adopt a more inductive approach. -He opposed the notion of the linear evolution of culture. Boas felt that each culture was best studied in terms of its own practices, needs, and pressures, rather than in relation to some other culture which represented a more or less advanced mode of organization. -Boas also emphasized the importance of language and of linguistics for all of anthropological study. He developed methods for the careful notating of languages. He also underlined the important role of language in all of human activity, though he expressed skepticism that a culture could be restricted by the form of its particular language. He saw thought as influencing language rather than vice versa. -The difference between primitive peoples and ourselves is that whereas the categories used by the primitive have developed in a crude and unreflective manner, contemporary literate populations have been able to systematize knowledge, in the manner of the rational scientist. This difference has emerged not because each individual in our society thinks in a more logical manner but rather because various philosophically oriented materials have become worked out more systematically over the generations and are now available to the general population. Primitive and modern individuals possess essentially the same cognitive potential. -His most vocal critics in the next generation were those who, unlike Boas, had a strong theoretical position to defend. -Leslie White and Marvin Harris, devotees of evolutionism who were sympathetic to Marxism, portrayed Boas as one who refused to take a stand on the relationship between one culture and another, and who, in his passion for data about particular individuals and groups, neglected the material and technological basis of human activities. -A. R. Radcliffe-Brown stressed the importance in anthropology of an undergirding theory; he promoted a Durkheimian approach, in which the needs for group solidarity exert a decisive impact on kinship structures and on the actions and beliefs of individuals. Radcliffe-Brown also saw cultures as part of a social system, as “organisms” which evolve toward increasing diversity and complexity. -The functionalist approach of Malinowski evinced little interest in mental phenomena or in historical factors. According to Malinowski, the anthropologist should search for the various goals that a particular custom, material object, idea, or belief serves within a society. His biologically and psychologically oriented explanations never captured the field.

The Special Status of Language and Linguistics -Sapir and his student Whorf came to believe that the language used by a group has been a principal determinant of the belief structures and the ways of thinking of that population. The worlds in which different societies live are distinct worlds, not merely the same worlds with different labels attached. -Boas and Lévi-Strauss observed that neither language nor culture rise to consciousness. Precisely because people are unaware of these structures, they are much less likely to revise them at will or to invent ad hoc explanations of their nature and operation. -Jakobson had pointed out that certain properties of the human mind determine the ways in which language operates. Because human beings tend to perceive things in terms of polarities, many important distinctions in language also prove to be binary. These features do not exist in an unorganized fashion: they constitute a system, where the relations obtaining between the features become primary. The Structuralist Version -Lévi-Strauss showed that key aspects of culture are best thought of as linguistic in nature and are best approached by the methods of the structural linguist. -Lévi-Strauss noted that in any kinship system one has as primary data both the system of relations between terms (father, son) and the system of relations between attitudes (intimate, distant). Playing structural linguist, one must take into account all the relevant terms and the relationships among them all. -Lévi-Strauss clarified the obscure nature of dual organizations –where two parallel kinds of clans, often exogamous, exist within the same village. Lévi-Strauss adduced evidence that these dual organizations actually mask the underlying dynamic force, which arises from the exchange of women and other commodities. It is this exchange, rather than the external residence patterns, that reflects the actual social relations found in the village. -He has sought to discover human mind: the ways in which humans takes in, classifies, and interprets information. He has approached this assignment by studying the ways in which individuals classify objects and elements, and the ways in which they create and understand myths. Much of this work is put forth as being empirical-based on the classificatory systems observed around the world and on the myths related in many Indian tribes. He makes no secret of the fact that he must rely on his own intuitions too. -In his studies of classification, he comes down decisively in favor of the proposition that the principal feature of all minds is to classify, and that primitive individuals classify pretty much along the same lines, and in the same ways, as the most civilized persons. The primitive mind classifies everyday objects and experiences in terms of their overt perceptual and sensory properties. -In structuralist fashion, he proposed a breakdown of a myth into component parts or units (the elementary phrases of the myth) and then the assembling of all units that refer to the same theme or make the same point. He is willing to take any kind of myth fragment or myth corpus and reduce and rearrange its elements, in order to come up with an account of the themes with which it is working and the kinds of messages that seem implicit in it. The simple empirical categories that populate myths are best conceived of as the conceptual tools for approaching the more abstract concerns with which human beings everywhere must grapple. Myths are not to be understood as independent of each other, but as constituting a system.

-Dan Sperber thought that it is from the work of Chomsky, Fodor, and others of the transformationalist school that the anthropologist must now seek models. Here the lessons turn out to be largely negative. Sperber points out that most human beliefs are not purely propositional but are rather semipropositional. It is risky to apply to such amorphous belief systems the rigid classificatory grid of the syntactician or the phonologist. Instead, one needs to study the processes whereby rich penumbras of meaning are evoked. Sperber's positive contribution inheres in his characterization of symbolic processes: rather than being induced or constructed from experience, the symbolic mechanisms are part of the innate mental equipment which makes experience possible. Anthropology is the discipline that has access to the fullest range of beliefs, practices, and symbolic systems; hence, it is in a privileged position to lay bare the operation of those human symbolic mechanisms that supplement the pure computational aspects involved in language, mathematics, and ordinary classification. -The most telling line of criticism against Lévi-Strauss questions whether polymorphous human behavioral patterns and beliefs can lend themselves to the kind of systematic, rulebound, and "closed" analysis that has proved appropriate for certain aspects of linguistic structures. Geertz criticizes Lévi-Strauss's mechanistic approach, his ignorance of the particular historical conditions that spawn a given myth or social organization, the minimization of affective and emotional factors, the loss of the specific individual with his or her own needs, motivations, goals, and wishes. Geertz also questions the wisdom of construing symbolic products as the output of internal cognitive mechanisms: according to his more public view of mind, myths, rituals, beliefs, and the like are a socially generated form of symbolization. Ethnoscience -Ethnoscience (or componential analysis, or ethnosemantics, or cognitive anthropology) comprises the organized study of the thought systems of individuals in other cultures and sometimes in our own. The background of systematic linguistics spawned the initial pair of publications consciously styled in the ethnoscientific mode, like analyses of kinship terminology. Drawing on the model of a linguist's grammar, ethnoscientists search for the ways in which knowledge of a culture's rules is reflected in the behavior of natives, and especially in their speech. Componential analysis -The method of componential analysis starts, for example, by taking a set of kinship terms. Next, they define these terms with respect to genealogical relations. All terms are defined through primitive forms and some simple operators. The third stage entails a number of observations obtained from the definitions. Now comes the crucial stage: the analyst hypothesizes that three dimensions will be sufficient to define all the terms: the sex of the relative, generation, and lineality. In the next step the terms are redefined as points in a three-dimensional space. -A "formal account" of a collection of empirical data has been given when there have been specified 1) a set of primitive elements, and 2) a set of rules for operating on these, such that by the application of the latter to the former, the elements of a "model" are generated. A formal account is thus an apparatus for predicting back the data at hand, thereby making them "understandable".

-One test of the adequacy of this account is that it does not do violence to my own feel, as informant, for the structure of what is described. This is the subjective test of adequacy. An equally important test is that it provide an alien with the knowledge he needs to use my kinship terminology in a way I will accept as corresponding with the way I use it. This is the objective test of adequacy. Critiques of Ethnoscience: From Within -When one turns to domains like color, botany, and disease, it turns out to be more complex to elicit the relevant terms and delineate the domain, let alone to ferret out the relevant dimensions that may systematize the domain in a defensible and desirable way. Even when the terms and dimensions have been delineated, the way in which to arrange them becomes a subject of considerable controversy. -Still thornier questions arise when one wants to determine whether a componential analysis is appropriate, or which of a number of competing analyses is most accurate. The "psychological reality" of an analysis –is it in the heads of all informants, of trained and reflective informants, or only in the head of the analyst?– turns out to be one of the most complex questions. -There are also problems with homonyms and metaphors, where the same words might have different meanings, or where different words might have the same meanings. There is the problem of connotation, where words may have the same objective meaning but connote different affective values. -Other critics have argued that componential analysis is inherently circular, since one must begin by assuming the very relationship among terms whose relationship should actually be fixed only at the conclusion of the investigation. -Some commentators have focused on the enormous problems of translating terms from a foreign language into a familiar tongue and assuming that the same kinds of analysis can be applied to the translations. Critiques of Ethnoscience: Outside the Ranks -Clifford Geertz points out that one has to pay attention to the logic exhibited in actual life, not to some kind of abstracted set of symbolic elements whose validity for the inhabitants is questionable at best. In the same line, Gary Witherspoon argues that many aspects of importance are simply not marked in the language. -Ethnoscience reflects an atomistic conception of language, without any sense of how words function in a social context, the kinds of actions in which they are embedded, and the ways in which they interact with and influence one another. -Tyler held that the view of language as showing the cognitive systems of individuals creates problems in understanding how the purely formal system of elements and rules relates to something other than itself. Both create dualistic systems which oppose formal linguistic competence to empirical components. Language is not merely a means of representing ideas but equally a means for expressing wishes, feelings, and emotions –and, above all, a way of getting things done in the world. The independence of semantics from pragmatics must be rejected. -Compositional analysis rapidly become dysfunctional when applied to slippery areas, like emotions or diseases, where the line around the domain is not announced in advance and where an individual's (or a group's) idiosyncratic interpretive system comes more readily to the fore.

-Stephen Murray discerns two different reasons for the evanescence of classical ethnoscience. The first stems from a promise that was not fulfilled: during a study of drinking in Chiapas, investigators could not find objective procedures to systematize the collected information. The second reason is that ethnoscience never cohered into a single integrated perspective but was, at best, a loose confederation. Psychological Forays -Investigators of perceptual capacities found that on certain items, such as the Müller-Lyer illusion, European and American samples proved more susceptible to illusions. These seemed to show that the experience of groups conditioned the way their members perceived. -An early wave of studies of reasoning capacities was sympathetic to the notion that people outside the West performed far more poorly on tests of abstraction, conceptualization, and classification. Some important methodological adjustments were made, and it emerged that, when familiar materials were used, or when requested behavior was explained to or modeled for the subjects, many of the documented differences between individuals from the two cultures now evaporated. The fundamental operations of thought are the same everywhere, and it is the uses to which these processes are put that differ dramatically across cultures. Superimposed upon this basic continuity is the advent of certain abilities to reason without the usual contextual supports, or to carry through certain complex chains of reasoning, which seem to develop chiefly among individuals exposed to years of Westernstyle secular schooling. -There was a widespread suspicion among anthropologists that the differences between conceptual systems in remote cultures were vast and that these might well reflect variations in the structure or the contents of language. However, in a line of study which continues to exert wide influence in several cognitive sciences, Eleanor Rosch strongly challenged the Whorfian line: she demonstrated that, even in cultures with few color terms, individuals still sort, classify, and otherwise deal with the color spectrum in roughly similar ways. -These lines of work have helped swing the pendulum of anthropological analysis back to the pole of universalism. Individuals perceive and classify in relatively similar ways, and the ways in which they classify reflect the operation of deep principles of mind which cannot easily be dislocated. -One productive way in which the anthropological community can solve the tension between universalism and relativism is to inform its studies with promising concepts or methods from cognitive science. There are some investigations that cherish the individual details of particular groups in their home context: they pointedly spurn premature generalizations or excessive reliance on arbitrary sorting tasks. Still, when proper caution is taken, forms of thinking in remote settings do lend themselves to comparison with the kinds of thought process exhibited and the kinds of measure used in traditional Western-schooled settings. -While most energy in recent years has been devoted to the increasingly fine-grained analysis of particular domains, some investigators remain interested in the general conundrums of how culture is possible, how it is constituted, and how it is acquired. Part of the interest unfolds in an evolutionary framework. Moving to a briefer time frame, other investigators have raised the question of how children in a society "learn” culture, using a computational metaphor to account for that learning.

-The success of the cognitive scientific approach to anthropology will hinge on whether the rigor of componential analysis (or some other computationally inspired approach) can be wedded to the broad issues that have traditionally attracted scholars to the study of exotic cultures. -In a sense, it is useful to think of anthropology as representing a kind of "upper bound" for cognitive science. Anthropology clearly deals with issues representing very large bodies (such as entire cultures) and spanning a quite wide scope (such as the relationship between a culture's linguistic practices and its thought patterns). -It may turn out, however, that cognitive scientific methods are only partially successful in dealing with such a broad assignment or can only be usefully brought to bear upon the most constrained (and possibly the least interesting) domains. If, in the last analysis, anthropology proves to lie largely outside of the mainstream of cognitive science, this will be an important (if somewhat disappointing) finding. And it may signal the even less happy outcome that large areas of psychology, philosophy, and linguistics may also fall outside of cognitive science, at least as currently practiced. -The question of how to study the mind remains hotly debated. In the last several years a moderate middle ground between structuralism and hermeneutics seems to be emerging. According to this tack, anthropology remains the field where careful case studies are indispensable and where keen attention to particularities remains of enduring importance. At the same time, there is no reason why these studies cannot be informed by the most salient and useful cognitive concepts and analytic frameworks. Cognitive science can contribute to anthropology, without enveloping it. -In the last analysis, all that can be attained by any individual in any culture is restricted by the particular species to which one belongs, and, more specifically, by the nervous system that one possesses by virtue of one's humanity. For this reason, anthropologists of every stripe savored discoveries about the human as an organism. Such insights from the areas of biology and neuroscience will not in themselves answer questions about culture. Neuroscience serves as a kind of "lower bound" to cognitive science and thus is maximally distant from anthropology. But, in due course, findings from the study of the human nervous system may well illuminate how an individual becomes able in such short order to assimilate and to transmit to others the practices of the culture in which he or she happens to live.

9. Neuroscience: The Flirtation with Reductionism Karl Lashley Poses a Research Agenda The Lesion Technique -Lashley made extensive use of the technique of ablation, where specific areas of the nervous system are destroyed by means of a surgical lesion. The basic goal of the ablation technique is to determine which behavior is impaired or destroyed following a punctate lesion, and thereby to infer which functions are typically served by that region of the brain. -He strongly questioned the significance of specific neural zones and connections: it is very doubtful that the same neurons or synapses are involved even in two similar reactions for the same stimulus. The mechanisms of integration are to be sought in the dynamic relations among the parts of the nervous system rather than in details of structural differentiation.

-Lashley was calling into question localization, the belief that specific behavior resides in specific neural locations. At the same time, if less explicitly, he was also posing difficulties for reductionism, the scientific program that seeks to explain behavior entirely in terms of neural (or other lower-order) principles. Equipotentiality and Engrams -Lashley was attracted to the principal ideas of Gestalt psychology: perhaps the brain works as an integrated unit, responding as an organized totality to complex patterns of stimulation. -He spoke of equipotentiality, the capacity of any part of a functional area to carry out a particular behavior. Impairment in performance is due not to the site of the injury, but rather to the amount of tissue destroyed. All of the cells of the brain are constantly active and are participating, by a sort of algebraic summation, in every activity. There are no special cells reserved for special memories. He pondered also the property of plasticity, the potential for remaining areas of the nervous system to take over when a specific region has been damaged. -Lashley concluded that we would never find the engram, the discrete representation in the nervous system of specific ideas, concepts, or behaviors. During learning, information comes to be represented widely within large regions of the brain, if not throughout the brain as a whole. Whether the cells can be mobilized to carry out an impaired function depends upon the percentage of them still remaining after brain injury, the degree to which the pattern of behavior has been mastered beforehand, and the strength of motivation of the animal. -Lashley he helped to cast doubt on the reflect arc, the bond whereby each response is triggered by a specific stimulus, which had been the principal neural model of behavior in higher (as well as lower) organisms. Lashley's Iconoclasm -Lashley demonstrated that many sequences of behavior exhibited long planning units which unfold too quickly for them to be altered or corrected “live”. In his view, it was necessary to reconceptualize current associationist models of the nervous system to allow for effects that can be manifest for a significant period after initial stimulation. No simple stimulus-response bonds can explain this behavior: one needs a model of the nervous system which is hierarchically arranged and features feedback and feed-forward mechanisms. -Lashley has criticized the comparison between the brain ant the computer. The neuron, like a switch or valve, either does or does not complete a circuit. But at that point the similarity ends. The switch in the digital computer is constant in its effect, and its effect is large in proportion to the total output of the machine. The effect produced by the neuron varies with its recovery from [the] refractory phase and with its metabolic state. The number of neurons involved in any action runs into millions so that the influence of any one is negligible. Any cell in the system can be dispensed with. The brain is an analogical machine, not digital. -Lashley described behavior that eluded current mechanistic models and strongly implied more abstract and hierarchically organized forms of representation. He did not call for explanations on the mentalistic level, but his work, and his talk of "plans" and "structures", cleared the way for Simon's belief in a symbol system, Piaget's call for mental operations, Miller's TOTE system, and Chomsky's resorting to rules and representations.

-The nervous system turns out to be far more specific, far less equipotential than Lashley had contended. His belief that the brain works in a Gestalt-like fashion would find few adherents today. -It has been held by many scientists, especially neuroscientists, that the optimal way to account for human behavior and thoughts is in terms of the structure and functioning of the human nervous system. To some investigators, this neuroanatomical account can complement accounts proffered in psychological or behavioral language; but for others, neuroanatomical accounts may eventually render unnecessary accounts in terms of representations, or symbols, or other psychological argot. In the view of this latter reductionist group, cognitive science emerges as, at best, a temporary account of mental activity destined to vanish once an account in terms of synapses can be attained. The debate about the possibility and the desirability of reductionism lurks in the background in any account of neuroscientific work. How Specific Is Neural Functioning? Evidence for Localization -Toward the end of the nineteenth century, the work of Fritsch, Hitzig, Ferrier and Broca made the pendulum began to swing from Flourens’s holism toward Gall’s localizationism. It was a heyday for scholars of a localizationist persuasion. With increasingly sophisticated methods for testing animals, claims were made for specificity in each region of the cortex. As additional case studies of brain-injured patients accumulated, claims about the astonishing specificity of certain cognitive deficits were forthcoming. The Resurgence of Holism -Against Broca, Pierre Marie showed that the third frontal convolution plays no special role in the function of language, and that each of Broca's patients had far more extensive lesions than Broca had reported, and the range of accompanying deficits had not been documented with sufficient precision. Within a few years, a variety of neurologists had endorsed his claims that cognitive functions are not highly localized in the nervous system. They adduced evidence that the same kinds of deficits could be obtained from individuals with lesions in a wide variety of areas; and conversely, patients with similar anatomical lesions often exhibited contrasting sets of deficits or even at times no deficits at all. They spoke of the plasticity of the nervous system, the capacity of uninjured areas to take over from injured areas, and the loss of abstract thinking and other functions as a consequence of the size, rather than the site, of lesion. -Holists were far more sympathetic to the notion that behavior could not be explained satisfactorily in terms of neural circuitry. As they saw it, there was a continued need for explanation on the psychological level. There was a correlation between skepticism about localization and skepticism about reductionism –not a logically necessary association, to be sure, but a meeting of two ideas in the minds of many scientists. -Localization of symptoms did not signify localization of function. A specific section of the brain may be necessary for a specific function, but there may be other sections that are also necessary for that function. Evaluating the Evidence

-By the end of the 1940s, many investigators were seeking some rapprochement between the rabid holists and the extreme localizers. Claims about highly specific syndromes following highly specific lesions could not be maintained; the variation across patterns, and across clinics, was simply too great. Besides, any number of lines of investigation undercut the extreme holist position. Donald Hebb's Bold Synthesis -Hebb argued that behavioral patterns, such as visual perceptions, are built up gradually over long periods of time through the connection of particular sets of cells, which he called cell assemblies. To this extent, behaviors or percepts can indeed be localized in specific regions. However, with time, more complex behaviors come to be formed out of sets of cell assemblies, which he called phase sequences. These phase sequences are less localized, and involve much larger sets of cells drawn from disparate sections of the nervous system. A phase sequence inevitably involves some equipotentiality. Finally, by the time the organism has reached maturity and is capable of performing the most complex forms of behavior, it is difficult to attribute any behavior to a discrete set of neurons in a delineated region of the brain. It would be an oversimplification to see the developmental course as proceeding from localizing to holism; for, in other respects, the sequence is exactly the reverse. A beneficial effect of Hebb's work was to point up these various complexities and competing tendencies, making it less plausible for anyone to adopt a rigid localizing or an inflexible holist position. The Hixon Symposium Revisited -During the Hixon Symposium, the major neurologists, neurophysiologists, and neuropsychologists debated with one another the tenability of the localization position. Hubel and Wiesel's Decisive Demonstrations -In the late 1950s, David Hubel and Torsten Wiesel began to record with microelectrodes impulses from single cells in the cortex of cats and other animals. They demonstrated beyond any doubt that specific cells in the visual cortex respond to specific forms of information in the environment. They also demonstrated the critical role played by certain early experiences in the development of the nervous system. For those in sympathy with specificity and localization of function, the last few decades have yielded much confirming evidence. The Molar Perspective Sperry on Split Brains -Because they were suffering from intractable epilepsy, a small group of patients were subjected to a surgical intervention where the two halves of the brain were disconnected from one another. Sperry devised methods for testing separately the two halves of the brain. He documented important differences in the functioning of two hemispheres. Sperry reinforced the impression that the left hemisphere is dominant for language and other conceptual and classificatory functions, while the right hemisphere assumes a dominant role for spatial functions and for other fine-grained forms of discrimination. However, the Sperry team was able to show some holistic conclusions: the right hemisphere of righthanded persons was capable of far more linguistic functioning than had hitherto been

thought. Besides, the younger they had been at the time of their operation, the more likely it was that patients would reveal well-developed capacities in both hemispheres. Gradients of Plasticity and Hierarchy of Functions -Sperry's results suggest that the degree of plasticity depends of the earliness of the injury. Other factors also influence the degree of plasticity: for example, younger individuals who are left-handed or who have sustained some brain injury early in life also exhibit more plasticity than those who exhibit contrasting traits. -With development, different nervous centers gain dominance, and the hierarchy among behavioral functions alters. For instance, in young children, sensory regions are dominant; but in older individuals, the association cortexes and the "planning regions" of the frontal lobes become ascendant. According to Luria's studies, no function is carried out fully by a specific region, but nor is it the case, as Lashley implied, that all regions figure equally in a specific function. Rather, several anatomical regions may figure in the performance of a particular behavior, but each of them makes a characteristic and irreplaceable contribution. -While, in general, it is preferable to sustain an injury to the brain early rather than late in life, and to exploit the plasticity of that developmental stage, early is not always better. There are at least three caveats. First of all, sometimes an early injury manifests no apparent deficits at the time but produces severe deficits later in life. Second, when another area of the brain takes over, the "rescuer" may well sacrifice the potential for carrying out its own preordained functions. Finally, even when another area of the brain assumes a function, it may not do so in an optimal way. -Other considerations militate against a purely "plastic" perspective. Work in experimental psychology documents that organisms are "prepared" to master certain behaviors and "counterprepared" to learn other ones. The Neural Base of Cognition: Studies of Two Systems -It is now conceded that, at least at the level of sensory processing, the nervous system is specifically constructed to respond to certain kinds of information in certain kinds of ways. There is also evidence for "neural commitment" at much more molar levels of representation, even extending to the two cerebral hemispheres. On the other hand, impressive evidence continues to accumulate documenting the resilience and plasticity in the nervous system, particularly during the early phases of development. As a tentative conclusion, then, it seems that some localization is accepted by all, but that important islands of plasticity remain within this general framework. -Studies have reverted to a more circumscribed terrain. Neuroscientists are devoting the bulk of their time to the careful study of specific systems in specific organisms. Eric Kandel Bridges a Gap Recently Eric Kandel has succeeded in bridging the gap between the functioning of the individual nerve cell and the behavior of organisms. He focused on a snail, whose nervous system can be readily described and which is also capable of simple forms of learning. Kandel has shown that these elementary aspects of learning are not diffusely distributed in the brain but rather can be localized in the activity of specific parts of neuronal networks. Learning results from an alteration in the synaptic connections between cells; rather than necessarily entailing new synaptic connections, learning and memory customarily come about as a consequence of alteration in the relative strength of already existing contacts.

The potentialities for many behaviors of which an organism is capable are built into the basic scaffolding of the brain and are to that extent under genetic and developmental control. Environmental factors and learning bring out these latent capabilities by altering the effectiveness of the pre-existing pathways thereby leading to the expression of new patterns of behavior. The Song of Birds Fernando Nottebohm has studied the songs of birds. He showed that various deprivations exert predictable influences on the course of song development. Canaries, for example, require auditory feedback for normal development. They can, however, go on to produce a well-structured song even in the absence of hearing the vocalizations of other members of their species: their own songs suffice. In the chaffinch, however, both auditory feedback of one's own song and exposure to the songs of other birds are needed if the chaffinch is to produce a full normal song. Bird song is one of the few instances of brain lateralization among infrahuman animals. The aphasic canary can recover its prior songs because the homologous pathways of the right hemisphere have the potential of being exploited. -The work of investigators like Nottebohm and Kandel is based on the premise that much can be learned at this point through the careful study of a single system in a single organism. -The two research efforts proceed on somewhat different assumptions. Kandel hopes that by studying habituation and conditioning, he will eventually illuminate processes known to occur in a wide range of organisms, including humans. The Nottebohm line of research, on the other hand, studies bird song as a behavior that clearly exists only in birds, and any generalizations that may be validly extended from bird song to other systems in other organisms will only emerge after careful study of these systems on their own terms. There is the same tension between a modular and a general point of view. -Hubel and Wiesel hold the belief that systems may work in their own way. Each region of the central nervous system has its own special problems that require different solutions. For the major aspects of the brain's operation no master solution is likely. -The work of Kandel (and to a lesser extent of Nottebohm) raises afresh the issue of reductionism. It seems to some observers that an account of the classical psychological phenomenon of habituation in terms of neurochemical reactions is an important step on the road to the absorption of cognition by the neurosciences. Yet most scientists of a cognitive persuasion feel that such accounts, while informative, will still prove tangential to their ultimate interests. Pribram's Holographic Hypothesis Pribram argued that the brain is better analogized to a holographic process. Holography is a system of photography in which a three-dimensional image of an object can be reproduced (with the appearance of the third dimension preserved) by means of light-wave patterns recorded on a photographic plate or film. A hologram is the plate or film with the recorded pattern: information about any point in the original image is distributed throughout the hologram, thus making it resistant to damage. According to Pribram's holographic view, all parts of the brain are capable of participating in all forms of representation, though admittedly certain regions play a more important role in some functions, and other regions are more dominant for other functions. Just as many holograms can be superimposed upon

one another, so can infinite images be stacked inside our brains. Since the hologram records the same wave front over its surface, repeating it over and over, if only some of a shattered hologram is left, it will still suffice to reconstruct the entire image. What interests brain theorists about the hologram is this quality of a distributed memory: every piece of the hologram says a little bit about every part of the scene, but no piece is essential. Three Historical Moments We might single out three moments in the age-old debate about the degree of localization of representation in the human nervous system. -The first moment involved scientific insights. When Descartes located the soul in the pineal gland, when Gall spoke about the representation of amativeness and of criminality in different lobes of the brain, each was announcing claims without benefit of experimental evidence. -A significant step forward took place when it was possible to examine the effects of injuries to discrete areas of the nervous system. When Fritsch and Hitzig lesioned specific sites in the nervous system of dogs, when Broca and Wernicke looked at the effects of strokes in the human cerebral cortex, they were able to substantiate correlations between regions of the brain and forms of behavior. -Finally, when Hubel and Wiesel recorded from discrete cells in the visual cortex of the cat, it became possible to ascertain with great specificity the function of particular units and the circumstances under which they would function (or fail to function) normally. -The thrust of the new research lines has had two effects: first, to render localization as a more plausible general orientation; second, to direct the attention of active scientists to the operation of specific systems, rather than to continued debate on broad conceptual issues. And yet it is far too early to claim that the pendulum has stopped swinging, or that the pivotal questions motivating neuroscience have been answered. The voices in favor of mass action and plasticity have not been stilled. Moreover, within the specific areas of higher cognitive functioning there remain debates about even the most basic issues. Moreover, even if localization seems (on the whole) to be more tenable than holism, it is now apparent that reductionism is a separate issue. Will Neuroscience Devour Cognitive Science? -Researchers in the neurosciences stand out from their cognitive-scientific peers because they most closely partake of the model of the successful sciences of physics and biology, because they can most readily state their questions unambiguously and monitor progress toward their solutions. -They are not all that different. Fundamental debate continues on many of the central questions. While rapidly growing, neuroscience is a young field and is still in the process of defining, rather than resolving, many principal issues. -There are those (perhaps a majority) within the neurosciences who would maintain that cognitive scientific concepts and concerns are not relevant to a biologically oriented science. So long as the science remains relatively immature, it may be necessary, for the time being, to carry out psychological experiments or to engage in computer simulations of behavior. But once the appropriate neuroscientific studies have been carried out, explanations that feature behaviors, thoughts, actions, schemas, or other molar or representational concepts should become superfluous.

-There is a parallel reductionist tendency within the neurosciences themselves. So long as the science remains immature, it may be necessary to speak about occurrences at molar neural levels. But ultimately such talk should disappear, as the same occurrences can be accounted for at the level of a particular cell. -From the perspective of cognitive science these lines of argument are untenable. One cannot have an adequate theory about anything the brain does unless one also has an adequate theory about that activity itself. It is not possible to enter into the nervous system as a disinterested observer who is simply chronicling the facts. Both the topics studied, and the ways in which they are studied, will reflect implicit theories: theories about what perception, cognition, or language are; what is important in each; and how each of these processes occurs. -I think it best to regard neuroscience as one of the border disciplines of cognitive science. Many of the phenomena investigated by neuroscientists are either accounted for perfectly adequately without any reference to the representational level or allow but a subsidiary role for representational aspects. Such phenomena do not belong to the mainstream of cognitive science, any more than do discussions of the religious system of an aboriginal tribe. But once neuroscientists begin to invade domains that entail more complex forms of mentation there is no longer any possibility of finessing these representational issues. It is at this point that interdisciplinary cooperation becomes an imperative. And it is at this point that the cognitive challenge arises: how best to build explanatory bridges between the level of the neuron and the level of the rule or the concept.

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF