Teoria Computacional de La Mente

August 31, 2017 | Author: Alondra Gutierrez | Category: Noam Chomsky, Perception, Attention, Mind, Knowledge
Share Embed Donate


Short Description

Download Teoria Computacional de La Mente...

Description

TEORIA COMPUTACIONAL DE LA MENTE 1.- CONTEXTUALIZACIÓN HISTÓRICA Cerca de 300 a. C., Aristóteles fue el primero en describir de manera estructurada un conjunto de reglas, silogismos, que describen una parte del funcionamiento de la mente humana y que, al seguirlas paso a paso, producen conclusiones racionales a partir de premisas dadas.

1.1.- El surgimiento de la visión computacional En 1847 George Boole estableció la lógica proposicional (booleana), mucho más completa que los silogismos de Aristóteles, pero aún algo poco potente. En 250 a. C. Ctesibio de Alejandría construyó la primera máquina auto controlada, un regulador del flujo de agua que actuaba modificando su comportamiento "racionalmente" (correctamente) pero claramente sin razonamiento. En 1879 Gottlob Frege extiende la lógica booleana y obtiene la Lógica de Primer Orden la cual cuenta con un mayor poder de expresión y es utilizada universalmente en la actualidad. En 1937 Alan Turing publicó un artículo de bastante repercusión sobre los "Números Calculables", un artículo que estableció las bases teóricas para todas las ciencias de computación. En este artículo introdujo el concepto de Máquina de Turing, una entidad matemática abstracta que formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras digitales. En 1903 Lee De Forest inventa el triodo, también llamado bulbo o válvula de vacío. En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo de inteligencia artificial, aun cuando todavía no existía el término. En 1879 Gottlob Frege extiende la lógica booleana y obtiene la Lógica de Primer Orden la cual cuenta con un mayor poder de expresión y es utilizada universalmente en la actualidad. En 1950 Turing consolidó el campo de la inteligencia artificial con su artículo Computing Machinery and Intelligence, en el que propuso una prueba concreta para determinar si una máquina era inteligente o no, por lo que se le considera el padre de la Inteligencia Artificial. En 1956 se acuñó el término "inteligencia artificial" en Dartmouth durante una conferencia convocada por McCarthy, a la cual asistieron, entre otros, Minsky, Newell y Simon. En esta conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años. En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. En 1951 William Shockley inventa el transistor de unión. El invento hizo posible una nueva generación de computadoras mucho más rápidas y pequeñas. En los 90´s surgen los agentes inteligentes. En la actualidad se está tan lejos de cumplir la famosa prueba de Turing como cuando se formuló. El programa Artificial Linguistic Internet Computer Entity (A.L.I.C.E.) ganó el premio Loebner al Chatbot mas humano en 2000, 2001 y 2004, y en 2007 el programa Ultra Hal Assistant ganó el premio. Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas.

1.2 INVIABILIDAD DEL CONDUCTISMO CIENCIA COGNITIVA Se denomina ciencia cognitiva al estudio interdisciplinario de cómo la información es representada y transformada en la mente. Es el conjunto de disciplinas que surgen de la convergencia de investigaciones científicas y tecnológicas, en torno a los fenómenos funcionales y emergentes, dados a partir de las actividades neurofisiológicas del encéfalo y del sistema nervioso, incorporados. Típicamente se les denomina como: mente y comportamiento. CONDUCTISMO Corriente de la psicología que defiende el empleo de procedimientos estrictamente experimentales para estudiar el comportamiento observable (la conducta), considerando el entorno como un conjunto de estímulosrespuesta. SIMPOSIO DE HIXON Y EL DESAFIO DEL CONDUCTISMO En 1948 se reunió el Simposio de Hixon para estudiar la forma cómo el sistema nervioso controla la conducta. Pero los debates desbordaron finalmente el tema oficial. Así, Von Neuman trazó una notable analogía entre la computadora y el cerebro, y McCulloch entre el cerebro y ciertos procesos lógicos para procesar la información. El psicólogo Lashley, sin conocer tanto de informática y computación, comenzó a sentar las bases de una ciencia cognitiva y atacó las fuerzas que habían impedido su desarrollo. LA PONENCIA DE KARL LASHLEY Lashley identificó algunos de los principales elementos componentes de la ciencia cognitiva, censuró con dureza las fuerzas que habían impedido su surgimiento hasta ese momento, especialmente el conductismo; por que dictaba que los interesados en una ciencia del comportamiento debían limitarse estrictamente a métodos públicos de observación y centrarse exclusivamente en la conducta, esquivando con el mayor de sus empeños temas tales como la mente, el pensar o la imaginación. Lashley llego a la conclusión de que la forma precede y determina toda conducta específica: la organización no es impuesta desde afuera, sino que emana desde el interior del organismo. Limitaciones del conductismo frente a la ciencia cognitiva * Toda actividad psíquica podía ser adecuadamente explicada sin recurrir a la mente, el pensar o la imaginación. * Cree en la supremacía y el poder determinante del medio. * Explica el comportamiento humano usando las mismas construcciones teóricas que habían sido aplicadas al de los animales. * Tiene la creencia que el sistema nervioso se allá la mayor parte del tiempo en un estado de inactividad. * También cree que los reflejos aislados resultan activados solamente cuando aparecen formas específicas de estimulación. Necesidades teóricas de la ciencia cognitiva * Las teorías acerca de la actividad humana deben tener en cuenta las conductas organizadas, complejas. * Una teoría psicológica que dé cuenta de conductas ordenadas en forma no secuencial, por que suceden con tanta rapidez, que ningún eslabón de la cadena puede basarse en el precedente. * Una teoría que reconozca la existencia de entidades psíquicas tales como la mente, el pensar y la imaginación. CONCLUSIÓN El conductismo resulto totalmente inviable para la ciencia cognitiva debido al énfasis que hace al realizar la comparación o mejor dicho la total analogía del ser humano con un animal; dando por hecho que los animales no piensan ni mucho menos sienten. La ciencia cognitiva basa todas sus teorías en el hecho de que en el ser humano no cabe la posibilidad de la

existencia de la mente ni el alma. Las teorías dicen que toda acción del ser humano se debe al hecho explicado en la teoría más destacada del conductivismo ―ESTIMULO- RESPUESTA‖. Toda acción o actitud se debe a un estimulo previamente aplicado para poder obtener una respuesta, o sea cualquier actitud o conducta hecha por el hombre. A la ciencia cognitiva no le sirvió de nada estas teorías, resultaron inviables puesto que para poder realizar una maquina inteligente la Inteligencia Artificial necesita comprender a fondo la mente humana, todos los procesos que en ella se llevan a cabo, y como hacerlo si dentro del conductivismo no se cree en la existencia de la mente.

1.3 REVOLUCIÓN CHOMSKYANA EN LINGÜÍSTICA Nació el 7 de diciembre de 1928, es hijo del doctor William Chomsky estudioso de la lengua hebrea y Elsie Simonofsky maestra de hebreo. Estudio filosofía, lingüística y matemáticas en la universidad de pensilvana. Su libro estructuras sintácticas es su trabajo más conocido en este campo, sus planteamientos lingüísticos han revolucionado muchos puntos clave del estudio del lenguaje humano. Chomsky VS Estructuralistas Los estructuralistas pensaban que el aprendizaje del lenguaje estaba basado en simples actos mecánicos, mientras que Chomsky decía que el lenguaje es una abstracción, una capacidad de la que solo se puede tener atisbo impuro, en las realizaciones efectivas de los sujetos parlantes. Estructuras Sintácticas (1957) La primicia de Chomsky fue el establecimiento de un sistema formal para el estudio del lenguaje, que proponía: * La sintaxis puede estudiarse en forma independiente de otros aspectos del lenguaje. * La disciplina de la lingüística podía proceder de manera independiente de otras esferas de la ciencia cognitiva. La Gramática antes y después de Chomsky * Antes: La gramática de estructura de frase parte de una serie inicial de cadenas y de un conjunto finito de estructuras de frases o reglas de escritura. * Después: Chomsky establecía una serie de reglas mediantes las cuales las oraciones pueden relacionarse entre sí, de tal modo que la representación abstracta de una oración puede convertirse o transformase en otra, dando como resultado un sinfín de estructuras de frases. NIVEL DE ANÁLISIS TRANSFORMACIONAL Según Chomsky el lenguaje opera sobre reglas o principios que pueden averiguarse y enunciarse formalmente. * El método opera así: A partir de reglas de estructura de frase se generan únicamente los núcleos oracionales u oraciones básicas las cuales son enunciados breves en voz activa. APORTACIONES DE CHOMSKY A LA CIENCIA COGNITIVA ¿Cómo podemos caracterizar entonces, la actual concepción de Chomsky respecto al lenguaje? La Gramática Universal (GU) esta Genéticamente determinada en su estado inicial (en el organismo), Especifica, mejorada, articulada y refinada en condiciones establecidas por la experiencia, dando como

resultado GRAMATICAS PARTICULARES para un grupo determinado de individuos. APORTACIONES EN LINGÜÍSTICA Y A LA CIENCIA COGNITIVA DE NOAM CHOMSKY TEORIA DE UNA GRAMÁTICA UNIVERSAL Es una teoría explicativa, conocer una lengua es encontrarse en un cierto estado de la mente-cerebro, descripto por una gramática nuclear que consta de ciertos principios Universales. GRAMATICA GENERATIVA Chomsky denominó gramática generativa al conjunto de reglas innatas que permite traducir combinaciones de ideas a combinaciones de palabras. Descubrió —o mejor, fundamentó, pues ya había intuiciones anteriores en este sentido. Afirmando que el individuo nace con una fuerte propensión a aprender el lenguaje, y que las formas posibles de aprendizaje que puede aprender están muy limitadas por la pertenencia de la especie y su particular herencia genética. La Idea de una Generación Gramatical se basaba en la concepción de un autómata, una máquina en sentido abstracto, que genera simplemente cadenas lingüísticas basándose en reglas que le han sido incorporadas (programadas). ADHESIÓN AL MENTALISMO El Lenguaje ofrece el mejor modelo para la conceptualización y estudio de los procesos del pensamiento. Para Chomsky es absurdo establecer principios generales de manera informal, como los Pugnados por Skinner y muchos otros psicólogos. Paulatinamente fue Impugnando la difundida creencia en facultades muy generales y amplias de la mente, como las del aprendizaje, la generalización del estímulo, etc. Llegó a concebir la mente como una serie de órganos relativamente independientes entre sí, cada uno de los cuales tenía sus propias reglas de operación y desarrollo así como medios establecidos para interactuar con los otros órganos. Esta propuesta de carácter modular lo acercaba al mentalismo al aceptar la existencia de la mente y otras entidades psíquicas. LA IDEA DE UNA PSICOLOGÍA REFORMULADA A su manera de ver, los experimentos eran a menudo innecesarios y no probaban nada; muchos psicólogos preferían demostrar lo obvio, en lugar de pensar de manera sistemática teórica. El único Psicólogo que Chomsky alababa era Karl Lashley. Su contribución al establecimiento del ámbito de las ciencias cognitivas a partir de su crítica del conductismo de Skinner y de las gramáticas de estados finitos, que puso en tela de juicio el método basado en el comportamiento del estudio de la mente y el lenguaje que dominaba en los años cincuenta; hizo necesaria la búsqueda de una Psicología Reformulada. CONCLUSION Chomsky desarrollo su más grande teoría donde afirmaba lo que era el lenguaje innato, del cual uno como ser humano ya nace con el pero que por medio de reglas estrictas dentro de lo que es la Gramática Universal uno va ir organizando ese lenguaje ya innato para poder formular oraciones que den sentido a una conversación o una sintaxis correcta. El afirmaba también del desarrollo que debe haber para que exista una comunicación entre órganos ya establecidos. Sus teorías fueron muy aptas para adicionarse al mentalismo puesto que respaldaban la existencia de la mente y del cerebro como un órgano independiente que tendría una comunicación adecuada con otros órganos. 1.4 DESARROLLOS EN LÓGICA Y COMPUTACIÓN * La nueva lógica (Frege)

* La máquina de Turing * Teoría de la información (Claude Shannon) * La máquina de la teoría lógica (Newell y Simon) 1.4.1 GOTTLOB FREGE Gottlob Frege (1848-1925) fue un matemático y filósofo alemán cuya obra fue poco reconocida en su tiempo pero que actualmente es considerado como uno de los fundadores de la lógica moderna, y valorado también por sus importantes contribuciones a la filosofía del lenguaje. PROYECTO FREGEANO Dentro del proyecto Fregeano de fundamentación lógica de la aritmética (proyecto ―logicista‖), El Concepto grafía es el primer paso. En esta obra construye el lenguaje artificial y el sistema lógico con el que se podrá analizar la corrección de las argumentaciones que son necesarias para esa fundamentación. Para poder realizar su proyecto de justificación puramente lógica de la aritmética necesita organizar las proposiciones de la aritmética en una cadena de inferencias donde solamente intervengan ―las leyes del pensamiento‖. Pero el lenguaje ordinario no es adecuado para esta tarea, por su falta de precisión. Por eso considera necesario crear un lenguaje artificial que supere las imperfecciones del lenguaje ordinario. El lenguaje artificial de Frege Este lenguaje debe servir fundamentalmente para dos cosas: * para explicitar todos los pasos argumentativos, de manera que pueda verse si es la pura lógica la que está operando; * Para comprobar la corrección de esa cadena argumentativa. * Para cumplir este doble objetivo, el lenguaje concepto gráfico reproduce solamente los elementos del lenguaje natural que juegan un papel en la corrección de las argumentaciones (la forma lógica), y prescinde de todo lo demás. Por eso resulta más preciso que el lenguaje ordinario, y por tanto más adecuado como herramienta para el proceso de fundamentación lógica de la aritmética. TRASCENDENCIA DE FREGE Aunque el proyecto logicista fracasó, y aunque el lenguaje concreto inventado por Frege tampoco sobrevivió, lo valioso de su propuesta fue la idea misma de utilizar un lenguaje artificial para llevar a cabo con rigor y precisión el análisis lógico de los argumentos. 1.4.2 ALAN TURING * Es considerado uno de los padres de la Ciencia de la computación siendo el precursor de la informática moderna. * Proporcionó una influyente formalización de los conceptos de algoritmo y computación: LA MÁQUINA DE TURING. * Formuló su propia versión de la hoy ampliamente aceptada Tesis de Church-Turing * Durante la Segunda Guerra Mundial, trabajó en romper los códigos nazis * Tras la guerra diseñó uno de los primeros computadores electrónicos programables digitales en el Laboratorio Nacional de Física del Reino Unido y poco tiempo después construyó otra de las primeras máquinas en la Universidad de Mánchester. * Entre otras muchas cosas, también contribuyó de forma particular e incluso provocativa al enigma de si las máquinas pueden pensar, es decir a la Inteligencia Artificial. La Maquina de Turing En 1936 Turing propuso la idea de una máquina simple capaz de realizar, en principio, cualquier cálculo

concebible. Las nociones en que se fundaba esta máquina ―Teórica‖ eran muy elementales. Todo lo que necesitaba era una cinta de longitud infinita que pudiera pasar por la máquina, donde un dispositivo de lectura, leería lo que habría sobre la cinta, esta se dividía en cuadros idénticos, cada uno de los cuales contenía o bien un espacio en blanco, o algún especie de marca. La Máquina podía desarrollar cuatro clases de movimiento con la cinta: * Desplazar a la derecha. * Desplazar a la izquierda. * Borrar la marca. * Imprimir la marca. Con solo estas operaciones sencillas la máquina, era capaz de ejecutar cualquier clase de programa o de plan que se expresara en un código binario. Demostración práctica de Turing La demostración práctica de Turing tuvo enorme importancia para los investigadores interesados en los dispositivos de computación. La demostración sugirió que mediante un código binario compuesto solo de 0´s y 1´s sería posible inventar y ejecutar un número cualquiera de programas, y que podían fabricarse aparatos que operaran sobre la base de este principio. Prueba de Turing En 1950 sugirió que era posible programar de tal modo una máquina de esta índole que nadie diferenciaría sus respuesta a un interlocutor de las que brindaría un ser humano. Se dice que una maquina programada a pasado la prueba de Turing si un observador es incapaz de distinguir sus respuestas de las de un ser humano. Aportación a la Ciencia Cognitiva Muy pronto los científicos interesados en el pensamiento humano advirtieron las implicaciones de estas ideas, al darse cuenta de que eran capaces de describir con precisión los procesos de pensamiento o de conducta de organismo, Podrían diseñar una maquina computadora que operara en forma idéntica a él. Por primera vez, se vislumbro la posibilidad de que una computadora preparase y ejecutase sus propios programas, o sea, maquina pensante. 1.4.3 CLAUDE SHANNON (Míchigan, 30 de abril de 1916 - 24 de febrero de 2001) Ingeniero electrónico y matemático estadounidense, recordado como «el padre de la teoría de la información». En su tesis de maestría en el MIT, demostró cómo el álgebra booleana se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales. La tesis despertó un interés considerable cuando apareció en 1938 en las publicaciones especializadas. En 1940 le fue concedido el Premio a ingenieros americanos del Instituto Americano Alfred Nobel Teoría de la Información Teoría matemática creada por Shannon en 1948, estudia la información y todo lo relacionado con ella: 1. Canales. 2. Compresión de Datos. 3. Criptografía. 4. Temas Relacionados. Es la piedra angular sobre la que se ha desarrollado toda la teoría actual de la comunicación y la codificación.

Esta teoría establece los límites de cuanto se puede comprimir la información y de cuál es la máxima velocidad a la que se puede transmitir información. Es por tanto una teoría de límites alcanzables: Máxima compresión de datos y máxima tasa de transmisión de información sin errores Una Teoría Matemática de la Comunicación. En este trabajo se demostró que todas las fuentes de información (telégrafo, teléfono, radio, el hablante humano, las cámaras de tv, etc.) se pueden medir y que los canales de comunicaciones tienen una unidad de medida similar. (Bit/segundo) Mostro también que la información se puede transmitir sobre un canal si y solamente si la magnitud de la fuente no excede la capacidad de transmisión del canal que la conduce. Principio de Entropía (desambiguación) Se concibe como una medida del desorden. La entropía puede ser considerada una medida de la incertidumbre, y la información tiene que ver con cualquier proceso que permite acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de información y el de entropía están ampliamente relacionados entre sí. Shannon y la Ciencia Cognitiva Gracias a las ideas de Shannon pudo concebirse la información a parte de todo dispositivo concreto de transmisión; fue posible sentarse en la eficacia de cualquier comunicación de mensajes a través de cualquier mecanismo, y considerar los procesos cognitivos con independencia de toda materialización particular de los mismos Oportunidad que pronto sería aprovechada por los psicólogos para escribir los mecanismos que subyacen en el procesamiento de cualquier tipo de información. 1.4.4 NEWELL Y SIMON Se conocieron en 1952 en la Rand Corporación y estaban impresionados por el hecho de que las nuevas computadoras electrónicas eran algo más que meras masticadoras de números. En 1955 diseñaron lenguajes para el procesamiento de información, y el procesamiento de listas (TL). El procesamiento de listas fue una técnica inventada para resolver el problema de la asignación de los espacios de almacenamiento dentro de la memoria limitada de una computadora. Este método permitía además a los programadores crear determinadas estructuras de datos con el objeto de almacenar información de un modo fácilmente accesible y que se asemejara a los procesos del pensamiento de los seres humanos. El TL y los teoremas de Whitehead y Russell En 1955 se simulo a mano la demostración de unos de los teoremas de Whitehead y Russell utilizando el TL y fue realizada con tanto detalle que se considero que el procesamiento podía ejecutarse en una de las computadoras. Al ejecutar el TL logró demostrar 38 de los 52 teoremas, y en una de las soluciones resulto ser más elegante que la expuesta por Whitehead y Russell, Simon cumplió en informárselo a Bertrand Russell, quien se mostró encantado ante este giro irónico del destino. No obstante el artículo en que se publicaría fue rechazado por tener como coautor al mismo programa TL. Al inventar y poner en ejecución su teórico lógico (TL) Newell y Simon demostraron que la IA no era una posibilidad, sino una realidad: * Las computadoras podían llevar a cabo conductas que, en caso de ser efectuadas por seres humanos, inequívocamente se considerarían inteligentes.

* Los pasos que recorrían los programas en el curso de su demostración de los teoremas guardaban una semejanza nada trivial con los que seguían los seres humanos para resolver problemas en general. Resolvedor General de Problemas Fue creado en 1972, era capaz de resolver cualquier clase de problemas, era capaz de efectuar tareas en apariencia tan diversas como la demostración de teoremas, jugar ajedrez o resolver acertijos como el de los misioneros y los caníbales, la torre de Hanói y los enigmas de criptoaritmética. Pero el propósito del RGP no era meramente dar con la solución más eficaz a estos problemas, sino más bien simular los procesos que los seres humanos normales emplean para abordarlos. ¿Cómo funciona el RGP? Mediante el análisis de medios y fines: * Se comienza por enunciar la forma deseada de solución de un problema. * Se compara la situación en que se encuentra el sujeto en un momento dado contra el objetivo final que persigue. * Si ambos coinciden el problema ha sido resuelto. * En caso contrario esclarece la diferencia y busca métodos que reduzcan la diferencia. El PRG estableció que es posible descomponer el programa en sub problemas abordables de uno por vez, como también dejar de lado los factores que complicaban una cierta situación a fin de establecer un plan de ataque. Aportaciones de Newell y Simon Al desarrollar su RGP, habían ofrecido una concepción de la IA, una teoría del pensar y todo un programa de acción para los investigadores futuro. El RPG fue abandonado por qué no tenía el grado de generalidad que sus creadores deseaban conferirle y porque el campo de la IA se desplazo hacia otros rumbos; no obstante, puede considerarse que fue el primer programa que simulo toda una gama de comportamientos simbólicos humanos. CONCLUSIÓN El desarrollo en lógica y computación se comenzó a dar con la implementación de La nueva logia de Gottlob Frege matemático y filósofo alemán que desarrollo un proyecto basado en la lógica aritmética donde afirmo que el lenguaje ordinario era bastante impreciso para utilizarse en dicha tarea. Para esto el considero necesario crear un lenguaje artificial que supere dichas imperfecciones. Después viene Alan Turing considerado uno de los padres de la ciencia de la computación, creando una máquina capaz de realizar cualquier cálculo concebible. Dicha maquina utilizaba 4 procesos básicos para que la maquina pudiera ejecutar cualquier clase de programa que se expresara en un código binario. El creía que se crearía una maquina lo suficientemente inteligente para que superara su prueba maestra: conversar con un ser humana sin que la persona notara la diferencia. Claude Shannon Ingeniero electrónico y matemático, que en su teoría estableció los límites de cuanto se puede comprimir la información y de cuál es la máxima velocidad a la que se puede transmitir información. Demostró que se pueden medir todas las fuentes de información y que los canales de comunicaciones tienen una unidad de medida similar el bit/segundo. 2.- PREGUNTAS FUNDAMENTALES LOS MECANISMOS COGNITIVOS Son herramientas que sirven para acelerar el proceso de la mente o el conocimiento, estos funcionan interactuando entre sí compartiendo y procesando símbolos creando procesos de información; llamados procesos cognitivos. Y estos son regulados por un conjunto de reglas como por ejemplo la sintaxis, la semántica y los algoritmos, es decir, son los recuerdos, percepciones, ideas, creencias, hipótesis etc.

Los Mecanismos, Los Algoritmos y su Dominio. * ―Las estructuras mentales son Módulos de Procesamiento de información con características específicas, no procesan cualquier información, más bien son especializados y se refieren a un dominio‖. * Los mecanismos cognitivos humanos tienen especificidad de dominio de acuerdo con la evidencia neuropsicológica de comportamiento por ejemplo: el habla, oído, vista, olfato y tacto, y ya que estos mecanismos son específicos de dominio se pueden aislar para constituir la forma en que se procesa la información y obtener un resultado. * Un algoritmo establece la forma en que se relacionan los símbolos de un sistema para poder hacer una tarea en especifico y formando un lenguaje computacional. División de los Mecanismos Cognitivos Los mecanismos cognitivos se dividen en dos: * Procesos psicológicos Básicos: Estos son sensoriales o específicos de dominio y tienen un lugar físico detectable en el cerebro. * Procesos psicológicos superiores: Son el resultado simbólico (representaciones) del procesamiento de información, es decir todos aquellos de los que no se ha encontrado un lugar específico en el cerebro pero que podemos dar cuenta de su existencia a través del discurso. 2.1.- ¿CUÁLES SON LOS MECANISMOS COGNITIVOS QUE SUBYACEN AL FUNCIONAMIENTO DE LA MENTE HUMANA? * Percepción. * Atención. * Memoria. * Inteligencia. * Pensamiento. * Lenguaje. Percepción. La percepción se refiere a la obtención de información usando los cinco sentidos fisiológicos, es decir, en general se refiere a las actividades sensoriales. El conocimiento sensorial viene de la percepción de las propiedades del objeto, incluye la interpretación de las sensaciones, dándoles significado y organización. La organización, interpretación, análisis e integración de los estímulos, implica la actividad no sólo de los órganos sensoriales, sino también del cerebro. La percepción supone una serie de elementos en los que hay que distinguir: 1. La existencia del estímulo exterior. 2. La combinación de un cierto número de sensaciones. 3. La integración de nuevos estímulos percibidos en experiencias anteriores y acumuladas en la memoria. 4. La selección de ciertos elementos de las sensaciones y eliminación de otros. La Percepción y los Estímulos Exteriores. En el acto perceptivo, el cerebro no sólo registra datos, sino que además interpreta las impresiones de los sentidos. No sólo se percibe por un órgano, sino que se reciben muchos estímulos al mismo tiempo y por distintos órganos, ocurre que la más leve desviación en cualquiera de los órganos puede dar lugar a diferencias profundas en el resultado total de las percepciones. En cierto modo, la percepción es una interpretación de lo desconocido, ésta le sirve al ser humano para su desenvolvimiento en el mundo, con el que se encuentra en íntima comunicación.

Organización de la Percepción Existen diferentes maneras posibles de organizar el campo perceptivo. Según esto se han establecido distintas maneras de organizar los estímulos y de reunirlos en grupos. Algunos de estos modos son: * LA AGRUPACIÓN: Es frecuente que al recibir varios estímulos se tienda a agruparlos con arreglo a una estructura determinada. Por ejemplo: un rostro, un edificio, un paisaje, entre otros, las formas de agrupación más frecuentes son: Por proximidad, Por simetría, Por semejanza y Por continuidad. * LA PERCEPCIÓN FIGURA/FONDO: Íntimamente relacionado con las agrupaciones anteriores está la tendencia a organizar los estímulos estructurándolos en formas tales que se den ciertas figuras destacándose sobre un fondo. Con este tipo de agrupaciones la figura tiene el valor de objeto, mientras que el fondo tiene valor de soporte o espacio más o menos indefinido, sobre el que descansa la figura. * EL CIERRE: Cuando una serie de sensaciones afecta presentando figuras u objetos inacabados, líneas interrumpidas, elementos incompletos, entre otros. Se tiende a estructurarlos construyendo figuras acabadas y perfectas. * EL PRINCIPIO DE CONSTANCIA: Según este principio se tiende a percibir las cosas por su color, figura o como se está acostumbrado a verlas, o como son. Por ejemplo, la nieve se ve blanca aunque sea de noche. * EL MOVIMIENTO APARENTE: Existe el movimiento aparente, no real. Por ejemplo, el constante apagarse y encenderse de bombillas con unos intervalos y unos ritmos. Da la impresión de movimiento real, pero se recibe influencias en el acto perceptivo. LA ATENCIÓN La atención desempeña un importante papel en diferentes aspectos de la vida del ser humano, tal es así que han sido múltiples los esfuerzos realizados por muchos autores para definirla, estudiarla y delimitar su estatus entre los procesos psicológicos. De forma general se puede decir que es el despliegue que un organismo realiza en el transcurso de su actividad de obtención de información de su entorno. Consiste en una búsqueda que tiene, por una parte, aspectos conductuales y, por otro, manifestaciones neurofisiológicas, focalizando u orientando la energía hacia un lugar, espacio o situación determinada, con la intención consciente o inconsciente de lograr un objetivo. Se suele asociar con la vista o el oído, pero esto se puede extender a estímulos táctiles, gustativos u olfativos. A pesar de emplear los sentidos de vista u oído, existen algunas coincidencias con respecto a lo que involucra, sin embargo, no se ha llegado hasta la actualidad, a definir satisfactoriamente dada la diversidad de criterios. Características de la atención La Concentración: Se denomina concentración a la inhibición de la información irrelevante y la focalización de la información relevante, con mantenimiento de ésta por periodos prolongados. La Distribución de la Atención: A pesar que la atención tiene una capacidad limitada que está en función del volumen de la información a procesar y del esfuerzo que ponga la persona, es posible que se pueda atender al mismo tiempo a más de un evento. La Estabilidad de la Atención: Esta dada por la capacidad de mantener la presencia de la misma durante un largo periodo de tiempo sobre un objeto o actividades dadas. Es necesario resaltar que para obtener estabilidad en la atención se debe descubrir en el objeto sobre el cual se está orientado nuevas facetas, aspectos y relaciones. La estabilidad dependerá también de condiciones como el grado de dificultad de la materia, la peculiaridad y familiaridad con ella, el grado de comprensión, la actitud y la fuerza de interés de la persona con respecto a la materia. Oscilamiento de la Atención: Son periodos involuntarios de segundos a los que está supeditada la atención y que pueden ser causadas por el cansancio.

Clasificación de la Atención Criterios de Clasificación: * Mecanismos implicados * Grado de control voluntario * Objeto al que va dirigido la atención * Modalidad sensorial implicada * Amplitud e intensidad Amplitud y control que se ejerce. * Clasificación * Selectiva, Dividida, Sostenida * Involuntaria, Voluntaria * Externa, Interna * Visual, Auditiva * Global, Selectiva Concentrada, Dispersa. Las dos primeras clasificaciones, Mecanismos implicados y el Grado de control voluntario han sido las más estudiadas y corresponden a las tendencias actuales en lo que al estudio de la atención se refiere, esto debido a que los componentes de estos dos criterios, tienen más inherencia en el uso y control voluntario del individuo en su propio proceso cognitivo. EL PENSAMIENTO ¿Que es el pensamiento? La complejidad de los problemas que determinan la existencia del pensamiento en el ser humano, reafirma su desarrollo como forma superior de la actividad cognoscitiva, que sobrepasa las formas inferiores que están en su base, de las cuales parte. Existe tal cantidad de aspectos relacionados con el pensamiento, que dar una definición resulta difícil. El pensamiento implica una actividad global del sistema cognitivo con intervención de los mecanismos de memoria, atención, procesos de comprensión, aprendizaje, entre otros. Es una experiencia interna e intersubjetiva. El pensamiento tiene una serie de características particulares, que lo diferencian de otros procesos, como por ejemplo, que no necesita de la presencia de las cosas para que éstas existan, pero la más importante es su función de resolver problemas y razonar: descubrir lo nuevo, formar conceptos, penetrar en la esencia de un fenómeno Definiciones del Pensamiento De las muchas definiciones que podrían darse, a continuación se nombran algunas: El pensamiento, (nivel del conocimiento racional), constituye la forma superior de la actividad cognoscitiva del ser humano, porque a través de él se llega a lo desconocido a partir de lo conocido, rebasando las formas del reflejo senso-perceptual, cuando estas son insuficientes para la acción transformadora que desarrolla el individuo sobre el mundo material y no se pueden satisfacer las necesidades que van surgiendo por el desarrollo de la vida. La tarea del pensamiento consiste en poner al descubierto nuevos objetos, propiedades, relaciones que no están dadas directamente en la percepción, que son desconocidos o, en general, que aún no existen. Es el proceso cognoscitivo o del pensamiento que está dirigido a la búsqueda de lo esencialmente nuevo y constituye el reflejo mediato y generalizado de la realidad, por medio de los conceptos refleja las propiedades de la realidad, los cuales se abstraen de las cosas concretas, portadoras de dichas propiedades. El Pensamiento y La Mente No existe pensamiento sin aquel que lo ejerza, esta función reposa en la estructura de la mente. El concepto de mente ha ido cambiando considerablemente a lo largo de la historia.

Comprender el lenguaje de la mente es una labor difícil. Es necesario por un lado, conocer toda la fisiología neuronal, cambios bioquímicos, entre otros; y por otro, es necesario conocer ciertos aspectos psicológicos, entre los que se encuentran, los pensamientos, sentimientos, experiencias, u otros. Otra dificultad a la hora de comprender el lenguaje de la mente, es la cantidad de especialidades distintas que se ven implicadas en el estudio de la mente, tales como la anatomía, fisiología, genética, psicología, psiquiatría, bioquímica, y muchos otros, haciendo cada una de ellas interpretaciones de la mente y el cerebro, desde ángulos completamente distintos. Conseguir la integración de todos estos enfoques contribuiría de manera fundamental para resolver tantos misterios sobre la mente humana, que todavía quedan por resolver. ¿Qué es la Mente? La mente es el nombre más común del fenómeno emergente que es responsable del entendimiento, la capacidad de crear pensamientos, el raciocinio, la percepción, la emoción, la memoria, la imaginación y la voluntad, y otras habilidades cognitivas. Es la facultad del cerebro que permite reunir información, razonar y extraer conclusiones. La mente tiene tres tipos de procesos: * Los conscientes * Los inconscientes * Los procesativos. El Lenguaje El lenguaje es un proceso cognitivo que conlleva a una actividad simbólica o de la representación del mundo, más específicamente humana, la cual los diferencia de los animales. A través de la actividad simbólica se expresan un conjunto de sonidos y palabras, con base en el pensamiento, por lo que se define también como toda forma de comunicar el pensamiento, de expresarse. El lenguaje, como conjunto de símbolos consiste en transmitir un mensaje, permitiendo al individuo la capacidad para abstraerse, conceptualizar y comunicarse. Los humanos son capaces de crear un número infinito de oraciones a partir de un número finito de elementos y también recrear la lengua, por ejemplo, a través de esquemas y/o mapas conceptuales (hacer link con imagen 2 tema 10). La representación de dicha capacidad, o código, es lo que se conoce como lengua o idioma Elementos del lenguaje. * Sonidos * Conjunto de signos (representación gráfica del símbolo, letras, palabras o ideogramas, gestos) y símbolos (lo que representa, el contenido). * Letras, gestos, reglas, entre otros. Lo podemos Dividir en 2 Tipos: 1. Verbal 2. No Verbal Ejemplos de Lenguaje. ORAL: Cuando se habla se debe preparar la pronunciación de un sonido al mismo tiempo que se produce el precedente, de este modo la pronunciación en voz alta exige una especie de preparación anterior. ESCRITO: Influye grandemente en el desarrollo del lenguaje oral, se desarrolla después del oral sobre la base de éste último. Para dominar el lenguaje escrito es necesario aprender a pasar de un tipo de lenguaje a otro. Para que esto sea posible es necesario un entrenamiento especial, pues el análisis y la síntesis de la palabra sonora y

escrita son distintos. TÁCTIL: Es el que se palpa y es utilizado por los ciegos por medio de libros con letras codificadas en alto relieve. AUDITIVO: Es correlativo con la facultad de hablar, por lo que también se llama lenguaje articulado, y constituye el objetivo de la ciencia del lenguaje articulado. La capacidad de decodificar lo que se escucha. VISUAL: Es el que se adquiere por medio de la vista; señales, avisos, carteles, entre otros; permite ampliar las condiciones de relación. El lenguaje visual se puede manifestar en tres tipos: cuando se lee para sí, en voz alta y cuando se escribe (el lenguaje escrito). LENGUAJE INTERNO O LENGUAJE PARA SÍ MISMO. Este es la cubierta de los pensamientos, cuando pensamos sin expresar en voz alta su contenido. El lenguaje interno es la articulación encubierta de los sonidos verbales. LENGUAJES ARTIFICIALES: En las matemáticas y en la informática, por ejemplo, los lenguajes artificiales son llamados lenguajes formales (incluyendo lenguajes de programación). Sin embargo, el lenguaje humano tiene una característica que no puede ser encontrada en los lenguajes de programación: la diversidad. CONCLUSION Los mecanismos cognitivos son todos aquellos procesos que lleva acabo la mente mediante nuestros sentidos. Los mecanismos cognitivos se dividen en dos: Los procesos psicológicos básicos que son los sensoriales o específicos que tienen un lugar especifico en el cerebro. Y los Superiores que son el resultado simbólico de la información. Los procesos cognitivos son: * Percepción. * Atención. * Memoria. * Inteligencia. * Pensamiento. * Lenguaje. 3.- SUPUESTOS EPISTEMOLÓGICOS DE LA CIENCIA COGNITIVA 3.1.- LA INFLUENCIA DEL EMPIRISMO LÓGICO ―La mente Humana ha sido estudiada como si fuera independiente del cuerpo, y en general, lo ha sido por filósofos que tenían comparativamente pocos conocimientos de la materia física…. ….Nadie Intentó examinar los fenómenos a ella vinculados a la luz de la experimentación y la observación, o analizarlos en sus fases anormales‖. Definición de Epistemología La epistemología es la doctrina de los fundamentos y métodos del conocimiento científico. También conocida como gnoseología, su objeto de estudio es la producción y validación del conocimiento científico Es una rama de la filosofía cuyo objeto de estudio es el conocimiento científico. Es el estudio de la naturaleza, origen y alcance del conocimiento. La teoría del conocimiento científico El Papel de la Filosofía en la Obtención del Conocimiento La Filosofía constituye la más antigua de las ciencias cognitivas, ya que a través de su rama epistemológica nos ha suministrado el programa de trabajo inicial, la lista de temas y cuestiones en los que hoy están

trabajando los científicos cognitivistas de orientación empírica. Los filósofos se han debatido durante siglos con cuestiones que hoy están en boga, como la naturaleza de la representación mental, el grado en el cual el pensamiento humano es meramente un proceso mecánico (y no un proceso espiritual) y la relación entre razón y sentimiento. LA MENTE SEGÚN DESCARTES René Descartes, También llamado Cartesius. Nace en La Haye, en la Turena francesa el 31 de marzo de 1596 y muere en Estocolmo el 11 de febrero de 1650. Fue un filósofo, matemático y físico francés, considerado como el padre de la filosofía moderna, así como uno de los hombres más destacados de la revolución científica. Descartes y La Ciencia Cognitiva René Descartes es quizás el antecedente filosófico prototípico de la ciencia cognitiva. Sus escritos son en algunos aspectos una recuperación de la confianza en las propias instituciones, la creencia en el carácter central del pensamiento matemático y en las ideas innatas, que asociamos con los griegos. Por su curiosidad acerca del funcionamiento del sistema sensorial, la naturaleza humana y la mente, es virtualmente un contemporáneo nuestro. Su Obra: Discurso del Método… En 1637 apareció su famoso Discurso del Método, presentado como prólogo a tres ensayos científicos. Descartes proponía una duda metódica, que sometiese a juicio todos los conocimientos de la época, aunque, a diferencia de los escépticos, la suya era una duda orientada a la búsqueda de principios últimos sobre los cuales cimentar sólidamente el saber. Este principio lo halló en la existencia de la propia conciencia que duda, en su famosa formulación «pienso, luego existo». Sobre la base de esta primera evidencia, pudo desandar en parte el camino de su escepticismo, hallando en Dios el garante último de la verdad de las evidencias de la razón, que se manifiestan como ideas «claras y distintas». La Duda Sistemática Descartes desarrolló el método de La Duda Sistemática. Se resolvió a poner en tela de juicio cualquier dato o evidencia de los cuales no estuviera absolutamente seguro, y comprobó que todo lo que le quedaba entonces eran sus propios estados de conciencia, sus propias dudas. En esta capacidad para dudar, y por ende para pensar, Descartes vio el cimiento seguro sobre el cual construir una Nueva Filosofía. Descartes, La Mente y Cuerpo Para Descartes, la mente es algo propio y central de la existencia humana, y es básicamente indubitable; está separada del cuerpo y opera independientemente de éste, siendo un tipo de entidad por entero distinta. ―Propone que al cuerpo debe concebírselo como un autómata, comparable con las máquinas que el hombre fabrica. Es divisible en partes, y es posible suprimirle elementos sin alterar en él nada fundamental‖ Pero aun cuando pudiera diseñarse u autómata tan complejo como el cuerpo humano, jamás se asemejaría a la menta, ya que ésta es unitaria y no puede descomponerse en sus partes constitutivas. Una máquina corporal jamás podría hacer uso del lenguaje o de otros signos para exponer sus pensamientos ante otros individuos, como la mente humana lo hace. ¿Cómo podría una Entidad Inmaterial controlar una Sustancia Mecánica, interactuar con ésta o reaccionar frente a ella? Descartes se percataba de que postular dos entidades diferenciadas, una mente racional y un cuerpo mecánico, tornaba poco verosímil cualquier explicación acerca de la interacción entre ambos. Hizo varias tentativas de resolver este problema, ninguna de las cuales fue totalmente convincente; pero al procurar explicar esta interacción de mente y cuerpo, de hecho se convirtió en un psicólogo con inclinación

por la fisiología. Llegó Incluso a proponer uno de los primeros dispositivos de ―procesamientos de la información‖: El Diagrama de Descartes mostraba de qué manera las sensaciones visuales se trasmitían, a través de la retina y a lo largo de los filamentos nerviosos, al cerebro, y que las señales procedentes de ambos ojos se invertían y fundían en una única imagen en la glándula pineal. En esa conjunción decisiva, la mente interactuaba con el cuerpo dando así una representación de la realidad exterior. El Poder de la Mente sobre la Percepción Descartes había supuesto otrora que todas las experiencias y pensamientos surgen a través de los sentidos; pero en su obra Meditaciones llegó a desvalorizar los sentidos y a atribuir todo pensamiento y toda creatividad a la mente. Llevándolo a subestimar la importancia de las experiencias recogidas por sus sentidos. ―Así pues, resolvió que la mente, en su carácter de entidad de razonamiento activo, era el árbitro supremo de la verdad, y en definitiva atribuyó las ideas a causas innatas, y no a las provenientes de la experiencia.‖ Si Descartes hubiera podido prescindir por entero de la experiencia externa, lo habría hecho con gusto, pues atribuía los errores e incongruencias del ser humano a las vicisitudes de la experiencia, en tanto que nuestra racionalidad, comprensión y conocimiento genuino eran el producto de la reflexión de la mente en torno de las ideas que le eran propias. Finalmente propuso una imagen vívida y controvertible de la mente como instrumento racional que no podía ser simulado por ninguna máquina inimaginable (aspecto que aun hoy sigue en debate en la ciencia cognitiva). Empirismo Vs Racionalismo En los últimos Siglos 1 tema recurrentemente en la filosofía. Este se refiere a la tensión entre racionalistas y empiristas. Los Racionalistas creen que la mente posee un poder de razonamiento y que impone ese poder al mundo de la experiencia sensorial. Los Empiristas creen que los procesos mentales reflejan las impresiones sensoriales externas o se construyen sobre la base de éstas. LA RESPUESTA EMPIRISTA A DESCARTES. Las opiniones de Descartes fueron cuestionadas muy pronto por un grupo de filósofos empiristas ingleses: John Locke, George Berkeley y David Hume. JOHN LOCKE John Locke nació en Wrington (cerca de Bristol), Inglaterra, el 29 de agosto de 1632. Se educó en la Westminster School y en la Christ Church de Oxford. En 1658 se convirtió en tutor y profesor de griego y Retórica. Más tarde volvió a Oxford y estudió medicina. La fama de Locke era mayor como filósofo que como pedagogo. Prácticamente todo el pensamiento posterior fue influenciado por su empirismo, hasta desembocar en el escepticismo de David Hume. Un Modelo Opuesto: Locke Locke empezó por rechazar que debiera aceptarse cualquier conocimiento sobre la base de la evidencia introspectiva, entendiendo en cambio que la experiencia sensorial era a única fuente confiable del conocimiento. Puso en tela de juicio las Ideas Innatas, y afirmó que dicha creencia era inservible y engañosa. Proponiendo que: ―Solo mediante la sensación podemos tener conocimiento de la existencia de cualquier otra cosa.‖ Locke se aplicó con empeño a distinguir entre diversas cualidades externas que denominó ―primarias‖ y ―secundarias‖, simples y complejas. Destacó de qué manera las ideas complejas surgen a partir de las

simples. Describió el proceso por el cual las palabras hacen las veces de ideas y posibilitan otras ideas más abstractas o generales. La epistemología de Locke partía del extremo opuesto del universo que la de Descartes: la experiencia de los objetos en el mundo exterior. Así pues Locke pudo en definitiva construir un organismo capaz de abstracción y de generalización, que extraía cierto tipo de conocimiento de la interacción de tales ideas y cuya culminación era el convertirse en un sí-mismo racional y consciente. EL ESCEPTICISMO DE GEORGE BERKELEY Y DAVID HUME GEORGE BERKELEY Nace en Irlanda, el12 de marzo de 1685. También conocido como el obispo Berkeley, fue un filósofo irlandés muy influyente cuyo principal logro fue el desarrollo de la filosofía conocida como idealismo subjetivo, resumido en la frase «ser es ser percibido». Esta teoría propone que los seres humanos sólo pueden conocer directamente sensaciones e ideas de objetos, pero no abstracciones como la materia extensa y el ser. LA MENTE SEGÚN BERKELEY Adoptó un solipsismo tan extremo que terminó por negar que el mundo material tuviera una existencia independiente de la percepción que tenemos de él. Se burló de la noción de una ―idea general‖ y cuestionó el papel de privilegiado acordado a la matemática. Entendía que el lenguaje era un obstáculo para la comunicación, al promover la creencia en entidades inexistentes, generar imprecisión en el pensamiento y provocar pasiones en lugar de reflexión. Depositó su fe en la primacía del Sí-mismo sujeto a la experiencia, en la mente percipiente, la única capaz de posibilitar que haya sensaciones o de concebir ideas. DAVID HUME David Hume, nace en Edimburgo el 7 de mayo de 1711. Fue un filósofo, economista e historiador escocés y constituye una de las figuras más importantes de la filosofía occidental y de la Ilustración escocesa. Hume estuvo fuertemente influido por los empiristas John Locke y George Berkeley. Hume afirmaba que todo conocimiento deriva en última instancia de la experiencia sensible, siendo esta la única fuente de conocimiento y sin ella no se lograría saber alguno, es decir, que nos resulta imposible pensar en nada que no hayamos sentido con anterioridad. Las Aportaciones de Hume Demostró de modo convincente que no hay derecho a inferir, a partir de determinadas correlaciones de hechos del pasado, la generalización de que uno de esos hechos causa al otro. A lo sumo, lo que puede presumirse es que la naturaleza obrará igual en el futuro que en el pasado. Hume minó, pues, la confianza en un orden racional, en las explicaciones científicas de las manifestaciones causales. La Mente para Hume No fue menos rotundo en su rechazo a la creencia cartesiana en el carácter central de la mente, y cuestionó la existencia de una sustancia o sede denominada ―la mente‖, a la cual le serían inherentes las percepciones. Para Hume, solo podemos conocer la mente del mismo modo que conocemos la materia: mediante la percepción. De hecho, la mente no es sino un nombre abstracto que damos a una serie de ideas, una especie de escenario teatral sobre el cual diversas percepciones hacen su aparición en forma sucesiva; y no existe por detrás de los procesos del pensamiento ningún alma observadora o controladora. IMMANUEL KANT Nace en (Königsberg, Prusia, 22 de abril de 1724. Fue un filósofo alemán de la Ilustración. Es el primero y más importante representante del idealismo alemán y

está considerado como uno de los pensadores más influyentes de la Europa moderna y de la filosofía universal. Entre sus escritos más destacados se encuentra la Crítica de la Razón Pura. Antes de Kant. A finales del Siglo XVII EL profesor Alemán Emmanuel Kant se enfrentó con dos alternativas antagónicas: una, que con el favor de los empiristas británicos concebía el pensamiento como un mero instrumento que reflejaba la experiencia mundana o construía a partir de ésta. La otra que contaba con el favor de Descartes y Leibniz, entre otros, subrayaba que el pensamiento era el ámbito universal, el factor organizador y revelador de todas las posibilidades. Los empiristas sospechaban de las proposiciones y pruebas a priori, en tanto los racionalistas buscaban principios universales encarnados en el pensamiento puro. La Crítica de la Razón Pura, 1781 Kant se empeñó en sintetizar las concepciones racionalista y empirista. Para ello debía averiguar si podía existir un conocimiento necesario (o sea a priori), pero que en algún aspecto dependiera también de la experiencia y no fuera meramente convocado de manera tautológica en la mente. Kant resolvió estudiar ambos extremos de esta polaridad: comprender la naturaleza de la experiencia y disecar la naturaleza de la mente. Dio el paso decisivo en este proceso cuando decidió averiguar qué ―es lo que permite a la mente aprehender la experiencia en la forma que lo hace y obtener con ello un conocimiento necesario. Kant y su Visión de la Mente. Kant concibió la mente como un órgano activo del entendimiento, que modela las sensaciones e ideas, transformando la multiplicidad caótica de la experiencia en la unidad ordenada del pensamiento. División del Modelo Kantiano Podemos entonces dividir el Modelo Kantiano en varias partes: 1. La primera es la concepción de un mundo sensorial concreto, que existe fuera del sujeto y a partir del cual debe iniciarse el conocimiento. Todo fenómeno consiste en sensaciones, causadas por los propios objetos particulares. 2. La segunda, en la cual propone ―Categorías del pensamiento‖. Estos conceptos elementales del entendimiento puro: tales como cantidad, cualidad, negación, modalidad; constituyen el equipo mental. Solo estos permiten al individuo conferir sentido a sus experiencias. 3. También concibió otro nivel de análisis, el de los esquemas interpuestos entre la información sensorial en bruto y las categorías abstractas a priori. A estos esquemas los definió como: La representación de un procedimiento general, por la cual la imaginación ofrece su imagen a un concepto. Kant ingresó así al mundo de la ―Representación Mental‖. El Papel de Kant en la Historia de la Filosofía Kant había logrado conciliar las dos vertientes antagónicas de la tradición filosófica: había unido la primacía del pensamiento y la primacía de la experiencia; y sus argumentos eran lo bastante difíciles, su crítica de las posiciones racionalista y empirista corrientes lo bastante poderosa. Gracias a Kant ocupó por un tiempo un sitial de privilegio en el firmamento de las disciplinas académicas. Kant y la Psicología Formuló 3 razones por las cuales era imposible una ciencia de la Psicología: 1. El hecho de que la mente se ve afectada al estudiarse a sí misma. 2. La falta de contenido espacial, esencial para cualquier experimentación. 3. La ausencia de una base matemática, necesaria para toda ciencia.

La conclusión de Kant fue que la Psicología no puede ser más que una doctrina natural del alma; pero no una ciencia del alma, ni siquiera una doctrina psicológica experimental. ALFRED NORTH WHITEHEAD Y BERTRAND RUSSELL A principios del Siglo XX los Lógicos Ingleses Alfred North Whitehead y Bertrand Russell; Propusieron un programa que establecía lazos mucho más estrechos entre la ciencia empírica, lógica y la matemática. Era en parte Expresamente anti-kantiano pues desacreditaba la noción de que el conocimiento matemático dependía de la experiencia. LUDWING WITTGENSTEIN 1918 El Filósofo Austriaco Ludwing Wittgenstein inspirado por el programa de Whithead y Russell en su Tractatus procuró demostrar que en el lenguaje había una estructura lógica inherente, las proposiciones del lenguaje son la expresión perceptual de los pensamientos y estos son figuras de los hechos. El proyecto de Wittgenstein de analizar lógicamente el lenguaje y tratar de relacionar este análisis en el mundo percibido se convirtió en un ingrediente esencial del programa filosófico adoptado por el famoso ―Círculo de Viena‖ de los Empiristas Lógicos un periodo marcado entre las dos Guerras Mundiales Según él, los psicólogos procuraban resolver problemas que no comprendían; estos problemas no eran auténticamente científicos, si no que estaban insertos en determinados usos del lenguaje. Sostenía que en vez de tratar de explicar de qué manera funciona en la práctica cada una de estas presuntas operaciones mentales, para los psicólogos tendría más sentido estudiar las relaciones entre diversas maneras de referirse a la conducta y la experiencia. El Círculo de Viena y el Empirismo Lógico Estudiosos como Herbert Feigl, Otto Neurath, Morris Schlick y Rudolf Carnap trataron de unir: Lenguaje, la verdad y la lógica. El círculo de Viena se fijó como objetivo general ver que cuestiones filosóficas tradicionales podían reformularse en términos formales y cuales otras no. Se enfocaban en 3 Temas a saber: Verificacionismo: doctrina según la cual los enunciados empíricos pueden verificarse en condiciones de indagación ideales, a través de un procedimiento para medir y verificar aquello de lo que se habla. El Fisicalismo: creían que las propuestas que de ordinario se interpretan como referidas a estados mentales son lógicamente equivalentes a las referidas a la conducta manifiesta. Llegaron a afirmar que cualquier enunciación de la psicología podía reformularse como una descripción del comportamiento físico de los seres humanos. Rechazaban la idea de que la filosofía es un área de estudio especial y fundacional; para estos filósofos no existía más que una ciencia empírica, de la cual la filosofía formaba parte y cuyo papel consistía en describir y criticar el lenguaje de la ciencia. Crítica al Empirismo Lógico A fines de la década de 1930 y principios de la siguiente, un grupo de filósofos empezaron a reunirse en Harvard, entre ellos se hallaban Nelson Goodman, y W.V.O. Quine y había además asiduos visitantes como Rudolf Carnap, Bertrand Russell y Alfred Tarski, todos ellos provenientes de la Europa devastada por la guerra. Estos filósofos habían participado de los afanes del Empirismo Lógico, pero a la sazón estaban sometiendo casi todas sus premisas a críticas cada vez más severas. GILBERT RYLE En 1949 Gilbert Ryle en su libro The Concept of Mind, afirmaba que toda referencia a la mente implica un error de categoría. Decir que la mente tiene una existencia separada es tratar erróneamente una entidad de una especie, una caracterización abstracta de una serie de disposiciones, como si en sí misma fuera una de estas disposiciones. Expuso las fallas de la posición cartesiana y adoptó una postura conductista, al suponer que una persona está

predispuesta a conducirse de cierta manera en presencia de circunstancias apropiadas que provoquen dicha conducta. WILLARD QUINE W.V.O. Quine se propone responder a la interrogante: ―¿Hay algo rescatable en el programa de la filosofía tradicional? ― Creo que en este momento resulta más provechoso afirmar que la epistemología sigue en pie, aunque en un nuevo contexto y con una posición más clara. La epistemología, o algo semejante a ella, simplemente ha pasado a ser un capítulo de la psicología. RICHARD RORTY En 1979 Richard Rorty en su libro La Filosofía y el Espejo de la Naturaleza, pone en tela de juicio toda la empresa de la epistemología y sugiere una concepción radicalmente distinta de la filosofía, mucho más modesta, menos ambiciosa y esperanzada que la de Quine. Para Rorty la Filosofía debe explicar la relación entre las ideas y los objetos a que estás referidas; la justificación de estas creencia es más bien un proceso social, un extenso diálogo por el cual procuramos convencer a los demás de lo que creemos. Entonces Rorty señala: ―Si las afirmaciones son justificadas por la sociedad, y no por el carácter de la representación interna que ellas expresan, de nada vale tratar de aislar representaciones privilegiadas.‖ KARL POPPER 1946 en el Club de Ciencia Morales, Popper Reiteró su convencimiento de que existen problemas filosóficos; y hasta era posible que el hubiera resuelto algunos; no obstante se apresuró a añadir: ―Nada parece menos atractivo que una solución simple para un problema Filosófico de antigua data.‖ Muchos filósofos, y al parecer en especial los wittgensteinianos, consideran que si un problema es soluble, es porque no es filosófico. HILARY PUTNAM Y EL FUNCIONALISMO Filósofo matemático, se interesó en las computadoras y sus implicaciones y sus implicaciones para el pensamiento. Para él la invención de la computadora fue un suceso importante en la filosofía de la mente pues dio origen a la idea de la Organización Funcional. Esta Idea Funcionalista cuestiona la afirmación de que el pensar y otras funciones inteligentes deben llevarse a cabo mediante una misma máquina específica. Si existe alguna clase de Identidad (mente), es evidente que ella no puede residir en el soporte material (Hardware) sino que, puede estar en el soporte lógico (Software) tanto en los seres humanos como en las máquinas El funcionalismo se propuso abordar uno de los más clásicos dilemas filosóficos: el problema de la relación entre la mente y el cuerpo. EL COGNITIVISTA JERRY A. FODOR El lingüista ex discípulo y ahora colega de Chomsky se declara seguidor de la Tradición cartesiana por tener el mérito de haber reconocido la existencia de estados mentales y haberles conferido la potencialidad casual, acuñando la postulación de las ideas innatas. Censura la posición conductista diciendo que la ciencia cognitiva necesita precisamente el tipo de explicaciones que la corriente rechaza. Acepta la concepción funcionalista de su maestro Hilary Putnam. Fodor se adhiere a la ciencia cognitiva al sostener la creencia de que las actividades cognitivas se materializan en la manipulación de símbolos o representaciones mentales. Y Propone un Lenguaje del Pensamiento que debe ser un vehículo sumamente rico para poner por obra los numerosos procesos cognitivos de que son capaces los seres humanos. Afirmando que los individuos nacen

conociendo un lenguaje que no debía concebírsele como un simple medio formal de manipulación de símbolos. Llegó a la conclusión de que para conocer la cognición humana debe por fuerza abrazar cabalmente una posición mentalista Conclusión del Papel de la Filosofía frente a la Ciencia Cognitiva Gracias a las Ideas de los antiguos y actuales Filósofos se pudo esbozar el adecuado marco conceptual y revisarlo a la luz de los nuevos descubrimientos científicos. La creación de la Ciencia Cognitiva ha brindado un maravilloso estímulo a la filosofía, y la filosofía es una auxiliar indispensable de los científicos empíricos. CONCLUSIÓN La epistemología es el estudio de la producción y validación del conocimiento científico. Desde tiempos muy remotos de ha puesto en duda la naturaleza de la representación mental y el que el pensamiento humano sea un proceso mecánico, así como la relación entre razón y sentimiento. Apareciendo así varios filósofos y científicos aprobando o poniendo en duda tales hechos por lo que se le fue dando la epistemología para hacer el estudio de la mente algo CIENTIFICO. 4.- RELACIONES INTERDISCIPLINARIAS DE LA PSICOLOGÍA COGNITIVA DE CORTE COMPUTACION 4.1. La psicología cognitiva de corte computacional mantiene relaciones estrechas con otras disciplinas como: 4.1.1. Filosofía. * ARISTÓTELES: Conjunto preciso de leyes * RAMÓN LLULL: Razonamiento útil por medios artificiales * THOMAS HOBBE: el razonamiento es como la computación numérica * LEONARDO DA VINCI: diseñó una calculadora mecánica * WILHEM SCHICKARD: primera máquina calculadora conocida * BLAISE PASCAL: Pascalina (1642) * WILHELM LEIBNIZ: dispositivo para operaciones sobre concepto 4.1.2.- ¿SE PUEDEN UTILIZAR REGLAS FORMALES PARA EXTRAER CONCLUSIONES VALIDAS? Según lo visto en clase y de acuerdo a los ejemplos dados, el más claro es el de LOS SILOGISMOS, puesto que en base a dos premisas formales se obtiene un resultado. EJEMPLO. 1. En primavera hace calor 2. Estamos en temporada de primavera R= hace calor 4.1.3. ¿CÓMO SE GENERA LA INTELIGENCIA MENTAL A PARTIR CEREBRO FÍSICO? INTELIGENCIA La inteligencia es el término global mediante el cual se describe una propiedad de la mente en la que se relacionan habilidades tales como las capacidades del pensamiento abstracto, el entendimiento, la comunicación, el raciocinio, el aprendizaje, la planificación y la solución de problemas. Es la capacidad que tiene el Cerebro Humano para procesar la información que recibe del exterior. La estructura cerebral de la cual depende la "inteligencia", se forma y se refuerza desde que nacemos hasta un promedio de los 6 años de vida La inteligencia está ligada a la percepción y la memoria.

CONCLUSION En conclusión no se puede generar la inteligencia a partir de un cerebro físico puesto que la inteligencia se genera a partir de todos los procesos cognitivos que son nuestros sentidos y envían la información a nuestro cerebro para de ahí generar el conocimiento. Para que el cerebro genere Inteligencia debe estar en conjunto con nuestros 5 sentidos. 4.1.4. ¿DE DÓNDE VIENE EL CONOCIMIENTO? El conocimiento se define a través de una disciplina llamada epistemología, una doctrina filosófica que se conoce como la teoría del conocimiento. Existen diferentes formas de llegar al conocimiento las cuales se les denomina FUENTES DE CONOCIMIENTO Hay dos tipos de fuentes: Científicas: 5.- MARCO CONCEPTUAL 5.1.-PRESUPUESTOS BÁSICOS DE LA VISIÓN COMPUTACIONAL 5 Características Fundamentales de la Ciencia Cognitiva: Ha sido necesario para la ciencia cognitiva reconocer la utilidad de distinguir 5 características o síntomas, dos de los cuales constituyen los Supuestos Nucleares, en tanto que las otras tres son rasgos metodológicos o estratégicos. Estas ideas también sirven como puntos concretos para sus críticos. A continuación se enumerarán cada una de estas características y se indicarán algunas de las críticas expuestas por sus principales opositores. 1.- LAS REPRESENTACIONES MENTALES La ciencia Cognitiva se basa en la creencia de que es legítimo y más aún necesario postular un nivel separado de análisis, al que podría denominarse ―Nivel de la Representación‖. El hombre de ciencia que opera en este nivel comercia con entidades representacionales como símbolos, reglas, imágenes; la materia prima que encontramos entre lo que entra a la mente y sale de ella, y explora la forma que estas entidades representacionales se amalgaman, transforman o contrastan entre sí. Este nivel es indispensable para explicar toda la variedad de las conductas, acciones y pensamientos humanos. El científico Cognitivista funda su disciplina en las premisas de que la actividad cognitiva humana debe ser descripta en función de símbolos, esquemas, imágenes, ideas y otras formas de representación mental. Sin embargo ha habido discusiones teóricas entre los científicos cognitivistas ―oficialmente reconocidos‖ equivalen a un debate acerca de la forma más conveniente de conceptualizar las representaciones mentales. Aún así estos científicos aceptan como una verdad evidente que los procesos mentales están en definitiva representados en el sistema nervioso central. LOS OPOSITORES DE LA IDEA DE LA REPRESENTACIÓN MENTAL Los críticos de la concepción representacional generalmente proceden de las filas conductistas. Fundándose en el principio de economía axiomática que suele denominarse ―la navaja de Occam‖, sostienen que la construcción teórica de la ―mente‖ hace más mal que bien; que tiene más sentido hablar de estructuras neurológicas o de conductas manifiestas que de ideas, conceptos o reglas; y que postular un nivel de representación es innecesario, equívoco e incongruente. 2.- LAS COMPUTADORAS No para todos los científicos cognitivistas la computadora ocupan un lugar central en su tarea cotidiana, pero

casi todos han sido muy influidos por ella. La computadora actúa como una prueba de existencia dentro de lo razonable de que una máquina construida por el hombre puede razonar, tiene metas, revisa y corrige su conducta, transforma información, etc. Sin duda la invención de las computadoras en las décadas de los 30’sy 40’s y las demostraciones de su ―pensar‖ en los 50’s, ejercieron un efecto profundamente liberador en todos los estudiosos vinculados a la explicación de la mente humana. Además de servir como modelo del pensamiento, la computadora es también una herramienta valiosa entre la tarea de los científicos cognitivistas: la mayoría la utiliza para analizar sus datos, y un número creciente procura simular con ella procesos cognitivos. La ciencia de la Inteligencia Artificial, elaborada en torno de la simulación por computadoras, es considerada por muchos la disciplina central de la ciencia cognitiva y la que más probabilidad tiene de desplazar o volver superfluos otros campos de estudio. La Crítica De Los Opositores Para algunos críticos, las computadoras no son sino el último de una larga serie de modelos inadecuados de la cognición humana y no hay razón para pensar que el modelo de la máquina actual tendrá mejor destino. Estos críticos entienden que es una equivocación enorme concebir los organismos activos como ―sistemas de procesamiento de información‖ Otros consideran que las computadoras son meros juguetes que interfieren, en el empeño por comprender el pensamiento humano. Sostienen que el hecho de que sea posible simular cualquier comportamiento de numerosas maneras puede impedir en la práctica la búsqueda de una descripción correcta de la conducta y pensamientos humanos. Quienes tienen pocas esperanzas depositadas en las máquinas y programas fabricados por el hombre citan, maliciosamente, las pretensiones excesivas de los propugnadores de la inteligencia artificial. La Computadora y las Disciplinas de la Ciencia Cognitiva. La simpatía hacia las computadoras y la creencia en su importancia como modelo del pensamiento humano está muy difundida en la ciencia cognitiva; pero también en este caso existen diferencias entre las disciplinas. El Grado en que una disciplina está próxima a la ciencia cognitiva puede medirse por el grado en que está ligada a las computadoras. En Psicología se han manifestado ciertas reservas acerca del enfoque de la computadora, pero la mayor parte de los adeptos a estas disciplinas no se molestan en entrar en discusiones con los partidarios de las computadoras. 3.-ATENUACIÓN DE LA IMPORTANCIA ATRIBUIDA A LOS AFECTOS, EL CONTEXTO, LA CULTURA Y LA HISTORIA Aunque la corriente principal de científicos cognitivistas no tiene forzosamente animadversión alguna contra la esfera de los afectos, o contra el contexto que circunda cualquier acción o pensamiento, o contra los análisis históricos y culturales, en la práctica tratan de deslindar estos elementos en el mayor grado posible. Y lo mismo hacen los antropólogos cuando se ponen el ropaje de la ciencia cognitiva. Tal vez sea ésta una cuestión puramente práctica: la ciencia cognitiva sería impracticable si se quiere tomar en cuenta todos estos elementos fenoménicos individualizadores. Al querer explicarlo todo, se termina por no explicar nada. LA POSTURA DE LOS OPOSITORES Los Críticos del cognitivismo han respondido principalmente de dos maneras: 1. Algunos sostiene que factores como los afectos, el contexto o la historia ―nunca‖ serán explicables por la ciencia: pues son dimensiones intrínsecamente humanísticas o estéticas, que caen bajo la jurisdicción de otras disciplinas o prácticas; y como estos factores son centrales para la experiencia humana, cualquier

ciencia que los excluya está de entrada condenada al fracaso. 2. Otros críticos concuerdan en que algunos de estos factores o todos ellos son esenciales en la experiencia humana, pero no comparten la opinión de que sea imposible explicarlos científicamente. Se oponen a una ciencia cognitiva antiséptica, que procure poner entre paréntesis estas dimensiones de modo artificial, sostienen, por el contrario, que los científicos deberían trabajar con ahínco para incorporar cabalmente dichas dimensiones en sus modelos del pensamiento y la conducta 4.-CREENCIA EN LA VALIDEZ DE LOS ESTUDIOS INTERDISCIPLINARIOS Tal vez a la larga surja una ciencia cognitiva unificada, pero todos coinciden en que ese momento está lejano todavía. Investigaciones provenientes de una disciplina determinada tienen esperanzas en los resultados de la interacción productiva con sus colegas de otras disciplinas, siguiendo la tradición de los asistentes a los Simposios de Hixon y de Macy, confían en que les brindaría la perspectiva de una disciplina única. LOS ESCÉPTICOS OPINAN Los escépticos sostienen que es imposible hacer progresos mezclando disciplinas, y que sería más acertado poner primero en orden la propia casa en cada una de éstas. Como tampoco está del todo claro ―cuáles‖ de las disciplinas pertinentes contribuirán en última instancia a la formación de la ciencia cognitiva, y de qué manera dicen que puede perderse un tiempo precioso en colaboraciones improcedentes. Desde su perspectiva, es perfectamente lógico que haya ciencias cognitivas individuales, pero no es sensato establecer una única disciplina sin solución de continuidad. En el mejor d los casos, debería haber cooperación entre las diversas disciplinas, y nunca una fusión total. 5.-LAS RAÍCES EN LA TRADICIÓN FILOSÓFICA CLÁSICA Dentro de la Ciencia Cognitiva los debates de los filósofos griegos, así como los de sus sucesores d la Ilustración, ocupan un lugar prominente. Con esto no se trata de insinuar que los interrogantes tradicionales hayan sido formulados siempre de la mejor manera posible, ni que haya respuesta para todos, sino más bien que pueden servirnos como un lógico punto de partida para nuestras indagaciones actuales. Algunos representantes de las disciplinas cognitivistas admiten de inmediato la importancia, y aún la inevitabilidad, de dicha fundamentación filosófica, en tanto que para otros a los afanes filosóficos del pasado nadad tiene que ver con sus inquietudes actuales, y aun entienden que pueden ser perjudiciales. Sin embargo Es imprescindible conocer cuáles de los científicos cognitivistas o cual de sus disciplinas, aceptarán una formulación del nuevo campo con bases filosóficas, pues los científicos cognitivistas no coinciden en lo absoluto entre sí en lo que atañe a la importancia del Menón, del cogito cartesiano o de la crítica de Kant. No obstante, vale la pena pasar revista a sus suposiciones al respecto, ya que desde la época clásica los filósofos han considerado que la definición del comportamiento humano era algo que les incumbía especialmente, y en la actualidad han evaluado la naturaleza y alcances de nuestras indagaciones; por ende, sus conclusiones merecen ser sometidas a un serio examen. Así el furor inicial que produjo la ciencia cognitiva se basó en un pálpito sagaz: el de que el pensamiento humano resultará a la postre semejante, en aspectos significativos, a las operaciones de la computadora, y en particular a las de la computadora electrónica digital secuencial, que han tenido gran difusión desde mediados de siglo. No sabemos aún en qué medida los procesos del pensamiento humano son, en este sentido, computacionales. De los principales resultados de las últimas décadas ha sido poner en tela de juicio que dichos procesos superiores, aquellos que consideramos más exclusivo del hombre, puedan abordarse adecuadamente mediante este particular modelo computacional. LA PARADOJA COMPUTACIONAL La aplicación de los métodos y modelos extraídos del ámbito computacional ha llevado a los científicos a

comprender en qué aspectos los seres humanos se asemejan a estas computadoras prototípicas. Esto no significa que no haya procesos cognitivos semejantes a los de la computadora; en verdad algunos de ellos se parecen mucho. Tampoco significa que sea imposible establecer con la computadora un modelo de los procesos cognitivos. Más bien significa que la concepción sistemática, lógica y racional sobre la cognición humana, de la que está impregnada la primitiva bibliografía de la ciencia cognitiva, no describe en forma apropiada gran parte del pensamiento y la conducta de los hombres. El Desafío de la Ciencia Cognitiva El desafío que se le presenta a la ciencia cognitiva: ―Es fundamental que establezca su autonomía y que demuestra en qué terreno son válidos los enfoques computacional y representacional. Ya ha logrado éxito en esto; aunque el alcance de su empres tal vez no sea tan vasto como se pretendió‖. Sin embargo, si los científicos cognitivistas quieren dar cuenta cabalmente de los rasgos más cardinales de la cognición, ellos tendrán que descubrir y construir los puentes que conecten a su disciplina con las vecinas: específicamente con la neurociencia en el extremo inferior, y con las ciencias culturales en el extremo superior. Todavía no resulta claro cómo se hará esto ni si es posible hacerlo. 5.2.- LA ANALOGÍA MENTE-COMPUTADORA: Versión Débil y Versión Fuerte Las Idea Básica en la Inteligencia Artificial Luego de la reunión de Dartmouth, la IA tuvo una breve pero tormentosa historia, que en parte giró en torno de las definiciones. Casi todas las autoridades en la materia concuerdan en que la IA procura producir en una computadora un resultado de salida que, en caso de ser expuesto por seres humanos, se consideraría inteligente. Discrepancias entre Los Científicos Cognitivistas La Mayoría entiende que el programa de computadora es una verificación de la teoría particular acerca del modo en que podría operar un proceso cognitivo. Pero a partir de allí las coincidencias son menores. a) Algunas definiciones ponen el acento en el diseño de los programas. b) Otras, en los lenguajes de programación c) Otras abarcan no solo el soporte lógico (software) sino también del soporte físico (hardware) y el componente conceptual humano. d) Algunos adeptos a este campo quieren simular con toda exactitud los procesos del pensamiento, e) Mientras que otros se contentan con cualquier programa que dé lugar a consecuencias inteligentes. Estas discrepancias dieron lugar a una división entre los adeptos a esta ciencia generando a su vez 2 versiones de la I.A. Versión Débil Algunos Investigadores han adoptado lo que dio en llamarse la ―versión débil‖, según la cual el diseño de programas ―inteligentes‖ no es más que un medio para poner a prueba teorías sobre el modo en que los seres humanos pueden cumplir operaciones cognitivas. Además utiliza la analogía mente-computadora con fines esencialmente instrumentales sin perder de vista la perspectiva psicológica en la teoría y la investigación. La versión débil pertenece más al campo de la psicología, se basa en datos de naturaleza psicológica y se interesa prioritariamente en la descripción del sujeto cognitivo humano. Versión Fuerte En las palabras del filósofo John Searle, esta versión sostiene que ―una computadora programada de manera

apropiada es realmente una mente, en el sentido de que si se le introduce el programa correcto, puede decirse que la computadora literalmente comprende y tiene otros estados cognitivos. En esta versión de la IA, a raíz de que la computadora programada posee tales estados cognitivos, los programas no se consideran meras herramientas que permiten poner a prueba las explicaciones psicológicas, sino que se les considera en sí mismos las explicaciones‖. También acepta la analogía como un recurso metodológico, y considera que existe una completa equivalencia funcional entre la computadora y la mente humana. Sus representantes se ubican en el campo de la inteligencia artificial, donde se pretende desarrollar una teoría unificada de la mente y la computadora, y utiliza este último como un medio de simulación del sistema cognitivo humano. Otras Discrepancias Esta tensión entre los partidarios de la versión débil y de la versión fuerte ha originado algunos de los debates más trascendentales: 1. La primera discrepancia importante es la que existe entre los generalistas y los expertos, que nos recuerda la dialéctica entre las concepciones modulares y de procesamiento centra de la psicología contemporánea. 2. Una segunda discrepancia tiene que ver con el carácter científico de esta disciplina. 1.-Los Generalistas y los Expertos Los Generalistas creen en programas globales (o familias de programas) que pueden aplicarse a la mayoría de las variantes de un problema. En tanto que los Expertos depositan su fe en programas que contiene conocimientos mucho más detallados acerca de un dominio específico, pero que en cambio tiene aceptabilidad más restringida. ¿Se puede concebir a la IA cómo una Ciencia? Algunos de sus fundadores estaban dispuestos a defender vigorosamente su valor científico (en verdad hasta tenían la creencia de que la IA podía remplazar la Epistemología). Mientras que otros, más escépticos, se preguntan hoy si la IA merece ser considerada una ciencia. Desde su punto de vista, la IA no es más que una variante de ingeniería aplicada sin título genuino para erigirse en una disciplina científica de base teórica. Por cierto un escepticismo similar a éste cundió respecto de otras ciencias cognitivas, pero quizás a raíz de las espectaculares promesas que ofrecía la ―máquina pensante‖ las batallas libradas en torno del carácter científico de la IA han sido particularmente fogosas. 5.3- ARQUITETURAS COGNITIVAS: PHI, CONEXIONISMO FUNCIONALISMO. La Teoría Conexionista La llamada teoría conexionista ha venido a revolucionar postulados centrales del PHI y la teoría del desarrollo cognitivo en psicología cognitiva, para entender esta nueva aproximación y antes de entrar en

detalles de cómo dicha aproximación trae nueva Luz dentro del estudio del comportamiento motor es necesario revisar 2 conceptos: el de fenómeno emergente holístico y el de memoria distribuida. El Fenómeno Emergente Holístico Un fenómeno emergente holístico puede entenderse como aquel que no es más que solo la suma de sus componentes. Desde este punto de vista se puede asumir que el Cerebro que posee millones de conexiones nerviosas en las que se encuentras neuronas interactuando juntas, y la actividad masiva y conjunta se supone que generan estado emergente de auto-organización. Dichos fenómenos emergentes constituyen la naturaleza de varias de nuestras funciones intelectuales, de nuestra conciencia, la memoria y el lenguaje.

El Fenómeno Memoria Distribuida Existe sin embargo otra forma en la que la interacción masiva de neuronas cerebrales participa en la generación de habilidades motrices y mentales. Esta forma se refiere al mecanismo de almacenamiento distribuido de información por el cual ésta es almacenada en la memoria de los sistemas bilógicos. Este concepto se refiere a la observación de que nuestros recuerdos sobre eventos, caras, etc., no se encuentran localizados en una zona específica de nuestro cerebro. Más bien se asume que estos están almacenados de una forma distribuida a lo largo de las zonas neurales de él. Así un recuerdo es visto como un patrón dinámico que emerge de la activación de la arquitectura neural. 5.4.- EL ENFOQUE PHI En términos computacionales el PHI es una habilidad cognitiva que se supone centrada o localizada en procesador central (CPU) de nuestro aparato cognitivo, y tiende también a regular la forma en cómo aprendemos y procesamos la información. Sin embargo, con la integración de las teorías conexionistas dicho procesamiento cognitivo es observado más bien como un proceso de auto-organización que no requiere la participación de un procesador central. De esta forma es posible el desarrollo de un individuo como un proceso autopoiesis en el que en vez de considerar la mente como un sistema cerrado autónomo de procesos en red que generan componentes que actúan entre ellos y que se transforman continuamente para regenerar esa red de procesos Definición de Sistema Autopoiético Un sistema autopoiético es autorreferencial y mantiene una identidad activa que se mantiene como una unidad a pesar de la interacción que este sistema tenga con su medio ambiente. Así desde este puto de vista, la metacognición puede ser entendida como un proceso por el que un sistema mantiene su autonomía, auto-regula y se construye así mismo. El Funcionalismo Filósofo matemático Hilary Putnam, se interesó en las computadoras y sus implicaciones para el pensamiento. Para él la invención de la computadora fue un suceso importante en la filosofía de la mente pues dio origen a la idea de la Organización Funcional. Esta Idea Funcionalista cuestiona la afirmación de que el pensar y otras funciones inteligentes deben llevarse a cabo mediante una misma máquina específica. Las Computadores demostraran que muchos de los procesos que antaño llamábamos ―pensar‖ pueden si duda ser realizados por mecanismos constituidos por componentes altamente distintos de los nervios, la sangre y lo tejidos. Putnam Propone Si existe alguna clase de Identidad (mente), es evidente que ella no puede residir en el soporte material (Hardware) sino que, puede estar en el soporte lógico (Software) tanto en los seres humanos como en las máquinas podría materializarse la misma clase de programa. Así pues la equiparación se produce en un nivel de abstracción mucho más alto, un nivel que tiene que ver se dispone, los pasos que deben seguirse, la evaluación de cada uno de estos pasos, y

otros rasgos similares. El funcionalismo se propuso abordar uno de los más clásicos dilemas filosóficos: el problema de la relación entre la mente y el cuerpo. Relación Mente – Cuerpo El pensamiento puede sin duda acontecer dentro de un aparato físico y estar correlacionado con cierta conducta, y pese a ello no tiene que identificarse forzosamente con la clase precisa de actividades que se producen en ese aparato. Es perfectamente legítimo hablar de sucesos mentales, postular que un suceso mental causa otro, y hacerlo sin aceptar ni rechazar que únicamente los fenómenos cerebrales gozan de las propiedades necesarias para definir los estados mentales. Por supuesto, en lo seres humanos los sucesos mentales coinciden con lógicas al plano neurofisiológico. Más bien, puede sustentarse a un nivel que la conecte con factores sociales e incluso un tercer nivel autónomo, de carácter representacional. 5.4.2 TEORÍA DEL PROCESAMIENTO DE LA INFORMACIÓN LA SITAXIS Y LA TESIS DEL PENSAMEINTO DEL LENGUAJE Teoría del Procesamiento de la Información Tradicionalmente, el punto de vista del procesamiento de información ha sido caracterizado de acuerdo con la hipótesis del sistema de símbolo físico de Newell y Simon, que declara que la cognición se fundamenta en patrones de información que pueden ser representados en forma de símbolos, y esos símbolos pueden ser manipulados. Ese mismo sistema dispone únicamente de procedimientos sintácticos. Es por eso que se ha considerado que la arquitectura de la mente es la arquitectura de las computadoras de Von Neumann. Desde esa perspectiva, se afirma que el lenguaje es un sistema que usa alguna señal física (un sonido, un gesto, una marca en el papel) para expresar un significado, y que los sistemas de procesamiento de información son mecanismos que representan la información en forma simbólica, que son computacionales, o sea, esas representaciones simbólicas pueden ser manipuladas y transformadas para crear nuevas representaciones. SINTAXIS Los programas de computación y el funcionamiento cognitivo humano están definidos por leyes exclusivamente sintácticas: se ocupan de determinar las reglas mediante las que esas unidades se agregan hasta constituir procesos complejos. Tanto el ser humano como el computador están concebidos como sistemas lógicos o matemáticos de procesamiento de información constituidos exclusivamente por procedimientos formales. Modelo Clásico Simbólico En ese sentido, en la concepción clásica simbólica de la arquitectura de la mente es central la idea de representación proposicional, que sostiene que las proposiciones son unidades completas del pensamiento que pueden tener un valor de verdad, pueden ser verdaderas o falsas. De modo que cualquier unidad lingüística simple es incompleta, por ejemplo, María no es una proposición completa, ni ama a es una proposición completa; en cambio, María ama a Juan sí es una

proposición completa, porque expresa una idea completa que puede ser verdadera o falsa. Eso significa que las proposiciones son unidades funcionales importantes en el procesamiento cognitivo y tienen un considerable poder para representar el mundo, lo cual está relacionado con el aspecto semántico de las oraciones representadas en la mente representacional Visión Constructivista Lo más amplio que se puede decir respecto a la Psicología Cognitiva es que refiere la explicación de la conducta a entidades mentales, estados, procesos y disposiciones de naturaleza mental para lo cual reclama un nivel de discurso propio. La teoría del procesamiento de la información, proporciona una concepción "constructivista" del ser humano. El procesamiento de la información afirma que los sujetos construyen su propio conocimiento a partir de sus estructuras y procesos cognitivos 5.4.3.- Teoría del Lenguaje del Pensamiento Es una teoría propuesta por el filósofo Jerry Fodor, que supone una especie de lenguaje que puede ser utilizado por los procesos mentales, que permiten el desarrollo de pensamientos complejos a partir de conceptos más sencillos. El lenguaje del pensamiento por lo tanto tiene una estructura hecha de elementos atómicos (como las palabras en lenguaje natural). Estos componentes pueden aparecer en distintas representaciones, así como los componentes de las palabras o frases pueden aparecer en distintas frases. Al igual que en otras lenguas, el significado de las representaciones individuales se compone a partir del significado de sus componentes. La mente, sin embargo, difiere de otros idiomas en que se produce (no es acústica u óptica), pero si es producida a través de configuraciones neuronales, o en base a bits de memoria de equipo. La Teoría del Lenguaje del Pensamiento se puede Representa de la Manera Siguiente: * Las representaciones mentales son Estructuras Abstractas que poseen una imagen y un significado. * Los componentes de estas estructuras son "portátiles", en otras palabras, los componentes del mismo tipo pueden aparecer en diferentes representaciones. * Las representaciones mentales tienen una semántica composicional, son construidas a través de reglas por lo que el significado de las representaciones que resulta complejo y abstracto. ¿Por qué debemos suponer que existe un lenguaje específico del pensamiento independientemente de los diferentes lenguajes naturales? La primera respuesta es que hay un "pensamiento sin lenguaje", un entendimiento tácito del lenguaje natural. Esto es característico especialmente en animales y los niños que todavía no han adquirido su lengua materna, sin embargo también en los adultos está presente. Además, el supuesto de que la mente se une a la hipótesis central de la gramática generativa de la facultad de un lenguaje de tipo innato que es necesario para la Adquisición de cualquier lenguaje. La Tesis de Fodor de estas teorías en primer lugar postula la existencia de un lenguaje del pensamiento distinto del lenguaje natural y también se hace una analogía entre el pensamiento y el cálculo. 6.- PROCESOS MENTALES

Los procesos mentales incluyen los modos de conocer, percibir, poner atención, recordar, solucionar problemas, razonar, soñar, imaginar, desear, esperar, prevenir, proyectar... Es decir, son todos los procesos conocidos como los Mecanismos cognitivos. Entonces hablar de procesos mentales implica hablar del fenómeno de la Cognición así como del Procesamiento de la Información y la Representación Mental. El Fenómeno de la Cognición El concepto de cognición es frecuentemente utilizado para significar el acto de conocer, o conocimiento, y puede ser definido, en un sentido cultural o social, como el desarrollo emergente de conocimiento dentro de un grupo que culmina con la sinergia del pensamiento y la acción. La cognición está íntimamente relacionada con conceptos abstractos tales como mente, percepción, razonamiento, inteligencia, aprendizaje y muchos otros que describen numerosas capacidades de los seres superiores En psicología e inteligencia artificial (IA) el concepto se refiere a las funciones, procesos y estados mentales de agentes inteligentes, con un enfoque particular en procesos tales como comprensión, inferencia, toma de decisiones, planificación y aprendizaje. En las primeras etapas de desarrollo del concepto se creía que la cognición era una característica solamente humana pero con el desarrollo de la etología y la inteligencia artificial se discute la validez de tal argumento. Procesamiento de la Información Consiste en cómo el sujeto internaliza la información recibida por el ambiente. A su vez, en la internalización de nuevos conocimientos, se activan de manera conjunta en las funciones cognitivas para que la internalización de nuevos conocimientos se realice de una manera satisfactoria. Según John Lachman y E.C. Butterfield, el llamado procesamiento de información... Consideran que se realizan pocas operaciones simbólicas, relativamente básicas, tales como codificar, comparar, localizar y/o almacenar. Por consiguiente, en último caso puede dar cuenta de la inteligencia humana y la capacidad para crear conocimiento, innovaciones y tal vez expectativas respecto al futuro. ¿Cómo se Esboza la Representación Mental? El cerebro es no solamente una máquina registradora sino que al mismo tiempo que registra interpreta el sentido de las impresiones. El acto de percepción no es como la respuesta de una maquina. Si se instala a varios artistas a que pinten el mismo paisaje, cada uno de ello nos da un cuadro diferente. Cada espectador de una película puede hablarnos de las diferentes cosas que ha observado; una pieza de música es percibida de modo muy distinto por diferentes oyentes; varios testigos de un accidente o de un suceso nos cuentan variadas versiones. No percibimos sólo con un órgano sino que cada fenómeno es registrado por varios y la más ligera desviación en cada uno puede dar lugar a considerables variaciones en cada persona. Kant dice que, "vemos las cosas no como ellas son sino como somos nosotros". La percepción puede llegar a ser una interpretación de lo desconocido.

Los Seis Criterios Fundamentales De Gregory Bateson Para El Proceso Mental 1. Una mente es un agregado de partes o componentes interactuantes. 2. La interacción entre las partes de la mente es desencadenada por la diferencia. 3. El proceso mental requiere energía colateral. 4. El proceso mental requiere cadenas circulares de determinación. 5. En el proceso mental, los efectos de la diferencia deben ser vistos como transformaciones de sucesos que los han precedido. 6. La descripción y clasificación de esos procesos de transformación revelan una jerarquía de prototipos lógicos inmanentes en los fenómenos. 6.1.- TEORÍAS DE LAS REPRESENTACIONES MENTALES Durante bastante tiempo las imágenes fueron desestimadas como objeto de estudio. En el siglo XIX, Galton solicitó a un grupo de científicos y universitarios que formaran una imagen de su mesa de desayuno y la describiesen, como la mayoría de los sujetos fracasaban en la tarea concluyó que las imágenes eran una mera invención de los poetas. Un escepticismo similar lo encontramos en Watson, que considera a las imágenes como supersticiones de "nuestro fondo salvaje". En 1948, en plena vigencia del conductismo, Tolman publicó el artículo "Mapas cognitivos en ratas y hombres" enfrentándose a las interpretaciones conexionistas del aprendizaje de laberintos. En su lugar propone un tipo analógico de representación denominado mapa cognitivo, que guía la conducta del organismo en su medio. Sus resultados se adelantan dos décadas a las investigaciones sobre mapas cognitivos de Kosslyn y otros. Las imágenes permitieron a Galileo y Einstein, realizar ―experimentos mentales‖ que les proporcionaron los fundamentos conceptuales para sus teorías físicas. La elaboración matemática de la teoría de la relatividad de Einstein fue posterior al proceso de comprensión visual, el mismo asegura: ―mi capacidad, mi destreza particular, reside en visualizar los efectos, consecuencias y posibilidades‖. LAS IMÁGENES MENTALES Si bien muchas personas relatan la experiencia de tener imágenes mentales, fundamentalmente de tipo visual, ha costado mucho que las imágenes alcancen el rango de constructo científico. Actualmente hay bastante consenso en Psicología Cognitiva acerca de que las imágenes son representaciones analógicas con una similitud estructural con aquello que representan y no meras experiencias subjetivas, cuyo sustrato corresponde a un código abstracto e inaccesible a la conciencia. Las imágenes no son sólo un tipo de código destinado a favorecer el recuerdo, sino que parecen desempeñar un papel central en el pensamiento creativo. El carácter dinámico y flexible de las imágenes las hace un instrumento idóneo para generar ―modelos espaciales‖ que puedan dar lugar a auténticos descubrimientos. SEGÚN KOSSLYN En la descripción de Kosslyn (1996:5) una representación proposicional es una "sentencia mental" que especifica el significado de una oración; puede contener una relación que suele llamarse

predicado y estar compuesta de una o más entidades llamadas argumentos. Los elementos básicos de una representación proposicional son símbolos, pero no se trata de una oración en el lenguaje natural. La notación y terminología que utiliza permiten inferir que Kosslyn adopta la lógica de predicados para las representaciones proposicionales. En términos generales, las representaciones proposicionales son consideradas como entidades explícitas, discretas, abstractas y semánticas (de Vega, 1984:263) que representan el contenido ideacional de la mente en una forma que no es específica de ningún lenguaje. Su carácter abstracto reside en que no se trata de representaciones análogas como un dibujo o una imagen, el carácter semántico significa que representan conceptos y relaciones entre ellos. La Representación Proposicional. Las representaciones proposicionales son a-modales, es decir no están ligadas a ninguna modalidad sensorial específica, mientras las representaciones analógicas si lo están. Por ejemplo las imágenes pueden ser visuales, auditivas o táctiles. Son discretas porque se componen de elementos discretos, mientras las imágenes son continuas. Las proposiciones poseen una determinada estructura sintáctica, que se fija a partir de reglas, sin embargo esta estructura es arbitraria, podría ser cualquier otra en la medida en que no se requiere un paralelo con la realidad. LOS IMAGINISTAS VS LOS PROPOSICIONALISTAS Hay un debate psicológico en torno a las representaciones mentales, protagonizado por imaginistas versus proposicionalistas El primer grupo con defensores como A. Paivio, R. Shepard y S. Kosslyn ( Johnson Laird, 1983:147), sustenta que las imágenes son representaciones tipo escena y que son bastante diferentes de las representaciones proposicionales. El segundo grupo integrado por Baylor, Z. Pylyshyn y Palmer (Johnson-Laird, 1983:147), argumenta que las imágenes son epifenómenos y que existe una única forma básica de representación mental: la proposicional. Esta discusión tiene antecedentes filosóficos y epistemológicos antiguos desde los empiristas Locke, Hume y Berkeley, hasta los más recientes filósofos del lenguaje como Wittgenstein. En la contienda proposicionalistas- imaginistas, las proposiciones se consideran apropiadas para representar el conocimiento, porque lo que conocemos del mundo es un conjunto de hechos o afirmaciones que tendrán un valor de verdad. En la contienda proposicionalistas- imaginistas, las proposiciones se consideran apropiadas para representar el conocimiento, porque lo que conocemos del mundo es un conjunto de hechos o afirmaciones que tendrán un valor de verdad. Por el contrario, al considerar a las imágenes como "figuras mentales", y asociándolas al argumento de Wittgenstein, (no hay nada intrínseco en un dibujo de un hombre subiendo una colina que prevenga a uno de interpretarlo como una figura de un hombre deslizándose colina abajo, caminando hacia atrás) se concluye su insuficiencia para representar conocimiento sobre el mundo. En realidad, la mera posesión de representaciones formales o analógicas no constituye conocimiento, porque en ambos casos se requiere de una mente que las interprete. Lo importante es que las imágenes pueden contener información desde la que el conocimiento puede ser derivado Una Crítica Basada en Wittgenstein Por el contrario, al considerar a las imágenes como "figuras mentales", y asociándolas al argumento

de Wittgenstein, (no hay nada intrínseco en un dibujo de un hombre subiendo una colina que prevenga a uno de interpretarlo como una figura de un hombre deslizándose colina abajo, caminando hacia atrás) se concluye su insuficiencia para representar conocimiento sobre el mundo. En realidad, la mera posesión de representaciones formales o analógicas no constituye conocimiento, porque en ambos casos se requiere de una mente que las interprete. Lo importante es que las imágenes pueden contener información desde la que el conocimiento puede ser derivado La Representación y su Construcción Las imágenes visuales se parecen a la experiencia real de ver algo, en el caso de imágenes mentales, estas representaciones se recuperan o se forman en la memoria y no de la estimulación sensorial inmediata. En este sentido, suele hablarse de "los ojos de la mente" como un procesador que interpreta las representaciones casi-pictoriales, (es decir aquellas que subyacen a nuestra experiencia perceptual) en términos de categorías conceptuales. Cuando este proceso interpretativo se aplica a recordar información perceptual en lugar de información que viene de los sentidos, entonces lo que se experimenta es una imagen en lugar de un perceptor. La percepción es un proceso de reducción de información en el cual un conjunto caótico de sensaciones son reducidas a una forma más simple y organizada, este proceso re organizativo genera nuestras percepciones estructurándolas en unidades correspondientes a objetos y a propiedades de los objetos. Estas grandes unidades pueden ser almacenadas y más tarde ensambladas como imágenes, que se experimentan como entidades casi pictoriales Las imágenes son un formato representacional o una clase de estructura de datos de nuestro sistema cognitivo, decir que el formato de imágenes es analógico implica que la imagen de un objeto tendrá que parecerse en forma, tamaño y orientación a aquello que se está representando. Las investigaciones de Kosslyn, basadas en la idea anterior, estudian los procesos que se dan en la memoria activa (MCP), que es una memoria operativa en la que se seleccionan, organizan y ejecutan heurísticas de resolución de problemas y toma de decisiones. La generación, recuperación exploración, interpretación y las transformaciones dinámicas de imágenes se resuelven en MCP. Según Kosslyn la formulación tradicional de la hipótesis del desarrollo representacional se potencia en la idea de que sólo hay dos formas de representar información internamente: imágenes y palabras. Las personas elaboran imágenes mentales (Shepard, 1978; Kosslyn, 1986, 1996) pudiendo someterlas a una transformación mental, estructural y funcional. Este carácter transformador de las imágenes es extraordinario y a diferencia de la percepción visual no depende del ambiente, es claramente constructivo. 6.2.- CATEGORÍAS Y CONCEPTOS Para la psicología y en general para la ciencia cognitiva, la categorización es uno de los aspectos más importantes para entender cómo funcionan los procesos de conocimiento. Esta capacidad permite al ser humano reconocer las cosas con las que se enfrenta en el mundo, asemejándolas y diferenciándolas de otras, sin necesidad de que estas hayan sido vistas anteriormente. Gracias a la categorización aprendemos de la experiencia y unificamos ciertos acontecimientos que se nos presentan siempre con rasgos siempre particulares.

DIVISÍON A PARTIR DE LA TEORÍA CLÁSICA DE LA CLASIFICACIÓN Según la teoría clásica, los atributos que llevan a las operaciones lógicas generalmente hacen referencia a características de los objetos que son visiblemente sobresalientes. Esta visión dará impulso a una serie de investigaciones basadas en la semejanza, que considerarán que los conceptos son, ya no estructuras lógicas como en esa teoría clásica, sino constructos determinados por una serie de atributos a partir de rasgos perceptuales salientes en los cuales se basa el juicio de semejanza de diferentes Entidades. Consideraba que todos los miembros de una categoría tenían el mismo valor de verdad. Y Otras que se apoyan en otras investigaciones empíricas, tales representaciones están determinadas por una serie de teorías que las personas tienen acerca de las cosas y que trascienden lo meramente perceptual. Entre estas teorías estarán las funciones o roles de las cosas. Las categorías serán entonces conjuntos de relaciones que se establecen a partir de supuestos que tienen las personas acerca los objetos. De esta manera se genera un debate que aún hoy en día tiene vigencia: El debate forma-función en la categorización. CARACTERÍSTICAS DEFINITORIAS DE LA TEORIA CLASICA DE LA CLASIFICACIÓN Según las Investigaciones de Jerome Bruner sobre la forma en la que los individuos aprenden a adquirir conceptos. 1. Las Categorías son Arbitrarias. (Cultura) 2. Las Categorías poseen atributos definitorios o críticos (todos los miembro de una categoría compartes estos atributos y ningún miembro de otra los comparte). 3. La Intensión (o suma de atributos) de una categoría determina su extensión. LA CATEGORIZACIÓN A PARTIR DE LA FORMA Como hemos dicho anteriormente, si la categorización se da a partir de la forma (entendida como rasgos perceptuales) de los objetos, ella es posible porque ciertos rasgos que percibimos en ellos activan representaciones que están en nuestra mente, lo que permite que sepamos que determinado objeto pertenece a un conjunto particular. Estos rasgos, según las teorías que defienden esta postura, en general son perceptualmente salientes, es decir de fácil reconocimiento. A partir de ellos es posible evaluar la semejanza entre distintos objetos que se encuentran en el mundo. En este proceso de reconocimiento, esta perspectiva ha encontrado que no todos los integrantes de una categoría tienen el mismo valor dentro de ella CRÍTICA A LA CATEGORIZACIÍN A PARTIR DE LA FORMA 1. Si las cualidades físicas son determinantes, entonces por qué en muchos casos llamamos con el mismo nombre, por ejemplo silla o reloj, a objetos que la mayoría de veces son físicamente disímiles (por ejemplo, decimos que es silla un objeto diminuto con el que jugamos a las muñecas, también aquel que tiene forma de animal, o aquel que está hecho de material como madera, plástico, caucho, etc.). 2. Por otra parte, cuando los casos son muy raros, se pone en dilema a la tipicidad, pues entonces, no se entiende por qué no se dice que un reloj de cuerda es menos reloj que uno digital, por ejemplo. Según los detractores de esta teoría, llamar de igual forma objetos tan disímiles dependerá de que las personas puedan imaginar situaciones en las que son visibles ciertas propiedades del objeto que no son percibidas, como la intención de quién lo inventó o la historia de uso

LA CATEGORIZACIÓN A PARTIR DE LA FUNCIÓN La importancia de los supuestos que las personas tienen acerca de cualquier cosa para ubicarla dentro de un conjunto, con cuyos miembros en apariencia puede no tener nada en común. Entre esos supuestos puede estar la función que desempeña el objeto. Generalmente con función entendemos el para qué sirven las cosas. Así, objetos perceptualmente disímiles se llaman silla porque sirven para sentarse. Sin embargo, autores como Bloom (1996, citado por Cuenca y Ruiz, 2004, p. 43) consideran que hablar de funcionalidad como para qué sirve la cosa, no sería una explicación satisfactoria, ya que es posible encontrar objetos rotos, dañados, que ya no sirven y sin embargo se siguen nombrando de la misma forma. Así, el concepto de ―función‖ del objeto se modifica. Ya no implica para lo que sirve un objeto, sino cual fue la intención del creador, es decir, para qué fue creado (Bloom, 2007), lo cual puede estar de acuerdo con una apariencia física y función actual De igual manera, aunque se supone que en general las personas no tienen un conocimiento de la historia del diseño de un objeto, si tendrán meta-creencias sobre esa historia, que pueden determinar los procesos de categorización. Así se habla de la teoría histórica intencional de la categorización Ese proceso inferencial será central e indiferente al uso real del objeto; así las creencias sobre creación intencional prevalecerán sobre usos posteriores o posibles de un objeto. Bloom considera que la teoría histórico-intencional de la categorización permite Refutar la teoría de la forma. LA CRÍTICA A LA CATEGORIZACIÓN A PARTIR DE LA FUNCIÓN A pesar de sus aparentes ventajas, las perspectivas a partir de la función tienen poca evidencia empírica que las confirme. Por otro lado, se ha visto en experimentos que cuando la intención del creador no está de acuerdo con la apariencia física, los juicios de categorización son guiados por otros factores. Además esto no explica porqué hay procesos de categorización que se dan en cortos tiempos de reacción; si hace falta hacer inferencias sobre la intención, entonces no sería posible categorizar en un tiempo breve. Esto no quitará la importancia de tener en cuenta la función en la categorización, y los avances que ha permitido en la comprensión de este fenómeno. 6.3.- LA MEMORIA A lo largo de la historia han sido propuestas muchas teorías que intentan explicar los mecanismos de almacenamiento y remembranza. Los primeros estudios sobre la memoria comenzaron en el campo de la filosofía, e incluían las técnicas para mejorar la memoria. A finales del siglo XIX y principios del XX, la memoria pasó a ser el paradigma por excelencia de la psicología cognitiva. En las últimas décadas se ha convertido en uno de los principales pilares de una rama de la ciencia conocida como neurociencia cognitiva, un nexo interdisciplinario entre la psicología cognitiva y la neurociencia. Hace algunos años se propuso la teoría de que la información se almacenaba codificada en una secuencia de molécula, de una manera similar al modo en que la información genética se almacena en las moléculas de ácido desoxirribonucleico (ADN). Para probar dicha teoría se efectuaron experimentos que consistían en entrenar animales de una cierta manera y después moler sus cerebros para examinar si estas enseñanzas habían producido cambios químicos en ellos. Otros consistían en utilizar como alimento los cerebros de animales entrenados, para después tratar de encontrar habilidades estadísticamente significativas en otros animales alimentados con éstos.

¿Qué son Los Recuerdos y la Memoria? Los Recuerdos son imágenes del pasado que se archivan en la memoria. Nos sirven para traer al presente algo o a alguien. Se definen también como una reproducción de algo anteriormente aprendido o vivido, por lo que están vinculados directamente con la experiencia. La Memoria es una función del cerebro y, a la vez, un fenómeno de la mente que permite al organismo codificar, almacenar y recuperar información. Surge como resultado de las conexiones sinápticas repetitivas entre las neuronas, lo que crea redes neuronales (la llamada potenciación a largo plazo). El hipocampo es la parte del cerebro relacionada a la memoria y aprendizaje. La Memoria La memoria permite retener experiencias pasadas y, según el alcance temporal, se clasifica convencionalmente en: La memoria a largo plazo (MLP) es un almacén al que se hace referencia cuando comúnmente hablamos de memoria en general. Es en donde se almacenan los recuerdos vividos, nuestro conocimiento acerca del mundo, imágenes, conceptos, estrategias de actuación, etc. La memoria a corto plazo (MCP) es el sistema donde el individuo maneja la información a partir de la cual está interactuando con el ambiente. Aunque esta información es más duradera que la almacenada en las memorias sensoriales, está limitada a aproximadamente 7±2 elementos durante 10 segundos (spam de memoria) si no se repasa. Otras Clasificaciones de la Memoria Memoria sensorial a la capacidad de registrar las sensaciones percibidas a través de los sentidos. Memoria Operativa o Memoria de Trabajo está formada por varios subsistemas, a saber: un sistema supervisor (el ejecutivo central) y dos almacenes secundarios especializados en información verbal (el lazo articulatorio) y visual o espacial (la agenda visoespacial). Memoria Procedimental o Explícita puede considerarse un sistema de ejecución, implicado en el aprendizaje de distintos tipos de habilidades que no están representadas como información explícita sobre el mundo. Por el contrario, éstas se activan de modo automático, como una secuencia de pautas de actuación, ante las demandas de una tarea. Consisten en una serie de repertorios motores (escribir) o estrategias cognitivas (hacer un cálculo) que llevamos a cabo de modo inconsciente Memoria Declarativa contiene información referida al conocimiento sobre el mundo y sobre las experiencias vividas por cada persona. Memoria Semántica da cuenta de un almacén de conocimientos acerca de los significados de las palabras y de las relaciones entre estos significados, y constituye una especie de diccionario mental. Memoria Episódica representa eventos o sucesos que reflejan detalles de la situación vivida y no solamente el significado. Fases de la Memoria En el proceso de almacenamiento de los conocimientos en la memoria es posible diferenciar las siguientes fases: Codificación o Registro: recepción, procesamiento y combinación de la información recibida. Almacenamiento: creación de un registro permanente de la información codificada. Recuperación o Recordar o Recolección: recordar la información almacenada en respuesta a una

señal para usarla en un proceso o actividad Memoria y Aprendizaje, algunos estudios…. En términos prácticos, la memoria (o, mejor, los recuerdos) son la expresión de que ha ocurrido un aprendizaje. De ahí que los procesos de memoria y de aprendizaje sean difíciles de estudiar por separado. El estudio de la memoria suele centrarse sobre todo en los homínidos, ya que éstos presentan la estructura cerebral más compleja de la escala evolutiva. No obstante, el estudio de la memoria en otras especies también es importante, no sólo para hallar diferencias neuroanatómicas y funcionales, sino también para descubrir semejanzas. Los estudios con animales suelen realizarse también para descubrir la evolución de las capacidades amnésicas y para experimentos donde no es posible, por ética, trabajar con seres humanos. De hecho, los animales con un sistema nervioso simple tienen la capacidad de adquirir conocimiento sobre el mundo, y crear recuerdos. Por supuesto, esta capacidad alcanza su máxima expresión en los seres humanos La Capacidad de la Memoria Humana El cerebro humano de un individuo adulto estándar contiene unos 100.000 millones de neuronas y unos 100 billones de interconexiones (sinapsis) entre éstas. Aunque a ciencia cierta nadie sabe la capacidad de memoria del cerebro, ya que no se dispone de ningún medio fiable para poder calcularla, las estimaciones varían entre 1 y 10 terabytes. Según Carl Sagan, tenemos la capacidad de almacenar en nuestra mente información equivalente a la de 10 billones de páginas de enciclopedia. ¿La Memoria tiene una ubicación única en el Cerebro? No existe un único lugar físico para la memoria en nuestro cerebro. La memoria está diseminada por distintas localizaciones especializadas. Mientras en algunas regiones del córtex temporal están almacenados los recuerdos de nuestra más tierna infancia, el significado de las palabras se guarda en la región central del hemisferio derecho y los datos de aprendizaje en el córtex parieto-temporal. Los lóbulos frontales se dedican a organizar la percepción y el pensamiento. Muchos de nuestros automatismos están almacenados en el cerebelo. Nuestras Conexiones Neuronales Antes y Después del Nacimiento. Se cree que dentro de esta maraña de conexiones, los caminos principales de comunicación se encuentran predeterminados por la herencia, de manera que las extensiones neuronales crecen durante la gestación hasta aquellos lugares donde posteriormente serán requeridas. Sin embargo el resto de las conexiones deben ser adquiridas después del nacimiento, de manera que el tamaño y estructura de esta red cambia radicalmente, y de manera continua, durante la vida de los individuos. Los Cambios en Las Conexiones Sinápticas a Causa de Nuestra Experiencia Esta programación, que se consigue después del nacimiento, está relacionada con la memoria. Básicamente tiene lugar a través de 2 mecanismos: 1. La modificación de las estructuras de interconexión.

2. El Cambio de la eficiencia de las sinapsis. ¿La Memoria tiene una ubicación única en el Cerebro? El psicólogo Karl Lashley encontró que en los humanos todas las partes de la corteza cerebral son igualmente importantes para el aprendizaje. Al analizar el comportamiento de individuos con lesiones en ésta región del cerebro descubrió que mientras mayor es la cantidad de corteza dañada, mayor es la incapacidad posterior del individuo para memorizar y realizar tareas complejas. Esto, independientemente de la localización de la pate afectada. Memoria y la Sustitución Funcional Sabemos que en el cerebro existe la sustitución funcional de neuronas por otras, a diferentes niveles. Continuamente, el número de nuestras neuronas decrece, pues como dijimos antes, las neuronas no tienen capacidad de reproducción. Así la falta de un número pequeño de neuronas, con respecto al número total, no produce cambios apreciables en el desempeño de la memoria. Sin embargo, se ha observado que la remoción quirúrgica de una parte de los lóbulos temporales, practicada para controlar la epilepsia, puede producir problemas de memoria. El aprendizaje y su ubicación Cortical. Los argumentos anteriores nos sugieren lo siguiente: I. El aprendizaje se lleva acabo fundamentalmente en la corteza cerebral. II. El aprendizaje no es una función exclusiva ni de la corteza, ni de regiones particulares de esta. 6.4.- CONSTRUCCIÓN COMPUTACIONAL DEL AGENTE ¿Qué es un Agente Inteligente? Un agente inteligente, es una entidad capaz de percibir su entorno, procesar tales percepciones y responder o actuar en su entorno de manera racional, es decir, de manera correcta y tendiendo a maximizar un resultado esperado. Un agente inteligente puede ser una entidad física o virtual. Si bien el término agente racional se refiere a agentes artificiales en el campo de la Inteligencia Artificial, también puede considerarse agentes racionales a los animales incluido el hombre. En Ciencias de la Computación el término agente inteligente puede ser usado para referirse a un agente de software que tiene algo de inteligencia, independientemente de si no es un agente racional por definición de Russell y Norvig. Por ejemplo, programas autónomos utilizados para asistencia de un operador o de minería de datos (a veces denominado robots) son también llamados "agentes inteligentes". Otras Diferenciaciones de los Agentes Inteligentes. Los agentes inteligentes se describen esquemáticamente como un sistema funcional abstracto. Por esta razón, los agentes inteligentes son a veces llamados Agentes Inteligentes Abstractos (AIA) para distinguirlos de sus implementaciones del mundo real como sistemas informáticos, los sistemas biológicos, o de organizaciones. Algunas definiciones de agentes inteligentes hacen énfasis en su autonomía por lo que prefieren el

término agente inteligente autónomo. Y otros (en particular, Russell y Norvig (2003)) consideran conducta dirigida a objetivos como la esencia de lo inteligente y prefieren un término tomado de la economía "Agente Racional". La Percepción en el Agente En muchos textos se define agente inteligente como todo agente capaz de tener conciencia de su entorno y actuar sobre él. Un agente humano o animal tiene ojos, oídos y otros órganos sensoriales, además de manos, piernas, boca y otras partes del cuerpo para actuar. Un agente robot recibe pulsaciones de un teclado, archivos de información y paquetes vía red a modo de entradas sensoriales y actúa sobre el medio con el monitor, escribiendo ficheros y enviando paquetes por la red. Entonces podemos de cierta manera suponer que cada agente puede percibir sus propias acciones (pero no siempre sus efectos). El término percepción se utiliza en este contexto para indicar que el agente puede recibir entradas en cualquier instante. La secuencia de percepciones de un agente refleja el historial completo de lo que el agente ha recibido. Un agente tomará una decisión en un momento dado dependiendo de la secuencia completa de percepciones hasta ese instante. El Concepto de Agente Racional Un Agente Racional es aquel que hace lo correcto; en términos conceptuales, cada elemento de la tabla que define la función del agente se tendría que rellenar correctamente. En este contexto la racionalidad es la característica que posee una elección de ser correcta, más específicamente, de tender a maximizar un resultado esperado. Este concepto de racionalidad es más general y por ello más adecuado que inteligencia (la cual sugiere entendimiento) para describir el comportamiento de los agentes inteligentes. Por este motivo es mayor el consenso en llamarlos agentes racionales. ¿Qué Significa Hacer Lo Correcto? Como primera aproximación, se puede decir que lo correcto es aquello que permite al agente obtener un resultado mejor. Por tanto se necesitaría determinar una forma de medir el éxito. Ello, junto a la descripción del entorno y de los sensores y actuadores del agente, proporcionará una especificación completa de la tarea que desempeña el agente. La Racionalidad Depende de 4 Factores 1. La Medida de Rendimiento que Define el Criterio de éxito. 2. El Conocimiento del Medio en el que habita acumulado por el agente. 3. Las Acciones que el agente pueda llevar a cabo. 4. La Secuencia de Percepciones del Agente hasta este momento. Los Sistemas De IA Deben Exhibir Las Siguientes Características 1. Aprender nuevos problemas e incrementar normas de solución. 2. Capacidad de adaptación en línea y en tiempo real.

3. Ser capaz de analizar condiciones en términos de comportamiento, el error y el éxito. 4. Aprender y mejorar a través de la interacción con el medio ambiente (realización). 5. Aprender rápidamente de grandes cantidades de datos. 6. Deben estas basados en memoria de almacenamiento masivo y la recuperación de dicha capacidad. Es posible clasificar los agentes inteligentes en 6 categorías principales: 1. Agentes Reactivos 2. Agentes Reactivos Basados En Modelo 3. Agentes Basados En Objetivos 4. Agentes Basados En Utilidad 5. Agentes Que Aprenden 6. Agentes De Consultas La conducta de un agente no suele ser la óptima Paradójicamente la conducta de un agente rara vez es la óptima. La razón es sencilla: calcular el óptimo de un criterio de un modo suficientemente bueno como para ser considerado razonable es muy difícil cuando en el problema planteado concurren múltiples restricciones. Cuando el criterio es una función real de muchas variables y las restricciones también, los cálculos son mucho más complicados. Algunas veces se puede lograr una buena aproximación, pero si el agente ha de tomar la decisión en muy poco tiempo, deberá conformarse con la mejor aproximación que pueda calcular en el escaso tiempo de que dispone. 7.- MÉTODOS DE INVESTIGACIÓN DE LA CIENCIA COGNITIVA 7.1.- LA INTROSPECCIÓN El vocablo introspección proviene del latín ―introspicere‖, que significa ―inspeccionar dentro‖. En términos generales y según la etimología, la introspección es la observación que el individuo hace de su propio mundo interior, de sus cogniciones, emociones, motivaciones y conductas. De acuerdo a Rosenthal (1999), la introspección es el proceso a través del cual adquirimos un tipo de conciencia ―focalizada o atenta‖ sobre nuestros procesos y contenidos mentales, que difiere de la conciencia casual, fugaz y difusa que se tiene a diario sobre ellos. La introspección fue el primer método empleado por la Psicología, cuando en el siglo XIX se separó de la filosofía para convertirse en ciencia. Desde entonces ha transitado un largo camino, a través del cual se ha modificado y casi extinguido, para finalmente, resurgir con fuerza como uno de los métodos preferidos por la Psicología Cognitiva. Si bien todos los enfoque introspectivos tienen en común el intento por aproximarse a los procesos cognitivos a partir del reporte verbal hecho por los propios sujetos, también es cierto que entre estos enfoques existen diferencias sustanciales en lo que se refiere a la aproximación conceptual desde la que parten TIPOS DE INTROSPECCIÓN 1. La introspección experimental: su objetivo fundamental era que la introspección fuera un método científico que permitiera la aproximación a los procesos cognitivos con un alto nivel de objetividad, de forma que le concedió gran importancia a la adecuada manipulación de los estímulos presentados y

al registro apropiado de las respuestas obtenidas. Una tarea típica era medir el tiempo que tardaba un sujeto en detectar pequeños cambios estimulativos. Sus principales representantes fueron Wundt y Titchener. 2. La Introspección sistemática o fenomenológica: dejando de lado la excesiva preocupación por lo experimental, su objetivo principal era acceder a los procesos cognoscitivos complejos como el pensamiento. Una tarea típica era pedirle a un sujeto que resolviera un problema que se le había planteado para luego solicitarle que describiera los procesos de introspección sistemática fue propuesta por Brentano y fue practicada ampliamente por la Escuela de Wurzburgo. 3. La introspección contemporánea: intentaba superar las múltiples críticas que se hicieron a la introspección antigua; adquirió la forma de reportes verbales que se realizaban mientras el individuo llevaba a cabo procesos cognitivos que no eran de naturaleza automática y que por lo tanto fueran susceptibles de acceder a la conciencia, como por ejemplo: la solución de problemas, la toma de decisiones, el hacer inferencias y predicciones, etc. Si bien no tienen un representante oficial, quienes más han promovido su uso dentro de la psicología cognitiva han sido Ericsson y Simon. LA CRÍTICA A LA INSTROSPECCIÓN 1. Algunos siguiendo a Comte rechazaron la introspección afirmando que la mente no puede ser al mismo tiempo, el agente y el objeto de la introspección. 2. Una segunda crítica es que la introspección puede modificar drásticamente la experiencia. 3. Una tercera dificultad radicaba en que los psicólogos que utilizaban el método introspectivo no obtenían resultados similares 4. El cuarto argumento hacía referencia a que existían datos que pertenecían a los procesos cognitivos pero que gracias a la práctica se hacían cada vez más automáticos y -por tantoinconscientes a lo largo de la vida de un individuo, de forma que no eran accesibles a la introspección 5. Un quinto problema en lo que se refiere a la introspección es que un requisito del método científico es la replicabilidad del fenómeno, a fin de comprobar si reproduciendo las circunstancias en las que ocurrió el fenómeno se obtienen resultados similares. Esto no es posible en las observaciones introspectivas. 6. los informes introspectivos no son un registro objetivo e imparcial que hace el sujeto sobre sus procesos mentales, en algunos casos pudieran ser las interpretaciones e inferencias que hace el individuo basándose en sus creencias, prejuicios, expectativas, etc. sobre sus procesos mentales. RESURGIMIENTO DE LA INSTROSPECCIÓN Con el avance de la psicología cognoscitiva y el resurgimiento de los estudios sobre la conciencia, la idea de una metodología introspectiva pareció merecer una segunda mirada. La introspección ha resurgido mediante el uso de los protocolos verbales. Un protocolo es una descripción, ordenada cronológicamente, de las actividades que un sujeto desarrolla mientras ejecuta una tarea como realizar un juicio, tomar una decisión o resolver un problema (Ericsson y Simon, 1993). Los Protocolos verbales pueden servir de base para la caracterización de los pensamientos de un individuo, como dato para un análisis de contenido cognitivo, o para el desarrollo de un programa de ordenador. Las técnicas de licitación de protocolos verbales varían notablemente, entre las más conocidas tenemos: los protocolos de pensar en voz alta, el recuerdo estimulado, las entrevistas sobre

problemas-tipo y la técnica Delphi. LOS PROTOCOLOS DE PENSAR EN VOZ ALTA Este procedimiento consiste en recolectar información acerca de los procesos mentales de un sujeto, al pedirle que diga en voz alta lo que va pensando mientras realiza una tarea. Entre las ventajas que tiene esta estrategia, se encuentran: a) Que se ve poco afectada por la distorsión que genera la distancia temporal entre las actividades cognitivas realizadas y el reporte de las mismas. b) Que al ser casi simultáneo el reporte se facilita la obtención de información muy específica sobre el proceso cognitivo investigado. Sin embargo, entre las críticas más fuertes que el procedimiento ha recibido están: a) Que el propio procedimiento puede interferir los procesos cognitivos que se pretenden evaluar. b) Que el sujeto podría proporcionar menos información de la que posee ya que al trabajar en condiciones de demanda excesiva (atender a la tarea y dar su informe simultáneamente), puede tender a interrumpir sus verbalizaciones o a empobrecer su información. EL RECUERDO ESTIMULADO En esta técnica se recurre al uso de grabaciones de video o de audio mientras el sujeto realiza una tarea. Posteriormente, estas grabaciones son utilizadas como un estímulo para facilitar la recuperación de la información. Esta técnica es una alternativa a los métodos de pensamiento en voz alta, ya que de esta manera se evita que el sujeto tenga que generar o registrar el protocolo verbal de forma simultánea a la realización de la tarea. Sin embargo, a fin de aumentar su validez se sugiere que las preguntas se realicen inmediatamente después de la grabación LAS ENTREVISTAS SOBRE PROBLEMAS-TIPO Este método consiste en proporcionarle a un sujeto un conjunto de tarjetas que presentan ejemplos correctos, incorrectos o ambiguos sobre la aplicación de un principio general y pedirle que escoja aquellas tarjetas que él piensa que ejemplifican correctamente el principio. Posteriormente, se entrevista al sujeto para discutir con él en profundidad las razones por las que escogió esas tarjetas. A partir de este procedimiento se busca comprender cómo razona una persona cuando se aproxima por primera vez a asuntos conceptualmente difíciles LA "TÉCNICA DELPHI" Para llevarla a cabo, se envía a expertos en Psicología Cognitiva las filmaciones que se hicieron de los sujetos mientras realizaban una tarea, y se les pide que identifiquen en esa grabación los procesos cognitivos y los contenidos de interés que estuvieron presentes durante la realización de la tarea. De este modo se puede llegar a un consenso sin necesidad de abrir un proceso de discusión y debate, puesto que las personas consultadas no tienen un contacto directo entre ellas. Cuando se creía que la introspección había desaparecido, resurgió con fuerza a través del análisis de protocolo para convertirse en uno de los métodos preferidos de la Psicología Cognitiva contemporánea. En la actualidad, tanto los defensores como los detractores de esta técnica parecen estar conscientes de los retos que aún deben enfrentarse y solucionarse para hacer de la

introspección un método más objetivo. El nivel sintáctico de descripción no es suficiente para dar cuenta de las capacidades cognitivas humanas. La relevancia de los niveles semántico y pragmático en la descripción de las capacidades cognitivas humanas. Relevancia de factores socioculturales.

Cite este ensayo APA

(2011, 12). Teoria Computacional De La Mente. BuenasTareas.com. Recuperado 12, 2011, de http://www.buenastareas.com/ensayos/Teoria-Computacional-De-La-Mente/3237333.html

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF