Broncano Fernando - Nuevas Meditaciones Sobre La Tecnica
March 29, 2017 | Author: Aki Sunshin | Category: N/A
Short Description
Download Broncano Fernando - Nuevas Meditaciones Sobre La Tecnica...
Description
Nuevas meditaciones sobre la técnica
Edición de Fernando Broncano
E
D
T
O
R
A L
T
R
O
T
T
A
Este libro hu sido realizado con uno ayuda de lo D.G,C.Y,T. P.B. 8700336
CONTENIDO
COLECCION ESTRUCTURAS y
PROCESOS
Serie Filosofía
Introducción. La filosofía y la tecnología: una buena relación: Fernando Broncano .
MODEtOS TECNOLÓGICOS Y REALIDAD Conocer y actuar a través de la tecnología: Manuel Liz Notas sobre el significado de los modelos informáticos de simulación: Javier Aracil En torno a los conceptos de modelo, sistema y simulación: táargarito vázqucz.
cultura Libre Fernando Bronconc, Manuel l.z , Jovier Aracil, Morqcritc Vózquez , .loselo T enero Meteos. Jesús Ezquerro, Mlkel Olozorón. Miguel Ángel Oolntonillo, Alfonso Bravo Juego, 1995 Editorial Trotto, S.I\., 1995 Altamirano, 34. 28008 Modrid Teléfono 549 14 43 Fox. 549 16 ~5 Diseño .looqvrn Colleqo ISBN, 84·8164-056-5 Depósito Lequl- VA-686/95 Impresión Simoneas Ediciones, S.A Poi. lnd. Son Cus-óbol CI Estaño, parcelo i 5) 4701? Valladolid
23 53 8 '1
CONOCIMIENTO TECNOLÓGICO Y TECNOLOGÍAS DEL CONOCIMIENTO
1,;1 simulación y la (~'Midad en los sistemas de funciones. El caso de los sistemas cognitivos: remando Brcmcano Semántica de las reglas tecnológicas: eficiencia y control en la organización y planificación de los sistemas tecnológicos: Jusefa Toribio Maleas Acciones, planes y tecnología: Jesús Ezquerro
] 01
121
139
SOCIOLOGÍA, POLÍTICA Y ECONOMÍA DE LA TECNOLO(;ÍA Controversias y estructuración social de las comunidades científico-tecnológicas: un estudio de caso en inteligencia artificial: lVlikel Cslazarán . La construcción del futuro: Miguel A. Quintanilla . Innovaciones teóricas en la economía del cambio tecnológico: Alfonso Bravo juega .
7
169 201 217
Introducción LA FILOSOFÍA Y LA TECNOLOGÍA: UNA BUENA RELACIÓN
Fernando
Broncano
Los ensayos que recoge este volumen resultan del trabajoque durante más de tres años hemos ido desarrollando en el marco del programa «Estructura, dinámica y evaluación de sistemas tecnológicos)', acogidos en el Instituto de filosofía del C'ilC y financiados por el Programa de Desarrollo General del Conocimiento. A lo largo de varios años nos hemos reunido sistemáticamente y hemos discutido los trabajos que se habían ido gestando en el curso del proyecto. Algunos de los participantes, como Javier Aracil y Miguel Angel Quintanilla, habían escrito ya algunos trabajos filosóficos sohre la tecnología, los demás estábamos comenzando a pensar filosóficamente en todos o algunos de los aspectos de las técnicas o de la tecnología. El programa siguió un rumbo propio, por encima de nuestras previsiones iniciales, al compás de nuestras discusiones, que iban poco a poco derivando las primeras perspectivas generales hacia un conjunto de temas y problemas más específicos y concretos, que se habían ido volviendo cada vez más importantes, a medida que dábamos vueltas a las ideas, y que coinciden con Jos recogidos en este volumen. Sin embargo, han permanecido o se han afianzado algunas de las preocupaciones primitivas que nos impulsaron a comenzar el trabajo, muchas de las cuales han aparecido ya en varias publicaciones individuales y colectivas de los miembros del grupo. UN PROYECTO DE FIl.OSOFÍA DE LA TECNOLOGÍA
La tecnología no ha merecido la misma atención de los filósofos que otros campos de la cultura. Una explicación repetida entre quienes han notado la falta achaca el defecto al sesgo teoricista de nuestra cultura. Se nos dice que el pensamiento occidental ha despreciado
9
I
H'. Queremos que la tecnología mejore nuestra calidad de vida hasta donde sea posible. Con todo ello, la pregunta por la racionalidad de la tecnología alcanza a la consideración de los fines últimos que deberían proponerse nuestras acciones tecnológicas. Esta vertiente de la racionalidad tecnológica se conecta con otras formas de racionalidad práctica no estrictamente tecnológicas. Con algo que podríamos tal vez llamar racionalidad social o racionalidad política. Aquí ocurre algo parecido a lo que ocurría antes con la racionalidad epistémica de la tecnología. En la racionalidad práctica de la tecnología deben intervenir también estrategias y métodos generales muy parecidos a los que intervienen en la racionalidad social y política. En la racionalidad práctica de la tecnología hemos identificado hasta el momento tres componentes: una racionalidad epistémica, una racionalidad instrumental y una racionalidad de fines. Por otro lado, en todas las acciones tecnológicas podemos también distinguir la intervención, en grado variable, de tres tipos de elementos normativos. Los llamaremos elementos normativos científico-tecnológicos, elementos normativos sociales y elementos normativos éticos. Cada uno de los anteriores elementos normativos estaría formado tanto por creencias como por reglas de acción. Todos ellos se distinguen por su diverso origen y pueden funcionar como criterios de evaluación y corrección en todas las fases de una acción tecnológica. Aclaremos más a qué nos referimos. La distinción entre elementos normativos científico-tecnológicos, por un lado, y elementos normativos sociales y éticos, por otro, sería relativa al grado de aceptación que tengan determinadas creencias y reglas de acción por parte de la propia comunidad científico-tecnológica. Lo que sea un elemento normativo científico-tecnológico debe ser identificado en relación a 10 que creen los propios científicos y tecnólogos como científicos y tecnólogos. Por cierto, la distinción entre creencias y reglas de acción propiamente científicas o tecnológicas, por un lado, y creencias y reglas de acción ideológicas, por otro, debe ser trazada por la propia ciencia. A su vez, la distinción entre elementos normativos sociales y éticos sería relativa a su grado de aceptación social. Las creencias religiosas, por ejemplo, pueden ser elementas normativos éticos, individuales y privados, en cierto contexto
I (lN(){ 11\
Y
A(
lUA~
A
II(AV!'.,
IJI
lA
IICNOIO(~IA
social, y pasar a ser elementos normativos sociales en otro contexto social diferente. Los tres tipos de elementos normativos intervienen tanto en la discusión acerca de la racionalidad epistérnica de la tecnología como en las discusiones, que englobarían a la anterior, de su racionalidad instrumental y de su racionalidad de fines. Veamos ahora cómo se relacionan estos dos grupos de distinciones. El grado de intervención de las diferentes clases de elementos normativos es crucial a la hora de distinguir clases de acciones tecnológicas y de preguntarnos por sus condiciones de racionalidad", Realizar un experimento de electrólisis en unas clases prácticas de química, diseñar y construir un embalse, realizar un aborto, planear y llevar a cabo la instalación de una planta de residuos nucleares, organizar y ejecutar con la mayor discreción y eficacia posibles el genocidio de cierto grupo humano, serían acciones tecnológicas básicamente distintas por las distintas dosis de elementos normativos científico-tecnológicos, sociales y éticos que en ellas aparecen. y la evaluación de su racionalidad debe depender estrechamente de la presencia o ausencia de estos diferentes elementos normativos que entran en juego. Veamos. Los elementos normativos científico-tecnológicos no pueden faltar, debiendo resultar siempre prioritarios en cuestiones epistémicas. Incluso en relación a los modelos específicamente tecnológicos, los criterios y controles de racionalidad epistémica en la tecnología deben ser los mismos, en líneas generales, que los que operan en la ciencia. Habrá ciertos problemas de racionalidad de las acciones tecnológicas que serán decidibles exclusivamente en virtud de las características de sus elementos normativos científico-tecnológicos. Esto será así cuando no existan elementos normativos sociales o éticos involucrados o cuando la intervención de estos elementos se mantenga en suspenso. Los problemas de la racionalidad epistémica de la tecnología son problemas de este tipo. También los problemas de la llamada racionalidad instrumental. El adecuado tratamiento de estos últimos problemas se realiza en el marco de las teorías matemáticas de la decisión, de la maximización de funciones, etc. La economía y las teorías de la organización industrial y empresarial jugarían aquí un papel también fundamental. Todo ello delimitaría un primer tipo de problemas de racionalidad de las acciones tecnológicas. Como acabamos de decir, a este primer tipo de problemas pertenecería todo lo relativo a la racionalidad epistémica y a la racionalidad instrumental de la tecnología. La presencia de elementos normativos éticos y sociales incompatibles entre sí, o incompatibles con ciertos elementos normativos científico-tecnológicos, señalaría la presencia de un segundo tipo
24. Ortega (1982) acier t a plenamente cuando indica que con la técnica y la recnolog¡a no sólo buscamos sobrevivir sino, sobre todo, bíenoioir. Como veremos mas adelante, esta meta ccnsriruira justamente el origen de los que llarnar emos tercer tipo de problemas de racionalidad de las acciones tecnológi 1)1
lA
11 (NOI OCiA
que tal vez, si nos lo propusiéramos, podría ser evitado. Pero la modificación total y absoluta de «nuestros» intereses no puede ser un producto técnico o tecnológico «nuestro», Ni un simple efecto colateral o secundario. Ha de ser siempre un subproducto'"; es decir, algo que no puede ser intencionalmente planeado y conseguido. Un proyecto imposible. Y, algo imposible no puede ser un límite de la racionalidad. Hemos puesto un ejemplo extremo, pero la moraleja es clara. Nuestra incapacidad para ajustarnos a una norma racional no puede ser identificada con ninguna insalvable incapacidad física o metafísica. La racionalidad no puede quedar limitada por algo imposible de conseguir. Debe haber una diferencia crucial entre ser irracionales y ser a-racionales. En los asuntos racionales, un límite insalvable deja de ser ya un límite. Por las mismas razones, tampoco tiene por qué ser un límite de la racionalidad tecnológica el no ser capaces de controlar todas las consecuencias de nuestras acciones tecnológicas", Esto también sólo es un límite determinante de nuestra tecnología. Controlar más consecuencias de nuestras acciones tecnológicas sólo implica directamente tener mejor tecnología, no tener una tecnología más racional. Aunque tuviéramos un control total sobre todas las consecuencias de nuestras acciones, podríamos realizar acciones absolutamente irracionales. Una sociedad infinitamente perversa es perfectamente compatible con una tecnología ideal desde el punto de vista del control. Pero, la perversión algo debe tener que ver con la irracionalidad. La incapacidad de control sería, en nuestro caso anterior, no un límite sino más bien una virtud. Mayor control sólo significa mayor racionalidad cuando únicamente surjan problemas de racionalidad del primer tipo o, si además aparecen otros tipos de problemas de racionalidad, cuando efectivamente sea racional la obtención de los objetivos que pretendemos. Pensar que el principal o el único problema de la racionalidad tecnológica es un problema de control, de maximizar el control sobre nuestras acciones tecnológicas y sus consecuencias, es empeñarse en que sus objetivos, sus fines, caen siempre fuera de la evaluación". Pero los fines no son dados, sino más bien tomados. Y los criterios de adopción, ordenación y valoración de fines son esenciales en toda acción tecnológica.
¿Cuáles son, entonces, los límites de la racionalidad de la tecnología? La causa decisiva que hace que nuestra racionalidad tecnológica esté limitada es, más bien, nuestra incapacidad para determinar de forma decisiva e irrevisable la racionalidad o irracionalidad 30. Justamente en el sentido en el que Elsrer (19X3) utiliza esta noción. 31. De manera análoga, podríamos decir que no conocerlo todo no supone tampoco. necesariamente, ningún límite de la racionalidad episrémica, sino sólo un límite del propio conocimiento. 32. En otro lugar, Liz y Vázquez (1990) llamábamos a esta actitud «síndrome Nemo».
45
r1 A N 11 I
de la mayor parte de nuestras acciones tecnológicas. Es más, cuanto mayores sean las expectativas que pongamos en ciertas acciones tecnológicas, mayor parece ser siempre esta indeterminación!', Nuestra racionalidad tecnológica es limitada, en este sentido, porque también lo es la racionalidad epistérnica que incluye. Porque, además, siempre podemos replantearnos la existencia de nuevos elementos normativos científicos, sociales o éticos o revisar críticamente aquellos con los que ya contábamos. Siempre podemos, también, poner en cuestión las relaciones de primacía establecidas entre esos elementos en base, por ejemplo, a la crítica y devaluación de la racionalidad de alguno de ellos. La ampliación de consideraciones no conoce aquí límite. El poner límites a esta falta de límites es lo que limita nuestra racionalidad. Siempre es posible ser más racionales de lo que somos, y los límites los ponemos nosotros al pararnos en un punto. La posibilidad de un cambio en nuestras asignaciones de racionalidad permanece siempre abierta. Toda determinación de la racionalidad de una acción tecnológica es hipotética, tentativa y revisable. Aspirar a una racionalidad completa no puede significar, pues, anular estos rasgos. Tales rasgos son constitutivos de nuestra racionalidad. No son rasgos eliminables. Volvamos atrás. ¿En qué sentido podemos aspirar, entonces, a una racionalidad tecnológica limitada pero completa? La respuesta a esta pregunta debería ser, creo, más o menos la siguiente: es plausible suponer que una racionalidad tecnológica limitada se
vuelve completa en la medida en que explotamos toda la información disponible y agotamos la crítica y la acción dentro de sus límites. Al precisar la noción de fines intrínsecamente valiosos decíamos que, aunque pertenezca a esa noción el que los fines intrmsccamcnte valiosos deban ser valorados a pesar de no tener razones para ello, no sólo el no tener esas razones nu nos pone en la mano fines intrínsecamente valiosos (no estábamos ante un bicondicional), sino que el mejor, acaso el único, indicio que tenemos para suponer el valor intrínseco de un fin es el hecho de que sigamos valorándolo una vez agotados todos los recursos del conocimiento y de la crítical'. Con la completud de la limitada racionalidad de la tecnología ocurre algo semejante. El paralelismo debe resultar obvio desde el momento en que decimos que la racionalidad de la tecnología será completa cuando, siendo epistémica e instrumentalmente racional y ordenando y priorizando adecuadamente los fines dados en la
I (I~lll( II(
(A(
IIJAH
A
II(AV(~
111
lA
rr c re or o
c.L«
comunidad donde se desarrolle esa tecnología-U, procure la obtención de fines intrínsecamente valiosos. Queremos ser completamente racionales. Nos paramos en un punto. No es imposible seguir avanzando. Simplemente, no sabemos ya cómo seguir. Hemos de suponer que, entonces, nuestra limitada racionalidad se vuelve completa cuando nos agotamos en el querer ser racionales. Podríamos llegar a ser más racionales, imaginamos contrafáctica mente otras circunstancias en las que posiblemente nuestra racionalidad se hubiera ejercido mejor, pero hemos hecho todo lo que podiamos. Una racionalidad limitada puede ser así una racionalidad completa. Un último comentario. Los límites de la racionalidad los ponemos nosotros al pararnos en un punto. De las circunstancias de esa parada depende el que consideremos que la racíonalídad ejercida haya podido ser o no más completa. Hay un importante sentido en el que cabe hablar aquí de progreso de la racionalidad. Nuestro conocimiento aumenta y nuestras estrategias de crítica y acción se hacen cada vez más sofisticadas y poderosas. Aprendemos también del pasado, de nuestra historia y de los demás, conocemos otras manifestaciones culturales y otros valores con los que comparamos y contrastamos nuestra cultura y nuestros valores. Asimismo, inventamos e imaginamos nuevas formas de vida que pretendemos valorar intrínsecamente. Los límites capaces de contener una racionalidad limitada pero capaz de ser completa se amplían sin cesar. Nada de esto es nuevo. Y todo ello puede ser dicho también de la racionalidad tecnológica.
7.
IMAGINAR OTRA VIDA ANTES DE LA MUERTE
Imaginar otras formas de vida nos conduce, en última instancia, al terreno de la utopía. Pero, entre los campos de la racionalidad epistérnica, de la racionalidad instrumental y de la ordenación adecuada de nuestros objetivos, por un lado, y el terreno de la utopía, por otro, aún queda mucho camino por recorrer. Un camino en el que el debate acerca de la calidad de vida es fundamental. Este debate acerca de la calidad de vida, acerca de una calidad de vida intrinsecamente valiosa, pertenecería a lo que hemos llamado tercer tipo de problemas de racionalidad de las acciones tecnológicas. No sería adecuado desplazar todos los problemas relativos al valor intrínseco de los fines al ámbito de la imaginación utópica,
3:L Piénsese sin más en los CilSOS generales de la actual tecnología nuclear, de la ingeniería genética, de la inrelige ncia artificial o en el espléndido eje rnp!o de la conflictiva introduccion de la máquina de vapor eu la industrio textil a finales del pasado siglo. 34. Repitámoslo: 1M de ser posible proponerse fines intrínsecamente valiosos sin necesidad de ser sahi o, pero ser sabio es la mejor estratcgj.i para descubrir lo inrrfsecamenre valioso.
35. "Adecuadamente» debe entenderse aqu¡ como «adecuadamente-según-Ios-criteriosgc nera Ime 11te -ace prados-e n-esa-c 0111 uni dad-pa fa -ordcn ar -y -p rio rizar -fines-. rile de trata rse de criterios más o menos democráticos. autoritarios, etc. Una concepción de la racionalidad que no permita hablar de algo así l·0n10 «racionalidad intrínseca de fines» sólo podría llegar hasta aquí. Esto es lo irn porrante.
46
47
1 (J~~l)\ 111
MANUIIII/
cargándola con todo el peso de la completud de la racionalidad de la tecnología. Una calidad de vida meramente utópica no es, en general, un objetivo tecnológicamente posible. No es, por tanto, algo que pueda hacer completa la racionalidad de la tecnología. Y, cuando aquí intentamos describir y alcanzar una calidad de vida intrínsecamente valiosa, un «bienvivir» de los que hablaba Ortega,
no queremos salirnos del espacio de objetivos posibles de la tecnología. No queremos simplemente elaborar utopías. Tampoco pensamas que describir una calidad de vida se reduzca a una cuestión de ordenamiento y priorización de los fines aceptados por una comunidad en un momento dado. Lo que hacemos es plantear radicalmente la posibilidad de ser completamente racionales en nuestras acciones tecnológicas. Si queremos ser completamente racionales en nuestras acciones tecnológicas, estamos obligados a promover mecanismos que favorezcan el desarrollo de una imaginación no sólo utópica, estamos obligados a desarrollar una imaginación que se aplique a la innovación tecnológica orientada al mejoramiento global de la calidad de vida. La tecnología presenta cuatro importantes características que avalan la relevancia y el poder de la imaginación en este punto. Algunas de ellas ya las hemos analizado, otras aparecerán aquí por vez primera. Todas ellas merecerían consideración. Son las siguientes: 1) El desarrollo tecnológico es en gran medida imprevisto desde la perspectiva de los intereses y expectativas de los contextos científicos y sociales en los que tiene lugar, la creatividad tecnológica fácilmente escapa de los límites impuestos por la ciencia, la industria y la empresa. 2) La tecnología es holista, enormemente interrelacionada y sensible, pequeños cambios en un lugar pueden originar tremendas modificaciones en todo el conjunto de la tecnología. 3) La tecnología es altamente funcional, emplea un lenguaje típicamente funcional y enormemente plástico relacionando cosas muy heterogéneas desde otros puntos de vista, cosas pertenecientes a los ámbitos de la ciencia, la economía, la ética, el derecho, etc. 4) La tecnologia es sumamente finalista, incluyendo de manera no e1iminable fines, objetivos, intereses, expectativas, etc., que pueden ser revisados, cambiados o ampliados a través de su desarrollo". Al plantearnos, pues, el problema de la calidad de vida no estamos simplemente planteándonos un problema utópico que caiga ya fuera del marco de los problemas generados por la tecnología. Esta-
y
Al IIJAI!
A
II{AV( 1 t,',
',1>11111
11
',I(
1I1111 !,IJ(!
UI
1')',
M()II
10';
zado () ser simplemente un conjunto de opiniones. Pero en todo caso, se trata de la información de que se dispone relativa a S. 3. Un medio de expresión que permita a () realizar M, al que llamaremos lenguaje de modelación. Básicamente este lenguaje suministrad. los útiles o módulos (conceptos y símbolos) a partir de los cuales se construye el modelo. Comhinando estos módulos se tiene un repertorio de posibilidades (o conjunto de hormas) entre las que hay que buscar aquella que mejor se ajuste al S concreto. El lenguaje de modelación se construye a partir de la experiencia que se tiene (que debe ser muy amplia y dilatada) con relación a la clase de objetos que se trata de modelar. Se trata de un patrimonio de los especialistas en los sistemas en cuestión, que les suministran los útiles con los cuales ver y. a partir de esa visión, representar a S.
4. Se emplea a qui el término «observador» para referirse a una gran variedad de agentes, desde el científico que estudia un sistema hasra el consultor que asesora J una empresa, pasando por el simple curioso que se interesa por un tema.
Un modelo se dice, en la terminología habitual del modelista, que se construye, en- el sentido de qlle se edifica, es decir, que se ensamblan módulos básicos para dar lugar al objeto (artificial) que es el modelo. Este aspecto de construcción del modelo, a 10 largo del proceso de modelución, no debe ser subvalorado, ya que se rrata de un proceso que puede considerarse como artesanal (en el sentido de arte de organizar los elementos básicos que suministra la técnica de modelación empleada de forma adecuada para conseguir el objetivo propuesto: una imagen aceptable de un cierto aspecto de la realidad). Una vez construido el modelo, tenemos que O dispone de M. En el caso concreto que sirve de marco a estas reflexiones, M será un programa en un computador, al que O tiene acceso mediante el teclado, y con el que puede experimentar con M, obteniendo las respuestas mediante la pantalla o la impresora. Por tanto, () dispone de un ohjeto concreto M con el que responder a cuestiones relativas a S'. Se satisface así la definición que se enunciaba más arriba. No obstante, aunque al ser programado en un computador M se convierta en un objeto concreto, nosotros seguiremos considerándolo como abstracto, en el sentido de ser algo artificial, cuya naturaleza es esencialmente formal. La cuestión que queda abierta, y que pienso que tiene indudable interés filosófico, es la de la relación entre M (al fin y al cano un objeto abstracto materializado en un computador) y la propia realidad S (cualquier cosa que eso sea). La relación que liga a M y S recibe la denominación de relación de tnodelación (Bunge, 1973). En esa relación está implícita la de referencia. Se dice también que M se refiere a S. Esta relación entre un objeto absrracro y la realidad es de 111'> 11 MA
Y
,>IMUI AllÓN
conjunto de segmentos de entrada incluido en (T, X). R es la relación de entrada/salida que caracteriza a este nivel, y que es una relación que está incluida en X (T, Y), donde (T, Y) es el conjunto de
todos los segmentos de salida. La observación de la función entrada/salida, fOFO
= {T, X, Q, Y, F}, es en todo similar al nivel anterior, excepto en que sustituye la relación de entrada/salida, R, por las funciones de entrada/sali-
da, F. F es el conjunto de todas las funciones de entrada/salida, de tal manera que dada fE F, f 5;;; X(T, Y). El sistema entrada/salida, S = {T, X, Q, Y, O, u}, añade a los ya conocidos Oy ~. Tendríamos también el conjunto de estados internos, Ilamémosle Q, que representa la memoria del sistema. oes la función de cambio de estado, de un estado interno, con el conjunto de los segmentos de entrada, se pasa a otro estado interno, y ~ es la función de salida, que representa lo que puede ser sentido, medido u observado por el entorno cuando el sistema está en un
estado Q. El sistema estructurado es igual al sistema entrada/salida, excepto en que todos los conjuntos y funciones están estructurados, esto es, ordenados de acuerdo a unas determinadas coordenadas. Por último, el sistema multicompuesto, N = {D, {Sa}, {la}, {Za}}, representa ya un sistema compuesto de sistemas, donde D es el conjunto de los nombres de los componentes, y para todo elemento U E D, Su. representa el sistema u, la el conjunto de sus influencias y Z¿ la función interface de a. Si se estudia esta jerarquía de abajo a arriba, podemos verla como una descripción del proceso de modelado de un sistema. Tenemos un modo de comportamiento, un modo de referencia", que tenemos que explicar mediante una estructura. A partir de un determinado nivel se pretende explicar ya cómo es la estructura interna. Los tres primeros niveles, el marco observacional, la observación de la relación y la observación de la función, ya por sus propios nombres, «observación», indican que hacen referencia a algo que simplemen-
te es observado. No se intenta dar razón de su estructura interna, de por qué se
comportan como lo hacen, sino solamente de datos tomados de la observación: cómo se comportan, no por qué. De estos tres niveles, la observación de la función representaría lo que normalmente se entiende como modo de referencia o datos para calibrar un modelo, es decir, aquellos datos observados, medidos o sentidos, que permiten afirmar cómo ha funcionado un sistema durante un período de tiempo determinado, dadas determinadas condiciones. A la hora de construir un modelo lo que pretendemos, al menos en un pri7. Ésta es una noción de Dinámica de Sistemas. Más detalles sobre ella pueden verse en Aracil (1986).
85
MARC:;ARII A
vA/lJUI / I N
mer acercamiento, es poder dar razón de un modo de referencia concreto". Cuando tenemos un modelo, pretendiendo explicar un comportamiento de un sistema dado, y tenemos un modo de referencia, lo que querernos es subir un peldaño. Lo que queremos es a partir de ese comportamiento, de ese modo de referencia, explicar la estructura o, a veces, incluso menos: si tenemos un modo de referencia degenerado, una observación pobre, podernos querer construir un modelo que dé razón de esa observación, que establezca la función de observación. De todas maneras, la tarea fundamental de un proceso de modelado sería la asignación de estructuras a modos de comportamiento dados. Siguiendo la jerarquía, sería en el nivel 3, el sistema entrada/salida, cuando nos encontraríamos por primera vez con algo que puede ser llamado en verdad estructura de un sistema. Aquí aparece Q, el conjunto de estados internos del sistema, que va a permitir explicar cómo la historia del sistema afecta a las futuras respuestas del mismo. Es esto precisamente lo que nos va a posibilitar las simulaciones y lo que nos va a permitir dar cuenta de, por ejemplo, cómo una entrada puede tener su respuesta, su salida, después de un, a veces largo, período de tiempo. Este conjunto de estados Q es un concepto de modelado que no tiene por qué corresponderse con algo que exista realmente. Lo único que importa es que en ese conjunto de estados se introduzca toda la información que permita dar cuenta del comportamiento del sistema e, incluso, prever futuros comportamientos. Desde cierto punto de vista, el conjunto de estados Q constituiría la «teoría» que da cuenta de la «experiencia» ofrecida en el modo de comportamiento. Q sería así el conjunto de propiedades y relaciones teóricas cuya correspondencia con la realidad queda siempre pendiente. En la rertninolog¡a de la filosofía de la ciencia estructuralista, lo que diferencia el nivel 3 de los anteriores sería justamente la aparición de predicados y relaciones T-teóricas. Por el contrario, los predicados y relaciones presentes en los niveles 0, 1 Y2 serían exclusivamente no T-teóricas. La relación entre lo teórico y lo no teórico nunca es directa, sino relativa a una teoría T. Lo no teórico respecto a una teoría es teórico siempre respecto a otra teoría. El valor realista o no que demos al conjunto de estados Q dependerá, pues, no de una '!L Conviene recordar aquí que estamos hablando de especificaciones (modelos) de sistemas dinimicos. Esto es, de sistemas que cambian con el tiempo. La función enrrada! salida toma sus argumentos y arroja sus valores en momentos o instantes determinados del tiempo, o de cierta escala temporal establecida. Por ello, el cálculo diferencial e integral respe·cto al tiempo es aquí aplicable, especialmente cuando hablamos de las estructuras (flujos, niveles.o-etardos, erc.) capaces de generar ese "modo de referencia». El hecho de inrcrvenir .aquí marcos O). 2) Queremos modificar el comportamiento de 1) con vistas a conseguir determinados fines u objetivos. También podemos querer modificar la estructura por razones de economía, estética, etc. 3) Si conocemos la estructura que genera ese comportamiento (esto es posible, entre otros, en los sistemas completamente artificiales) que queremos modificar, o la estructura que querernos modificar, hacemos los cambios necesarios en la
88
IN
I (1llrlll
1\
I t i ',
l UN(.I l' I O.,
D[
MUDI 1 U,
'>1" I1 MA
Y
"IMUI.ACION
estructura a fin de conseguir dichas modificaciones (que pueden ser tanto de comportamiento como de estructura). Si no conocemos la estructura, la hipotetizamos y hacemos las modificaciones sobre la hipótesis. La planificación podría ser entendida como el requisito previo para el control de cualquier sistema, pues sólo a través de ella es posible conocer y comprender el comportamiento del sistema y, lo que es más importante, el porqué de ese comportamiento. Esto es posible .debido a que al artificializar, al construir un sistema artificial, 10$ hombres imponen, o imponemos, una estructura determinada. Podemos entender un modelo construido con una técnica de simulación, como, por ejemplo, la Dinámica de Sistemas, como la hipoterización de una estructura con el objetivo de generar un comportamiento que ya conocemos o del que disponemos de algunos datos acerca de cómo se podría comportar. En estos casos, un modelo se entiende como una hipótesis acerca de la estructura de un sistema, como un sistema artificial que simula a otro sistema, sea este otro natural o artificial. Esta característica de los modelos de Dinámica de Sistemas, como generadores de hipótesis, ha llevado a la idea de que la Dinámica de Sistemas puede facilitar el desarrollo de determinadas estructuras conceptuales, en el sentido del lenguaje l.OGO. El l.OGO es un lenguaje de programación desarrollado por Seymour Papert. Papert fue discípulo de Piaget en Ginebra, donde comenzó a estudiar el aprendizaje de los niños. En el MIT formó el grupo l.OGO dentro del laboratorio de Inteligencia Artificial. Este grupo estaba dedicado a la creación de nuevos medios tecnológicos para la educación de los niños y con el lenguaje LOGO desarrolló un instrumento nuevo de exploración del conocimiento. Papert y sus colaboradores consideran al niño como constructor activo de sus propias estructuras intelectuales, asegurando que los niños se apropian de materiales que se encuentran a su alrededor, así como de los modelos y metáforas que les sugiere la cultura circundante. Una de las grandes ventajas que presenta ell.OGO es su aproximación al lenguaje natural, evitando de este modo que sus instrucciones primitivas sean malentendidas por el niño. Además, este lenguaje presenta el error como algo positivo y favorece las estrategias heurísticas, respetando las de cada sujeto. La Dinámica de Sistemas, y otras técnicas de simulación de sistemas, podrían tener una tarea de este tipo: estudiar situaciones complejas combinando bloques simples y,.. al mismo tiempo, provocar y acelerar el lenguaje observacional. Este ha sido señalado por Morecroft (1988). Este dice que el lenguaje l.OGO de Papert es usado para crear estructuras de aprendizaje que ayuden a los estu-
89
M/\I\(,/\I,II/\
VIl/()IJI / IN
diantes a entender conceptos difíciles o abstractos, desde los conceptos más simples se construyen los más complejos, y que la Dinámica de Sistemas puede tener una función similar. Pensamos la realidad en términos de sistemas y esto constituye una estrategia heurística formidable. Logramos así una visión de las cosas rica y sugestiva. Se trata de un proceso sintético: elementos que estaban aparentemente desconectados se integran formando un sistema. Pero nuestra visión no podrá distinguirse de la fantnsía, a menos que establezcamos mecanismos de control analítico ngurosos. El modelo, sin conceptualizar, que, acerca del sistema que se quiere modelar, tiene el modelista es llamado en Dinámica de Sistemas el «modelo mental» y es la forma en la que el experto, agente o usuario percibe ese sistema. En Vázquez, Liz & Aracil (1990) se examinaban algunas relaciones entre el «realismo interno» de Hilary Putnam (1981) y la Dinámica de Sistemas (Aracil, 1986), poniendo especial énfasis en la habitual ausencia de conocimientos teóricos a la hora de simular sistemas sociales complejos. La ausencia de tales conocimientos teóricos hace inevitable el recurso al punto de vista y las opiniones que sobre tales sistemas tienen los agentes involucrados en los mismos. De esta manera, el modelo mental no es el punto de vista del ojo de Dios, sino el de los seres humanos particulares, especialmente los seres humanos que participan en tales sistemas. Es, por lo tanto, un punto de vista parcial, limitado y corregible, pero es imprescindible. Podríamos decir que si el punto de vista del ojo de Dios es el punto de vista de las teorías interpretadas de una manera hiperrealista (es decir, de la manera como el «realismo metafísico- interpreta el conocimiento), el punto de vista de los modelos mentales es un punto de vista altamente inrernalisra, El internalismo en Dinámica de Sistemas no es sólo debido a que no haya teorías precisas disponibles, sino también (y esto no es menos importante) al hecho de que la propia estructura de los sistemas sociales complejos que se modelan depende necesariamente del punto de vista de los agentes involucrados en ellos. Este punto de vista es el conjunto de opiniones, deseos, decisiones, políticas de acción, etc., que esos agentes desarrollan a la hora de constituir el sistema del que son parte. Este punto de vista es el modelo mental que sirve de guía para la construcción de modelos en Dinámica de Sistemas. Estos modelos mentales, que se pueden representar mediante maquetas, diagramas, imágenes, erc., no son teorías ni modelos de teorías. Y esto es así, fundamentalmente, por dos razones: 1) Los modelos mentales tienen un fuerte carácter implícito, mientras que toda teoría es explícita.
90
IOIHll)
/1
I ()',
(ONUI' I OS
l)f
MOI)!IO.
sr s t
I MA
Y
SIMULACIÓN
2) Los modelos mentales son doxa, opinión, no episteme. Los modelos mentales que dos sujetos diferentes tengan acerca de un único sistema pueden ser inconmensurables, aunque aquí habría que resaltar la flexibilidad de los modelos mentales: dos sujetos diferentes con dos modelos mentales diferentes de un único sistema podrían converger, tras la discusión y el diálogo, en un único modelo mental acerca de ese sistema. Los modelos mentales son una parte muy importante a la hora de construir modelos en Dinámica de Sistemas. En ellos, aunque los modelos no sean teorías, serán muchas veces substitutivos de las mismas a la hora de construir este tipo de modelos. Y, aunque tampoco sean modelos de ninguna teoría, los dibujos, diagramas, etc., que se utilizan para dar una forma gráfica de estos modelos mentales serán una primera representación del sistema que está siendo objeto de la simulación. Donella Meadows, jorgen Randers y Javier Aracil, entre otros, han destacado la importancia de este tipo de representación. 4. LA «REALJDAD)~ DE LOS MODELOS
El modelo mental guía en la elección de una estructura. A través de ella, inferimos y determinamos con precisión un comportamiento (o un conjunto de comportamientos -atractores, bifurcaciones, etc.-), que debe adecuarse al conocimiento disponible del sistema a modelar. En Teoría y Dinámica de Sistemas son frecuentes los conceptos de «análisis cualitativo», «propiedades cualitativas de un sistema dinámico», etc. Aquí lo cualitativo se refiere a los diferentes modos de comportamiento de un sistema dinámico. Es posible describir ciertos modos posibles de comportamiento asociados con la estructura de un sistema, con independencia de los valores cuantitativos concretos que tornen las magnitudes bajo consideración. Los resultados y las perspectivas originados en este campo son numcrosos", A primera vista, podría parecer que aquí «cualirarivo» se refiere a las propiedades primarias tradicionales. Sin embargo, cabe argumentar que no es así y que el sentido que tienen los análisis cualitativos de sistemas dinámicos concretos o reales están frecuentemente mucho más del lado de los colores y los sabores que de aquellas cualidades de la realidad presuntamente fundadas en algo más «objetivo). Propiamente, no son los sistemas mismos los que analizamos cualitativamente, sino los modelos matemáticos que tenemos 9. En Arucil (l'-)79 Y 1986a) puede encontrarse una clara exposición de los procedímiemos utilizados en el análisis cualitativo de los sistemas dinámicos.
91
MARCARII A
VA/QLJII
IN
t{llltl{1
A
I(l',
(()NC:II}IO~ DI
n out
t
c
SISIIMA
y
SIMULACiÓN
de ellos. Y el modelo recorta la realidad y selecciona las magnitudes relevantes en función de nuestros intereses. De esta forma, el comportamiento del modelo es el resultado de nuestro punto de vista sobre la realidad (al menos tanto como es un resultado de la realidad misma), de forma muy semejante a como el color blanco de este papel resulta de una disposición especial para aparecer así desde cierto punto de vista. Tal vez algún complejo sistema de ecuaciones diferenciales pudiera describir la realidad de manera completa y en todos sus aspectos posibles. El espacio de estados de este sistema de ecuaciones diferenciales sería identificable con lo físicamente posible, y esto podría constituir el reino de las cualidades primarias, sin embargo, las propiedades cualitativas de nuestros modelos (a escala humana, no divina) no podrían ser encontradas en el espacio de estados de ese sistema de ecuaciones a menos que supiéramos, en expresión de Putnam (1987), por donde «cortar el pastel». Es nuestra contribución la que constituye el comportamiento cualitativo de un sistema (en relación a nuestros intereses y a nuestra tradición y práctica en la construcción y diseño de modelos), como en el caso de los olores, colores, etc. Pero esto no significa que las propiedades «cual itativas» no sean objetivas, como tampoco resulta adecuado decir que los colores y olores sean absolutamente subjetivos. Si sólo fueran objetivas las cualidades primarias, no dispondríamos de objetividad alguna. La adecuación entre el modelo mental y el comportamiento generado por la estructura no justifica, por sí sola, el modelo finalmente construido. Se necesita, además, evaluar sus rendimientos pragmáticos y sus interacciones con el modelo mental. Si, a esto, añadimos que el conocimiento que tenemos de los sistemas reales (modos de referencia, etc.) es, a su vez, producto de otras modelizaciones previas, nos encontramos de lleno en el mundo de lo artificial. Desde un enfoque sistémico, sólo tenemos construcciones, elecciones, elecciones y construcciones sobre elecciones y construcciones previas y, así, indefinidamente. Estos hechos nos llevan a una conclusión que sobrepasa los límites de la Dinámica de Sistemas: la perspectiva internalista se presenta como inevitable en aquellos casos en que nuestro conocimiento no disponga de bases teóricas previas. Esta inevitabilidad será tanto mayor en cuanto este conocimiento se refiera a sistemas cuya peculiar estructura y dinamismo dependa de nosotros mismos, de nuestras creencias, actitudes, políticas de acción, etc. Decir esto es equivalente a pedir que este conocimiento se refiera a sistemas con un elevado grado de artificialidad. Esta conclusión puede, entonces, ser tomada como una hipótesis empírica acerca de las áreas científicas en las que es más esperable encontrar tendencias internalistas. Esta hipótesis permitiría ex-
plicar, por ejemplo, el hecho de que sea mucho más habitual encontrar aspiraciones y justificaciones externalistas en las ciencias de la naturaleza que en las ciencias o tecnologías sociales. El internalismo es una propiedad que atribuimos a nuestros conocimientos y teorías, mientras que la artificialidad es una propiedad que atribuimos a nuestras realizaciones técnicas. Si aceptamos el hecho del carácter borroso de cualquier demarcación actual entre ciencia y técnica, es decir, si asumimos la inseparabilidad de ambas, la vinculación entre internalismo y artificialidad puede ser una característica muy importante del estado actual de desarrollo científico-tecnológico. Al artificializar, al construir un sistema artificial, los hombres imponen, o imponemos, la estructura que va a generar ese comportamiento. Dretske (1981) ha presentado los artefactos como paradigma de lo artificial. Dennett (1990) ha dado una interpretación de los artefactos como ejercicio hermenéutico. Para él, lo que sea la peculiar estructura/función de un artefacto no se puede determinar sin hacer referencia a los usuarios. Son los usuarios los que le dan su utilidad, independientemente del fin para el que hayan sido construidos. En cierto sentido, tanto los artefactos como los organismos pueden ser vistos como unidades organizadas cuyo comportamiento podemos explicar en relación a un diseño. Algunas propiedades que parecen distinguir los organismos de los artefactos serían su funcionalidad, su constitución holista y cambiante, su finalismo, una conducta aparentemente siempre orientada a fines, su adaptabilidad a un entorno cambiante y un montón de propiedades precedidas de «auto», como autocontrol, autonomía, automovimiento, autoformación, autodiferenciación, autolimitación, etc. Este tipo de propiedades no sólo han servido para demarcar lo orgánico frente a lo mecánico, también han sido usadas para caracterizar todo lo peculiarmente humano (sistemas sociales, moralidad, cultura, etc.) en contrapartida al mundo natural, mecánico, no humano. La pregunta constante es si estas propiedades están absolutamente ausentes en cualquier tipo de artefacto. Muchos de los conceptos se han visto superados asumiendo concepciones más sofisticadas de los «artefactos». Destacan en esto el problema de la finalidad y el del autocontrol en la generación de una estructura orgánica distintiva y en el desenvolvimiento de un entorno. No obstante, los viejos problemas descansaban en la dicotomía objetivo/subjetivo. Todos los vitalistas señalan algo peculiar en los organismos inalcanzable por la ciencia, algo semejante a lo que podemos ser nosotros mismos. Este aspecto ha sido discutido repetidas veces por Purnarn, destacando especialmente Putnam (1987), en concreto, sus dos primeras partes. En cierto sentido, parece que la decisión de adoptar una estrare-
92
93
I ti
MARGARI I A
gia de explicación puramente intencional, de explicación aludiendo a un diseño o de explicación puramente mecánica es, muchas veces, pragmática. El ejemplo de la computadora que juega al ajedrez es muy claro en este punto 10. Los procesos que tienen lugar en la computadora admitirían una descripción física. Así, en principio, podríamos predecir una respuesta de la computadora a un cierto movimiento de una pieza en el tablero, describiendo los procesos físicos que tienen lugar en su hardware. Podríamos también, suponiendo un correcto funcionamiento del artefacto, predecir sus respuestas conociendo el diseño del programa que el ordenador ejecuta al jugar. Y, por último, bajo ciertas suposiciones de conducta racional en su juego, podríamos también explicar o predecir exitosamente sus jugadas mediante la adscripción de determinadas creencias, valores y fines. Dennett (1978 y 1987) afirma que tenemos a veces bastante éxito en tratar a las computadoras como sistemas intencionales, aunque uno siempre puede negarse a ello y cambiar a voluntad de situaciones (perspectiva física, de diseño, intención, etc., desde las que podemos intentar explicar el comportamiento de un sistema). Para él podemos esperar que rinda frutos la perspectiva de adoptar la situación intencional, siempre que tengamos alguna razón para asumir que la suposición de un diseño óptimo está garantizada y para dudar de la viabilidad de la predicción a partir de la situación física. Respecto a todo este enfoque, en el cual se relativizan ciertas propiedades, atribuidas tradicionalmente a los organismos (como la intencionalidad), a los intereses y restricciones pragmáticas en la explicación y predicción de un comportamiento, hay una crítica directa posible. Esta crítica insistiría en la distinción entre simular un comportamiento y duplicar los poderes causales capaces de generar tal comportamiento. Un. comportamiento puede ser descrito como orientado a fines y esa descripcion servir de base a simulaciones muy precisas del mismo. Sin embargo, «ser un comportamiento orientado a fines» parece exigir algo más. Algo más que no es simplemente una descripción, o la posibilidad de tal descripcion, sino que depende de ciertos «poderes causales», de cierto hardware: Un defensor de este punto de vista sería Searle (1985). Según Searle ninguna simulación es, por sí misma, una duplicación de aquello que se simula. Una simulación repite la estructura funcional de aquello que simula. La repite en cierta medida, pero pueden compartir la misma estructura funcional muchos sistemas con muy diferente composición. Mientras no haya en la simulación nada que se refiera a la concreta composición de aquello que estemos simulando, nuestra simulación podrá servir perfectamente para predecir y controlar los comportamientos de los sistemas que simulemos, pero no ofre10.
I I -, 11M A',
u I
I LJ N U () N I
realizan su trabajo bajo condiciones de desconocimiento de las leyes básicas del sistema, una situación mucho más corriente en la investigación actual de lo que harían suponer las filosofías optimistas de la ciencia. La tesis que defenderé es que, de hecho, muchas simulaciones interesantes no tienen ninguna posibilidad de reducción teórica, ni quizás interés en ella, y, sin embargo, pueden ser consideradas como teorías aceptables. El argumento es que, pragmáticamente, no como una cuestión de principio filosófico, algunas ciencias en las que la simulación es el método esencial de trabajo, tienen que fijar los parámetros esenciales por ensayo y error, sin fundamentación teórica, pero los resultados pueden ser predictivos y, por consiguiente, la teoría es correcta. LEYES y FUNCIONES: UN PROBLEMA METAFÍSICO
Las funciones son conductas de los sistemas naturales, en la medida en que estos sistemas forman parte de otros sistemas más complejos. La función de un sistema puede describirse como la colaboración que presta la acción o conducta de ese sistema a la conducta total de otro sistema mayor del que el primero forma parte!", Consideraremos un sistema desde un punto de vista ontológicamente mínimo. Una aproximación fuerte sería la defendida por quienes consideran un sistema como un conjunto de entidades (la composición de un sistema), que tienen ciertas propiedades y relaciones internas (la estructura del sistema), y ciertas relaciones externas con el medio ambiente del sistema" (el entorno relevante). Para evitar discusiones, definiremos un sistema como un conjunto de propie-
14. Rcpát-ese en que no es conrradictorio afirmar que la explicación funcional es insuficiente y postular que la simulación o reconstrucción física de un sistema funcional es suficienre: uno podría simula- un sistema sin conocer todos los mecanismos que subyacen a su propia simulación. Esta es la tests que estamos defendiendo. 15. Un caveat: es una falacia naturalista el pretender derivar las prescripciones metodológicas, o la naturaleza de la explicación y la reducción, operaciones que dependen de nuestr~)~ ?bjetivos metodológicos y de! estado de nuestro conocimiento, pero también aquí un análisis de la naturaleza de ciertos sistemas no es irrelevante para e! curso que tomen nuestras investigaciones. De hecho el interés contemporáneo en el problema mente-cuerpo es fdosófico y metaffsico, naturalmente, pero está fomentado por nuestras necesidades de investigación psicobiológiea. Y uno espera, tal vez infundadamente, que los análisis filosóficos ayuden algo en la investigación.
16. En términos metafísicos se suelen describir como propiedades de segundo orden, propiedades que se definen sobre propiedades existentes. Esta definición se suele utilizar en la aplicación del funcionalismo a la semántica, en la llamada sem.íntica del papel COllCCPtu al. Nosotros dejaremos este lenguaje por el momento. 17. La aproximación débil es tomar un sistema como una región espacio-temporal (el espacio ni siquiera es importante en la mayoría de los casos, no así el tiempo, que indica la duración del sistema v los límites de validez de su estructura). La composición del sistema está formada por propiedades que toman valores matemáticos. La estructura es un conjunto de ligaduras o influencias causales entre propiedades, descrita generulmcnre mediante funciones matemáticas (no necesuriamcnre leyes naturales). La distinción entre composición interna y relaciones externas del sistema es bastante convencional y relativa al nivel de descripción; seleccionamos propiedades externas e internas dependiendo de nuestro nivel de conocimiento de las leyes que rigen el sistema. En un sistema cerrado rodas las propiedades son internas, en un sistema abierto hay un subconjunto de las propiedades del sistema dividido en variables de entrada y variables de salida. Un sistema es fenomenológico o conducrisra si solamente tiene variables de entrada y salida. La historia del sistema son los valores de las propiedades a lo largo de su duraciún. El espacio de fases del sistema es la estructura matemática en la que definimos la historia del sistema, generalmente dependiente de las ligaduras estructurales entre propiedades. Véanse Aracil (1986a y 19H6b) Y Vá7.quez (1990 y 1987). La aproximación formal que usamos se encuentra en Wojciky (1978). Allí aparece una apr-oximación constructiva a los sistemas.
108
109
FFRNANDO
f1RONCANO
dades que realiza o ejemplifica una estructura abstracta. El sistema puede ser un sistema real, si es un sistema de propiedades de una región espacio-temporal, o puede ser un modelo de un sistema real, si es una estructura abstracta que pretende capturar toda o parte de la estructura del sistema real. Los sistemas forman parte de otros sistemas mas amplios de los que son subsistemas": la descripción funcional es una clase de descripción sistémica en la que nos interesa la colaboración de la conducta de un subsistema a la conducta total. Pero las descripciones funcionales de los sistemas (si se quiere un lenguaje realista, los sistemas funcionales) tienen tres características que las (los) hacen especiales desde el punto de vista metodológico: 1. Regularidad de conducta: un sistema pueda simularse basta si muestra cierta regularidad de conducta. Las regularidades pueden ser estructurales o temporales. Una regularidad es una conjunción contingente entre sucesos que puede ser descrita mediante una regla que conecta condiciones antecedentes y consecuentes. Entre el suceso del cartero entrando por la puerta del edificio, el hecho de que aparezan los buzones con cartas y que oiga la puerta de mi vecino abrirse, hay una regularidad que puede ser simulable como una regla, independiente de la explicación en sucesivos grados de precisión que pueda hacer de ese sistema. En la filosofía de la psicología contemporánea hay una discrepancia esencial respecto a este punto entre el conductismo y el funcionalismo: mientras que el conductismo afirma que todo lo que necesitamos en la descripción de un sistema funcional es tratar su diseño como un conjunto de disposiciones internas que se definen de manera suficiente mediante correlaciones entre conductas abiertas, entre entradas y salidas, el funcionalismo añade que lo que interesa es el diseño de los mecanismos o disposiciones internas en tanto que conjuntos de relaciones entre estados que tienen carácter causal: lo que determina a un estado como parte de un diseño funcional, de manera suficiente, es el conjunto de relaciones «causales» que mantiene con otros estados. La cuestión es más compleja, porque ni el conductista tiene razón, pero no está completamente equivocado -ya está bien de que el conductismo sea siempre el malo de la película-, ni mucho menos el funcionalista, a menos que tengamos claro qué queremos decir con que un estado se caracteriza por ser un montón de poderes o capacidades causales!". 2. Realizabilidad múltiple: una estructura funcional puede ser realizada por muy diferentes mecanismos causales. La estructura
lA
',IMIJIAC IC')N
y
lA
KfAlllJAD
IN
lOS
SIS¡~MA;,
1)1
IUN,
1'1 ANI "
Y
I1 (.NUI O(,IA
mentales>, de la máquina. Por otra parte, también se supone que los usuarios desean ejecutar con éxito la acción de obtener fotocopias de la máquina. Pues bien, los resultados del experimento mostraron que en el transcurso de la interacción usuario-máquina, unas mismas instrucciones eran interpretadas por los mismos agentes de forma diferente o ambigua, y que la máquina tampoco interpretaba siempre igual las mismas acciones de los usuarios, llegando a situaciones de impasse. Es decir, en un contexto tan restringido y acotado como el relatado, se producen fallos en la identificación de las «actitudes» del interlocutor. La conclusión más importante de la autora es que la coherencia de las acciones no se puede explicar adecuadamente en base a esquemas cognitivos preconcebidos, y que, por el contrario, la organización de la acción situada (y todas lo son) es una propiedad emergente de las interacciones momentopor-momento entre los agentes, y entre los agentes y el entorno de su acción. Por ese motivo, la adscripción de intenciones y la interpretación de acciones parece ser más bien el resultado de procesos de inferencia continuos y situados, basados en evidencia lingüística, demostrativa y circunstancial paso por paso (Suchman, 1987, 179 ss.). Así, pues, el problema es doble: en primer lugar, cómo dar cuenta de la persistencia o el cambio de las creencias, intenciones y planes; en segundo lugar, cómo se puede conseguir esto teniendo en cuenta las fuertes restricciones que tienen las máquinas para su acceso a la evidencia disponible, un acceso que los humanos ejecutan de manera rutinaria y aparentemente sin esfuerzo, basándose en evidencia que en muchos casos no es de carácter lingüístico y que está contextualizada en un transfondo de circunstancias no articulado. éQué es lo que se puede hacer? Los argumentos anteriores parecen tan contundentes que podrían inclinar a más de uno a arrojar la toalla en el intento de modelizar la acción humana. La consecuencia inmediata sería que, a fin de cuentas, es muy poco 10 que la modelización de planes en inteligencia artificial puede aportar al diseño tecnológico, puesto que no puede dar razón de aspectos fundamentales como la acción cooperativa y la revisión de planes. Pero quizá esta conclusión sea precipitada. Decía Dennett (1988) que los filósofos normalmente trabajan mediante experimentos mentales y refutaciones a priori. Cuando dan con una buena refutación a priori, entonces los investigadores en inteligencia artificial, que persisten en sus intentos a pesar de la refutación, tienen que hacer frente, tarde o temprano, a un coro de filósofos diciendo: «ya os lo habíamos advertido nosotros», Lo interesante, dice Dennett, es cómo distinguir las pruebas de imposibilidad genuinas de las que son un mero resultado de falta de imaginación. A este respecto sigue habiendo una gran diferencia entre el talante de los filósofos y el de los investigadores en inteligencia artificial. La respues-
ta ordinaria de los filósofos continúa siendo más argumentación y análisis a priori, la de los expertos en inteligencia artificial, en cambio, suele ser: «trata de construir un modelo y comprueba cómo funciona). Lo que las refutaciones anteriores muestran, sobre todo, son las insuficiencias de los modelos de planificación y acción cooperativa basados en los modelos clásicos de solución de problemas. Estos modelos, como hemos visto, concentran exclusivamente su atención en el diseño de planes, y posteriormente se ven obligados a recurrir a técnicas, más o menos ad hoc, con el fin de sortear el dilema que aflige a la inteligencia artificial: encontrar un equilibrio entre la efectividad de la acción y el suficiente consumo de tiempo pensando. Sin embargo, recientes análisis filosóficos en torno a la acción y los planes (véase, por ejemplo, Bratman, 1987, 1990 Y 1991) están sentando las bases para que la inteligencia artificial afronte el anterior dilema en una mejor posición. Bratman (1987) se plantea el problema de la acción en agentes con fuentes de información limitadas que deben actuar en tiempo real. La idea que sostiene es que los agentes forman planes precisamente, en parte, a causa de las limitaciones de información. Desde este punto de vista, los planes sirven para enmarcar los problemas subsiguientes de razonamiento y para restringir la cantidad de información necesaria para resolverlos. Por ello es plausible pensar que los planes cumplen dos funciones importantes en la acción cooperativa: controlan la acción y a la vez posibilitan la coordinación entre los agentes. Con esta idea de base se puede tratar de modelar en inteligencia artificial el uso de los planes. Uno de los intentos más prometedores en esa línea es IRMA (Intelligent, Resource-Bounded Machine Architecture) (Bratman, Israel y Pollack, 1988), con especial interés para los problemas de la filosofía de la tecnología señalados anteriormente. IRMA es un sistema que asume que los agentes deben razonar acerca de cómo conseguir sus objetivos. Se trata, por tanto, de un sistema razonador medios-fines que tiene como particularidad, a diferencia de otros sistemas clásicos como STRIPS, que el agente razona sobre posibilidades acordes con sus intenciones, no sobre fines arbitrarios. Esto no quiere decir que los agentes solamente deliberan acerca de cómo conseguir sus objetivos, también deben decidir, tanto en principio como en el curso de la ejecución del plan, qué objetivos perseguir. Es decir, deben deliberar entre un conjunto limitado de opciones. Las opciones están acotadas, en primer lugar, por las intenciones y por un mecanismo de umbral que selecciona aquellas que sobrepasan un determinado valor. No obstante, una de las fuentes más importante de opciones se da en el curso de la ejecución' del plan, al ser sugeridas por los cambios en el entorno. La opciones deben pasar por un mecanismo
158
159
II'>U I kUL I UkACl6N
SOCIAl
[JI
lAS
l.OMUNll)ADI
s
LA CONTROVERSIA DEL PERCEPTRÓN
El primer momento crítico de la controversia acerca de la validez científica de la investigación en sistemas conexionistas tuvo lugar a finales de los años cincuenta y principios de los sesenta. La (siempre latente) oposición entre los paradigmas simbólico y conexionista se convirtió entonces en una controversia abierta y explícita. El perceptrón de Rosenblatt y sus colegas fue subvencionado por la Oficina de Investigación Naval (Office of Naval Research) del Ministerio de Defensa norteamericano y recibió considerable atención tanto dentro como fuera de la comunidad científica (por ejemplo, en los medios de comunicación populares: periódicos, revistas). Las afirmaciones de Rosenblatt acerca de los resultados obtenidos con el perceptrón y, sobre todo, acerca de las perspectivas de futuro de dicha máquina adquirieron una atención y una dimensión inusitadas. La reacción de los investigadores contrarios al conexionismo y favorables a los sistemas simbólicos no se hizo esperar, y fue contundente. Criticaron fuertemente las afirmaciones de Rosenblat acerca de las capacidades del perceptrón, y al conexionismo y los conexionistas en general. La retórica verbal y dialéctica utilizada por ambas partes (por investigadores favorables y contrarios al conexionismo) alcanzó cotas muy importantes, y en muchas ocasiones la diplomacia fue dejada de lado por los participantes en el debate. Y esto fue sólo el comienzo de una cadena de ásperas y duras críticas y acusaciones y las correspondientes respuestas y devoluciones de acusaciones". En el apartado segundo de este artículo se ha dicho que las controversias científicas y tecnológicas se «luchan» (se resuelven) en un contexto de conflicto argumentativo en el que se utilizan «tácticas retóricas» (en el sentido que esta expresión tiene para Latour). El objetivo de las posiciones contendientes es la movilización y el enrolamiento de tantos (y tan buenos) aliados, actantes y recursos favorables como sea posible. Bruno Latour (1987) utilizó el término «carrera por la prueba» para referirse a este proceso. Es importante señalar que la dinámica de esta carrera no va de la retórica a la «verdad", sino del empleo de retórica débil al empleo de retórica cada vez más fuerte. La controversia del perceptrón confirma esta dinámica que va de menos a más retórica. La espectacular y áspera retórica verbal de los comienzos de la controversia era sólo el principio, la «retórica débil» (en términos de Latour). La retórica más «dura» vino poco despues. Marvin Minsky y Seymour Papert, dos investigadores del Laboratorio de Inteligencia Artificial del prestigioso MIT (Massachusetts Institute of Technology) decidieron llevar a cabo un proyecto que mostrara las limitaciones del percep8.
Para un estudio detallado, ver Olazarán (1991, sección 3.1).
181
MIKII
01 AtARAN
trón de un modo decisivo. «De un modo decisivo» significaba para Minsky y Papert que la comunidad científica abando nata de una vez por todas la investigación en redes neuronales. Utilizando términos de Latour, se podría decir que Minsky y Papert decidieron intervenir decisivamente en el debate, enrolando y movilizando tantos actantes, recursos y factores como fuera posible en favor de su posición (o, lo que es lo mismo, en contra de la posición conexionista), La siguiente cita, que pertenece a una entrevista que ]. Bernstein realizó años despues a Minsky para la revista The New Yorker, muestra la contundencia con que Minsky y Papert comenzaron su proyecto crítico:
(ON1ROV¡R')IAS
y
FSTRUCTURACIÓN
SOCIAl
O~
l.AS
COMUNIQAOfS
La «versión popular» (por llamarla de alguna manera) de la historia del conexionismo, según la cual Minsky y Papert demostraron fuera de toda duda las limitaciones del perceptrón, descuida la atención e investigación que los propios conexionistas habían dedicado a dichas limitaciones con anterioridad al estudio de Minsky y Papcrt, Los investigadores conexionistas habían reconocido con frecuencia que sus sistemas, que en la mayoría de los casos tenían un solo estrato de conexiones modificables, tenían importantes problemas y limitaciones. La solución que una buena parte de estos investigadores conexionistas proponían era el estudio y la implementación de sistemas conexionistas más complejos. En particular, los conexionistas de los años sesenta sabían que algunos de los problemas más importantes de los sistemas de estrato único (como el perceptrón) podían ser superados con redes de múltiples estratos de conexiones modificables. Continuaron estudiando y experimentando con diversas técnicas de modificación de conexiones para esos sistemas, pero los resultados no eran todavía considerados favorables. Para los investigadores conexionistas, no había por el momento garantías suficientes de que estas técnicas produjeran resultados comparables a los que las técnicas de modificación de conexiones en sistemas de único estrato producían en dichos sistemas. No obstante, y esto es de la máxima importancia, la única conclusión que de esto se seguía para un grupo significativo de dichos investigadores, encabezados por Frank Rosenblatr, era que había que seguir investigando en sistemas conexionistas de múltiples estratos. A pesar de esto, conforme la controversia iba aumentando, otros conexionistas comenzaron a cambiar la orientación de sus proyec-
tos de investigación, bien hacia aplicaciones tecnológicas de los sistemas conexionistas, o bien hacia proyectos de lA simbólica, &í,. Widrow y sus colegas comenzaron a desarrollar aplicaciones basadas en sus técnicas de modificación de conexiones. para redes de único estrato en el área de procesamiento -adaprivo» de' señales (adaptive signal processing). Por otro lado, los imestigadores del Instituto de Investigación de Stanford abandonaron la investigación conexionista y se incorporaron a. la tradición simbólica de' lA,. concretamente al área de robótica. No obstante, en: 10) qllJue a Rcsenbsatt y sus colegas se refiere.. es importante insistjr en que', si bDe1lF estos investigadores: reconocieron las Iimiracienes de sus máqieines, a pesar de ello continuaron buscando soluciones dentro del paradigma concxionista. En este contexto de controversia y crisis del coaexionismo, el proyecto crítico de Minsky y Papert tuvo i-mpo·rtantes C?flSeCUencias. La intervención de Mínsky y Papert en la controversia del perceptrón, qne culminó con la publicación de su famoso libro Perceptrons (Minsky & Papert, 1969), puede ser in>ue"Pretada corr ayuda de la noción de Latour (1'>S7) de -reprcdecir» ire-enact) unos resultados científicos. La intervención de' Minsky y Paperr en la controversia del perceptrón es un caso de lo que Latour d1e1n:onJin6 La «tercera manera» de «leer» (interpretar) un texto' científico (o unos datos o resultados científicos), Para Latour (19S7, 60-61) un texto científico puede ser leído de tres maneras. La primera manera de' «leerlo» es. sencrllamanre no leerlo, Según las estimaciones informales de Larour, esto es.lo que S€ hace en el 90 por ciento de los casos. La segunda manera de leer un texto científico es la aceptación de los resultados del texto. Las pretensiones de validez del autor son aceptadas, y sus resultados son utilizados y citados, De este modo, dichos resultados se van transformando en «hechos». Esta segunda manera de leer un texto es bastante infrecuente; tan sólo tiene lugar, según las estimaciones informales de Larour, en e19 por ciento de las ocasiones, La tercera manera de' leer un texto, científico es, según Latour, extremadamente infrecuente y costosa. Se trata de reproducir las distintas fases por las que el autor- original pasó en su investigación. Latour afirma que si se realiza ese (costoso) proceso siempre, incluso en el texto científico mejor escrito, es posible encontrar defectos, dificultades y limitaciones. Esto es otra manera de decir que, en principio, todo resultado científico puede ser objeto de flexibilidad interpretativa (ver apartado 2 de este artículo). El proyecto critico de Minsky y Papert se puede clas,íi= dentro de esta tercera manera de «leer» un texto (o unos resultados) científicos. Esta intervención de Minsky y Papert en la conrroversia del perceptrón no implicó el paso de un discurso. retórico a un discurso basado en la «verdad» o la «racionalidad», La retórica utilizada en
182
183
In rhe rniddle nineteen-sixries llapen and Minsky ser out to kili the pereeptron, or, ar least, ro establish irs Iimitarions - a rask rhar Minsky felr was a son of social service rhey could perform fur che arrificial-inrclligence communirv (Bernscein, 198], ] 00).
MIKf 1
01 A/AHÁN
la controversia fue de menos a más (en el sentido de Latour), y no de más a menos. En otras palabras, Minsky y Papert movilizaron tantos (y tan buenos) «aliados» y «actantes- como pudieron en favor de sus argumentos, de tal manera que su posición no pudiera ser contrarrestada. Se ha dicho anteriormente que, según Latour, si se lleva a cabo un proyecto de «tipo 3)~, siempre es posible encontrar al menos un defecto incluso en el texto científico mejor escrito. Tras realizar su largo y costoso estudio crítico, Minsky y Papert afirmaron que habían encontrado no uno, sino varios importantes defectos en el perceptrón de Rosenblatt. Las principales limitaciones del perceptrón (y de los sistemas conexionistas en general) estudiadas por Minsky y Papert se podrían resumir en dos conjuntos de problemas. Por un lado, Minsky y Papert estudiaron en detalle las limitaciones de los sistemas conexionistas de estrato único (esto es, sistemas que sólo tienen un estrato de conexiones modificables). Por otro lado, dichos investigadores formularon un pesimista «juicio intuitivo» (ésta es la expresión que ellos utilizaron) acerca de la posibilidad de elaborar algoritmos efectivos para la modificación de conexiones en sistemas de múltiples estratos (la solución propuesta por Rosenblatt para superar las limitaciones de los sistemas de estrato único). La situación de la controversia era la siguiente: si estos dos puntos de la crítica de Minsky y Papert a los sistemas conexionistas eran aceptados, la capacidad de maniobra de los conexionistas para defender su programa de investigación se reducía casi por completo, y por tanto la balanza se inclinaba en contra de la posición de Rosenblatt y otros conexionistas. Según la versión normalmente aceptada (y dada por supuesta) de la historia del conexionismo, el estudio crítico de Minsky y Papert (1969) acerca del perceptrón demostró las limitaciones de estos sistemas fuera de toda duda. Es más, esta interpretación señala también que este estudio mostró la inutilidad de continuar investigando en sistemas conexionistas. En este artículo se defiende que dicha interpretación o versión sobre la historia del conexionismo fue el resultado -y por tanta no la causa- del cierre de la controversia del perceprrón". Los resultados de Minsky y Papert (1969) acerca de las limitaciones del perceptrón de único estrato eran susceptibles de ser interpretados de maneras diferentes (esto es, estaban en principio abiertos a flexibilidad interpretativa). Por otro lado, los comentarios y afirmaciones de dichos investigadores acerca de las capacidades y posibilidades de perceptrones más complejos (sistemas de múltiples estratos) eran todavía mucho más susceptibles de flexibilidad interpretativa. Pero lo que es aún mucho más 9.
Para una defensa detallada de esta tesis, ver Oluzarán (1991).
184
CON II\OVI ¡nIA~
'(
151 fHJC 1 URACIÓN
SOC IAI
1)1
1 AS
COMUNIDAI)[ ')
importante: tanto los resultados acerca del perceptrón como las afirmaciones acerca de sistemas más complejos fueron en la práctica objeto de flexibilidad interpretativa; de hecho los investigadores conexionistas trataron de explotar esta flexibilidad interpretativa a su favor. Esta flexibilidad interpretativa del estudio crítico de Minsky y Papert (1969) fue explotada por Rosenblatt y sus colegas en su retórica en favor del perceptrón y de la investigación en redes neuronales en general. Estos investigadores conexionistas insistieron en las propiedades más positivas del perceptrón de único estrato y en los aspectos más prometedores de los sistemas conexionistas de múltiples estratos. Sin embargo, en el curso de la controversia, el complejo retórico-argumentativo de Rosenblatt y sus colegas no fue suficiente para contrarrestar la emergencia del consenso en contra del conexionisrno. Esta interpretación estaba estaba emergiendo, con creciente fuerza, como la «lectura>, dominante del estudio de Minsky y Papert, Pero recapitulemos: ¿Cuál era la situación de la investigación conexionista cuando el estudio crítico de Minsky y Papert fue publicado a finales de los años sesenta? Una rápida mirada a los tres principales proyectos conexionistas de aquella época revela que Rosenblatt, el principal defensor del conexionismo, no tenía muchos recursos ni aliados. Widrow y sus colegas habían comenzado a trabajar en aplicaciones de sus técnicas de redes neuronales en otros campos de la ingeniería electrónica. Por otro lado, Rosen y sus colegas del Stanford Research lnstitute habían comenzado a trabajar en un proyecto de robótica dentro del paradigma simbólico. Rosenblatt y sus colegas intentaron explotar la flexibilidad interpretativa de los resultados de Minsky y Papert para defender su posición, pero cada vez estaban más aislados. Por un lado, estaban aislados dentro de su propio campo de investigación: muchos investigadores de redes neuronales habían comenzado a abandonar sus proyectos. El complejo retórico-argumentativo de los conexionistas no fue suficiente para mantener la plausibilidad y legitimidad de su programa de investigación tanto ante la comunidad científica (de lA y disciplinas cercanas) como ante instancias de la sociedad externas a la comunidad científica (entre las que destaca la institución del Ministerio de Defensa estadounidense DARPA [Defense Advanced Research Projects Agency], que subvencionó la mayor parte de la investigación de lA en Estados Unidos en los años sesenta). El estudio de Mínsky y Papert (1969) fue ampliamente interpretado como la «última palabra» en el debate del perceptrón. La controversia estaba cerrada y, como en todas las controversias, había «ganadores» y «perdedores». Un factor de gran importancia en el cierre de la controversia (o, utilizando la expresión de Collins, un «mecanismo de cierre») fue la «asociación exitosa», impulsada por los
185
M¡K! I
01 A/AKÁN
investigadores contrarios al conexionismo, entre i) la crítica (y rechazo) de los sistemas conexionistas e ii) factores tales como la emergencia de la lA simbólica o el desarrollo de la tecnología del ordenador von Neumann. La conexión entre los dos factores nombrados en el punto ii) y el rechazo de la investigación en redes neuronales no era algo necesario, natural o inevitable, sino el resultado de un proceso social de decisión y consenso. En otras palabras, la conexión entre a) el estudio crítico de Minsky y Papert y los elementos mencionados en el punto ii) por un lado, y b) el rechazo de la validez científica de la investigación en redes neuronales y el consiguiente abandono de la misma por otro, no era una conexión lógica, naturalo racionalmente inevitable, sino una conexión construida en un proceso social de controversia tanto interna a la comunidad científica como en esferas de la sociedad externas a la misma. Dentro de las disciplinas de lA-ciencia cognitiva, esto fue una clara derrota para los investigadores conexionistas. La controversia se había cerrado en contra de su posición. (Y por si esto fuera poco, el conexionismo perdió a Rosenblatt, su líder más representativo, en un trágico accidente de barco de vela en 1971.) El conexionismo perdió este debate, y fue por tanto considerado como un paradigma sin validez científica en lA-ciencia cognitiva. No obstante, no hay que olvidar que perder una controversia no significa desaparecer totalmente de la faz de la tierra. Un reducido y aislado grupo de investigadores continuó trabajando en aspectos relacionados con las redes neuronales aunque, eso sí, lejos de los «frentes calientes de actividad» de lA-ciencia cognitiva, en áreas como las neurociencias y la psicología (en temas relacionados con el conexionismo en «frentes científicos» no tan «espectaculares» como el de las máquinas inteligentes) 10. Las aportaciones de investigadores como C. van der Malsburg, O. Willshaw, T. Kohonen, S. Grossberg y ]. Anderson en los años setenta en temas como content-addressable associative memory y redes neuronales no supervisadas fueron un elemento importante de la base sobre la cual se desarrolló (reemergió) el conexionismo en la segunda mitad de los ochenta.
lONIIU)VIK~IA~
y
I.SIRUCIURACIÓN
SOCIAl
1)[
LAS
(OMUNIDADLS
10. Estos investigadores tuvieron una presencia más notoria en Europa que en Estados Unidos (Lighthill, 1973).
más cercanos a las neurociencias y a la psicología. El dominio del paradigma del procesamiento simbólico continuó a través de los años, hasta que la situación comenzó a cambiar a principios de la década de los ochenta. A principios de dicha década comenzaron a desarrollarse un conjunto de elementos, factores y acontecimientos que hicieron posible la reemergencia del conexionismo en lA y ciencia cognitiva. A principios de los ochenta se estaban produciendo cambios significativos en el mundo de la lA y áreas relacionadas de invesrigación. Por un lado, se habían producido avances importantes en la tecnología del ordenador digital. En lo que se refiere a hardware, hay que destacar la miniaturización, el enorme crecimiento del poder computacional y la reducción de costes. No en vano ésta era la época de la VLSI (Very Large Scale Integration). Por otro lado, tras diversos altibajos en los años setenta, la lA simbólica había alcanzado la fase de comercialización. Los fondos dedicados a esta actividad científica estaban creciendo considerablemente tras el lanzamiento por parte del Gobierno japonés del proyecto de la «Quinta Generación», en el cual una de las áreas prioritarias era precisamente la lA (concretamente know/edge-based informatia n systems y lenguaje natural). Por último, se estaba dedicando una cantidad creciente de investigación a diversos tipos de arquitecturas de computación en paralelo. Este tipo de investigación no buscaba únicamente mayor poder computacional (en términos, por ejemplo, de número de operaciones por segundo) sino también, en un sentido más global, arquitecturas computacionales alternativas. Aunque, por su paralelismo «masivo» y por su cercanía a la inteligencia artificial, la ciencia cognitiva y las neurociencias las redes neuronales se situaban entre las soluciones más radicales dentro del movimiento del paralelismo, no cabe duda de que el conexionismo se benefició del contexto cambiante de principios de los ochenta. En este contexto, un grupo de investigadores, el llamado grupo POP (Parallel Oistributed Processing, procesamiento en paralelo y distribuido), comenzó a desarrollar y relacionar una serie de instrumentos y elementos teóricos, metodológicos, experimentales, disciplinares e institucionales con el firme y explícito objetivo de volver a llevar el conexionismo al «frente» de lA-ciencia cognitiva. Entre los «aliados» (utilizando la terminología de Latour), factores, elementos y recursos que el grupo PDP pretendía «enrolar» figuraban los siguientes: i) los pocos investigadores que habían continuado investigando en redes neuronales en los años setenta, ii) investigadores que estaban trabajando dentro del paradigma simbólico de lA y ciencia cognitiva y que estaban encontrando dificultades en el estudio y la modelación de ciertos procesos cognitivos, iii) investigadores de áreas como reconocimiento de objetos (pattern recognition), reconocimiento del lenguaje hablado y visión, y iv) investi-
186
187
5. EL NUEVO CONEXIONISMO
Tras el cierre de la controversia del perceptrón, la actividad científica y tecnológica en redes neuronales fue abandonada por la gran mayoría de los que se habían dedicado a ella. Los pocos investigadores que continuaron lo hicieron lejos del «frente» (por decirlo de alguna manera) de la lA, en contextos disciplinares e institucionales
MIKI-I
01 A1ARÁN
gadores en computación paralela que buscaban una alternativa, inspirada en el estilo computacional del cerebro, al «cuello de botella» de la computación secuencial van Neumann 11. La activa e incluso a veces militante labor realizada por los investigadores del grupo PDP en la «vuelta» del conexionismo a la lA y ciencia cognitiva fue muy importante. Los investigadores del grupo PDP definieron y elaboraron el paradigma conexionista como una respuesta a los problemas que el paradigma simbólico estaba encontrando en la modelación y reproducción de ciertas capacidades y procesos cognitivos e inteligentes. En este contexto de reemergencia del conexionisrno, hacia mediados de los ochenta, algunos investigadores conexionistas entre los cuales había un número importante de miembros del grupo PDP realizaron importantes innovaciones científicas. Algunas de las más importantes de estas innovaciones pueden ser estudiadas dentro del esquema de «analogía e innovación» utilizado por Barry Barnes (1974) y otros investigadores de sociología de la ciencia'>. En 1982 John Hopfield, un físico del Instituto de Tecnología de California (California lnstitute of Technology) elaboró un sistema conexionista basado en una analogía con ciertos sistemas (spin glasses) de física estadística (Hopfield, 1982). Esta analogía entre sistemas de física estadística y sistemas de redes neuronales fue desarrollada en profundidad por David Ackley, Geoffrey Hinton y Terrence Sejnowski (1os dos últimos pertenecientes al grupo PDP) (Ackley, Hinton & Sejnowski, 1985) en su sistema conexionista llamado «máquina de Boltzmann». Valiéndose de conceptos como «energía» y «temperatura» (e~ el sentido que estos términos tienen en sistemas conexionistas), Hinton y sus colegas desarrollaron una técnica de modificación de conexiones para sistemas de múltiples estratos y dieron así una primera solución a uno de los problemas más importantes de la investigación en redes neuronales. A pesar de que el sistema conexionista tipo máquina de Boltzmann tenía una estructura (caracterizada por conexiones simétricas entre las unidades) bastante diferente de la que los primeros investigadores conexionistas utilizaron normalmente (jeedforward networks) , los resultados que Hinton y sus colegas obtuvieron animaron a otros investigadores a intentar desarrollar otras técnicas de modificación de conexiones para otros tipos de sistemas de múltiples estratos. No obstante, la importancia de la contribución de Hinton y sus colegas ha de situarse en el mencionado contexto general de movilización de recursos heterogéneos por parte de los nuevos investiga-
(()N'I~(JVII("IA"
'(
1',IIHJl IlJRACI(lN
SOCIAl
IJI
IA~
C.OMLJNIIJAI)I"
dores conexionisras, y en particular por parte de los investigadores del grupo PDP. Además de los elementos mencionados anteriormente, como los investigadores de lA simbólica que tenían problemas en el estudio y modelación de ciertas capacidades cognitivas y las tendencias al paralelismo en tecnología de la información, hay que mencionar también otros importantes aliados que los conexionistas fueron capaces de enrolar en su empresa tales como la System Development Foundation y la Oficina de Investigación Naval de Minsisterio de Defensa de Estados Unidos (Office of Naval Research, ONR). Thomas McKenna (citado en Will, 1989, 12), de ONR, hizo una interesante observación a este respecto: ¡...1 The
PDP group at thc Umversuy of California, San Diego, wcrc funded [by ONRJ at a time when nobody was sure rhat what they were doing would amount to anything.
Más tarde, conforme el proceso de emergencia del conexionismo se iba consolidando y los investigadores conexionistas desarrollaban importantes contribuciones, los investigadores del grupo PDP jugaron un papel importante en la consecución del apoyo de DARPA (Defense Advanced Research ProjectsAgency), la institución más importante en la subvención de actividades científicas en lA en Estados Unidos. El apoyo de DARPA fue un elemento legitimador muy importante en la reernergencia del conexionismo. 6.
LA REAPERTURA DE LA CONTROVERSIA
11. El cuello de botella de la arquitectura von Neumann está causado por el carácter secuencial de la computación, y por el hecho de que memoria y procesador están unidos por un único tubo conector a través del cual se tienen que realizar las operaciones de una en una. Esto limita la velocidad de procesamiento de la información. 12. Para un análisis detallado de la cuestión, ver Olazarán (1991, sección 4.2).
Pero los acontecimientos se estaban desarrollando con rapidez antes de la intervención de DARPA. Tres destacados miembros del grupo PDP, David Rumelhart, Hinton y R. Williams, estaban trabajando en otro tipo de sistema de múltiples estratos: el llamado sistema de retro propagación (back-propagation). Los resultados obtenidos con redes conexionistas con retro propagación (Rumelhart, Hinton & Williams, 1986) -que fueron objeto, como se verá, de importante flexibilidad interpretativa- fueron la gota que colmó el vaso de la reapertura de la controversia de las redes neuronales. La figura 3 muestra el tipo de arquitectura en la que Rumelhart y sus colegas realizaron sus experimentos utilizando la técnica de modificación de conexiones por retropropagación. La arquitectura de este sistema es similar a la del perceptrón, con dos importantes diferencias. En primer lugar, es un sistema con dos (o más) estratos de conexiones modificables. En segundo lugar, la función de activación de las unidades de procesamiento de estos sistemas es continua (de tipo sigmoide), frente a la función binaria o «de escalón»
188
189
MIKII
01 A/AH..AN
(()N II\()VII(',IA',
estrato intermedio estrato input
estrato output
• • •
•
•
• Figura 3: Sistema de múltiples estratos.
utilizada por Rosenblatt y otros investigadores en la primera época del conexionismo. (En la máquina de Boltzmann también se utilizó una función continua.) La utilización de este tipo de función de activación permitió a Rumelhart y sus colegas utilizar elementos del cálculo diferencial en los procesos de modificación del valor de las conexiones del sistema 13. 13. En el funcionamiento de la técnica de modificación de conexiones por retropropagación pueden distinguirse dos fases. En la primera se presenta un input al sistema. La actividad se propaga de estrato en estrato, hasta que el sistema produce un autput. La respuesta de cada unidad del estrato output se compara con la respuesta deseada para dicha unidad. Entonces se calcula el error cometido por la unidad output en cuestión. Tras calcular los errores de todas las unidades output; la conexiones entre unidades intermedias y unidades output pueden ya ser modificadas. Tras esto, comienza la segunda parte, la fase de retropropagación. El primer paso de esta fase es hallar el crror cometido por cada unidad intermedia. Para ello, los errores cometidos por las unidades output son propagados -de adelante hacia atrás», esto es, del estrato autput al estrato intermedio. En este momento se calculan los errores cometidos por las unidades intermedias, tras lo cual las conexiones entre las unidades input y las unidades intermedias pueden ya ser modificadas.
190
y
1 " IIUJ( IlJKAClÓN
"OCIAI
IJI
1 A"
COMUNIDADI S
La idea de la técnica de retropropagación tiene una larga (y sociológicamente interesante) historia. Paul Werbos (hoy en la National Science Foundation del Gobierno de Estados Unidos) estudió un algoritmo similar e intentó aplicarlo a sistemas de tipo conexionista en los años setenta, pero encontró una fuerte resistencia que no pudo contrarrestar por parte de destacados miembros de la comunidad científica de inteligencia artificial. El uso de técnicas de minimización de error en sistemas de procesamiento de la información compuestos por múltiples unidades que interactúan en paralelo estaba muy lejos del tipo de situaciones experimentales que eran en aquellos momentos aceptables o legítimas -con toda la carga sociológica que estos términos tienen- en la disciplina de inteligencia artificial. No es de extrañar, por tanto, que Werbos no fuera capaz de «vender su idea» en un «mercado» de lA (el de los setenta) dominado por el paradigma simbólico!", La idea de utilizar una técnica corno la retropropagación en lA no fue aceptada hasta que fue elaborada y desarrollada por los investigadores del grupo PDP David Rumelhart, Geoffrey Hinton y Ronald Williams dentro del contexto, caracterizado anteriormente, de la reemergencia del conexionismo a mediados de los ochenta. En los años ochenta, veinte años después del cierre de la controversia de las redes neuronales de los sesenta, los investigadores conexionisras se encontraban en una posición que les permitía intentar contrarrestar el «reto» de Minsky y Papert (1969) y forzar la revisión del consenso acerca de la falta de validez científica del conexionismo. En otras palabras, estaban en condiciones de intentar provocar la modificación de la relación de fuerzas (el «orden social») que emergió de aquel cierre. Prueba de esto fue la rápida respuesta de Minsky y Papert (1988) a las optimistas evaluaciones que Rumelhart, Hinton y Williams hicieron de los experimentos con redes conexionistas de múltiples estratos con retro propagación (Rumelhart, Hinton & Williams, 1986). Minsky y Papert eran conscientes de que las afirmaciones de Rumelhart y sus colegas ponían en entredicho la «última palabra» del debate del perceptrón (esto es, el libro Perceptrons de Minsky y Papen de 1969), e intentaron evitar la revisión del consenso «anticonexionisrno» (por decirlo de alguna manera) que emergió con el cierre de la controversia de los sesenta. Estos dos investigadores del Institututo de Tecnología de Massachussets (MIT), líderes de la posición crítica respecto al conexionismo en la controversia de los años sesenta, insistieron en 1989 (Minsky & Papert, 1988) en que los recientes sistemas conexionistas, y en concreto el de Rumelhart y sus colegas, tenían importantes limitaciones, y afirmaron asimis14.
Para información más detallada de este episodio, ver Olazarán (1991, sección 5.1).
191
MIKf I
01 A/AKÁN
mo que muchas de las conclusiones de su estudio de 1969 seguían siendo válidas!'. Pero la posición conexionista era esta vez mucho más fuerte que en los sesenta. Los conexionistas fueron capaces de movilizar elementos suficientes como pata forzar (nadie regala nada) la reapertura de la controversia. La heterogeneidad de estos elementos (científicos, tecnológicos, institucionales, organizacionales, persuasivos, retóricos, analogías, búsqueda de apoyo en instancias sociales externas a la comunidad científica, erc.) ha quedado puesta de manifiesto en estos últimos apartados. Los argumentos de Minsky y Papert tuvieron en los ochenta un efecto mucho menor que en los sesenta. A finales de los ochenta, la emergencia, el crecimiento y el comienzo de la institucionalización del nuevo conexionismo era un proceso imparable": El futuro «mapa» de las disciplinas inteligencia artificial y ciencia cognitiva no está claramente definido todavía. La controversia está abierta, y dicho mapa es por tanto ahora mismo objeto de debate y negociación (la «batalla» de movilización de recursos heterogéneos -por utilizar términos de Latour- es feroz). Lo que está claro es que la balanza de poder resultante del cierre de la actual controversia determinará en gran medida el futuro de dichas disciplinas de investigación. No obstante, a pesar del carácter ahierto de la controversia en la actualidad, el proceso de emergencia y comienzo de la institucionalización del conexionismo ha avanzado 10 suficiente como para que se pueda decir que algunas de las contribuciones recientes de los conexionistas se han convertido en resultados cuya validez no se cuestiona (black boxes en el sentido de Latour), resultados que están siendo ya utilizados como recursos (y por tanto están siendo continuamente desarrollados y refinados) por miles de científicos e ingenieros en todo el mundo. El sistema de Hopfield, el sistema de máquina de Boltzmann y el sistema con retro propagación son bue-
( () NI 11 () V I Il. '>1 A)
y
1) I R U
e 1 u R A e 16 N s o e I A I u t
I A S
eo
M U N 11) A
ut
S
nos ejemplos a este respecto. Estas técnicas se están desarrollando en distintas direcciones y mejorando continuamente, pero en cierto sentido son ya resultados que se dan por supuestos y que se utilizan como recursos, sin ser puestos en duda, por miles de investigadores. Las siguientes conclusiones de Latour se pueden aplicar a estos resultados: [... ] Few papers are always referred ro hy larcr article wirh similar pusirivc
modaliues, not only for une gcncration of arriclcs bur for severul. This evcnr -extremely rare by all standards-c- is visible cvcry rime a claim made by une article is borrowed withour any qualificarion by many orhers [... ] A hlack box has bcen produced l... ] A fact is what is collecrively srabilised from the midst of coutroversies when the activity of later papers does not only consist of criticism or deformation but also of confirmution. Thc streugth of rhe original statement does not lie in itsclf, bur is derived from any of the papers thar incorporare it. [... ] The dissentcr will be faced nor wirh une claim in one paper, bur with the same claims incorporatcd in hundrcds of pape-s (Larour, 19H7,41-42).
Como indica Latour, esta cristalización de contribuciones científicas no es un fenómeno frecuente en ciencia. Por esta razón, la historia reciente del conexionismo es también especialmente interesante desde un punto de vista de sociología de la ciencia. Se ha indicado anteriormente que la controversia de las redes neuronales está abierta en estos momentos. Prueba de ello es que los investigadores conexionistas siguen recibiendo críticas, algunas de ellas durísimas, por parte de investigadores que continúan dudando de la legitimidad científica del conexionismo. A modo de ilustración, se incluyen a continuación las opiniones de investigadores tan cualificados como ]erry Fodor y Zenon Pylyshyn (ciencia cognitiva), Minsky y Papert (laboratorio de lA de MIT), y Tomaso Pogio (del laboratorio de lA de MIT y de la empresa «Thinking Machines corporation»)!".
15. Rumelharr, Hinton y Williams (1986, .)34-.)35) ofrecen un pequeño ejemplo de una red neuronal capaz de computar la paridad de una imagen (esto es, contar si el número de puntos -o unidades input- activados en una pantalla es par o impar). Este sistema consta de cuatro unidades input, cuatro unidades intermedias y una red ousput, A este sistema se le pueden presentar hasta 16 estímulos (vectores input) diferentes, ya que tiene cuatro unidades input y las unidades son binarias. Tras presentar al sistema estos 16 vectores input 2.825 veces cada uno, esto es, tras 45.200 ciclos de presentación input-modificación de las conexiones, el sistema consiguió realizar la clasificación en cuestión (paridad) correctamente. Pero lo que para Rumelhan y sus colegas es una prueba de que su sistema conexionista con rer ropropagación funciona, para Minsky y Papen es un resultado más que dudoso: «[ ... [Thus consuming 45,200 trials for rhe nerwork ro !carn to compute the parity predicare for only four inpucs. ls rh¡s a good result ur abad revulr? We cannor rell wirhour more knowledgc ubout why the prccedure -equires so many triuls- (Minsky & Papen, InH, 254). 16. Para IIn examen más detallado de los aspectos institucionales de la re emergencia del conexionismo como área de investigación aceptada en inteligencia artificial, ver Olazarán (1991, sección 5.3).
17. «Thinking Machines Corporation- desarrolló y comercializó e] ordenador paralelo «Connecrion Machine- de Daniel Hiil¡s.
192
193
[There] is a real disagreement chout rbe naturc of mental proccsscs and mental representarions. But it seems ro us that it is a matrcr that wns subsrantially pu t to test abour rhirry years ago; and the argumcnrs that then cppeared to militare dccisivelv in favor of the Classical [i.e. symbolic] vicw appear ro LIS ro do so srill [... ] As far as Connectionist architccturc is concerned, there is nothing to prevent minds rbat are arbitrarily unsystematic. But that result is preposterous. Cognirivc capacities come in structurally rclarcd cluster s, their systematicity is pervasivc. All the evidence suggesrs that punctate minds caru happen. This argument seemed conclusive againsr the Connecrionism of Hebb, Osgood and Hull rwenty or rhirty years ago. So far as we can tcll, nothing of
MI~II
()i
A/AIlAN
any importance has happened to chango rile situurion in rhc mcuntimc (Fodor & Pylyshyn, 1988,6,49).
Has not thcre becn a -connccticrusr revolurion»? r...] Ccrrainly no, in rhat there has been little clear-cut change in the conceptual basis of the field (Minsky & Papen, 19RR, vi). Poggio r...1 jokes abour a virus rhar infects brain scienrisrs, srarting a new cpidemic cvery 20 yC.lrs. Thc epidernic rakcs rhc form of uncritical cnthusiasm for a new idea. In the 1920s, rhe idea W3S Gestaft psychology; in the 1940s, cybernetics: in the 1960s, perceptrons. In rhe 1980s ir is connecrionism (The Economist, 19H7, 94). «Neural networks are accompanied by a lot of irritaring hype», Poggio declares, «[... ] Neural ners point out interesting problems, but ha ve not solved rhe big problems of vision or speech. Ultimately, in my view, when the hype disappears, rhere is a good possibility rhey will go rhe way of perceptrons» (Poggio, as quctcd by Finkbcincr, 1988, 11).
¡
()I-j II'(IVIII'.IA',
y
1', IIUi( I UI{/IlI(lN
',()lIAI
IJI
1 A'.
l or-tureru o u r ' ,
cuenten ahora con un considerable margen de maniobrabilidad cuando reciben críticas, por ásperas que éstas sean y por muy reconocidos que sean los investigadores que las hacen. Al contrario de lo que ocurrió en la primera época de la investigación en redes neuronales, los conexionistas pueden hoy apelar a «resultados futuros», a los aspectos «prometedores» de la investigación en redes neuronales, y ser creídos. La relación de fuerzas en lA y ciencia cognitiva ha cambiado significativamente desde los tiempos del cierre de la controversia del perceptrón.
7. CONCLUSiÓN
Pero por importantes que sean los investigadores que han hecho este tipo de afirmaciones, y por duras que éstas sean, los conexionistas se pueden permitir el lujo de ignorar buena parte de estas críticas y concentrar su atención en el desarrollo de sus sistemas y técnicas. Dado el grado de crecimiento e institucionalización que el conexionismo ha alcanzado ya, en estos momentos los conexionistas tienen credibilidad cuando afirman que, para desarrollar todas las potencialidades del conexionismo, es necesario ignorar las críticas más radicales de que es objeto y (simplemente) continuar investigando. Otra prueba del grado de aceptabilidad e institucionalización que el conexionismo ha alcanzado es la posibilidad que tienen los conexionistas de utilizar la táctica retórica de legitimación que Leigh Star (1989) denomina «triangulación». Dada la variedad de los componentes del «complejo disciplinan) del coriexionismo (lA, ciencia cognitiva, informática, ingeniería electrónica, neurociencias, física, matemática, etc.) los conexionistas pueden, en la justicificación de su actividad científica, triangular entre el conexionismo preferentemente dirigido hacia lA y tecnología de la información por un lado y el conexionismo preferentemente dirigido hacia las neurociencias por otro. La investigación en redes neuronales orientada hacia tecnología de la información se justifica a veces por su relevancia para la investigación científica del cerebro y, a su vez, la investigación en redes neuronales orientada hacia las neurociencias es justificada a veces por su relevancia para la tecnología de la información. La nueva etapa del conexionismo no ha hecho más que empezar, y muchas cuestiones acerca del alcance y la utilidad de estos sistemas permanecen todavía muy abiertas. Sin embargo, la emergencia del conexionismo, el hecho de que haya sido capaz de reabrir la controversia, hacen que los investigadores conexionistas
En este artículo se ha mostrado cómo la sociología de la ciencia puede aportar importantes elementos interpretativos para el estudio de la evolución histórica del conexionismo. En particular, el esquema «controversia-tácticas retóricas-enrolamiento de recursos y aliados-cierre», elaborado y desarrollado por sociólogos como Collins (1985), Latour (1987) y Star (1989) ofrece instrumentos de importante poder interpretativo para el estudio de la evolución del conexionismo. La «prioridad epistemológica» que estos autores han dado al estudio de controversias y de la formación del consenso en el estudio sociológico de los procesos de producción y validación de la ciencia y la tecnología está, desde el punto de vista de este artículo, plenamente justificada. Los períodos de controversia han sido de la máxima importancia en la historia del conexionismo. El conexionismo se ha formado y estructurado en procesos de controversia con investigadores contrarios al mismo (y normalmente fervientemente favorables al paradigma simbólico). En este artículo se ha visto que estas controversias fueron principalmente dos: la del perceptrón, que se cerró a finales de los sesenta, y la que en la segunda mitad de los ochenta provocó la reemergencia del conexionismo. Leigh Star (1989) senaló la importancia del debate como una «fuerza positiva» en la formación de tradiciones de investigación. Esta idea es útil a nivel general en la interpretación de la historia del conexionismo. Es también útil en el caso concreto del problema de la modificación de conexiones en sistemas de múltiples estratos. En la controversia del perceptrón, Minsky y Papert (1969) subrayaron la importancia de dicho problema y, en cierto sentido, contribuyeron a la «construcción» de dicho problema (que es, por supuesto, el primer paso para su solución). El (ya clásico) esquema «controversia-cierre» de Collins es útil en la interpretación de la historia del conexionismo, pero es necesario completarlo con otros instrumentos interpretativos. Collins (1985) indicó que en el cierre de controversias científicas siempre
194
195
MIKI.I
01 A/AI,AN
((H~I"(JVI"'.IA', y
1'>'I~\J(llJRAClÓN
'>OCIAI
1)1
lAS
(ClMlJNIIJAIlI',
se emplean tácticas retóricas. Esta idea fue desarrollada con amplitud por Latour (1987), en una de las contribuciones teóricas más importantes de sociología de la ciencia. Latour indicó que las controversias se cierran por medio de procesos sociales de retórica y poder, esto es, por medio de procesos de enrolamiento de aliados, elementos y recursos heterogéneos. La idea de Leigh Star de la ciencia como una actividad heterogénea y distribuida donde las contingencias que se producen en puntos concretos de dicha actividad (contingencias locales) son eliminadas, utilizando diversas tácticas retóricas, para producir validez global es también útil en la interpretación de la historia del conexionismo. La idea de Latour de una dinámina que va de menos a más retórica o, en otras palabras, de una evolución de la controversia en la que se emplea una retórica cada vez más fuerte (es decir, enrolando cada vez más recursos, acranres y aliados) es útil para el estudio de la intervención crítica de Minsky y Papert (1969) en la controversia del perceptrón. Se ha indicado anteriormente cómo el proyecto crítico de Minsky y Papert puede interpretarse como una «reconstrucción>, o «reconstitución» (en el sentido de Latour) del perceptrón. Por otro lado, en el artículo se ha visto cómo la idea de Latour de enrolamiento y movilización de actanres heterogéneos es también útil para la interpetación de la emergencia del nuevo conexionismo en los años ochenta y del papel jugado por el grupo POP en dicho proceso. También pueden hacerse algunos comentarios acerca de los «costos sociales» (por decirlo de alguna manera) del cierre y la reapertura de controversias. Como se ha indicado al comienzo de este artículo, una de las premisas de la sociología de la ciencia y la tecnología es que ningún resultado científico, ninguna «pieza» de conocimiento científico, ningún sistema tecnológico tiene garantía de validez absoluta. Siempre es posible, en principio, poner en duda la validez de los resultados científicos, de la evidencia o de los datos científicos. Criterios como las «razones técnicas convincentes», la «superioridad técnica» de ciertos resultados o la «mayor eficiencia» pueden siempre, en principio, ser puestos en duda o criticados. El cierre de una controversia, la cristalización del consenso en favor o en contra de la aceptación de ciertos resultados o interpretaciones es un proceso social. Sin embargo, como en política, en ciencia y tecnología la práctica es muy frecuentemente diferente del «principio», En el caso de la historia del conexionismo, analizado en este artículo, hay dos episodios que ilustran esta diferencia entre «el principio» y «la práctica». Uno es el coste de la intervención de Minsky y Papert (1969) en la controversia de la primera época de la investigación en redes neuronales. A comienzos de los sesenta Minsky y Papert decidieron intervenir decisiva y contundentemente en la controversia para pro-
vocar el cierre de la misma. El tiempo que les costó finalizar su proyecto y el tiempo que llevó el cierre de la controversia son una buena muestra de los costes que suponía. Otro ejemplo a este respecto es la re apertura de la controversia del conexionismo en los ochenta. El proceso de movilización de recursos y elementos heterogéneos que hizo finalmente posible esa reapertura en la práctica -es decir, a pesar de la oposición de los investigadores contrarios al conexionismo- fue extremadamente costoso en términos de tiempo y de la cantidad (iy calidad!) de los elementos y recursos que hubieron de ser movilizados. El tiempo necesario fueron unos veinte años. Los elementos y recursos movilizados fueron muchos y muy diversos. Se podrían destacar entre otros los siguientes: los investigadores que continuaron trabajando en sistemas conexionistas en los años setenta, investigadores que no encontraban soluciones a ciertos problemas dentro el paradigma simbólico, poderosas «asociaciones- como las analogías entre redes neuronales y física estadística, otras innovaciones y contribuciones como la red conexionista con retropropagación, poderosos ordenadores digitales von Neurnann para simulación, desarrollos en tecnología de computación paralela, la intervención vanguardista y militante del grupo PDP, la emigración de físicos, ingenieros e investigadores en neurociencia al conexionismo y el apoyo económico de las agencias del ministerio de Defensa norteamericano como OARPA. El calihre de esta movilización es un buen ejemplo de los «costes sociales» de la reapertura de una controversia científica. Los costes de mantener y desarrollar la posición propia en una «carrera por la prueba» (utilizando el término de Latour) de este tipo están siempre creciendo. Conforme la controversia evoluciona (continúa y aumenta) es preciso movilizar más y más aliados y elementos para mantenerse en la misma, y la investigación científica se hace cada vez más y más costosa. Como se ha indicado en este artículo, la controversia del conexionismo está abierta en la actualidad (la reemergencia del conexionismo a finales de los ochenta consistió precisamente en eso, en la reapertura de la controversia). A través del proceso (social) de movilización de elementos y recursos que se ha estudiado en este artículo, los conexionistas han conseguido romper el consenso acerca de la falta de validez científica del conexionismo. El conexionismo es hoy en día una tradición de investigación aceptada y legítima en lA. Además, el conexionismo es hoy un «complejo ciennfico-técnológico», por decirlo de alguna manera, con una estructura disciplinar e institucional de considerable (y creciente) volumen. Los investigadores de lA que no participan en este complejo institucional pueden criticar al conexionismo (y se ha visto en el apartado anterior que lo han hecho), pero no tendrán más remedio que contar con él en su práctica científica diaria. No es lo mis-
196
197
MIKII
I)IA/AI{AN
mo trabajar en un paradigma dominante que no tiene rivales serios en una disciplina científica (como era el caso del paradigma simbólico en los setenta) que trabajar en un paradigma que tiene rivales (al menos uno) aceptados y reconocidos dentro de su misma área disciplinar. La emergencia del conexionismo como paradigma de investigación aceptado (y como complejo disciplinar e institucional) ha alterado sensiblemente el carácter de la actividad científica en lA. Una controversia no puede continuar mucho tiempo a los niveles del debate del perceptrón o de la reapertura del debate en los ochenta. En una controversia tan directa, dura e intensa como las dos mencionadas los costes de mantener la posición propia en el debate aumentan continua y rápidamente. Para poder reconstituir -por utilizar el término de Latour- la posición contraria y mostrar sus problemas, limitaciones y puntos débiles es necesaria una movilización de actantes y recursos cada vez mayor. Este proceso de confrontación directa es muy costoso, y por tanto no puede mantenerse durante mucho tiempo. Por ello es posible que, ahora que tanto el paradigma simbólico como el conexionismo son lo suficientemente fuertes como para resistir los ataques del otro (ambos son paradigmas aceptados y cuentan con una estructura disciplinar e institucional de importantes dimensiones), no les quedará otro remedio que coexistir, o incluso cooperar, en el estudio y la modelación de la cognición y en la construcción de máquinas inteligentes. Esta posible coexistencia y cooperación se desarrollará, como siempre, por medio de controversias, pero es previsible que estas controversias no sean en adelante tan radicales, directas y dramáticas como las que han mediatizado y condicionado la historia de la aceptación del conexionismo como paradigma legítimo en lA y ciencia cognitiva.
REFERENCIAS BIBLIOGRÁFICAS
Acklcy, D. H., Hinton, G. E., & Scjnowski, T. J. (I9tlS), "A learning algorithm for Boltzmann machines», Cognitíoe Science, 9, J 47-169 (reed. en Anderson & Roscnfeld [eds.] [1988] 638-649; citas en el texto de esta versión). Arbih, M. A. (l983), -Cognirive sciencc. thc view from brain theory», en F. Machlup & U. Mansfield (eds.), The Study of Information: Interdisciplinary Messages, John Wiley & Sons, New York, pp. 81-91. Aspray, W. (1990),John von Neumanll and the Origins of Modern Computing, MIT Press, Cambridge, Mass. Barnes, B. (1974), Scientific Kllowledge and Sociulogica! Theory, Routledge & Kegan Paul, London. Barnes, B. & Edge, D. (1982), Sciellce in Context: Readings ín the Socio!ogy of ScielTce, The Open University Prcss, Milton Keyncs. Bernstein, J. (198 J), "Profiles: Al, Marvin Minsky», The New Yorker, Deeember 14,
50-126.
198
l 1) N I I{ () VIII " lA',
Y
r ',
I IU)
e
I
u
k A
View more...
Comments