Capítulo 1 - El Software Toma el Mando (Manovich)
Short Description
Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, ublicada bajo licencia Creative...
Description
Capítulo 1. La máquina universal de medios de Alan Kay
1
Lev Manovich Medio: 8. a. Un tipo específico de técnica artística o forma de expresión determinada por los materiales usados o los métodos creativos involucrados: el medio de la litografía. b. Los materiales usados en una técnica artística específica: óleo como medio. American Heritage Dictionary, 4a. edición (Houghton Mifflin, 2000). “La mejor manera de predecir el futuro es inventándolo”. Alan Kay.
Apariencia vs. función Entre su invención a mediados de los 40s y la llegada de la PC a inicios de los 80s, la computadora digital era usada sobretodo con fines militares, científicos y empresariales (cálculos y procesamiento de datos). No era interactiva. No estaba diseñada para ser usada por una sola persona. En pocas palabras, difícilmente podía funcionar para la creación cultural. Como resultado de numerosos desarrollos en los 80s y 90s, entre ellos el surgimiento de la industria de las computadoras personales, la adopción de las interfaces gráficas de usuario (GUI), la expansión de redes computacionales y del World Wide Web, las computadoras se movieron hacia la cultura. El software reemplazó muchas herramientas y tecnologías de los creativos profesionales. También ha dado la oportunidad a cientos de millones de personas de crear, manipular y compartir medios. ¿Pero será posible decir que esto nos ha llevado a la invención de nuevas formas de cultura? Actualmente, las compañías de medios están ocupadas inventando libros digitales y televisión interactiva; los consumidores están felizmente comprando discos y películas en formato digital, tomando fotos y videos con sus cámaras digitales y teléfonos celulares; los oficinistas están leyendo documentos PDF que imitan al papel.
1
Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, publicada bajo licencia Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamente intenciones educativas, artísticas y científicas.
Manovich. Capítulo 1 – El Software Toma el Mando
1 / 33
O sea, parece que la revolución en términos de producción, distribución y acceso a medios no ha sido acompañada de una revolución similar en cuanto a la sintaxis y semántica de los medios. ¿Quién debe ser culpado por esto? ¿Debemos apuntar a los pioneros de la computación cultural (J.C. Licklider, Ivan Sutherland, Ted Nelson, Douglas Engelbart, Seymour Paper, Nicholas Negroponte, Alan Kay, entre otros)? ¿O, como Nelson y Kay están dispuestos a señalar, el problema radica en la forma en que la industria ha implementado sus ideas? Antes de culpar a la industria de mala implementación (podemos regresar a este argumento más tarde, si es necesario), observemos la visión de los inventores de la computación cultural. Por ejemplo, ¿qué nos dice la persona que guió el desarrollo del prototipo de la computadora personal moderna (Alan Kay)? Entre 1970 y 1981, Alan Kay trabajó en Xerox PARC, un centro de investigación creado por Xerox en Palo Alto, California. Ahí, el equipo Learning Research, dirigido por Kay, se inspiró del trabajo de Sutherland, Nelson, Engelbart, Licklider, Seymour Papert, entre otros, y articuló sistemáticamente el paradigma y las tecnologías de la computación de medios vernaculares que existe en nuestro días2. A pesar de que un grupo selecto de artistas, cineastas, músicos y arquitectos ya estaban usando computadoras desde los 50s, desarrollando su propio software en colaboración con ingenieros informáticos de diversos laboratorios (Bell, IBM Watson Research Center, etc.), la mayoría de sus producciones estaba orientada a producir un tipo particular de imagen, animación o música, acorde con sus ideas específicas. Además, cada programa estaba diseñado para correr en un tipo de máquina particular. Así, estos programas no podían funcionar como herramientas genéricas que pudieran ser transmitidas a otros usuarios. Es bien sabido que muchos de los ingredientes clave de nuestras actuales computadoras personales vinieron de Xerox PARC: la interfaz gráfica de usuario con sus ventanas sobrepuestas e iconografía, la pantalla de pixeles, los gráficos de colores, la interconexión vía Ethernet, el mouse, la impresora láser y la impresión WYSIWYG (acrónimo del inglés “What You See Is What You Get”, que puede traducirse 2
Kay ha expresado sus ideas en escasos artículos y en gran número de entrevistas y conferencias. A
continuación mis fuentes primarias: Alan Kay y Adele Goldberg, Personal Dynamic Media, IEEE Computer 10, no. 3 (1977); Alan Kay, “The Early History of Smalltalk,” The 2nd ACM SIGPLAN Conference on History of Programming Languages (New York:ACM, 1993), 69-95; Alan Kay, “A Personal Computer for Children of All Ages,” Proceedings of the ACM 1972 National Conference (Boston, 1972); Alan Kay, Doing with Images Makes Symbols, videocassette (University Video Communications, 1987), http://archive.org/details/AlanKeyD1987/; Alan Kay, “User Interface: A Personal View,” in The Art of Human-Computer Interface Design, ed. Brenda Laurel (Reading, Mass: Addison-Wesley, 1990), 191-207; David Canfield Smith at al., “Designing the Star user Interface,” Byte, Número 4 (1982).
Manovich. Capítulo 1 – El Software Toma el Mando
2 / 33
como “lo que ves es lo que obtienes”). Pero algo que es igualmente importante es que Kay y sus colegas también desarrollaron aplicaciones para la manipulación y creación de medios usando también una interfaz gráfica. Entre ellos destacan un procesador de texto, un sistema de archivos, un programa de dibujo y coloreado, un programa de animación, un programa de creación musical, etc. Tanto la interfaz gráfica general y los programas de manipulación de medios estaban escritos en el mismo lenguaje de programación, Smalltalk. Algunas aplicaciones fueron hechas por miembros del equipo de Kay pero otras más por jóvenes de nivel secundaria3. Esto iba de la mano con la filosofía de Kay: dar a los usuarios un ambiente de programación, ejemplos de programas y herramientas genéricas pre-determinadas para que los usuarios fueran capaces de crear sus propias herramientas creativas. Cuando Apple lanzó la primera Macintosh, en 1984, acercó la visión de Xerox PARC a los consumidores (la nueva computadora tenía un precio de 2,495 dólares). La Macintosh 128K incluía un procesador de texto y una aplicación para dibujo (MacWrite y MacDraw, respectivamente). En pocos años se unieron otros software para diseñar y producir otros medios: Word, PageMaker y VideoWorks (1985) 4, SoundEdit (1986), Freehand e Illustrator (1987), Photoshop (1990), Premiere (1991), After Effects (1993), y demás. Para inicios de los 90s ya existían funcionalidades similares en computadoras con sistema operativo Microsoft Windows5. Pero ni PC ni Mac eran tan rápidas como para ser una verdadera competencia a las tecnologías y herramientas tradicionales (a excepción del procesamiento de texto). Empero, otros sistemas específicamente optimizados para el procesamiento de medios empezó a reemplazar estas tecnologías tradicionales ya desde los 80s. Hablamos de las estaciones de trabajo Next, producidas entre 1989 y 1996; Amiga entre 1985 y 1994; y Paintbox, lanzada en 1981. Alrededor de 1991 la nueva identidad de la computadora como productor personal de medios había quedado establecida. Ese año Apple lanzó QuickTime, que dio video a sus sistemas, y el mismo año James Cameron estrenó Terminator II, que introdujo pioneros efectos especiales hechos a computadora. La visión del Xerox PARC se había vuelto realidad, o más bien una parte importante de esta visión que involucraba la conversión de la computadora en máquina personal para mostrar, crear y manipular contenido en diferentes medios. Kay y sus colaboradores lograron implementar una variedad de programas en un solo ambiente, con apariencia y comportamiento consistentes. Aunque ellos no inventarion todos los programas (ya vimos que las aplicaciones de animación y dibujo existían
3
Alan Kay y Adele Goldberg, “Personal Dynamic Media,” in New Media Reader, editado por Noah Wardrip-Fruin y
Nick Montfort (The MIT Press, 2003), 399. 4 5
Videoworks cambió su nombre a Director en 1987. 1982: AutoCAD; 1989: Illustrator; 1992: Photoshop, QuarkXPress; 1993: Premiere.
Manovich. Capítulo 1 – El Software Toma el Mando
3 / 33
desde la segunda parte de los 60s6), sí establecieron un nuevo paradigma de la computación de medios. Creo que he expuesto mi punto. La evidencia es irrefutable. Ha sido Alan Kay y sus colaboradores en PARC quienes se ocuparon de que las computadoras imitaran otros medios. Mediante el desarrollo de software basado en GUI fáciles de usar para producir medios, Kay y su equipo convirtieron a la computadora en una máquina para simular “viejos medios”. Para ponerlo en términos del influyente libro Remediation: understating new media (2000), de Jay Bolter y Richard Grusin, este software basado en GUI hizo de la computadora una “máquina de remediación”, es decir, una máquina que representa eficazmente medios existentes. Otras tecnologías desarrolladas en PARC como el monitor de color de bitmaps, la impresora láser y el primer lenguaje de descripción de páginas (que dio paso a Postscript) fueron también diseñados para que la computadora cumpliera su rol como máquina de simulación de medios físicos. Bolter y Grusin definen a la remediación como “la representación de un medio dentro de otro” 7. Según su ideas, los nuevos medios siempre remedian a los viejos y por eso no deberíamos esperar que las computadora se comportaran de forma diferente. Esta perspectiva enfatiza la continuidad entre medios computacionales y otros tipos más antiguos. En lugar de quedar separados por lógicas diferentes, todos los medios, incluyendo la computadora, siguen la misma lógica de la remediación. La única diferencia entre las computadoras y otros medios radica en cómo y qué remedian. Esto lo exponen Bolter y Grusin en su primer capítulo, “lo nuevo de los medios digitales está en sus estrategias particulares para remediar a la televisión, el cine, la fotografía y la pintura”. En otro lugar del mismo capítulo, ofrecen otro argumento sólido que no deja ambigüedades en su postura: “Lo que decimos es que la remediación es una característica esencial de los nuevos medios digitales”. Si hoy tomamos en cuenta todos los medios digitales creados por profesionales y por consumidores (o sea, fotografías y videos digitales hechos con cámaras de bajo costo y teléfonos celulares; el contenido de blogs personales; ilustraciones creadas con Photoshop; películas hechas con AVID, etc.), en su superficie los medios digitales parecen exactamente iguales a sus predecesores analógicos. Por eso, si nos seguimos limitando a su nivel superficial, la remediación puede describir precisamente muchos de los medios computacionales. Pero en lugar de aceptar esta condición como una consecuencia inevitable de la lógica universal de la remediación, deberíamos preguntarnos porqué sucede de esta manera. En otras palabras, si los medios computacionales contemporáneos imitan otros medios, ¿cómo hemos llegado aquí? En las formulaciones teóricas originales sobre la
6 7
Ver: http://sophia.javeriana.edu.co/~ochavarr/computer_graphics_history/historia/. Bolter y Grusin, Remediation: Understanding New Media (The MIT Press, 2000).
Manovich. Capítulo 1 – El Software Toma el Mando
4 / 33
computación digital de Turing o de Von Neumann no se especifica nada sobre la imitación de medios como libros, fotos o películas. Hay un abismo técnico y conceptual enorme que separa a las computadoras del tamaño de un cuarto completo (usadas por los militares para calcular blancos con armas antiaéreas y descifrar códigos de comunicación alemanes) de las computadoras contemporáneas usadas por millones de personas para almacenar y producir sus propios medios. La identidad contemporánea de la computadora como procesador de medios tomó 40 años en gestarse, desde 1949 cuando el Laboratorio Lincoln del MIT inició sus investigaciones en computadoras interactivas hasta 1989 cuando la primera versión de Photoshop fue lanzada comercialmente. Tomó generaciones de mentes brillantes en inventar la multitud de conceptos y técnicas que hoy hacen posible que las computadoras “remedien” otros medios. ¿Cuáles fueron las razones para ello? ¿cuáles eran sus ideas? O sea, ¿por qué estas personas dedicaron sus vidas a la invención de la última “máquina de remediación”? En los años 90s y 2000s, los teóricos de medios han dedicado grandes esfuerzos en tratar de entender las relaciones entre medios digitales y otros medios físicos y electrónicos, pero han dejado de lado fuentes importantes (como ya hemos dicho, sobretodo los textos de Sutherland, Engelbart, Nelson, Kay y otros pioneros de los 60s y 70s). Este libro no pretende hacer una historia intelectual completa de las invención de la computación de medios. Por ello, no voy a considerar el pensamiento de todos las figuras centrales de esa historia (lo cual se trataría de un proyecto de más de un libro). Más bien, me centraré en el presente y el futuro. Específicamente, quiero explicar algunas de las transformaciones radicales en lo que son los medios, lo que pueden hacer y cómo podemos usarlos… las transformaciones que están conectadas con el cambio de las tecnologías de medios al software. Algunas de estas transformaciones tuvieron lugar en los 90s pero no fueron suficientemente discutidas en su momento (por ejemplo, el surgimiento de un nuevo lenguaje de las imágenes en movimiento y del diseño visual en general). Otras no han sido nombradas aún. Otras más, como el remix y los mash-ups culturales, son evocadas constantemente pero el análisis de cómo fueron posibles por la evolución del software de medios no ha sido abordado. En resumen, quiero explicar qué son los “medios después del software”, o sea, qué pasó con las técnicas, lenguajes y demás conceptos de los medios del siglo veinte como resultado de su informatizadas. Precisamente, qué ha pasado con los medios después que fueron softwarizados. Pero como en el espacio de un libro sólo puedo considerar algunas de esas técnicas, lenguajes y conceptos, me centraré en aquellos que, en mi opinión, no han sido discutidos por otros. Para lograrlo, trazaré el camino entre la historia conceptual de la computación de medios desde los 60s hasta nuestros días.
Manovich. Capítulo 1 – El Software Toma el Mando
5 / 33
Para hacer esto más eficiente, en este capítulo echaremos un vistazo más de cerca a uno de los lugares en donde la identidad de la computadora como “máquina de remediación” cobró vida, el grupo de investigación de Alan Kay en Xerox PARC. Haremos dos preguntas: primero, qué es exactamente lo que Kay quería hacer y, segundo, qué hicieron él y sus colaboradores para lograrlo. Una breve respuesta, que será desarrollada más adelante, es que Kay quería convertir a las computadoras en un “medio personal dinámico” que pudiera ser usado para aprender, descubrir y crear artísticamente. Esto fue posible mediante la simulación sistemática de la mayoría de medios existentes dentro de una computadora y, al mismo tiempo, añadiendo nuevas funcionalidades a esos medios. Kay y sus colaboradores también desarrollaron un nuevo tipo de lenguaje de programación que, al menos en teoría, permitiría a los usuarios crear rápidamente nuevos tipos de medios usando herramientas genéricas. A todas estas herramientas y medios existentes se les dio una interfaz de usuario unificada, diseñada para activar múltiples formas de pensamiento y formas de aprendizaje (kinestésico, icónico, simbólico). Kay pensó en el “medio dinámico personal” como un nuevo tipo de medio con numerosas propiedades sin precedentes históricos como, por ejemplo, la habilidad de guardar la información de los usuarios, simular todos los medios en uno mismo e “involucrar al aprendiz en una conversación bidireccional” 8 . Estas propiedades permiten nuevas relaciones entre usuario y medio, ya sea que esté creando, modificando o viendo en su computadora. Esto es esencial si queremos entender las relaciones entre computadoras y medios tradicionales. Dicho de otra forma, puede ser que los medios computacionales visuales mimeticen otros medios, pero también funcionan de diferentes maneras. Por ejemplo, pensemos en la foto digital que usualmente imita la apariencia de la foto tradicional. Para Bolter y Grusin, esto es un ejemplo de cómo los medios digitales “remedian” a sus predecesores. Pero en lugar de centrarnos únicamente en su apariencia, pensemos en cómo funciona la foto digital. Si convertimos una foto digital en un objeto físico (como ilustración de una revista, como póster en la pared, como estampado de una playera), entonces efectivamente funciona de la misma manera que su predecesor (a menos que tenga capacidades aumentadas como el catálogo e 2013 de IKEA9). Pero si dejamos la misma foto en su ambiente computacional nativo, que puede ser una laptop, un sistema de almacenamiento en red o cualquier otro dispositivo o Internet, puede funcionar de formas que, en mi opinión, la vuelven radicalmente diferente a su equivalente analógico. Para usar un término diferente, podemos decir que una foto digital ofrece más posibilidades que sus antepasados 8
Desde el trabajo de Kay y su grupo en los 70s, ingenieros en computación, hackers y diseñadores han añadido
muchas otras propiedades únicas, por ejemplo podemos mover medios rápidamente vía Intenret y compartirlos con millones usando Flickr, YouTube y demás sitios. 9
Roberto Baldwin, "Ikea’s Augmented Reality Catalog Will Let You Peek Inside Furniture," Julio 20, 2012,
http://www.wired.com/gadgetlab/2012/07/ikeas-augmented-reality-catalog-lets-you-peek-inside-the-malm/.
Manovich. Capítulo 1 – El Software Toma el Mando
6 / 33
ya que puede ser modificada o combinada rápidamente con otras imágenes; puede ser publicada al mundo entero y compartida con otras personas; puede ser integrada en un documento de texto o en un diseño arquitectónico. Además, podemos automáticamente mejorar su contraste, hacerla más nítida o incluso, en ocasiones, remover su borrosidad. Nota que sólo algunas de estas propiedades son específicas a un medio en particular, en nuestro ejemplo una fotografía digital, es decir un conjunto de pixeles representados como números. Otras propiedades son comunes a una larga variedad de especies de medios, por ejemplo, en el estado actual de cultura digital, todos los medios pueden ser añadidos a un correo electrónico. Hay otros que tienen propiedades aún más generales del ambiente computacional basado en GUI: la rápida respuesta de la computadora a las acciones de los usuarios asegura “fluidez entre causa y efecto” 10. Otros más son posibles mediante protocoles de redes como el TCP/IP que permite a computadoras y aparatos conectarse a una misma red. En resumen, podemos decir que sólo una parte del “nuevo ADN” de la fotografía digital nació de hecho en la cámara. Muchos otros son el resultado del paradigma actual de la computación de redes en general. Antes de explorar en detalle las ideas de Kay quisiera exponer las razones por las cuales elegí enfocarme en él en lugar de otro. La historia que presentaré podría ser contada diferente. Sería factible poner el trabajo de Sutherland al centro de la historia de la computación de medios, o a Engelbart y su Centro de Investigación para el Aumento del Intelecto Humano que introdujo varias novedades en los 60s, como el hipertexto (aparte de Nelson), el mouse, las ventanas, el procesador de texto, pantallas de texto y gráficos. O podemos enfocarnos en el trabajo del Architecture Machine Group del MIT que desde 1967 fue dirigido por Nicholas Negroponte (en 1985 este grupo se convirtió en el MIT Media Lab). También es necesario recordar que al mismo tiempo que Kay y su grupo de investigación en PARC develaron detalles de su GUI y programaron varios editores de medios en Smalltalk (un programa de pintura, uno de ilustración, uno de animación, etc.), varios artistas, cineastas y arquitectos usaban computadoras desde hace una década y se montaron grandes exhibiciones de arte digital en los museos más importantes alrededor del mundo, entre ellos el Museo de Arte Contemporáneo de Londres, el Museo Judío de Nueva York, el Museo de Arte de Los Ángeles. Y ciertamente, en términos de técnicas computaciones para la representación visual digital, otros grupos están muy avanzados. Por ejemplo, a inicios de los 70s, la Universidad de Utah era el principal centro de investigación de gráficas computacionales. Aquí se producían imágenes 3D superiores a las imágenes creadas en PARC. Junto a la Universidad de Utah, una compañía llamada Evans y Sutherland (dirigida por el mismo Ivan Sutherland que enseñaba en la universidad), usaba gráficas 3D para la simulación de vuelos, siendo pionero en los “espacios virtuales 3D navegables”.
10
Kay y Goldberg, Personal Dynamic Media, 394.
Manovich. Capítulo 1 – El Software Toma el Mando
7 / 33
El trabajo práctico hecho en Xerox PARC permitió ver a la computadora como una máquina de medios. Otra razón por la cuál elegí enfocarme en Kay fueron sus formulaciones teóricas que ubican a las computadoras en relación con otros medios y con la historia de los medios. Vannevar Bush, J.C. Licklider y Douglas Engelbart estaban interesados en el aumento del intelecto, mientras que a Kay también le interesaba la computadora como “medio de expresión mediante el dibujo, la pintura, la animación de imágenes y la composición y generación de música” 11 . Entonces, si de verdad queremos entender cómo y por qué la computadoras fueron redefinidas como medios culturales, y cómo los nuevos medios computacionales son diferentes de otros medios físicos y electrónicos, creo que Kay nos ofrece la mejor perspectiva teórica.
“La simulación es la noción central del Dynabook” Alan Kay dio forma a sus ideas en diversos artículos y conferencias. El artículo que coescribió con una de sus principales colaboradoras en PARC, la ingeniera en computación Adele Goldberg, es un recursos particularmente útil para comprender los medios computacionales contemporáneos. Aquí, Kay y Goldberg describen la visión del Learning Reseacrh Group en PARC de la siguiente manera: crear “un medio personal dinámico del tamaño de una libreta (el Dynabook) que pueda ser adquirido por cualquiera y tener el poder de manejar virtualmente todas la necesidades de información de su propietario” 12. Kay y Goldberg piden a sus lectores que imaginen este aparato con “suficiente poder para sobrepasar tus sentidos de la vista y del oído, suficiente capacidad para almacenar y acceder a miles de documentos tipo materiales de referencia, poemas, cartas, recetas, archivos, dibujos, animaciones, partituras musicales, frecuencias de onda, simulaciones dinámicas y cualquier cosa que necesites recordar y cambiar” 13. Para mí, ”todo” en la frase es importante: significa que el Dynabook (o ambiente computacional de medios en general, sin importar el tamaño del aparato en que se implementa), debe soportar visualización, creación y edición de todos los medios posibles usados tradicionalmente para la expresión y comunicación humana. De igual forma, mientras diferentes programas de creación ya existían en diferentes medios, el grupo de Kay los implementó por primera vez todos juntos en una misma máquina. En otras palabras, el paradigma de Kay no consistía simplemente en crear un nuevo tipo de medio basado en la computadora, que pudiera coexistir con otros medios físicos. Más bien, el objetivo era establecer a la computadora como un paraguas, una plataforma para todo medio artístico existente (al final de artículo, Kay y Goldberg dan un nombre a este medio: “metamedio”). Este
11 12 13
Ibid., 393. Ibid., 393. El énfasis en esta y las demás citas de este artículo es mío (Manovich) Ibid., 394.
Manovich. Capítulo 1 – El Software Toma el Mando
8 / 33
paradigma cambia nuestro entendimiento sobre lo que son los medios. Desde el Laocoon; or, On the Limits of Painting and Poetry (1766) de Lessing hasta los Languages of Art (1968) de Nelson Goodman, el discurso moderno sobre los medios está basado en el supuesto que diferentes medios tienes distintas propiedades y que, de hecho, deberían ser entendidos en oposición los unos con otros. El hecho de ubicar todos los medios en un mismo ambiente computacional no necesariamente borra todas las diferencias de cómo cada uno puede representar y cómo poder ser percibido, pero sí los acerca de varias formas. Algunas de esta nuevas conexiones ya eran visibles para Kay y sus colegas, otras se volvieron evidentes décadas más tarde cuando la nueva lógica de los medios de PARC se desarrolló más ampliamente y, algunas, quizá aún sean invisibles para nosotros debido a que no han sido realizadas de forma práctica. Un ejemplo claro de estas conexiones es el surgimiento de la multimedia como una forma estándar de comunicación: páginas Web, presentaciones PowerPoint, obras multimedia, mensajes multimedia móviles, blogs de medios y otras formas de comunicación que combinan unos cuantos medios. Otro ejemplo es la adopción de convenciones en la interfaz y herramientas que usamos para trabajar con diferentes tipos de medios, sin importar su origen: cámaras virtuales, lupas de aumento y, por supuesto, los omnipresentes comandos de copiar, cortar y pegar. Otro caso es la habilidad de “mapear” un medio en otro usando el software apropiado para ello (imágenes en sonido, sonido en imágenes, datos cuantitativos en formas 3D o sonidos, etc.), como se hace en los terrenos del DJ, VJ, cine en tiempo real, performances y visualización de la información. Con todo, parece que los medios están activamente tratando de tocarse entre ellos, intercambiando propiedades y dejando que sus propiedades únicas sean tomadas en préstamo (esta situación es directamente opuesta al paradigma de medios modernista de principios del singlo veinte, orientado a descubrir el lenguaje único de cada medio artístico). Alan Turing definió teóricamente la computadora como una máquina que puede simular una gran vaeridad de clases de otras máquinas, y es esta habilidad de simulación la que es responsable de la proliferación de las computadoras en la sociedad moderna. Pero como ya lo he mencionado, ni él ni otros inventores de la computadoras digitales consideró explícitamente que esta simulación pudiera también incluir a los medios. Fue Kay su generación quienes extendieron la idea de simulación de medios (convirtiendo la Máquina Universal de Turing en una Máquina Universal de Medios). Al respecto, Kay y Goldberg escriben: “en un sentido muy real, la simulación es la noción central del Dynabook” 14 . Cuando usamos las computadoras para simular algún proceso del mundo real (el comportamiento de un sistema climático, el procesamiento de información en el cerebro, la deformación de un choque de automóvil) nuestra preocupación está en modelar correctamente las características necesarias de este proceso o sistema. Deseamos ser capaces de probar cómo nuestro modelo se comportaría en diferentes condiciones con diferentes datos, y la última cosa que 14
Ibid., 399.
Manovich. Capítulo 1 – El Software Toma el Mando
9 / 33
quisiéramos que haga la computadora es introducir características que no especificamos nosotros mismos. Cuando usamos computadoras como un medio general de simulación, queremos que este medio sea completamente “transparente”. ¿Pero qué pasa cuando simulamos diferentes medios en una computadora? En este caso, la aparición de nuevas propiedades de puede ser bienvenida debido a que puede extender el potencial expresivo y comunicativos de estos medios. Cuando Kay y sus colegas crearon simulaciones computacionales de medios físicos existentes (herramientas para representar, crear, editar y ver estos medios), lo que hicieron fue “añadir” apropiadamente muchas nuevas propiedades. Por ejemplo, en el caso del libro, Kay y Goldberg indican que “no deber ser tratado como un libro de texto simulado debido a que este es un nuevo medio con nuevas propiedades. Una búsqueda dinámica puede ser hecha en algún contexto particular. La naturaleza no-secuencial y el uso de manipulación dinámica permite contar una historia desde múltiples puntos de vista” 15. Kay y su equipo también añadieron varias propiedades a la simulación computacional de documentos en papel. Kay se ha referido a ellas en otro artículo. Su idea no era de únicamente imitar el papel sino de crear “papel mágico” 16. Por ejemplo, PARC ofreció a los usuarios la capacidad de modificar la tipografía y de crear nuevas. También implementaron una idea del equipo de Engelbart en los 60s: la posibilidad de crear diferentes vistas de una misma estructura. Y también Engelbart y Nelson ya había “añadido” otra cosa: la habilidad de conectar diferentes documentos o diferentes partes de un mismo documento mediante hipervínculos (lo que se conoce actualmente como hipertexto e hipermedios). El grupo de Engelbart también desarrolló la posibilidad de que múltiples usuarios también trabajaran en un mismo documento. Y la lista sigue: correo electrónico en 1965, grupos de discusión en 1979, el World Wide Web en 1991, etc. Cada una de estas nuevas propiedades tiene amplias consecuencias. Tomemos la búsqueda de información. A pesar de que la habilidad de buscar en un documento del tamaño de una hoja puede que no suene como una innovación radical, sí lo es a medida que el documento se va haciendo grande. Y se vuelve absolutamente crucial si tenemos una colección de documentos vasta como lo serían todas las páginas del World Wide Web. Con todo y que los motores de búsqueda están lejos de ser perfectos y que las tecnologías siguen evolucionando, imagina cómo sería de diferente la cultura Web sin ellos. O piensa en la capacidad de un número de usuarios para colaborar en un mismo documento(s) que se encuentra en una misma red. Esto ya era muy usado por las compañías en los 80s y 90s, pero no fue hasta principios de los 2000s que el público masivo vio el potencial de esta “adición” a los medios 15 16
Ibid., 395. Alan Kay, “User Interface: A Personal View,” p. 199.
Manovich. Capítulo 1 – El Software Toma el Mando
10 / 33
impresos. A través de la colecta de pequeñas cantidades de labor y el expertise de un gran númerode voluntarios, los proyectos de software social (como Wikipedia), crearon un vasto y dinámico grupo de conocimientos actualizables que sería imposible de lograrse con formas tradicionales (de manera mucho menos visible, cada vez que hacemos una búsqueda en el Web, los algoritmos toman en cuenta cuál de los resultados de búsquedas previas fue más útil para las personas). Al estudiar los textos y las presentaciones públicas de la gente que inventó los medios interactivos computacionales (Sutherland, Engelbart, Nelson, Negroponte, Kay y otros), queda claro que no llegaron a las nuevas propiedades de los medios digital en el último momento. Al contrario, ellos sabían que estaban transformando los medios físicos en nuevos medios. En 1968, Engelbart hizo su famosa demostración en la conferencia Fall Joint, en San Francisco, ante unas miles de personas, entre ellas ingenieros computacionales, gente de IBM y otras compañías involucradas con computadoras, y agentes financieros de varias agencias de gobierno17. Aunque Engelbart disponía de 90 minutos, tenía mucho qué mostrar. Durante unos cuantos años previos, su equipo en el Centro de Investigación para el Aumento del Intelecto había esencialmente desarrollado ambientes de oficina tal como existen hoy en día (no confundir con ambientes de diseño de medios, que fueron desarrollados más tarde en PARC). El sistema computacional NLS incluía un procesador de texto lleno de funcionalidades, documentos conectados mediante hipertexto, colaboración en línea (dos personas en ubicaciones remotas trabajando en un mismo documento simultáneamente), manuales de usuario en línea, sistemas de planeación de proyectos en línea, y otros elementos de lo que se llama actualmente “trabajo colaborativo soportado por computadora”. El grupo también desarrolló elementos clave de la interfaz de usuario moderna que después fueron refinados por PARC: un mouse y múltiples ventanas. Si ponemos atención en la secuencia del demo, notamos que Engelbart debía asegurarse que su audiencia fuera capaz de relacionar el nuevo sistema computacional con lo que ya sabían y conocían, pero su enfoque estaba puesto en las nuevas propiedades de la simulación de medios, cosas que no existía previamente18. Engelbart dedica el primer segmento del demo al procesamiento de texto, pero tan pronto como muestra la captura de texto, así como cortar, pegar, insertar, nombrar y salvar archivos (o sea, la serie de herramientas que hacen de un procesador de texto una herramienta más versátil que una máquina de escribir), pasa a una demostración más detallada de propiedades de su
17
M. Mitchell Waldrop, The Dream Machine: J.C.R. Liicklider and the Revolution That Made Computing Personal
(Viking, 2001), p. 287. 18
El video completo de la demostración de Engelbart está disponible en:
http://sloan.stanford.edu/MouseSite/1968Demo.html. Para una descripción detallada de las funciones de NLS, consultar “NLS User Training Guide,” Stanford Research Institute: Menlo Park, California), 1997, http://bitsavers.org/pdf/sri/arc/NLS_User_Training_Guide_Apr77.pdf.
Manovich. Capítulo 1 – El Software Toma el Mando
11 / 33
sistema que ningún otro medio tenía antes: “control de vistas”. Como Engelbart indica, el nuevo medio de escritura puede cambiar entre diferentes vistas de una misma información a conveniencia del usuario. Un archivo de texto puede ser ordenado de diferentes formas. También puede ser organizado como una jerarquía con cierto número de niveles, como en procesadores de índices y sumarios de software contemporáneo como Microsoft Word. Por ejemplo, una lista de elementos puede ser organizada por categorías, que a su vez pueden ser desplegadas o replegadas. Después, Engelbart muestra otro ejemplo del control de vistas que incluso hoy, 45 años después, aún no está disponible en los software populares de gestión de documentos. Empieza a hacer una larga lista de “cosas qué hacer” y las organiza por lugares. Enseguida hace que la computadora muestra dichas locaciones en un gráfico visual (un conjunto de puntos conectados por líneas). En frente de nuestros ojos, la representación en un medio cambia a otro (el texto se vuelve un gráfico). Pero eso no es todo, el usuario puede interactuar con este gráfico para ver diferentes cantidades de información (algo que ninguna imagen en los medios físicos puede hacer). A medida que Engelbart va haciendo clic sobre los puntos se van mostrando las partes correspondientes a su lista original (esta funcionalidad de modificar qué y cuánta información debe mostrar una imagen es un tópico importante para las aplicaciones de visualización de la información). Engelbart presenta a continuación “una cadena de vistas” que ya tiene preparada de antemano. Va cambiando entre estas vistas mediante “ligas”, que parecen los actuales “hipervínculos” de nuestro Web (aunque tienen una función diferente). En lugar de crear un camino entre muchos documentos diferentes (como lo haría el Memex de Vannevar Bush), Engelbart usa las ligas como método para cambiar entre diferentes vistas de un mismo documento organizado jerárquicamente. Por ejemplo, empieza por un renglón ubicado en la parte alta de la pantalla, cuando hace clic sobre las palabras, aparece más información en la parte inferior de la pantalla. Esta nueva información puede contener ligas hacía otras vistas o incluso hacía información más detallada del texto19. En lugar de usar a las ligas como una estrategia en el universo textual asociativo y “horizontal”, ahora nos movemos verticalmente, entre información general e información detallada. Apropiadamente, en el paradigma de Engelbart no “navegamos” sino “cambiamos vistas”. Podemos crear muchas vistas diferentes de la misma información y, claro, movernos entre ellas de diferente manera. Y esto es lo que Engelbart explica sistemáticamente en la primera parte de su demo. Demuestra que podemos alternar vistas mediante comandos, o mediante el tecleo de números que corresponden a las distintas partes de una jerarquía, o haciendo clic sobre una imagen o texto. Cabe mencionar que en
19
La descripción a detalle de estas y otras funcionalidad de NLS puede ser consultada en:
Augmentation Research Center, “NLS User Training Guide,” Stanford Research Institute: Menlo Park, California), 1997, http://bitsavers.org/pdf/sri/arc/NLS_User_Training_Guide_Apr77.pdf
Manovich. Capítulo 1 – El Software Toma el Mando
12 / 33
1967, Ted Nelson formula una idea similar para denominar un tipo particular de hipertexto que permitiría a un lector “obtener mayor detalle sobre una tema específico”, que después llamó “stretchtext” 20. A partir de que la teoría y crítica de nuevos medios surgieron a inicios de los 90s, se ha escrito mucho sobre interactividad, hipertexto, realidad virtual, ciberespacio, cibercultura, ciborgs, y demás. Pero personalmente nunca he visto nada sobre “control de vistas” y no obstante se trata de una de las nuevas técnicas más fundamentales y radicales para trabajar con las información y los medios disponibles hoy en día. La usamos diario en numerosas ocasiones. Los “controles de vista”, o la habilidad de movernos entre diferentes vistas y tipos de vistas, ha sido implementada de varias formas no solo en procesadores de texto y servidores de correo electrónico, también en “procesadores de medios” (o sea, software para la producción de medios): AutoCad, Maya, AfterEffects, Final Cut, Photoshop, InDesign, etc. Pensemos en el software 3D, en donde un modelo puede ser visto en por lo menos media docena de formas diferentes: sólido, vértices y aristas, etc. En el caso del software para animación y efectos visuales, en donde los proyectos típicamente contienen docenas de objetos y cada uno con numerosos parámetros, éstos pueden ser vistos de forma similar a un sumario de texto. Los usuarios pueden elegir entre desplegar más o menos información: aquellos parámetros en donde estás trabajando actualmente o “zoom out” de todo el proyecto. Cuando hacemos estos, las partes de la composición no sólo se hacen más grandes o pequeñas, también muestran menor o mayor información automáticamente. Por ejemplo, a cierta escala sólo podemos ver el nombre de los parámetros pero haciendo un acercamiento se pueden ver una gráfica de cómo se desarrollan en el tiempo. Examinemos otro ejemplo: el concepto de hipertexto de Ted Nelson que formuló en los 60s (de forma independiente y paralela a Engelbart) 21. En su artículo A File Structure for the Complex, the Changing, and the Indeterminate (1965), Nelson habla sobre las limitantes del libro, y otros sistemas basados en papel, para organizar información. Aquí presenta su nuevo concepto: Sin embargo, con la pantalla computacional y la memoria masiva, se ha vuelto posible crear un nuevo medio, leíble, que se puede usar para la educación y el entretenimiento, que
20
Ted Nelson, “Stretchtext” (Hypertext Note 8), 1967, http://xanadu.com/XUarchive/htn8.tif. Proponemos la
traducción “texto elástico” para “stretchtext”. 21
Douglas C. Engelbart, Augmenting Human Intellect: A Conceptual Framework (Stanford Research Institute,
1962), http://www.dougengelbart.org/pubs/augment-3906.html. Aunque la implementación del hipertexto en el sistema NLS de Engelbart estaba muy limitada comparada con el concepto de Nelson, vale la pena estudiar su visión sobre el aumento del intelecto, casi tan rica como la de Nelson.
Manovich. Capítulo 1 – El Software Toma el Mando
13 / 33
permita al lector encontrar su nivel, satisfacer su gusto y encontrar aquellas partes que le son significativas para su formación y placer. Permítanme acuñar la palabra “hipertexto” para definir un cuerpo de material escrito o gráfico, interconectado de manera tan compleja que no sería pertinente presentarlo o representarlo en papel. (el énfasis en la palabra “hipertexto” es de Lev Manovich). “Un nuevo medio, leíble”. Estas palabras aclaran que Nelson no sólo estaba interesado en mejorar libros y otros documentos de papel. Más bien, quería crear algo nuevo. ¿Pero acaso el hipertexto de Nelson no era simplemente una extensión de antiguas prácticas textuales como la exégesis (extensas interpretaciones de escrituras sagradas como la Biblia, el Corán y el Talmud), las anotaciones y los pies de página? A menudo se propone que éstos son predecesores históricos del hipertexto pero aún no hemos alcanzado la visión de Nelson con la manera en que vivimos nuestros hipertextos actualmente, es decir con el World Wide Web. Noah Wardrip-Fruin ya ha dicho que el Web sólo implementa uno de los muchos tipos de estructuras de Nelson previó en 1965: las ligas estáticas de una página a otra22. De acuerdo con la implementación actual del Web, muchas gente cree que el hipertexto es un cuerpo de texto conectado mediante ligas que van de un sentido a otro. Sin embargo, la noción de “liga” ni siquiera aparece en la definición original de hipertexto. En su lugar, Nelson habla de una nueva y compleja interconectividad, sin especificar ningún mecanismo en particular que poder usado para lograrlo. Nelson de hecho presenta un sistema particular para implementar su visión pero, como él mismo lo dice, puede haber muchos otros. “¿Qué tipo de estructuras son posibles de lograr con el hipertexto?”, pregunta Nelson en una investigación de 1967. Contesta a su pregunta de forma breve pero concisa: “cualquiera” 23. Después explica: “el texto ordinario puede ser visto como un caso especial de hipertexto, el más simple y familiar, tal como el espacio tridimensional y el cubo ordinario son los casos más simples y familiares del hiperespacio y del hipercubo24. EN 2007, Nelson actualizó esta idea de la forma siguiente: “el hipertexto, una palabra que acuñé hace tiempo, no es una tecnología sino más bien la generalización más completa de documentos y de literatura25.
22
Noah Wardrip-Fruin, introducción al artículo de Theodor H. Nelson, “A File Structure for the Complex, the
Changing, and the Indeterminate” (1965), in New Media Reader, p. 133 23
24 25
Ted Nelson, “Brief Words on the Hypertext" (Hypertext Note 1), 1967, http://xanadu.com/XUarchive/htn1.tif Ibid. Ted Nelson, http://transliterature.org/, version TransHum-D23, Julio 17, 2007.
Manovich. Capítulo 1 – El Software Toma el Mando
14 / 33
Si el hipertexto no significa únicamente “ligas”, tampoco significa exclusivamente “texto”. A pesar de que su uso más reciente hace referencia a texto conectado, Nelson también tomaba en cuenta imágenes en su definición original 26 . En el párrafo siguiente también acuña los términos hiperpelículas e hipermedia: Las películas, las grabaciones sonoras, las grabaciones de video son también secuencias lineales, básicamente por cuestiones mecánicas. Pero éstas también pueden ser organizadas como sistemas no lineales (por ejemplo, regiones) siguiendo propósitos educativos o para mostrar con diferente énfasis… Las hiperpelículas (una o múltiples secuencias de película que ser exploradas) es sólo uno de los posibles hipermedios que nos llaman la atención27. ¿En dónde están las hiperpelículas hoy, casi 50 años después de que Nelson articuló su concepto? Si entendemos las hiperpelículas de una manera tan limitada como lo hemos hecho con los hipertextos (tomas conectadas mediante ligas sobre las cuáles un usuario puede hacer clic), parecería que nunca se desarrollaron. A algunos proyectos pioneros no se les dio seguimiento: Aspen Movie Map (Architecture Machine Group, 1978-79), Earl King and Sonata (Grahame Weinbren, 1983-85; 19911993), el CD-ROMs de Bob Stein Voyager Company, y Wax: Or the Discovery of Television Among the Bees (David Blair, 1993). Igualmente, películas interactivas y juegos con video “full-motion”, creados por la industria de los videojuegos en la primera parte de los 90s, quedó pasada de moda rápidamente y reemplazada por los juegos 3D que ofrecían más interactividad. Pero si pensamos en las hiperpelículas en un sentido más amplio, tal como lo hizo Nelson, cualquier estructura interaciva que conecta video o elementos fílmicos (en donde las películas son un caso especial), nos daremos cuenta que las hiperpelículas son más comunes de lo que parecen hoy en día. Los numerosos sitios interactivos basados en Flash o HTML5 que usan video, los videoclips que ahora tienen marcadores que permiten a un espectador saltar a un punto específico del video (por ejemplo los video de ted.com28) y el cine de base de datos29 son sólo unos ejemplos de hiperpelículas contemporáneas. Décadas antes de que los hipertextos e hipermedios se volvieran los modos comunes para interactuar con la información, a Nelson le había quedado claro lo que esas ideas significaban para nuestras prácticas y conceptos culturales establecidos. El anuncio de su conferencia el 5 de enero de 1965 en 26
Durante el simposio Digital Retroaction 2004, Noah Wardrip-Fruin recalcó que la visión de Nelson incluía a los
hipermedios y no sólo a los hipertextos. Noah Wardrip-Fruin, presentation at Digital Retroaction: a Research Symposium, UC Santa Barbara, Septiembre 17-19, 2005, http://dcmrg.english.ucsb.edu/conference/D_Retro/conference.html. 27 28 29
Nelson, A File Structure, 144. www.ted.com, March 8, 2008. Ver http://softcinema.net/form.htm.
Manovich. Capítulo 1 – El Software Toma el Mando
15 / 33
Vassar College muestra esto en términos más alusivos en nuestro contexto actual de lo que fueron en aquellos días: “las consecuencias filosóficas de todo esto son muy profundas. Nuestros conceptos de “lectura”, “escritura” y “libro” caen y ahora el reto es diseñar hiperdocumentos y escribir “hipertextos” que puedan tener más potencial educativo que cualquier otras cosa que haya sido impresa en papel” 30.
Esta postura alinea el pensamiento y obra de Nelson con artistas y teóricos que de igual forma querían desestabilizar las convenciones de la comunicación cultural. Los académicos de medios digitales han discutido ampliamente las analogías entre Nelson y los pensadores franceses de los 60s (Roland Barthes, Michel Foucault y Jacques Derrida) 31. Otros ya han señalado las similitudes entre Nelson y los experimentos literarios que se llevaron a cabo al mismo tiempo, como Oulipo32. Incluso también podamos notar la conexión entre el hipertexto de Nelson y la estructura no lineal de películas como Hiroshima Mon Amour, L'Année dernière à Marienbad y À Bout de Souffle, entre otros realizadores franceses que cuestionaban el estilo narrativo clásico. ¿Qué tan lejos debemos llevar estas similitudes? En 1987, Jay Bolter y Michael Joyce escribieron que el hipertexto debería ser visto como ”una continuación de la “tradición” moderna de la literatura experimental impresa” que incluye “modernismo, futurismo, Dada, surrealismo, leterismo, la nueva novela, poesía concreta” 33. Por su lado, Espen J. Aarseth objetó dicho argumento señalando que el hipertexto no es una estructura modernista per se, aunque puede soportar la poética modernista si el autor así lo desea34. ¿Quién tiene la razón? Este libro sostiene que el software cultural convirtió a los medios en meta-medios (un nuevo sistema semiótico y tecnológico que incluye a la mayoría de los medios precedentes, su estética, sus técnicas y sus elementos fundamentales). Yo también pienso que el hipertexto es diferente a la tradición literaria modernista. Concuerdo con Aarseth en que el hipertexto es mucho más general que cualquier poética. Recordemos que en 1967 Nelson ya había dicho que el hipertexto podría soportar cualquier estructura de información, incluyendo a los textos tradicionales, entre ellos las diferentes poéticas modernistas. Curiosamente, esta premisa es 30
Noticia sobre la conferencia de Ted Nelson en Vassar College, Enero 5,1965,
http://xanadu.com/XUarchive/ccnwwt65.tif. 31
George Landow (ed), Hypertext: The Convergence of Contemporary Critical Theory and Technology (The Johns
Hopkins University Press, 1991); Jay Bolter, The writing space: the computer, hypertext, and the history of writing (Hillsdale, NJ: L. Erlbaum Associates, 1991). 32
Randall Packer & Ken Jordan, Multimedia: From Wagner to Virtual Reality (W. W. Norton & Company, 2001);
Noah Wardrip-Fruin & Nick Monford, New Media Reader (The MIT Press, 2003). 33
Citado en Espen J. Aarseth, Cybertext: Perspectives on Ergodic Literature (The Johns Hopkins University Press,
1997), p. 89. 34
Espen J. Aarseth, Cybertext, 89-90.
Manovich. Capítulo 1 – El Software Toma el Mando
16 / 33
replicada por Kay y Goldberg en su definición de meta-medio, cuyo contenido es “una larga variedad de medios existentes y aún no inventados”. ¿Qué hay acerca de los académicos que ven relaciones estrechas entre el pensamiento de Nelson y el modernismo? Aunque Nelson dice que el hipertexto puede soportar cualquier estructura de información y que la información se debe limitar al texto, sus ejemplos y su estilo de escritura reflejan una sensibilidad estética inconfundible… la de una literatura modernista. Claramente se opone al “texto ordinario”. Sus énfasis en la complejidad e interconectividad y en el rompimiento de unidades convencionales de organización de la información, como las páginas, alinean la propuesta de Nelson con la literatura experimental de principios del siglo XX: las creaciones de Virigina Wolf, James Joyce, los surrealistas, etc. Este vínculo con la literatura no es accidental debido a que la idea original de Nelson en su investigación que lo llevó a los hipertextos era crear un sistema de gestión de notas para escritos literarios y manuscritos en general. Nelson conocía acerca de los textos de William Burroughs. El mismo título de su artículo (Un estructura de archivos para lo complejo, el cambio y lo indeterminado) sería perfectamente adecuado para un manifestó vanguardista de inicios del siglo veinte, siempre y cuando sustituyéramos “estructura de archivos” por algún “ismo”. La sensibilidad modernista de Nelson también se aprecia en su visión sobre nuevos medios que pueden establecerse con la ayuda de la computadora. Sin embargo, su obra no debe considerarse una simple continuación de la tradición modernista. Más bien, tanto su investigación como la de Kay representan el siguiente nivel del proyecto vanguardista. Los artistas vanguardistas de inicios del siglo XX estaban muy interesados en cuestionar las convenciones de medios ya establecidos, como la fotografía, la prensa, el diseño gráfico, el cine, la arquitectura. Entonces, no importa qué tan diferentes fueron las pinturas de los futuristas, el orfismo, el suprematismo, o De Stijl, sus manifiestos seguían hablando de ellos como pinturas, en lugar de un nuevo medio. En contraste, Nelson y Kay explícitamente escribían sobre crear nuevos medios y no sólo cambiar los existentes. Nelson dice: “Con el monitor informatizado y el la memoria masiva, se ha vuelto posible crear un nuevo y leíble medio”. Kay y Goldberg: “el texto digital no debe ser tratado como un libro de papel simulado debido a que es un nuevo medio, con nuevas propiedades”. Otra diferencia entre la forma en que los modernistas y los pioneros del software cultural trataron la labor de inventar nuevos medios y extender los existentes está capturada en el título del artículo de Nelson que ya cité previamente: “Una estructura de archivos para lo complejo, lo cambiante y lo indeterminado”. En lugar de algún “ismo” particular, tenemos una estructura de archivos. El cubismo, expresionismo, futurismo, orfismo, suprematismo y surealismo propusieron nuevos y diferentes sistemas para organizar la información, pero cada sistema luchaba contra los demás por la dominación en la memésfera cultural. Por el contrario, Bush, Licklider, Nelson, Engelbart, Kay, Negroponte y demás crearon meta-sistemas que pueden soportar muchos tipos de estructuras de
Manovich. Capítulo 1 – El Software Toma el Mando
17 / 33
información. Kay llamó a ese sistema “un primer meta-medio”, Nelson se refirió a él como hipertexto e hipermedios, Engelbart escribió sobre “manipulación automática de símbolos externos”… pero a pesar de las diferencias en sus visiones subyacía una comprensión del radicalmente nuevo potencial de las computadoras en la manipulación de información. Los prefijos “meta” e “hiper” usados por Kay y Nelson fueron las caracterizaciones adecuadas de un sistema que era nuevo y capaz de remediar a los demás en su forma particular. Más bien, el nuevo sistema sería capaz de simular estos medios y sus estrategias de remediación (así como también el desarrollo de medios aún no inventados). Y no acaba ahí porque igualmente importante fue el rol de la interactividad. Los nuevos sistemas serían usados interactivamente para desarrollo procesos de pensamiento, descubrimiento, toma de decisiones y expresión creativa. Por su lado, la estética de los movimiento modernistas podría ser vista como sistema de “formato de información”, usados para seleccionar y organizar la información en un modo de presentación fijo que después sería pasado a los usuarios, nada diferente a las plantillas PowerPoint. Finalmente, la tarea de definir nuevas estructuras de información y técnicas de manipulación de medios (aunque de hecho, podemos incluir todo el nuevo medio) era otorgada al usuario, en lugar de ser exclusiva de los diseñadores. Más adelante discutiré sobre las consecuencias de todo esto en el modelamiento de la cultura contemporánea. Una vez que las computadoras y el código de programación se democratizan, se empiezan a usar creativamente para crear estas estructuras y técnicas, en lugar de hacer sólo “contenido”. Hoy, un típico artículo en ciencias computacionales o en ciencias de la información no habla de inventar un “nuevo medio” como justificación de una investigación. Lo que encontramos son más bien referencias a trabajos previos en alguna rama o sub-rama tales como “descubrimiento de conocimiento”, “minería de datos”, “web semántico”, etc. También puede hacer referencia a prácticas e industrias culturales y sociales actuales como “e-learning”, “desarrollo de videojuegos”, “taggeo colaborativo” o “colaboración masiva distribuida”. En cualquier caso, la justificación de una nueva investigación está avalada por una referencia a prácticas establecidas o, por lo menos, populares como paradigmas académicos que han que recibido financiamiento, industrias de gran escala o rutinas sociales que cuestionan el orden social existente. Esto significa que prácticamente toda la investigación en ciencias computacionales (tecnologías Web, computación social, hipermedios, interfaces humano-computadoras, gráficas computacionales, etc.) que trata sobre medios está orientada al uso típico de los medios. Dicho en otras palabras, los investigadores en computación o están tratando de hacer más eficiente el uso de las tecnologías por las industrias mediáticas (videojuegos, motores de búsqueda Web, producción de cine, etc.) o están inventando nuevas tecnologías que serán usadas en el futuro por dicha industria. La invención de nuevos medios en sí no es algo a quien se quiere dedicar alguien o incluso que pueda recibir capital. Desde esta perspectiva, la industria del software en general es más innovadora que la académica o la científica. Por ejemplo, aplicaciones de medios sociales como
Manovich. Capítulo 1 – El Software Toma el Mando
18 / 33
Wikipedia, Flickr, YouTube, Facebook, delicious, digg, etc. no fueron inventadas en la academia; tampoco lo fueron Hypercard, Quicktime, HTML, Photoshop, After Effects, Flash o Google Earth. Esto no ha sido diferente en décadas pasadas. Entonces no para sorprenderse que las carreras de Ted Nelson y Alan Kay hayan sido hechas en la industria y no en la academia: Kay trabajó y ha sido colaborador de Xerox PARC, Apple, Atari, y Hewlett-Packard; Nelson fue consultor de los laboratorios Bell, Datapoint Corporation, Autodesk; y ambos han estado asociados a Disney. ¿Por qué Nelson y Kay hallaron más apoyo en la industria que en la academia en su búsqueda por inventar nuevos medios computacionales? ¿Y por qué la industria (a la cuál me refiero simplemente como cualquier entidad que crea productos que pueden ser vendidos en grandes cantidades o monetizados de otras formas, sin importar que sea una transnacional o una start-up) está más interesada en tecnologías, aplicaciones y contenidos innovadores de los medios más que las ciencias computacionales? La respuesta necesitaría su propia investigación. Pero también, ¿qué tipo de innovación puede soportar una institución moderna a lo largo del tiempo? Aquí podemos dar una respuesta breve. Los negocios modernos tratan de crear nuevos mercados, nuevos productos y nuevas categorías de productos. Aunque esto viene siempre con un alto riesgo, las ganancias son rentables. Este fue el caso cuando Nelson y Kay fueron respaldados por Xerox, Atari, Apple, Bell, Diseny, etc. En los años 2000, después de la globalización de los 90’s, todas las áreas de negocios han acogido la innovación de forma sin precedentes. Este ritmo se acentuó alrededor del 2005 cuando las compañías competían por hacer nuevo mercado en China, India y otras economías “anteriormente” emergentes. Al mismo tiempo, vimos un incremento de productos novedosos: API’s abiertos de los grandes sitios Web 2.0, anuncios cotidianos de nuevos servicios Web, aplicaciones de geolocalización, productos para consumidores como el iPhone y Microsoft Surface, nuevos paradigmas de imágenes como el HDR y la edición no destructiva, los inicios de una “larga cola” de hardware, y demás. Como podemos ver a partir de los ejemplos que hemos analizado, el objetivo de los inventores de medios computacionales no era simplemente crear simulaciones de medios físicos. Se trataba de crear “un nuevo medio con nuevas propiedades” que permitiera a la gente comunicarse, aprender y crear de formas nuevas. La apariencias de estos nuevos medios puede parecer similar a los viejos, pero no debemos dejarnos engañar. La novedad no está en el contenido o en la apariencia sino en las herramientas de software usadas para crear, editar, ver y compartir dicho contenido. Por eso, en lugar de observar el “resultado” de las prácticas culturales basadas en software, debemos considerar el software mismo, es él quien permite a la gente trabajar con medios de maneras previamente desconocidas. Una vez más: la apariencia de los medios digitales puede ser que sí remedie y represente formas anteriores, pero el software y ambiente en el que “vive” es muy diferente.
Manovich. Capítulo 1 – El Software Toma el Mando
19 / 33
Déjenme añadir un par de ejemplos más. Primero, Sketchpad que influyó profundamente todos los trabajos subsecuentes en medios computacionales (incluyendo a Kay) no sólo porque fue el primer sistema interactivo de producción de medios sino también porque dejó claro que las simulaciones digitales de medios físicos pueden añadir muchas propiedades nuevas a los medios que son simulados. En 1962, Ivan Sutherland creó Sketchpad como parte de su tesis de doctorado en el MIT y fue el primer software que permitía a sus usuarios crear y modificar interactivamente dibujos a base de líneas. Como ya lo ha dicho Noah Wardrip-Fruin, “nos llevó fuera del papel mediante la posibilidad de dibujar en cualquiera de los 2000 niveles de acercamiento; esto permitió crear proyectos que los serían muy grandes o muy detallados para los medios físicos” 35. Sketchpad concibió los elementos gráficos como objetos “que pudieran ser manipulados, constreñidos, instanciados, representados, copiados, combinados y en los que podemos aplicar y reaplicar estas operaciones” 36. Por ejemplo, si un diseñador definía nuevos elementos gráficos como instancias de un elemento maestro, éste cambiaba automáticamente si hacía cualquier cambio a dichas instancias. Otra nueva propiedad que demostraba la manera en que el diseño y boceto a computadora era radicalmente nueva era el uso de los constreñimientos o imposiciones en Sketchpad. En palabras de Sutherland: “la propiedad principal que distingue a Sketchpad del papel y lápiz es la habilidad que ofrece al usuario para especificar condiciones matemáticas en partes ya trazadas de su dibujo de tal forma que la computadora pueda aplicar dichos parámetros y que el usuario obtenga la forma deseada” 37. Por ejemplo, si un usuario dibuja algunas líneas y luego les asigna un cierto parámetro, Sketchpad podría mover dichas líneas para que sean exactamente paralelas unas con otras. Si el usuario selecciona una línea y asigna otro comando, Sketchpad podría mover la línea para que sea perpendicular a las otras líneas antes trazadas. No es nuestro objetivo hacer una lista exhaustiva de las nuevas propiedades que Sutherland introdujo con Sketchpad, pero debe quedar claro que el primer editor interactivo de gráficos no sólo simulaba medios existentes. El artículo que Sutherland publicó en 1963 resaltaba las nuevas capacidades gráficas de su sistema, maravillándose de cómo abre nuevos campos en “manipulación gráfica que nunca habían estado disponibles” 38. Tan solo el título de su tesis doctoral anticipa su novedad: Sketchpad: un sistema humano-máquina de comunicación gráfica. Es curioso observar que la 35
Noah Wardrip-Fruin, introducción a “Sketchpad. A Man-Machine Graphical Communication System,” in New
Media Reader, 109. 36 37
Ibid. Ivan Sutherland, “Sketchpad. A Man-Machine Graphical Communication System,” Proceedings of the AFIPS
Spring Joint Computer Conference, Detroit, Michigan, Mayo 21-23, 1963, pp. 329-346; in New Media Reader, eds. Noah Wardrip-Fruin and Nick Montfort. 38
Ibid., 123.
Manovich. Capítulo 1 – El Software Toma el Mando
20 / 33
dimensión comunicativa también es resaltada por Kay y Goldberg, a la que se refieren como una “conversación en dos sentidos” y que hace del meta-medio algo “activo” 39. Pero también Licklider habló de simbiosis humano-máquina y Sketchpad sería un buen ejemplo aplicado al diseño y producción de imágenes40. Mi último ejemplo es el software de pintura. Quizá a primera vista pueda sonar contradictorio. ¿Se puede decir que las aplicaciones que simulan a detalle el rango de efectos que es posible lograr con brochas, pinceles, cuchillos, telas y papeles buscan recrear la experiencia de trabajar con algún medio existente en lugar de crear uno nuevo? Error. En 1997, Alvy Ray Smith, un artista y pionero de las gráficas computacionales escribió su memo Digital Paint Systems: Historical Overview41. En este texto hace una importante distinción entre programas de pintura digital y sistemas de pintura digital. En su definición, “un programa de pintura digital no hace más que implementar una simulación digital de la pintura clásica en tela y pincel. Un sistema de pintura digital llevará más lejos la idea, usando la “simulación de la pintura” como metáfora para seducir al artista en el nuevo, y quizá hostil, mundo digital”. Según la historia de Smith, la mayoría de las aplicaciones comerciales, incluyendo Photoshop, están ubicada en la categoría de sistema de pintura. Su genealogía de sistemas de pintura inicia con SuperPaint de Richard Shoup, desarrollado en Xerox PARC entre 1972 y 197342, que permitía pintar con diferentes pinceles y con diferentes colores. SuperPaint incluía algunas técnicas que no son posibles en la pintura tradicional, como Shoup lo dice: “las zonas o los objetos pueden ser redimensionados, desplazados, copiados, sobrepuestos, combinados, modificados de color o guardados en nuestro disco para un uso futuro o para su destrucción” 43. Pero quizá más importante era la habilidad de soportar fotogramas de video. Cuando se cargaba en el sistema, cada fotograma podía ser usado como cualquier otra imagen. El sistema también podía regresar el resultado como señal de video. Shoup tenía claro que su sistema iba más allá que una simple forma de dibujar o pintar con la computadora. En un artículo de 1979 califica a SuperPaint de
39 40
Kay y Goldberg, “Personal Dynamic Media,” 394. J.C. Licklider, “Man-Machine Symbiosis,” IRE Transactions on Human Factors in Electronics, volume HFE-1,
March 1960, pp. 4-11, in New Media Reader, eds. Noah Wardrip-Fruin and Nick Montfort. 41
Alvy Ray Smith, Digital Paint Systems: Historical Overview (Microsoft Technical Memo 14, Mayo 30, 1997).
http://alvyray.com/. 42
Richard Shoup, “SuperPaint: An Early Frame Buffer Graphics Systems,” IEEE Annals of the History of
Computing 23, número 2 (Abril-junio 2001), p. 32-37, http://www.rgshoup.com/prof/SuperPaint/Annals_final.pdf; Richard Shoup, “SuperPaint…The Digital Animator,” Datamation (1979), http://www.rgshoup.com/prof/SuperPaint/Datamation.pdf. 43
Shoup, “SuperPaint…The Digital Animator,” 152.
Manovich. Capítulo 1 – El Software Toma el Mando
21 / 33
un nuevo medio “videográfico” 44. En otro artículo publicado un año más tarde afina su aseveración: “desde una perspectiva más amplia, nos dimos cuenta que el desarrollo de SuperPaint señaló el comienzo de la sinergia de dos de las más poderosas tecnologías jamás inventadas: la computación digital y el video o la televisión” 45. Estamos antes una idea sorprendente. Cuando Shoup escribía esto en 1980, eran contadas con la mano las veces que las gráficas computacionales se veían en la TV. Aunque es cierto que se volvieron más visibles en la década siguiente, fue sólo hasta mediados de los 90’s que la sinergia que predijo Shoup se volvió visible. Ya veremos en el capítulo dedicado a After Effects más tarde que el resultado fue una dramática reconfiguración no sólo del lenguaje visual de la televisión sino de todas les técnicas inventadas por los humanos hasta ese punto. En otras palabras, lo que empezó como un nuevo medio “videográfico” en 1973 eventualmente cambió todos los medios visuales. Incluso si olvidamos las posibilidades revolucionarias de SuperPaint, seguimos ante un nuevo medio creativo (en palabras de Smith). Tal como lo dijo Smith, el medio es el buffer de fotogramas digitales46, una especie de memoria digital diseñada para almacenar imágenes representadas como una serie de pixeles (hoy conocida como tarjeta de gráficos). Un artista que trabaja con un sistema de pintura está, de hecho, modificando valores de pixeles en un buffer de fotogramas (sin importar la operación o herramienta en cuestión). Esto es una salida a nuevas operaciones de creación y modificación de imágenes, que siguen una lógica diferente a la pintura física. Los ejemplos más claros se pueden ver en un sistema de pintura llamado sencillamente Pant, desarrollado por Smith entre 1975 y 1976. En las palabras de Smith, “en lugar de simular el trazo de una línea de color, amplié la noción para abarcar: realiza cualquier manipulación de imagen que quieras con los pixeles del pincel” 47. Con esta generalización conceptual, Smith incluyó varios efectos que todavía usan la herramienta “pincel” pero que ya se refieren a la pintura del mundo físico. Por ejemplo, en Paint “cualquier imagen de cualquier forma puede ser usada como pincel”. Otro ejemplo: Smith introdujo “no pintar” que invertía el color de cada pixel en su complemento cromático. También definió la “pintura de marcas” (smear paint) que promediaba los colores de los pixeles a proximidad y lo mostraba en un solo pixel. Así vemos que las implementaciones en donde el pincel se comportaba más como un pincel físico eran sólo casos particulares de un universo más grande de nuevos comportamientos posibles en un nuevo medio.
44 45 46
Ibid., 156. Shoup, “SuperPaint: An Early Frame Buffer Graphics System,” 32. Alvy Ray Smith, “Digital Paint Systems: An Anecdotal and Historical Overview,” IEEE Annals of the History of
Computing. 2011, http://accad.osu.edu/~waynec/history/PDFs/paint.pdf. 47
Ibid., 18.
Manovich. Capítulo 1 – El Software Toma el Mando
22 / 33
La extensibilidad permanente Como hemos visto, Sutherland, Nelson, Engelbart, Kay y demás pioneros de los medios computacionales han agregado varias propiedades que previamente no existían en los medios que simulaban. Las generaciones subsecuentes de académicos, hackers y diseñadores han añadido aún más y el proceso está lejos de haber acabado. De hecho, no hay razón lógica o material para pensar que se terminará. La “naturaleza” de los medios computacionales es interminable y nuevas técnicas se inventan continuamente. Para agregar nuevas propiedades a los medios físicos es necesarios modificar su substancia física. Pero como los medios computacionales existen como software, podemos agregar nuevas propiedades o inventar nuevos tipos de medios cambiando o escribiendo nuevo software. O añadiendo plug-ins y extensiones como ha sido el caso en Photoshop y Firefox. O agrupando software, por ejemplo, en 2006 los usuarios extienden las capacidades de medios de mapas, creando mash-ups que combinan servicios con datos de Google Maps, Flickr, Amazon con medios generados por los usuarios. O sea que los “nuevos medios” son “nuevos” porque sus nuevas propiedades (es decir, nuevas técnicas del software) se les pueden añadir fácilmente. Dicho de otra manera, en la era industrial, con tecnologías de medios producidas masivamente, el “hardware” y el “software” era una misma cosa. Por ejemplo, las páginas de un libro estaban atadas de manera que fijaban el orden y secuencia. El lector no podía cambiar este orden ni alterar el nivel de detalle tal como lo hizo Engerlbart con su “control de vistas”. De forma similar, un proyector de películas combinaba “hardware” con lo que hoy llamamos software de “lector de medios” en una misma máquina. Los controles de una cámara producida másivamente en el siglo XX no podían ser modificados por el usuario a su voluntad. Aunque todavía hoy el usuario de una cámara digital no puede modificar fácilmente el hardware, a partir del momento en que transfiere sus imágenes a la computadora tiene acceso a un número ilimitado de controles y opciones para modificar sus imágenes. En los siglos XIX y XX había dos tipos de situaciones en que un medio industrial fijo era más fluido. La primera situación era cuando el nuevo medio estaba siendo desarrollado, por ejemplo, la invención de la fotografía entre 1820 y 1840. El segundo tipo de situaciones es cuando los artistas experimentan y “abren” un medio industrializado, por ejemplo los experimentos en cine y video de los años 60’s, a los que se llamó “cine expandido”. Lo que fueron dos momentos distintos de experimentaciones con medios durante la era industrial se volvió la regla en la sociedad del software. Podemos decir que la computadora legitima la experimentación con los medios. ¿Por qué sucede esto? Lo que hace diferente a un moderna computadora digital de otras máquinas (incluyendo máquinas de medios industriales para capturar y
Manovich. Capítulo 1 – El Software Toma el Mando
23 / 33
reproducir medios) es la separación de hardware y software. Es porque un sin fin de programas que realizan cosas diferentes pueden escribirse para correr en un solo tipo de máquina (la computadora digital) que ésta máquina es tan usada hoy en día. Y así, la invención constante de nuevos medios o sus modificaciones es un ejemplo de esta principio general. En otras palabras, la experimentación es una características estándar de los medios computacionales. En su mera estructura son “vanguardistas” porque siempre está en extensión y redefinición. Si en la cultura moderna lo “experimental” y lo “vanguardista” se oponían a lo normal y a lo estable, esta oposición se borra en la cultural del software. Y el rol del vanguardismo de medios ya no está representado por artistas individuales en sus estudios sino por una gran variedad de actores, de muy grandes a muy pequeños, de Microsoft, Adobe, Apple a programadores independientes, hackers y diseñadores. Pero este proceso de invención continua de nuevos algoritmos no se mueve en cualquier sentido. Si observamos el software de medios contemporáneos, veremos que la mayoría de los principios fundamentales habían sido desarrollados por la generación de Sutherland y Kay. De hecho, el primer editor de gráficos interactivo, Sketchpad, ya tenia los genes, por así decirlo, de las aplicaciones de gráficas contemporáneas. Mientras más nuevas técnicas siguen siendo inventadas, éstas se ponen encima de los fundamentos que fueron gradualmente implementados por Sutherland, Engelbart, Kay y demás en los 60’s y 70’s. No estamos hablando únicamente de la historia de las ideas. Varios factores sociales y económicos también imponen posibles direcciones en la evolución del software, por ejemplo el dominio de un mercado de software o la adopción masiva de algún formato de archivo. Puesto de otra manera, el desarrollo de software actualmente es una industria y como tal está equilibra constantemente entre estabilidad e innovación, estandarización y exploración de nuevas posibilidades. Pero al mismo tiempo no es cualquier tipo de industria. Nuevos programas pueden escribirse y programas existentes pueden extenderse y modificarse por cualquiera que tenga conocimientos de programación, acceso a una computadora, a un lenguaje de desarrollo y a un compilador (y si el código fuente está disponible). O sea que el software de hoy es fundamentalmente “posible de hacer” en el sentido en que los objetos producidos industrialmente no lo son. A pesar de que Turing y Von Neumann ya había formulado en teoría esta extensibilidad del software (cientos de miles de personas involucradas diariamente en la expansión de posibilidades de medios computacionales), se trata del resultado de un largo desarrollo histórico. Este desarrollo nos llevó de las computadoras del tamaño de un salón, que no eran fáciles de reprogramar, a las computadoras baratas y programables de unas décadas posteriores. Esta democratización del desarrollo de software era el núcleo de la visión de Kay, quien se preocupaba en cómo estructurar herramientas que fueran
Manovich. Capítulo 1 – El Software Toma el Mando
24 / 33
posibles de programar por usuarios comunes: “debemos proveer suficientes herramientas generales predefinidas para que los usuarios no tengan que empezar desde cero para hacer las cosas que quieren hacer” (Kay y Goldberg, 1977). Si comparamos el proceso de innovación continua de los medios con software con la historia de los medios pre-computacionales veremos que se revela una mecánica. Según una idea general, cuando un nuevo medio es inventado, éste imita a los medios existentes antes de descubrir su propia estética y lenguaje. Por ejemplo, las primeras biblias impresas imitaban claramente el diseño de manuscritos; las películas producidas entre 1890 y 1900 mimetizaban el formato teatral mediante la aparición de los actores detrás del escenario y su postura frente a la audiencia. Lenta y gradualmente, los libros impresos desarrollaron una nueva forma para presentar la información, de la misma manera que el cina desarrolló sus conceptos de narrativa espacial que con cambios continuos de puntos de vista hace que los usuarios entren al espacio, encontrándose literalmente dentro de la historia. ¿Podemos decir que esta mecánica aplica también a los medios computacionales? Tal como lo teorizaron Turing y Von Neumann, la computadora es una máquina de simulación multiusos. Esto es lo que la hace única y diferente de los demás máquinas y medios. Esto significa que la idea de que un nuevo medio encuentra gradualmente su lenguaje no aplica para los medios computacionales. Si fuera cierto iría en contra de la definición misma de computadora digital moderna. Este argumento teórico está soportado por la práctica. La historia de los medios computacionales no ha tratado hasta ahora de llegar a un lenguaje estándar (como lo pasó al cine, por ejemplo) sino a extender los usos, técnicas y posibilidades. En lugar de llegar a un lenguaje particular nos percatamos que la computadora puede hablar cada vez más lenguajes. Pero podemos encontrar un argumento más si nos detenemos un poco en la historia de los medios computacionales. La tarea sistemática de convertir a la computadora en un medio que simula y extiende a los demás llegó después que ya tenían diversos usos (realizar diferentes tipos de cálculos, solucionar problemas matemáticos, controlar otras máquinas en tiempo real, recrear simulaciones matemáticas, recrear algunos comportamientos humanos, etc.). Así, cuando la generación de Sutherland, Nelson y Kay empezó a crear “nuevos medios” lo hicieron sobre aquello que las computadoras saben hacer mejor. Entonces se empezaron a añadir nuevas propiedades a los medios físicos. Si retomamos el ejemplo de Sketchpad, Sutherland sabía que las computadoras podían resolver problemas matemáticos y así introdujo una nueva función que no existía antes: control de parámetros de imágenes. Parafraseando estas ideas podemos decir que en lugar de movernos de la imitación de un media viejo para encontrar su propio lenguaje, los medios computacionales hablaban su propio lenguaje desde su concepción.
Manovich. Capítulo 1 – El Software Toma el Mando
25 / 33
Los pioneros de la medios computacionales no tenían la intención de hacer de la computadora una “máquina de remediación” que simplemente representara medios viejos. Se trató más bien de poner en avante las posibilidades de las computadoras digitales para crear radicalmente nuevos tipos de medios para la expresión y la comunicación. Para estos nuevos medios, su materia prima sieguen siendo los medios precedentes (que han servido a la humanidad por cientos de años: escritura, dibujo, sonidos, pinturas, etc.) pero esto no compromete su novedad. Los medios computacionales se sirven de ellos como unidades básicas para crear formas, estructuras, herramientas, opciones de comunicación que no existían antes. Sería incorrecto decir que el trabajo de Sutherland, Engelbart, Nelson y Kay había tomado un solo rumbo al desarrollar sus medios computacionales sobre la base de teorías computacionales, lenguajes de programación e ingeniería de software. Es decir, de principios existentes y generales a técnicas particulares. Estos inventores pusieron en tela de juicio muchas de ideas de la computación. Definieron muchos nuevos conceptos y técnicas fundamentales sobre hardware y software, haciendo contribuciones a la ingeniería de software. Un ejemplo es el desarrollo de Smalltalk por Alan Kay que estableció sistemáticamente, por primera vez, el paradigma de la programación orientada objetos. La lógica de Kay era crear una apariencia unificada a todas las aplicaciones e interfaces de usuario de PARC pero sobretodo también permitir a los usuarios programar rápidamente sus propias herramientas de medios. Según Kay un programa de ilustración hecho con Smalltalk por una talentosa niña de 12 años cabía en una página de código48. Con el tiempo, la programación orientada objetos se ha vuelto muy popular y muchos lenguajes siguen su paradigma, como C. Este vistazo a los medios computacionales y a las ideas de sus inventores nos deja claro que se trata de algo opuesto al determinismo tecnológico. Cuando Sutherland diseñó Sketchpad, Nelson inventó el hipertexto, Kay programó un programa de dibujo, cada nueva característica de los medios computacionales debió ser imaginada, implementada, probada y corregida. O sea que estas nuevas propiedades no fueron el resultado inevitable de la convergencia entre computadoras digitales y medios modernos. Más bien los medios computacionales tuvieron que ser inventados paso a paso. Y fueron inventados que se inspiraron del arte moderno, la literatura, la psicología educativa y cognitiva, la teoría de medios y la tecnología. Kay recuerda que la lectura del libro Understanding Media, de McLuhan, lo hizo darse cuenta que la computadora podía ser un medio y no solo una herramienta49. La primera parte del artículo de Kay y Goldberg se llama “Humanos y medios” y se lee como teoría de medios. Pero ésta no es una típica teoría que describe los medios sino un análisis para crear un plan
48
Alan Kay, Doing with Images Makes Symbols (University Video Communications, 1987), conferencia grabada
en video, http://archive.org/details/AlanKeyD1987/. 49
Alan Kay, “User Interface: A Personal View,” 192-193.
Manovich. Capítulo 1 – El Software Toma el Mando
26 / 33
de acción para crear un nuevo mundo, tal como lo hizo Marx con su análisis del capitalismo, pero esta vez permitiendo a las personas crear sus propios nuevos medios. Quizá el ejemplo más importante de este desarrollo no determinista es la invención de la interfaz gráfica humano-computadora moderna. Ninguno de los conceptos clave de la computación moderna establecidos por Von Neumann hablaba de una interfaz interactiva. A finales de los 40s y 50s el Laboratorio Lincoln del MIT desarrollo interfaces gráficas usadas en SAGE (los centros de control creados en EUA para recolectar información de estaciones de radar y coordinar contraataques). Pero la interfaz de SAGE fue diseñada para tareas muy específicas y no tuvo efecto en el desarrollo de la computacional comercial. Sin embargo, sí orientó hacia una nueva computadora interactiva pequeña, la TX-2, usada por estudiantes del MIT para explorar lo que podías hacerse con una “computadora interactiva” (es decir, computadoras con una pantalla visual). Algunos alumnos empezaron a crear juegos, entre ellos Spacewars (1960). Sutherland fue uno de esos estudiantes que exploró las posibilidades de la computación visual interactiva usando TX-2. Todo esto lo llevó a crear Sketchpad (su tesis de doctorado) que influenció a Kay y demás pionera de la computación cultural de los 60s. El camino teórico que condujo de SAGE a la GUI moderna en PARC fue muy largo. Según Kay, el paso clave para él y su grupo fue pensar en la computadora como un medio para aprender, experimentar y de expresión artística que fuera usada no sólo por adultos sino también por “niños de todas las edades” 50. Un gran influencia en Kay fueron las teorías del psicólogo Jerome Bruner que estaban basadas en las ideas de Jean Piaget. Se había identificado que los niños pasan por distintas etapas en su desarrollo: kinésica, visual y simbólica. Piaget pensaba que cada etapa existía sólo en un periodo particular mientras que Bruner creía que hay mentalidades separadas que corresponden a cada etapa y que siguen existiendo a medida que crece el niño. También sugería que las mentalidades no se reemplazan sino que se añaden. Bruner dio nuevos nombres a estas mentalidades: activa, icónica y simbólica. Cada mentalidad se desarrolla en diferentes etapas de la evolución humana y siguen existiendo en la edad adulta. La interpretación de Kay a estas teorías fue que la interfaz de usuario debía hacer referencia a estas tres mentalidades. Al contrario de una interfaz basada en líneas de comando, que no es accesible a niños y fuerza al adulto a usar su mentalidad simbólica, la nueva interfaz debía usar también las mentalidades emotivas e icónicas. Kay también tomó en cuenta numerosos estudios de creatividad en matemáticas, ciencia, música, arte, y demás áreas, en donde se veía que el trabajo inicia con mentalidades icónicas y activas51. Esto inspiró en gran medida la idea que si las computadoras iban 50
Alan Kay, “A Personal Computer for Children of All Ages,” Proceedings of the ACM National Conference,
Boston, 1972, http://www.mprove.de/diplom/gui/kay72.html. 51
Alan Kay, “User Interface: A Personal View”, 195.
Manovich. Capítulo 1 – El Software Toma el Mando
27 / 33
funcionar como un medio dinámico para el aprendizaje y la creatividad, deberían permitir a sus usuarios pensar no sólo mediante símbolos sino también con acciones e imágenes. El grupo de PARC materializó la teoría de múltiples mentalidades de Bruner en las tecnologías de interfaz de la siguiente manera. El mouse acciona la mentalidad activa (identifica en dónde estás, manipula). Íconos y ventanas accionan la mentalidad icónica (reorganiza, compara, configura). Finalmente, el lenguaje de programación Smalltalk permite a los usuario accionar su mentalidad simbólica (combina largas cadenas de razonamiento, haz abstracción) 52. Actualmente, la GUI contemporáneas relacionan constantemente diferentes mentalidades. Usas un mouse para moverte por la pantalla, como si fuera un espacio físico, y para apuntar hacia objetos. Todos los objetos están representados por íconos visuales. Haces doble clic en un ícono para activarlo o, si es un fólder, para examinar su contenido. Esto se puede ver como el equivalente a tomar y examinar objetos del mundo físico. Cuando una ventana se abre es posible alternar entre diferentes vistas, ver los datos como íconos o listas que pueden ser ordenada de acuerdo al nombre, fecha de creación y demás información simbólica (es decir, texto). Si no encuentras los archivos que estás buscando puedes hacer una búsqueda en todo el disco duro de la computadora, seleccionando palabras clave. Como lo demuestran estos ejemplos, el usuario está cambiando contantemente entre mentalidades, usando cada vez las más adecuado según sus necesidades. Además de los principios generales de la interfaz, otras técnicas desarrolladas por Kay también se pueden entender como un uso de las diferentes mentalidades. Por ejemplo, la interfaz de usuario de PARC fue la primera que corrió en una pantalla basada en bit mapeados lo que daba a los usuarios la posibilidad de mover el cursor y abrir varias ventanas, pero también de escribir programas de en Smalltalk y poder ver el resultado visual inmediatamente. Cualquier modificación en el código mostraba su resultado en la imagen producida por el programa. Hoy esta posibilidad es fundamental en el uso de las computadoras, de las ciencias hasta la visualización de datos interactiva. Otro ejemplo que no podemos dejar de lado son todos los editores de medios creados en PARC: programas de dibujo, ilustración, música, etc. Estos programas hacían que el usuario cambiara de mentalidad de una manera que no era posible de lograrse con los medios físicos. Imagina los objetos en un programa de animación, que pueden ser dibujados a mano o escribiendo código Smalltalk. Como lo señalan Kay y Goldberg, “el control de una animación se puede lograr fácilmente con una simulación Smalltalk. Por ejemplo, una animación de objetos que saltan es más fácil de hacer con unas cuantas líneas de código que expresan la clase de objetos saltantes en términos físicos” 53.
52 53
Ibid., 197. Kay and Goldberg, “Personal Dynamic Media,” 399.
Manovich. Capítulo 1 – El Software Toma el Mando
28 / 33
Al definir el nuevo tipo de interfaz de usuario, Kay y sus colaboradores crearon un nuevo tipo de medio. Si aceptamos la teoría de las múltiples mentalidades de Bruner y su interpretación por Kay, podemos concluir que el nuevo medio que inventaron puede hacer cosas que los medios precedentes no. Esto puede ayudar a explicar el éxito y popularidad de la GUI que, 40 años más tarde, sigue dominando la interacción con la computadoras. La gente la prefiere no porque sea “fácil” o “intuitiva”, sino porque les ayuda a pensar, descubrir y crear nuevos conceptos mediante el uso de múltiples mentalidades juntas. En pocas palabras, mientras que muchos expertos en interacción humanocomputadora siguen pensando que la interfaz ideal debe ser “invisible” y dejar a los usuario hacer su trabajo, si volteamos hacia las teorías de Kay y Goldebegr tenemos una manera muy diferente de comprender la identidad de la interfaz. Kay y PARC pensaban en la interfaz como un medio diseñado en cada detalle ara facilitar el aprendizaje, descubrimiento y creatividad. Con el énfasis que la sociedad de la información otorga a la innovación permanente, a la educación continua y a la creatividad, es apropiado señalar que a medida que se construía, un nuevo medio estaba siendo inventado para facilitar sus necesidades. En 1973, Daniel Bell publicó su influyente The Coming of Post-Industrial Society, al mismo tiempo que Kay, Goldberg, Chuck Thacker, Dan Ingalls, Larry Tesler y otros miembros del The Learning Research Group crearon el paradigma de la computación moderna. O más bien reinventaron la computadora, la transformaron de una veloz calculadora a un sistema interactivo para el razonamiento y la experimentación. En breve, de una herramienta a un metamedio. Desafortunadamente cuando la GUI se volvió un éxito comercial con la Macintosh en 1984, sus origines intelectuales fueron olvidados. La razón de ser de la GUI se redujo a un argumento simplista: como se trata de algo nuevo para el usuario, debe ser “intuitiva”, debe recrear cosas familiares del mundo físico. Es sorprendente que esta idea siga todavía vigente en nuestros días, aún con las generaciones de “nativos digitales”. Por ejemplo, las recomendaciones de Apple para desarrollar interfaces humanas para iPhone (marzo, 2010) dice: “cada que sea posible, modela los objetos y acciones de tu aplicación con base en objetos y modelos del mundo real. Esta técnica permite a los usuarios principiantes entender rápidamente cómo funciona tu aplicación. Los folders son una metáfora clásica de software. Como la gente archiva sus documentos en carpetas en el mundo real, inmediatamente entienden la idea de poner datos en una carpeta de la computadora” 54. Lo irónico es que estas recomendaciones también aplican para desarrolladores de iPad, un producto que representa un paso más hacia la migración de un mundo físico a un mundo totalmente digital. Los
54
http://developer.apple.com/iphone/library/documentation/UserExperience/Conceptual/MobileHIG/PrinciplesAn dCharacteristics/PrinciplesAndCharacteristics.html#//apple_ref/doc/uid/TP40006556-CH7-SW1, Abril 5, 2010.
Manovich. Capítulo 1 – El Software Toma el Mando
29 / 33
medios viejos son recordados y valorados constantemente, pero también se nos pide que los olvidemos.
La computadora como meta-medio Como lo hemos dicho, el desarrollo de los medios computacionales sigue una historia opuesta a los medios precedentes. Pero en cierto sentido, la idea de que un nuevo medio gradualmente descubre su lenguaje sí aplica a los medios computacionales después de todo. Así como sucedió con los libros impresos y el cine, este proceso tomó unas cuantas décadas. Cuando las primeras computadoras fueron armadas en los años 40s, no se podían usar para fines culturales, de expresión y comunicación. Lentamente, con el trabajó de Sutherland, Engelbart, Nelson, Papert y otros en los 60s, se desarrollaron las ideas y técnicas que hicieron de la computadora una “máquina cultural”. Uno podía crear y editar texto, hacer dibujos, moverse alrededor de un objeto virtual, etc. Y finalmente, cuando Kay y sus colegas en PARC sistematizaron y refinaron estas técnicas para ponerlas bajo el techo de la GUI, haciéndolas accesibles a multitudes de usuarios, fue cuando la computadora digital obtuvo su propio lenguaje (en términos culturales). Fue hasta que la computadora se volvió un medio cultural y no sólo una máquina versátil. La computadora se convirtió en algo que ninguno otro medio había sido antes. Esto que surgió no era otro medio sino, como insisten Kay y Goldeberg en su artículo, algo cualitativamente diferente e históricamente sin precedentes. Para marcar esta diferencia, introdujeron el término “meta-medio”. Este meta-medio es sui generis de varias formas. Una de ellas ya ha sido discutida aquí ampliamente (la capacidad de representar a los demás medios y de añadirles nuevas propiedades). Kay y Goldberg también hablan de otras formas cruciales. El nuevo meta-medio es “activo (puede responder a búsquedas y experimentos) de tal medida que los mensajes pueden involucrar al aprendiz en una conversación de ida y vuelta”. Para Kay, quien estaba profundamente interesado en la educación y en los niños, esta forma era particularmente importante porque “nunca se había logrado antes, excepto en el caso de profesores individualizados”
55
. Además, el nuevo meta-medio puede soportar
“virtualmente todas las necesidades de información de su usuario”. Puede servir de “herramienta de programación y resolución de problemas” y de “memoria interactiva para el almacenamiento y manipulación de datos” 56. Pero quizá la forma más importante desde el punto de vista de la historia de los medios es que el meta-medio de la computadora es simultáneamente un conjunto de diferentes medios y un sistema para generar nuevas herramientas de medios y nuevos tipos de 55 56
Kay & Goldberg, “Personal Dynamic Media,” 394. Ibid., 393.
Manovich. Capítulo 1 – El Software Toma el Mando
30 / 33
medios. En otras palabras, una computadora puede ser usada para crear nuevas herramientas de trabajo con diferentes tipos de medios existentes y crear otras que aún no han sido inventadas. En la introducción de su libro Expressive processing, Noah Wardrip-Fruis articula perfectamente esta “meta-generatividad” que es específica a las computadoras: Una computadora puede simular una máquina de escribir (recibiendo información de un teclado y acomodando pixeles en la pantallas que corresponden a las teclas) pero también puede ir mucho más lejos: ofrece tipografía, corrector de ortografía automático, reacomodo de secciones de un documento (mediante simulaciones de “cortar” y “pegar”), transformaciones programáticas (como “buscar” y “reemplazar”), e incluso autoría colaborativa entre grandes grupos distribuidos (como Wikipedia). Esto es para lo que fueron diseñadas las computadoras modernas (o en su nombre más largo “computadoras digitales electrónicas de programas almacenados”): la creación continua de nuevas máquinas, abriendo
nuevas
posibilidades,
mediante
la
definición
de
nuevos
procesos
computacionales57. Haciendo analogía con la alfabetización impresa, Kay modula esta propiedad de la siguiente forma: “la habilidad de “leer” un medio significa que se puede acceder a materiales y herramientas generadas por otros. La habilidad de “escribir” en un medio significa que se pueden generar materiales y herramientas para los demás. Se deben poseer ambas para ser alfabetizado” 58. En consecuencia, los esfuerzos de Kay en PARC estuvieron dedicados al desarrollo del lenguaje de programación Smalltalk. Todas las aplicaciones de producción de medios y la misma GUI fueron escritos en Smalltalk. Esto dio, como consecuencia, consistencia a todas las aplicaciones y facilitó el aprendizaje de nuevos programas. Incluso más importante, según la visión de Kay, el lenguaje Smalltalk permitiría a sus usuario principiantes escribir sus propias herramientas y definir sus propios medios. Todas las aplicaciones de producción de medios, que pudieran ser ofrecidas por la computadora, serían también ejemplos e inspiración para que los usuarios los modificaran e escribieran nuevas aplicaciones. Así, gran parte del artículo de Kay y Goldberg está dedicado a describir el software desarrollo por los usuarios de su sistema: “un sistema de animación programado por animadores”; “un sistema de dibujo y pintura programado por niños”; “una simulación de hospital programada por un tomador de 57
Noah Wardrip-Fruin, Expressive Processing: Digital Fictions, Computer Games, and Software Studies (The MIT
Press, 2009). 58
Alan Kay, “User Interface: A Personal View,” in The Art of Human-Computer Interface Design, editado por
Brenda Laurel (Reading, Mass,” Addison-Wesley, 1990), p. 193.
Manovich. Capítulo 1 – El Software Toma el Mando
31 / 33
decisiones”; “un sistema de animación de audio programado por músicos”; “un sistema de partituras musicales programado por un músico”; “un circuito electrónico diseñado por un estudiante de secundaria”. Como se puede ver, esta lista corresponde a la serie de ejemplos en el artículo. Kay y Golderbeg alternan deliberadamente entre tipos de usuarios (profesionales, artistas, estudiantes de secundaria, niños) con el fin de mostrar que cualquiera puede desarrollar herramientas con el ambiente de programación Smalltalk. La serie de ejemplos también intercala astutamente simulaciones de medios con otros tipos de simulaciones para enfatizar que los medios son sólo un caso particular de la capacidad general de la computadora para simular todo tipo de proceso y sistema. Esta yuxtaposición de ejemplos ofrece una manera interesante de pensar los medios computacionales. Así como un científico una simulaciones para probar condiciones diferentes y escenarios posibles, también los diseñadores, escritores, músicos, cineastas, arquitectos pueden “probar” diferentes horizontes creativos en donde se pueden ver cómo diferentes parámetros pueden “afectar” al proyecto. Esto último es especialmente fácil porque hoy muchas de las interfaces de producción de medios no sólo presentan explícitamente dichos parámetros pero además permiten al usuario modificarlos. Por ejemplo, cuando el panel de formato de Microsoft Word muestra la tipografía usada en determinado texto seleccionado, ésta se presentan en una columna al lado de todas las demás tipografías disponibles. Para aplicar diferentes fuentes sólo basta con seleccionar el nombre del menú desplegable. El hecho de que los usuarios pudieran escribir sus propios programas era crucial para la visión de “meta-medio” que Kay estaba inventando en PARC. Según Wardrip-Fruin, la investigación de Engelbart seguía un objetivo similar: “la visión de Engelbart veía a los usuarios creando, compartiendo y modificando sus herramientas y las de los demás” 59 . Lamentablemente, cuando se lanzó al mercado Macintosh en 1984, ésta no incluía un ambiente de programación fácil de usar. HyperCard, escrito para Macintosh en 1987 por Bill Atkinson (quien era un alumno de PARC), dio a los usuario la posibilidad de crear rápidamente cierto tipo de aplicaciones, pero no tenía la versatilidad y amplitud imaginada por Kay. Sólo en fechas recientes, con la alfabetización computacional y el desarrollo de varios lenguajes de script (Perl, PHP, Python, ActionScript, Vbscript, JavaScript, etc.), más gente se ha puesto a crear sus propias mediante escribiendo software. Un buen ejemplo de ambiente de programación contemporáneo que, a mi parecer, está apegado a la visión de Kay es Processing60. Processing está construido sobre el lenguaje Java y se ha vuelto muy popular entre artistas y diseñadores por su estilo simple y su extensa cantidad de librerías de medios. Se puede usar para bocetar rápidamente ideas pero también para desarrollar programas de medios complejos. De hecho, 59
Noah Wardrip-Fruin, introducción a Douglas Engelbart y William English, “A Research Center for Augmenting
Human Intellect” (1968), New Media Reader, 232. 60
www.processing.org.
Manovich. Capítulo 1 – El Software Toma el Mando
32 / 33
atinadamente, los documentos de Processing se llaman “bocetos” 61. En palabras de sus inventores y principales desarrolladores, Ben Fry y Casey Reas, el lenguaje de Processing se enfoca “en el proceso y creación, más que en los resultados”
62 .
Mencionemos otro ambiente de programación que
igualmente se vuelto muy popular: MAX/MSP y su sucesor PureData, ambos desarrollados por Miller Puckette. Al final del artículo de 1977, que nos ha servido como base de discusión en este capítulo, Kay y Goldberg resumen sus argumentos en una frase, que para mí es la mejor formulación que existe sobre lo que son, cultural y artísticamente, los medios computacionales. Ellos llaman a la computadora un “meta-medio”, cuyo contenido es “una amplia gama de medios existentes y aún no inventados”. En otro artículo, publicado en 1984, Kay amplía esta definición. Para cerrar este capítulo, me gustaría citarlo: “[la computadora] es un medio que puede simular dinámicamente los detalles de cualquier otro medio, incluyendo medios que no existen físicamente. No es una herramienta, aunque puede actuar como muchas de ellas. Se trata del primer metamedio y, como tal, tiene niveles de libertad para la representación y expresión nunca antes vistos y apenas investigados” 63.
61 62 63
http://www.processing.org/reference/environment/. http://wiki.processing.org/w/FAQ. Alan Kay, “Computer Software,” Scientific American (September 1984), 52. Citado en Jean-Louis Gassee, “The
Evolution of Thinking Tools,” in The Art of Human-Computer Interface Design, p. 225.
Manovich. Capítulo 1 – El Software Toma el Mando
33 / 33
View more...
Comments