introduccion informatica

Share Embed Donate


Short Description

Descripción: Origen de la computación, Precursores de la informática, Primeras computadoras eléctricas, Generación de Co...

Description

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

Trabajo Práctico Nº1 Introducción Histórica

1. 1 Origen de la computación: Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa. Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.

La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas. Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas. El mundo no estaba listo, y no lo estaría por cien años más. En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como _____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.

1.2 Soportes de cálculos diseñados por el hombre: La historia del tratamiento de la información es prácticamente tan antigua como el hombre, dado que éste siempre ha buscado medios para conseguir realizar cálculos que le facilitasen su vida ordinaria. El primer instrumento de cálculo conocido es el ábaco. Su creación se atribuye a las primeras civilizaciones chinas, aunque las primeras fuentes documentadas sobre la utilización de ábacos datan del año 2600 a. C. en Mesopotamia. El ábaco está constituido por un conjunto de varillas en las que se insertan una serie de cuentas o bolitas que adquieren valores de diferente peso según su posición relativa. Hay que esperar hasta el siglo XVII para encontrar la primera máquina automática diseñada por el hombre con el objeto de realizar cálculos. En 1642, Blaise Pascal, físico y matemático francés, diseña y construye una máquina de sumar mecánica. Esta máquina estaba compuesta por multitud de engranajes que permitían sumar dos operandos. Disponía de unas ruedas giratorias de diez dientes en cada uno de los cuales se representaban los dígitos del 0 al 9. Se trataba de una máquina rudimentaria y pesada de utilizar pero desde el punto de vista técnico constituyó un gran avance de la ingeniería. En 1833, el matemático inglés Charles Babbage diseñó la primera máquina de calcular capaz de ser gobernada por un programa, y que recibe el nombre de máquina analítica. Constaba de un dispositivo mecánico automático para realizar las operaciones, una memoria capaz de almacenar los datos y dispositivos que permitían la entrada y salida de datos. Dichos dispositivos se basaban en el sistema de tarjetas perforadas ideado por Jackard en la industria textil y desarrollado por Ada Byron para la máquina de Babbage. Sin embargo esta máquina no llegó a ser construida dadas las dificultades técnicas de la misma, demasiados complejas para la época. Aún así, en el diseño de la máquina de Babbage se encuentran ya los fundamentos del ordenador moderno, razón por la cual suele ser considerado el “padre” de la Informática. A mediados del siglo XIX aparecen los primeros dispositivos de cálculo electromagnéticos, basados en el uso de relés. En 1886, Hermann Hollerit crea una máquina electromagnética capaz de leer tarjetas perforadas y de realizar tareas de recuento de datos. Hollerit trabajó en 1880 para el censo de EE.UU., tarea que ocupó a 500 personas durante 7 años. Al utilizar su nueva máquina para la realización de un nuevo censo en 1890 se invirtió un tiempo récord de 4 semanas. Años más tarde, en 1924, Hollerit fundaría la compañía IBM (International Bussiness Machine). En la primera mitad del siglo XX y tras la invención de diversas máquinas automáticas destinadas a la lectura y tratamiento de datos, los investigadores se dieron cuenta de la dificultad de fabricar una máquina de cálculo basada en la utilización del sistema decimal, de forma que empezaron a buscar otras soluciones. Así, R. Valtat presenta en 1932 la patente de una máquina de calcular basada en la utilización del sistema binario de numeración. Por la misma época, Konrad Zuse inicia el desarrollo de una máquina de calcular electromecánica, y en 1941 presenta la Zuse 3, la primera _____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

máquina con un mecanismo de cálculo en sistema binario (aunque no llegó a funcionar correctamente). Anteriormente, en 1939, J. Atanasoff y C. Berry de la Universidad de Iowa construyeron la ABC (Atanasoff-Berry Computer), que utilizaba también lógica binaria e incorporaba algunos componentes electrónicos, aunque su logro no tuvo gran repercusión. La II Guerra Mundial proporcionó un impulso decisivo al desarrollo de los ordenadores. En 1943 entró en funcionamiento la máquina Colossus diseñada por el equipo de Blenchey Park dirigido por Alan Turing con el fin de decodificar los mensajes cifrados por los alemanes mediante la máquina Enigma, aunque su existencia se mantuvo en secreto hasta varios años después de finalizada la contienda. En 1944, Howard Aiken, un ingeniero de la empresa IBM que colaboraba con la universidad de Harvard, presenta el ordenador Mark I, constituido por relés electromecánicos. El ordenador constaba de 250.000 dispositivos y para conectarlos se usó más de 800 Km de cable. Medía 15 m y disponía de una entrada de datos mediante tarjetas perforadas, un dispositivo central de cálculo, un elemento de memoria y un sistema de salida de datos. Una vez finalizada la II Guerra Mundial, continuaron los estudios en el campo de las computadoras realizados durante el periodo de guerra. Así, en 1945 entra en funcionamiento el primer ordenador propiamente dicho: el ENIAC (Electronic Numerical Integrator And Calculator), desarrollado por la universidad de Pensilvania por J. Eckert y J. Mauchly. Su funcionamiento se basaba en el uso de válvulas electrónicas. Gracias a la incorporación de estos elementos la velocidad de cálculo aumentó unas 2.000 veces con respecto a las máquinas basadas en relés electromecánicos. Sus dimensiones eran impresionantes, dado que disponía de más de 18.000 válvulas, ocupaba una superficie de 140 m2 y pesaba 30 Tn. La introducción de datos se realizaba mediante tarjetas perforadas. El ENIAC es considerado el primer ordenador electrónico propiemente dicho y con él se inicia la llamada Primera Generación de ordenadores, basada en el uso de válvulas electrónicas. Con la invención de las válvulas electrónicas el desarrollo de los ordenadores se acelera paralelamente a la mejora de las características de funcionamiento de las válvulas. El funcionamiento de las válvulas electrónicas se basa fundamentalmente en el control del paso de electrones mediante la ionización de un gas encerrado en la válvula y su aspecto exterior es parecido al de una lámpara. Sin embargo, la vida media de las válvulas era muy corta y en consecuencia el mantenimiento de estas enormes máquinas era muy costoso. En 1951, de nuevo Eckert y Mauckly presentaron el ordenador UNIVAC, también de válvulas. Constituye el primer ordenador comercial, pues los anteriores ordenadores fabricados se habían diseñado con fines militares. Otros ordenadores de 1ª Generación fueron el EDVAC y las series 600 y 700 de IBM. (Univac 1105 ,80 y 90 ) Uno de los mayores hitos de la historia de la electrónica y de la informática tiene lugar en 1947 con la invención del transistor por parte de J. Bardeen, W. Sockley y W. Brattain, científicos de la empresa Bell Telephone y ganadores por ello del premio Nobel de Física.

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

El transistor es un dispositivo electrónico de estado sólido, constituido por un material semiconductor (silicio o germanio) que actúa como amplificador y conmutador de la corriente eléctrica. Estos dispositivos requieren menor coste de fabricación que las válvulas, ocupan mucho menos espacio y son más rápidos en el control de las señales eléctricas. La utilización del transistor supuso por tanto una enorme mejora de las prestaciones y funcionamiento de los ordenadores. Durante los años 50 se fabricaron diversos modelos de ordenadores basados en la utilización de transistores y constituyen la denominada Segunda Generación de ordenadores. Ejemplos de este tipo de ordenadores fueron la CDC 3000, la IBM 7090 o la RCA 501. (series 1400 y 1700 de IBM, CDC 3500, Atlas RCA 501,601) En 1959, la empresa Texas Instruments fabrica el primer circuito integrado o chip, diseñado por J. Kilby, que también fue galardonado por ello con el premio Nóbel. Un chip está constituido por un conjunto de transistores fabricados todos ellos en un mismo sustrato, constituyendo éste el primer paso en la miniaturización de la electrónica. La utilización de circuitos integrados supone un ahorro aún mayor de espacio dado que las conexiones entre los transistores están realizadas directamente en el propio chip con lo que se evita el cableado y mejora el funcionamiento. Los ordenadores basados en esta tecnología constituyen la Tercera Generación, que se va a desarrollar durante los años 60. 1.3 Definiciones: •

Computación: El concepto "Computación" refiere al estudio científico que se desarrolla sobre sistemas automatizados de manejo de informaciones, lo cual se lleva a cabo a través de herramientas pensadas para tal propósito. Es de este modo, que aparecen conceptos como la PC, Tecnología, Internet e Informática, que se vinculan entre sí en el marco del procesamiento y movilidad de la información. Las Ciencias de la Computación supone un área muy profundo de análisis, que tiene sus orígenes en 1920, cuando "computación" hacía referencia a los cálculos generados por la propia persona. Luego, con la llegada de las PC´s, la historia y el significado de este concepto se ampliaría sobre nuevos horizontes, distinguiendo los algoritmos que forman parte del desarrollo de las soluciones. En resumen, "computación" implica las órdenes y soluciones dictadas en una máquina, comprendiendo el análisis de los factores involucrados sobre este proceso, dentro de los cuales aparecen los lenguajes de programación. De este modo, se automatizan tareas, generando datos concretos de forma ordenada.



Informática: La informática es la ciencia que tiene como objetivo estudiar el tratamiento automático de la información a través de la computadora. Esta definición, si bien es bastante amplia, se debe a que el concepto de informática también es amplio. Para referirse a esta ciencia, también suele utilizarse el término Computación o Ciencia de la Computación, con la diferencia de orígenes. El término informática proviene de la conjunción de las palabras francesas “information” y

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

“automatique” que derivaron en la palabra “informatique”, creada por el ingeniero Dreyfus. Mientras que computación es de origen inglés, refiriéndose a ella como Computer Science. En cuanto al contenido de la Informática, se encarga de estudiar todo lo relacionado con las computadoras que incluye desde los aspectos de su arquitectura y fabricación hasta los aspectos referidos a la organización y almacenamiento de la información. Incluso contiene las cuestiones relacionadas con la robótica y la inteligencia artificial. Para poder realizar estos estudios y cumplir con sus objetivos, la Informática utiliza una conexión con otras disciplinas como la Matemática, la Física y la Ingeniería, entre otras. Y si bien es una ciencia que se consolidó como tal hacia la década de 1940, con la aparición de la primera computadora, su crecimiento en estas décadas es tan amplio como las ventajas que significó la automatización de los procesos de la información. •

Procesamiento: En informática, cuando hablamos de proceso nos referimos a un concepto que se maneja dentro del ámbito de los sistemas operativos, como por ejemplo Windows, GNU/Linux, Mac OS X u otros. En este contexto, un proceso se refiere a las instrucciones que ejecutará el microprocesador mientras lee un programa determinado. Esto también implica a la memoria reservada y a sus contenidos, el estado de ejecución en determinado momento, y la información que permite al sistema operativo planificar. Entonces, es el mismo sistema operativo el que inicia o termina procesos, y el que se encarga de la comunicación entre los mimos: esto último se produce a partir de que determinados procesos hacen peticiones al SO. En el caso de que un proceso cree otro proceso por sí mismo (algo que se da todo el tiempo), ese derivado es llamado fork, lo cual significa bifurcación. Tales procesos bifurcados pueden no compartir el espacio de memoria con el proceso creado, siendo independientes, o pueden compartir tal espacio de memoria. Siendo que el procesador o CPU de una computadora ejecutará las instrucciones de los procesos una tras otra (o intercaladas, en el caso de un sistema multitarea), estas se encuentran a mano almacenadas en la memoria principal, generalmente memoria RAM. Tales instrucciones no son otra cosa que programas de computación ejecutándose en lenguaje de máquina, es decir, en código binario solamente entendible por computadoras.



Hardware: La palabra "Hardware" inmediatamente está haciendo referencia a los componentes que forman parte de una computadora. Tal como el software comprende las aplicaciones (sistemas operativos, programas antivirus, etc), el Hardware comprende el mouse, la placa madre, el monitor, y demás unidades vinculadas "físicamente" al equipo. Existen 2 tipos de categorías importantes en el campo del "Hardware". Por un lado, el Básico, que hace referencia a las herramientas indispensables para

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

correr una PC, y por otro lado, está el "Hardware Complementario", que distingue a aquellos extras que uno puede sumar a la máquina, para jugar e ir más lejos de sus posibilidades originales. Es importante también, destacar las categorías de Periféricos de Entrada, Salida, o ambas (E/S). El Hardware de Salida, como puede serlo un monitor, describe a aquellos que muestran resultados, mientras que el Hardware de Entrada está regido por aquellos dispositivos que hacen posible la recepción de datos, como por ejemplo el teclado. Por su parte, los que son capaces de soportar ambas visiones (Entrada y Salida) dan lugar a unidades, como por ejemplo un Hard Drive -Disco Duro-, que envían y reciben información, entre la PC y el usuario. •

Software: Palabra proveniente del inglés, también denominado equipamiento lógico o soporte lógico, es el conjunto de los componentes necesarios para hacer posible la realización de una tarea específica, en contraposición a los componentes físicos del sistema (hardware). Esto incluye aplicaciones informáticas tales como un procesador de textos, que permite al usuario realizar una tarea, y software de sistema como un sistema operativo, que permite al resto de programas funcionar adecuadamente, facilitando la interacción con los componentes físicos y el resto de aplicaciones.

1.4 Precursores de la informática: •

Blaise Pascal: Blaise Pascal, inventó y construyó en el siglo XVII un mecanismo (Pascalina) el cual utilizaba para realizar operaciones aritméticas. Fue el primer calculador lo bastante seguro como para ser lanzado al mercado comercialmente, este joven Pascal presentó su máquina para sumar en el año 1.642.



Gottfried Leibniz: Descubrió el sistema binario, fundamento de virtualmente todas las arquitecturas de las computadoras actuales



Herman Hollerith: Fue un estadista que inventó la máquina tabuladora. Es considerado como el primer informático, es decir, el primero que logra el tratamiento automático de la información (Informática = Información + automática).



Charles Babbage: Diseñó y parcialmente implementó una máquina a vapor, de diferencia mecánico para calcular tablas de números. También diseñó, pero nunca construyó, la máquina analítica para ejecutar programas de tabulación o computación; por estos inventos se le considera como una de las primeras personas en concebir la idea de lo que hoy llamaríamos una computadora.



Von Neumann: le dio su nombre a la arquitectura de von Neumann, utilizada en casi todos los computadores, por su publicación del concepto. Virtualmente, cada computador personal, microcomputador, mini computador y supercomputador es una máquina de von Neumann. También creó el campo de

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

los autómatas celulares sin computadores, construyendo los primeros ejemplos de autómatas auto replicables con lápiz y papel. 2.

Primeras computadoras eléctricas:

En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo. El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neumann (1903 - 1957). Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras. La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos. La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC.

3.

Generación de Computadoras:

Todo el desarrollo de las computadoras suele divisarse por generaciones y el criterio que se determinó para determinar el cambio de generación no está muy bien definido, pero resulta aparente que deben cumplirse al menos los siguientes requisitos: •

La forma en que están construidas.



Forma en que el ser humano se comunica con ellas.

Primera Generación En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características: Estas máquinas estaban construidas por medio de tubos de vacío. _____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

Eran programadas en lenguaje de máquina. En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares). En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos. En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines). Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957. Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado. La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales. Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105. Segunda Generación Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas. Las características de la segunda generación son las siguientes: Están construidas con circuitos de transistores. Se programan en nuevos lenguajes llamados lenguajes de alto nivel. En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas "programar" (alimentarle instrucciones) para _____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, "corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran. Además, para no perder el "programa" resultante había que "guardarlo" (almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales con mejore circuitos, más memoria, unidades de disco flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de la PC. El sortware empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario. El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software. Aparece el concepto de human interface que es la relación entre el usuario y su computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose y más tiempo produciendo. Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema "constante" es que ninguna solución para el uso de los programas es "constante". Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC. Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315. La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601. Tercera generación Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3 _____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

Las características de esta generación fueron las siguientes: Su fabricación electrónica esta basada en circuitos integrados. Su manejo es por medio de los lenguajes de control de los sistemas operativos. La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones). El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares. En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida. En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces. A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos. A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones. Cuarta Generación Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras _____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática". En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo. En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes. Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft). No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo. Quinta Generación En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera: Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad. Manejo de lenguaje natural y sistemas de inteligencia artificial.

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto. 4.

5.

Clases de computadoras: •

Computadora analógica: Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones matemáticas similares (v.g. Exponenciales, Logarítmicas, etc.) pueden entregar la solución muy rápidamente. Pero tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuitería (cambiar el Hardware).



Computadora digital: Están basadas en dispositivos biestables, i.e., que sólo pueden tomar uno de dos valores posibles: ‘1’ ó ‘0’. Tienen como ventaja, el poder ejecutar diferentes programas para diferentes problemas, sin tener que la necesidad de modificar físicamente la máquina. Tipos de computadoras:

MICROCOMPUTADORAS Las microcomputadoras son las computadoras más accesibles para cualquier tipo de usuario, son máquinas personales de escritorio. Pequeñas solo en tamaño físico y accesibles económicamente, este tipo de computadoras son tan dinámicas, que lo mismo las puede utilizar un experto en el trabajo como un niño en casa, por esta razón las microcomputadoras son las más conocidas, y ofrecen un sin número de aplicaciones. En un principio solo era posible utilizarlas en ambiente monousuario, esto es un solo usuario a la vez, pero con los avances tecnológicos desde hace ya bastante tiempo este tipo de máquinas pueden ser utilizadas en ambientes multi, incluso como servidores de una red de computadoras. Pequeñas de bajo costo y para múltiples aplicaciones. MINICOMPUTADORAS Al inicio de la década de 1960 hicieron su aparición las minicomputadoras, fabricadas inicialmente por Digital Equipment Corporation (DEC). Estas máquinas son más pequeñas que las macrocomputadoras pero también de un menor costo, son el punto intermedio entre una microcomputadora y una macrocomputadora, en cuanto a su forma de operar se asemeja más a una macrocomputadora ya que fueron diseñadas para: -Entornos de múltiples usuarios, apoyando multiples actividades de proceso al mismo tiempo. - Ofrecer ciertos servicios más específicos - Soportar un número limitado de dispositivos - Pequeñas y de bajo costo - Para múltiples aplicaciones

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

MACROCOMPUTADORAS La macrocomputadora es un sistema de aplicación general cuya característica principal es el hecho de que el CPU es el centro de casi todas las actividades de procesamiento secundario. Por lo general cuenta con varias unidades de disco para procesar y almacenar grandes cantidades de información. El CPU actúa como arbitro de todas las solicitudes y controla el acceso a todos los archivos, lo mismo hace con las operaciones de Entrada/Salida cuando se preparan salidas impresas o efímeras. El usuario se dirige a la computadora central de la organización cuando requiere apoyo de procesamiento. - El CPU es el centro de procesamiento - Diseñadas para sistemas multiusuario SUPERCOMPUTADORAS La Supercomputadora es un sistema de cómputo más grande, diseñadas para trabajar en tiempo real. Estos sistemas son utilizados principalmente por la defensa de los Estados Unidos y por grandes Empresas multimillonarias, utilizan telecomunicaciones a grandes velocidades, para poner un ejemplo estas máquinas pueden ejecutar millones de instrucciones por segundo. Actúa como arbitro de todas las solicitudes y controla el acceso a todos los archivos, lo mismo hace con las operaciones de Entrada/Salida cuando se preparan salidas impresas o temporales. El usuario se dirige a la computadora central de la organización cuando requiere apoyo de procesamiento. - El CPU es el centro de procesamiento -Diseñadas para sistemas multiusuario

6. Arquitecturas de computadoras Von neumann La arquitectura de von Neumann se compone de tres elementos: 1. La Unidad Central de Procesamiento (CPU, por sus siglas en inglés), que es considerada como el cerebro y corazón del computador. Internamente consiste de una Unidad Aritmético-Lógica (ALU), un conjunto de registros y una Unidad de Control (CU). La ALU es donde se realizan todas las operaciones que involucran un procesamiento matemático (particularmente aritmético) o lógico (operaciones booleanas). Los registros permiten el almacenammiento de datos para estas operaciones y sus resultados. En la CU es donde se ejecutan todo el resto de las operaciones (decisión, control, movimiento de datos). Una CPU con todos estos elementos implementada en un solo chip recibe el nombre de microprocesador. 2. La memoria, que es donde datos y programa es almacenado. La memoria puede ser visto como un arreglo unidimensional finito en la que cada localidad es identificada por un valor asociado a su posición y que es comunmente llamado dirección. Existen diversos tipos de memoria, identificados por el tipo de tecnología usada, aunque para un computador son generalmente clasificadas en dos grandes grupos por tipo de uso al que de destina. La _____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

memoria RAM (Random Access Memory, Memoria de Acceso Aleatorio) y que es aquella destinada al almacenamiento de datos y programas (incluyendo al sistema operativo), es considerada temporal o de tipo volátil ya que pierde si contenido cuendo el computador es apagadoo reinicializado. La memoria ROM es aquella de tipo permanente, aun cuando el computador sea desenergizado mantendrá su contenido. Es usada principalmente para el almacenamiento de pequeños programas destinados a la adminsitración básica de recursos, especialmente de entrada y salida. 3. Las interfaces de entrada y salida (I/O). destinadas a liberar de trabajo a la CPU en la comunidación con dispositivos de entrada (teclados, ratones), salida (impresoras) y entrada-salidas (discos, cintas). Estos tres elementos están interconectados a través de un conjunto de líneas que llevan instrucciones (control bus), datos (data bus) y que permiten dar los valores de direcciones de memoria y dispositivos (memory bus).

Características de las Maquinas No Von Neumann: •

Cuello de von Neumann: o El procesador ejecuta una instrucción por vez o Comunicación con Memoria y E/S empeoran la cosas..



Mejoras: o Buses especializados (DSP’’s usan buses de address y datos s usan separados para instrucciones y operandos) o Interrupciones o Unidades de punto flotante o Caches o Pipelines



Otro enfoque: apartarse de la arquitectura clasica dee von Neumann



Agregar procesadores es una posibilidad



Los sistemas de computo (high performance) estan equipados con mas de 1 millon de procesadores.



El procesamiento paralelo en una de las formas de mejorar el poder de computo.

7. Clasificación del desarrollo de software: Se lo puede clasificar por las versiones que se van obteniendo al momento en que se va desarrollando el software.

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

Etapa

Características

Pre-alfa

La fase conocida como pre-alfa se publica a veces antes del lanzamiento de una versión alfa o beta. En contraste con la versión alfa y las versiones beta, la pre-alfa no tiene sus características completas. Los diseñadores todavía están determinando en esta etapa exactamente qué funcionalidades debe tener el producto. Tales etapas se pueden llamar también development releases o nightly builds.

Alfa

La versión alfa de un producto es la primera para la que el equipo de desarrollo decide que implementa todas las funcionalidades especificadas en los requisitos. Es la primera versión del programa que se envía a los verificadores para probarla. Algunos equipos de desarrollo utilizan el término alfa informalmente para referirse a una fase donde un producto todavía es inestable, aguarda todavía a que se eliminen los errores o a la puesta en práctica completa de toda su funcionalidad, pero satisface la mayoría de los requisitos. El nombre se deriva de alfa, la primera letra en el alfabeto griego.

Beta

Una versión beta o lanzamiento beta representa generalmente la primera versión completa del programa informático o de otro producto, que es probable que sea inestable pero útil para que las demostraciones internas y las inspecciones previas seleccionen a clientes. Algunos desarrolladores se refieren a esta etapa como inspección previa (preview) o como una inspección previa técnica (technical preview [TP]). Esta etapa comienza a menudo cuando los desarrolladores anuncian una congelación de las características del producto, indicando que no serán agregadas más características a esta versión y que solamente se harán pequeñas ediciones o se corregirán errores. Las versiones beta están en un paso intermedio en el ciclo de desarrollo completo. Los desarrolladores las lanzan a un grupo de probadores beta o betatesters (a veces el público en general) para una prueba de usuario. Los probadores divulgan cualquier error que encuentran y características, a veces de menor importancia, que quisieran ver en la versión final. Cuando una versión beta llega a estar disponible para el público en general que a menudo es utilizada extensamente por los tecnológicamente expertos o familiarizados con versiones anteriores, como si el producto estuviera acabado. Generalmente los desarrolladores de las versiones betas del software gratuito o de código abierto los lanzan al público en general, mientras que las versiones beta propietarias van a un grupo relativamente pequeño de probadores. En febrero de 2005, ZDNet publicó un artículo acerca del fenómeno reciente de las versiones beta que permanecían a menudo

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

por años y que eran utilizada como si estuvieran en nivel de producción . Observa que Gmail, igual que las noticias de Google, por ejemplo, han estado en beta por un período de tiempo muy largo y no saldrán del estado beta a pesar del hecho de que se han utilizado extensamente. Esta técnica puede también permitir a un desarrollador retrasar el ofrecimiento de apoyo total o la responsabilidad de ediciones restantes. Los receptores de betas altamente propietarias pueden tener que firmar un acuerdo de no revelación. Como esta es la segunda etapa en el ciclo de desarrollo que sigue la etapa de alfa, esta se nombra como la siguiente letra griega beta. Versión candidata a definitiva

El término candidata a definitiva o candidata para el lanzamiento (si traducimos más literalmente desde el término en inglés, release candidate) se refiere a un producto final, preparado para lanzarse como versión definitiva a menos que aparezcan errores que lo impidan. En esta fase el producto implementa todas las funciones del diseño y se encuentra libre de cualquier error que suponga un punto muerto en el desarrollo. Microsoft utiliza frecuentemente este término. Otros términos relacionados incluyen gamma, delta (y tal vez más letras griegas) para versiones que están prácticamente completas pero todavía en pruebas; y omega para versiones que se creen libres de errores y se hallan en el proceso final de pruebas. Gamma, delta y omega son, respectivamente, la tercera, cuarta y última letras del alfabeto griego.

Versión de disponibilidad general

La versión de disponibilidad general (también llamada "dorada") de un producto es su versión final. Normalmente es casi idéntica a la versión candidata final, con sólo correcciones de último momento. Esta versión es considerada muy estable y relativamente libre de errores con una calidad adecuada para una distribución amplia y usada por usuarios finales. En versiones comerciales, puede estar también firmada (usado para que los usuarios finales verifiquen que el código no ha sido cambiado desde su salida. La expresión de que un producto "se ha dorado" significa que que el código ha sido completado y que "está siendo producido masivamente y estará en venta próximamente". El término "dorado" se refiere anecdóticamente al uso del "disco maestro de oro" que fue frecuentemente usado para enviar la versión final a los fabricantes que lo usan para producir las copias de venta al detalle. Esto puede ser una herencia de la producción musical. En algunos casos, sin embargo, el disco maestro está realmente hecho de oro, tanto por apariencia estética como por resistencia a la corrosión. Microsoft y otros usan el término "release to manufacturing" (RTM) para referirse a esta versión (para productos comerciales como Windows XP, tal como "Build 2600 is the Windows XP RTM release"), y "release to Web" (RTW) para productos libremente descargables.

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

Estable/inestable En la programación de código abierto los números de las versiones, o los términos estable e inestable, normalmente distinguen las fases del desarrollo. En el núcleo Linux la versión está formada por cuatro números, separados por un punto. Una cifra impar en el segundo número de la versión indica una versión inestable. En la práctica el uso de números pares e impares para indicar la estabilidad de un producto ha sido usado por otros muchos proyectos de software libre. Este concepto también se aplica al software empaquetado en algunas distribuciones Linux como Debian, de modo que existe una rama o conjunto de paquetes considerados estables y otra rama considerada inestable. Esta última rama aporta versiones de programas más recientes que la estable pero que no están tan probados.

8. Sistemas monousuario y multiusuario: •

Multiusuarios: Los sistemas operativos multiusuarios son capaces de dar servicio a más de un usuario a la vez, ya sea por medio de varias terminales conectadas a la computadora o por medio de sesiones remotas en una red de comunicaciones. No importa el número de procesadores en la máquina ni el número de procesos que cada usuario puede ejecutar simultáneamente. Ej: Windows 95/98/Me de Microsoft ,MacOS y varias distribuciones de Linux.



Monousuarios: Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón.

9. 1 Redes de computadoras: Una red de computadoras (también llamada red de ordenadores o red informática) es un conjunto de equipos (computadoras y/o dispositivos) conectados, que comparten información (archivos), recursos (CD-ROM, impresoras, etc.) y servicios (acceso a internet, e-mail, chat, juegos), etc.

9.2 Ventajas/Desventajas de las redes de computadoras: Entre las ventajas de utilizar una red se encuentran: •

Posibilidad de compartir periféricos costosos como son: impresoras láser, módem, fax, etc.



Posibilidad de compartir grandes cantidades de información a través de distintos programas, bases de datos, etc., de manera que sea más fácil su uso y actualización.

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008 • Reduce e incluso elimina la duplicidad de trabajos. •

Permite utilizar el correo electrónico para enviar o recibir mensajes de diferentes usuarios de la misma red e incluso de redes diferentes.



Reemplaza o complementa minicomputadoras de forma eficiente y con un costo bastante más reducido.



Establece enlaces con mainframes. De esta forma, una Computadora de gran potencia actúa como servidor haciendo que pueda acceder a los recursos disponibles cada una de las Computadoras personales conectadas.



Permite mejorar la seguridad y control de la información que se utiliza, permitiendo el acceso de determinados usuarios únicamente a cierta información o impidiendo la modificación de diversos datos.

Algunas de las Desventajas son: •

Acceder a cualquier información a lo largo de una red es más lento que acceder a su propia computadora.



Una mayor complejidad añade nuevos problemas para manejar.



Es posible una menor adaptación individual en los programas y carpetas compartidas. Todos tendrán que seguir las mismas con- venciones para guardar y para nombrar los archivos para que así también los otros puedan encontrar los archivos correctos.

9.3 Tipos de redes: Clasificación de las redes según su tamaño y extensión: •

Redes LAN. Las redes de área local (Local Area Network) son redes de ordenadores cuya extensión es del orden de entre 10 metros a 1 kilómetro. Son redes pequeñas, habituales en oficinas, colegios y empresas pequeñas, que generalmente usan la tecnología de broadcast, es decir, aquella en que a un sólo cable se conectan todas las máquinas. Como su tamaño es restringido, el peor tiempo de transmisión de datos es conocido, siendo velocidades de transmisión típicas de LAN las que van de 10 a 100 Mbps (Megabits por segundo).



Redes MAN. Las redes de área metropolitana (Metropolitan Area Network) son redes de ordenadores de tamaño superior a una LAN, soliendo abarcar el tamaño de una ciudad. Son típicas de empresas y organizaciones que poseen distintas oficinas repartidas en un mismo área metropolitana, por lo que, en su tamaño máximo, comprenden un área de unos 10 kilómetros.



Redes WAN. Las redes de área amplia (Wide Area Network) tienen un tamaño superior a una MAN, y consisten en una colección de host o de redes LAN conectadas por una subred. Esta subred está formada por una serie de líneas de transmisión interconectadas por medio de routers, aparatos de red encargados de rutear o dirigir los paquetes hacia la LAN o host adecuado, enviándose éstos de un router a otro. Su tamaño puede oscilar entre 100 y 1000 kilómetros.

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008



Redes internet. Una internet es una red de redes, vinculadas mediante ruteadores gateways. Un gateway o pasarela es un computador especial que puede traducir información entre sistemas con formato de datos diferentes. Su tamaño puede ser desde 10000 kilómetros en adelante, y su ejemplo más claro es Internet, la red de redes mundial.



Redes inalámbricas. Las redes inalámbricas son redes cuyos medios físicos no son cables de cobre de ningún tipo, lo que las diferencia de las redes anteriores. Están basadas en la transmisión de datos mediante ondas de radio, microondas, satélites o infrarrojos.

9.4 Redes Wi-fi: Acrónimo de Wireless Fidelity. Tecnología que permite el acceso inalámbrico a redes telemáticas como Internet por banda ancha en espacios públicos. Con un alcance de varios centenares de metros y gran capacidad de transferencia, se apoya en una red de ordenadores que requiere una gestión avanzada. Se puede acceder a redes Wi-Fi desde muchas instalaciones turísticas, como aeropuertos, hoteles o estaciones de tren. Incluso restaurantes de comida rápida o cafeterías lo tienen como reclamo para atraer clientes. Por otra parte, cada vez más ciudades ofrecen acceso a Internet por Wi-Fi en sus calles, generalmente de forma gratuita.

10.1 Internet: Internet es un método de interconexión descentralizada de redes de computadoras implementado en un conjunto de protocolos denominado TCP/IP y garantiza que redes físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, EE. UU. Al contrario de lo que se piensa comúnmente, Internet no es sinónimo de World Wide Web (WWW, o "la Web"). Ésta es parte de Internet, siendo uno de los muchos servicios ofertados en la red Internet. La Web es un sistema de información mucho más reciente, desarrollado inicialmente por Tim Berners Lee en 1989. El WWW utiliza Internet como medio de transmisión.

10.2 Servicios brindados por Internet: Algunos de los servicios disponibles en Internet son: •

Acceso remoto a otras máquinas (SSH y telnet): Un escritorio remoto es una tecnología que permite a un usuario trabajar en una computadora a través de su escritorio gráfico desde otro terminal ubicado en otro lugar. La tecnología de escritorio remoto permite la centralización de aquellas aplicaciones que generalmente se ejecutan en entorno de usuario (por ejemplo,

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

procesador de textos o navegador). De esta manera, dicho entorno de usuario se transforma en meros terminales de entrada/salida. Los eventos de pulsación de teclas y movimientos de ratón se transmiten a un servidor central donde la aplicación los procesa como si se tratase de eventos locales. La imagen en pantalla de dicha aplicación es retornada al terminal cliente cada cierto tiempo. •

La transferencia de archivos (FTP): FTP es la sigla de File Transfer Protocol o Protocolo de Transferencia de Archivos. Un protocolo es un conjunto de reglas que usan las computadoras conectadas en red para conversar entre sí. Y FTP es el lenguaje que utilizan las computadoras que integran una red TCP/IP (como Internet) para transferirse archivos entre sí. El FTP, o Protocolo de Transferencia de Archivos, es el modo más fácil para transferir archivos entre computadoras, a través de Internet. Los navegadores web actuales permiten descargar archivos via FTP desde adentro de la ventana del navegador. Es muy cómodo, y es fantástico para las ocasiones en que uno necesita descargar uno o dos archivos, pero el método de la descarga a través del navegador no ofrece demasiada flexibilidad: no se pueden subir archivos, ni seleccionar un modo de transferencia determinado o hacer preguntas al servidor. Y no me hagan hablar sobre los problemas de seguridad. Pero si se dedican al desarrollo web, necesitan todas estas funciones. La mejor manera de transferir archivos es con un buen cliente FTP. Se usa un cliente FTP para conectarse a un servidor FTP, navegar la estructura de carpetas del servidor e intercambiar archivos. Eso es todo lo que los clientes FTP hacen, a diferencia de los navegadores web, los clientes FTP están especializados en esas tareas.



El correo electrónico (SMTP y POP): Correo electrónico, o en inglés e-mail, es un servicio de red que permite a los usuarios enviar y recibir mensajes electrónicos mediante sistemas de comunicación electrónicos. Principalmente se usa este nombre para denominar al sistema que provee este servicio en Internet, mediante el protocolo SMTP, aunque por extensión también puede verse aplicado a sistemas análogos que usen otras tecnologías. Por medio de mensajes de correo electrónico se puede enviar, no solamente texto, sino todo tipo de documentos. Su eficiencia, conveniencia y bajo costo están logrando que el correo electrónico desplace al correo ordinario para muchos usos habituales. Una dirección de correo electrónico es un conjunto de palabras que identifican a una persona que puede enviar y recibir correo. Cada dirección es única y pertenece siempre a la misma persona. Tomlinson eligió la arroba, que en inglés se lee "at (en tal lugar)", para especificar el destinatario del mensaje: Fulano en tal lugar. Las comunicaciones tienen lugar al instante. Es decir, la velocidad con que los mensajes llegan al casillero del destinatario es alta. A diferencia del teléfono, no es necesario que la otra persona conteste para dejar el mensaje. Se puede dejar el mensaje a muchas personas al mismo tiempo. En los sistemas tradicionales de correo el documento puede perderse. El correo electrónico ofrece seguridad en este sentido.

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008



Los boletines electrónicos (news o grupos de noticias): Un boletín informativo es una publicación distribuida de forma regular, generalmente centrada en un tema principal que es del interés de sus suscriptores. Muchos boletines son publicados por clubes, sociedades, asociaciones y negocios, particularmente compañías, para proporcionar información de interés a sus miembros o empleados. Algunos boletines informativos son creados con ánimo de lucro y se venden directamente a sus suscriptores. Muchas páginas web populares y muchas compañías mantienen boletines informativos electrónicos, que se suelen enviar a los suscriptores por correo electrónico (es también habitual enviar únicamente un resumen con enlaces al boletín completo). Su propósito es informar a los lectores de las actualizaciones de la página web y/o proporcionar información sobre el tema en que se centra el sitio web. Los boletines electrónicos juegan un importante papel en la creación y mantenimiento de la relación con los suscriptores, recordándoles la página web e invitándoles a visitarla regularmente. Los boletines electrónicos, especialmente los originarios de compañías, pueden en ocasiones ser considerados spam. Muchas páginas web que requieren registrarse como usuario suelen incorporar suscripciones a uno o más boletines informativos, estando las opciones de suscripción preseleccionadas. El resultado es que muchos usuarios acaban recibiendo boletines informativos a los que no deseaban suscribirse por no leer el formulario de registro con la suficiente atención.



Las conversaciones en línea (IRC y chats): Chat (español: charla), que también se le conoce como cibercharla, es un anglicismo que usualmente se refiere a una comunicación escrita a través de internet entre dos o más personas que se realiza instantáneamente. Esta puede ser desde cualquier lado del mundo tomando en cuenta que se necesita una cuenta de correo electronico. La acepción de la palabra Chat es amplia, y por lo general agrupa a todos los protocolos que cumplen la función de comunicar a dos o más personas, dentro de éstos están los clientes de chat, como por ejemplo X-Chat, ChatZilla (el cliente de Mozilla/SeaMonkey) o el mIRC; éstos usan el protocolo IRC, cuyas siglas significan Internet Relay Chat. Otros son protocolos distintos pero agrupados en lo que es la mensajería instantánea, tales como MSN Messenger, Yahoo! Messenger, Jabber, o ICQ entre los más conocidos, o también el servicio de SMS de telefonía móvil. También se puede agrupar al peer-to-peer. También es muy usado el método webchat, que no es otra cosa que enviar y recibir mensajes por una página web dinámica, o usando el protocolo "IRC" si se trata de un applet de Java.



El intercambio de archivos (P2P, P2M, Descarga Directa): El intercambio de archivos a través de internet se puede realizar de distintas formas:  P2P se basa principalmente en la filosofía e ideales de que todos los usuarios deben compartir. Conocida como filosofía P2P, es aplicada en algunas redes en forma de un sistema enteramente meritocrático en donde "el que más comparta, más privilegios tiene y más acceso dispone de manera más rápida a más contenido". Con este sistema se pretende asegurar la disponibilidad del contenido compartido, ya que de lo contrario no sería posible la subsistencia de la red. (Por ejemplo: Torrent, Ares, limewire, etc )

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

 Peer2Mail (abreviado P2M) es un programa que permite almacenar y compartir archivos en cuentas de correo. P2M parte el archivo que quieres compartir o almacenar, lo comprime y lo cifra. Entonces, envía las partes del archivo uno por uno a una cuenta de correo. Una vez P2M ha subido todos las partes del archivo, puedes descargar las partes y usar P2M para unirlas y obtener de nuevo el archivo original. (Por ejemplo: GOD, Moorhunt, Mail Ressender, etc)  Descarga directa: Es una forma de descarga desde un servidor en el que el usuario no tiene que esperar colas, a diferencia del P2P en el que se producen esperas (a veces de varias horas) y la velocidad de transferencia depende del ancho de banda de subida del emisor y del ancho de banda de bajada del receptor. Este tipo de descarga no requiere que el usuario tenga un programa específico para realizarse (en la mayoría de las ocasiones), solo se necesita el navegador; aunque en algunos casos esta permitido o es factible el uso de un gestor de descargas como programa de optimización y reanudación de la descarga de los archivos. Cada empresa ofrece diferentes tipo de almacenamiento y descargas, los que varían en el tipo de archivo, tamaño, tiempo de permanencia del archivo, y el número de veces que se puede descargar. Así mismo, ofrece siempre un servicio gratuito (que suele tener un máximo de usos por día) y uno de pago o premium. (Por ejemplo: Rapidshare, Megaupload, 4shared, etc) •

La radio a la carta (Podcast): El podcasting consiste en la creación de archivos de sonido (generalmente en formato mp3 o AAC y en algunos casos ogg) y de video (llamados videocasts o vodcasts) y su distribución mediante un archivo RSS que permite suscribirse y usar un programa que lo descarga de Internet para que el usuario lo escuche en el momento que quiera, generalmente en un reproductor portátil.



El visionado de video a la carta (P2PTV): P2PTV es una técnica de transmisión y difusión de contenidos audiovisuales (vídeos, televisión, etc) a través de la red de Internet usando la arquitectura de los sistemas P2P, donde los nodos individuales se conectan a otros nodos para recibir los streams de vídeo y audio. El uso del sistema P2P implica que los usuarios utilizan su conexión a Internet para ayudar en la distribución de la señal: los usuarios que están realizando un streaming de bajada se convierten en pequeños servidores que lo ofrecen a otros usuarios. De este modo, se solucionan los dos grandes problemas de la transmisión broadcast por Internet: se disminuye la carga del servidor y el ancho de banda ocupado. Con la p2ptv algunos canales pueden mantener más de 100.000 conexiones simultáneas de forma fluida y sin la necesidad de demasiado ancho de banda.



Los juegos en línea: Los juegos en línea (también llamados juegos online) son aquellos videojuegos jugados vía internet independientemente de la plataforma. Puede tratase de juegos multijugador, en los que se juega con otras personas o juegos web que se descargan desde la web y ejecutan en el navegador. Los juegos de rol multijugador masivo online o MMORPGs (Massive(ly) Multiplayer Online Role-Playing Games) son videojuegos que permiten a miles de jugadores introducirse en un mundo virtual de forma simultánea a través de Internet, e interactuar entre ellos. Puede tratarse de administrar una ciudad, un ejército para ganar batallas,o más comúnmente crear un personaje, del cual

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

puedes elegir su raza, profesión, armas, etc., e ir aumentando niveles y experiencia en peleas contra otros personajes o PJs o realizando diversas aventuras (o misiones) llamadas quests. Este género de RPGs difiere de un RPG online multijugador no masivo en que éstos últimos tienen un número limitado de jugadores, es decir, los MMORPGs están preparados y elaborados de tal manera que admiten cualquier número de jugadores simultáneos (aunque en la práctica viene limitado por la conexión del servidor).

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

Bibliografía: Paginas Web consultadas:  http://www.monografias.com/trabajos/histocomp/histocomp.shtml  http://html.rincondelvago.com/historia-de-la-computacion_5.html  http://www.magister.org/temamu-tc.htm  http://www.mastermagazine.info/termino/4382.php  http://www.mastermagazine.info/termino/5368.php  http://www.mastermagazine.info/termino/6377.php  http://www.mastermagazine.info/termino/5214.php  http://es.wikipedia.org/wiki/Computer_software  http://www.monografias.com/trabajos10/infoba/infoba.shtml  http://es.wikipedia.org/wiki/Gottfried_Leibniz  http://es.wikipedia.org/wiki/Herman_Hollerith  http://es.wikipedia.org/wiki/Charles_Babbage  http://es.wikipedia.org/wiki/John_von_Neumann  http://mariobalu.files.wordpress.com/2008/02/vonnewman_balux_paradox.pdf  http://es.wikipedia.org/wiki/Fases_del_desarrollo_de_software  http://www.monografias.com/trabajos16/sistema-operativo/sistema-operativo.shtml  http://www.monografias.com/trabajos24/redes-computadoras/redescomputadoras.shtml  http://www.pchardware.org/redes/redes_ventajas.php  http://www.jegsworks.com/lessons-sp/lesson7/lesson7-5.htm  http://exa.unne.edu.ar/depar/areas/informatica/SistemasOperativos/MonogSO/REDE S02.htm  http://www.mastermagazine.info/articulo/3322.php  http://www.poraqui.net/diccionario/index.php/term/Glosario+de+turismo+y+hosteler %C3%ADa,Wi-Fi.xhtml  http://es.wikipedia.org/wiki/Acceso_a_Internet  http://www.google.com.ar/search?hl=es&q=servicios+brindados+por+internet&btnG= Buscar&meta=  http://es.wikipedia.org/wiki/Escritorio_remoto  http://www.terra.com.ar/canales/internet/81/81519.html  http://es.wikipedia.org/wiki/Correo_electr%C3%B3nico  http://www.maestrosdelweb.com/editorial/emailhis/  http://www.inei.gob.pe/biblioineipub/bancopub/inf/Lib5051/cap02.htm

_____________________________________________________________________________ Henry Suárez

Universidad Nacional de Salta – Facultad de Ciencias Exactas Carrera: Licenciatura en Análisis de Sistemas. Cátedra: Elementos de Computación Año 2008

 http://es.wikipedia.org/wiki/Bolet%C3%ADn_informativo  http://es.wikipedia.org/wiki/Chat  http://es.wikipedia.org/wiki/IRC  http://es.wikipedia.org/wiki/Descargar_(archivos)  http://es.wikipedia.org/wiki/P2PTV  http://es.wikipedia.org/wiki/Juegos_en_l%C3%ADnea  http://es.wikipedia.org/wiki/MMORPG

_____________________________________________________________________________ Henry Suárez

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF