Historia de La Traducción Automática

December 1, 2022 | Author: Anonymous | Category: N/A
Share Embed Donate


Short Description

Download Historia de La Traducción Automática...

Description

 

Historia de la traducción tr aducción automática.

La historia de traducción automática generalmente comienza en los años 1950, aunque el trabajo se pueda encontrar a partir de períodos más tempranos. El experimento de Georgetown en 1954 implicó la traducción totalmente automática de más de sesenta oraciones rusas a inglés. El experimento era un gran éxito y acompañó en una era de la financiación significativa para la investigación de la traducción automática. Los autores afirmaron que dentro de tres o cinco años, la traducción automática sería un problema solucionado. Sin embargo, el verdadero progreso era mucho más lento, y después del informe de ALPAC en 1966, que encontró que la investigación de diez años de largo no había podido realizar las expectativas, la financiación dramáticamente se redujo. Comenzando a finales de los años 1980, ya que el poder  computacional aumentó y se hizo menos caro, más interés comenzó a mostrarse en modelos estadísticos para la traducción tr aducción automática. Hoy todavía no hay ningún sistema que proporcione el grial santo de "la traducción de alta calidad totalmente automática" (FAHQT). Sin embargo, hay muchos programas ahora disponibles que son capaces de proporcionar la salida útil dentro de coacciones estrictas; varios de ellos están disponibles en línea, como Google Translate y el sistema SYSTRAN que AltaVista de poderes BabelFish. Contenido 1 El principio 2 Los primeros años 3 Los años 1960, los ALPAC hacen un informe y los años setenta 4 Los años 1980 y a principios de los años 1990 5 investigación Reciente 6 también Ver  7 Notas 8 Referencias 9 lectura Adicional

 

  El principio

La historia de traducción automática se remonta al siglo diecisiete, cuando los filósofos como Leibniz y Descartes proponen ofertas de códigos que relacionarían palabras entre lenguas. Todas estas ofertas permanecieron teóricas, y ninguno causó el desarrollo de una máquina actual. Las primeras patentes para "traducir máquinas" se solicitaron a mediados de los años 1930. Una oferta, por Georges Artsrouni era simplemente un diccionario bilingüe automático usando la cinta de papel. La otra oferta, por  Peter Troyanskii, un ruso, era más detallada. Incluyó tanto el diccionario bilingüe como un método para tratar con papeles gramaticales entre lenguas, basadas en Esperanto. El sistema se repartió en tres etapas: el primer era para un redactor que dice al natural en la lengua de la fuente para organizar las palabras en sus formas lógicas y funciones sintácticas; el segundo era para la máquina para "traducir" estas formas al idioma de destino; y el tercer era para un redactor que dice al natural en el idioma de destino para normalizar esta salida. Su esquema permaneció desconocido hasta finales de los años 1950, antes de los cuales los ordenadores del tiempo t iempo eran famosos.

Los primeros años

Las primeras ofertas de la traducción automática usando ordenadores fueron propuestas por Warren Weaver, un investigador en la Fundación de Rockefeller, en su memorándum del julio de 1949. Estas ofertas estaban basadas en teoría de información, éxitos del código que se rompe durante la segunda guerra mundial y especulación sobre principios subyacentes universales de lengua natural. Unos años después de estas ofertas, la investigación comenzó de veras en muchas universidades en los Estados Unidos. El 7 de enero de 1954, el experimento del GEORGETOWN-IBM, la primera demostración pública de un sistema de la TA, se sostuvo en Nueva York en la oficina central de IBM. La demostración extensamente se relató en los periódicos y recibió mucho interés público. El propio sistema, sin embargo, no era más que lo que hoy se llamaría un sistema del "juguete", teniendo enseguida 250 palabras y traduciendo sólo 49 oraciones rusas con cuidado seleccionadas a inglés — principalmente en el campo de la química. Sin embargo animó la visión que la traducción automática

 

era inminente — y en particular estimuló la financiación de la investigación, no sólo en los EE.UU, pero por todo el mundo. Los sistemas tempranos usaron diccionarios bilingües grandes y reglas cifradas por la mano para fijar el orden de las palabras en la salida final. Se encontró finalmente que esto era demasiado restrictivo, y desarrollo en la lingüística entonces, la lingüística por ejemplo generativa y la gramática transformacional se propusieron para mejorar la calidad de traducciones. Durante este tiempo, los sistemas operacionales se instalaron. i nstalaron. La Fuerza aérea de los Estados Unidos usó un sistema producido por IBM y universidad de Washington, mientras la Comisión de Energía Atómica en los Estados Unidos y la Euratom en Italia usaron un sistema desarrollado en la universidad de Georgetown. Mientras la calidad de la salida era pobre, sin embargo encontró muchas de las necesidades de los clientes, principalmente en términos de velocidad.  Al final de años 1950, un argumento fue propuesto por Yehoshua Bar-Hillel, un investigador pedido por el gobierno estadounidense examinar la traducción automática contra la posibilidad de "la Traducción de Alta calidad Totalmente  Automática" por máquinas. El argumento es una de ambigüedad semántica o doble sentido. Considere la oración siguiente: Pequeño John buscaba su caja del juguete. Finalmente lo encontró. La caja estaba en la pluma. La pluma de la palabra puede tener dos sentidos, el primer sentido algo que usa para escribir con, el segundo sentido un contenedor de alguna clase. A un humano, el sentido es obvio, pero afirmó que sin una "enciclopedia universal" una máquina nunca sería capaz de tratar con este problema. Hoy, este tipo de la ambigüedad semántica se puede solucionar escribiendo textos de la fuente para la traducción automática en una lengua controlada que usa un vocabulario en el cual cada palabra tiene t iene exactamente un sentido.

Los años 1960, los ALPAC hacen un informe y los años setenta La investigación en los años 1960 tanto en la Unión Soviética como en los Estados Unidos se concentró principalmente en el par de la lengua ruso-inglés. Principalmente los objetos de traducción eran documentos científicos y técnicos, como artículos de diarios científicos. Las traducciones ásperas producidas eran suficientes para conseguir un entendimiento básico de los artículos. Si un artículo hablara un sujeto juzgó para ser del derecho del acreedor, se envió a un traductor humano para una traducción completa; si no, se desechara.

 

  Un gran golpe vino a la investigación de la traducción automática en 1966 con la publicación del informe de ALPAC. El informe fue encargado por el gobierno estadounidense y realizado por ALPAC, la Lengua Automática que Trata el Comité asesor, un grupo de siete científicos convocados por el gobierno estadounidense en 1964. El gobierno estadounidense se preocupó que hubiera una carencia del progreso hecho a pesar del gasto significativo. Concluyó que la traducción automática era más cara, menos exacta y más lenta que la traducción humana, y que a pesar de los gastos, la traducción automática probablemente no alcanzaría la calidad de un traductor humano en el futuro próximo.

El informe, sin embargo, recomendó que los instrumentos se desarrollen para ayudar a traductores — diccionarios automáticos, por ejemplo — y que un poco de investigación en la lingüística computacional debería seguir apoyándose.

La publicación del informe tenía un impacto profundo a la investigación en la traducción automática en los Estados Unidos, y en menor grado la Unión Soviética y el Reino Unido. La investigación, al menos en los EE.UU, casi completamente se abandonó durante más de una década. En Canadá, Francia y Alemania, sin embargo, la investigación siguió; en 1970, el sistema de Systran fue instalado para la Fuerza aérea de los Estados Unidos y posteriormente en 1976 por la Comisión de las Comunidades europeas. El Sistema METEO, desarrollado en el Université de Montréal, se instaló en Canadá en 1977 para traducir pronósticos del tiempo de inglés a francés y traducía cerca de 80,000 palabras por día o 30 millones de palabras por año hasta que fuera sustituido por el sistema de un competidor el 30 de septiembre de 2001. Mientras la investigación en los años 1960 se concentró en pares de la lengua limitados y entrada, la demanda en los años 1970 era para sistemas económicos que podrían traducir una variedad de documentos técnicos y comerciales. Esta demanda fue espoleada por el aumento de globalización y la demanda de la traducción en Canadá, Europa y Japón.

 

Los años 1980 y a principios pr incipios de los años 1990

 Antes de los años 1980, tanto la diversidad como el número de sistemas instalados para la traducción automática habían aumentado. Varios sistemas que confían en la tecnología del ordenador central estaban en el uso, como Systran y Logotipos.  A consecuencia de la disponibilidad mejorada de microordenadores, había un mercado para sistemas de la traducción tr aducción automática de la parte inferior. Muchas compañías aprovecharon esto en Europa, Japón y los EE. UU. Los sistemas también se trajeron en el mercado en China, Europa Oriental, Corea y la Unión Soviética. Durante los años 1980 había mucha actividad en la TA en Japón sobre todo. Con el Quinto ordenador de generación Japón tuvo la intención de saltar sobre su concurso en hardware y software, y un proyecto en el cual muchas firmas de electrónica japonesas grandes se encontraron implicado creaba el software para traducir a y de inglés (Fujitsu, Toshiba, NTT, Hermano, Catenaria, Matsushita, Mitsubishi, Agudo, Sanyo, Hitachi, NEC, Panasonic, Kodensha, Nova, Oki). La investigación durante los años 1980 típicamente confiaba en la traducción a través de un poco de variedad de la representación lingüística intermediaria que implica morfológico junto con el análisis sintáctico y semántico.

 Al final de años 1980 había una oleada grande en varios métodos nuevos para la traducción automática. Un sistema se desarrolló en la IBM que estaba basada en métodos estadísticos. Otros grupos usaron métodos basados en grandes números de traducciones del ejemplo, una técnica que se llama ahora la traducción automática basada en el ejemplo. Un rasgo de definición de ambos de estos enfoques era la carencia de reglas sintácticas y semánticas y confianza en cambio en la manipulación de recopilaciones re copilaciones del texto grandes. Durante los años 1990, animados por éxitos en reconocimiento de voz y síntesis del discurso, la investigación comenzó en la traducción del discurso. Había crecimiento significativo del uso de traducción automática a consecuencia del advenimiento de ordenadores económicos y más potentes. Era a principios de los años 1990 que la traducción automática comenzó a hacer la transición lejos de ordenadores centrales grandes hacia ordenadores personales y estaciones de trabajo. Dos compañías que condujeron el mercado del PC durante un rato eran el Globalink y MicroTac, después del cual se

 

encontró que una fusión de las dos compañías (en el diciembre de 1994) estaba en el interés corporativo de ambos. Intergraph y Systran también comenzaron a ofrecer versiones del PC a este tiempo. Los sitios también se hicieron disponibles en Internet, como Babel Fish de AltaVista (usando la tecnología de Systran) y Google Language Tools (también al principio usando la tecnología de Systran exclusivamente).

Investigación reciente

El campo de traducción automática tiene en los últimos años cambios principales vistos. Actualmente una cantidad grande de la investigación se está haciendo en traducción automática estadística y traducción automática basada en el ejemplo. Hoy, sólo unas compañías usan la traducción automática estadística comercialmente, p.ej. Tejedor de la Lengua (vende productos de la traducción y servicios), Google (usa su sistema de la TA estadístico patentado para alguna combinación de la lengua en los instrumentos de la lengua de Google) y Microsoft (usa su sistema de la TA estadístico patentado para traducir artículos de la base de conocimiento). Hubo un renovado interés por  hybridisation, con investigadores que se combinan sintáctico y morfológico (es decir, lingüístico) conocimiento en sistemas estadísticos, así como combinan la estadística con la regla existente sistemas basados.

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF