Superintelligence_ Paths, Dange - Nick Bostrom.en.Es
April 25, 2017 | Author: José C. Maguiña. Neurociencias. | Category: N/A
Short Description
Descripción: Superintelligence...
Description
Superinteligencia Superinteligencia Caminos, Peligros, Estrategias Nick Bostrom Director, Instituto Futuro de la Humanidad Profesor de la Facultad de Filosofía y Oxford Martin SchoolUniversidad de Oxford
Gran Clarendon Street, Oxford, OX2 6DP, Reino Unido Oxford University Press es un departamento de la Universidad de Oxford. Es propicio el objetivo de la Universidad de excelencia en la investigación, la erudición,y la educación mediante la publicación en todo el mundo. Oxford es una marca registrada de Oxford University Press en el Reino Unido y en otros países © Nick Bostrom 2014 Los derechos morales del autor han afirmado
Primera edición publicada en 2014 Impresión: 1 Todos los derechos reservados. Ninguna parte de esta publicación puede ser reproducida, almacenada en un sistema de recuperación, o transmitida, en cualquier forma o por cualquier medio, sin la previa autorización por escrito de la Oxford University Press, o de lo expresamente permitido por la ley, por la licencia o bajo condiciones acordadas con la organización adecuada de los derechos de reprografía. Las consultas relativas a la reproducción fuera del ámbito de lo anterior se deben enviar a la Dirección de Derechos, Oxford University Press, en la dirección arriba Usted no debe distribuir este trabajo en cualquier otra forma
y debe imponer esta
misma condición en cualquier adquirente Catalogación Biblioteca Británica de datos de publicaciónDatos disponibles
Biblioteca del Congreso de control el número: 2013955152 ISBN 978-0-19-967811-2 Impreso en Italia por L.E.G.O. TN
S.p.A.-Lavis
Los enlaces a sitios web de terceros son proporcionados por Oxford de buena fe y por sólo información. Oxford se exime de cualquier responsabilidad por los materiales contenidos en cualquier página web de terceros que se hace referencia en este trabajo. La fábula inacabada de los Gorriones Era la temporada de nido-construcción, pero después de días de trabajo duro y largo, los gorriones se sentó en el resplandor de la noche, relajante y piar de distancia. "Estamos todos tan pequeño y débil. Imagina lo fácil que sería la vida si tuviéramos un búho que podrían ayudarnos a construir nuestros nidos! " "¡Sí!", Dijo podríamos utilizarlo para cuidar a nuestros ancianos y nuestros jóvenes."
otro.
"Y
"Nos podría dar consejos y mantener un ojo hacia fuera para el gato barrio", añadió un tercero. Entonces Pastus, el ave mayor, habló: "Enviemos exploradores en todas direcciones y tratamos de encontrar un owlet abandonada en algún lugar, o tal vez un huevo. Una chica cuervo también podría hacer, o una comadreja bebé. Esto podría ser lo mejor que le ha pasado a nosotros, por lo menos desde la apertura del Pabellón de Ilimitado grano en el patio trasero de allá ". El rebaño estaba eufórico y gorriones piando todas partes comenzó en la parte superior de sus pulmones.
Sólo Scronkfinkle, un gorrión tuerto con un temperamento inquieto, no estaba convencido de la sabiduría de la empresa. Quoth él: "Esto sin duda será nuestra perdición. ¿No deberíamos pensar un poco en el arte de búho-domesticación y búho-domar primero, antes de traer una criatura en medio de nosotros? " Respondió Pastus: "Domando un búho suena como una cosa muy difícil de hacer. Será suficiente para encontrar un huevo búho difícil. Así que vamos a empezar por ahí. Después hemos tenido éxito en la crianza de un búho, entonces podemos pensar en tomar en este otro desafío ". "Hay una falla en ese plan!" Chilló Scronkfinkle; pero sus protestas fueron en vano ya que el rebaño ya se había levantado para empezar a aplicar las directivas establecidas por Pastus. Sólo dos o tres gorriones se quedaron atrás. Juntos comenzaron a tratar de averiguar cómo pueden ser domesticados o domesticados búhos. Pronto se dieron cuenta de que Pastus tenía razón: se trataba de un reto muy difícil, especialmente en ausencia de un búho real para practicar. Sin embargo ellos siguieron adelante lo mejor que pudieron, en constante temor de que el rebaño podría volver con un huevo lechuza antes de una solución al problema de control había sido encontrado. No se sabe cómo termina la historia, pero el autor dedica este libro a Scronkfinkle y sus seguidores. PRÓLOGO Dentro de su cráneo es lo que hace la lectura. Esta cosa, el cerebro humano, tiene algunas capacidades que los cerebros de otros animales carecen. Es a estas capacidades distintivas que le debemos nuestra posición dominante en el planeta. Otros animales tienen músculos más fuertes y garras más nítidas, pero tenemos cerebros más inteligentes. Nuestra ventaja modesta en la inteligencia general nos ha llevado a desarrollar el lenguaje, la tecnología y la organización social compleja. La ventaja ha agravado con el tiempo, a medida que cada generación se ha basado en los logros de sus predecesores. Si algún día construimos cerebros máquinas que superan los cerebros humanos en la inteligencia general, entonces esta nueva superinteligencia podría llegar a ser muy poderoso. Y, como el destino de los gorilas ahora depende más de nosotros los seres humanos que en los propios gorilas, por lo que el destino de nuestra especie dependerá de las acciones de la superinteligencia máquina. Tenemos una ventaja: que lleguemos a construir las cosas. En principio, podríamos construir una especie de superinteligencia que protegería a los valores humanos. Sin duda tiene razón de peso para hacerlo. En la práctica, el problema en el control problema de
cómo controlar lo que la superinteligencia haría-se ve muy difícil. También parece que sólo obtendremos una oportunidad. Una vez que existe superinteligencia antipático, que nos impediría su sustitución o cambiar sus preferencias. Nuestro destino se selló. En este libro, trato de entender el desafío presentado por la perspectiva de superinteligencia, y la forma en que mejor podría responder. Esta es posiblemente la humanidad reto más importante y más desalentadora jamás se ha enfrentado. Y, tanto si tenemos éxito o fracasamos-es, probablemente, el último desafío que alguna vez cara. No es parte del argumento de este libro que estamos en el umbral de un gran avance en la inteligencia artificial, o que podemos predecir con precisión cuándo podría ocurrir tal desarrollo. Parece poco probable que va a suceder en algún momento de este siglo, pero no sabemos a ciencia cierta. El primer par de capítulos do discutir posibles vías y decir algo acerca de la cuestión de la oportunidad. La mayor parte del libro, sin embargo, se trata de lo que sucede después. Se estudia la cinética de una explosión de inteligencia, las formas y los poderes de la superinteligencia, y las opciones estratégicas disponibles para un agente superinteligente que logra una ventaja decisiva. Luego nos cambiamos nuestro enfoque al problema de control y preguntamos qué podíamos hacer para dar forma a las condiciones iniciales a fin de lograr un resultado de supervivencia y beneficioso. Hacia el final del libro, nos acercamos y contemplamos el panorama general que emerge de nuestras investigaciones. Algunas sugerencias se ofrecen en lo que se debe hacer ahora para aumentar nuestras posibilidades de evitar una catástrofe existencial después. Esto no ha sido un libro fácil de escribir. Espero que el camino que se ha aclarado que permitirá a otros investigadores para llegar a la nueva frontera más rápida y cómoda, para que puedan llegar allí fresco y listo para unirse a los trabajos para ampliar aún más el alcance de nuestra comprensión. (Y si la forma en que se ha hecho es un poco accidentado y articulados, espero que los colaboradores, al juzgar el resultado, no hay que subestimar la hostilidad del terreno ex ante!) Esto no ha sido un libro fácil de escribir: He tratado de hacer que un libro fácil de leer, pero no creo que bastante he tenido éxito. Al escribir, que yo tenía en mente como el público objetivo una anterior intervalo de tiempo de mí mismo, y yo traté de producir un tipo de libro que me hubiera gustado leer. Este podría ser un grupo demográfico estrecho. Sin embargo, creo que el contenido debe ser accesible a muchas personas, si ponen un poco de pensamiento en él y resistir la tentación de malinterpretar instantáneamente cada nueva idea asimilando con el la mayoría de sonido similar cliché disponibles en sus despensas culturales. Lectores no técnicos no deben ser desalentados por algún que otro acto de las matemáticas o vocabulario especializado, ya que siempre es posible deducir el punto principal de las
explicaciones de los alrededores. (Por el contrario, para aquellos lectores que quieren más de lo esencial y básico, no hay mucho que se encuentran entre los endnotes.1) Muchos de los puntos señalados en este libro son probablemente equivocado. 2 También es probable que haya consideraciones de importancia crítica que no tienen en cuenta, lo que invalida todas o algunas de mis conclusiones. He ido a alguna extensión para indicar matices y grados de incertidumbre en todo el texto-gravar con una mancha fea de "posiblemente", "podría", "puede", "podría bien", "parece", "probablemente" "muy probable", "casi con seguridad". Cada calificador se ha colocado donde es cuidadosa y deliberadamente. Sin embargo, estas aplicaciones tópicas de la modestia epistémica no son suficientes; deben ser complementados aquí por una admisión sistémica de incertidumbre y falibilidad. Esto no es falsa modestia, porque mientras yo creo que mi libro es probable que sea muy mal y engañoso, creo que los puntos de vista alternativos que se han presentado en la literatura son sustancialmente peores, incluyendo la vista por defecto, o "hipótesis nula" según la cual podemos por el momento de manera segura o razonablemente ignorar la perspectiva de superinteligencia. AGRADECIMIENTOS La membrana que ha rodeado el proceso de escritura ha sido bastante permeable. Muchos conceptos e ideas generadas mientras se trabaja en el libro se ha permitido a filtrarse hacia fuera y se han convertido en parte de una conversación más amplia; y, por supuesto, numerosas ideas procedentes del exterior, mientras que el libro se marcha se han incorporado en el texto. He tratado de ser un poco diligente con el aparato de la citación, pero las influencias son demasiados para documentar plenamente. Para amplios debates que han ayudado a aclarar mi pensamiento Agradezco a un gran conjunto de personas, incluyendo Ross Andersen, Stuart Armstrong, Owen Algodón Barratt, Nick Beckstead, David Chalmers, Paul Christiano, Milán Dirkovid, Daniel Dennett, David Deutsch, Daniel Dewey, Eric Drexler, Peter Eckersley, Amnón Edén, Owain Evans, Benja Fallenstein, Alex Flint, Carl Frey, Ian Goldin, Katja Gracia, J. Storrs Hall, Robin Hanson, Demis Hassabis, James Hughes, Marcus Hutter, Garry Kasparov, Marcin Kulczycki, Shane Legg, Moshe Looks, Willam MacAskill, Eric Mandelbaum, James Martin, Lillian Martin, Roko Mijic, Vincent Mueller, Elon Musk, Seán Ó hÉigeartaigh, Toby Ord, Dennis Pamlin, Derek Parfit, David Pearce, Huw Price, Martin Rees , Bill Roscoe, Stuart Russell, Anna Salamon, Lou Salkind, Anders Sandberg, Julian Savulescu, Jürgen Schmidhuber, Nicholas Shackel, Murray Shanahan, Noel Sharkey, Carl Shulman, Peter Singer, Dan Stoicescu, Jaan Tallinn, Alexander Tamas, Max Tegmark, Roman Yampolskiy y Eliezer Yudkowsky.
Para los comentarios detallados sobre todo, estoy agradecido a Milán Dirkovid, Daniel Dewey, Owain Evans, Nick Hay, Keith Mansfield, Lucas Muehlhauser, Toby Ord, Jess Riedel, Anders Sandberg, Murray Shanahan, y Carl Shulman. Para asesoramiento o ayuda de investigación con diferentes partes Quiero agradecer Stuart Armstrong, Daniel Dewey, Eric Drexler, Alexandre Erler, Rebecca Roache, y Anders Sandberg. Para obtener ayuda con la preparación del manuscrito, estoy agradecido a Caleb Bell, Malo Bourgon, Robin Brandt, Lance Bush, Cathy Douglass, Alexandre Erler, Kristian Rönn, Susan Rogers, Andrew Snyder-Beattie, Cecilia Tilli, y Alex Vermeer. Quiero agradecer especialmente a mi editor Keith Mansfield por su aliento abundantes durante todo el proyecto. Mis disculpas a todos los demás que debería haber sido recordado aquí. Por último, un aficionado más gracias a los patrocinadores, amigos y familia: sin su respaldo, no se habría hecho este trabajo. CONTENIDOS Las listas de figuras, tablas y Cajas 1. Evolución del pasado y capacidades actuales Modos de crecimiento y la historia grande Grandes expectativas Estaciones de la esperanza y la desesperación Lo último Las opiniones sobre el futuro de la inteligencia artificial 2. Caminos de superinteligencia Inteligencia artificial Emulación total del cerebro Cognición Biológica Interfaces cerebro-ordenador
Redes y organizaciones
Resumen 3. Formas de superinteligencia
Superinteligencia velocidad Superinteligencia colectiva Superinteligencia Calidad Alcance directo e indirecto Fuentes de ventaja para inteligencia digital 4. La cinética de una explosión de inteligencia El tiempo y la velocidad del despegue Obstinación Caminos de inteligencia no-máquina
Emulación y caminos de AI Potencia Optimización y explosividad 5. ventaja estratégica decisiva ¿El favorito obtener una ventaja estratégica decisiva? ¿Qué tan grande será el éxito del proyecto? Monitoreo La colaboración internacional Desde ventaja estratégica decisiva a Singleton 6. superpotencias cognitivos Funcionalidades y superpotencias Un escenario de toma de control AI Alimentación a través de la naturaleza y los agentes 7. La voluntad superinteligente La relación entre la inteligencia y la motivación Convergencia Instrumental Instinto de conservación Integridad gol contenido Mejora cognitiva La perfección tecnológica Adquisición de recursos 8. ¿Es el resultado doom defecto? Catástrofe existencial como el resultado predeterminado de una explosión de inteligencia? El giro traicionera Modos de fallo malignos Instanciación Perverse Profusión Infraestructura Crimen Mente 9. El problema de control Dos problemas de agencia Métodos de control de la Capacidad Métodos de boxeo Métodos de incentivos El retraso del crecimiento Cables trampa
Métodos de selección Motivación Especificación directa Domesticidad
Normatividad indirecta Aumento Sinopsis 10. oráculos, genios, soberanos, herramientas Oráculos Genios y soberanos Herramienta-IA Comparación 11. escenarios multipolares De caballos y hombres
Los salarios y el desempleo El capital y el bienestar El principio malthusiano en una perspectiva histórica El crecimiento demográfico y la inversión La vida en una economía algorítmica
Esclavitud voluntaria, la muerte ocasional Funcionaría máxima eficiencia ser divertido? Subcontratistas inconsciente? La necesariamente
evolución
no
Formación posterior a la transición de un producto único? Una Superorganismos y economías de escala Unificación por tratado 12. La adquisición de valores El problema del valor de carga
es
segunda
transición
Selección Evolutiva Aprendizaje por refuerzo Acreción valor asociativo Andamios de motivación Aprendizaje Valor Modulación de Emulación Diseño Institución Sinopsis 13. La elección de los criterios para la elección La necesidad de normatividad indirecta Volición extrapolado Coherente Algunas explicaciones Justificaciones para CEV Otras observaciones Modelos de moralidad Do What I Mean Lista de componentes Contenido Meta Teoría de la decisión Epistemología Ratificación Conseguir lo suficientemente cerca 14. El cuadro estratégico Estrategia de ciencia y tecnología Desarrollo tecnológico diferencial Orden preferido de llegada Las tasas de cambio y la mejora de la cognición Acoplamientos Tecnología Segundo-adivinanzas Caminos y facilitadores Efectos de los avances de hardware Se debe promover la investigación de emulación de todo el cerebro? La perspectiva de la persona que afectan favorece la velocidad Colaboración La carrera dinámica y sus peligros Sobre los beneficios de la colaboración Trabajando juntos Tiempo 15. Crunch Filosofía con una fecha límite ¿Qué se debe hacer?
Buscando la luz estratégica La construcción de una buena capacidad Medidas particulares ¿Será el mejor de la naturaleza humana por favor ponerse de pie Notas Bibliografía Índice Listas de figuras, tablas y CAJAS Lista de Figuras 1. historia a largo plazo del PIB mundial. 2. Impacto global a largo plazo de HLMI. 3. rendimiento superordenador. 4. Reconstrucción 3D neuroanatomía a partir de imágenes del microscopio electrónico. 5. Toda la hoja de ruta de la emulación cerebro. 6. Compuesto enfrenta como una metáfora de los genomas de hechizo a cuadros.
7.
Forma del despegue.
8. A escala menos antropomórfica? 9. Un modelo simple de una explosión de inteligencia. 10. Fases en un escenario de toma de control de AI. 11. Ilustración esquemática de algunas trayectorias posibles para un producto único sabio hipotético. 12. Resultados de antropomorfizar motivación ajena. 13. La inteligencia artificial o la emulación de todo el cerebro primero? 14. Los niveles de riesgo en las carreras de tecnología de IA. Lista de tablas 1. Juego de papeles AI 2. Cuando se alcanza la inteligencia artificial a nivel humano? 3. ¿Cuánto tiempo desde el nivel humano a superinteligencia? 4. Las capacidades necesarias para la emulación de todo el cerebro 5. ganancias máximas de CI de seleccionar entre un conjunto de embriones 6. Posibles impactos de la selección genética en diferentes escenarios 7. Algunas carreras tecnológicas estratégicamente importantes 8. Superpoderes: algunas tareas estratégicamente relevantes y habilidades correspondientes 9. Diferentes tipos de cables trampa 10. Métodos de control 11. Características de las diferentes castas del sistema 12. Resumen de las técnicas de valor de carga 13. Lista de componentes Lista de Cajas 1. Un agente bayesiano óptimo 2. El flash crash de 2010 3. ¿Qué haría falta para recapitular la evolución? 4. En la cinética de una explosión de inteligencia 5. razas Tecnología: algunos ejemplos históricos 6. El escenario ADN electrónico ordenada
7. ¿Qué tan grande es la dotación cósmica? 8. captura Antrópico 9. soluciones extrañas de búsqueda a ciegas Aprendizaje valor 10. Formalización 11. Una IA que quiere ser amigable 12. Dos recientes (medio-horneados) Ideas 13. Un riesgo-carrera a la baja CAPÍTULO 1 La evolución pasada y las capacidades actuales Empezamos por mirar atrás. Historia, en la escala más grande, parece exhibir una secuencia de modos de crecimiento distintos, cada uno mucho más rápido que su predecesor. Este patrón se ha llevado a sugerir que otro (aún más rápido) modo de crecimiento podría ser posible. Sin embargo, no ponemos mucho peso en esta observación, esto no es un libro sobre "la aceleración tecnológica" o "crecimiento exponencial" o las nociones diversas veces reunidos bajo el título de "la singularidad". A continuación, se revisa la historia de la artificial inteligencia. A continuación, examinamos las capacidades actuales del campo. Por último, echamos un vistazo a algunas encuestas de opinión de expertos recientes, y contemplamos nuestra ignorancia acerca de la línea de tiempo de los futuros avances. Modos de crecimiento y la historia grande Hace apenas unos pocos millones de años nuestros antepasados todavía estaban colgando de las ramas en la copa africana. En una escala de tiempo geológica o incluso la evolución, el ascenso de Homo sapiens de nuestro último ancestro común con los grandes simios sucedieron con rapidez. Desarrollamos postura erguida, pulgares oponibles ycrucialmente-algunos cambios relativamente menores en el tamaño del cerebro y la organización neurológica que llevaron a un gran salto en la capacidad cognitiva. Como consecuencia, los seres humanos pueden pensar de manera abstracta, comunicar pensamientos complejos y culturalmente acumular información sobre las generaciones mucho mejor que cualquier otra especie en el planeta. Estas capacidades permiten los seres humanos desarrollan tecnologías productivas cada vez más eficientes, por lo que es posible que nuestros antepasados a emigrar lejos de la selva y la sabana. Especialmente después de la adopción de la agricultura, la densidad de población aumentaron junto con el tamaño total de la población humana. Más personas significan más ideas; mayores densidades significó que las ideas podían propagarse con mayor facilidad y que algunos individuos podrían dedicarse al desarrollo de habilidades especializadas. Estos acontecimientos aumentaron la tasa de crecimiento de la productividad económica y la capacidad tecnológica. Desarrollos posteriores, relacionados con la Revolución Industrial, provocaron una segunda, cambio de ritmo comparable en la tasa de crecimiento. Estos cambios en la tasa de crecimiento tienen consecuencias importantes. Hace unos cien mil años, a principios de humano (o homínido) la prehistoria, el crecimiento fue tan lento que tomó en el orden del millón de años para la capacidad productiva humana para aumentar lo suficiente como para sostener un adicional de un millón de personas
que viven a nivel de subsistencia. Por 5000 aC, tras la Revolución Agrícola, la tasa de crecimiento había aumentado hasta el punto en que la misma cantidad de crecimiento tuvo apenas dos siglos. Hoy en día, después de la Revolución Industrial, la economía mundial crece en promedio en esa cantidad cada noventa minutos.1 Incluso el actual ritmo de crecimiento va a producir resultados impresionantes si se mantiene durante un moderadamente largo tiempo. Si la economía mundial sigue creciendo al mismo ritmo que lo ha hecho en los últimos cincuenta años, el mundo va a haber algunas 4,8 veces más rico en el 2050 y cerca de 34 veces más rico en 2100 de lo que es hoy.2 Sin embargo, la perspectiva de continuar en una senda de crecimiento exponencial constante palidece en comparación con lo que pasaría si el mundo fuera a experimentar otro cambio de ritmo en la tasa de crecimiento comparable en magnitud a los asociados con la revolución agrícola y la Revolución Industrial. El economista Robin Hanson estima, en base a los datos económicos y poblacionales históricos, una economía mundial característica de tiempo para que la sociedad de cazadores-recolectores del Pleistoceno de 224.000 años de duplicación; para la sociedad la agricultura, 909 años; y para la sociedad industrial, 6,3 años3 (En el modelo de Hanson, la época actual es una mezcla de la agricultura y de los modos-el crecimiento industrial de la economía mundial en su conjunto aún no está creciendo a la tasa de duplicación de 6,3 años.) Si otro tales transición a un modelo de crecimiento diferente se produjera, y fuera de magnitud similar a los dos anteriores, que daría lugar a un nuevo régimen de crecimiento en el que la economía mundi al se duplicaría en tamaño cada dos semanas. Dicha tasa de crecimiento parece fantástico por las luces actuales. Los observadores en épocas anteriores podrían haber encontrado igualmente absurdo suponer que la economía mundial un día sería duplica varias veces dentro de un mismo período de vida. Sin embargo, esa es la condición extraordinaria que ahora damos a ser ordinarias. La idea de una singularidad tecnológica que viene a estas alturas ha sido ampliamente popularizado, empezando por ensayo seminal de Vernor Vinge y continuando con los escritos de Ray Kurzweil y otros.4 El término "singularidad", sin embargo, se ha utilizado en muchos sentidos confusamente dispares y ha acrecentado un (todavía casi milenaria) aura impía de connotations.5 tecno-utópico Dado que la mayoría de estos significados y connotaciones son irrelevantes para nuestro argumento, podemos ganar claridad mediante la supresión de la palabra "singularidad" en favor de una terminología más precisa. La idea relacionada singularidad que nos interesa aquí es la posibilidad de una explosión de inteligencia, En particular la perspectiva de la máquina superinteligencia. Puede haber quienes están persuadido por los diagramas de crecimiento como los de la Figura 1 que otro cambio drástico en el modo de crecimiento está en las cartas, comparable a la agrícola o la Revolución Industrial. Esta gente puede entonces reflejan que es difícil concebir un escenario en el que el tiempo de duplicación de la economía mundial reduce a meras semanas que no implica la creación de mentes que son mucho más rápido y más eficiente que el tipo biológico familiar. Sin embargo, el caso de tomar en serio la perspectiva de una revolución inteligencia de la máquina no tiene por qué depender de los ejercicios de ajuste de curvas o extrapolaciones de crecimiento
económico pasado. Como veremos, hay razones más fuertes para tomar atención. Figura 1 La historia a largo plazo del PIB mundial. Trazada en una escala lineal, la historia de la economía mundial se parece a una línea plana abrazando a la X eje y, hasta que de repente clava verticalmente hacia arriba. (A) Incluso cuando nos acercamos a las más recientes 10.000 años, el patrón sigue siendo esencialmente una de un solo ángulo de 90 °. (B) Sólo en los últimos 100 años más o menos hace el ascensor curva sensiblemente por encima del nivel cero. (Las diferentes líneas en la trama corresponden a diferentes conjuntos de datos, que producen poco diferente estimates.6) Grandes expectativas Máquinas emparejan los seres humanos en la inteligencia de que en general es, que poseen el sentido común y la capacidad efectiva de aprender, razonar y planificar para satisfacer desafíos complejos de procesamiento de información a través de una amplia gama de naturales y abstractas dominios han esperado desde la invención de las computadoras en la década de 1940. En ese momento, la llegada de este tipo de máquinas a menudo se coloca una veintena de años en el futuro. 7 Desde entonces, la fecha prevista de llegada ha estado retrocediendo a un ritmo de un año por cada año; por lo que hoy en día, los futuristas que se preocupan por la posibilidad de ia fuerte todavía a menudo creen que las máquinas inteligentes son un par de décadas away.8 Dos décadas es un punto dulce para pronosticadores de cambio radical: lo suficientemente cerca para ser que llame la atención y relevante, pero lo suficiente para que sea posible suponer que para entonces podría haber ocurrido una serie de avances, en la actualidad sólo vagamente imaginable,. Contraste esto con plazos más cortos: la mayoría de las tecnologías que tendrán un gran impacto en el mundo en cinco o diez años a partir de ahora ya son de uso limitado para que tecnologías que remodelar el mundo en menos de quince años, probablemente existen como prototipos de laboratorio. Veinte años también pueden estar cerca de la duración típica restante de la carrera de un pronosticador, que limita el riesgo reputacional de una predicción audaz. Del hecho de que algunos individuos han sobrepronosticó inteligencia artificial en el pasado, sin embargo, no se sigue que la IA es imposible o nunca se desarrolló. 9 La razón principal por la que el progreso ha sido más lento de lo esperado es que las dificultades técnicas de la construcción de máquinas inteligentes han demostrado ser superiores a los pioneros previeron. Pero esto deja abierta cuán grande esas dificultades son y qué tan lejos estamos ahora de superarlos. A veces, un problema que parece inicialmente irremediablemente complicada resulta tener una solución sorprendentemente simple (aunque lo contrario es probablemente más común).
En el próximo capítulo, vamos a ver los diferentes caminos que pueden conducir a la inteligencia de las máquinas a nivel humano. Pero notemos en primer lugar que no obstante las muchas paradas que hay entre aquí y la inteligencia artificial a nivel humano, éste no es el destino final. La siguiente parada, a poca distancia de más largo de las pistas, es la inteligencia artificial a nivel sobrehumano. El tren no podría deten er o incluso desacelerar en la estación Humanville. Es probable que Swoosh derecho. El matemático IJ Good, que había servido como jefe de estadística en el equipo para romper el código de Alan Turing en la Segunda Guerra Mundial, podría haber sido el primero en enunciar los aspectos esenciales de este escenario. En un pasaje muy citado de 1965, escribió: Deje una máquina ultrainteligente definirse como una máquina que ahora puede superar todas las actividades intelectuales de cualquier hombre, sin embargo inteligente. Desde el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar incluso mejores máquinas; entonces habría, sin duda, una "explosión de inteligencia", y la inteligencia del hombre se quedaría muy atrás. Así, la primera máquina ultrainteligente es la última invención de que el hombre tiene que hacer cada vez, siempre que la máquina es lo suficientemente dócil para decirnos cómo mantenerla bajo control. 10 Puede parecer obvio ahora que los principales riesgos existenciales se asociarían con una explosión como la inteligencia, y que la perspectiva, por tanto, debe ser examinada con la mayor seriedad, incluso si se supiera (que no lo es) tener sino un moderado pequeña probabilidad de que viene pasar. Los pioneros de la inteligencia artificial, sin embargo, a pesar de su creencia en la inminencia de nivel AI humana, en su mayoría no contemplan la posibilidad de mayor de lo humano AI. Es como si sus músculos especulación lo había agotado en concebir la posibilidad radical de máquinas alcanzando la inteligencia humana que no podía comprender el corolario-que las máquinas serían posteriormente convertido superinteligente. Los pioneros de AI en su mayor parte no tolerar la posibilidad de que su empresa podría implicar riesgos. 11 Le dieron ningún servicio a dejar el labio solo seria pensamiento a cualquier problema de seguridad o reparo ético relacionado con la creación de mentes artificiales y potenciales señores informáticos: una laguna que asombra incluso en el contexto de la era de la normas no tan impresionantes de tecnología crítica assessment.12 Debemos esperar que por el momento la empresa con el tiempo llega a ser factible, habremos ganado no sólo el nivel de competencia tecnológica para provocar una explosión de inteligencia, sino también el mayor nivel de maestría que sean necesarias para hacer que la detonación de supervivencia. Pero antes de que nos dirigimos a lo que se avecina, será útil tomar un rápido vistazo a la
historia de la inteligencia de la máquina hasta la fecha. Estaciones de la esperanza y la desesperación En el verano de 1956 en el Dartmouth College, diez científicos comparten un interés en las redes neuronales, teoría de autómatas, y el estudio de la inteligencia convocado para un taller de seis semanas. Este Proyecto de Verano Dartmouth es a menudo considerado como el canto del gallo de la inteligencia artificial como un campo de investigación. Muchos de los participantes más tarde sería reconocido como figuras de fundación. La visión optimista entre los delegados se refleja en la propuesta presentada a la Fundación Rockefeller, que proporcionó los fondos para el evento: Proponemos que un 2 meses, 10 estudio hombre de inteligencia artificial se llevará a cabo .... El estudio es proceder sobre la base de la conjetura de que todos los aspectos de aprendizaje o cualquier otra característica de la inteligencia puede en principio ser tan describe precisamente que una máquina puede ser hecha para simular la misma. Se hará un intento de encontrar la manera de hacer las máquinas que utilizan el lenguaje, abstracciones y conceptos de forma, resolver tipos de problemas que ahora reservadas a los seres humanos, y mejorar a sí mismos. Creemos que un avance significativo puede hacerse en uno o más de estos problemas si un grupo cuidadosamente seleccionado de científicos trabajar en él juntos por un verano. En las seis décadas desde este inicio impetuoso, el campo de la inteligencia artificial ha pasado por períodos de bombo y las altas expectativas que se alternan con períodos de retroceso y la decepción. El primer período de excitación, que comenzó con la reunión de Dartmouth, fue descrito más tarde por John McCarthy (principal organizador del evento) como "Mira, mamá, sin manos!" Era. Durante estos primeros días, los investigadores construyeron sistemas diseñados para refutar las afirmaciones de la forma "Ninguna máquina jamás podría hacer X ! "Tales afirmaciones escépticos eran comunes en la época. Para contrarrestarlos, los investigadores de la IA crearon pequeños sistemas que alcanzaron X en un "micromundo" (un bien definido, dominio limitado que permitió una versión reducida de la actuación que se demostró), lo que proporciona una prueba de concepto y demostrar que X podría, en principio, debe hacerse por la máquina. Uno de estos sistemas temprano, el teórico de la lógica, fue capaz de probar la mayor parte de los teoremas en el segundo capítulo de Whitehead y Russell Principia Mathematica , E incluso se acercó con una prueba de que era mucho más elegante que el original, desacreditando así la idea de que las máquinas podrían "pensar sólo numéricamente" y que muestra que las máquinas también fueron capaces de hacer la deducción y de inventar proofs.13 lógica Un seguimiento programa, el general Problem Solver, podría resolver, en principio, una amplia gama de programas problems.14 especificados formalmente que podrían resolver problemas de cálculo típicos de los cursos universitarios de primer año, los problemas de analogía visual del tipo que aparece en algunas pruebas de coeficiente intelectual, y simples verbal problemas de álgebra eran también written.15 El robot Shakey (llamada así debido a su tendencia a temblar durante
la operación) demostró cómo el razonamiento lógico podría ser integrado con la percepción y la utiliza para planificar y controlar física activity.16 El programa ELIZA mostró como un equipo podría suplantar un psychotherapist.17 Rogerian A mediados de los años setenta, el programa SHRDLU mostró cómo un brazo robótico simulado en un mundo simulado de bloques geométricos podría seguir instrucciones y responder a las preguntas en Inglés que se escriben en por un user.18 En décadas posteriores, sistemas haría se crean que demostraron que las máquinas podrían componer música en el estilo de diversos compositores clásicos, superar a los médicos en formación en ciertas tareas de diagnóstico clínico, conducir coches de forma autónoma, y hacer patentable inventions.19 Incluso ha habido una IA que quebró jokes.20 original (no que su nivel de humor era alta "¿Qué se obtiene cuando se cruza un óptico con un objetos mentales ? Una ojo -dea "hijos -pero los informes, encontraron sus juegos de palabras constantemente entretenido.) Los métodos que produjeron éxitos en los sistemas de demostració n tempranas a menudo resultado difícil de extender a una mayor variedad de problemas o para casos de problemas más difíciles. Una razón para esto es la "explosión combinatoria" de posibilidades que deben ser exploradas por los métodos que se basan en algo así como búsqueda exhaustiva. Estos métodos funcionan bien para los casos simples de un problema, pero fracasan cuando las cosas se ponen un poco más complicado. Por ejemplo, para probar un teorema que tiene una de 5 líneas de largo la prueba en un sistema de deducción con una regla de inferencia y 5 axiomas, uno podría simplemente enumerar las combinaciones posibles y comprobar 3,125 cada uno para ver si entrega la conclusión prevista. Búsqueda exhaustiva podría también trabajar para pruebas de 6 y 7 de la línea. Pero a medida que la tarea se hace más difícil, el método de búsqueda exhaustiva pronto se mete en problemas. Demostrando un teorema con una prueba de 50 líneas no toma diez veces más que demostrar un teorema que tiene una prueba de 5 líneas: más bien, si uno utiliza búsqueda exhaustiva, se requiere peinado a través de 550 ≈ 8,9 × 1034 secuencias posibles -que es computacionalmente inviable incluso con los superordenadores más rápidos. Para superar la explosión combinatoria, hay algoritmos que explotan la estructura del dominio de destino y se aprovechan de los conocimientos previos mediante el uso de búsqueda heurística, la planificación y abstractas representaciones capacidades flexibles que estaban mal desarrollados en los primeros sistemas de IA. El rendimiento de estos primeros sistemas también sufrió debido a los métodos deficientes para el manejo de la incertidumbre, la dependencia de las representaciones quebradizos y sin conexión a tierra simbólicos, la escasez de datos y limitaciones de hardware graves sobre la capacidad de la memoria y la velocidad del procesador. A mediados de la década de 1970, hubo una creciente toma de conciencia de estos problemas. La comprensión de que muchos proyectos de IA nunca podrían hacer valer sus promesas iniciales condujo a la aparición de la primera "invierno AI": un período de reducción de personal, durante el cual los fondos disminuyó y aumentó el escepticismo, y la IA se cayó de la moda. Una nueva primavera llegó a principios de 1980, cuando Japón lanzó su Proyecto Quinta
Generación Computer Systems, una asociación público-privada bien financiado que pretendía dejar atrás el estado de la técnica en el desarrollo de una arquitectura de computación paralela masiva que serviría como plataforma para la inteligencia artificial. Esto ocurrió en la fascinación pico con los japoneses "milagro económico de la posguerra", un período en el que líderes gubernamentales y empresariales occidentales buscaban ansiosamente para adivinar la fórmula del éxito económico de Japón en la esperanza de replicar la magia en casa. Cuando Japón decidió invertir grandes en AI, varios otros países siguieron el ejemplo. Los años siguientes vieron una gran proliferación de sistemas expertos. Diseñado como herramientas de apoyo para los tomadores de decisiones, los sistemas expertos son programas basados en reglas que hicieron inferencias sencillas de una base de conocimiento de los hechos, que se había obtenido de expertos en el dominio humano y cuidadosamente codificadas a mano en un lenguaje formal. Se construyeron cientos de estos sistemas expertos. Sin embargo, los sistemas más pequeños siempre poco beneficio, y los más grandes resultaron caros de desarrollar, validar y mantener al día, y eran generalmente engorroso de usar. Era práctico para adquirir un equipo independiente por el simple hecho de ejecutar un programa. A fines de 1980, esta temporada de crecimiento, también, había seguido su curso. El Proyecto Quinta Generación no cumplió con sus objetivos, al igual que sus contrapartes en Estados Unidos y Europa. Un segundo invierno AI descendió. En este punto, un crítico justificadamente podría lamentar "la historia de la investigación de la inteligencia artificial hasta la fecha, que consiste siempre éxito muy limitado en área s particulares, seguido inmediatamente por el fracaso en alcanzar los objetivos más amplios en los que estos éxitos iniciales parecen en un primer momento a insinuar." 21 Los inversores privados comenzaron a huir de cualquier empresa que lleva la marca de la "inteligencia artificial". Incluso entre los académicos y sus financiadores, "AI" se convirtió en un epithet.22 no deseado El trabajo técnico continuó a buen ritmo, sin embargo, y por la década de 1990, el segundo invierno AI descongelarse gradualmente. El optimismo se reavivó por la introducción de nuevas técnicas, que parecía ofrecer alternativas al paradigma logicista tradicional (a menudo referido como "buena inteligencia artificial pasado de moda", o "BAIA" para abreviar), que se había centrado en la manipulación de símbolos de alto nivel y que había alcanzado su apogeo en los sistemas expertos de la década de 1980. Las nuevas técnicas pop ulares, que incluían las redes neuronales y algoritmos genéticos, se comprometieron a superar algunas de las deficiencias del enfoque BAIA, en particular la "fragilidad" que caracteriza los programas de IA clásicas (que normalmente produce una completa tontería si los programadores hicieron ni un solo ligeramente suposición errónea). Las nuevas técnicas se jactó una actuación más orgánico. Por ejemplo, las redes neuronales exhiben la propiedad de "degradación elegante": una pequeña cantidad de daño a una red neuronal normalmente traducido en una pequeña degradación de su funcionamiento, en lugar de un accidente to tal. Aún más importante, las redes neuronales pueden aprender de la experiencia, la búsqueda de formas naturales de generalizar a partir de ejemplos y la búsqueda de patrones estadísticos ocultos en su input.23 Esto hizo que las redes de buenas a problemas de reconocimiento de patrones y clasificación. Por ejemplo, mediante la formación de una red neuronal en un conjunto de datos de las señales de so nar, podría ser enseñado a distinguir los perfiles acústicos de submarinos, minas y la vida marina con mayor precisión que los expertos humanos, y esto se puede hacer sin que nadie tener que averiguar de antemano exactamente cómo las categorías debían ser defin ido o cómo diferentes características debían ser ponderados.
Si bien se habían conocido los modelos de redes neuronales simples desde finales de 1950, el campo disfrutó de un renacimiento después de la introducción del algoritmo backpropagation, lo que hizo posible entrenar redes neuronales multicapa. 24 Este tipo de redes de múltiples capas, que tienen uno o más intermediarios ("ocultos") capas de neuronas entre las capas de entrada y de salida, pueden aprender una gama mucho más amplia de funciones que sus predecessors.25 sencillas combinadas con los ordenadores cada vez más potentes que se estaban convirtiendo disponibles, estas mejoras algorítmicas permitió a los ingenieros para construir redes neuronales que eran lo suficientemente bueno como para ser útil en muchas aplicaciones. Las cualidades del cerebro como de las redes neuronales contrastados fa vorablemente con la lógica de cortar de manera rígida pero el rendimiento de los sistemas frágiles suficientes BAIA basados en reglas tradicionales de modo de inspirar un nuevo "ismo" conexionismo , Que hizo hincapié en la importancia de procesamiento sub-simbólico paralelo masivo. Más de 150.000 artículos académicos ya han sido publicados en las redes neuronales artificiales, y seguirá siendo un enfoque importante en el aprendizaje de la máquina. Los métodos basados en la evolución, tales como algoritmos genéticos y programación genética, constituyen otro enfoque cuyo surgimiento ayudado a poner fin a la segunda invierno AI. Hizo tal vez un impacto académico menor que las redes neuronales, pero fue ampliamente popularizado. En los modelos evolutivos, se mantiene una población de soluciones candidatas (que pueden ser estructuras o programas de datos), y las nuevas soluciones candidatas son generados aleatoriamente por mutación o recombinación de variantes en la población existente. Periódicamente, la población se poda mediante la aplicación de un criterio de selección (una función de aptitud) que permite que sólo los mejores candidatos para sobrevivir en la próxima generación. Repiten a lo largo de miles de generaciones, la calidad media de las soluciones en el grupo de candidatos aumenta gradualmente. Cuando funciona, este tipo de algoritmo puede producir soluciones eficientes a una amplia gama de problemas-soluciones que pueden ser sorprendentemente novedoso y poco intuitivo, a menudo buscan más como estructuras naturales que cualquier cosa que un ingeniero humano diseñaría. Y, en principio, esto puede ocurrir sin mucha necesidad de intervención humana más allá de la especificación inicial de la función de aptitud, que a menudo es muy simple. En la práctica, sin embargo, conseguir métodos evolutivos de trabajar bien requiere habilidad e ingenio, sobre todo en la elaboración de un buen formato de representación. Sin una forma eficiente para codificar soluciones candidatos (un lenguaje genético que coincid e con la estructura latente en el dominio de destino), la búsqueda de la evolución tiende a deambular eternamente en un vasto espacio de búsqueda o quedar atrapado en un óptimo local. Incluso si se encuentra un buen formato de representación, la evolución es computacionalmente exigente ya menudo es derrotado por la explosión combinatoria. Las redes neuronales y algoritmos genéticos son ejemplos de métodos que estimulan el entusiasmo en la década de 1990 al aparecer para ofrecer alternativas al paradigma estancamiento BAIA. Pero la intención aquí no es para cantar las alabanzas de estos dos métodos o para elevarlos por encima de las muchas otras técnicas de aprendizaje
automático. De hecho, uno de los principales desarrollos teóricos de los últimos veinte años ha sido una comprensión más clara de cómo superficialmente técnicas dispares pueden ser entendidas como casos especiales dentro de un marco matemático común. Por ejemplo, muchos tipos de red neuronal artificial se pueden ver como clasificadores que realizan un tipo particular de cálculo estadístico (estimación de máxima verosimilitud).26 Esta perspectiva permite redes neuronales que deben compararse con una clase más amplia de algoritmos para clasificadores de ejemplos- aprendizaje "árboles de decisión", "modelos de regresión logística", "máquinas de vectores soporte", "ingenuo de Bayes", " k -nearest-vecinos de regresión ", entre others.27 De una manera similar, los algoritmos genéticos se pueden ver como realizar estocástico de escalada, que es de nuevo un subconjunto de una clase más amplia de algoritmos para la optimización. Cada uno de estos algoritmos para la construcción de clasificadores o para la búsqueda de un espacio de soluciones tiene su propio perfil de las fortalezas y debilidades que se p ueden estudiar matemáticamente. Los algoritmos difieren en sus requisitos de tiempo de procesador y espacio de memoria, que los sesgos inductiva que presuponen, la facilidad con que externamente contenido producido se puede incorporar, y la transparencia d e su funcionamiento interno son un analista humano. Detrás del alarde publicitario de la máquina de aprendizaje y resolución creativa de problemas tanto se encuentra un conjunto de compensaciones matemáticamente bien especificadas. Lo ideal es que el agente de bayesiano perfecto, uno que hace uso probabilísticamente óptimo de la información disponible. Este ideal es inalcanzable porque está demasiado computacionalmente exigente para ser implementado en cualquier equipo físico (véase el recuadro 1). En consecuencia, se puede ver la inteligencia artificial como una búsqueda para encontrar atajos: formas de tractably aproximar el ideal bayesiano sacrificando algunos optimalidad o generalidad preservando suficiente para conseguir un alto rendimiento en los dominios reales de interés. Un reflejo de esta imagen se puede ver en el trabajo realizado durante el último par de décadas en los modelos gráficos probabilísticos, como las redes Bayesianas. Redes bayesianas proporcionan una forma concisa de representar las relaciones de independencia probabilísticos y condicionales que tienen en algún dominio particular. (Explotación de tales relaciones de independencia es esencial para la superación de la explosión combinatoria, que es como un gran problema para la inferencia probabilística como lo es para la deducción lógica.) También proporcionan información importante sobre el concepto de causalidad. 28 Una de las ventajas de relacionar los problemas de aprendizaje de los dominios específicos para el problema general de la inferencia bayesiana es que los nuevos algoritmos que hacen inferencia bayesiana más eficiente entonces producir mejoras inmediatas a través de muchas áreas diferentes. Los avances en las técnicas de aproximación de Monte Carlo, por ejemplo, se aplican directamente en la visión artificial, la robótica, la genética y computacionales. Otra ventaja es que permite a los investigadores de diferentes disciplinas piscina más fácilmente sus resultados. Modelos gráficos y estadística bayesiana se han convertido en un foco común de investigación en
muchos campos, incluyendo el aprendizaje de máquina, la física estadística, la bioinformática, la optimización combinatoria y teoría de la comunicación.35 Una buena cantidad de los recientes progresos en el aprendizaje de la máquina es el resultado de la incorporación de los resultados formales originalmente derivados en otros campos académicos. (Aplicaciones de aprendizaje de máquina también se han beneficiado enormemente de las computadoras más rápidas y mayor disponibilidad de grandes conjuntos de datos.) Recuadro 1 Un agente bayesiano óptimo Un agente bayesiano perfecto comienza con una "distribución de probabilidad antes", una función que asigna probabilidades a cada "mundo posible" (es decir, a cada forma específica al máximo el mundo podría llegar a ser).29 Este antes incorpora un sesgo inductivo tal que los mundos más simples posibles se asignan probabilidades más altas. (Una forma de definir formalmente la simplicidad de un mundo posible es en términos de su "complejidad Kolmogorov," una medida basada en la longitud del programa más corto de computadoras que genera una descripción completa del mundo.30) El anterior también incorpora cualquier fondo conocimiento de que los programadores quieren dar al agente. Como el agente recibe nueva información de sus sensores, actualiza su distribución de probabilidad por conditionalizing la distribución de la nueva información de acuerdo con el teorema de Bayes. 31 Condicionalización es la operación matemática que establece el nuevo probabilidad de esos mundos que son incompatibles con la información recibida a cero y normaliza la distribución de probabilidad sobre los mundos posibles restantes. El resultado es una "distribución de probabilidad posterior" (que el agente puede usar como su nuevo antes en el siguiente paso del tiempo). A medida que el agente hace observaciones, su masa de probabilidad de este modo se concentró en el conjunto cada vez menor de los mundos posibles que permanecen consistentes con la evidencia; y entre estos mundos posibles, otras más simples siempre tienen más probabilidad. Metafóricamente, podemos pensar en una probabilidad como la arena en una hoja grande de papel. El documento se divide en zonas de diferentes tamaños, cada área correspondiente a un mundo posible, con grandes áreas que corresponden a mundos más simples posibles. Imagínese también una capa de arena de incluso extensión de espesor en toda la hoja: esta es nuestra distribución de probabilidad previa. Cada vez que una observación se hace que descarte algunos mundos posibles, quitamos la arena de las áreas correspondientes del papel y redistribuirlo de manera uniforme sobre las áreas que quedan en juego. Por lo tanto, la cantidad total de la arena en la hoja nunca cambia, sólo se concentra en menos áreas como evidencia observacional acumula. Esta es una imagen de aprendizaje en su forma más pura. (Para calcular la probabilidad de una hipótesis, Simplemente medir la cantidad de arena en todas las áreas que corresponden a los mundos posibles en los que la hipótesis es verdadera.) Hasta el momento, hemos definido una regla de aprendizaje. Para conseguir un agente, también necesitamos una regla de decisión. Con este fin, dotamos al agente con una "función de utilidad", que asigna un número a cada mundo posible. El número representa la conveniencia de que mundo según preferencias básicas del agente. Ahora, en cada paso
de tiempo, el agente selecciona la acción con la más alta utilidad esperada.
32
(Para encontrar la acción con la más alta utilidad esperada, el agente podría enumerar todas las acciones posibles. Se podría entonces calcular la distribución de probabilidad condicional dada la acción de la distribución de probabilidad que resultaría de conditionalizing su distribución de probabilidad actual en la observación de que la acción tenía acaba de ser tomada. Por último, se podría calcular el valor esperado de la acción como la suma del valor de cada mundo posible multiplicado por la probabilidad condicional de que el mundo dado action.33) La regla de aprendizaje y la regla de decisión en conjunto definen una "noción óptimo" para un agente. (Esencialmente la misma noción de optimalidad se ha utilizado ampliamente en la inteligencia artificial, la epistemología, la filosofía de la ciencia, la economía, y las estadísticas. 34 ) En realidad, es imposible construir un agente tal porque es computacionalmente intratable para realizar los cálculos necesarios. Cualquier intento de hacerlo sucumbe a una explosión combinatoria como el descrito en nuestra discusión de la BAIA. Para ver por qué esto es así, considere un pequeño subconjunto de todos los mundos posibles: los que constan de un solo monitor de ordenador flotando en un vacío sin fin. El monitor tiene 1, 000 × 1, 000 píxeles, cada uno de los cuales es perpetuamente encendido o apagado. Incluso este subconjunto de los mundos posibles es enormemente grande: la 2 (1000 × 1000) posibles estados del monitor superan en número a todos los cálculos previstos siempre que tenga lugar en el universo observable. Por lo tanto, no podíamos ni siquiera enumerar todos los mundos posibles en este pequeño subconjunto de todos los mundos posibles, y mucho menos realizar cálculos más elaborados en cada uno de ellos individualmente. Nociones de optimalidad pueden ser de interés teórico, incluso si son físicamente irrealizable. Nos dan un estándar por el cual juzgar aproximaciones heurísticas, ya veces podemos razonar sobre lo que un agente óptima haría en algún caso especial. Nos encontraremos con algunas nociones de optimalidad alternativas para agentes artificiales en el Capítulo 12. Lo último La inteligencia artificial ya supera a la inteligencia humana en muchos dominios. Tabla 1 encuestas del estado de los equipos de juego de papeles, lo que d emuestra que los IA ahora venció a los campeones humanos en una amplia gama de juegos.36 Estos logros no podrían parecer impresionante hoy. Pero esto se debe a que nuestros estándares de lo que es impresionante torre adaptando a los avances que se realizan. Juego de ajedrez de expertos, por ejemplo, se pensaba para personificar la intelección humana. En opinión de varios expertos a finales de los años cincuenta: "Si uno pudiera idear una máquina de ajedrez éxito, uno parece haber penetrado en el núcleo d e la actividad intelectual humana."55 Esto ya no parece tan. Uno simpatiza con John McCarthy, quien se lamentó: ". Tan pronto como funciona, nadie lo llama AI nunca más" 56 Tabla 1 Juego de papeles AI
Damas Sobrehumano Programa de damas de Arthur Samuel, escrito originalmente en 1952 y más tarde mejorado (la versión 1955 incorpora el aprendizaje de máquina), se convierte en el primer programa para aprender a jugar un juego mejor que su creador. 37 En 1994, el programa de CHINOOK bate el campeón reinante humana, marcando la primera vez que un programa gana un campeonato mundial oficial en un juego de habilidad. En 2002, Jonathan Schaeffer y su equipo "resolver" las damas, es decir, producir un programa que siempre hace el mejor movimiento posible (que combina la búsqueda alfa-beta con una base de datos de 39000000000000 posiciones de finales). Juego perfecto por ambos lados conduce a una draw.38 Backgammon Sobrehumano 1979: El programa de backgammon BKG por Hans Berliner derrota el-campeón primer programa informático mundo para derrotar (en un partido de exhibición) un campeón del mundo en cualquier juego, aunque más tarde Berliner atribuye la victoria a la suerte con las tiradas de dados.39
1992: El programa de backgammon TD-Gammon por Gerry Tesauro alcanza la capacidad a nivel de campeonato, con diferencia temporal de aprendizaje (una forma de aprendizaje por refuerzo) y jugadas repetidas contra sí mismo para mejorar. 40
En los años transcurridos desde, programas de backgammon ahora han superado los mejores jugadores humanos.41 TCS viajeros Sobrehumana en colaboración con humanos42 Tanto en 1981 y 1982, el programa de Douglas Lenat Eurisko gana el campeonato de Estados Unidos en TCS viajeros (un juego de guerra naval futurista), lo que provocó cambios en las reglas para bloquear sus estrategias poco ortodoxas. 43 Eurisko tenido heurísticas para el diseño de su flota, y también tenía la heurística para modificar sus heurística. Othello Sobrehumano 1997: El programa Logistello gana cada juego en un partido de seis partidos contra el campeón del mundo de Takeshi Murakami.44 Ajedrez Sobrehumano 1997: Deep Blue es mejor que el campeón mundial de ajedrez, Garry Kasparov. Kasparov afirma haber visto destellos de inteligencia y creatividad cierto en algunos de los movimientos de la computadora. 45 Desde entonces, los motores de ajedrez han seguido improve.46 Crucigramas Nivel Experto 1999: El programa Proverbio crucigrama para resolver el crucigrama supera a -solucionador media.47
2012: El programa Dr. Fill, creada por Matt Ginsberg, las puntuaciones en el cuartil
superior entre los concursantes de lo contrario humanos en la American Crucigrama Torneo. (Del Dr. Rellena rendimiento es irregular. Se completa perfectamente el rompecabezas tiene más difícil por los seres humanos, sin embargo, está perplejo por un par de acertijos no estándar que implicaron la ortografía hacia atrás o escribir respuestas en diagonal.) 48 Escarbar Sobrehumano A partir de 2002, el software de Scrabble-juego supera a los mejores jugadores humanos.49 Puente Igual a la mejor Para el año 2005, puente de contrato que juegan software alcanza la paridad con los mejores jugadores de bridge humanos. 50 Jeopardy! Sobrehumano 2010: IBM Watson derrota a los dos de todos los tiempos-más humana Jeopardy! campeones, Ken Jennings y Brad Rutter.51 Jeopardy! es un programa de juegos por televisión con preguntas de trivia sobre la historia, la literatura, los deportes, la geografía, la cultura pop, la ciencia y otros temas. Las preguntas se presentan en forma de pistas, ya menudo implican juegos de palabras. Póker Variado Los jugadores de póquer de ordenador permanecen ligeramente por debajo de los mejores seres humanos para full-ring de Texas hold 'em pero desempeñarse a un nivel sobrehumano en algunas variantes de póquer. 52 Carta blanca Sobrehumano Heurística evolucionaron mediante algoritmos genéticos producen un solucionador para el juego de solitario FreeCell (que en su forma más generalizada es NP-completo) que es capaz de vencer a los jugadores humanos de alto rango. 53 Ir Muy fuerte nivel amateur A partir de 2012, la serie Zen de los programas de gojuego ha alcanzado el rango 6 dan en los juegos rápidos (el nivel de un jugador muy fuerte aficionado), utilizando Monte Carlo Búsqueda árbol y técnicas de aprendizaje automático.54 Ir-jugando programas han ido mejorando a un ritmo de alrededor de 1 daN / año en los últimos años. Si esta tasa de mejora continúa, podrían vencer a la campeona del mundo humano en cerca de una década. Hay un sentido importante, sin embargo, en que ajedrecista AI resultó ser un triunfo menor de lo que muchos imaginaron que sería. Antes se suponía, tal vez no sin razón, que para que un equipo a jugar al ajedrez a nivel de gran maestro, que tendría que estar dotado de un alto grado de general intelligence.57 Uno podría haber pensado, por ejemplo, el gran juego de ajedrez requiere ser capaz de aprender conceptos abstractos, pensar inteligentemente acerca de la estrategia, redactar planes flexibles, hacer una amplia gama de deducciones lógicas
ingeniosos, y tal vez incluso modelar el pensamiento de un rival. No tan. Resultó ser posible construir un motor de ajedrez perfectamente bien en torno a un algorithm.58 para fines especiales Cuando se implementa en los procesadores rápidos que se hicieron disponibles hacia el final del siglo XX, que produce el juego muy fuerte. Pero una IA construido de esa manera es estrecha. Juega al ajedrez; que puede hacer no other.59 En otros dominios, soluciones han resultado ser más complicada de lo previsto inicialmente, y el progreso más lento. El científico de la computación Donald Knuth fue golpeado que "AI ha ya tenido éxito en hacer básicamente todo lo que necesita" pensar ", pero ha dejado de hacer la mayor parte de lo que la gente y los animales" sin thinking'-que, de alguna manera, es mucho más difícil! "60 Analizar escenas visuales, reconocimiento de objetos, o controlar el comportamiento de un robot que interactúa con un entorno natural ha demostrado ser un reto. Sin embargo, una buena cantidad de progreso se ha hecho y continúa siendo hecha, ayudado por las constantes mejoras en el hardware. El sentido común y la comprensión del lenguaje natural también han resultado ser difícil. En la actualidad se piensa a menudo que el logro de una actuación totalmente plano humano en estas tareas es un problema "AI-completo", lo que significa que la dificultad de resolver estos problemas es esencialmente equivalente a la dificultad de la construcción en general máquinas inteligentes a nivel humano.61 En otras palabras, si alguien fueron para tener éxito en la creación de una IA que pudiera entender el lenguaje natural, así como un adulto humano, serían con toda probabilidad también o bien ya han logrado crear una IA que podría hacer todo lo demás que la inteligencia humana puede hacer, o que serían sino una muy pequeño paso de un capability.62 tan general Experiencia Chess-juego resultó ser alcanzable por medio de un algoritmo sorprendentemente simple. Es tentador especular que otras capacidades tales como la capacidad de razonamiento general, o alguna habilidad clave que participan en la programación pueden asimismo ser alcanzable a través de algún algoritmo sorprendentemente simple. El hecho de que el mejor rendimiento a la vez que se alcanza a través de un complicado mecanismo no significa que no existe un mecanismo simple podría hacer el trabajo tan bien o mejor. Podría ser simplemente que nadie ha encontrado la alternativa más sencilla. El sistema de Ptolomeo (con la Tierra en el centro, en órbita por el Sol, la Luna, los planetas y las estrellas) representó al estado de la técnica en la astronomía durante más de mil años, y su exactitud predictiva se ha mejorado durante siglos por complicando progresivamente el modelo añadiendo epiciclos sobre epiciclos a los movimientos celestes postuladas. Entonces todo el sistema fue derrocado por la teoría heliocéntrica de Copérnico, que era más simple y, aunque sólo después de una mayor elaboración por accurate.63 Kepler-más predictiva Métodos de inteligencia artificial se utilizan ahora en más áreas de lo que tendría sentido para revisar aquí, pero mencionando una muestra de ellos le dará una idea de la amplitud de las aplicaciones. Aparte del juego de IA aparece en la Tabla 1, hay audífonos con algoritmos que filtran el ruido ambiental; ruta buscadores que muestran mapas y ofrecen consejos de navegación para los conductores; sistemas de recomendación que sugieren libros y álbumes de música basado en las compras y clasificaciones anteriores de un usuario; y los sistemas de apoyo a las decisiones médicas que ayudan a los médicos a
diagnosticar el cáncer de mama, recomiendan los planes de tratamiento, y la ayuda en la interpretación de electrocardiogramas. Hay mascotas robóticas y robots de limpieza, los robots de césped-siega, robots de rescate, robots quirúrgicos, y más de un millón de robots industriales. 64 La población mundial de robots supera 10 million.65 Reconocimiento de voz moderna, basada en técnicas estadísticas tales como los modelos ocultos de Markov, se ha convertido suficientemente exacta para el uso práctico (algunos fragmentos de este libro se redactaron con la ayuda de un programa de reconocimiento de voz). Asistentes digitales personales, tales como Siri de Apple, responden a comandos de voz y pueden responder a preguntas sencillas y ejecutar comandos. Reconocimiento óptico de caracteres de texto manuscrito y mecanografiado se utiliza rutinariamente en aplicaciones como el correo de clasificación y digitalización de documentos antiguos.66 Traducción automática sigue siendo imperfecto, pero es lo suficientemente bueno para muchas aplicaciones. Los primeros sistemas utilizan el enfoque BAIA de gramáticas de codificación manual que tuvieron que ser desarrollada por lingüistas calificados de cero para cada idioma. Los nuevos sistemas utilizan técnicas de aprendizaje automático estadísticos que construyen automáticamente modelos estadísticos de los patrones de uso observados. La máquina deduce los parámetros de estos modelos mediante el análisis de corpora bilingüe. Este enfoque prescinde de los lingüistas: los programadores que construyen estos sistemas necesitan ni siquiera hablar las lenguas con las que trabajan. 67 El reconocimiento facial ha mejorado lo suficiente en los últimos años que ahora se utiliza en los pasos fronterizos automatizados en Europa y Australia. El Departamento de Estado de Estados Unidos opera un sistema de reconocimiento facial con más de 75 millones de fotografías para la tramitación de visados. Los sistemas de vigilancia utilizan tecnologías de minería de datos cada vez más sofisticada IA y analizar de voz, vídeo o texto, grandes cantidades de las cuales están rastreado desde los medios de comunica ción electrónicos en el mundo y se almacenan en centros de datos gigantes. Teorema-proving y la ecuación de problemas son ahora tan bien establecidas que apenas se consideran como la IA más. Solucionadores de ecuaciones se incluyen en los programas de computación científica, tales como Mathematica. Métodos de verificación formal, incluyendo demostradores de teoremas automatizadas, se utilizan de forma rutinaria por los fabricantes de chips para verificar el comportamiento de los diseños de circuitos antes de la producción. Los establecimientos militares y de inteligencia de Estados Unidos han estado liderando el camino para el despliegue a gran escala de los robots de bombas, disponiendo de vigilancia y ataque aviones y otros vehículos no tripulados. Esto s todavía dependen principalmente de control remoto por los operadores humanos, pero se está trabajando para extender sus capacidades autónomas. Programación inteligente es un área importante de éxito. La herramienta de DART para la planificación logística automatizada y la programación se utilizó en la Operación Tormenta del Desierto en 1991 a tales efectos que DARPA (Agencia de Proyectos de Investigación Avanzada de Defensa de los Estados Unidos) afirma que e sta sola aplicación más que pagado su inversión de treinta años en la IA .
68 Sistemas de reserva de avión utilizan sistemas de programación y de precios sofisticados. Las empresas hacen un amplio uso de técnicas de IA en los sistemas de control de inventario. También utilizan sistemas de reserva telefónica automáticas y líneas de ayuda
relacionados con el software de reconocimiento de voz para marcar el comienzo de sus clientes a través de desventurados laberintos de enclavamiento opciones del menú. Tecnologías de IA subyacen muchos servicios de Internet. Software vigila el tráfico de correo electrónico en el mundo, ya pesar de la adaptación continua por los spammers para burlar las contramedidas que se les imputan, los filtros de spam bayesiano han logrado en gran medida para contener la marea de spam a raya. Software utilizando componentes de AI es responsable de aprobar o rechazar automáticamente las transacciones de tarjetas de crédito, y un seguimiento continuo de la actividad de cuenta para detectar signos de uso fraudulento. Sistemas de recuperación de información también hacen un amplio uso de la máquina de aprendizaje. El motor de búsqueda de Google es, sin duda, el mayor sistema de inteligencia artificial que aún se ha construido.
Ahora, hay que subrayar que la demarcación entre la inteligencia artificial y el software en general no es agudo. Algunas de las aplicaciones mencionadas anteriormente podría ser visto más como aplicaciones de software genéricos en lugar de AI, en particular, aunque esto nos lleva de nuevo a la máxima de McCarthy que cuando algo funciona ya no se llama AI. Una distinción más relevante para nuestros propósitos es que entre los sistemas que tienen un estrecho margen de capacidad cognitiva (llámense "AI" o no) y los sistemas que tienen más en general la capacidad de resolución de problemas aplicables. Esencialmente todos los sistemas actualmente en uso son del primer tipo: estrecho. Sin embargo, muchos de ellos contienen componentes que también podría desempeñar un papel en el futuro inteligencia general artificial o estar al servicio de su desarrollocomponentes tales como clasificadores, algoritmos de búsqueda, los planificadores, los solucionadores, y los marcos de representación. Uno de alto riesgo y entorno extremadamente competitivo en el que los sistemas de IA operan hoy en día es el mercado financiero global. Los sistemas automatizados en acciones comerciales son ampliamente utilizados por las principales casas de inversión. Si bien algunos de estos son simplemente formas de automatizar la ejecución de determinados comprar o vender órdenes emitidas por un gestor de fondos humana, otros persiguen estrategias comerciales complicadas que se adaptan a las condiciones cambiantes del mercado. Sistemas analíticos utilizan una variedad de técnicas de minería de datos y análisis de series de tiempo para explorar en busca de patrones y tendencias en los mercados de valores o para correlacionar los movimientos de precios históricos con variables externas tales como palabras clave en tickers de noticias. Proveedores de noticias financieras venden paquetes de noticias que están especialmente formateados para su uso por este tipo de programas de IA. Otros sistemas se especializan en la búsqueda de oportunidades de arbitraje dentro o entre los mercados, o en el comercio de alta frecuencia, que busca sacar provecho de los movimientos de precios minuto que se producen en el transcurso de milisegundos (una escala de tiempo en el que las latencias de comunicación, incluso para la velocidad de la luz en señales ópticas cable de fibra convertirse significativa, por lo que es ventajoso para localizar ordenadores cerca de la central). Operadores de alta frecuencia algorítmicos representan más de la mitad de las acciones de renta variable negociados en mercados de Estados Unidos. 69
Comercio algorítmico ha sido implicado en Flash Crash de 2010 (ver Cuadro 2).
Recuadro 2 El flash crash de 2010 Por la tarde de mayo, 6, 2010, los mercados de acciones de Estados Unidos ya se redujeron un 4% por las preocupaciones sobre la crisis de la deuda europea. En 14:32, un gran vendedor (un complejo de fondos mutuos) inició un algoritmo de venta de disponer de un gran número de los E-mini S & P 500 contratos de futuros para ser vendido a un ritmo de venta vinculada a una medida de minuto-a- -Minuto liquidez en la bolsa. Estos contratos fueron comprados por comerciantes de alta frecuencia algorítmicos, que fueron programados para eliminar rápidamente sus posiciones largas temporales mediante la venta de los
contratos a otros comerciantes. Con la demanda de los compradores fundamentales tocado la barriga, la comerciantes algorítmicos comenzaron a vender el E-Minis principalmente a otros operadores algorítmicos, que a su vez les transmiten a los demás operadores algorítmicos, creando un efecto "patata caliente" haciendo subir volumen esta negociación se interpreta por el algoritmo de venta como un indicador de alta la liquidez, lo que llevó a aumentar el ritmo al que se estaba poniendo contratos E-Mini en el mercado, empujando la espiral descendente. En algún momento, los operadores de alta frecuencia comenzaron la retirada del mercado, secando la liquidez mientras que los precios siguieron cayendo. A las 2:45 de la tarde, la negociación en el E-mini se detuvo por un interruptor automático, funcionalidad lógica de parada de la central. Cuando se reinició el comercio, tan sólo cinco segundos más tarde, los precios se estabilizaron y pronto comenzaron a recuperar la mayor parte de las pérdidas. Pero durante un tiempo, en el punto más bajo de la crisis, un billón de dólares se habían borrado del mercado, y los efectos secundarios se habían llevado a un número sustancial de las operaciones en valores individuales en ejecución a precios "absurdas", como un centavo o 100000 dólares. Después del cierre del mercad o para el día, los representantes de las bolsas se reunieron con los reguladores y decidieron romper todos los oficios que habían sido ejecutadas a precios 60% o más lejos de sus niveles anteriores a la crisis (considerando este tipo de transacciones "claramente errónea" y por lo tanto sujetos a post facto cancelación bajo las reglas comerciales existentes) 0.70 El volver a contar aquí de este episodio es una digresión porque los programas informáticos que intervienen en el flash Crash no eran particularmente inteligente o sofisticado, y el tipo de amenaza que crean es fundamentalmente diferente de las preocupaciones nos recaudar más adelante en este libro en relación con la perspectiva de la máquina superinteligencia. Sin embargo, estos acontecimientos ilustran varias lecciones útiles. Uno de ellos es el recordatorio de que las interacciones entre los componentes de forma individual simples (como el algoritmo de venta y de los programas de negociación algorítmica de alta frecuencia) puede producir efectos complicados e inesperados. El riesgo sistémico puede acumularse en un sistema de medida que se introducen nuevos elementos, los riesgos que no son evidentes hasta después de que algo va mal (ya veces ni siquiera entonces). 71 Otra lección es que los profesionales inteligentes pueden dar una instrucción a un programa basado en una suposición razonable aparente y, normalmente, de sonido (por ejemplo, que el volumen de comercio es una buena medida de la liquidez del mercado), y que esto puede producir resultados catastróficos cuando el programa sigue actuando en la instrucción con férrea coherencia lógica, incluso en la situación no prevista en la hipótesis resulta ser válido. El algoritmo simplemente hace lo que hace; ya menos que se trata de un tipo muy especial de algoritmo, no importa que nos juntamos nuestras cabezas y jadeo de horror estupefacto a lo inapropiado absurdo de sus acciones. Este es un tema que nos encontraremos de nuevo. Una tercera observación en relación con el flash Crash es que mientras que la automatización contribuyó a la incidente, también contribuyó a su resolución. La lógica de
orden de suspensión pre-programada previamente, que suspendió el comercio cuando los precios se movieron demasiado fuera de control, se estableció para ejecutar automáticamente porque se había previsto correctamente que los eventos desencadenantes podrían ocurrir en un plazo de tiempo demasiado rápido para que los humanos responden. La necesidad de seguridad pre-instalado y ejecutar automáticamente la funcionalidad de oposición a la dependencia de tiempo de ejecución humana supervisión nuevo presagia un tema que será importante en nuestra discusión de la máquina superinteligencia. 72 Las opiniones sobre el futuro de la inteligencia artificial Progreso en dos grandes frentes hacia una más sólida base estadística y teoría de la información para la máquina de aprendizaje, por un lado, y hacia el éxito práctico y comercial de varias aplicaciones de problemas específicos o de dominio específico en el otro, se ha restaurado a la investigación en IA algo de su prestigio perdido. Puede haber, sin embargo, ser una efecto cultural residual en la comunidad de la IA de su historia anterior que hace que muchos investigadores principales renuentes a alinearse con el exceso de gran ambición. Así Nils Nilsson, uno de los veteranos en el campo, se queja de que sus colegas de hoy en día carecen de la audacia de espíritu que impulsó a los pioneros de su propia generación: La preocupación por la "respetabilidad" ha tenido, creo, un efecto embrutecedor en algunos investigadores de la IA. Los oigo decir cosas como, "AI solía ser criticado por su flossiness. Ahora que hemos hecho un progreso sólido, no nos arriesgamos a perder nuestra respetabilidad "Un resultado de este conservadurismo se ha aumentado la concentración en" IA débil ", la variedad dedicada a proporcionar ayudas a pensamiento y humano de distancia de" IA fuerte ". - la variedad que los intentos de mecanizar inteligencia a nivel humano. 73 El sentimiento de Nilsson ha sido repetida por varios otros de los fundadores, entre ellos Marvin Minsky, John McCarthy, y Patrick Winston. 74 Los últimos años han visto un resurgimiento del interés en la IA, que aún podría extenderse a renovados esfuerzos hacia artificial general inteligencia (lo que llama Nilsson "IA fuerte"). Además de hardware más rápido, un proyecto contemporáneo se beneficiaría de los grandes avances que se han hecho en los muchos subcampos de AI, en ingeniería de software de manera más general, y en los campos vecinos, como la neurociencia computacional. Un indicio de la demanda acumulada de la información y la educación de calidad se muestra en la respuesta a la oferta gratuita en línea de un curso de introducción a la inteligencia artificial de l a Universidad de Stanford en el otoño de 2011, organizada por Sebastian Thrun y Peter Norvig. Algunos 160.000 estudiantes de todo el mundo firmaron desde la izquierda (y 23.000 completaron) 0.75 Opiniones de expertos sobre el futuro de la IA varían enormemente. Hay desacuerdo sobre escalas de tiempo, así como acerca de lo que constituye AI eventualmente podría tomar. Las predicciones sobre el futuro desarrollo de la inteligencia artificial, un estudio reciente señaló que "son tan seguros como lo son diversos."
76
Aunque la distribución actual de la fe no se ha medido con mucho cuidado, podemos obtener una idea aproximada de
diversas encuestas y observaciones informales más pequeños. En particular, una serie de encuestas recientes han encuestados miembros de varias comunidades de expertos pertinentes sobre la cuestión de cuándo esperan que "la inteligencia artificial a nivel humano" (HLMI) a desarrollar, que se define como "una que pueda llevar a cabo la mayoría de las profesiones humanas, al menos , así como un humano típico ".
77 Los resultados se muestran en la Tabla 2. dio la siguiente (mediana) estiman La muestra combinada: 10% de probabilidad de HLMI en 2022, 50% de probabilidad para el 2040, y un 90% de probabilidades de 2075. (se les hizo a los encuestados que premisa de sus estimaciones en el supuesto que "la actividad científica humana continúa sin interrupción importante negativo.") Estas cifras deben tomarse con algunos granos de sal: tamaños de muestra son bastante pequeñas y no necesariamente representativos de la población general de experto. Ellos son, sin embargo, en concordancia con los resultados de otras encuestas. 78 Los resultados de la encuesta también están en línea con algunas entrevistas publicadas recientemente con aproximadamente dos docenas de investigadores en campos relacionados a Inteligencia Artificial. Por ejemplo, Nils Nilsson ha pasado una carrera larga y productiva trabajando en problemas en la búsqueda, la planificación, la representación del conocimiento, y la robótica; es autor de los libros de texto en la inteligencia artificial; y recientemente completó la historia más completa del campo escrito hasta la fecha. 79 Cuando se le preguntó acerca de las fechas de llegada para HLMI, ofreció el siguiente dictamen: 80 10% de probabilidad: 2030 50% de probabilidad: 2050 90% de probabilidad: 2100 Tabla 2
Cuando se alcanza la inteligencia artificial a nivel humano?81
A juzgar por las transcripciones de las entrevistas publicadas, distribución de probabilidad del profesor Nilsson parece ser bastante representativa de muchos expertos en el área, aunque de nuevo hay que destacar que existe una amplia difusión de la opinión: hay profesionales que son sustancialmente más boosterish, con confianza esperando HLMI en el rango de 2020 a 40, y otros que están seguros de que o bien nunca va a suceder o que es indefinidamente lejos. 82 Además, algunos de los entrevistados consideran que la noción de un "nivel humano" de la inteligencia artificial es mal definido o engañosa, o por otras razones son reacios a dejar constancia con una predicción cuantitativa. Mi propia opinión es que los números reportados en la mediana de la encuesta de expertos no tienen masa de probabilidad suficiente en fechas posteriores de la llegada. Una probabilidad de 10% de HLMI no haber sido desarrollado por 2075 o incluso 2100 (después conditionalizing en "actividad científica humana continua y sin interrupción importante negativo") parece demasiado bajo. Históricamente, los investigadores de la IA no han tenido un fuerte récord de ser capaz de predecir la velocidad de los avances en su propio campo o la forma que tales avances tomarían. Por una parte, algunas tareas, como el ajedrez de juego, resultaron ser alcanzable mediante programas sorprendentemente simples; y detractores que afirmaban que las máquinas serían "nunca" ser capaz de hacer esto o aquello en repetidas ocasiones
se han equivocado. Por otro lado, los errores más típicos entre los practicantes han sido subestimar las dificultades de conseguir un sistema para llevar a cabo con firmeza en las tareas del mundo real, y para sobrestimar las ventajas de su propio proyecto personal o técnica. La encuesta también preguntó a otras dos cuestiones de importancia para nuestra investigación. Se informó de los encuestados acerca de cuánto tiempo pensaban que se tardaría en llegar superinteligencia asumiendo máquina-nivel humano se logra primero. Los resultados están en la Tabla 3. Otra pregunta preguntó lo que pensaban sería el impacto general a largo plazo para la humanidad de alcanzar la inteligencia artificial a nivel humano. Las respuestas se resumen en la figura 2. Mis propias opiniones nuevamente difieren un poco de las opiniones expresadas en la encuesta. Asigno una probabilidad más alta de superinteligencia creándose relativamente pronto después de la inteligencia artificial a nivel humano. También tengo una perspectiva más polarizado sobre las consecuencias, pensando una muy buena o un muy mal resultado ser algo más propensos que un resultado más equilibrado. Las razones de esto se aclararán más adelante en el libro. Tabla 3 ¿Cuánto tiempo desde el nivel humano a superinteligencia? Dentro de 2 años después de HLMI Dentro de 30 años después de HLMI TOP100 5% 50% 10% 75%
Conjunto
Figura 2 Impacto global a largo plazo de HLMI.83 Los tamaños pequeños de la muestra, los sesgos de selección, y -sobre todo- la falta de fiabilidad inherente de opiniones personales provocaron quiere decir que no se debe leer demasiado en estas encuestas a expertos y entrevistas. Ellos no nos dejan sacar ninguna conclusión firme. Pero ellos apuntan a una conclusión débil. Ellos sugieren que (al menos en lugar de mejores datos o análisis) puede ser razonable para creer que la inteligencia de la máquina a nivel humano tiene una oportunidad bastante considerable de ser desarrollado a mediados de siglo, y que tiene la oportunidad no trivial de ser desarrollado considerablemente más pronto o más tarde; que podría tal vez muy pronto a partir de entonces como resultado superinteligencia; y que una amplia gama de resultados puede tener una posibilidad significativa de que ocurra, incluyendo muy buenos resultados y los resultados que son tan malos como la extinción humana.84 Por lo menos, sugieren que el tema merece una mirada más cercana. CAPITULO 2 Caminos de superinteligencia Las máquinas son actualmente muy inferiores a los humanos en la inteligencia
general. Sin embargo, un día (que hemos sugerido) serán superinteligente. ¿Cómo podemos llegar desde aquí hasta allí? Este capítulo explora varios caminos tecnológicos concebibles. Nos fijamos en la inteligencia artificial, la emulación de todo el cerebro, la cognición biológica, y las interfaces hombre-máquina, así como redes y organizaciones. Evaluamos sus diferentes grados de plausibilidad como vías para superinteligencia. La existencia de múltiples caminos aumenta la probabilidad de que el destino se puede alcanzar a través de al menos uno de ellos. Podemos definir tentativamente una superinteligencia como cualquier intelecto que supera en gran medida el rendimiento cognitivo de los seres humanos en prácticamente todos los ámbitos de interés0.1 Tendremos más que decir sobre el concepto de superinteligencia en el próximo capítulo, donde vamos a someterla a una especie de análisis espectral para distinguir algunas diferentes formas posibles de superinteligencia. Pero por ahora, la caracterización aproximada acaba de dar suficiente. Tenga en cuenta que la definición es evasivo acerca de cómo se implementa la superinteligencia. También es evasivo respecto qualia: si una superinteligencia tendría experiencia consciente subjetiva podría tener gran importancia para algunas preguntas (en particular para algunas cuestiones morales), pero nuestro principal objetivo aquí es sobre los antecedentes causales y consecuencias de la superinteligencia, no en la metafísica de la mind.2 El programa de ajedrez Deep Fritz no es una superinteligencia en esta definición, ya que Fritz es sólo es inteligente dentro del dominio estrecha de ajedrez. Ciertos tipos de superinteligencia de dominio específico podrían, sin embargo, será importante. Al referirse al desempeño superinteligente limitado a un dominio particular, vamos a notar explícitamente la restricción. Por ejemplo, un "superinteligencia ingeniería" sería un intelecto que supera ampliamente las mejores mentes humanas actuales en el campo de la ingeniería. A menos que se indique lo contrario, se utiliza el término para referirse a los sistemas que tienen un nivel sobrehumano de general inteligencia. Pero ¿cómo podemos crear superinteligencia? Examinemos algunos caminos posibles. Inteligencia artificial Los lectores de este capítulo no deben esperar un anteproyecto para la programación de una inteligencia general artificial. No existe tal plan, sin embargo, por supuesto. Y si yo hubiera estado en posesión de un modelo tal, que con toda seguridad no habría publicado en un libro. (Si las razones de esto no son inmediatamente evidentes, los argumentos en los capítulos siguientes se hacen claras.) Podemos, sin embargo, discernir algunas de las características generales del tipo de sistema que se requeriría. Ahora parece claro que la capacidad de aprender sería una característica integral del diseño de la base de un sistema destinado a lograr la inteligencia general, no es algo que se insertan en adelante como una extensión o una ocurrencia tardía. Lo mismo ocurre con la capacidad de hacer frente eficazmente a la incertidumbre y la información probabilística. Algunos profesores para extraer conceptos útiles a partir de los datos sensoriales y estados internos, y para el aprovechamiento de los conceptos adquiridos en representaciones combinatorias flexibles para su uso en el razonamiento lógico e intuitivo, también es probable que pertenecen entre las características de diseño de núcleo en una IA moderna destinadas a alcanzar la inteligencia general. Los primeros sistemas de Inteligencia Artificial buena pasada de moda no lo hicieron, en su mayor parte, se centran en el aprendizaje, la incertidumbre, o la formación de
conceptos, tal vez porque las técnicas de tratar con estas dimensiones fueron poco desarrollada en el momento. Esto no quiere decir que las ideas subyacentes son tan novedoso. La idea de utilizar el aprendizaje como un medio de bootstrapping un sistema más sencillo a la inteligencia de nivel humano se remonta al menos a la noción de una "máquina de niño", que él escribió en 1950 de Alan Turing: En lugar de tratar de producir un programa para simular la mente adulta, ¿por qué no más bien tratar de producir uno que simula el niño? Si esto se somete entonces a un curso apropiado de la educación se obtendría el cerebro adulto.3 Turing preveía un proceso iterativo para desarrollar una máquina tal niño: No podemos esperar encontrar una buena máquina niño en el primer intento. Hay que experimentar con la enseñanza de uno de esos máquina y ver lo bien que aprende. Entonces se puede probar con otro y ver si es mejor o peor. Hay una conexión obvia entre este proceso y la evolución .... Uno puede Esperemos, sin embargo, que este proceso será más rápido que la evolución. La supervivencia del más apto es un método lento para medir ventajas. El experimentador, por el ejercicio de la inteligencia, debe ser capaz de acelerarlo. Igualmente importante es el hecho de que no se limita a mutaciones aleatorias. Si es capaz de trazar una causa de alguna debilidad que probablemente puede pensar en el tipo de mutación que mejorarlo. 4 Sabemos que los procesos evolutivos ciegos pueden producir inteligencia general a nivel humano, puesto que ya lo han hecho al menos una vez. Procesos evolutivos con visión de futuro, es decir, los programas genéticos diseñados y guiados por un ser inteligente programador debe humano será capaz de lograr un resultado similar con mucho mayor eficiencia. Esta observación ha sido utilizado por algunos filósofos y científicos, entre ellos David Chalmers y Hans Moravec, para argumentar que a nivel de AI humana no sólo es teóricamente posible, pero factible dentro de este siglo. 5 La idea es que podemos estimar las capacidades relativas de evolución y la ingeniería humana para producir inteligencia, y encontrar que la ingeniería humana es ya muy superior a la evolución en algunas áreas y es probable que se convierta superior en las áreas restantes en poco tiempo. El hecho de que la evolución produce la inteligencia, por tanto, indica que la ingeniería humana pronto será capaz de hacer lo mismo. Por lo tanto, escribió Moravec (ya en 1976): La existencia de varios ejemplos de inteligencia diseñado bajo estas limitaciones nos debe dar una gran confianza de que podemos lograr lo mismo en el corto plazo. La situación es análoga a la historia del más pesado que el vuelo del aire, donde las aves, murciélagos e insectos demostraron claramente la posibilidad antes de nuestra cultura dominó.6 Uno tiene que tener cuidado, sin embargo, en lo que uno dibuja inferencias de esta línea de razonamiento. Es cierto que la evolución produce más pesado que el aire de vuelo, y que los ingenieros humanos posteriormente tuvo éxito en hacer lo mismo (aunque por medio de un mecanismo muy diferente). Otros ejemplos también podrían
aducirse, como el sonar, la navegación magnética, las armas químicas, los fotorreceptores, y todo tipo de características de rendimiento mecánico y cinéticos. Sin embargo, se podría igualmente apuntar a áreas donde los ingenieros humanos han fracasado hasta el momento para que coincida con la evolución: en la morfogénesis, la auto-reparación, y la defensa inmune, por ejemplo, los esfuerzos humanos están muy por detrás de lo que la naturaleza ha logrado. El argumento de Moravec, por lo tanto, no puede darnos "gran confianza" que podemos lograr la inteligencia artificial a nivel humano "en el corto plazo." A lo mejor, la evolución de la vida inteligente coloca un límite superior en la dificultad intrínseca del diseño de la inteligencia. Pero este límite superior podría ser muy muy por encima de las capacidades actuales de ingeniería humanos. Otra forma de desplegar un argumento evolutivo para la viabilidad de la IA es a través de la idea de que podríamos, mediante la ejecución de algoritmos genéticos en las computadoras lo suficientemente rápidos, conseguir resultados comparables a los de la evolución biológica. Esta versión de la argumento evolutivo propone por lo tanto un método específico mediante el cual la inteligencia podría ser producido. Pero es cierto que pronto vamos a tener suficiente poder de cómputo para recapitular los procesos evolutivos pertinentes que produjeron la inteligencia humana? La respuesta depende tanto de la cantidad de tecnología informática avanzará en las próximas décadas y en la forma en que se requiere mucha potencia de cálculo para ejecutar algoritmos genéticos con la misma potencia de optimización como el proceso evolutivo de la selección natural que se encuentra en nuestro pasado. Aunque, al final, la conclusión que obtenemos de perseguir esta línea de razonamiento es decepcionantemente indeterminada, es instructivo para intentar un cálculo aproximado (ver Cuadro 3). Si nada más, el ejercicio llama la atención sobre algunas incógnitas interesantes. El resultado es que los recursos computacionales necesarios para simplemente replicar los procesos evolutivos relevantes en la Tierra que producen inteligencia a nivel humano son severamente fuera de su alcance, y permanecerán así que incluso si la ley de Moore fuera a continuar durante un siglo (ver Figura 3). Es plausible, sin embargo, que en comparación con la replicación de fuerza bruta de los procesos evolutivos naturales, vastas mejoras en la eficiencia son alcanzables por el diseño del proceso de búsqueda para objetivo para la inteligencia, utilizando diversas mejoras evidentes sobre la selección natural. Sin embargo, es muy difícil de obligado la magnitud de los aumentos de la eficiencia alcanzables. Ni siquiera podemos decir si ascienden a cinco o veinticinco órdenes de magnitud. Ausente una mayor elaboración, por lo tanto, los argumentos evolucionistas no pueden restringir significativamente nuestras expectativas de cualquiera de la dificultad de la construcción de la inteligencia artificial a nivel humano o los plazos para tales desarrollos. Recuadro 3 ¿Qué haría falta para recapitular la evolución? No todos los hazaña lograda por la evolución en el curso del desarrollo de la inteligencia humana es relevante para un ingeniero humano tratando de evolucionar artificialmente inteligencia de la máquina. Sólo una pequeña parte de la selección evolutiva de la Tierra ha sido la selección de inteligencia. Más específicamente, los problemas que los ingenieros humanos no pueden derivación trivialmente pueden haber sido objeto de una
porción muy pequeña de la selección evolutiva total. Por ejemplo, ya que podemos ejecutar nuestros equipos de la energía eléctrica, que no tenemos que reinventar las moléculas de la economía de la energía celular con el fin de crear máquinas inteligentes, y sin embargo la evolución molecular de las vías metabólicas podrían haber utilizado una gran parte del total cantidad de energía de selección que estaba a disposición de la evolución a lo largo de la historia de la Tierra. 7 Se podría argumentar que las ideas clave para la IA están incorporados en la estructura del sistema nervioso, que entró en existencia hace menos de mil millones de años.8 Si tomamos ese punto de vista, entonces el número de "experimentos" pertinentes a disposición de la evolución se redujo drásticamente. Hay algunas 4-6 × 1030 procariotas en el mundo de hoy, pero sólo 1.019 insectos, y menos de 1.010 seres humanos (mientras que las poblaciones pre-agrícolas eran órdenes de magnitud más pequeña) 0.9 Estos números sólo son intimidantes moderadamente. Los algoritmos evolutivos, sin embargo, requieren no sólo variaciones de seleccionar entre, sino también una función de aptitud para evaluar variantes, y esto es por lo general el componente más costoso computacionalmente. Una función de aptitud para la evolución de la inteligencia artificial plausiblemente requiere simulación del desarrollo neuronal, el aprendizaje y la cognición para evaluar la aptitud. Podemos por lo tanto es mejor no hacer para mirar el número prima de organismos con sistemas nerviosos complejos, pero en lugar de asistir al número de neuronas en los organismos biológicos que podamos necesitar para simular para imitar la función de la aptitud de la evolución. Podemos hacer un crudo estimación de que esta última cantidad, considerando los insectos, que dominan la biomasa animal terrestre (con hormigas solo estimados para contribuir un 15-20%) 10 insectos del tamaño del cerebro varía sustancialmente, con los insectos grandes y sociales luciendo cerebros más grandes:. un cerebro de la abeja tiene un poco menos de 106 neuronas, el cerebro de la mosca de fruta tiene 105 neuronas, y las hormigas se encuentran en el medio con 250.000 neurons.11 La mayoría de los insectos más pequeños pueden tener cerebros de unos pocos miles de neuronas. Errar en el lado de alta de forma conservadora, si asignamos todos los números 1.019 insectos fruta-mosca de neuronas, el total sería de 1.024 neuronas de insectos en el mundo. Esto podría ser aumentado con un pedido adicional de magnitud para dar cuenta de los copépodos acuáticas, aves, reptiles, mamíferos, etc., para llegar a 1025. (Por el contrario, en los tiempos pre-agrícolas había menos de 107 seres humanos, con arreglo 1.011 neuronas cada :. por lo tanto menos de 1.018 neuronas humanas en total, aunque los seres humanos tienen un mayor número de sinapsis por neurona) El coste computacional de simular una neurona depende del nivel de detalle que se incluye en la simulación. Modelos de neuronas simples Extremadamente utilizan cerca de 1.000 operaciones de punto flotante por segundo (FLOPS) para simular una neurona (en tiempo real). El modelo de Hodgkin-Huxley electrofisiológicamente realista utiliza 1200000 flops. Un modelo multi-compartimental más detallada añadiría otros tres o cuatro órdenes de magnitud, mientras que los modelos de mayor nivel que los sistemas abstractos de las neuronas podrían restar dos a tres órdenes de magnitud a partir de los modelos simples. 12
Si nos vamos a simular 1.025 neuronas más de mil millones de años de evolución (más de la existencia de los sistemas nerviosos como los conocemos), y permitimos que nues tras computadoras se ejecuten durante un año, estas cifras nos dan un requisito en el rango de 1031 -1044 flops. En comparación, China Tianhe-2, la supercomputadora más potente del mundo a partir de septiembre de 2013, proporciona sólo 3,39 × 1016 FLOPS. En las últimas décadas, se ha tomado unos 6,7 años para las computadoras de los productos básicos para aumentar el poder en un orden de magnitud. Incluso un siglo de continuo la ley de Moore no sería suficiente para cerrar esta brecha. Ejecución de hardware más especializado, o permitiendo ya veces correr, podría contribuir a pocos más órdenes de magnitud. Esta cifra es conservadora en otro aspecto. Evolución logra la inteligencia humana, sin el objetivo de este resultado. En otras palabras, las funciones de la aptitud para organismos naturales no seleccionan sólo por la inteligencia y sus precursores.13 Incluso los entornos en los que los organismos con habilidades de procesamiento de información superiores Reap diversas recompensas no pueden seleccionar para la inteligencia, ya la mejora de la inteligencia pueden (ya menudo lo hacen) imponer costos significativos, tales como un mayor consumo de energía o tiempos de maduración más lenta, y esos costos pueden ser mayores que cualquier beneficio se ganó desde el comportamiento más inteligente. Excesivamente entornos mortales también reducen el valor de la inteligencia: la vida útil esperada de la más corta, menos tiempo habrá para una mayor capacidad de aprendizaje para pagar. Reducción de la presión selectiva para la inteligencia retarda la propagación de las innovaciones de inteligencia de mejora, y por lo tanto la oportunidad para la selección a favor de innovaciones posteriores que dependen de ellos. Por otra parte, la evolución puede terminar atrapado en óptimos locales que los seres humanos se dieran cuenta y bypass mediante la alteración de las compensaciones entre la explotación y la exploración o proporcionando una suave progresión de la cada vez más difícil tests.14 inteligencia y como se mencionó anteriormente, la evolución dispersa mucho de su poder selección en rasgos que no están relacionados con la inteligencia (como carreras rojo Reina de co-evolución de competencia entre los sistemas inmunológicos y parásitos). Evolución continúa desperdiciando recursos que producen mutaciones que han demostrado consistentemente letal, y no toma ventaja de similitudes estadísticas en los efectos de las diferentes mutaciones. Estas son todas las ineficiencias en la selección natural (cuando se ve como un medio de evolución de inteligencia) que sería relativamente fácil para un ingeniero humano para evitar durante el uso de algoritmos evolutivos para el desarrollo de software inteligente. Es posible que la eliminación de ineficiencias como las que acabamos de describ ir que recortar muchos órdenes de magnitud de la 10 31-1044 TIRÓN rango calculado anteriormente. Desafortunadamente, es difícil saber cómo muchos órdenes de magnitud. Es difícil incluso para hacer una estimación aproximada de lo que sabemos, los ahorros de eficiencia podría ser cinco órdenes de magnitud, o diez, o veinte y five.15
Figura 3 Rendimiento superordenador. En un sentido estricto, la "ley de Moore" se refiere a la observación de que el número de transistores en circuitos integrados tienen desde hace varias décadas se duplicó aproximadamente cada dos años. Sin embargo, el
término se utiliza a menudo para referirse a la observación más general de que muchos parámetros de rendimiento de la tecnología de la computación han seguido una tendencia similar rapidez exponencial. Aquí trazamos la velocidad pico del superordenador más rápido del mundo en función del tiempo (en una escala vertical logarítmica). En los últimos años, el crecimiento de la velocidad de serie de los procesadores se ha estan cado, pero mayor uso de paralelización ha permitido el número total de cálculos realizados para permanecer en el line.16 tendencia Hay una complicación adicional con este tipo de consideraciones evolutivas, que hace que sea difícil para derivar de ellos incluso una muy floja límite superior de la dificultad de la evolución de la inteligencia. Debemos evitar el error de inferir, a partir del hecho de que la vida inteligente evolucionado en la Tierra, que los procesos evolutivos involucrados tenían una probabilidad razonablemente alta antes de producir la inteligencia. Tal inferencia es errónea, ya que no toma en cuenta el efecto de selección observación de que garantiza que todos los observadores se encontrarán haber originado en un planeta donde surgió la vida inteligente, no importa qué tan probable o improbable que era para cualquier planeta dado para producir inteligencia . Supongamos, por ejemplo, que, además de los efectos sistemáticos de la selección natural que requiere una enorme cantidad de afortunada coincidencia para producir la vida lo suficientemente inteligente como para que la vida inteligente evoluciona en un solo planeta de cada 1.030 planetas en los que surgen replicadores simples. En ese caso, cuando ejecutamos nuestros algoritmos genéticos para tratar de replicar lo que hizo evolución natural, podríamos encontrar que hay que ejecutar algunas 1.030 simulaciones antes de encontrar uno donde todos los elementos se unen en la manera correcta. Esto parece totalmente coherente con nuestra observación de que la vida evolucionó en la Tierra. Sólo mediante una cuidadosa y algo intrincado razonamiento mediante el análisis de los casos de evolución convergente de rasgos relacionados con la inteligencia y comprometerse con las sutilezas de la selección observación teoría podemos eludir parcialmente esta barrera epistemológica. A menos que uno se toma la molestia de hacerlo, uno no está en condiciones de descartar la posibilidad de que el presunto "límite superior" de los requerimientos computacionale s para recapitular la evolución de la inteligencia derivada en el recuadro 3 podría ser demasiado baja por treinta órdenes de magnitud (o algún otro tal número grande) 0.17 Otra forma de argumentar a favor de la viabilidad de la inteligencia artificial está señalando el cerebro humano y lo que sugiere que podríamos utilizar como una plantilla para una inteligencia artificial. Se pueden distinguir diferentes versiones de este enfoque basado en lo cerca que proponen imitar las funciones del cerebro biológico. En un extremo, el de muy cerca la imitación-tenemos la idea de emulación total del cerebro , Lo que vamos a discutir en la siguiente subsección. En el otro extremo se encuentran los enfoques que se inspiran en el funcionamiento del cerebro, pero no intentan imitación de bajo nivel. Los avances en la neurociencia y la psicología cognitiva, lo cual será ayudado por mejoras en la instrumentación deberían finalmente descubrir los principios generales de la función cerebral. Este conocimiento podría entonces guiar los esfuerzos de AI. Ya
hemos encontrado redes neuronales como un ejemplo de una técnica de IA -inspirado cerebro. Organización perceptiva jerárquica es otra idea que ha sido transferido de la ciencia del cerebro para el aprendizaje de la máquina. El estudio del aprendizaje de refuerzo ha sido motivado (por lo menos en parte) por su papel en las teorías psicológicas de la cognición animal y técnicas de aprendizaje de refuerzo (por ejemplo, el "TDalgoritmo") inspirados en estas teorías son ahora ampliamente utilizado en AI.18 Más casos como estos seguramente se acumularán en el futuro. Dado que no es un número, tal vez limitado un número muy pequeño de los mecanismos fundamentales distintos que operan en el cerebro, continuando el progreso incremental en la ciencia del cerebro, finalmente, debe descubrirlos todos. Antes de ello, sin embargo, es posible que un enfoque híbrido, que combina algunas técnicas inspiradas en el cerebro con algunos métodos puramente artificiales, cruzaría la línea de meta. En ese caso, el sistema resultante no tiene que ser cerebro-como a pesar de que algunas ideas obtenida de cerebro se usaron en su desarrollo reconocible. La disponibilidad del cerebro como plantilla proporciona un fuerte apoyo a la afirmación de que la inteligencia artificial es en última instancia factible. Esto, sin embargo, no nos permite predecir cuándo se logrará porque es difícil predecir el futuro de la tasa de descubrimientos en la ciencia del cerebro. Lo que podemos decir es que el aún más en el futuro esperamos, mayor es la probabilidad de que los secretos de la funcionalidad del cerebro se han decodificado lo suficiente como para permitir la creación de inteligencia de las máquinas de esta manera. Diferentes personas que trabajan hacia la inteligencia de las máquinas tienen diferentes puntos de vista acerca de cómo enfoques prometedores neuromórfica se comparan con los enfoques que apuntan a diseños completamente sintéticos. La existencia de las aves demostró que el vuelo de aire más pesado que era físicamente posible y pide esfuerzos para construir máquinas voladoras. Sin embargo, los primeros aviones que funcionan no baten sus alas. El jurado está fuera de si la inteligencia artificial será como el vuelo, que los seres humanos logra a través de un mecanismo artificial, o combustión similares, que al principio nos dominamos copiando los incendios de origen natural. La idea de Turing de diseñar un programa que adquiere la mayor parte de su contenido mediante el aprendizaje, en lugar de tener que pre-programado en un principio, puede aplicarse por igual a los enfoques neuromórficos y sintéticos a la inteligencia artificial. Una variación en la concepción de Turing de una máquina de niño es la idea de una "semilla AI."19 Mientras que una máquina de niño, como parece haber Turing previsto que, tendría una arquitectura relativamente fijo que sólo desarrolla sus potencialidades inherentes al acumular contenido , Una semilla AI sería una inteligencia artificial más sofisticada capaz de mejorar su propio arquitectura . En las primeras etapas de una semilla AI, estas mejoras podrían producirse principalmente a través de ensayo y error, la adquisición de información, o la ayuda de los programadores. En sus etapas posteriores, sin embargo, una semilla AI deb e ser capaz de entender su propio funcionamiento suficiente para diseñar nuevos algoritmos y estructuras computacionales para arrancar su rendimiento cognitivo. Esta comprensión necesaria podría ser el resultado de la semilla AI alcanzar un nivel suficiente de
inteligencia general en muchos dominios, o de cruzar un umbral en un dominio particular relevancia tales como la informática o las matemáticas. Esto nos lleva a otro concepto importante, el de una semilla éxito AI sería capaz de mejorar de forma iterativa en sí "auto-mejora recursiva.": Una primera versión de la IA podría diseñar una versión mejorada de sí mismo, y la versión mejorada de bienestar más inteligente que el original-podría ser capaz de diseñar una versión aún más inteligente de sí mismo, y así sucesivamente.
20 Bajo ciertas condiciones, un proceso de auto-mejora recursiva tal podría continuar el tiempo suficiente para dar lugar a una explosión, una inteligencia evento en el que, en un corto período de tiempo, el nivel de un sistema de aumentos de inteligencia de una relativamente modesta dotación de capacidades cognitivas ( quizá sub -humana en muchos aspectos, pero con un talento de dominio específico para la codificación y la investigación en IA) para superinteligencia radical. Volveremos a esta importante posibilidad en el capítulo 4, en el que se analizaron más de cerca la dinámica de tal evento. Tenga en cuenta que este modelo sugiere la posibilidad de sorpresas: los intentos de construir ia fuerte puede fallar casi por completo hasta el último componente crítico que falta se pone en el lugar, momento en el cual una semilla AI podría llegar a ser capaz de auto-mejora recursiva sostenido. Antes de terminar este apartado, hay una cosa más que debemos destacar, y es que una inteligencia artificial no necesita mucho se asemejan a una mente humana. IA podría ser -de hecho, es probable que la mayoría se-ser extremadamente extraño. Debemos esperar que van a tener muy diferentes arquitecturas cognitivas que inteligencias biológicos, y en sus primeras etapas de desarrollo que tendremos muy diferentes perfiles de las fortalezas y debilidades cognitivas (aunque, como veremos más adelante discutir, que podríamos eventualmente superar cualquier debilidad inicial) . Por otra parte, los sistemas de meta de IA podrían divergir radicalmente de las de los seres humanos. No hay razón para esperar que una IA genérico para estar motivado por el amor o el odio o el orgullo u otros tales sentimientos humanos comunes: estas adaptaciones complejas requerirían un esfuerzo costoso deliberada de recrear en IA. Esto es a la vez un gran problema y una gran oportunidad. Volveremos al tema de la motivación AI en capítulos posteriores, pero es tan central para el argumento de este libro que vale la pena teniendo en cuenta en todo momento. Emulación total del cerebro En la emulación de todo el cerebro (también conocido como "carga"), software inteligente sería producida por la exploración y el modelado de cerca la estructura computacional de un cerebro biológico. Así, este enfoque representa un caso límite de la inspiración de la naturaleza: descarada plagio. El logro de la emulación de todo el cerebro requiere la realización de los siguientes pasos. En primer lugar, se crea un análisis suficientemente detallado de un cerebro humano en particular. Esto podría implicar la estabilización del cerebro post-mortem a través de vitrificación (un proceso que convierte el tejido en una especie de vidrio). Una máquina podría entonces diseccionar el tejido en rodajas finas, lo que podría ser alimentado a otra máquina para el escaneo, tal vez por una serie de microscopios electrónicos. Varias manchas podrían aplicarse en esta etapa para llevar a cabo diferentes propiedades estructurales y químicas. Muchas máquinas de escaneo pueden trabajar en paralelo para procesar múltiples cortes de cerebro simultáneamente.
En segundo lugar, los datos en bruto de los escáneres se alimenta a un ordenador para el procesamiento automatizado de imágenes para reconstruir la red neuronal tridimensional que implementa la cognición en el cerebro originales. En la práctica, este paso podría proceder simultáneamente con el primer paso para reducir la cantidad de datos de imagen de alta resolución almacenada en buffers. El mapa resultante se combina entonces con una biblioteca de modelos neurocomputacionales de diferentes tipos de neuronas o de diferentes elementos neuronales (como determinados tipos de conectores sinápticas). La Figura 4 muestra algunos resultados de la exploración y procesamiento de la imagen producida con la tecnología de hoy en día. En la tercera etapa, la estructura neurocomputacional resultante de la etapa anterior se implementa en un equipo suficientemente potente. Si un éxito completo, el resultado sería una reproducción digital del intelecto original, con la memoria y la personalidad intacta. La mente humana emulado ahora existe como software en un equipo. La mente puede o habitar una realidad virtual o la interfaz con el mundo exterior por medio de apéndices robóticos. El camino de emulación de todo el cerebro no requiere que averiguar cómo funciona la cognición humana o cómo programar una inteligencia artificial. Sólo se requiere que entendamos las características funcionales de bajo nivel de los elementos computacionales básicas del cerebro. No se necesita gran avance conceptual o teórico fundamental para la emulación de todo el cerebro para tener éxito. Emulación total del cerebro, sin embargo, requiere de algunas tecnologías facilitadoras en lugar avanzadas. Hay tres requisitos fundamentales: (1) exploración : Microscopía de alto rendimiento con la resolución y la detección de propiedades relevantes suficiente; (2) traducción: Automatizado de análisis de imágenes para convertir los datos de escaneo en bruto en un modelo tridimensional de elementos interpretado neurocomputacionales pertinentes; y (3) simulación : Hardware lo suficientemente potente como para poner en práctica la estructura computacional resultante (ver Tabla 4). (En comparación con estos pasos más difíciles, la construcción de una realidad virtual básico o una realización robótica con un canal de entrada audiovisual y algunos canales de salida sencilla es relativamente fácil. Simple pero mínimamente Yo adecuada / S parece viable ya con el actual technology.23)
Figura 4 La reconstrucción de la neuroanatomía 3D a partir de imágenes del microscopio electrónico. Arriba a la izquierda : Una micrografía electrónica típica que muestra secciones transversales de neuronales materia-dendritas y axones. Superior derecha : Imagen Volumen de conejo tejido neural retina adquirida por bloque cara de serie electrónico de barrido microscopy.21 individuales imágenes 2D se han apilado en un cubo (con un lado de aproximadamente 11 micras). Fondo : Reconstrucción de un subconjunto de las proyecciones neuronales de llenado un volumen de neuropilo, generada por un algorithm.22 segmentación automatizado Hay buenas razones para pensar que el requisito que permite tecnologías son alcanzables, aunque no en un futuro próxim o. Ya existen modelos computacionales razonables de muchos tipos de neuronas y procesos neuronales. Software de reconocimiento de imagen se
ha desarrollado que puede rastrear los axones y dendritas a través de una pila de imágenes bidimensionales (aunque f iabilidad hay que mejorar). Y hay Imaging herramientas que proporcionan la resolución con un microscopio de efecto túnel es posible "ver" los á tomos individuales, que es una resolución mucho más alta que la necesaria necesario. Sin embargo, a pesar de los conocimientos y capacidades sugieren que no hay barrera, en principio, para el desarrollo de la necesaria permitiendo tecnologías, está claro que se necesitaría una gran cantidad de progreso técnico incrementales para traer la emulación total del cerebro h umano a su alcance.
24 Por ejemplo, la tecnología de microscopía necesitaría no sólo una resolución suficiente sino también suficiente rendimiento. El uso de una resolución atómica microscopio de efecto túnel a la imagen de la superficie necesaria sería d emasiado lento para ser practicable. Sería más plausible para utilizar un microscopio electrónico de menor resolución, pero esto requeriría nuevos métodos para la preparación y tinción de tejido cortical de hacer visibles los detalles relevantes tales como la estructura fina sináptica. También sería necesaria una gran expansión de las bibliotecas neurocomputacionales y grandes mejoras en el procesamiento automatizado de imágenes e interpretación de análisis. Tabla 4 Capacidades necesarias para la emulación de todo el cerebro
En general, la emulación de todo el cerebro se basa menos en el conocimiento teórico y más en la capacidad tecnológica de la inteligencia artificial. Sólo cómo se requiere mucha tecnología para la emulación de todo el cerebro depende del nivel de abstracción en el que se emula el cerebro. En este sentido hay un equilibrio entre la penetración y la tecnología. En general, la peor de nuestro equipo de exploración y los más débiles de nuestros ordenadores, menos nos podían confiar en la simulación de procesos cerebrales electrofisiológicos química de bajo nivel y, y el conocimiento más teórico serían necesarios de la arquitectura computacional que estamos tratando de emular a fin para crear representaciones más abstractas de las funcionalidades relevantes.25 Por el contrario, con la tecnología de escaneo suficientemente avanzada y abundante potencia de cálculo, podría ser posible ataque de fuerza bruta una emulación incluso con un conocimiento bastante limitado de cerebro. En el caso límite realista, podríamos imaginar que emula un cerebro en el nivel de sus partículas elementales utilizando la ecuación de Schrödinger de la mecánica cuántica. Entonces uno podía confiar enteramente en el conocimiento de la física existente y en absoluto en cualquier modelo biológico. Este caso extremo, sin embargo, pondría demandas totalmente impracticables en potencia de cálculo y adquisición de datos. A nivel mucho más plausible de emulación sería uno que incorpora las neuronas individuales y su matriz de conectividad, junto con algunos de la estructura de sus árboles dendríticos y tal vez algunas variables de estado de sinapsis individuales. Moléculas neurotransmisoras no se simularon individualmente, pero sus concentraciones fluctuantes se modelan de una manera de grano grueso. Para evaluar la viabilidad de la emulación de todo el cerebro, hay que entender el criterio para el éxito. El objetivo no es crear una simulación del cerebro de manera detallada y
precisa que uno podría utilizar para predecir exactamente lo que habría ocurrido en el cerebro original si había sido sometido a una secuencia particular de estímulos. En cambio, el objetivo es captar suficiente de las propiedades computacionalmente funcionales del cerebro para permitir la emulación resultante para llevar a cabo el trabajo intelectual. Para ello, muchos de los detalles biológica desordenado de un verdadero Un análisis más elaborado sería distinguir entre los diferentes niveles de éxito emulación cerebro es irrelevante. basado en la medida en que se ha conservado la funcionalidad de procesamiento de información del cerebro emulado. Por ejemplo, s e podría distinguir entre (1) una
emulación de alta fidelidad que tiene todo el conjunto de conocimientos, habilidades, capacidades y valores del cerebro emulado; (2) una emulación distorsionada cuyas disposiciones son significativamente no humano en algunos aspectos, pero que es sobre todo capaz de hacer lo mismo el trabajo intelectual como el cerebro emulado; y (3) una emulación genérica (Que también podría ser distorsionada) es algo así como un bebé, que carecen de las habilidades o los recuerdos que habían sido adquiridas por el cerebro adulto emulado pero con la capacidad de aprender más de lo que un ser humano normal puede learn.26 Aunque parece finalmente factible producir una emulación de alta fidelidad, parece bastante probable que el primero emulación total del cerebro que lograríamos si nos fuimos por este camino sería de un grado inferior. Antes de que se pueden conseguir cosas que funcionan a la perfección, probablemente conseguir que las cosas funcionen de manera imperfecta. También es posible que un impulso hacia la tecnología de emulación daría lugar a la creación de algún tipo de neuromórfica AI que adaptar alguno s principios neurocomputacionales descubiertos durante los esfuerzos de emulación y de hibridar con métodos sintéticos, y que esto iba a pasar antes de la finalización de un completo y funcional emulación de todo el cerebro. La posibilidad de un derrame de este tipo en neuromórfica AI, como veremos en un capítulo posterior, complica la evaluación estratégica de la conveniencia de tratar de acelerar la tecnología de emulación. ¿Cuán lejos estamos de alcanzar actualmente una emulación de todo el cerebro humano? Una evaluación reciente presentó una hoja de ruta técnica y llegó a la conclusión de que las capacidades de requisitos previos podrían estar disponibles a mediados de siglo, aunque con un intervalo de incertidumbre general. 27 Figura 5 representa los principales hitos en esta hoja de ruta. La aparente simplicidad del mapa puede ser engañosa, sin embargo, y debemos tener cuidado de no subestimar la cantidad de trabajo que queda por hacer. Sin cerebro aún no se ha emulado. Considere el modelo de organismo humilde Caenorhabditis elegans , Que es un gusano redondo transparente, alrededor de 1 mm de longitud, con 302 neuronas. La matriz de conectividad completa de estas neuronas se conoce desde mediados de la década de 1980, cuando fue laboriosamente traza do mediante el corte, microscopía electrónica, y de la mano-etiquetado de specimens.29 Pero saber simplemente que las neuronas se conectan con la que no es suficiente . Para crear una emulación del cerebro también se tendría que saber qué sinapsis excitato ria son y cuáles son inhibitoria; la fuerza de las conexiones; y varias propiedades dinámicas de los axones, las sinapsis, y árboles dendríticas. Esta información no está disponible todavía, incluso para el pequeño sistema nervioso de los
C. elegans (A pesar de que ahora puede estar dentro del alcance de un proyecto de investigación de tamaño moderado dirigida) 0.30 Éxito en la emulación de un pequeño cerebro, como el de C. elegans , Nos daría una mejor visión de lo que sería necesario para emular cerebro s más grandes.
Figura 5 Todo el plan de trabajo de emulación cerebro. Esquema de insumos, actividades y milestones.28 En algún punto en el proceso de desarrollo de la tecnología, las técnicas de una vez están disponibles para emular automáticamente pequeñas cantidades de tejido cerebral, el problema se reduce a uno de escalamiento. Observe "la escalera" en la parte derecha de la figura 5. Esta serie ascendente de cajas representa una secuencia final de los avances que pueden comenzar después de obstáculos preliminares se han despejado. Las etapas de esta secuencia se corresponden con las emulaciones de todo el cerebro de forma sucesiva más neurológicamente sofisticada ejemplo modelo para los organismos, C. elegans → abeja → ratón → mono rhesus → humano . Debido a las diferencias entre estos peldaños, al menos después del primer paso son en su mayoría de naturaleza cuantitativa y debido principalmente (aunque no del todo) a las diferencias en el tamaño de los cerebros para ser emulado, que debería ser manejable a través de una relativamente sencilla ampliación de la exploración y la simulación capacity.31 Una vez que empezamos subiendo esta escalera final, el eventual consecución de emulación de todo el cerebro humano se vuelve más clara foreseeable.32 De este modo podemos esperar obtener alguna advertencia previa antes de la llegada a la inteligencia artificial de nivel humano a lo largo de toda la trayectoria de la emulación cerebro, al menos si el último lugar entre el requisito que permite tecnologías para llega r a la madurez suficiente es o bien la exploración de alto rendimiento o de la potencia de cálculo necesaria para la simulación en tiempo real. Si, sin embargo, la última tecnología que permite a caer en su lugar es el modelado neurocomputacional, entonces la transición de prototipos mediocres a una emulación humana de trabajo podría ser más abrupto. Uno podría imaginar un escenario en el que, a pesar de abundantes datos de exploración y computadoras rápidas, está resultando difícil conseguir nuestros modelos neuronales que funcionan bien. Cuando por fin el último fallo se plancha a cabo, lo que antes era un sistema análogo completamente disfuncional tal vez para un cerebro inconsciente de someterse a un gran mal Convulsión podría encajar en un estado de vigilia coherente. En este caso, el avance clave no sería anunciada por una serie de funcionamiento emulaciones animales de aumentar la magnitud (provocando titulares de los periódicos de tamaño de fuente correspondiente escalada). Incluso para aquellos que pagan la atención que podría ser difícil saber de antemano el éxito cuán muchos defectos permanecieron en los modelos neurocomputacionales en cualquier punto y el tiempo que se tardaría en solucionarlos, incluso hasta la víspera de la gran avance crítico. (Una vez que una
emulación total del cerebro humano se ha logrado, más desarrollos potencialmente explosivas se llevarían a cabo, pero que aplazar el debate de esta hasta el capítulo 4.) Sorpresa escenarios son, por tanto imaginable para la emulación de todo el cerebro, incluso si todas las investigaciones pertinentes se llevaron a cabo al aire libre. Sin embargo, en comparación con la ruta AI a la inteligencia artificial, la emulación de todo el cerebro es más probable que sea precedida por presagios clara s ya que se basa más en tecnologías concretas observables y no está totalmente basada en el conocimiento teórico. También podemos decir, con mayor confianza que en el camino de la IA, que el camino de emulación no tendrá éxito en el futuro cercano (dentro de los próximos quince años, por ejemplo), porque sabemos que varias tecnologías precursoras desafiantes aún no se han desarrollado. Por el contrario, parece probable que alguien pudiera
en principio sentarse y código de una semilla de AI en un presente-día ordinario computadora personal; y es concebible, aunque poco probable, que alguien en algún lugar tendrá la visión correcta para cómo hacer esto en un futuro cercano. Cognición Biológica Un tercer camino a la inteligencia mayor de lo corriente humana es mejorar el funcionamiento de los cerebros biológicos. En principio, esto podría lograrse sin la tecnología, a través de la cría selectiva. Cualquier intento de iniciar un programa de eugenesia a gran escala clásica, sin embargo, se enfrentaría grandes obstáculos políticos y morales. Por otra parte, a menos que la selección era muy fuerte, se necesitarían muchas generaciones para producir resultados sustanciales. Mucho antes de que tal iniciativa sería dar sus frutos, los avances en la biotecnología permitirán un control mucho más directo de la genética y neurobiología humanos, representación ocioso cualquier programa de reproducción humana. Por lo tanto, nos centraremos en los métodos que mantienen el potencial para ofrecer resultados más rápidos, en la escala de tiempo de un par de generaciones o menos. Nuestras capacidades cognitivas individuales pueden fortalecerse de varias maneras, incluyendo por métodos tradicionales tales como la educación y la formación. Desarrollo neurológico puede ser
promovido por las intervenciones de baja tecnología, como la optimización de la nutrición materna e infantil, la eliminación de plomo y otros contaminantes neurotóxicos del medio ambiente, la erradicación de parásitos, lo que garantiza un sueño adecuado y el ejerci cio, y la prevención de enfermedades que afectan a las mejoras en la cognición brain.33 sin duda puede ser obtenida a través de cada uno de estos medios, aunque las magnitudes de las ganancias son propensos a ser modestos, especialmente en poblaciones que ya están razonablemente bien nutridos y -schooled. Desde luego, no lograremos superinteligencia por cualquiera de estos medios, pero podríamos ayudar en el margen, sobre todo levantando los desposeídos y ampliar la captación de talento global. (Depresión permanente de la inteligencia debido a la deficiencia de yodo sigue siendo generalizada en muchas áreas del interior empobrecidas del mundo, un ultraje, dado que la condición se puede prevenir mediante la fortificación de la sal de mesa a un costo de unos p ocos centavos por persona y year.34) Mejoras Biomédicas podrían dar aumentos más grandes. Ya existen fármacos que se alega para mejorar la memoria, la concentración y la energía mental al menos en algunos temas.35 (El trabajo en este libro se vio impulsado por el café y la nicotina goma de mascar.) Mientras que la eficacia de la presente generación de fármacos inteligentes es variable, marginal, y generalmente dudosa, nootrópicos futuras podrían ofrecer beneficios más claros y menos effects.36 lado Sin embargo, parece inverosímil, tanto por motivos neurológicos y evolutivos, que uno podría introduciendo algún producto químico en el cerebro de una persona sana provocar un aumento dramático en intelligence.37 El
funcionamiento cognitivo de un cerebro humano depende de un delicado orquestación de muchos factores, sobre todo durante la etapas críticas del desarrollo embrionario y es mucho más probable que esta estructura de auto-organización, para mejorar, tiene que ser cuidadosamente equilibrado, atento, y cultivada en lugar de simplemente inundado con alguna poción extraña. La manipulación de la genética proporcionará una más potente conjunto de herramientas que la psicofarmacología. Consideremos de nuevo la idea de la selección genética: en lugar de tratar de implementar un programa de eugenesia mediante el control de los patrones de apareamiento, se podría utilizar la selección a nivel de embriones o gametos. 38 El diagnóstico genético de preimplantación ya se ha utilizado durante los procedimientos de fertilización in vitro para detectar los embriones producidos por enfermedades monogénicas como la enfermedad de Huntington y para la predisposición a algunas enfermedades de inicio tardío tales como el cáncer de mama. También se ha utilizado para la selección de sexo y para hacer coincidir tipo de antígeno leucocitario humano con la de un hermano enfermo, que entonces se pueden beneficiar de una de sangre de cordón donación de células madre cuando el nuevo bebé es born.39 La gama de rasgos que se pueden seleccionar favor o en contra se ampliará considerablemente durante la próxima década o dos. Un fuerte motor de progreso en la genética del comportamiento es el costo rápida caída de genotipado y secuenciación de genes. Genoma en todo el análisis rasgo complejo, utilizando los estudios con un gran número de temas, recién ahora está empezando a ser factible y aumentará en gran medida nuestro conocimiento de las arquitecturas genéticas de traits.40 cognitivo y del comportamiento humano Cualquier rasgo con una no despreciable heredabilidad -incluyendo capacidad cognitiva podría entonces ser susceptible a la selección de embriones selection.41 no requiere una profunda comprensión de las vías causales por el cual los genes, en la compleja interacción con los entornos, producen fenotipos: requiere sólo (un montón de) los datos sobre las correlaciones genéticas del características de interés. Es posible calcular algunas estimaciones aproximadas de la magnitud de las ganancias que se pueden obtener en diferentes escenarios de selección.42 Tabla 5 muestra espera que los aumentos en la inteligencia que resultan de diversas cantidades de selección, en el supuesto de información completa sobre las variantes genéticas aditivos comunes que subyacen a la heredabilidad sentido estricto de la inteligencia. (Con información parcial, la eficacia de la selección se reduciría, aunque no del todo en la medida de uno podría ingenuamente expect.44) Como era de esperar, la selección entre un mayor número de embriones produce mayores ganancias, pero no están disminuyendo abruptamente devoluciones: selección entre 100 embriones hace no produce una ganancia en cualquier lugar cerca de cincuenta veces más grande que la que se podría obtener de la selección entre 2 embryos.45 Tabla 5 Ganancias máximas de CI de seleccionar entre un conjunto de embriones 43
Selección
Puntos de CI ganaron 4.2 1 en 10 11.5 1 en 100 18.8
1 de 2
1 en 1000 24.3 5 generaciones de 1 en 10
View more...
Comments