| 
      
      
      TODO TITULO SUBRAYADO ES VÍNCULO A LA PÁGINA CORRESPONDIENTE  Los Derechos de Autor de todos y cada uno de los autores publicados en este portal están
         protegidos por estatutos y registros editoriales internacionales. ©® 
  EXPLICANDO LA INTELIGENCIA ARTIFICIAL SIMPLE Y LLANAMENTE El problema con la inteligencia
         artificial no es la máquina, somos nosotros como sus creadores, y administradores y lo generamos cuando no construimos
         adecuadamente un sistema de valores, reglas o límites que se deben o no cruzar.  
         
         	    
            
               | "La ciencia se construye
                     con hechos; de la misma manera que las casas están hechas de piedras, la ciencia está construida con hechos;
                     pero un montón de piedras no son una casa y una colección de hechos no son necesariamente ciencia."Jules
                     Henry Poincarè
 "La ciencia se
                     construye con hechos; de la misma manera que las casas están hechas de piedras, la ciencia está construida con
                     hechos; pero un montón de piedras no son una casa y una colección de hechos no son necesariamente ciencia."
                     Jules Henry PoincarèDesde el final de la década del 2010 hemos venido escuchando
                     hablar de manera cada vez más frecuente acerca del concepto de la inteligencia artificial: el ser humano podrá
                     prontamente crear máquinas inteligentes que podrían desplazarlo académica y laboralmente. Una idea sorprendentemente
                     aterradora, incluso apocalíptica, como en las películas de Terminator. La verdad es que, aunque es cierto que
                     las máquinas podrían reemplazarnos, la inteligencia artificial no será más que eso inteligencia,
                     no tendrá la capacidad de tener sentimientos o empatía, al menos por ahora. La conjetura de Poincaré es un problema matemático
                     de la geometría multidimensional y por lo tanto de la teoría de conjuntos y de la estadística, que fue
                     planteado en 1904 por el filósofo y matemático francés Jules Henry Poincaré, el reconocido autor
                     de Hipótesis y Ciencia. La conjetura de Poincaré textualmente plantea: "Toda 3-variedad cerrada y
                     simplemente conexa es homeomorfa a la 3-esfera". La conjetura de Poincaré fue considerada como uno de los 7 problemas
                     matemáticos del milenio y finalmente fue resuelta en el año 2003 por el matemático ruso Grigori Perelman
                     quien se basó en los trabajos previos de Richard Hamilton. Su resolución abrió el camino a los famosos
                     algoritmos con los que funcionan las plataformas tecnológicas de las redes sociales y a la inteligencia artificial. Lejos de las teorías conspirativas entre
                     las cuales se asegura que Amazon ya sabía que yo estaba escribiendo este editorial, y que Trump fue elegido por la
                     intervención quirúrgica de Facebook y uno que otro ruso, las redes sociales y la inteligencia artificial tienen
                     un sustento científico y matemático que intentaré explicar aquí. Personalmente creo que todos
                     necesitamos aprender matemáticas, sobre todo los médicos, que escogimos la biología porque las matemáticas
                     no nos gustaban o nos iba mal en ellas. Con el tiempo, he ido aprendiendo que el problema de los profesionales de las ciencias
                     de la salud con las matemáticas tiene que ver mucho más con la mediocre formación en matemáticas
                     que recibimos en el colegio, asunto que parece no haber cambiado mucho en tres o cuatro décadas dados los malos resultados
                     que hoy obtienen nuestros bachilleres colombianos en las pruebas internacionales. Recordando que las máquinas hablan en lenguaje binario
                     (ceros y unos, donde cero es sin corriente eléctrica y uno es con corriente eléctrica) en combinaciones para
                     activar diferentes sectores o funciones dentro de un procesador, memoria, etc, de acuerdo a una programación realizada
                     por el hombre, la inteligencia artificial necesita poder discernir la geometría de los datos que han sido almacenados
                     en ella como ceros y unos y tener la capacidad de diferenciar entre geometrías "simplemente conexas o no conexas".
                     Dicho de otra forma, geometrías conectadas o no conectadas; o de una manera aún más simple geometrías
                     de planos completos o geometrías con agujeros. Una máquina tendría que poder responder a una orden simple:
                     "cuidado con el hueco", y tendría que localizar el hueco y esquivarlo para evitar caer en él. Desde
                     el punto de vista de inteligencia, recibir el comando verbal "cuidado con el hueco" es recibir una alerta específica,
                     y requiere de múltiples acciones para identificar un hueco específico y poder esquivarlo. La diferenciación
                     del hueco o agujero de una forma racional implica para una máquina crear un concepto "de novo" que
                     es el del hueco o agujero delimitarlo geométricamente, y de acuerdo con esto, tomar las acciones pertinentes para esquivarlo.
                     Identificar un hueco o agujero y delimitarlo geométricamente implica construir una imagen de un concepto abstracto
                     (el hueco) y tomar decisiones para evitar caer en él. En inteligencia artificial esto corresponde a crear "de
                     novo" una secuencia de ceros y unos que corresponda al hueco e insertarlos como código dentro de su propia programación
                     para posteriormente poder recordar dónde está el hueco. Sin embargo, cuando el hueco sea cubierto la máquina
                     deberá discernir que el hueco en efecto ha sido cubierto y tendrá que reescribir "de novo" un fragmento
                     de código con la información que hacía referencia al hueco y a que fue cubierto y tendrá que replantear
                     la acción a tomar: en vez de tomar un desvío, deberá pasar por sobre el hueco cubierto; pero deberá
                     recordar el sitio donde estaba el hueco antes de ser cubierto. La matemática es una ciencia formal (conjunto sistemático de conocimientos
                     racionales y coherentes), que a partir de axiomas (planteamientos verbales de problemas) y razonamiento lógico, se
                     encarga de estudiar las relaciones y propiedades entre entidades abstractas (números, figuras geométricas, símbolos,
                     etc) para plantear problemas de manera no ambigua en contextos específicos, que ha sido ampliamente definida como el
                     lenguaje que se debe utilizar en la ciencia. Como la matemática define a la geometría y la geometría
                     a la estadística, a la física, al universo mismo entre otros, y los comprueba, la conjetura de Poincaré
                     estuvo en el centro del conocimiento humano por descubrir y sin resolución durante prácticamente un siglo. La conjetura de Poincaré es un
                     problema de geometría del cual se encarga la topología. La topología es una parte de las matemáticas
                     que se encarga del estudio de las propiedades de los cuerpos geométricos que permanecen inalteradas por transformaciones
                     continuas. Una manera simplista pero fácil para ilustrar el concepto es decir qué es la ciencia que estudia
                     las propiedades geométricas de una plastilina en las manos de un niño. Mientras la plastilina no sea separada,
                     pegada o agujereada, su geometría de dos dimensiones podrá cambiar mediante compresión o tensión,
                     pero seguirá siendo un mismo conjunto geométrico y por lo tanto la resolución matemática de la
                     geometría de esa plastilina seguirá siendo esencialmente la misma. A manera de broma, se suele decir que un
                     topólogo no es capaz de discernir la diferencia entre una taza y un donut, porque desde el punto de vista topológico,
                     geométricamente serían lo mismo. Al tener una taza y un donut un agujero, la una podría transformarse
                     en la otra si ambas fueran de plastilina, comprimiéndose y estirándose alrededor del agujero.  De acuerdo con esto una pelota de plastilina podría
                     convertirse en un frisbee al comprimirse y estirarse, pero no podría convertirse en un donut porque la pelota no tiene
                     agujero. No tener agujero significa que la pelota es simplemente conexa. La única estructura de 2-variedad simplemente
                     conexa que existe es la esfera. La esfera que vemos y percibimos ha sido definida como una 2-esfera o esfera 2-variedad. La
                     esfera 1-variedad o 1-esfera sería un círculo sin volumen dibujado en un papel. Sin embargo, matemáticamente
                     existen n-esferas. Es decir, esferas que nuestros ojos no pueden ver pero que nuestro conocimiento matemático puede
                     inferir. Hasta aquí hemos definido los conceptos necesarios para entender la primera parte de la conjetura de Poincaré;
                     "Toda 3-variedad cerrada y simplemente conexa".Para la segunda parte de la conjetura: "es homeomorfa a la 3-esfera",
                     es necesario entender el concepto matemático de homeomorfismo.  matemáticas el homeomorfismo se define
                     mediante funciones biyectivas continuas con inversas continuas. Una función es biyectiva, sí y solo si esta
                     es inyectiva y sobreyectiva al mismo tiempo.  Se
                     le conoce como función inyectiva al vinculo que se desarrolla entre dos conjuntos, a través del cual a cada
                     elemento de un conjunto se le asigna un elemento del otro conjunto o ninguno. Se conoce como función sobreyectiva a
                     un conjunto de pares ordenados en el cual el primer elemento de cada par no se repite. Dicho de otra forma, esto ocurre cuando
                     todos los elementos del conjunto de salida tienen una representación diferente en el conjunto de llegada y a cada uno
                     de los elementos del conjunto de llegada le corresponde uno de los elementos del conjunto de salida. Cuando esto ocurre en
                     términos geométricos o espaciales de manera continua y con inversas continuas se habla de homeomorfismo. Imaginemos
                     por un momento que en el conjunto A se encuentran las adivinanzas y en el conjunto B se encuentran las respuestas a las adivinanzas.
                     Entonces, en el conjunto A tendremos el elemento 1: agua pasó por aquí, cate que yo no la vi; y el elemento
                     2: blanco, redondo, gallina lo pone y frito se come. En el conjunto B tendremos el elemento 1: aguacate; y el elemento 2:
                     Huevo. Cada uno de los elementos de cada conjunto (A y B) están representados por un elemento homeomorfo en el otro
                     conjunto. Son homeomorfos porque las representaciones conceptuales son inyectivas y sobreyectivas al mismo tiempo y siempre
                     serán continuas con inversas continuas.    |  Una
                     pelota es un ejemplo de una esfera de dimensión 2 (una 2-esfera) o una esfera 2-variedad. Si pensamos en la 2 esfera
                     como un conjunto, su contenido tendrá elementos con características específicas para haber sido agrupados
                     dentro del mismo conjunto. Un ejemplo de esto es el afamado grupo de Facebook "yo también me fracturé el
                     calcáneo". Desde el año 2006 hasta la fecha en este grupo hay 915 pacientes que tuvieron una fractura de
                     calcáneo con un pobre resultado después de su tratamiento, haya sido este quirúrgico o no quirúrgico.
                     Por definición este es un conjunto de personas con una característica que los define (fractura de calcáneo),
                     que tiene una geometría que de acuerdo con la probabilidad nos define que después del tratamiento el resultado
                     fue pobre o malo. Por otro lado, en ese mismo tiempo se han publicado cerca de 700 pacientes en diferentes estudios con fractura
                     de calcáneo que igualmente fueron manejados de manera quirúrgica o no quirúrgica con resultados entre
                     aceptables y buenos. Este es un conjunto de personas con una característica que los define (fractura de calcáneo),
                     que tiene una geometría que de acuerdo con la probabilidad nos define que después del tratamiento el resultado
                     fue bueno o excelente. La pregunta del millón es si estos dos conjuntos de personas con la misma característica
                     que los define (fractura de calcáneo) tienen en realidad la misma geometría o diferente geometría. Podría
                     ocurrir que sean dos representaciones geométricas de la misma plastilina que ha sido deformada en el caso del grupo
                     de Facebook por la expectativa de los pacientes y la escala análoga visual del dolor, mientras que en el caso de los
                     reportados en los artículos científicos la deformación geométrica pudo haber ocurrido a expensas
                     del valor del resultado de la escala AOFAS de retro-pie. Eso significaría que teniendo la misma geometría esta
                     haya sido deformada por la forma o manera de valoración clínica. En el caso de los pacientes en facebook la
                     geometría podría ser la de una pelota (valoración subjetiva pero real), y en el caso de los investigadores
                     la de un frisbee (valoración objetiva pero irreal). Pero también podría ocurrir que el grupo en Facebook
                     no sea simplemente conexo y corresponda a una geometría con un agujero mientras que el grupo de pacientes reportados
                     científicamente sea una esfera (sin agujero) y por lo tanto ambos grupos tendrían una geometría diferente
                     y por lo tanto serían diferentes. Para resolver esto, habría que recurrir a la 2 ley de la termodinámica
                     descrita por Albert Einstein en 1907: la "Entropía" también conocida como "mecánica estadística",
                     como originalmente fue descrita por Ludwig Boltzmann entre 1890 y 1900, sin aplicación práctica. La entropía
                     es la estadística del desorden, define de una manera simple la mayor probabilidad de equilibrio dentro de un sistema
                     (termo-dinámico de acuerdo con la aplicabilidad que le dio Einstein) que a priori aparenta caos o desorden. El ejemplo más frecuentemente
                     utilizado para explicar la Entropía es el de los dados: al lanzar un dado, si no se realiza trampa, la probabilidad
                     de acertar el resultado es igual para cada uno de los números marcados en cada una de sus seis caras (16,66%); sin
                     embargo, si se lanzan dos dados, la probabilidad de obtener un resultado no se reduce a 8.33% porque son dos dados, en razón
                     de las posibles combinaciones que se podrían obtener: primero que todo solo se pueden obtener 11 posibles resultados
                     (números del 2 al 12), en segundo lugar hay que considerar las posibles combinaciones que cada resultado podría
                     tener. Por ejemplo, para obtener un 2 solo sería posible la combinación de 1+1, para obtener un tres podrían
                     combinarse 1+2 y 2+1, para obtener un cuatro podrían combinarse 1+3, 2+2, y 3+1, y así sucesivamente. Pero,
                     el resultado con mayor posibilidad de combinaciones sería el 7, así que, por entropía, podríamos
                     decir que la mayor probabilidad de resultado sería 7. Este sistema de probabilidad es por el cual algunos jugadores
                     de casino deben visitarnos a los ortopedistas después de amañar el juego en el casino, y por lo cual el casino
                     usualmente cambia de manera regular los dados en la mesa de juego. De acuerdo con la entropía todo en el universo,
                     aunque parezca desordenado tiene en realidad un orden. Por lo tanto, una inteligencia artificial tendrá necesariamente que
                     identificar patrones probabilísticos en geometrías simplemente conexas y diferenciarlos de aquellos en geometrías
                     no conexas. Eso en últimas es lo que hace nuestro cerebro con un gran margen de error a través del proceso al
                     que llamamos experiencia. Con nuestra experiencia, somos capaces de llenar agujeros de conocimiento convirtiendo geometrías
                     no conexas en simplemente conexas, motivados por nuestras emociones, lo cual es un error garrafal porque deducimos mal. Por
                     entropía podemos algunas veces deducir bien, pero como nuestro cerebro percibe, pero no registra matemáticamente,
                     estamos en desventaja frente a una máquina que logre pensar matemáticamente. Eso es lo que nos aterra. Claro,
                     como el jugador de dados, podemos apostarlo todo a una idea que eventualmente resuelva algo, pero no necesariamente de la
                     manera correcta. La máquina en cambio metódicamente irá generando pequeñas resoluciones a problemas
                     específicos y seguirá analizando sus datos una y otra y otra vez, perfeccionándose a sí misma. El problema con la inteligencia
                     artificial no es la máquina, somos nosotros como sus creadores, y administradores y lo generamos cuando no construimos
                     adecuadamente un sistema de valores, reglas o límites que se deben o no cruzar. Si la inteligencia artificial es alimentada
                     con valores reglas y límites seguramente contribuirá al progreso del ser humano como especie. Si los valores
                     reglas y límites no están claramente definidos para la máquina, entonces estaremos creando un monstruo.
                     Amanecerá y veremos cómo salen los experimentos de la inteligencia artificial en Escandinavia y cómo
                     en otro  lugares del mundo-  Por ahora, al menos usemos este conocimiento para ser un poco más críticos
                     en la diaria discusión mundial acerca de Uber.    fuente de información,  la Entropía y La inteligencia Artificial   Fuentes de referencia.  Wilkipedia, Google, La Teoria de Poincaré |  EXPLICANDO LA INTELIGENCIA ARTIFICIAL SIMPLE Y LLANAMENTE 
         
         	    
            
               |  
 
 Geoffrey
                     Hinton se ha pasado toda la vida enseñando a los computadores a aprender.Ahora le preocupa que los cerebros artificiales sean mejores
                     que los nuestros.
  
 
 LAS REDES
                     NEURONALES Y LOS SISTEMAS 
 DE IMPLEMENTACION DE
                     LA INTELIGENCIA ARTIFIFICIAL.  
 Traducción
                     de Joseph Berolo 
 Explotando los caminos de la
                     Inteligencia artificial IA con Geoffrey Hinton, llamado el padre de la IA, he encontrado fascinante explorar el cerebro humano,
                     que a veces damos por hecho que esté allí metido en nuestras cabezas desarrollándose en redes grandes
                     y pequeñas de neuronas. Inconscientes vamos sin darnos cuenta que con cada acción, con cada pensamiento, las
                     redes cambian: "se incluyen o excluyen neuronas y las conexiones entre ellas se fortalecen o se desvanecen. Este proceso
                     continúa todo el tiempo (está sucediendo ahora, mientras lees estas palabras) y su escala es inimaginable. Tienes
                     unos ochenta mil millones de neuronas que comparten cien billones de conexiones o más. Tú cráneo contiene
                     constelaciones equivalentes a una galaxia, siempre en movimiento." Escribe Josué Rothman autor de este artículo.
  Acompaño a Josué, con la traducción al español y libre interpretación
                     de su trabajo en inglés sobre la IA. Debo repetir que nuevos conocimientos se están incorporando a nuestro saber,
                     de manera muy sutil, en este mismo instante, fortaleciendo nuestras redes actuales.
 Debido
                     a que los nuevos conocimientos se fusionan con los antiguos, lo que sabes da forma a lo que aprendes. De esta manera, pequeños
                     cambios crean la posibilidad de transformaciones profundas. Por ej, Si alguien te cuenta de  su viaje a Amsterdam, al día
                     siguiente, en un museo, tus redes pueden acercarte un poco más a un Vermeer (Johannes Vermeer fue el pintor de lo tranquilo,
                     lo silencioso, lo cotidiano, lo iluminado...Junto a Rembrandt es sin duda la gran figura del barroco holandés. )
 Recientemente
                     durante una visita y salida de campo con Geoffrey Hinton, a quien a menudo se le llama "el padrino de la IA INTELIGENCIA
                     ARTIFICIAL", cuenta Josué Rothman, Geoffrey me entregó un bastón. "Necesitarás uno de
                     estos", dijo. Luego se dirigió y yo lo seguí por un sendero entre el bosque.  Atravesamos un claro sombreado,
                     pasamos por un par de cobertizos y luego descendimos por unas escaleras de piedra hasta un pequeño muelle. "Está
                     resbaladizo aquí", me advirtió Hinton, mientras caminábamos.
 "Prendamos
                     una hoguera", dijo Hinton. Estábamos en un saliente rocoso que se adentraba en la Bahía Georgia de Ontario,
                     que se extiende hacia el oeste hasta el lago Hurón, salpicado de islotes. Hinton había comprado tierra allí
                       en 2013, cuando tenía sesenta y cinco años, después de vender una recién formada empresa de
                     tres personas a Google, por cuarenta y cuatro millones de dólares. Antes de eso, había pasado tres décadas
                     como profesor de informática en la Universidad de Toronto, una figura destacada en un subcampo poco glamoroso conocido
                     como redes neuronales, que se inspiró en la forma en que se conectan las neuronas en el cerebro. 
  
 | La inteligencia
                     artificial. no simplemente como una tecnología sino como una forma de vida. En la era de ChatGPT**, Bard y similares,
                     nos enfrentamos a la pregunta de qué nos depara el futuro. Según los expertos, A.I. elevará nuestra sociedad
                     a un nivel superior o destruirá la civilización tal como la conocemos. Nos dará poderes divinos o nos
                     hará insignificantes e irrelevantes. Está ridículamente sobrevalorado, salvo que todavía no hemos
                     comprendido la magnitud de su importancia. En medio de certezas contradictorias, ¿tal vez sea necesaria algo de humildad?   **ChatGPT Spanish (Español) proporciona el ChatGPT de OpenAI, que está construido
                     sobre el GPT-model 4 (GPT-4), que permite las comunicaciones e ntre el hombre
                     y los medios. 
 .    Debido
                     a que las redes neuronales artificiales sólo tuvieron un éxito moderado en las tareas que emprendieron (categorización
                     de imágenes, reconocimiento de voz, etc.), la mayoría de los investigadores las consideraron, en el mejor de
                     los casos, medianamente interesantes o, en el peor, una pérdida de tiempo. "Nuestras redes neuronales simplemente
                     no podían hacer nada mejor que un niño", recordó Hinton. En los años ochenta, cuando vio
                     Terminador, no le molestó que Skynet, que  la IA destructora del mundo de la película, fuera una red neuronal;
                     Le complació ver que la tecnología se presentaba prometedora. Desde la pequeña depresión donde había estado el fuego, las grietas
                     en la piedra, creadas por el calor, irradiaban hacia afuera. Hinton, que es alto, delgado y muy  inglés, tocó
                     el lugar con su bastón. Científico de principio a fin, siempre está comentando lo que sucede en el mundo
                     físico: la vida de los animales, el flujo de las corrientes en la bahía, la geología de la isla. "Puse
                     una malla de barras de refuerzo debajo de la madera, para que el aire pudiera entrar, y se calentó lo suficiente como
                     para que el metal se ablandara", dijo, en un tono de asombro. "Es un incendio real, ¡ algo de lo que estar
                     orgullosos !" Durante décadas,
                     Hinton experimentó y construyó redes neuronales más grandes estructuradas de maneras ingeniosas. Imaginó
                     nuevos métodos para entrenarlos y ayudarlos a mejorar. Reclutó estudiantes de posgrado y los convenció
                     de que las redes neuronales no eran una causa perdida. Se consideraba parte de un proyecto que podría hacerse realidad
                     dentro de un siglo, después de su muerte. Mientras tanto, quedó viudo y crio solo a dos hijos pequeños.
                     Durante un período particularmente difícil, cuando las exigencias de la vida familiar y la investigación
                     lo abrumaron, pensó que había contribuido todo lo que podía. "Estaba muerto en el agua a los cuarenta
                     y seis años", dijo. No anticipó la velocidad con la que, hace aproximadamente una década, la tecnología
                     de redes neuronales mejoraría repentinamente. Las computadoras se hicieron más rápidas y las redes neuronales,
                     aprovechando los datos disponibles en Internet, comenzaron a transcribir el habla, jugar, traducir idiomas e incluso conducir
                     automóviles. Cuando se adquirió la empresa de Hinton, un A.I, comenzó el auge  que llevó
                     a la creación de sistemas como Chat GPT de Open AI y Bard de Google, que muchos creen que están empezando a
                     cambiar el mundo de maneras impredecibles. Hinton
                     se dirigió a lo largo de la orilla y yo lo seguí, mientras la roca fracturada se movía debajo de mí.
                     "Ahora mira esto", dijo. Se paró frente a una roca grumosa del tamaño de una persona que bloqueaba
                     nuestro camino. "Así es como se transmite. Lanzas tu bastón"-arrojó el suyo al otro lado de
                     la roca-"y luego hallas puntos de apoyo aquí y aquí, y un asidero allá" . Lo observé
                     mientras trepaba con familiaridad y luego, más tentativamente, yo mismo di los mismos pasos. Rodeamos la costa hasta
                     llegar ala cabaña de Hinton, la única en la isla. Estaba acristalada y una escalera se alzaba sobre pilotes
                     de rocas anchas y oscuras. " Cada
                     vez que aprendemos algo, nuestras redes de neuronas cambian, pero ¿cómo exactamente? Investigadores como Hinton,
                     trabajando con computadoras, buscaron descubrir "algoritmos de aprendizaje" para redes neuronales, procedimientos
                     mediante los cuales los "pesos" estadísticos de las conexiones entre neuronas artificiales podrían
                     cambiar para asimilar nuevos conocimientos. en
                     los años sesenta y setenta, Hinton dibujó redes de neuronas en cuadernos e imaginó nuevos conocimientos
                     llegando a sus fronteras. ¿Cómo almacenaría un concepto una red de unos cientos de neuronas artificiales?
                     ¿Cómo revisaría ese concepto si resultara ser defectuoso? |  
         
         	    
            
               |  
 A principios de este año, Hinton dejó
                     Google, donde había trabajado desde la adquisición. Estaba preocupado por el potencial de la A.I.de  hacer daño
                     y comenzó a dar entrevistas en las que hablaba de la "amenaza existencial" que la tecnología podría
                     suponer para la especie humana. Cuanto más usaba Chat GPT, un A.I. más aprendía sobre el  sistema en
                     un vasto corpus de escritura humana, y  más incómodo se sentía. Hay muchas razones para preocuparse por la llegada de la inteligencia artificial.
                     Es de sentido común preocuparse de que los trabajadores humanos sean reemplazados por computadoras, por ejemplo. Pero
                     Hinton se ha unido a muchos tecnólogos destacados, incluido Sam Altman, director ejecutivo de la empresa. de Open AI,
                     al advertir que con  A. los sistemas pueden empezar a pensar por sí mismos e incluso intentar apoderarse de la civilización
                     humana o eliminarla. Fue sorprendente escuchar a uno de los investigadores más destacados de la IA expresar una visión
                     tan alarmante. "La gente dice
                     que es simplemente un autocompletado glorioso", me dijo, de pie en su cocina. Suponga que quiere ser realmente bueno
                     prediciendo la siguiente palabra. Esa es la única manera. Entonces, al educar algo para que sea realmente bueno en
                     la predicción de la siguiente palabra, en realidad lo estás obligando a comprender. Sí, es "autocompletado",
                     pero no pensaste en lo que significa tener un autocompletado realmente bueno". Hinton cree que los "grandes modelos
                     de lenguaje", como GPT, Generative Pretrained Transformer, un modelo de lenguaje desarrollado por Open AI que ha sido
                     entrenado en una gran cantidad de texto en internet para responder a preguntas y generar texto de manera autónoma que
                     impulsa los chatbots de Open AI; pueden comprender los significados de palabras e ideas. Señalemos que hay muchas cosas que separan la mente humana de las redes
                     neuronales. Por un lado, las redes neuronales no aprenden como lo hacemos nosotros: adquirimos conocimiento de manera orgánica,
                     al tener experiencias y captar su relación con la realidad y con nosotros mismos, mientras que ellas aprenden de manera
                     abstracta, procesando enormes depósitos de información sobre un mundo que no aprenden. Realmente no habitamos.
                     Pero Hinton sostiene que la inteligencia mostrada por A.I, los  sistemas trascienden sus orígenes artificiales. "Cuando comes, tomas la comida y la descompones en estos
                     pequeños componentes", me dijo. "Entonces se podría decir que los pedazos de mi cuerpo están
                     hechos de pedazos de otros  cuerpos. Pero eso sería muy engañoso". Él cree que, al analizar la escritura
                     humana, un modelo de lenguaje grande como GPT aprende cómo funciona el mundo, produciendo un sistema capaz de pensar;
                     escribir es sólo una parte de lo que ese sistema puede hacer. "Es muy hermoso", dijo en voz baja. "Y
                     entiendes el punto.Nuestros diferentes pensamientos deben reflejar diferentes disposiciones físicas dentro de
                     nuestro cerebro;
 De acuerdo al filosofo
                     Bernard Williams, quien resultó estar interesado en las computadoras y la mente, esto es bastante diferente a la situación
                     dentro de una computadora, en la que el software era independiente del hardware. A Hinton le sorprendió esta observación;
                     Recordó cómo, en la escuela secundaria, un amigo le había dicho que la memoria podía almacenarse
                     en el cerebro de forma "holográfica", es decir, distribuida, pero de tal manera que se podía acceder
                     al todo a través de cualquier parte. Lo que estaba encontrando era el "conexionismo", un enfoque que combinaba
                     neurociencia, matemáticas, filosofía y programación para explorar cómo las neuronas podían
                     trabajar juntas para "pensar". Uno de los objetivos del conexionismo era crear un sistema similar al cerebro en
                     una computadora. Se habían producido algunos avances: el Perceptrón, una máquina construida en los años
                     cincuenta por un psicólogo y conexionista pionero llamado Frank Rosenblatt, había utilizado un hardware informático
                     sencillo para simular una red de cientos de neuronas. Cuando se conectaba a un sensor de luz, el aparato podía reconocer
                     letras y formas rastreando qué neuronas artificiales se activaban por diferentes patrones de luz  Es útil para la mente etiquetar las cosas; les ayuda a
                     comprender la realidad. Pero ¿qué significaría para una mente artificial hacerlo? Mientras Hinton obtenía
                     un doctorado. Doctor en inteligencia artificial por la Universidad de Edimburgo, pensó en cómo se podría
                     simular en una computadora el "saber" del cerebro. En aquella época, en la década de 1970, la gran
                     mayoría de los investigadores de A.I. Los investigadores eran "simbolistas". En su opinión, conocer,
                     por ejemplo, el ketchup podría implicar una serie de conceptos, como "alimento", "salsa", "condimento",
                     "dulce", "umami", "rojo", "tomate", "americano", "Papas fritas",
                     "mayonesa" y "mostaza"; juntos, podrían crear un andamio sobre el cual se podría colgar
                     un nuevo concepto como "ketchup". Una gran y bien financiada A.I. El esfuerzo llamado Cyc se centró en la
                     construcción de un vasto depósito de conocimientos en el que los científicos, utilizando un lenguaje
                     especial, podían introducir conceptos, hechos y reglas, junto con sus inevitables excepciones pero no los pingüinos
                     ni los pájaros con las alas dañadas o...) Pero
                     Hinton dudaba de este enfoque. Parecía demasiado rígido y demasiado centrado en las habilidades de razonamiento
                     que poseían los filósofos y lingüistas. Sabía que en la naturaleza muchos animales actuaban inteligentemente
                     sin acceso a conceptos que pudieran expresarse con palabras. Simplemente aprendieron a ser inteligentes a través de
                     la experiencia. El aprendizaje, no el conocimiento, era el motor de la inteligencia. El pensamiento humano sofisticado a menudo
                     parecía ocurrir a través de símbolos y palabras. Pero Hinton y sus colaboradores, James L. McClelland
                     y David Rumelhart, creían que gran parte de la acción ocurrió en un nivel subconceptual. Observen, escribieron,
                     cómo "si aprendes un hecho nuevo sobre un objeto, tus expectativas sobre otros objetos similares tienden a cambiar":
                     si te dicen que a los chimpancés les gustan las cebollas, por ejemplo, podrías adivinar que a los gorilas les
                     gustan, también. Esto sugería que el conocimiento probablemente estaba "distribuido" en la mente,
                     creado a partir de bloques de construcción más pequeños que podían compartirse entre ideas relacionadas.
                     No habría dos redes neuronales separadas para los conceptos "chimpancé" y "gorila"; en cambio,
                     haces de neuronas que representan varias "características" concretas o abstractas (pelaje, cuadrúpedo,
                     primacía, animalidad, inteligencia, salvajismo, etc.) podrían activarse de una manera para significar "chimpancé"
                     y de una manera ligeramente diferente para significar " gorila." A esta nube de características se le podría
                     sumar el gusto por la cebolla. Una mente construida de esta manera corría el riesgo de caer en la confusión
                     y el error: si se mezclan cualidades en la disposición incorrecta, se obtendría una criatura de fantasía
                     que no era ni gorila ni chimpancé. Pero un cerebro con el algoritmo de aprendizaje correcto podría ajustar los
                     pesos entre sus neuronas para favorecer combinaciones sensatas sobre las incoherentes. | 
 Hinton continuó explorando estas ideas, primero
                     en la Universidad de California, San Diego, donde realizó un posdoctorado (y se casó con Joanne, a quien dio
                     clases de visión por computadora); luego en Cambridge, donde trabajó como investigador en psicología
                     aplicada; y luego en Carnegie Mellon, en Pittsburgh, donde se convirtió en profesor de informática en 1982.
                     Allí gastó gran parte de su presupuesto de investigación en una única computadora lo suficientemente
                     potente como para ejecutar una red neuronal. Pronto se casó por segunda vez con Rosalind Zalin, una bióloga
                     molecular. En Carnegie Mellon, Hinton logró un gran avance. Trabajando con Terrence Sejnowski, informático y
                     neurocientífico, produjo una red neuronal llamada Máquina Boltzmann. El sistema recibió su nombre de
                     Ludwig Boltzmann, el físico austriaco del siglo XIX que describió, matemáticamente, cómo el comportamiento
                     a gran escala de los gases se relacionaba con el comportamiento a pequeña escala de sus partículas constituyentes.
                     Hinton y Sejnowski combinaron estas ecuaciones con una teoría del aprendizaje.   
 
 Hinton se mostró reacio a explicarme la
                     máquina Boltzmann. "Les diré cómo es esto", dijo. "Es como tener un niño pequeño
                     y decides salir a caminar. Y hay una montaña delante de ti, y tienes que llevar a este niño pequeño a
                     la cima de la montaña y regresar". Me miró (al niño de la metáfora) y suspiró. Le
                     preocupaba, con razón, que una explicación simplificada pudiera engañarme y luego engañar a otros.
                     "No sirve de nada intentar explicar ideas complicadas que no entiendes. Primero, debes entender cómo funciona
                     algo. De lo contrario, sólo producirás tonterías". Finalmente, tomó algunas hojas de papel
                     y comenzó a dibujar diagramas de neuronas conectadas por flechas y a escribir ecuaciones, que intenté seguir.
                     (Antes de mi visita, había realizado un curso de álgebra lineal en la Khan Academy). Una forma de entender la máquina Boltzmann, sugirió,
                     era imaginar un Identi-Kit: un sistema a través del cual se pueden identificar varias características de una
                     cara (cejas pobladas, ojos azules, narices torcidas, labios finos, orejas grandes, etc.). combinados para producir un boceto
                     compuesto, del tipo utilizado por la policía. Para que un Identi-Kit funcione, las funciones mismas deben estar diseñadas
                     adecuadamente. La máquina Boltzmann podría aprender no sólo a ensamblar las características sino
                     también a diseñarlas, alterando los pesos de las conexiones entre sus neuronas artificiales. Comenzaría
                     con características aleatorias que parecían nieve en una pantalla de televisión y luego procedería
                     en dos fases -"despertar" y "dormir"- para refinarlas. Mientras está despierto, modificaría
                     los rasgos para que se ajusten mejor a un rostro real. Mientras dormía, fantaseaba con un rostro que no existía
                     y luego alteraba los rasgos para que encajaran peor. Sus
                     sueños le dijeron lo que no debía aprender. El sistema tenía cierta elegancia: con el tiempo, podía
                     alejarse del error y acercarse a la realidad, y nadie tenía que decirle si estaba bien o mal; sólo necesitaba
                     ver lo que existía y soñar con lo que existía.  Hinton y Sejnowski describieron la máquina Boltzmann en un artículo de 1983.
                     "Leí ese artículo cuando estaba comenzando mis estudios de posgrado y dije: 'Tengo que hablar con estos
                     muchachos; son las únicas personas en el mundo que entienden que necesitamos algoritmos de aprendizaje'", me dijo
                     Yann LeCun. . A mediados de los años ochenta, Yoshua Bengio, un pionero en el procesamiento del lenguaje natural y
                     en la visión por computadora y ahora director científico de Mila, un experto en inteligencia artificial. Instituto
                     de Quebec, entrenó una máquina Boltzmann para reconocer sílabas habladas como parte de su tesis de maestría.
                     "Geoff fue uno de los revisores externos", recordó. "Y escribió algo como 'Esto no debería
                     funcionar'". La versión de Bengio de la máquina Boltzmann fue más efectiva de lo que Hinton esperaba;
                     Bengio tardó algunos años en descubrir por qué. Esto se convertiría en un patrón familiar.
                     En las décadas siguientes, las redes neuronales a menudo funcionaban mejor de lo esperado, tal vez porque se habían
                     formado nuevas estructuras entre las neuronas durante el entrenamiento. "La parte experimental del trabajo vino antes
                     que la teoría", recuerda Bengio. A menudo se trataba de probar nuevos enfoques y ver qué se les ocurría
                     a las redes.Pero el trabajo real de construir redes de backprop fue lento, tanto por razones prácticas como conceptuales.
                     En la práctica, las computadoras eran lentas. "El ritmo de progreso fue básicamente: ¿cuánto
                     podría aprender una computadora de la noche a la mañana?" Hinton recordó. "La respuesta a menudo
                     fue no mucho". Conceptualmente, las redes neuronales eran misteriosas. No era posible programar uno de la forma tradicional.
                     No se podía entrar y editar los pesos de las conexiones entre neuronas artificiales. Y, de todos modos, era difícil
                     entender qué significaban las pesas, porque se habían adaptado y cambiado a través del entrenamiento.
 Había muchas maneras en que el proceso de aprendizaje podía
                     salir mal. En el "sobreajuste", por ejemplo, una red memorizó efectivamente los datos de entrenamiento en
                     lugar de aprender a generalizar a partir de ellos. Evitar los diversos obstáculos no siempre fue sencillo, porque le
                     correspondía a la red aprender. Fue como talar un árbol: los investigadores podían hacer cortes aquí
                     y allá, pero luego tenían que dejar que el proceso se desarrollara. Podrían probar técnicas como
                     "ensamblar" (combinar redes débiles para crear una fuerte) o "detener temprano" (dejar que una
                     red aprenda, pero no demasiado). Podrían "preentrenar" un sistema tomando una máquina de Boltzmann,
                     haciéndola aprender algo y luego colocando una red de respaldo encima de ella, de modo que el entrenamiento "supervisado"
                     de un sistema no comenzara hasta que hubiera adquirido algo de elemental. conocimiento por sí solo. Luego dejarían
                     que la red aprendiera, con la esperanza de que aterrizara donde querían.   |  
         
         	    
            
               |  
 Se desarrollaron nuevas "arquitecturas" de
                     redes neuronales: las redes "recurrentes" y "convolucionales" permitieron que los sistemas progresaran
                     basándose en su propio trabajo de diferentes maneras. Pero era como si los investigadores hubieran descubierto una
                     tecnología alienígena que no sabían cómo utilizar. Giraron el cubo de Rubik de un lado a otro,
                     tratando de poner orden en el ruido. "Siempre estuve convencido de que no era una tontería", dijo Hinton.
                     "No fue realmente fe; simplemente era completamente obvio para mí". El cerebro utilizó neuronas para
                     aprender; por lo tanto, debe ser posible un aprendizaje complejo a través de redes neuronales. Trabajaría el
                     doble de duro durante el doble de tiempo.Cuando
                     las redes se entrenaban mediante backprop, era necesario decirles cuándo se habían equivocado y en qué
                     medida; Esto requirió grandes cantidades de datos etiquetados con precisión, lo que permitiría a las
                     redes ver la diferencia entre un "7" y un "1" escrito a mano, o entre un golden retriever y un setter
                     rojo. Pero fue difícil encontrar conjuntos de datos bien etiquetados que fueran lo suficientemente grandes, y construir
                     más fue una tarea ardua. LeCun y sus colaboradores desarrollaron una base de datos gigante de números escritos
                     a mano, que luego utilizaron para entrenar redes que pudieran leer códigos postales de muestra proporcionados por el
                     Servicio Postal de EE. UU. Un científico informático llamado Fei Fei Li, de Stanford, encabezó un esfuerzo
                     gigantesco llamado ImageNet; crearlo requirió recopilar más de catorce millones de imágenes y clasificarlas
                     a mano en veinte mil categorías. A
                     medida que las redes neuronales crecían, Hinton ideó una manera de transferir conocimiento de una red grande
                     a una más pequeña que pudiera ejecutarse en un dispositivo como un teléfono móvil. "Se llama
                     destilación", explicó en su cocina. "En la escuela, el profesor de arte nos mostraba algunas diapositivas
                     y decía: 'Ese es un Rubens, ese es un Van Gogh y este es William Blake'. Pero supongamos que el profesor de arte te
                     dice: 'Está bien, este es un Tiziano'. , pero es un Tiziano peculiar porque algunos aspectos se parecen bastante a
                     Rafael, lo cual es muy inusual para un Tiziano.' Eso es mucho más útil. No sólo te están diciendo
                     la respuesta correcta, sino que te están diciendo otras respuestas plausibles". En el aprendizaje por destilación,
                     una red neuronal proporciona a otra no sólo respuestas correctas sino también una variedad de respuestas posibles
                     y sus probabilidades. Era un tipo de conocimiento más rico. Unos años después de la muerte de Rosalind, Hinton se volvió a conectar
                     con Jacqueline Ford, una historiadora del arte con quien había salido brevemente antes de mudarse a los Estados Unidos.
                     Jackie era culta, cálida, curiosa y hermosa. "Ella está fuera de tu alcance", dijo su hermana. Aún
                     así, Jackie dejó su trabajo en el Reino Unido para mudarse a Toronto. Se casaron el 6 de diciembre de 1997,
                     el quincuagésimo cumpleaños de Hinton. Las siguientes décadas serían las más felices de
                     su vida. Su familia estaba completa otra vez. Sus hijos amaban a su nueva madre. Él y Jackie comenzaron a explorar
                     las islas de Georgian Bay. Recordando ese momento, miró la canoa en su sala de estar. "Lo encontramos en el bosque,
                     boca abajo, cubierto de lona, y estaba totalmente podrido; todo estaba podrido", dijo. "Pero Jackie decidió
                     rescatarlo de todos modos, como lo hizo conmigo y con los niños". Hinton no estaba enamorado de la retropropagación. "Es intelectualmente
                     muy insatisfactorio", me dijo. A diferencia de la máquina de Boltzmann, "todo es determinista. Desafortunadamente,
                     simplemente funciona mejor". Poco a poco, a medida que se fueron acumulando los avances prácticos, el poder del
                     backprop se volvió innegable. A principios de los años setenta, me dijo Hinton, el gobierno británico
                     había contratado a un matemático llamado James Lighthill para determinar si la I.A. la investigación
                     tenía alguna posibilidad plausible de éxito. Lighthill concluyó que no era así, "y tenía
                     razón", dijo Hinton, "si se aceptaba la suposición, que todo el mundo hacía, de que las computadoras
                     podrían ser mil veces más rápidas, pero no mil millones de veces más rápidas". Hinton
                     hizo un cálculo mental. Supongamos que en 1985 hubiera comenzado a ejecutar un programa en una computadora de investigación
                     rápida y lo hubiera dejado ejecutándose hasta ahora. Si comenzara a ejecutar el mismo programa hoy, en los sistemas
                     más rápidos utilizados actualmente en IA, le tomaría menos de un segundo alcanzarlo. A principios del siglo XXI, cuando las redes neuronales multicapa
                     equipadas con potentes ordenadores empezaron a entrenarse con conjuntos de datos mucho más grandes, Hinton, Bengio
                     y LeCun empezaron a hablar del potencial del "aprendizaje profundo". El trabajo cruzó un umbral en 2012,
                     cuando Hinton, Alex Krizhevsky e Ilya Sutskever crearon AlexNet, una red neuronal de ocho capas que finalmente fue capaz de
                     reconocer objetos de ImageNet con una precisión de nivel humano. Hinton formó una empresa con Krizhevsky y Sutskever
                     y la vendió a Google. Él y Jackie compraron la isla en Georgian Bay: "mi único verdadero capricho",
                     dijo Hinton |  
 Amo esta casa, pero a veces
                     es un lugar triste", dijo, mientras mirábamos las fotografías. "Porque a ella le encantaba estar aquí
                     y no está aquí". El sol casi se había puesto y Hinton encendió una pequeña luz sobre su escritorio.
                     Cerró la computadora y se subió las gafas hasta la nariz. Se enderezó y volvió al presente. "Quería que supieras
                     sobre Roz y Jackie porque son una parte importante de mi vida", dijo. "Pero, en realidad, también es bastante
                     relevante para la inteligencia artificial. Hay dos enfoques para la IA. Hay negación y estoicismo. La primera reacción
                     de todos ante la I.A. es 'Tenemos que detener esto'. Al igual que la primera reacción de todos ante el cáncer
                     es: '¿Cómo vamos a eliminarlo?'". Pero era importante reconocer que eliminarlo era sólo una fantasía. Él suspiró. "No
                     podemos negarlo", dijo. "Tenemos que ser reales. Necesitamos pensar: ¿Cómo podemos evitar que esto
                     sea tan terrible para la humanidad como podría ser?  ¿Qué tan útil (o peligrosa) será la I.A. resulta ser? Nadie
                     lo sabe con certeza, en parte porque las redes neuronales son muy extrañas. En el siglo XX, muchos investigadores quisieron
                     construir computadoras que imitaran los cerebros. Pero, aunque las redes neuronales como los modelos GPT de OpenAI son similares
                     a los cerebros en el sentido de que involucran miles de millones de neuronas artificiales, en realidad son profundamente diferentes
                     de los cerebros biológicos. Las IA actuales están basadas en la nube y alojadas en centros de datos que utilizan
                     energía a escala industrial. Desorientados en algunos aspectos y sabios en otros, razonan ante millones de usuarios,
                     pero sólo cuando se les solicita. No están vivos. Probablemente hayan pasado la prueba de Turing, el estándar
                     largamente anunciado, establecido por el pionero de la informática Alan Turing, que sostenía que se podía
                     decir, razonablemente, que cualquier computadora que pudiera imitar persuasivamente a un ser humano en una conversación
                     pensaba. Y, sin embargo, nuestras intuiciones pueden decirnos que nada de lo que reside en una pestaña del navegador
                     podría realmente pensar de la forma en que lo hacemos. Los sistemas nos obligan a preguntarnos si nuestro modo de pensar
                     es el único que cuenta. Durante sus últimos años en Google, Hinton centró sus esfuerzos en crear una
                     inteligencia artificial más tradicional, similar a la mente, utilizando hardware que emulaba más fielmente al
                     cerebro. En las IA actuales, los pesos de las conexiones entre las neuronas artificiales se almacenan numéricamente;
                     es como si el cerebro mantuviera registros sobre sí mismo. Sin embargo, en su cerebro analógico real, los pesos
                     están integrados en las conexiones físicas entre las neuronas. Hinton trabajó para crear una versión
                     artificial de este sistema utilizando chips de computadora especializados. "Si pudieras hacerlo, sería increíble",
                     me dijo. Los chips podrían aprender variando sus "conductancias". Como los pesos estarían integrados
                     en el hardware, sería imposible copiarlos de una máquina a otra; cada inteligencia artificial tendría
                     que aprender por sí sola. "Tendrían que ir a la escuela", dijo. "Pero se pasaría de utilizar
                     un megavatio a treinta vatios". Mientras hablaba, se inclinó hacia adelante, sus ojos taladrando los míos;
                     Pude vislumbrar a Hinton el evangelista. Porque el conocimiento adquirido por cada A.I. se perdería cuando fuera desmontado,
                     llamó a este enfoque "computación mortal". "Renunciaríamos a la inmortalidad", dijo.
                     "En literatura renuncias a ser un dios por la mujer que amas, ¿no? En este caso, obtendríamos algo mucho
                     más importante: la eficiencia energética". Entre otras cosas, la eficiencia energética fomenta la
                     individualidad: como un cerebro humano puede funcionar con avena, el mundo puede sustentar miles de millones de cerebros,
                     todos diferentes. Y cada cerebro puede aprender continuamente, en lugar de ser entrenado una vez y luego lanzado al mundo. Como empresa científica,
                     la mortal A.I. podría acercarnos a replicar nuestros propios cerebros. Pero Hinton ha llegado a pensar, lamentablemente,
                     que la inteligencia digital podría ser más poderosa. En la inteligencia analógica, "si el cerebro
                     muere, el conocimiento muere", afirmó. Por el contrario, en la inteligencia digital, "si una computadora
                     en particular muere, esas mismas conexiones pueden usarse en otra computadora. E, incluso si todas las computadoras digitales
                     murieran, si hubiera almacenado las intensidades de conexión en algún lugar, podría simplemente crear
                     otra computadora digital y ejecutar los mismos pesos en esa otra computadora digital. Diez mil redes neuronales pueden aprender
                     diez mil cosas diferentes al mismo tiempo y luego compartir lo que han aprendido". Esta combinación de inmortalidad
                     y replicabilidad, afirma, sugiere que "deberíamos preocuparnos de que la inteligencia digital reemplace a la inteligencia
                     biológica". ¿Cómo
                     deberíamos describir la vida mental de una inteligencia digital sin un cuerpo mortal ni una identidad individual? En
                     los últimos meses, algunos A.I. Los investigadores han empezado a llamar a GPT un "motor de razonamiento",
                     una forma, tal vez, de liberarse del peso de la palabra "pensamiento", que nos cuesta definir. "La gente nos
                     culpa por usar esas palabras: 'pensar', 'saber', 'comprender', 'decidir', etc.", me dijo Bengio. "Pero aunque no
                     comprendamos completamente el significado de esas palabras, han sido formas muy poderosas de crear analogías que nos
                     ayudan a comprender lo que estamos haciendo. Nos ha ayudado mucho hablar de "imaginación", "atención",
                     "planificación", "intuición" como herramienta para aclarar y explorar". En opinión
                     de Bengio, "mucho de lo que hemos estado haciendo es resolver el aspecto 'intuición' de la mente". Las intuiciones
                     pueden entenderse como pensamientos que no podemos explicar: nuestra mente las genera para nosotros, inconscientemente, al
                     establecer conexiones entre lo que encontramos en el presente y nuestras experiencias pasadas. Tendemos a valorar la razón
                     más que la intuición, pero Hinton cree que somos más intuitivos de lo que reconocemos. "Durante
                     años, la IA simbólica. La gente decía que nuestra verdadera naturaleza es que somos máquinas de
                     razonamiento", me dijo. "Creo que eso es simplemente una tontería. Nuestra verdadera naturaleza es que somos
                     máquinas de analogías, con un poco de razonamiento incorporado, para notar cuando las analogías nos dan
                     respuestas incorrectas y corregirlas".
 
 |  
         
         	    
            
               | Hinton continuó
                     explorando estas ideas, primero en la Universidad de California, San Diego, donde realizó un posdoctorado (y se casó
                     con Joanne, a quien dio clases de visión por computadora); luego en Cambridge, donde trabajó como investigador
                     en psicología aplicada; y luego en Carnegie Mellon, en Pittsburgh, donde se convirtió en profesor de informática
                     en 1982. Allí gastó gran parte de su presupuesto de investigación en una única computadora lo
                     suficientemente potente como para ejecutar una red neuronal. Pronto se casó por segunda vez con Rosalind Zalin, una
                     bióloga molecular. En Carnegie Mellon, Hinton logró un gran avance. Trabajando con Terrence Sejnowski, informático
                     y neurocientífico, produjo una red neuronal llamada Máquina Boltzmann. El sistema recibió su nombre de
                     Ludwig Boltzmann, el físico austriaco del siglo XIX que describió, matemáticamente, cómo el comportamiento
                     a gran escala de los gases se relacionaba con el comportamiento a pequeña escala de sus partículas constituyentes.
                     Hinton y Sejnowski combinaron estas ecuaciones con una teoría del aprendizaje.
 
 
 | UN  FINAL PERFECTO
                     U A UNA DISERTACION FASCINANTE.,  Bajamos por el sendero boscoso,
                     pasamos los cobertizos y descendimos por las escaleras hasta el muelle, luego subimos al bote de Hinton. Era un día
                     azul perfecto, con un fuerte viento que agitaba el agua. Hinton estaba al volante. Me senté al frente, viendo pasar
                     otras islas, pensando en la historia de A.I. Para algunos, es un cuento copernicano, en el que nuestras intuiciones sobre
                     el carácter especial de la mente humana están siendo desalojadas por máquinas pensantes. Para otros,
                     es prometeico: habiendo robado el fuego, corremos el riesgo de quemarnos. Algunas personas piensan que nos estamos engañando
                     a nosotros mismos, dejándonos engañar por nuestras propias máquinas y las empresas que esperan sacar
                     provecho de ellas. Curiosamente, también podría tratarse de una historia sobre las limitaciones humanas. Si
                     fuéramos dioses, podríamos crear un tipo diferente de IA; en realidad, esta versión fue la que pudimos
                     manejar. Mientras tanto, no pude evitar considerar la historia desde una perspectiva edénica. Al intentar recrear los
                     sistemas de conocimiento en nuestras cabezas, nos habíamos apoderado de la manzana prohibida; ahora nos arriesgábamos
                     al exilio de nuestro mundo encantado. Pero ¿quién elegiría no saber cómo funciona el conocimiento?   En el puerto  Hinton hizo un buen trabajo trabajando con
                     el viento, acelerando hacia adelante, girando y luego permitiendo que lo guiara hacia su embarcadero. "Estoy aprendiendo",
                     dijo, orgulloso de sí mismo. Caminamos hasta tierra y esperamos junto a una tienda a que llegara Rosemary. Después
                     de un rato, Hinton entró a comprar una bombilla. Me puse de pie, disfrutando del calor, y luego vi a una mujer alta,
                     de ojos brillantes y largo cabello blanco, que caminaba hacia mí desde el estacionamiento.Rosemary y yo nos dimos la
                     mano. Luego miró por encima de mi hombro. Hinton estaba emergiendo de la vegetación cercana a la tienda, sonriendo.   |  |