Sindicador de canales de noticias
La ciencia de Westworld: cómo se veía la investigación sobre la IA hace una década y dónde estamos
Me pareció simpático encontrarme con The science of Westworld de Mike Hearn, un artículo de 2017 (hace casi una década) donde se examinaba la inteligencia artificial que mostraban los androides de Westworld y la comparaban con el «estado actual del conocimiento» que había entonces. Que no es, ni mucho menos, lo que tenemos ahora en 2025, claro.
El artículo está muy bien porque muestra algunas de las cuestiones que se consideraban relevantes para medir los avances de la IA, no solo la de los anfitriones del parque de ficción, sino también en el MundoReal™.
Westworld plantea cómo las máquinas podrían alcanzar la autoconsciencia, pero ¿en qué momento lo harían? Hearn repasó en 2017 los avances clave en inteligencia artificial que mostraban que, aunque lejos de ser como en la ficción, algunas ideas no sonaban tan descabelladas.
Uno de los puntos fuertes de la trama son las historias de los robots (el pasado en forma de relatos que les preparan los guionistas del parque). En la práctica, la comprensión de relatos se estudia con pruebas como el test bAbI de Facebook de 2015, que evalúa si una IA sabe responder a preguntas encadenando hechos, deduciendo o induciendo. Ese test fue vapuleado en menos de dos años con 175 líneas de Python y una red neuronal recursiva. Aunque las historias de los robots son más elaboradas, no es algo que suponga un problema para la tecnología actual.
Además de los temas recurrentes como la capacidad de razonamiento y la memoria, para ellos indistinguible de la realidad (y con algo de persistencia tras los borrados), está el control, algo que hoy en día se hace con filtros y otros recursos sobre los modelos de IAs que se lanzan al mercado. Es algo que nos fascina y acojona, porque, más allá de la facilidad que tienen para aprender a hacer trampas, en caso de descarriarse podría acabar muy mal, especialmente cuando se le dé el control de ciertos sistemas vitales a las IAs.
En el artículo se habla de IAs de Facebook y DeepMind leyendo periódicos para aprender, algo que dicen que potenciaría sus conocimientos:
(…) Si el ritmo continúa, entrenar redes con bibliotecas enteras podría ser cuestión de pocos años, y el viejo Test de Turing podría caer dentro de una sola generación.Hoy sabemos que las IA han sido capaces de deglutir y asimilar todo el conocimiento que se ha generado en todo el planeta, desde periódicos a libros, revistas, emisiones de radio, películas, fotografías, vídeos y obras de arte. Todo el conocimiento de la raza humana convertido a unos pocos tokens, cómodamente disponibles para hacerle preguntas desde el móvil que llevamos en el bolsillo.
Está claro que Westworld, como Matrix y otros entretenimientos similares, son sobre todo filosofía disfrazada de ciencia ficción. Pero la velocidad de los avances en IA es real y a veces supera a la ficción. En menos de dos años se pasó de definir pruebas de comprensión a resolverlas y aunque en lo «mecánico» todavía no tenemos androides tan realistas como los anfitriones de Westworld, todo se andará.
§
Me decepcionó un poco que en un artículo tan enfocado en la IA no se tratara algo más sobre la teoría de la mente bicameral, algo tan fascinante que desde que lo conocí no puedo evitar recordarlo cada vez que oigo acerca de las teorías de la conciencia, o simplemente de personas que tienen alucinaciones auditivas o algún otro tipo de trastorno.
La idea fue lanzada en el libro El origen de la conciencia en la ruptura de la mente bicameral por Julian Jaynes y se estudió en psicología. El libro es algo espeso, pero entretenido y viene a explicar que el cerebro humano evolucionó en algún momento –hace unos 3.000 años– de un sistema de dos «cámaras» hasta el estado actual. Un hemisferio emitía las órdenes y «hablaba» con el otro, que las ejecutaba porque era como «oír la voz de los dioses». Con el tiempo aprendimos a que eso era «escuchar tus propios pensamientos» en el momento de tomar opciones, desarrollando una especie de «lenguaje interior». Algo parecido les sucede a los androides de Westworld con su programación y sus recuerdos.
Esta teoría es tan curiosa que explicaría cómo en libros muy antiguos (La odisea) os personajes se pasan el día obedeciendo a las voces de los dioses, y no se describe su estado mental o cómo se sentían, entre otras curiosidades.
Por desgracia, la mente bicameral es una teoría que carece de mayor respaldo científico, tiene muchas lagunas y no hay evidencias neurológicas de que se corresponda con la realidad. Digamos que puntúa un 9 sobre 10 en la escala de tonterías pseudo-científico-psicológicas, pero es entretenidísima, la verdad.
Actualización – Apropiado vídeo de Robert Miles para quienes estén interesados en el tema: Tech is Good, AI Will Be Different.
Development » Deprecations #2250 (stable)
SpaceX lanza la octava misión del avión espacial X-37B de la Fuerza Espacial de los Estados Unidos
Despegue de la misión – SpaceX
Esta pasada madrugada un Falcon 9 de SpaceX lanzaba el avión espacial X-37B de la Fuerza Espacial de los Estados Unidos (USSF) en su octava misión, conocida como OTV-98 o USSF-35. Lo dejó en una órbita circular baja a una altitud de entre 350 y 400 km y una inclinación de 44° respecto al ecuador.
Como es habitual no se sabe apenas nada acerca de los objetivos de esta ni de su duración prevista. Aunque sí hay –más o menos– datos sobre dos de sus aproximadamente 28 cargas útiles.
Una de ellas es una demostración de un sistema de comunicaciones láser en órbita baja terrestre para que sean más eficientes y seguras en el futuro; otra es un sensor inercial cuántico que es capaz de medir la rotación y la aceleración de los átomos, lo que permitirá sistemas de navegación que no dependan de ningún otro elemento. La idea es poder utilizarlo en lugares en los que el GPS no funciona o lo hace de forma degradada.
La USSF dispone de dos X-37B, denominados de forma más bien poco original X-37B 1 y X-37B 2. El que ha despegado hoy es el 1, que vuela en su cuarta misión.
El X-37B 1 antes de ser encapsulado para su lanzamiento – USSF
Es la tercera vez que SpaceX lanza el X-37B; ya lo hizo previamente en las misiones OTV-5 y OTV-6. La primera etapa del cohete volaba en su sexta misión y cumplida su misión aterrizó sin problemas en en la Zona de aterrizaje 2 de Cabo Cañaveral, con lo que podrá seguir siendo utilizada.
El X-37B al final de una misión anterior – USSF
El avión espacial, por su parte, aterrizará volando como un planeador cuando termine su misión, sea esto cuando sea.
Las matemáticas son bellas y estas imágenes lo demuestran
Las matemáticas son bellas (MathIsBeautiful*) es un proyecto matemático-científico personal de Raimon Luna, un investigador de la Universidad de Barcelona.
Es una especie de canal de Instagram en el que publica representaciones visuales, en forma de imágenes y vídeos, de conceptos de matemáticas y de física, generados enteramente con scripts de Python.
Junto a cada publicación se incluye una pequeña explicación del concepto, y lo más importante, un enlace a un repositorio de GitHub con el código Python que genera la imagen. De este modo, cualquier persona puede reproducir las imágenes en su ordenador, prender sus intríngulis o simplemente cambiar los parámetros si quiere.
A simple vista he encontrado fractales, representación de algoritmos, conocidas curvas que avalan conceptos físicos y hasta representaciones de los números primos. Aunque muchas son bien conocidas también hay otras igual de bellas pero más intrigantes, así que ya tengo material para explorar en las próximas semanas.
_____
* No confundir con /r/mathisbeautiful/, el foro de Reddit del mismo nombre y sobre el mismo tema.
Relacionado:
- Límite circular III, de M.C. Escher, en versión animada
- Random Walk: visualizando del azar con estilo
- Triángulos imposibles
- Triángulos imposibles
- Límite circular III, de M.C. Escher, en versión animada
- Un generador de teselaciones
- Curvas para rellenar el plano y el espacio
- La danza de los números primos