Episodi

  • E025_Mamba: Nueva Arquitectura Eficiente para la IA
    Jan 24 2026

    🧠 ¿Es el fin del dominio absoluto de los Transformers? Aunque los modelos actuales son increíbles, tienen un talón de Aquiles: se vuelven ineficientes con textos muy largos. En este episodio, exploramos el revolucionario paper “Mamba”, una nueva arquitectura presentada por Albert Gu y Tri Dao que propone una alternativa fascinante: los Espacios de Estados Selectivos (SSMs). Descubre cómo este modelo logra realizar un razonamiento basado en el contenido —la pieza que faltaba en las alternativas anteriores— permitiendo propagar o descartar información selectivamente, todo sin necesidad de los costosos bloques de atención ni MLPs. 🚀 ⚡ Más rápido, más eficiente y con un alcance masivo. Analizamos los impresionantes resultados de Mamba: una inferencia 5 veces más rápida que los Transformers y un escalado lineal capaz de procesar secuencias de hasta un millón de longitud. Lo más sorprendente es que el modelo Mamba-3B no solo supera a Transformers de su mismo tamaño, sino que iguala el rendimiento de aquellos que son el doble de grandes. Si quieres entender el futuro de la IA en lenguaje, audio y genómica, dale al play para conocer la arquitectura que promete redefinir el Deep Learning. 🎧✨ Fuentes: • Mamba: Linear-Time Sequence Modeling with Selective State Spaces (arXiv:2312.00752)

    Mostra di più Mostra meno
    15 min
  • E024_Tu modelo de lenguaje es secretamente un modelo de recompensa
    Jan 23 2026

    ¿Te has preguntado por qué alinear los grandes modelos de lenguaje (LLMs) con las preferencias humanas sigue siendo un reto tan grande? 🤔 Tradicionalmente, el aprendizaje por refuerzo con retroalimentación humana (RLHF) ha sido el estándar de oro, pero es un proceso notoriamente complejo, inestable y costoso. En este episodio, analizamos el paper que propone un cambio de paradigma total: “Direct Preference Optimization: Your Language Model is Secretly a Reward Model”. Descubriremos la teoría de que tu propio modelo de lenguaje ya esconde la clave para alinearse, eliminando la necesidad de la maquinaria pesada del aprendizaje por refuerzo tradicional. 🛠️ Hablaremos de DPO, un algoritmo innovador que simplifica radicalmente el entrenamiento al transformar el problema de alineación en una simple pérdida de clasificación. 📉 Olvídate de entrenar modelos de recompensa separados o de lidiar con muestreos constantes durante el ajuste fino; DPO ofrece una solución estable, ligera y de alto rendimiento que iguala o supera a los métodos actuales como PPO. 🚀 Si quieres entender la técnica que está haciendo que el control y el ajuste fino de la IA sean más accesibles y eficientes que nunca, ¡no te pierdas este análisis a fondo! 🎧✨ Fuentes y enlaces de interés: • 📄 Paper Original (arXiv): Direct Preference Optimization

    Mostra di più Mostra meno
    17 min
  • E023_Muñecas rusas o Cómo esconder IAs gigantes en embeddings diminutos
    Jan 22 2026

    ¿Te imaginas entrenar una IA una sola vez y que su “cerebro” pueda adaptarse dinámicamente a cualquier dispositivo, desde un potente servidor hasta un móvil antiguo? 📱💻 En este episodio desgranamos el paper “Matryoshka Representation Learning”, una propuesta fascinante que rompe con la rigidez de los modelos tradicionales. Al igual que las famosas muñecas rusas 🪆, esta técnica permite crear embeddings anidados que codifican la información en diferentes niveles de granularidad, logrando una flexibilidad inédita sin coste adicional durante la inferencia. Descubre cómo es posible conseguir representaciones hasta 14 veces más ligeras manteniendo la misma precisión en clasificación y logrando una aceleración masiva en tareas de recuperación de datos 🚀. Analizamos por qué esta arquitectura “elástica” se integra a la perfección con modelos de visión y lenguaje modernos (como BERT o ViT) y cómo resuelve el dilema de los recursos limitados sin sacrificar la robustez. ¡Dale al play para entender cómo esconder IAs gigantes en espacios diminutos! 🎧✨ Fuentes: • Paper: Matryoshka Representation Learning (arXiv)

    Mostra di più Mostra meno
    19 min
  • E022_Instruct GPT: Alinear la Ia es mejor que escalarla
    Jan 21 2026

    “¿Sabías que hacer más grandes a los modelos de lenguaje no los hace necesariamente mejores siguiendo instrucciones? 🤖 En este episodio desgranamos el paper fundamental que cambió el rumbo de la inteligencia artificial moderna: “Training language models to follow instructions with human feedback”. Analizamos por qué los modelos masivos, como el GPT-3 original, a menudo fallaban al generar respuestas veraces o útiles, llegando incluso a ser tóxicos si no estaban correctamente alineados con la intención del usuario. 🛡️ Exploraremos la paradoja de cómo el simple aumento de parámetros no garantiza una IA más servicial y segura. Descubre la metodología detrás de InstructGPT y cómo el uso de feedback humano mediante aprendizaje supervisado y por refuerzo marcó un antes y un después. 🚀 Profundizaremos en un dato revelador: cómo un modelo 100 veces más pequeño (1.3B de parámetros) logró superar al gigante GPT-3 (175B) en las preferencias de los usuarios, ofreciendo respuestas más certeras y menos tóxicas. ¡Dale al play ▶️ para entender cómo pasamos de máquinas que solo predicen texto a asistentes que realmente comprenden lo que les pedimos! 🧠✨ Fuentes: • Training language models to follow instructions with human feedback (ArXiv)”

    Mostra di più Mostra meno
    15 min
  • E021_Cadena de pensamiento. Desbloqueando el razonamiento de la IA
    Jan 20 2026

    ¿Alguna vez te has preguntado cómo lograr que una Inteligencia Artificial no solo responda, sino que realmente razone ante problemas complejos? 🧠✨ En este episodio desglosamos el influyente paper “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models”. Exploraremos cómo una técnica sorprendentemente sencilla —generar una ““cadena de pensamiento”” o una serie de pasos intermedios de razonamiento 🔗— permite que los modelos de lenguaje grandes (LLMs) desbloqueen habilidades cognitivas que parecían fuera de su alcance, mejorando drásticamente su rendimiento en tareas de lógica, aritmética y sentido común. Los resultados son impactantes: descubre cómo un modelo de 540B parámetros, utilizando tan solo 8 ejemplos de esta técnica, logró superar el rendimiento del state-of-the-art (incluso a un GPT-3 con finetuning) en el desafiante benchmark de problemas matemáticos GSM8K 📊. Analizaremos por qué mostrar el ““proceso mental”” marca la diferencia entre una alucinación y el éxito absoluto en tareas simbólicas. ¡Dale al play ▶️ para entender la estrategia esencial que cambió la forma en que hacemos prompt engineering! 🚀 Fuentes: • Paper Original: Chain-of-Thought Prompting Elicits Reasoning in Large Language Models (Wei et al., 2022)

    Mostra di più Mostra meno
    14 min
  • E020_Generar imágenes mediante ¿principios termodinámicos?
    Jan 19 2026

    🎨 ¿Te imaginas generar imágenes de alta calidad utilizando principios de la termodinámica? En este episodio, desglosamos el paper fundamental de Jonathan Ho, Ajay Jain y Pieter Abbeel que ha impulsado una revolución en la síntesis de imágenes. Exploramos los Modelos Probabilísticos de Difusión de Eliminación de Ruido (Denoising Diffusion Probabilistic Models), una clase fascinante de modelos de variables latentes que, inspirados en la termodinámica del no equilibrio, aprenden a revertir el ruido para reconstruir datos visuales complejos con una fidelidad asombrosa. 🌪️ 🚀 Descubre cómo estos modelos logran una calidad de muestra que rivaliza con las potentes ProgressiveGAN en LSUN y obtienen puntuaciones FID de vanguardia (3.17) en CIFAR10. Analizaremos su novedosa conexión con la dinámica de Langevin y el emparejamiento de puntuación de eliminación de ruido, además de explicar su esquema de descompresión progresiva que generaliza la decodificación autorregresiva. ¡Dale al play para entender la ciencia exacta detrás de la magia de la generación de imágenes! 🎧✨ Fuentes: Denoising Diffusion Probabilistic Models (arXiv:2006.11239)

    Mostra di più Mostra meno
    16 min
  • E019_El aprendizaje con pocos ejemplos (Few-shot learners)
    Jan 18 2026

    🧠 ¿Te has preguntado por qué a los humanos nos basta con un par de ejemplos para aprender algo nuevo, mientras que la IA tradicional necesitaba miles de datos? En este episodio exploramos el paper fundacional que transformó para siempre el Procesamiento del Lenguaje Natural: “Language Models are Few-Shot Learners”. Descubre la arquitectura detrás de GPT-3, el modelo que, con sus colosales 175 mil millones de parámetros (10 veces más que sus predecesores), rompió todos los esquemas demostrando que una inteligencia artificial puede ser generalista y competente sin necesidad de costosos reentrenamientos específicos (fine-tuning). 🚀 🎙️ Acompáñanos a analizar cómo este modelo logra hazañas sorprendentes simplemente recibiendo instrucciones de texto: desde traducción y corrección gramatical, hasta resolver aritmética de tres cifras 🧮 y generar artículos de noticias que los evaluadores humanos apenas pueden distinguir de la realidad. Desglosamos qué significa realmente el aprendizaje few-shot (de pocos intentos) y por qué la capacidad de GPT-3 para adaptarse “al vuelo” a nuevas tareas marcó el inicio de la era moderna de la IA Generativa. ¡Dale al play para entender los cimientos de la revolución tecnológica actual! 🌐✨ Fuentes y enlaces: • Paper original en arXiv: Language Models are Few-Shot Learners

    Mostra di più Mostra meno
    15 min
  • E018_AlphaGo: Anatomía de una Victoria (para la IA)
    Jan 17 2026

    ¿Te imaginas una máquina capaz de desarrollar algo parecido a la intuición humana? 🧠 Durante décadas, el antiguo juego del Go ⚫⚪ fue considerado el “Everest” de la inteligencia artificial, un desafío que se creía imposible de vencer mediante la fuerza bruta debido a su inmensidad matemática (¡más posiciones posibles que átomos en el universo!). En este episodio, exploramos la historia de AlphaGo, el programa que rompió todos los pronósticos al derrotar al campeón europeo Fan Hui por 5 a 0 🏆, logrando un hito que los expertos situaban al menos a una década de distancia. Descubre la fascinante arquitectura técnica que lo hizo posible: una combinación híbrida de Redes Neuronales Profundas (que seleccionan movimientos y evalúan posiciones como un experto) 🕸️ y el algoritmo de Árbol de Búsqueda Monte Carlo (MCTS) 🌲. Analizaremos cómo este sistema no se limitó a calcular, sino que aprendió jugando millones de partidas contra sí mismo mediante aprendizaje por refuerzo 🔄, alcanzando una tasa de victoria del 99.8% contra otros programas de vanguardia. ¡Dale al play ▶️ y acompáñanos a entender el momento exacto en que la IA dejó de simplemente procesar datos para empezar a “entender” el juego! 🚀 Fuentes: • Paper original en Nature: Mastering the game of Go with deep neural networks and tree search • Artículo sobre el Árbol de búsqueda Monte Carlo (Wikipedia)

    Mostra di più Mostra meno
    18 min