BIMPRAXIS copertina

BIMPRAXIS

BIMPRAXIS

Di: Julio Pablo Vazquez
Ascolta gratuitamente

3 mesi a soli 0,99 €/mese

Dopo 3 mesi, 9,99 €/mese. Si applicano termini e condizioni.

A proposito di questo titolo

Podcast oficial de BIMPRAXIS. Hablamos de Inteligencia Artificial, Building Information Modeling, por separado o en virtuosa intersección (IA + BIM).

Julio Pablo Vazquez Lopez
Scienza
  • E025_Mamba: Nueva Arquitectura Eficiente para la IA
    Jan 24 2026

    🧠 ¿Es el fin del dominio absoluto de los Transformers? Aunque los modelos actuales son increíbles, tienen un talón de Aquiles: se vuelven ineficientes con textos muy largos. En este episodio, exploramos el revolucionario paper “Mamba”, una nueva arquitectura presentada por Albert Gu y Tri Dao que propone una alternativa fascinante: los Espacios de Estados Selectivos (SSMs). Descubre cómo este modelo logra realizar un razonamiento basado en el contenido —la pieza que faltaba en las alternativas anteriores— permitiendo propagar o descartar información selectivamente, todo sin necesidad de los costosos bloques de atención ni MLPs. 🚀 ⚡ Más rápido, más eficiente y con un alcance masivo. Analizamos los impresionantes resultados de Mamba: una inferencia 5 veces más rápida que los Transformers y un escalado lineal capaz de procesar secuencias de hasta un millón de longitud. Lo más sorprendente es que el modelo Mamba-3B no solo supera a Transformers de su mismo tamaño, sino que iguala el rendimiento de aquellos que son el doble de grandes. Si quieres entender el futuro de la IA en lenguaje, audio y genómica, dale al play para conocer la arquitectura que promete redefinir el Deep Learning. 🎧✨ Fuentes: • Mamba: Linear-Time Sequence Modeling with Selective State Spaces (arXiv:2312.00752)

    Mostra di più Mostra meno
    15 min
  • E024_Tu modelo de lenguaje es secretamente un modelo de recompensa
    Jan 23 2026

    ¿Te has preguntado por qué alinear los grandes modelos de lenguaje (LLMs) con las preferencias humanas sigue siendo un reto tan grande? 🤔 Tradicionalmente, el aprendizaje por refuerzo con retroalimentación humana (RLHF) ha sido el estándar de oro, pero es un proceso notoriamente complejo, inestable y costoso. En este episodio, analizamos el paper que propone un cambio de paradigma total: “Direct Preference Optimization: Your Language Model is Secretly a Reward Model”. Descubriremos la teoría de que tu propio modelo de lenguaje ya esconde la clave para alinearse, eliminando la necesidad de la maquinaria pesada del aprendizaje por refuerzo tradicional. 🛠️ Hablaremos de DPO, un algoritmo innovador que simplifica radicalmente el entrenamiento al transformar el problema de alineación en una simple pérdida de clasificación. 📉 Olvídate de entrenar modelos de recompensa separados o de lidiar con muestreos constantes durante el ajuste fino; DPO ofrece una solución estable, ligera y de alto rendimiento que iguala o supera a los métodos actuales como PPO. 🚀 Si quieres entender la técnica que está haciendo que el control y el ajuste fino de la IA sean más accesibles y eficientes que nunca, ¡no te pierdas este análisis a fondo! 🎧✨ Fuentes y enlaces de interés: • 📄 Paper Original (arXiv): Direct Preference Optimization

    Mostra di più Mostra meno
    17 min
  • E023_Muñecas rusas o Cómo esconder IAs gigantes en embeddings diminutos
    Jan 22 2026

    ¿Te imaginas entrenar una IA una sola vez y que su “cerebro” pueda adaptarse dinámicamente a cualquier dispositivo, desde un potente servidor hasta un móvil antiguo? 📱💻 En este episodio desgranamos el paper “Matryoshka Representation Learning”, una propuesta fascinante que rompe con la rigidez de los modelos tradicionales. Al igual que las famosas muñecas rusas 🪆, esta técnica permite crear embeddings anidados que codifican la información en diferentes niveles de granularidad, logrando una flexibilidad inédita sin coste adicional durante la inferencia. Descubre cómo es posible conseguir representaciones hasta 14 veces más ligeras manteniendo la misma precisión en clasificación y logrando una aceleración masiva en tareas de recuperación de datos 🚀. Analizamos por qué esta arquitectura “elástica” se integra a la perfección con modelos de visión y lenguaje modernos (como BERT o ViT) y cómo resuelve el dilema de los recursos limitados sin sacrificar la robustez. ¡Dale al play para entender cómo esconder IAs gigantes en espacios diminutos! 🎧✨ Fuentes: • Paper: Matryoshka Representation Learning (arXiv)

    Mostra di più Mostra meno
    19 min
Ancora nessuna recensione