Adiós al Fine-Tuning: Llega la IA de Aprendizaje Continuo (HOPE) copertina

Adiós al Fine-Tuning: Llega la IA de Aprendizaje Continuo (HOPE)

Adiós al Fine-Tuning: Llega la IA de Aprendizaje Continuo (HOPE)

Ascolta gratuitamente

Vedi i dettagli del titolo

3 mesi a soli 0,99 €/mese

Dopo 3 mesi, 9,99 €/mese. Si applicano termini e condizioni.

A proposito di questo titolo

Google contraataca con un nuevo paradigma que promete jubilar a los Transformers estáticos. Descubre la arquitectura HOPE, el "Aprendizaje Anidado" y cómo la IA por fin tendrá memoria real. 👇

Los modelos actuales como GPT sufren de "amnesia": son estáticos y olvidan el inicio de conversaciones largas. En este episodio, Jorge Sauri y Fernando Santa Cruz analizan el nuevo paper de Google sobre la arquitectura HOPE (Hierarchy Optimization Self-referential). Exploramos cómo este sistema imita la neuroplasticidad del cerebro humano, permitiendo que la IA aprenda continuamente sin necesidad de reentrenamientos millonarios. Analizamos el impacto de esta tecnología en la robótica, los agentes autónomos y el camino hacia la AGI en 2026.

**En este episodio de TecnoSapiens Podcast, descubrirás:** * **El fin del "Olvido Catastrófico":** Cómo HOPE eleva la retención de memoria del 70% al 98% mediante optimizadores jerárquicos. * **Plasticidad Digital:** Por qué los modelos futuros cambiarán su propia estructura interna en tiempo real para adaptarse a nuevos datos. * **Impacto en Robótica:** La fusión de World Models (como Genie/Veo) con HOPE para crear robots que aprenden sobre la marcha. * **El dilema del control:** ¿Es seguro tener una "Caja Negra" que evoluciona y se reescribe a sí misma sin supervisión humana?

**PREGUNTA DEL DÍA:** Si la IA comienza a "aprender a pensar" y reescribir su propio código en tiempo real, ¿crees que será posible auditarla o perderemos el control total sobre cómo toma decisiones? Te leemos en los comentarios. 👇

**Recursos Mencionados:** * **Paper de Google (HOPE):** Investigación sobre Hierarchy Optimization y Nested Learning https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning/ * **Transformers:** La arquitectura vigente (Attention is all you need) que HOPE busca evolucionar. * **World Models:** Referencia a modelos de Google como Genie y Veo.

**Conecta con TecnoSapiens Podcast:** * **Web:** tecnosapienspodcast.com * **Spotify/Apple Podcasts:** [Insertar Links] * **Redes Sociales:** @tecnosapienspodcast (TikTok/Instagram/YouTube/LinkedIn) | @tecnosapiensIA (X/Twitter)

Capítulos (Timestamps)

00:00 - El Retorno del Rey: Google y la Arquitectura HOPE 01:21 - El Problema de los Transformers: Amnesia y Modelos Estáticos 02:56 - ¿Qué es el "Nested Learning"? Imitando el Cerebro Humano 04:22 - Solucionando el "Olvido Catastrófico" (De 70% a 98% de Memoria) 05:37 - Optimizadores Jerárquicos: Cómo la IA se auto-corrige 07:44 - ¿Es el fin de la era Transformer? 09:50 - El Riesgo de la Neuroplasticidad en IA: ¿Perdemos el Control? 11:58 - HOPE en la Robótica y el Mundo Empresarial 14:48 - Hacia la AGI: Agentes que aprenden a "Existir"

#InteligenciaArtificial #GoogleDeepMind #TecnoSapiensPodcast

Ancora nessuna recensione