#18 Nathan Labenz on reinforcement learning, reasoning models, emergent misalignment & more
Impossibile aggiungere al carrello
Puoi avere soltanto 50 titoli nel carrello per il checkout.
Riprova più tardi
Riprova più tardi
Rimozione dalla Lista desideri non riuscita.
Riprova più tardi
Non è stato possibile aggiungere il titolo alla Libreria
Per favore riprova
Non è stato possibile seguire il Podcast
Per favore riprova
Esecuzione del comando Non seguire più non riuscita
-
Letto da:
-
Di:
A proposito di questo titolo
A lot has happened in AI since the last time I spoke to Nathan Labenz of The Cognitive Revolution, so I invited him back on for a whistlestop tour of the most important developments we've seen over the last year!
We covered reasoning models, DeepSeek, the many spooky alignment failures we've observed in the last few months & much more!
Follow Nathan on Twitter
Listen to The Cognitive Revolution
My Twitter & Substack
Ancora nessuna recensione