S2.Ep3 - LLM, pensare o prevedere?
Impossibile aggiungere al carrello
Puoi avere soltanto 50 titoli nel carrello per il checkout.
Riprova più tardi
Riprova più tardi
Rimozione dalla Lista desideri non riuscita.
Riprova più tardi
Non è stato possibile aggiungere il titolo alla Libreria
Per favore riprova
Non è stato possibile seguire il Podcast
Per favore riprova
Esecuzione del comando Non seguire più non riuscita
-
Letto da:
-
Di:
A proposito di questo titolo
Scopriamo come i Large Language Model (LLM) prevedono le parole successive in una frase basandosi su vasti dataset, utilizzando "embeddings" per mappare le relazioni tra le parole in uno spazio multidimensionale. Parliamo poi dell'architettura Retrieval-Augmented Generation (RAG) e altre tecniche per aggiornare i LLM con informazioni recenti. Ma anche GPT-4, Claude 3 e Gemini 1.5... Ascolta ora la puntata con Lorenzo Beliusse, Stefano Zaffaroni e Marco Acchini.
Ancora nessuna recensione