Rocci (Roccen-Zet) Podcast copertina

Rocci (Roccen-Zet) Podcast

Rocci (Roccen-Zet) Podcast

Di: Marco Rocci
Ascolta gratuitamente

A proposito di questo titolo

Parliamo di tecnologia e tango2026 All rights reserved.
  • Osservabilità per AI: come misurare e intercettare derive, allucinazioni e degrado rapido
    Feb 24 2026
    In questo episodio di 10 minuti Marco spiega come passare dall'impressione che il sistema AI 'sta diventando strano' a un set pratico di metriche, log e controlli che permettono di intercettare derive, allucinazioni e degrado funzionale prima che diventino incidenti visibili agli utenti. L'episodio apre con una breve vignetta: un assistente che lentamente cambia tono e fornisce risposte incoerenti. Poi definisce cinque segnali osservabili (confidence drift, tasso di fallback, anomalie nella distribuzione degli input, aumento degli errori di parsing, variazione di latenza) e quali log raccogliere senza appesantire l'infrastruttura. Marco propone una dashboard minimale con tre KPI essenziali, due check automatici da inserire in CI/CD e tre azioni prioritarie quando scatta un alert. Chiude offrendo una checklist scaricabile per iniziare oggi e frasi pronte da usare in stand-up con il team.
    Mostra di più Mostra meno
    6 min
  • Micro‑audit di bias: 5 test lampo (+ ’bias alarm’ live) per scoprire e fissare ingiustizie nell'AI
    Feb 25 2026
    In 10 minuti Marco guida product manager, sviluppatori e ingegneri ML attraverso un micro‑audit pratico e non ideologico per individuare segnali di bias e difetti di fairness. Si apre con una micro‑vignetta anonima che mostra un danno reale al cliente e il costo business che ne deriva; segue un rapido before/after di una correzione lampo per mostrare impatto concreto. Durante l'episodio l'ascoltatore esegue un 'bias alarm' di 60 secondi sul proprio prodotto (test live semplice). Vengono presentati cinque test concreti: campionamento stratificato, parità di outcome, contrafattuale (cambiare una sola variabile per vedere l'effetto), stress test di input e controllo delle distribuzioni di feature, con definizioni rapide di termini come 'reweighting' (ribilanciamento dei dati). CTA chiara: scarica la checklist in PDF + JSON e il template pronto per Jira/GitHub dalle note dell'episodio e incollalo nello sprint retro.
    Mostra di più Mostra meno
    6 min
  • Feature flag e kill‑switch per AI: rollout sicuro e fallback pronti
    Feb 26 2026
    In 10 minuti Marco mostra come mettere dei freni concreti ai modelli AI in produzione: dall'idea al pulsante che salva il servizio. L'episodio apre con una micro‑vignetta su un lancio che produce risposte inappropriate e usa quel caso per spiegare perché servono flag granulare, monitoraggio di guardia e piani di fallback semplici. Marco guida l'ascoltatore attraverso una checklist di rollout (canary, graduale, metriche di stop), descrive tre strategie di fallback pronte all'uso (versioning, proxy rule‑based, risposta staticamente sicura), e propone regole chiare di ownership ed escalation per attivare un kill‑switch. Vengono discussi trade‑off pratici — latenza vs sicurezza, complessità operativa, automazione vs intervento umano — e consegnate frasi pronte per lo stand‑up e per comunicare la decisione al team. CTA: scarica la checklist one‑page e il template di feature flag nelle note e applicalo al prossimo deploy.
    Mostra di più Mostra meno
    7 min
Ancora nessuna recensione