Épisode 126- Le « débiaisage » des données et les errances algorithmiques
Impossibile aggiungere al carrello
Puoi avere soltanto 50 titoli nel carrello per il checkout.
Riprova più tardi
Riprova più tardi
Rimozione dalla Lista desideri non riuscita.
Riprova più tardi
Non è stato possibile aggiungere il titolo alla Libreria
Per favore riprova
Non è stato possibile seguire il Podcast
Per favore riprova
Esecuzione del comando Non seguire più non riuscita
-
Letto da:
-
Di:
A proposito di questo titolo
Consultez-vous ChatGPT pour vos problèmes de santé? Peut-on «débiaiser» des données? Un énoncé de principes éthiques vous suffit-il pour prendre des décisions délicates concernant le développement ou l'utilisation de l'IA? Voilà autant de questions difficiles que nous abordons cette semaine.
Au programme:
- ChatGPT-Health : Une consultation LLM par jour éloigne le médecin pour toujours (?)
- Biais humains, « débiaisages » des données et errances algorithmiques
- Inefficacités et limitations pratiques de l’application des principes et idéaux qui guident le développement et l’utilisation de l’IA.
- INESSS - Modalité d’évaluation des technologies numériques en santé et en services sociaux
- Combat des LLM - Dernier examen pour l’humanité (la suite)
- Robots conversationnels - Confidences et soutien moral. AI Chatbots for Mental Health Support
- Énoncé de principes pour une utilisation responsable de l'intelligence artificielle par les organismes publics.
- Technosolutionnisme et autres rêves d’ingénierie
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D
BaristIAs: Véronique Tremblay, Frédérick Plamondon, Benjamin Leblanc.
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Mineo, Frédérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Benjamin Leblanc, Marie-Ève Vachon Savary.
En musique :
- Musique: PP2, Aubert Sénéchal (2025) (c)
Support the show
Ancora nessuna recensione