📟 Le monde en PLS à cause du Code 🪲?
Impossibile aggiungere al carrello
Rimozione dalla Lista desideri non riuscita.
Non è stato possibile aggiungere il titolo alla Libreria
Non è stato possibile seguire il Podcast
Esecuzione del comando Non seguire più non riuscita
-
Letto da:
-
Di:
A proposito di questo titolo
📟 Bienvenue dans ce deuxième épisode de La French. Cette semaine on explore une réalité vertigineuse : le logiciel n'est plus seulement une ligne de texte, c'est une infrastructure physique. Et quand elle flanche, les conséquences sont bien réelles.
🧠 Le fil rouge : Le logiciel dévore le monde (et le paralyse)
Aviation, Cloud mondial, hôpitaux ou voitures autonomes… Programmer aujourd’hui, c’est exercer un réel pouvoir. Mais sommes-nous prêts à assumer les externalités de ce pouvoir ?
✈️ Éruptions solaires et Software : L’épisode s’ouvre sur les derniers incidents avec Airbus A320Neo, …et controverses liés aux systèmes logiciels dans les avions (Boeing 737MAX), avec un focus sur les derniers bugs des géants de l’aviation. Entre dépendance au logiciel, chaînes de responsabilité floues et pression industrielle, le code devient un facteur critique de sécurité!
☁️ L'Effet Domino : AWS, Cloudflare, qui sera le prochain? Nous enchaînons avec les grands “fails” du cloud : pannes majeures chez AWS et Cloudflare, effets domino à l’échelle mondiale, et question centrale : peut-on encore parler de résilience quand tout repose sur quelques infrastructures ?
🏥 Code Rouge à l'Hôpital : Oh non, pas les Hôpitaux! - les attaques ransomware.
Quand des lignes de code paralysent des services vitaux, ce ne sont plus seulement des données qui sont en jeu, mais des vies humaines. Qui est responsable ? Qui paie le prix réel de ces attaques?
🚗 Waymo, Tesla…et la moralité des IA : Enfin, l’épisode se projette dans le futur proche avec les bugs et incidents impliquant les véhicules autonomes de Waymo et Tesla. Jusqu’où peut-on déléguer des décisions critiques à des machines ?
🎁 LE BONUS : Le crash test moral - nous réalisons un test en direct de l’expérience “Moral Machine” du MIT, afin de confronter nos intuitions humaines aux dilemmes moraux des algorithmes! On met en lumière une impasse fondamentale : il n’existe pas de morale universelle. Encoder une décision morale revient à figer des choix politiques, culturels et sociaux dans le code.
Une IA ne décide jamais “objectivement” : elle applique la vision du monde de ses concepteurs.
🔗 Tester Moral Machine
Personne n'a souffert lors de cette expérience de pensée (sauf JB et Steeve) !
Un épisode drôle (en tout cas on a bien ri) , sans langue de bois, où le code n’est plus un outil neutre, mais un acteur du monde physique et industriel !
💬 On veut votre avis : dites-nous en commentaire ce que vous en pensez 👇
👍 Pensez à liker, partager et vous abonner pour la suite de la saison.
🔔 Activez la cloche pour ne rater aucun épisode.
Crédits
Produit par : Fatima Idhammou
Production exécutive : BKE
Réalisateur : Nicolas Jalu
Cadreurs : Florian Kuenemann, Fairooze Shariff
Ingénieur du son : Quentin Gomez
Chef monteur : Victor Bourdon
Générique (images assistées par IA)
Production : Aurevoircharlie
Produit par : Anne-Lise Langlais
Réalisateur / DA image : Olivier Lelardoux
Musique originale : Keryan Serrain
Conseillers éditoriaux : Ronan Letoqueux, NES Production
Réseaux sociaux : Samir Akacha
Remerciements : l’équipe de Néon Noir, Camille Hamez, Natacha Holtzhausser, , Elie Séonnet, Abdel-Hafid Cherrab, Paguy Shako
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.