• S2_Ep8: Cervelli in fuga
    May 4 2024
    SINOSSI

    Cosa succede se pensiamo di acquistare oggetti all’apparenza innocui e invece diamo il permesso alle aziende di leggere negli spazi più reconditi della nostra identità?

    Succede da tempo e non ce ne siamo accorti. In questo nuovo episodio esploro il mercato dei device per il potenziamento cognitivo, venduti anche in Italia, e affronto la questione dei neurodiritti, sfida cui le agende politiche internazionali hanno già messo mano per provare a regolare i potenziali abusi.

    FONTI

    La crescita degli investimenti nel settore neurotech secondo Neurotech Analytics INVESTMENT DIGEST 2021 Q4 | Neurotech

    Il caso EnterTech e la fascia FlowTime nell’articolo di The Guardian https://www.theguardian.com/commentisfree/2023/mar/25/tiktok-china-cognitive-warfare-us-ban

    Il sito di FlowTime https://www.meetflowtime.com/

    Il brevetto di Apple Patently Apple

    I prodotti Cognifit per il potenziamento cognitivo dei lavoratori https://www.cognifit.com/it/employee-wellbeing

    La risoluzione ONU sui neurodiritti https://documents.un.org/doc/undoc/gen/g22/525/01/pdf/g2252501.pdf?token=DLSmBCayewVSpIJt88&fe=true
    Mostra di più Mostra meno
    11 min
  • S2_Ep7: Il turco meccanico
    Apr 16 2024
    Quattro fatti scollegati tra loro eppure uniti da un filo rosso: le proposte commerciali delle aziende che vendono soluzioni avanzate di IA tendono sempre più a cancellare la dimensione umana del lavoro, che resta una componente fondamentale del processo produttivo a livello informatico. Vale anche per la robotizzazione, nel cui mercato si stanno facendo avanti slogan in cui si lascia dedurre che esistano attività non ‘degne’ di essere svolte dagli esseri umani.

    FONTI
    L’inchiesta di The Information su Amazon Go
    https://www.theinformation.com/articles/amazons-grocery-stores-to-drop-just-walk-out-checkout-tech

    Le dichiarazioni di Roberto Selva, Responsabile Marketing di Esselunga https://milano.repubblica.it/cronaca/2024/03/20/news/esselunga_lab_mind_spesa_del_futuro_robot_insalate-422342827/

    L’offerta commerciale di Hoptix https://www.hoptix.ai/

    Il sito di Turkopticon https://blog.turkopticon.net/?p=3048
    Mostra di più Mostra meno
    9 min
  • S2_Ep6: AI ACT, La prova del futuro
    Mar 27 2024
    L’AI Act, il regolamento europeo sull’intelligenza artificiale, ambisce a diventare una pietra miliare nella tutela della società civile, per difenderla dai potenziali danni perpetrabili attraverso un uso distorto degli algoritmi.

    Le aspettative sono però messe a dura prova dalla complessità dell’impianto regolatorio, che rischia di annacquarsi nelle decine di atti secondari necessari per la sua attuazione e che lascia le porte aperte ad applicazioni potenzialmente rischiose.

    FONTI
    Le Monde su AI Act https://www.lemonde.fr/en/european-union/article/2024/03/13/european-parliament-adopts-historic-ai-act_6615022_156.html

    Der Spiegel su AI Act https://www.spiegel.de/netzwelt/netzpolitik/eu-parlament-stimmt-fuer-umfassendes-ki-gesetz-a-1b91bf5e-4adf-4532-bafc-2fed2d068b20

    CNBC su AI Act https://www.cnbc.com/2024/03/13/european-lawmakers-endorse-worlds-first-major-act-to-regulate-ai.html

    I chatbot rimossi per consigli dannosi https://www.psychiatrist.com/news/neda-suspends-ai-chatbot-for-giving-harmful-eating-disorder-advice/

    Uno studio che smentisce i presupposti scientifici del progetto europeo IBorderCtrl Full article: The politics of deceptive borders: ‘biomarkers of deceit’ and the case of iBorderCtrl (tandfonline.com)

    Il documento di denuncia di Access Now https://www.accessnow.org/press-release/joint-statement-ai-act-fails-migrants-and-people-on-the-move/?s=03
    Mostra di più Mostra meno
    12 min
  • S2_Ep5: La migliore offerta
    Feb 29 2024
    Barzellette spinte, risposte offensive, ma anche offerte commerciali inventate e persino truffe a danno dei clienti. I chatbot non possono essere – ancora –considerati strumenti di interazione sicuri al 100%: affidarvisi con troppa approssimazione può essere rischioso a più livelli.

    Il caso di Air Canada, raccontato in questo episodio, offre uno spunto per una carrellata sui passi falsi da evitare quando si decide di adottare un sistema di intelligenza artificiale generativa per automatizzare le relazioni esterne dell’azienda.

    FONTI
    La sentenza su Air Canada emessa il 14 febbraio 2024 https://www.canlii.org/en/bc/bccrt/doc/2024/2024bccrt149/2024bccrt149.html

    La vicenda raccontata dai media internazionali https://www.cbc.ca/news/canada/british-columbia/air-canada-chatbot-lawsuit-1.7116416

    Lo studio sugli effetti antropomorfici dei chatbot Blame the Bot: Anthropomorphism and Anger in Customer–Chatbot Interactions - Cammy Crolic, Felipe Thomaz, Rhonda Hadi, Andrew T. Stephen, 2022 (sagepub.com)

    La pagina informativa di Google per i servizi di Gemini https://support.google.com/gemini/answer/13594961?hl=en#collected_data&zippy=%2Cwhat-data-is-collected-how-is-it-used%2Cwhy-is-human-review-of-my-gemini-apps-conversations-feedback-and-related-data-required%2Cdo-you-use-my-gemini-apps-conversations-to-show-me-ads%2Cwho-has-access-to-my-gemini-apps-conversations

    L’indagine Gartner sull’adesione dei clienti ai servizi chatbot https://www.gartner.com/en/newsroom/press-releases/2023-06-15-gartner-survey-reveals-only-8-percent-of-customers-used-a-chatbot-during-their-most-recent-customer-service-interaction#:~:text=June%2015%2C%202023%20%E2%80%94%20Only%208,chatbot%20again%20in%20the%20future.
    Mostra di più Mostra meno
    11 min
  • S2_Ep4: Only Fake
    Feb 15 2024
    SINOSSI
    Nelle ultime settimane è esplosa l’attenzione sui danni sociali, personali e finanziari dei deep fake, con il caso Taylor Swift e la truffa di Hong Kong. Mentre i rischi dei deep fake restano totalmente a carico dei cittadini, degli utenti e della società, la responsabilità ultima resta in capo alle aziende, che per ragioni economiche hanno immesso sul mercato soluzioni sprovviste di un paracadute tecnologico, pur essendo consapevoli degli effetti nefasti che avrebbero comportato.
    Oggi provano a correre ai ripari, insieme ai legislatori.

    FONTI
    L’indagine su Only Fake https://www.404media.co/inside-the-underground-site-where-ai-neural-networks-churns-out-fake-ids-onlyfake/

    La proposta di regolamentazione contro i deep fake avanzata dalla Commissione Europea https://ec.europa.eu/commission/presscorner/detail/en/ip_24_631?utm_source=www.thedeepview.co&utm_medium=newsletter&utm_campaign=deepfake-phone-calls

    Il Defiance Act proposto al Senato U.S.A. https://www.judiciary.senate.gov/press/releases/durbin-graham-klobuchar-hawley-introduce-defiance-act-to-hold-accountable-those-responsible-for-the-proliferation-of-nonconsensual-sexually-explicit-deepfake-images-and-videos

    Le dichiarazioni di Margaret Mitchell https://www.popsugar.co.uk/tech/ai-deepfakes-taylor-swift-sexual-harassment-49334338?utm_medium=redirect&utm_campaign=US%3AIT&utm_source=t.co&s=03 L’articolo del Washington Post https://www.washingtonpost.com/politics/2024/02/07/metas-new-ai-labels-wont-solve-taylor-swift-problem/
    Mostra di più Mostra meno
    11 min
  • S2_Ep3: Le olimpiadi della sorveglianza
    Feb 2 2024
    Le Olimpiadi della sorveglianza stanno per iniziare, e non solo a Parigi.

    Mentre la Francia vara una legge speciale per avviare la più grande sperimentazione europea di polizia predittiva, le associazioni per i diritti civili e alcuni eurodeputati lanciano un allarme.

    La nuova versione dell’AI Act allargherebbe a dismisura le eccezioni per l’uso di tecnologie intelligenti ai fini di sicurezza pubblica.

    Nel frattempo, lo stesso sistema francese potrebbe essere in potenziale contraddizione con i principi cui si dovrebbe ispirare il regolamento europeo sull’intelligenza artificiale.

    FONTI
    La legge speciale approvata in Francia https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000047561974
    La dichiarazione di Amnesty International https://www.amnesty.org/en/latest/news/2023/03/france-intrusive-olympics-surveillance-technologies-could-usher-in-a-dystopian-future/

    La lettera aperta di 38 associazioni per i diritti civili https://www.lemonde.fr/idees/article/2023/03/06/les-mesures-de-videosurveillance-algorithmique-introduites-par-la-loi-jo-2024-sont-contraires-au-droit-international_6164276_3232.html#xtor=AL-32280270-%255Bdefault%255D-%255Bios%255D

    La re-identificazione dei pedoni attraverso l’andatura https://ieeexplore.ieee.org/document/10266347 Il caso Rite Aid https://www.reuters.com/investigates/special-report/usa-riteaid-software/

    L’allarme per AI Act rilanciato da Politico https://www.politico.eu/article/eu-ai-facial-recognition-tech-act-late-tweaks-attack-civil-rights-key-lawmaker-hahn-warns/?s=03
    Mostra di più Mostra meno
    13 min
  • S2_Ep2: Basta un poco di zucchero
    Jan 18 2024
    Questa puntata parte dalla storia di lavoratori costretti a fidarsi della tecnologia, di imprenditori che l’hanno piegata a interessi deprecabili, e di persone che ne sono rimaste vittime.

    E arriva a sfiorare i fronti aperti degli abusi algoritmici in campo sanitario, in relazione ai quali avrà effetto il nuovo regolamento europeo sull’intelligenza artificiale, AI Act.

    FONTI

    La documentazione relativa alla causa intentata contro UnitedHealth https://cdn.arstechnica.net/wp-content/uploads/2023/11/class-action-v-unitedhealth-and-navihealth-1.pdf

    Le testimonianze dei dipendenti di UnitedHealth https://www.statnews.com/2023/11/14/unitedhealth-algorithm-medicare-advantage-investigation/

    La proposta di etichettatura digitale per le app a uso medico https://www.wsj.com/tech/ai/medical-ai-tools-can-make-dangerous-mistakes-can-the-government-help-prevent-them-b7cd8b35

    Il mercato mondiale delle app per il benessere https://www.fortunebusinessinsights.com/mhealth-apps-market-102020
    Mostra di più Mostra meno
    9 min
  • S2_Ep1: Il furto del Secolo
    Jan 4 2024
    La causa intentata da The New York Times contro Microsoft e OpenAI potrebbe cambiare lo scenario dell’industria dell’intelligenza artificiale e innovare il panorama regolatorio dei diritti d’autore e del fair use, il principio legale che permette, in casi eccezionali, l’uso di contenuti protetti da copyright.

    Nel frattempo, usare con leggerezza i sistemi di IA generativa, in ambito individuale e aziendale, resta ancora un’attività ancora non esente da rischi, in primo luogo a livello legale.

    FONTI
    L’articolo scientifico dedicato alle nuove sfide del fair use e ripreso da Stanford HAI è disponibile qui https://arxiv.org/abs/2303.15715. È firmato da Dan Jurafsky, Tatsunori Hashimoto, Mark A. Lemley, Percy Liang, Xuechen Li e Peter Henderson.

    I risultati della Tavola rotonda con i professionisti del settore creativo sono illustrati in una nota della FTC https://www.ftc.gov/news-events/news/press-releases/2023/12/ftc-staff-report-details-key-takeaways-ai-creative-fields-panel-discussion?utm_campaign=there_are_many_perspectiv&utm_content=1702934644&utm_medium=social&utm_source=twitter&s=03

    L’inchiesta di The Washington post sul blocco C4 https://www.washingtonpost.com/technology/interactive/2023/ai-chatbot-learning/

    Le condizioni d’uso di OpenAI https://openai.com/policies/terms-of-use

    L’articolo scientifico di DAIR https://dl.acm.org/doi/10.1145/3600211.3604681
    Mostra di più Mostra meno
    13 min