Misurare è un privilegio, non un diritto

13 febbraio 2019

8 febbraio 2019

Blog de Il Fatto

Commento al post di M. Ferri “La matematica si nasconde ovunque. Tanto da sembrare inutile”

Sull’utilità della matematica trovo illuminante la definizione che un fisico, Mark A. Peterson, dà della sua materia: “la fisica è la teoria matematica della Natura”. Storicamente si è visto come la matematica sia eccezionalmente potente e insostituibile nel definire alcune parti della Natura. Non come un ubiquitario “linguaggio del libro della natura”; ma come strumento che unico dà modelli validi e utili di sue parti importanti. Senza pretendere che tutta la realtà possa e debba essere compresa sempre e solo tramite la matematica: evitando sia di trascurare la matematica, sia di esagerarne la portata sino a farne, dato il suo carattere ostico e oltre un certo livello impenetrabile per chi non vi si dedica primariamente, strumento di intimidazione intellettuale (“se e^(i*pi)=-1, Dio esiste”; Eulero a Diderot) o di frode (es. 1).

In medicina ci si riempie la bocca col “misurare”. Ma la misura più che un dovere, un diritto, o un segno di “scientificità” è un privilegio, una fortuna. Poter validamente misurare in un campo scientifico è come trovare un filone d’oro nel proprio terreno. In medicina il business piega la modellizzazione quantitativa a pseudomisure (es. 2). Non scordiamo gli aspetti terreni, la ‘legge di Goodhart’: “when a measure becomes a target, it is no longer a measure“.

1 Seife C. Proofiness. The dark art of mathematical deception. 2010.

2 Heneghan C et al. Why clinical trial outcomes fail to translate into benefits for patients. Trials, 2017. 18: 122.

§  §  §

17 febbraio 2019

Blog de Il Fatto

Commento al post di M. Ferri “Chi ha paura dell’intelligenza artificiale?”

Dipende. Il chip che attiva le 4 frecce in caso di frenata di emergenza, o gli algoritmi di controllo in chirurgia, sono utili. L’avidità potenziata dal computer no. R. Caruna, senior researcher della Microsoft, ha illustrato i pericoli della AI in medicina: un suo modello di AI per ricoverare o meno in terapia intensiva chi ha la polmonite mette a rischio gli affetti da asma, che nel modello vengono esclusi in quanto l’asma risulta essere un fattore protettivo; mentre porta solo a maggiore attenzione clinica. Caruna ha aggiunto che i modelli sono così complessi che nessuno ne comprende appieno il funzionamento; l’errore sull’asma lo ha scoperto per caso. La AI può generare “unknown unknowns”. J. Hennessy, già rettore di Stanford, Turing Award 2017, ha commentato: “”Remember one thing, supervised learning is the ultimate example of garbage in garbage out….” (1).

Queste ammissioni provengono da ricercatori coinvolti che come il prof. Ferri “si leccano i baffi”; se li leccano in fase con soggetti meno ‘scholarly’ (2). La AI non è affatto per se a prova di errore. E può generarne di subdoli. In medicina errori iatrogeni incrementando i profitti fanno brodo, dal punto di vista degli investitori; che dettano legge. La medicina “black box” fa paura a chi sa cosa può contenere.

1 Tuma RS. Caution Needed With Artificial Intelligence in Medicine, Experts Warn. Medscape, 29 mag 2018.

2 Ford O. Investors See Big Opportunity in AI. MDDI, 19 lug 2018.

@ Massimo Ferri. Fonti ortodosse sono meno fiduciose (1). La riduzione del complesso al visualizzabile è affascinante. Es. pensai “è uno strumento formidabile” comparando in una fredda sala settoria, tra gli umori e odori della decomposizione, la differenza tra la ricerca anatomica della patologia sul cadavere e le immagini nette e chiare di CT scan e MRI sul diafanoscopio. Le immagini pulite e “asettiche” emesse dai PC sono però anche una delle maggiori fonti di sovradiagnosi. Un esempio tra i mille: (2). E la AI può “ripulirle” troppo in questo senso, automatizzando interpretazioni viziate o creando anatomie virtuali, cioè false, favorevoli al profitto a danno del paziente. Aggravando frodi. Anche chi coltivi discipline difficili come la tua, quando emette giudizi etici, e politici, sui prodotti commerciali che si basano sulle sue competenze deve conoscere, verificare e includere nel giudizio gli aspetti rilevanti, sia tecnici che umani, che esulano dal suo campo. Si propone di usare la AI per contrastare le deviazioni commerciali della medicina (3). Ma il ricercatore che intraprendesse – sul serio – questo meritorio filone, invece che i finanziamenti e la visibilità dello “hyperhyped AI healthcare” (cit.) più probabilmente otterrebbe l’equivalente di una scarica di legnate.

1 Mandl KD et al. Potential Excessive Testing at Scale… JAMA, 8 feb 2019.

2 Soylemez R et al. When a test is too good… BMJ, 2 Lug 2013.

3 Oren O et al. Curbing Unnecessary…. JAMA, 7 gen 2019.

@ Bicchiere_1. Tu dici che dovrei mettermi in testa che “un programma può fare tutto quello che può fare un uomo”; credo più al citato rettore di Stanford col Turing Award, che a proposito degli errori gravi propri delle diagnosi AI ha detto che “These programs can extract information from examples, but they don’t have insights”; lo ‘insight’, ‘acume’, ‘discernimento’, ‘intuizione’, resta una indispensabile dote umana. Quello che un programma scritto da uomini può fare come un uomo, non è difficile comprendere, se non si ha la proverbiale ristrettezza mentale che viene attribuita ad alcuni cultori delle discipline esatte, è fare danno, sbagliando in buona fede o ingannando volontariamente, come farebbe direttamente un umano. Es. adottando gli stessi parametri che portano alla sovradiagnosi dell’embolia polmonare alla TAC; causando così emorragie da anticoagulanti e danno economico (Soylemez, cit.). Uno stadio successivo è il comprendere come possano esserci in aggiunta effetti negativi più sottili, favoriti specificamente dalla programmazione informatica: es. di come basti una semplice variazione della soglia di apprendimento AI per ottenere una curva ROC – quella ideata a suo tempo dagli ingegneri elettronici per il radar – che procuri indebitamente all’industria un aumento sostanziale di clienti per il trattamento della retinopatia diabetica (Mandl, cit.).

@ Bicchiere_1. Ho troppa considerazione per la matematica, e stima per i bravi matematici, per accettare la “matematica sulla parola” come la tua.

@ Bicchiere_1. Hai ragione, pensare che condividere le riserve di tanti esperti del massimo livello su programmi informatici che diagnostichino correttamente le malattie sia come mettere in dubbio il teorema di Pitagora non è matematica; è un’altra cosa, e sarei tentato di dirti cos’è, dati i danni che sta facendo questo confondere crassamente tra conoscenza scientifica e tecnologia commerciale; ma è meglio non rubare altro tempo ai tuoi ardui studi. 2

@ Bicchiere_1. Le critiche che riporto sono corredate da esempi, o controesempi, che è scorretto chiamare “generalizzazioni da caso singolo”. Semmai sono dicto simpliciter gli argomenti della carica dei piazzisti. Ricordo che le diagnosi istologiche con neural networks le vedevo studiate 30 anni fa in USA, e non mi pare ci siano stati progressi risolutivi. “Da buttare” è la prosopopea da venditore di tegami. Per ora quella delle diagnosi tramite AI non è una tecnologia affidabile, è pericolosa per il paziente e può favorire scorciatoie commerciali cioè frodi. Questo è lo stato dell’arte attuale. Il fatto che la AI sia una puntata degli investitori, e che sia pompata dal marketing, es. la tua deep supercazzola che “è matematico che funzionino meglio degli umani”, o un altro attrezzo classico del marketing in medicina, la propaganda per entimeme, dove si grida a temibili conseguenze etiche (“programma di AI bloccato perché può costruire fake news impeccabili”, tramesso dai media, incluso Il Fatto, e ieri sera dal TG1) in modo da fare interiorizzare senza discussione la premessa in realtà non dimostrata di una tremenda efficacia e potenza, sono ulteriori motivi di scetticismo sul piano scientifico; e di preoccupazione su quello pratico, dato il possibile uso fraudolento, spicciolo, questo sì a portata di mano.

@ Bicchiere_1. Per il problema delle diagnosi al microscopio fatte da un computer un passo risolutivo sarebbe riuscire a ottenere diagnosi microscopiche impiegabili nella clinica. Passo che non è stato ottenuto, dopo decenni. Il programma di produzione automatica delle fake micidiali è stato presentato al pubblico come censurato in quanto pericoloso. I problemi che riporto sono giudicati non solo di difficile soluzione, ma di una natura che rende difficile individuarli (“unknown unknowns”): la AI può introdurre variabili nascoste dagli effetti non prevedibili su come i pazienti sono definiti e trattati. Scusa ma mi sembra di parlare con uno che voglia vendere a forza un prodotto scadente facendo leva sullo sfinimento. Facciamo conto che tu abbia la bancarella dell’AI diagnostico, che con il tuo inesauribile scilinguagnolo mi abbia convinto ad acquistare la confezione Maxi 2×3, e che possiamo quindi cordialmente salutarci.

%d blogger hanno fatto clic su Mi Piace per questo: