Marsicano si laurea a 45 anni discutendo una tesi sull’utilizzo dell’intelligenza artificiale per arginare la pandemia da Covid-19



Condividi su facebook
Condividi su whatsapp
Condividi su telegram
Condividi su linkedin
Condividi su email
Condividi su print

Lecce nei Marsi – L’età e solo un numero. Lo dimostra Concezio Cornacchia, il quarantacinquenne di Lecce nei Marsi che, il 24 luglio, si è laureato con un il voto di 97/110 in gestione delle imprese. Dopo un percorso universitario triennale, Cornacchia ha discusso la tesi su argomenti importanti come la pandemia globale da covid-19 che lo ha costretto a proseguire gli studi con lezioni in videoconferenze ed esami on-line. Proprio da questa fase difficile nasce l’idea di svolgere il suo elaborato sul “Big data e statistiche sperimentali: nuove frontiere di sviluppo per la statistica” riguardante anche la pandemia da covid-19.

Big Data è oggi un “meme”, una parola sulla bocca di tutti, un imperativo categorico per le imprese. Come siamo arrivati a questo punto? Sono ormai 25 anni che si parla di estrarre senso dai dati, scoprire conoscenze nascoste nelle grandi masse di dati generati da processi e transazioni mediati dalle tecnologie digitali.
La pandemia globale da Covid-19 può essere arginata mediante l’utilizzo di innovative tecnologie basate sull’intelligenza artificiale. Sistemi di diagnosi basati sull’AI, robot impiegati per attività di disinfezione o consegna di cibo e medicine, algoritmi per rilevare nuovi focolai, sono solo alcuni degli strumenti utilizzati dalla Cina per contenere il Coronavirus.
Uno dei problemi più grandi per la diagnosi del virus è che attualmente vengono verificati solo le persone sintomatiche o coloro che sono stati a stretto contatto con un contagiato. Secondo recenti analisi, sarebbe invece di grande aiuto verificare la positività su tutta la popolazione. Gli asintomatici infatti sono la maggiore causa di diffusione (inconsapevole) del virus.
Proprio per limitare questo problema, si è pensato di rilevare la positività al contagio attraverso esami di routine o specialistici a cui ogni giorno si sottopongono normalmente migliaia di pazienti, come TAC, ecografie o semplici esami del sangue.
Purtroppo, il personale sanitario e soprattutto gli infermieri sono soggetti ad un altissimo tasso di contagio, nonostante le protezioni e le precauzioni che adottano. Un’ottima soluzione si rivelano i robot, già impiegati in Cina. Questi innovativi strumenti possono essere impiegati per eseguire o completare molte attività come la pulizia, la sterilizzazione o la consegna di cibo e medicine per ridurre le interazioni tra il personale sanitario e le persone infette
In breve, l’epidemiologia digitale, nota la rivista Science, è già di uso comune da un quarto di secolo; ma l’emergenza da Covid-19 ha portato il suo sviluppo alle estreme conseguenze. Si possono porre molte obiezioni etiche sull’utilizzo dei Big Data – la grande mole di informazioni che riguarda tutti noi – spesso utilizzate a scopo di lucro e ai nostri danni, come nel caso Cambridge Analytica che ha fatto tremare Facebook; ma in una pandemia come quella attuale, nota il professor David J. Hand, dell’Imperial College di Londra, «a volte risulta immorale non usare i dati disponibili».
La questione, sostiene Michelle M. Mello sulle pagine della prestigiosa rivista scientifica, non è dunque se usare i dati resi disponibili da cellulari, computer personali e telecamere di sorveglianza, ma come si riuscirà a farlo.
Già a cavallo fra gli anni 80 e 90, quando nacque l’idea di data mining, avevamo consapevolezza che nei dati che si accumulavano nei sistemi aziendali ci fossero giacimenti non sfruttati di conoscenze. Come il famoso pattern “birra e pannolini”, che emergeva dagli scontrini degli acquisti del fine settimana, a mettere in luce il segmento delle coppie di giovani neo-genitori che invitano gli amici a casa. Da allora il panorama digitale è cambiato molto, ma l’idea di fondo di quella che oggi chiamiamo Big Data Analytics è la stessa: usare in modo creativo sorgenti multiformi di dati per generare conoscenze utili e inaspettate. Per lasciare che le storie emergano dalle tracce digitali dei comportamenti umani. Sono le tracce ad essersi moltiplicate in varietà, pervasività e quantità. Inevitabilmente, le sfide per le imprese si sono dilatate ben oltre lo sfruttamento più intenso dei soli dati interni.
La statistica ufficiale ha già da alcuni anni puntato al rinnovamento delle proprie fonti dati, considerando in particolare l’opportunità di utilizzare anche i Big Data come possibili fonti in combinazione, alternativa o ausilio ai dati tradizionali.

Le statistiche ufficiali rivestono da sempre un ruolo fondamentale nella società e il loro apporto alla conoscenza del complesso contesto del mondo attuale risulta sempre più centrale. Le organizzazioni statistiche mirano a fornire informazioni su tutti gli aspetti importanti della società agendo secondo standard scientifici sempre più elevati e condivisi a livello internazionale. Come indicato nell’art. 338 del Trattato sul funzionamento dell’Unione europea (Carta dei diritti fondamentali) la statistica ufficiale è caratterizzata da specifici fattori di qualità quali imparzialità, affidabilità, obiettività, indipendenza scientifica, efficienza economica e riservatezza statistica e non comporta oneri eccessivi per gli operatori economici. Se, come avvenuto in altri contesti (dai contesti aziendali alla ricerca scientifica), la disponibilità di strumenti per il trattamento di grandi moli di dati offre significative opportunità anche in ambito statistico, proponendo nuovi modi di raccolta, elaborazione e utilizzo di informazione, occorre porre molta attenzione all’impatto che le specifiche caratteristiche delle nuove fonti possono avere sulla statistica ufficiale. E’ infatti evidente che trattare dati di grandi dimensioni e soprattutto di estrema varietà di formato e di velocità di generazione obbliga ad una attenta valutazione del quadro metodologico, organizzativo e tecnologico all’interno del quale si muove tradizionalmente la statistica ufficiale.In particolare, la domanda che si sono poste le organizzazioni statistiche nazionali/ufficiali è stata in che modo le fonti di Big Data possono essere efficacemente sfruttate “statisticamente”, con l’obiettivo di:

  •  di produrre ulteriori informazioni ,
  •  aumentare la qualità delle fonti già disponibili
  •  favorire la riduzione del carico sui rispondenti e dei costi correlati alla raccolta dei dati, accogliendo in questo specifiche raccomandazioni di organizzazioni internazionali (quali Eurostat e Nazioni Unite).

L’esigenza di disporre di dati sempre più abbondanti e di qualità superiore, se da una parte si sta quindi rivelando determinante per soddisfare esigenze di conoscenza dei fenomeni sociali ed economici di una società sempre più complessa e per rendere sostenibile il costo delle indagini – soggette a forti limitazioni dalle pressioni di bilancio e dai costi associati agli oneri di risposta – dall’altra comporta la non facile risoluzione di questioni oltre che sul fronte tecnico, anche su quello metodologico ed organizzativo.
Considerando una generica popolazione statistica (quale ad esempio famiglie e/o singoli individui, imprese e/o istituzioni, etc.), il quadro generale per la produzione di informazioni statistiche si presenta sempre più spesso caratterizzato dalla coesistenza di fonti diverse di dati, originate dalla popolazione target (o ad essa correlate):

  •  dati statistici raccolti mediante indagini tradizionali : dati raccolti in diretto contatto con le unità selezionate nella popolazione e trattati al fine di produrre stime;
  •  dati amministrativi: dati frutto di procedure amministrative (sicurezza sociale, sanità, istruzione, carte d’identità, dati contabili interni, etc.);
  •  Big Data: dati originati dall’uso di dispositivi digitali, nel senso più ampio del termine.

Mentre sui primi due tipi le metodologie e i processi sono da tempo consolidati e standardizzati a livello internazionale, l’introduzione dei Big Data nella statistica ufficiale ha implicato la definizione e risoluzione di tre principali problematiche:
a) classificare e sistematizzare le fonti
b) valutare come le caratteristiche specifiche dei Big Data (tipicamente volume, varietà e velocità) hanno impatto e possono essere trattate in ambito statistico,
c) distribuire lungo il ciclo di vita dei dati statistici (raccolta, validazione, analisi e utilizzo) il loro trattamento.