Marsicano si laurea a 45 anni discutendo una tesi sull’utilizzo dell’intelligenza artificiale per arginare la pandemia da Covid-19


Lecce nei Marsi – L’età e solo un numero. Lo dimostra Concezio Cornacchia, il quarantacinquenne di Lecce nei Marsi che, il 24 luglio, si è laureato con un il voto di 97/110 in gestione delle imprese. Dopo un percorso universitario triennale, Cornacchia ha discusso la tesi su argomenti importanti come la pandemia globale da covid-19 che lo ha costretto a proseguire gli studi con lezioni in videoconferenze ed esami on-line. Proprio da questa fase difficile nasce l’idea di svolgere il suo elaborato sul “Big data e statistiche sperimentali: nuove frontiere di sviluppo per la statistica” riguardante anche la pandemia da covid-19.

Big Data è oggi un “meme”, una parola sulla bocca di tutti, un imperativo categorico per le imprese. Come siamo arrivati a questo punto? Sono ormai 25 anni che si parla di estrarre senso dai dati, scoprire conoscenze nascoste nelle grandi masse di dati generati da processi e transazioni mediati dalle tecnologie digitali.
La pandemia globale da Covid-19 può essere arginata mediante l’utilizzo di innovative tecnologie basate sull’intelligenza artificiale. Sistemi di diagnosi basati sull’AI, robot impiegati per attività di disinfezione o consegna di cibo e medicine, algoritmi per rilevare nuovi focolai, sono solo alcuni degli strumenti utilizzati dalla Cina per contenere il Coronavirus.
Uno dei problemi più grandi per la diagnosi del virus è che attualmente vengono verificati solo le persone sintomatiche o coloro che sono stati a stretto contatto con un contagiato. Secondo recenti analisi, sarebbe invece di grande aiuto verificare la positività su tutta la popolazione. Gli asintomatici infatti sono la maggiore causa di diffusione (inconsapevole) del virus.
Proprio per limitare questo problema, si è pensato di rilevare la positività al contagio attraverso esami di routine o specialistici a cui ogni giorno si sottopongono normalmente migliaia di pazienti, come TAC, ecografie o semplici esami del sangue.
Purtroppo, il personale sanitario e soprattutto gli infermieri sono soggetti ad un altissimo tasso di contagio, nonostante le protezioni e le precauzioni che adottano. Un’ottima soluzione si rivelano i robot, già impiegati in Cina. Questi innovativi strumenti possono essere impiegati per eseguire o completare molte attività come la pulizia, la sterilizzazione o la consegna di cibo e medicine per ridurre le interazioni tra il personale sanitario e le persone infette
In breve, l’epidemiologia digitale, nota la rivista Science, è già di uso comune da un quarto di secolo; ma l’emergenza da Covid-19 ha portato il suo sviluppo alle estreme conseguenze. Si possono porre molte obiezioni etiche sull’utilizzo dei Big Data – la grande mole di informazioni che riguarda tutti noi – spesso utilizzate a scopo di lucro e ai nostri danni, come nel caso Cambridge Analytica che ha fatto tremare Facebook; ma in una pandemia come quella attuale, nota il professor David J. Hand, dell’Imperial College di Londra, «a volte risulta immorale non usare i dati disponibili».
La questione, sostiene Michelle M. Mello sulle pagine della prestigiosa rivista scientifica, non è dunque se usare i dati resi disponibili da cellulari, computer personali e telecamere di sorveglianza, ma come si riuscirà a farlo.
Già a cavallo fra gli anni 80 e 90, quando nacque l’idea di data mining, avevamo consapevolezza che nei dati che si accumulavano nei sistemi aziendali ci fossero giacimenti non sfruttati di conoscenze. Come il famoso pattern “birra e pannolini”, che emergeva dagli scontrini degli acquisti del fine settimana, a mettere in luce il segmento delle coppie di giovani neo-genitori che invitano gli amici a casa. Da allora il panorama digitale è cambiato molto, ma l’idea di fondo di quella che oggi chiamiamo Big Data Analytics è la stessa: usare in modo creativo sorgenti multiformi di dati per generare conoscenze utili e inaspettate. Per lasciare che le storie emergano dalle tracce digitali dei comportamenti umani. Sono le tracce ad essersi moltiplicate in varietà, pervasività e quantità. Inevitabilmente, le sfide per le imprese si sono dilatate ben oltre lo sfruttamento più intenso dei soli dati interni.
La statistica ufficiale ha già da alcuni anni puntato al rinnovamento delle proprie fonti dati, considerando in particolare l’opportunità di utilizzare anche i Big Data come possibili fonti in combinazione, alternativa o ausilio ai dati tradizionali.

Le statistiche ufficiali rivestono da sempre un ruolo fondamentale nella società e il loro apporto alla conoscenza del complesso contesto del mondo attuale risulta sempre più centrale. Le organizzazioni statistiche mirano a fornire informazioni su tutti gli aspetti importanti della società agendo secondo standard scientifici sempre più elevati e condivisi a livello internazionale. Come indicato nell’art. 338 del Trattato sul funzionamento dell’Unione europea (Carta dei diritti fondamentali) la statistica ufficiale è caratterizzata da specifici fattori di qualità quali imparzialità, affidabilità, obiettività, indipendenza scientifica, efficienza economica e riservatezza statistica e non comporta oneri eccessivi per gli operatori economici. Se, come avvenuto in altri contesti (dai contesti aziendali alla ricerca scientifica), la disponibilità di strumenti per il trattamento di grandi moli di dati offre significative opportunità anche in ambito statistico, proponendo nuovi modi di raccolta, elaborazione e utilizzo di informazione, occorre porre molta attenzione all’impatto che le specifiche caratteristiche delle nuove fonti possono avere sulla statistica ufficiale. E’ infatti evidente che trattare dati di grandi dimensioni e soprattutto di estrema varietà di formato e di velocità di generazione obbliga ad una attenta valutazione del quadro metodologico, organizzativo e tecnologico all’interno del quale si muove tradizionalmente la statistica ufficiale.In particolare, la domanda che si sono poste le organizzazioni statistiche nazionali/ufficiali è stata in che modo le fonti di Big Data possono essere efficacemente sfruttate “statisticamente”, con l’obiettivo di:

  •  di produrre ulteriori informazioni ,
  •  aumentare la qualità delle fonti già disponibili
  •  favorire la riduzione del carico sui rispondenti e dei costi correlati alla raccolta dei dati, accogliendo in questo specifiche raccomandazioni di organizzazioni internazionali (quali Eurostat e Nazioni Unite).

L’esigenza di disporre di dati sempre più abbondanti e di qualità superiore, se da una parte si sta quindi rivelando determinante per soddisfare esigenze di conoscenza dei fenomeni sociali ed economici di una società sempre più complessa e per rendere sostenibile il costo delle indagini – soggette a forti limitazioni dalle pressioni di bilancio e dai costi associati agli oneri di risposta – dall’altra comporta la non facile risoluzione di questioni oltre che sul fronte tecnico, anche su quello metodologico ed organizzativo.
Considerando una generica popolazione statistica (quale ad esempio famiglie e/o singoli individui, imprese e/o istituzioni, etc.), il quadro generale per la produzione di informazioni statistiche si presenta sempre più spesso caratterizzato dalla coesistenza di fonti diverse di dati, originate dalla popolazione target (o ad essa correlate):

  •  dati statistici raccolti mediante indagini tradizionali : dati raccolti in diretto contatto con le unità selezionate nella popolazione e trattati al fine di produrre stime;
  •  dati amministrativi: dati frutto di procedure amministrative (sicurezza sociale, sanità, istruzione, carte d’identità, dati contabili interni, etc.);
  •  Big Data: dati originati dall’uso di dispositivi digitali, nel senso più ampio del termine.

Mentre sui primi due tipi le metodologie e i processi sono da tempo consolidati e standardizzati a livello internazionale, l’introduzione dei Big Data nella statistica ufficiale ha implicato la definizione e risoluzione di tre principali problematiche:
a) classificare e sistematizzare le fonti
b) valutare come le caratteristiche specifiche dei Big Data (tipicamente volume, varietà e velocità) hanno impatto e possono essere trattate in ambito statistico,
c) distribuire lungo il ciclo di vita dei dati statistici (raccolta, validazione, analisi e utilizzo) il loro trattamento.


Invito alla lettura

Ultim'ora

Partita la sottoscrizione spontanea per le celebrazioni della festa della Madonna delle Grazie a Civitella Roveto

Civitella Roveto – Tutti i giorni, dalle 9 alle 13 e dalle 16 alle 20, presso la piazza dei Giardinetti di Civitella Roveto sarà possibile partecipare alla sottoscrizione spontanea messa ...


Anche Bisegna ha la sua panchina rossa, inaugurata dalla Consulta delle Donne

Bisegna – La panchina rossa è un simbolo che, negli ultimi anni, tanti paesi nella Marsica hanno adottato. Recentissimamente una nuova panchina rossa è stata ...

Il cane da pastore abruzzese sorveglia gli allenamenti in piazza

Ortona dei Marsi – Fare attività fisica all’aperto è sicuramente salutare e benefico. Farlo nel cuore di un borgo diventa ancora più affascinante. Se poi ...

Lino Guanciale vince il Premio Ginesio Fest 2022. “Si è distinto per le indiscusse qualità attoriali, ma anche per sensibilità artistica”

Avezzano – A pochissimi giorni dall’inizio della terza edizione del Ginesio Fest, in programma dal 18 al 25 agosto, il direttore artistico Leonardo Lidi e ...

Giochi inclusivi per bambini disabili nel parco in zona Pinetina a Ovindoli

Ovindoli – Tutti gli spazi ludici per i bambini dovrebbero contemplare la presenza di giochi inclusivi ossia attrezzature specifiche in grado di consentire anche a ...