Automazione Industriale Intelligente e Life Science digitalizzate

life_science_digitale

Nei prossimi anni vedremo sempre più l’ascesa e la collaborazione tra nuovi attori nel panorama industriale: intelligenza artificiale (AI), machine Learning (ML) ed elaborazione del linguaggio naturale (NPL) per realizzare un’automazione intelligente con un approccio più opportuno e vantaggioso

Il comparto life science non scappa a questa regola, anzi!  

Deve essere tra i primi settori sempre aggiornati, sfidare nuovi limiti, ricercare molecole, terapie e dispositivi sempre più all’avanguardia per poter migliorare la vita dei pazienti.

In poco più di un secolo le scoperte in ambito farmaceutico hanno letteralmente doppiato e sommerso i progressi in ambito industriale.

Se da un lato abbiamo un ampio ventaglio di potenziali molecole interessanti da testare, dall’altro lato, i mezzi industriali, le tecnologie e l’automazione a disposizione non sono proprio al passo con la ricerca.

Ricerca e industrializzazione/automazione viaggiano su binari diversi

La ricerca è stata più libera di correre liberamente mentre dall’altra parte le compagnie farmaceutiche hanno trovato una strada molto più tortuosa per poter soddisfare la compliance in campo industriale.  Scenari regolatori in perenne movimento, problematiche legate ai brevetti e soluzioni tecnologiche datate.

Ancora oggi molte attività sono appesantite da processi di compliance rigidi.

Inoltre, è sempre più visibile la frattura esistente tra la gestione e la comprensione critica che le aziende dovrebbero utilizzare per gestire in maniera ottimale gli aspetti di sicurezza e collaborazione del paziente.

Le aziende dovranno necessariamente in futuro adottare soluzioni più integrate e affidarsi sempre più all’automazione per allinearsi a tali aspetti e risolvere le sfide più critiche in maniera efficace. L’automazione è pertanto vitale per ottenere successo nell’industria farmaceutica.

Le compagnie stanno affrontando ogni giorno grandi flussi di cambiamenti soprattutto nella gestione dei dati per salvaguardare la compliance e la sicurezza dei prodotti immessi in commercio.

Numerosi dati provengono da fonti multiple, sempre più prodotti sono distribuiti in paesi differenti che cambiano continuamente i propri requisiti regolatori.

Per esempio, l’utilizzo di una intelligenza artificiale integrata a sistemi di farmacovigilanza consentirebbe l’ottimizzazione e l’elaborazione simultanea dei dati da svariate fonti (email, social media, banche dati online, files audio, video) e renderebbe i trials clinici più consistenti, sicuri e vantaggiosi, riducendo di gran lunga le tempistiche.

Nonostante l’automazione sia spesso stato ingiustamente sinonimo di disoccupazione (Machines replacing Humans), in realtà anche nel pharma worldcome in altri campi, porterà ad un restyling vero e proprio del lavoro traducendosi in nuove posizioni lavorative, l’accento di sposterà sempre di più sull’aspetto data science.

Il coinvolgimento umano non scomparirà ma sarà trasformato ed integrato sempre più in un unico processo automatizzato tra AI, ML e NPL.

Ciò porterà a setacciare le voluminose quantità di dati processati più velocemente ed efficientemente. Il risultato finale? Le aziende libereranno più tempo e risorse che potranno essere investite in miglioramenti ed innovazione invece che in compiti ripetitivi senza valore aggiunto. Anche i dati stessi, hanno subito una loro “evoluzione” e continueranno ad evolversi e ad espandersi.

L’industria dovrà necessariamente adattarsi alla loro trasformazione per poter far fronte ad un volume di dati in continua crescita da fonti più disparate.

Prima i dati erano abbastanza puntiformi, statici, e ricavabili da fonti standard e tradizionali (report, banche dati collaudate, laboratori) adesso invece possiamo ricavare dati da dispositivi indossati direttamente dai pazienti, questo porta ad assumere sempre più dati e in maniera più dinamica.

Da un punto di vista tecnico si arriverà ad ottenere dati più consistenti, un legame sempre più forte tra pazienti ed i professionisti dell’ambito sanitario e la trasformazione della sanità stessa nell’era digitale.

Sempre più dati a disposizione provengono da canali non tradizionali, meno statici e più fluidi, come social media e siti online, e sono spesso utilizzati dai pazienti per scambiare informazioni, transitare dati e comunicare: tutto ciò porta ad un ampio raggio d’ azione. È compito della tecnologia e dell’automazione dunque, riuscire a captare i dati utili nel mezzo dello “tsunami digitale” e contestualizzarli, confrontarli anche con i vecchi dati più “analogici” e tradizionali per poter analizzare e migliorare la qualità di vita dei pazienti, la compliance e la qualità del prodotto.

Intelligenza artificiale nel 2020

intelligenza artificiale
Cinque modi per raggiungere nuove frontiere

Esistono cinque percorsi che possono essere intrapresi per raggiungere nuove frontiere con l’intelligenza artificiale nel corso del 2020

1. L’intelligenza artificiale diventa sempre più accessibile sul luogo di lavoro

Al passo con la continua crescita industriale dell’intelligenza artificiale, questa tecnologia si espanderà ben oltre l’universo della data science e verrà applicata, ad esempio, a dispositivi medici, alla progettazione nel settore automotive e alla sicurezza sul luogo del lavoro industriale.

Sempre più esperti di intelligenza artificiale hanno la possibilità deep learning esistenti, a dati più ricchi e a ricerche accessibili, il che consente di fare progressi in modo più rapido ed efficace.

Lo sviluppo dell’intelligenza artificiale avrà un impatto anche sugli utenti, in quanto strumenti quali l’etichettatura automatica consentiranno agli ingegneri di sfruttare le loro conoscenze del settore per gestire rapidamente set di dati ampi e di alta qualità, a garanzia di maggiore precisione e di probabilità di successo più elevate.

Poiché l’intelligenza artificiale è sempre più accessibile, gli utenti di svariati settori potranno utilizzarla per sviluppare progetti vincenti.

intelligenza artificiale fig.1
Le App per il flusso di lavoro di deep learning includono Deep Network Designer ©MathWorks

2. La diffusione di sistemi basati sull’intelligenza artificiale aumenta la complessità dei progetti

Il fatto che l’intelligenza artificiale venga utilizzata sempre di più in sistemi quali i veicoli autonomi, i motori dei velivoli, gli impianti industriali e le turbine eoliche sottolinea il notevole impatto che avrà sulle prestazioni generali di sistemi complessi e di multidominio.

Poiché l’intelligenza artificiale viene addestrata a lavorare con più tipi di sensori, come gli IMU, il LiDAR o il Radar, si continuerà ad integrarla in una serie sempre più ampia di sistemi tecnologici.

Un progetto più complesso determina inevitabilmente la necessità di simulazioni, test continui e integrazione. La simulazione consente ai progettisti di generare dati di guasto o dati sintetici per scenari che, nel mondo reale, sarebbero troppo costosi o pericolosi.

continui test danno la possibilità ai progettisti di individuare tempestivamente i punti deboli dei set di dati di training dell’intelligenza artificiale o i difetti di progetto di altri componenti. L’integrazione unisce la fase di esplorazione del progetto, quella di test e di implementazione all’interno di un contesto di sistema completo.

La combinazione di questi metodi consente di attuare un flusso di lavoro end-to-end in grado di dominare la complessità di progettazione dei sistemi basati sull’intelligenza artificiale.

intelligenza artificiale fig.2
L’IA sta trasformando l’ingegneria in quasi tutti i settori e le aree di applicazione ©MathWorks

3. L’intelligenza artificiale verrà utilizzata in dispositivi embedded a basso costo e a potenza ridotta


Nel corso del prossimo anno, assisteremo all’applicazione dell’intelligenza artificiale su dispositivi a basso costo e a potenza ridotta. In genere, l’IA è stata utilizzata nei calcoli matematici a virgola mobile per una maggiore precisione e un più facile addestramento dei modelli, escludendo dunque i dispositivi a basso costo e a potenza ridotta che si basano sulla matematica a virgola fissa.

Gli strumenti software sviluppati di recente supportano modelli di inferenza basati sull’IA con svariati livelli di calcoli matematici a virgola fissa. Si apre, così, una nuova frontiera per gli ingegneri che ora saranno in grado di integrare l’IA nei loro progetti di unità di controllo elettronico (ECU) a basso costo per sistemi quali i veicoli, i dispositivi medici e i controller di processi industriali.

4. Il reinforcement learning passa dalle applicazioni di gioco a quelle industriali del mondo reale

Nel 2020, il reinforcement learning (RL) passerà dall’universo del gioco a quello delle applicazioni industriali del mondo reale e verrà utilizzato in particolare nella guida autonoma, nei sistemi autonomi, nella progettazione dei sistemi di controllo e nella robotica.

Vedremo ottimi risultati nei casi in cui il RL verrà utilizzato come componente per migliorare un sistema più ampio, come l’ottimizzazione delle prestazioni di un conducente in un sistema di guida autonoma.

L’intelligenza artificiale è in grado di valorizzare il controller del sistema aggiungendo un agente RL per il miglioramento e l’ottimizzazione delle prestazioni, garantendo ad esempio una maggiore velocità, un consumo minimo di carburante o tempi di risposta più brevi.

Tutto ciò può essere integrato in un modello completo di sistema per guida autonoma che include modelli della dinamica del veicolo, modelli ambientali, modelli di sensori per fotocamere e algoritmi di elaborazione immagini.

5. Le simulazioni abbatteranno la barriera principale che ostacola un’adozione efficace dell’intelligenza artificiale: la mancanza di dati di qualità

Stando a quanto dichiarano gli analisti, la qualità dei dati è uno degli scogli più grandi che ostacola un uso efficace dell’IA. Il normale funzionamento quotidiano dei sistemi genera grandi quantità di dati utilizzabili.

Tuttavia, i dati più preziosi sono anche quelli più difficili da trovare, ovvero quelli derivanti da anomalie o da condizioni critiche di guasto. Per addestrare modelli di IA precisi servono moltissimi di questi dati e la simulazione consentirà di ottenere dati idonei e di abbattere questa barriera nel 2020.

intelligenza artificiale fig.3
Insieme dei dati di simulazione per la gestione dei dati di guasto generati da un modello Simulink di una scatola di trasmissione ©MathWorks

Nelle applicazioni di manutenzione predittiva, come la previsione accurata della vita utile residua di una pompa in un sito industriale, questi aspetti risultano ancora più evidenti. Poiché creare dati di guasto da attrezzature fisiche sarebbe distruttivo e costoso, l’approccio migliore consiste nel generare i dati da simulazioni in grado di rappresentare un comportamento di guasto e utilizzare i dati sintetizzati per addestrare un modello di intelligenza artificiale preciso.

La simulazione diverrà ben presto essenziale per sviluppare sistemi basati sull’intelligenza artificiale. Ad esempio, nei veicoli autonomi, la simulazione può aiutare i costruttori a progettare, verificare e implementare dei veicoli a guida autonoma nuovi e innovativi, fino ai componenti essenziali come il software embedded. Per maggiori informazioni, visitate la sezione del sito MathWorks dedicata all’Intelligenza Artificiale.

Intelligenza Artificiale per identificare tumori al cervello

tumori al cervello intel labs
Intel Labs e University of Pennsylvania utilizzano questo nuovo metodo

Intel Labs e la Perelman School of Medicine della University of Pennsylvania (Penn Medicine) stanno sviluppando insieme una tecnologia per abilitare una federazione di 29 istituti di salute e ricerca, diretti da Penn Medicine, per addestrare modelli di intelligenza artificiale (AI) in grado di identificare tumori al cervello, utilizzando una tecnica di machine learning che tutela la privacy, chiamata federated learning (apprendimento federato o apprendimento collaborativo).

Il lavoro di Penn Medicine è finanziato dall’Informatics Technology for Cancer Research (ITCR) program del National Cancer Institute (NCI) del National Institutes of Health (NIH), attraverso un grant in tre anni di 1,2 milioni di dollari riconosciuto al responsabile scientifico, Dr. Spyridon Bakas, del Center for Biomedical Image Computing and Analytics (CBICA) della University of Pennsylvania.

“L’Artificial Intelligence mostra magnifiche prospettive per l’individuazione precoce dei tumori al cervello, ma richiederà più dati di quanti un singolo centro medico possieda, affinché possa sviluppare al massimo il proprio potenziale. Utilizzando il software e l’hardware di Intel e il supporto di alcune delle brillanti menti degli Intel Labs, lavoriamo con l’Università della Pennsylvania e una federazione di 29 centri medici per far progredire l’identificazione dei tumori al cervello e proteggere al contempo i dati sensibili dei pazienti”, afferma Jason Martin, Principal Engineer di Intel Labs.

Penn Medicine e 29 istituti di salute e ricerca di Stati Uniti, Canada, Regno Unito, Germania, Paesi Bassi, Svizzera e India, utilizzeranno il federated learning, ovvero un approccio distribuito al machine learning che consente alle organizzazioni di collaborare a progetti di deep learning senza condividere i dati dei pazienti.

Secondo l’American Brain Tumor Association (ABTA), circa 80.000 persone avranno una diagnosi di tumore al cervello quest’anno, con oltre 4.600 bambini fra di loro. Per addestrare e costruire un modello che individui un tumore al cervello che possa aiutare il riconoscimento precoce e un migliore risultato, i ricercatori necessitano dell’accesso a un grande numero di dati medici rilevanti.

Allo stesso tempo, è essenziale che questi dati restino privati e protetti ed è qui che entra in gioco il federated learning con la tecnologia di Intel.

Con l’utilizzo di questo approccio, i ricercatori di tutte le organizzazioni partner potranno lavorare insieme nella costruzione e l’addestramento di algoritmi di identificazione dei tumori al cervello, mantenendo protetti i dati medici sensibili.Per conoscere i dettagli su come funziona il federated learning di Intel e Penn Medicine è disponibile il link:

http://app.plan.intel.com/e/es?s=334284386&e=6512449&elqTrackId=3aaf88278dfe4cedbfa41a2fae7d1afe&elq=6dec3beac27546cfb85a20714a76126b&elqaid=57448&elqat=1

L’Europa e l’intelligenza artificiale, plasmare il futuro digitale dell’Europa.

La Commissione Europea presenta le strategie per i dati e l’intelligenza artificiale.

“La nostra società genera volumi impressionanti di dati industriali e pubblici che trasformeranno il nostro modo di produrre, consumare e vivere”, ha dichiarato il Commissario per il Mercato interno, Thierry Breton“Voglio che le imprese europee e le nostre numerosissime PMI abbiano accesso a questi dati e possano creare valore per gli europei, anche sviluppando applicazioni di intelligenza artificiale. L’Europa ha tutto ciò che serve per guidare la corsa ai ‘big data’ e per salvaguardare la propria sovranità tecnologica, la propria leadership industriale e la propria competitività economica a vantaggio dei consumatori europei”.

Nel libro bianco presentato, la Commissione propone un quadro per un’intelligenza artificiale affidabile, basata sull’eccellenza e sulla fiducia.

In partenariato con il settore pubblico e privato, l’obiettivo è mobilitare risorse lungo l’intera catena del valore e creare i giusti incentivi per accelerare la diffusione dell’IA, anche presso le piccole e medie imprese. Preziosa la collaborazione con gli Stati membri e la comunità scientifica, al fine di attirare e trattenere i talenti.

I sistemi di IA possono essere complessi e comportare rischi significativi in determinati contesti, pertanto è essenziale rafforzare la fiducia. Sono necessarie norme chiare per regolamentare i sistemi di IA ad alto rischio senza imporre eccessivi oneri a quelli meno rischiosi. Continuano inoltre ad applicarsi le norme rigorose dell’UE per proteggere i consumatori, far fronte alle pratiche commerciali sleali e proteggere i dati personali e la privacy.

Per i casi ad alto rischio, quali quelli che riguardano la salute, le attività di polizia o i trasporti, i sistemi di IA dovrebbero essere trasparenti, tracciabili e garantire che vi sia una sorveglianza umana. Le autorità dovrebbero poter effettuare verifiche sui dati usati dagli algoritmi e certificarli, così come accade per i cosmetici, le automobili o i giocattoli. Sono necessari dati privi di distorsioni per addestrare i sistemi ad alto rischio a funzionare correttamente, oltre che per garantire il rispetto dei diritti fondamentali, in particolare la non discriminazione. Oggi l’uso del riconoscimento facciale per l’identificazione biometrica remota è in genere vietato e può essere utilizzato solo in casi eccezionali, debitamente giustificati e proporzionati, subordinati a misure di salvaguardia e basati sulla legislazione dell’UE o nazionale; la Commissione intende tuttavia avviare un ampio dibattito in merito alle circostanze che potrebbero eventualmente giustificare tali eccezioni.

Per le applicazioni di IA che presentano un rischio più limitato, la Commissione ipotizza un sistema di etichettatura su base volontaria, a condizione che vengano applicati gli standard più elevati.

Il mercato europeo accoglie tutte le applicazioni di IA, purché siano conformi alle norme dell’UE.

L’Europa e l’economia dei dati

La quantità di dati generati dagli operatori economici e dagli organismi pubblici è in costante aumento. La prossima ondata di dati industriali trasformerà profondamente il modo in cui produciamo, consumiamo e viviamo. Ma il potenziale di tali dati resta in gran parte inutilizzato.

L’Europa è dotata di tutto ciò che serve per diventare un leader in questa nuova economia dei dati: la più solida base industriale del mondo, in cui le PMI sono elementi vitali del tessuto industriale, le tecnologie, le competenze, e da ora, anche una visione chiara.

L’obiettivo della strategia europea per i dati è garantire che l’UE assuma il ruolo di modello e di guida per le società rese più autonome grazie ai dati.

La strategia punta in primo luogo a creare un vero spazio europeo dei dati, un mercato unico per i dati, al fine di sbloccare i dati inutilizzati per consentirne la libera circolazione all’interno dell’Unione europea e in tutti i settori, a vantaggio delle imprese, dei ricercatori e delle pubbliche amministrazioni.

I cittadini, le imprese e le organizzazioni dovrebbero avere la facoltà di adottare decisioni migliori sulla base delle informazioni raccolte grazie ai dati non personali. Tali dati dovrebbero essere accessibili a tutti, soggetti pubblici o privati, start-up o mega imprese.

Per conseguire tutto ciò, la Commissione proporrà in primo luogo di istituire il corretto quadro normativo per la governance dei dati, l’accesso ai dati e il riutilizzo degli stessi tra imprese, tra imprese e pubblica amministrazione e all’interno delle amministrazioni. Ciò comporta la creazione di incentivi per la condivisione di dati e l’istituzione di regole pratiche, eque e chiare in materia di accesso ai dati e uso degli stessi, che siano conformi ai valori e ai diritti europei, quali la protezione dei dati personali, la tutela dei consumatori e la legislazione in materia di concorrenza. Ciò rende inoltre più ampiamente disponibili i dati del settore pubblico, aprendo set di dati di elevato valore in tutta l’UE e permettendone il riutilizzo per l’innovazione di punta.

In secondo luogo, la Commissione intende sostenere lo sviluppo dei sistemi tecnologici e della prossima generazione di infrastrutture, che permetteranno all’UE e a tutti gli operatori di avvalersi delle opportunità offerte dall’economia dei dati: essa parteciperà agli investimenti in progetti europei ad alto impatto per gli spazi europei dei dati e per le infrastrutture cloud affidabili ed efficienti sotto il profilo energetico.

Da ultimo, varerà azioni settoriali specifiche volte alla costruzione degli spazi europei dei dati, ad esempio nell’ambito della produzione industriale, del Green Deal, della mobilità o della salute.

La Commissione si adopererà inoltre per colmare ulteriormente le lacune in termini di competenze digitali dei cittadini europei, studiando soluzioni finalizzate ad attribuire ai cittadini un maggiore controllo su chi può accedere ai loro dati generati automaticamente.

Prossime tappe

La Commissione presenterà nel corso dell’anno una legge sui servizi digitali e un piano d’azione per la democrazia europea, proporrà una revisione del regolamento eIDAS e rafforzerà la cibersicurezza attraverso un’unità congiunta per la cibersicurezza.

L’Europa continuerà inoltre a costruire alleanze con i partner mondiali, facendo leva sul suo potere normativo, sullo sviluppo di capacità, sulla diplomazia e sui finanziamenti al fine di promuovere il modello di digitalizzazione europeo.

La consultazione pubblica sul libro bianco sull’intelligenza artificiale resterà aperta fino al 19 maggio 2020. la Commissione sta inoltre raccogliendo riscontri sulla sua strategia per i dati. Alla luce dei contributi ricevuti, la Commissione intraprenderà ulteriori azioni per sostenere lo sviluppo di un’IA affidabile e di un’economia basata sui dati.

RICERCA: L’intelligenza artificiale scopre un super antibiotico

Con un nome ispirato al cinema, uccide anche batteri resistenti.

Grazie all’intelligenza artificiale e’ stato identificato un nuovo super antibiotico:  chiamato ‘halicin’ in omaggio al supercomputer Hal 9000 del film ‘2001: Odissea nello spazio’, ha dimostrato nei test di laboratorio di poter eliminare molti dei batteri portatori di malattie, compresi alcuni ceppi diventati resistenti a tutti i farmaci tradizionali. Il risultato, pubblicato sulla rivista Cell dai ricercatori del Massachusetts Institute of Technology (Mit), potrebbe rappresentare l’inizio di una nuova era per la ricerca sugli antibiotici, che negli ultimi anni ha subito un forte rallentamento.

“Stiamo affrontando una crisi crescente per quanto riguarda l’antibiotico-resistenza, e questa situazione si e’ venuta a creare sia per un aumento dei microrganismi patogeni divenuti resistenti, sia per una produzione sempre piu’ scarsa di nuovi antibiotici da parte delle industrie biotech e farmaceutiche“, afferma James Collins del Mit.

Per superare questa impasse, i ricercatori hanno messo a punto un algoritmo di apprendimento automatico addestrato ad analizzare in modo estremamente accurato la struttura chimica dei composti chimici, mettendola in correlazione con specifiche proprieta’ come la capacita’ di uccidere i batteri.

In questo modo hanno ottenuto una piattaforma capace di passare in rassegna piu’ di centro milioni di composti nell’arco di alcuni giorni, identificando quelli che potrebbero uccidere i batteri usando meccanismi d’azione diversi rispetto ai farmaci esistenti.

“Il nostro approccio ha svelato questa fantastica molecola che e’ verosimilmente uno degli antibiotici piu’ potenti mai scoperti”, sottolinea Collins.

Lo studio ha permesso di individuare anche altre 8 molecole potenzialmente interessanti che verranno testate a breve. Secondo i ricercatori, il sistema potrebbe essere usato pure per progettare nuovi farmaci e ottimizzare quelli esistenti.