Ripensare i Big Data porterà a nuovi progressi nella medicina personalizzata
Il settore delle life science ha atteso a lungo che i big data sfruttassero appieno il potenziale della medicina personalizzata. Con l’AI e il machine learning, i team di ricerca e sviluppo possono finalmente cogliere questa opportunità, a patto che i dati siano puliti, standardizzati, interoperabili e sicuri.
Per comprendere il potenziale di un trattamento per uno specifico paziente, le aziende biofarmaceutiche devono mettere insieme dati provenienti da fonti diverse. Alcune di queste fonti di dati saranno comuni a tutte le categorie specifiche di malattie: ad esempio, i dati demografici dei pazienti, le cartelle cliniche elettroniche e i punteggi relativi alla qualità della vita. Tuttavia, la maggior parte dei dati (comprese le informazioni genetiche, la diagnostica per immagini e i dati sull’attività fisica provenienti da dispositivi indossabili) saranno unici per ogni individuo. Poiché l’efficacia clinica e il profilo di sicurezza di un trattamento personalizzato saranno diversi da paziente a paziente, tutte le parti interessate devono potersi fidare dei dati per prendere decisioni in modo sicuro.
Rivalutare l’approccio alla qualità, alla proprietà e all’interoperabilità porterà i dati utilizzabili al centro della strategia delle aziende biofarmaceutiche, anche quando si lavora con milioni di data point potenzialmente rilevanti. Le organizzazioni leader del settore stanno anche ripensando le modalità di lavoro e i sistemi esistenti per ottenere presentazioni corrette al primo tentativo. Con l’accesso a una base dati puliti, le aziende possono identificare le aree funzionali più critiche per accelerare il time to market, in modo che i pazienti non rimangano in attesa di nuovi trattamenti innovativi.
Storicamente, le iniziative di raccolta dati hanno avuto grandi ambizioni. Si andava dai dati di sequenziamento, imaging e cartelle cliniche elettroniche alle informazioni testuali come le interazioni con i responsabili sanitari e gli abstract delle conferenze. L’obiettivo principale era la completezza, e l’ampiezza dei dati raccolti rendeva difficile individuare i modelli o identificare gli usi più efficaci.
Oggi i requisiti di go-to-market e di approvazione dei trattamenti personalizzati sono più complessi che in passato. Di conseguenza, le aziende biofarmaceutiche cercano di fare un uso appropriato dei dati dei loro studi molto prima, il che sposta l’attenzione dalla raccolta dei dati alla governance e alla proprietà. Ottenere un maggiore controllo e una maggiore supervisione cambierà le dinamiche dei rapporti e dei contratti con le terze parti. I sistemi connessi stanno diventando fondamentali per consentire alle parti interessate di visualizzare i dati in qualsiasi momento, anziché attendere l’invio dei dati in formati di metadati o di documenti finali basati su testo.
Per gli sponsor sta diventando anche più facile individuare le inefficienze che hanno un impatto maggiore durante la fase di sviluppo clinico, fondamentali per ridurre il time to market, in modo che i farmaci personalizzati rimangano commercialmente validi. L’analisi dei dati sui tempi di ciclo tra due tappe cliniche critiche può indicare se le inefficienze e le sfide operative si presentano tipicamente durante la progettazione del protocollo, la selezione del sito, l’avvio oin un’altra tappa. Queste informazioni possono aiutare l’intera organizzazione a diventare più produttiva. Un’unica fonte di dati accurati può creare vantaggi competitivi, favorendo un migliore processo decisionale per il deposito dei brevetti o il reclutamento dei pazienti, o un aumento dell’efficienza nell’outsourcing, nell’approvvigionamento o nella razionalizzazione del portafoglio.
Le capacità analitiche e di data science sono migliorate, ma rimangono dei limiti. I dati grezzi non sono standardizzati e esistono pochi modelli di riferimento a livello di settore. Se si risolvono i problemi comuni relativi alla pulizia, alla proprietà e agli standard dei dati, il volume e la frequenza di accesso ai dati degli studi aumenteranno. Ciò richiede un modello di dati trasparente con controlli rigorosi sull’accesso degli utenti per risolvere i problemi di privacy e sicurezza informatica.
Uno scopo chiaro è fondamentale quando si tratta di dare priorità alle iniziative sui dati. Se l’obiettivo è ridurre significativamente il tempo che intercorre tra il “primo paziente, la prima visita” e la finalizzazione delle informazioni ottenute in uno studio clinico (il cosiddetto database lock), è meglio scegliere un gruppo di esperti prima della raccolta e della pulizia dei dati per decidere l’approccio e i casi d’uso esatti. I data scientist, gli esperti di materia e persino gli esperti esterni possono contribuire a prendere decisioni e a verificare le ipotesi di miglioramento per questa tappa fondamentale dello sviluppo clinico.
Molte biotecnologie dispongono delle persone e delle tecnologie giuste, ma faticano ad avere una governance efficace. Ciò può richiedere la collaborazione tra funzioni che non hanno mai lavorato insieme, come la ricerca e la scienza di base, il business e l’IT. Il commitment dei vertici aziendali è un prerequisito perché le aziende inizino a pensare in questo modo. I team di gestione devono testare, imparare e sperimentare ulteriormente diversi modelli di lavoro prima di decidere quello che meglio si adatta alla cultura dell’azienda.
Una volta definiti i ruoli e le responsabilità interfunzionali, le persone, i processi e la tecnologia devono allinearsi agli obiettivi aziendali più ampi, ai problemi e alle ipotesi concordate. È essenziale una gestione agile delle risorse. Un problema urgente di sicurezza dei farmaci, ad esempio, potrebbe avere ripercussioni cliniche immediate per un’azienda, a meno che non si riuniscano gli esperti giusti per affrontare la sfida. Per gli statistici, i biologi molecolari, i chimici, gli esperti medici/genetisti e i data scientist è fondamentale lavorare su serie di dati puliti provenienti da un’unica fonte di verità per far riprendere il percorso di approvazione del farmaco.
Una volta che i casi d’uso dei big data saranno stati ben definiti ed eseguiti, assisteremo a una più stretta collaborazione tra i team delle organizzazioni che lavorano per un obiettivo comune. Il risultato sarà una documentazione di qualità superiore, una riduzione dei tempi necessari per completare processi clinici specifici e un maggior numero di proposte corrette al primo tentativo. Il crescente interesse e la spinta verso l’adozione di API dirette per l’accesso e la manipolazione dei dati con le autorità regolatorie e sanitarie e potenzialmente con le organizzazioni di ricerca a contratto e altre terze parti, potrebbe portare a una maggiore cooperazione. I benefici di decisioni normative più rapide saranno percepiti direttamente dai pazienti.
I costi e i rischi dello sviluppo di farmaci personalizzati sfidano anche le funzioni di Ricerca e Sviluppo più efficienti. Ora è necessario un cambiamento di mentalità verso: “Non ci sono grandi problemi, ci sono solo tanti piccoli problemi”. Il passaggio a un uso più intelligente dei dati aiuterà le aziende a suddividere il lungo e complesso percorso di sviluppo dei farmaci e a individuare il “piccolo problema” da risolvere per primo.
Quando i big data saranno puliti, standardizzati e interoperabili, si potranno esplorare altre interessanti possibilità, come la ricerca di nuovi bersagli biologici o di nuove popolazioni di pazienti. Alla fine, un approccio centralizzato alla gestione dei dati potrebbe sostenere l’ambizione a lungo coltivata di collegare i dati del mondo reale allo sviluppo clinico, così da poter migliorare l’esperienza del paziente.
Questi progressi ci portano verso l’obiettivo comune di fornire farmaci che migliorano la vita ai pazienti che ne hanno bisogno.
(a cura di Stephan Ohnmacht, Vice President, R&D Business Consulting, Veeva)