IT coraz bliżej spełnienia marzeń farmacji
W ciągu ostatnich 5 lat Centrum Oceny i Badań Leków (CDER) FDA biło swoje ustanowione ćwierć wieku temu rekordy w liczbach zatwierdzeń nowych leków. Chociaż istnieje wiele powodów, które wpływają na wydajność projektów badawczych nad nowymi lekami, to prawdziwy przełom w farmacji szykują specjaliści IT.


 REKLAMA 
 Wdrażasz KSeF w firmie 
 
Zaawansowana technologia ma pomóc w zwiększeniu efektywności odkrywania leków i szybszą eliminację kandydatów na leki we wczesnych fazach badań. Większość wysiłku wkładanego obecnie przez naukowców i lekarzy zostanie zastąpiona symulacjami i modelami uczenia maszynowego (ML), które w końcu będą w stanie efektywnie wykorzystywać petabajty codziennie gromadzonych danych medycznych i farmaceutycznych.

Trudno jednoznacznie ocenić, ile nas dzieli od tej rzeczywistości. Wciąż jest wiele do zrobienia. Oczywiście dotychczasowe osiągnięcia są już wspierane przez ogromną ilość systemów informatycznych, ale może być jeszcze lepiej, taniej i szybciej – mówi Jacek Chmiel, dyrektor Avenga Labs.


Już w 2002 roku istniało od 600 do 1500 „celów lekowych”, które potencjalnie mogłyby być przedmiotem badań przemysłu farmaceutycznego. Nawet przy obecnie wysokim średnim 5-letnim tempie rejestracji 49 nowych leków rocznie, to cały proces realizacji ustalonych wtedy celów zająłby od 12 do ponad 30 lat. A przecież ciągle pojawiają się nowe potrzeby i nie wszystko idzie „z górki”, o czym świadczy odnotowany przez FDA spadek rejestracji nowych leków w 2022 roku do 37 rocznie.

Lepsze wykorzystanie uczenia maszynowego (ML)

Kluczem do pełnego wykorzystania analityki i uczenia maszynowego (ML) jest odpowiednia jakość danych. Dzięki transformacji danych analitycy radzą już sobie z różnymi formatami danych medycznych i farmaceutycznych. Najtrudniejszą barierą do pokonania są jednak ludzie i różnice w sposobach interpretacji tych samych zdarzeń. Ilustruje to przykład chorych na COVID-19 i rejestrowania przyczyn ich śmierci. Różne szpitale – a nawet różni lekarze w ramach tych samych szpitali – różnie klasyfikują fakty. Powinni rozróżniać przypadki, kiedy pacjent zmarł „na COVID-19” lub „z COVID-19”. W drugim przypadku choroba współistniejąca będzie główną przyczyną śmierci. Mimo to rejestry są pełne błędów.

Istnienie wytycznych dla osób wprowadzających dane nie oznacza, że wszystko pójdzie zgodnie z planem. Standaryzacja na razie nie jest w stanie zniwelować różnic w opisach objawów, opinii i obserwacji. Czynnik ludzki jest najbardziej nieprzewidywalny i trudny do kontrolowania, a ewentualne błędy mogą mieć negatywne skutki dla firm i pacjentów – uważa Jacek Chmiel.


Próby kontrolowania wszystkich źródeł danych w projektach farmaceutycznych są bardzo kosztowne. Jednak jakości danych na wcześniejszych etapach ich przetwarzania jest coraz lepsza, przede wszystkim dzięki ML. Reguły walidacji danych tworzą modele uczenia maszynowego wytrenowane na „dobrych” zbiorach danych. Te same modele pomagają też w generowaniu zadań przeglądowych dla ekspertów domeny biznesowej. Oni z kolei wspierają sztuczną inteligencję (AI) dzięki wykorzystaniu uczenia wymuszonego. Efektem tego złożonego procesu są szybsze modele oceny jakości danych, z możliwością ich lokalnego dostrajania. Niestety model jeszcze nie zawsze będzie w stanie wyjaśnić, np. dlaczego sklasyfikował dany rekord jako nie dość dobry i co można zrobić, aby go naprawić.

Zastosowania ML w branży farmaceutycznej są już dużo szersze. Mogą one obejmować identyfikację próby uczestników badań klinicznych, znalezienie nieznanych zależności pomiędzy zmiennymi i danymi, analizę serii danych z urządzeń laboratoryjnych oraz znalezienie nieodkrytych korelacji i przyczynowości. Ponadto, przewidywanie trendów w seriach danych może być wykorzystane do oceny długości życia, optymalizacji terapii oraz przewidywania skuteczności leków.

Większa otwartość branży farmaceutycznej

Widać, że powoli zmienia się podejście przemysłu farmaceutycznego do strumieniowego przesyłania danych. Podczas gdy inne sektory, takie jak bankowość czy Internet Rzeczy (IoT), wykorzystują przepływy danych za pomocą technologii strumieniowych, w branży farmaceutycznej są one stosunkowo rzadkie. Dominuje przetwarzanie wsadowe i wymiana plików. W rezultacie dane, które mogłyby być dostępne dla innej strony przetwarzającej w ciągu kilku sekund, tkwią gdzieś przez godziny lub dni, czekając na przetwarzanie wsadowe. Swoje historie sukcesu piszą już jednak firmy farmaceutyczne, które zdecydowały się na wykorzystanie platformy Apache Kafka i innych usług strumieniowego przesyłania danych w chmurze.

Metody sfederowanej analityki (FA) i sfederowanego uczenia się (FL) umożliwiają już przetwarzanie danych ponad granicami organizacji, krajów i kontynentów. Ten ruch dopiero się zaczął, ale przyspiesza i daje duże nadzieje jako przyszła strategia przetwarzania danych. Obie techniki dają możliwość wspólnego przetwarzania danych bez dostępu do surowych danych, a więc bez odczytywania jakichkolwiek informacji umożliwiających identyfikację osób. To znacznie zmniejsza ryzyko narażenia danych i pomaga w pokonywaniu przeszkód regulacyjnych, co jest szczególnie ważne w warunkach coraz surowszych przepisów Unii Europejskiej.

Mimo „genetycznego” oporu firm farmaceutycznych przed dzieleniem się danymi, to popularność zyskują rozwiązania oparte na gotowych komponentach chmury obliczeniowej. Do otwarcia magazynów danych najbardziej zachęca skrócony czas wprowadzania jakiegoś produktu na rynek. Chmura przejmuje uciążliwe wyzwania infrastrukturalne, przechowuje dane i ma gotowe, łatwo dostępne usługi.

Na potrzeby badań klinicznych coraz łatwiej jest kupić ogólnodostępne zbiory danych. Jest to możliwe mimo silnej ochrony i ograniczeń regulacyjnych. Właśnie w takich warunkach rozwija się rynek wysokiej jakość zbiorów danych (curated data).

Szacuje się, że nawet 80% użytecznych danych w farmacji i opiece zdrowotnej jest nieustrukturyzowanych, a tym samym nie przynosi korzyści ani firmom, ani pacjentom. Zaawansowane techniki i silniki przetwarzania języka naturalnego (NLP) starają się rozwiązać ten problem, wydobywając istotne dane z ogromnych oceanów danych tekstowych, wyodrębniając elementy, identyfikując ich relacje i przygotowując je do analityki danych i uczenia maszynowego (ML).

Wejście nowych specjalistów

Do lamusa odchodzi era „1.0” oparta na ręcznym i nieudokumentowanym przetwarzaniu danych. Nowa generacja procesów i ról, które reprezentują erę nauki o danych „2.0”, przypomina zautomatyzowane potoki, z podejściem „wszystko jako kod”. Coraz większa koncentracja na doskonaleniu wykorzystania danych sprawia, że DataOps, MLOps i totalna automatyzacja nabierają w farmacji rozpędu.

Przebudowie ekosystemów danych służy wyraźne zbliżenie dwóch wielkich obszarów IT: rozwoju aplikacji dla przedsiębiorstw i przetwarzania danych. Kod Pythona jest praktycznie wszędzie, DevOps jest wszędzie, a luka między wspomnianymi obszarami nigdy nie była mniejsza. Dzięki temu więcej specjalistów posiada umiejętności w zakresie nowych technik i architektur przetwarzania danych.

Przemysł farmaceutyczny z uwagą obserwuje też możliwości jakie stwarza informatyka kwantowa. Jesteśmy na długiej i wyboistej drodze do spełnienia marzenia farmacji o możliwość przeprowadzenia symulacji na poziomie molekularnym. Potencjalnie nowe leki mogłyby być „komputerowo” badane pod kątem ich wpływu na żywe komórki, wirusy i bakterie. To na razie przyszłość, ale coraz częściej podejmowane są próby uwolnienia potencjału obliczeń kwantowych i umożliwienia przeprowadzania takich symulacji na poziomie zbliżonym do atomowego, co i tak przewyższyłoby obecne możliwości informatyki cyfrowej i uczenia maszynowego (ML).

Nowe technologie i nowe metody otwierają przed farmacją nowe możliwości wydobycia z danych jeszcze większej wartości niż dotychczas. Mimo że nie jest to droga pozbawiona przeszkód, to jednak my wszyscy, także jako pacjenci, ostatecznie na tym skorzystamy – podsumowuje Jacek Chmiel.


Źródło: www.avenga.com

PRZECZYTAJ RÓWNIEŻ:


Back to top