Brief #34 - okładka

Lekarze na całym świecie zaczynają polegać na algorytmach sztucznej inteligencji

Lekarze na całym świecie zaczynają polegać na algorytmach sztucznej inteligencji, aby przyspieszyć diagnozę i leczenie pacjentów.

Jednym z przykładów jest system IDx-Dr, który skanuje siatkówkę oka i w ciągu 20 sek. potrafi zdiagnozować cukrzycę. W kwietniu br. IDx-Dr został zatwierdzony przez amerykańską Agencję Żywności i Leków (FDA), jako pierwszy system diagnozujący oparty na AI. Oznacza to, że jest w stanie wykonać wstępną diagnozę bez konieczności interpretacji wyników badania przez lekarza. System może pomóc pacjentom, którzy mają ograniczony dostęp do oftalmologów, z powodu małej liczby tych specjalistów. Obecnie jedna trzecia z 285 mln chorych na cukrzycę ma objawy retinopatii cukrzycowej. Schorzenie jest uleczalne, jednak trudne do wykrycia we wczesnym stadium rozwoju, dlatego lekarze zalecają pacjentom coroczne badanie wzroku.

Sztuczna inteligencja może też pomóc w odczytywaniu skanów badań raka piersi, który jest jedną z najczęstszych przyczyn śmierci z powodu nowotworu wśród kobiet (w 2012 r. na świecie zdiagnozowano prawie 1,7 mln przypadków). AI może również usprawnić badania mammograficzne, które bywają niedokładne.

Powstało wiele projektów z użyciem AI, obecnie testowanych w laboratoriach lub warunkach klinicznych, które mają poprawić skuteczność diagnozowania raka piersi, jak również wykrywać inne rodzaje nowotworów. Np. algorytmy głębokiego uczenia wykorzystywane w komercyjnych oprogramowaniach mogą dokładnie zidentyfikować zwiększoną gęstość piersi – ważny czynnik ryzyka rozwoju raka piersi. Innym przykładem jest DeepMind Health (własność Google) – technologia oparta na modelu wczesnego wykrywania guza. Firma trenuje sztuczną inteligencję na bazie 80 tys. cyfrowych obrazów raka piersi pochodzących z Narodowego Systemu Badań Piersi w Wielkiej Brytanii.

Aby sprawdzić dokładność sztucznej inteligencji w porównaniu z ludzkimi umiejętnościami, Quartz” przeprowadził eksperyment. W ciągu dwóch godzin przy pomocy ekspertów wytrenowano dwa algorytmy, aby zrozumieć, jak ich wyniki pokrywają się z działaniem specjalisty. Algorytm na podstawie bazy danych 200 tys. skanów guzów złośliwych, łagodnych i obszarów zdrowych uczył się tego, co odróżnia wszystkie kategorie. Na niektórych zdjęciach były też widoczne zwapnione guzy, które prawdopodobnie są łagodne. W bazie nie było ich jednak na tyle dużo, by sztuczna inteligencja mogła nauczyć się je rozpoznawać. Dopiero po przeanalizowaniu większej liczby przypadków, system może nauczyć się, że pewien wzór jest istotny. Człowiek na podstawie definicji potrafi z kolei rozpoznać zwapnione guzy, bez potrzeby uczenia się ich rozpoznawania.

Eksperyment pokazał, że praca człowieka jest bardziej wydajna pod względem nauki, ponieważ wykorzystuje wcześniej nabytą wiedzę jako bazę do zdobywania kolejnych informacji, i jest w stanie szybciej ją wykorzystać. Natomiast AI sprawniej wykonuje czynności machinalne – przeanalizowanie 50 tys. skanów zajęło systemowi 20 min.

Czytaj całe wydanie