Medyczna sztuczna inteligencja czasem widzi za dużo
Wystarczy niewielkie zakłócenie, by interpretująca obrazy sztuczna inteligencja rozpoznała nowotwór tam, gdzie go nie ma – informuje „Science”.
Rozwój zdolnej do rozpoznawania i interpretacji obrazów sztucznej inteligencji niesie z sobą obietnice przyspieszenia i udoskonalenia diagnostyki medycznej. Programy komputerowe mogłyby wspomóc, a może nawet zastąpić żmudną pracę radiologów, patomorfologów czy dermatologów. Pojawiają się jednak badania wskazujące na słabości sztucznej inteligencji, która potrafi uznać niewinną zmianę za poważną patologię.
Sam Finlayson z Harvard Medical School oraz jego trzej współpracownicy wprowadzili w błąd trzy algorytmy sztucznej inteligencji, zaprojektowane do skanowania obrazów medycznych. Wystarczyło zmienić kilka pikseli, by obrazy te zostały błędnie sklasyfikowane.
W jednym z przykładów zespół nieznacznie zmienił obraz znamienia na skórze, które wcześniej zostało sklasyfikowane jako niezłośliwe z 99-procentową pewnością. Następnie sztuczna inteligencja sklasyfikowała zmieniony obraz jako złośliwy ze 100-procentową pewnością – mimo, że dla ludzkiego oka oba obrazy są nie do odróżnienia.
Pozostałe dwa algorytmy AI służyły do wykrywania uszkodzeń siatkówki oka spowodowanych cukrzycą i oraz wykrywaniu odmy na zdjęciu rentgenowskim klatki piersiowej.
Obrócone obrazy także mogą być mylące dla sztucznej inteligencji - a takie niedoskonałości często występują w codziennej praktyce klinicznej. Choć ryzyko błędu jest niskie, przy powszechnym stosowaniu AI mogłoby dochodzić do wielu błędnych rozpoznań. Także bliskoznaczne słowa zastosowane do opisu stanu pacjenta mogą być dla sztucznej inteligencji mylące.
Sytuacja może również zachęcać do umyślnego wykonywania mylących zdjęć. Jeśli dermatolodzy otrzymają zwrot kosztów usunięcie znamienia od towarzystwa ubezpieczeniowego, ponieważ sztuczna inteligencja uznała je za zmianę złośliwą, pojawi się pokusa „modyfikacji” przypadków granicznych – by dostać pieniądze za większą liczbę procedur.
Ponieważ nie zawsze jest jasne, jakie czynniki wykorzystuje AI do podejmowania decyzji, w codziennym użytkowaniu mogą pojawiać się problemy, które nie występowały w warunkach laboratoryjnych. Pewien algorytm AI, mający wykrywać złamania szyjki kości udowej, nauczył się kojarzyć złamanie z zawansowanym wiekiem pacjenta i rodzajem urządzenia obrazującego, zamiast analizować sam obraz w poszukiwaniu złamania.
Jak zaznacza Finlayson, modyfikacje, które uodparniają AI na błędy, zmniejszają zarazem dokładność rozpoznania.
Źródło: pap.pl
Najdokładniejsze systemy satelitarnego transferu czasu
Nie zawsze zegar atomowy działa lepiej niż kwarcowy.
Ponad połowa chorych z SARS-CoV2 cierpi na długi covid
Przez długi czas może mieć takie objawy jak zmęczenie.
Uniwersytet Warszawski będzie kształcić kadry dla energetyki jądrowej
Przekazał Wydział Fizyki UW.
Recenzje