Sztuczna inteligencja pomoże odczytywać testy skórne. Dzięki technologii SkinLogic możliwe będzie sprawniejsze przeprowadzanie alergicznych testów skórnych, a tym samym otrzymywanie bardziej wiarygodnych wyników. Nowatorskie rozwiązanie diagnostyczne opracowali naukowcy z Politechniki Warszawskiej.
Jak czytamy w komunikacie opublikowanym na stronie Politechniki Warszawskiej, z informatycznego punktu widzenia SkinLogic to system przetwarzania danych. Jego bazą jest natomiast urządzenie składające się ze statywu i dwóch kamer: wizyjnej i termowizyjnej.
Ręka pacjenta jest unieruchomiona w statywie. Maszyna wykonuje zdjęcia w świetle widzialnym i podczerwonym w ustalonych momentach, rejestrując to, co dzieje się na fragmentach skóry potraktowanych alergenami. Po otrzymaniu dokumentacji w formie cyfrowej przychodzi czas na wykorzystanie algorytmu stworzonego na PW.
W standardowej procedurze pomiar reakcji alergicznej jest ręczny i nie do końca precyzyjny. W przypadku SkinLogic to algorytm wykonuje pomiar, wykorzystując przy tym obrazy z kamer. System bada nie tylko wielkość odczynu, ale również inne parametry, takie jak kształt czy nietypowe reakcje. Na tym etapie szczególnie pomocny jest widok uzyskany przy wykorzystaniu widma dalekiej podczerwieni.
Analiza materiału cyfrowego polega na podzieleniu zdjęć na segmenty odpowiadające lokalizacji nakłuć na skórze. Każdy z tych segmentów można zbadać oddzielnie. Analiza danych w czasie pokazuje, jak zmieniał się badany fragment.
Model, na którym opiera się SkinLogic, został stworzony na podstawie 1500 obrazów skórnych reakcji alergicznych zebranych w toku badań klinicznych przeprowadzonych na 100 pacjentach. Te opracowane przez lekarzy rekordy stanowiły dane wejściowe dla systemu sztucznej inteligencji. Na ich podstawie algorytm mógł się nauczyć, jak rozpoznawać, który widok prezentuje reakcję alergiczną, a który nie.
To, co otrzymujemy dzięki zdjęciom z kamery, to obrazy 100 x 100 pikseli. Lekarz, który bada bąbel alergiczny, ma do dyspozycji jedynie widoczne gołym okiem pole powierzchni. My badamy wszystkie piksele z otrzymanych obrazów. Można więc powiedzieć, że standardowa diagnoza jest oparta na podstawie jednej wartości, a odczyn badany przez sztuczną inteligencję opiera się na milionie wartości i wykrytych kombinacjach - mówi prof. Robert Nowak, kierownik Zakładu Sztucznej Inteligencji w Politechnice Warszawskiej.