포스텍, 2종류 초음파 결합한 유방암 진단기기 개발

서로 다른 초음파를 합쳐서 더 강력해진 유방암 진단기기가 나왔다.

포스텍(총장 김무환)은 김철홍 IT융합공학과·전자전기공학과·기계공학과 교수, IT융합공학과 미스라 삼파 씨 연구팀이 흑백의 그레이스케일 초음파와 변형 탄성(SE) 초음파 영상을 결합해 유방암 진단을 돕는 딥러닝 모델을 개발했다고 18일 밝혔다.

김철홍 교수(왼쪽)와 미스라 삼파 씨
김철홍 교수(왼쪽)와 미스라 삼파 씨

초음파 검사는 유방 조영술, 엑스레이(X-ray), 자기공명영상법(MRI) 등 다른 진단 방법에 비해 안전하고 저렴할 뿐만 아니라 조직을 깊게 관찰할 수 있다는 장점이 있다. 그중에서 유방암 진단에는 종양 구조를 선명하게 보여주는 그레이스케일 초음파와 조직의 단단한 정도를 측정하는 SE 초음파가 주로 활용된다. 연구팀은 두 개 초음파를 결합해 장점을 극대화하고자 했다.

이번 연구는 조직검사로 확인한 양성 종양 환자 42명, 악성 종양 환자 43명 등 85명의 유방암 환자를 대상으로 진행됐다. 환자 67명에게서 얻은 205개의 그레이스케일 또는 SE 초음파 영상을 결합해 두 가지 딥러닝 모델인 알렉스넷(AlexNet)과 레스넷(ResNet)을 각각 훈련했다.

초음파 영상 분야 국제 학술지 IEEE Transactions on Ultrasonics, Ferroelectrics, and Frequency Control의 1월호에 실린 김철홍 교수의 연구논문 표지 그림.
초음파 영상 분야 국제 학술지 IEEE Transactions on Ultrasonics, Ferroelectrics, and Frequency Control의 1월호에 실린 김철홍 교수의 연구논문 표지 그림.

이후 두 딥러닝 모델을 동시에 움직이도록 하고, 다른 18명의 환자에게서 얻은 56개 영상으로 성능을 검증했다. 이 딥러닝 앙상블 모델은 서로 다른 초음파 영상으로부터 다양한 특징을 포착해 악성 종양이 있는지를 찾아냈다.

연구 결과 딥러닝 앙상블 모델의 정확도는 90%로 딥러닝 단일 모델(각 84%), 그레이스케일 또는 SE 초음파 영상 하나만을 사용해 훈련한 모델(그레이스케일 77%, SE 85%)보다 우수했다. 특히 딥러닝 단일 모델은 5명의 환자를 구분해내지 못한 반면, 앙상블 모델이 구별하지 못한 환자는 2명에 불과했다.

그동안 유방암 진단 시 초음파 영상이 활용돼 왔으나 인력이 부족하거나 영상 화질이 낮다는 한계가 있었다. 이번에 개발된 딥러닝 모델을 이용하면 두 정보를 동시에 활용해 유방암의 분류 정확도를 높일 수 있다.

김철홍 교수는 “딥러닝 모델을 사용하면 초음파 영상에서 유방암을 더 정확하게 분류할 수 있어 진단 효율성을 향상시킬 수 있다”고 말했다.

포항=정재훈기자 jhoon@etnews.com