MEDIGATENEWS

1시간 느린 뉴스 1꼭지 줄인 뉴스 모두 함께 행복한 의료

MEDIGATENEWS

메뉴닫기

    제약 / 바이오

    • 뉴스구독
    • 인쇄
    • 스크랩
    • 메디게이트
    • 카카오스토리
    • 페이스북
    • 트위터
    • BAND

    구글, AI 암 진단 어디까지 왔나…병리의사 뛰어넘거나 비슷한 수준으로 '성큼'

    [칼럼] 테라젠이텍스 김태형 이사

    AACR 2018 참관기, 구글팀 인공지능 암진단 기술·증강현실 현미경 선보여

    기사입력시간 18.05.10 06:00 | 최종 업데이트 18.05.10 18:09

    사진: 미국암학회에서 Google AI Healthcare 마틴 스텀프와 제이슨 히프가 발표하고 있다.

    [메디게이트뉴스 김태형 칼럼니스트] 미국 시카고에서 지난달 4월 중순에 있었던 미국암학회(AACR 2018) 연례 미팅에 참석해 5일간 진행된 주요 세미나들을 참관했다. 이 중 가장 흥미로웠던 '구글 인공지능 헬스케어(Google AI Healthcare)'팀의 발표를 소개하고자 한다.

    미국암학회 셋째 날 첫 기조 강연으로 구글 AI팀의 마틴 스텀프(Martin C. Stumpe)와 제이슨 히프(Jason D. Hipp) 두 명의 구글 인공지능 연구자들이 나와 구글의 인공지능 기술로 암을 진단하는 내용을 소개했다.

    IT 기업인 구글이 첫 기조강연을 시작한 것은 미국암학회 110년 역사상 처음 있는 일이었으며, 이 자체로도 의미가 크다고 볼 수 있다. 사실 구글이  미국암학회에서 처음으로 발표하는 자리는 아니었다. 지난해 워싱턴 DC에서 있었던 2017년 미국암학회에서도 구글의 마크 데프리스토(Mark DePristo)가 '인공지능(AI)을 이용한 암 치료' 세션에서 발표했다.

    2017년 미국암학회 발표는 브로드 연구소(Broad institute)에서 GATK(유전자정보분석)를 개발하고 몇 년 전에 인공지능 기술을 이용해 구글의 게놈 빅데이터를 분석하는 장으로 옮긴 마크 데프리스토 박사가 직접 발표해 더욱 의미가 있었다. 이날 세미나장은 구글의 첫 인공지능 기술 세미나를 듣기 위해 일찌감치 마감됐다. 옆 세미나실에서 영상으로 세미나를 대신 진행이 될 정도로 구글의 발표는 암 연구자와 임상 의사들의 관심을 받았다.

    암 유전체와 같이 이질성(heterogeneity)이 높은 데이터에서 특정 피쳐(feature)를 뽑아내는데 있어서는 사람이 하는 것보다 딥러닝(deep learning)으로 처리하는 것이 더 좋다. 이미지를 처리하는데 있어서 사람의 에러율이 약 5% 정도 된다고 보는데, 이미 컴퓨터의 인식 에러율은 2015년 이후 사람의 이미지 인식 에러율 보다 더 낮아졌다고 한다.

    구글은 벌써 당뇨망막병증(diabetic retinopathy)을 진단하는 툴을 개발했고, 그런 구글의 데프리스토팀이 암의 이질성(heterogeneity)을 처리하는 쪽으로 접근하고 있다고 한다. 전 세계에서 가장 빠르게 이 문제를 해결하지 않을까 했는데, 올해는 실제 구글이 암 환자의 병리학 이미지 데이터를 이용해 암을 진단하는 서비스를 개발하는 전 과정을 소개한 것이다.
     
    사진: 미국암학회(AACR 2018) Google AI Healthcare 부스

    이번에 발표된 전이성 유방암 진단은 이미지 크기는 매우 큰 데 반해 아주 작은 크기로 존재하는 전이암 세포를 눈으로 찾아내기는 매우 어려웠다. 

    마틴 스텀프가 말하길 어떤 림프절 일부는 양성종양(benign tumor)임에도 불구하고 전이암처럼 보일 때도 있다고 했다. 그리고 병리과 의사가 진단해야 하는 한 환자의 한 조직 생검(biopsy)에서 나오는 이미지는 약 1000개의 DSLR 이미지로 구성돼 있다. 이 방대한 이미지 데이터를 들여다보고 최종적으로 판단을 해야 하는 어려움이 있다고 한다.

    이러한 문제를 해결하기 위해 구글 AI팀은 조직 생검(biopsy) 이미지 데이터를 수백만 개 타일로 분할해 각 타일을 양성종양 또는 전이종양으로 라벨링했다. 이를 수백만 번 반복적으로 학습한 다음 전이종양으로 분류하는 것이 가능해졌다. 이로 인해 유방암 전이를 진단하는데 AI가 병리의사 보다 더 빠르고 정확해졌다고 했다.

    연구팀이 종양 위치파악점수(Tumor localization score, FROC)를 확인한 결과 병리 의사는 평균 0.73 인데 반해 구글 AI는 0.91이 나왔다. 전립선암을 글리슨 등급(Gleason grade)을 부여해 악성 종양을 진단하는 데는 병리 의사와 비슷한 성적을 낸 것으로 나타났다.

    제이슨 힙은 "기존에는 소프트웨어 개발 시 병리 의사 개개인의 지식과 경험을 기반으로 알고리즘을 구현해 왔기 때문에 주관적인 판단이 들어가 오류가 자주 발생할 수 밖에 없었다. 이번에는 다르다"고 했다.

    앞서 지난해 구글은 사람이 특정 사물을 인식할 때 수 많은 패턴을 종합적으로 고려해 인식하는 것을 모델화한 합성곱신경망(convolutional neural networks, CNN) 모델을 사용해 1000개 이상의 패턴을 기반으로 유방암 구분하는 데 성공했다.

    이 모델은 이미 병리 의사가 판독해 놓은 공개 유방암 병리 슬라이드 데이터인 카메론16(Camelyon16)을 사용해 학습하고, 92.4%의 정확도를 만들었다. 이런 방식의 딥러닝 모델은 연산량이 많아 진단하는 데 오랜 시간이 걸리나, 하드웨어적 성능 발전이 동반되면서 실시간 수준으로 진단할 수 있게 됐다(논문출처: arXiv:1703.02442).

    실제로 구글 AI팀이 구축한 알고리즘의 유용성 평가와 개선을 위해 6명의 병리 의사들을 대상으로 이 알고리즘을 사용했을 때와 사용하지 않았을 때 그 차이를 보았다. 병리 의사가 해당 알고리즘을 사용했을 때 음성종양인 경우 11%, 전이종양인 경우 32% 정도 사용하지 않았을 때보다 시간이 감소된 것으로 나타났다. 

    구글 AI팀은 이런 기존 지식을 배제하고 데이터 기반으로 슬라이드 이미지를 딥러닝을 통해 분석을 진행해 정확도가 많이 올라가게 됐다고 밝혔다. 
     
    사진: 구글의 증강현실 현미경

    또한 병리 슬라이드 이미지들은 대부분 현장의 병리 실험실에서는 디지털이 아닌 아날로그 형태로 돼 있다. 이번에 선보인 증강현실 현미경(augmented reality microscope, ARM)은 검체 이미지들을 분석할 경우 실시간으로 각 조직 부위들을 식별해 계산 가능한 유닛으로 나눠 디지털 데이터로 저장한다. 특정 관심 부위를 표식까지 자동으로 해서 병리 의사들 간에 서로 데이터를 공유 할 수 있게 하는 플랫폼으로 설계됐다. 게다가 이 플랫폼은 모듈화가 잘 돼있어 병리과에서 사용하는 모든 종류의 현미경에 장착할 수 있는 것으로 전해졌다.

    앞으로도 구글이 가져올 미래 의학에 기대가 모아진다.
     
    저작권자© 메디게이트뉴스, 무단 전재 및 재배포 금지
    공유하기
    • 오탈자신고
    • 인쇄
    • 스크랩
    • 카카오스토리
    • 페이스북
    • 트위터
    • 구글+
    • BAND
    이미지
    메디게이트뉴스 (news@medigatenews.com)