Journal List > Korean J Otorhinolaryngol-Head Neck Surg > v.67(9) > 1516088635

인공지능을 통한 두경부암 병리 이미지 분석의 최신 연구

Abstract

The rapid progress in artificial intelligence (AI) technologies has made a significant impact on medical image analysis, particularly in cancer diagnosis. The integration of AI algorithms into histopathological image analysis holds promise for enhancing precision and efficiency in cancer diagnosis. This review provides an in-depth analysis of recent developments in AI methodologies, including deep learning approaches applied to the interpretation of histopathological images specific to head and neck cancer (HNC). Furthermore, it discusses the challenges and opportunities associated with the implementation of AI in this domain, such as data variability, interpretability, and clinical integration. Through this overview of current research findings, we aim to offer valuable insights on the state-of-the-art AI technologies, their potential impact on clinical practice, and future directions for advancing the field of HNC histopathological image analysis.

서 론

두경부암은 다양한 위치에 발생하는 암종으로 그에 따른 이질성으로 인해 정확한 진단 및 치료 계획 수립에 어려움이 있다. 인공지능(artificial intelligence, AI)의 등장으로 의료 영상 분야에서 딥러닝 기술이 활발히 접목되고 있으며 이와 함께 병리 이미지 분석에서도 적용되고 있다. 기계 학습(machine learning, ML) 기반 접근 방식은 입력 데이터와 알고리즘을 기반으로 예측을 수행하는 “학습”을 의미하는 넓은 의미의 AI이며, 딥러닝(deep learning, DL)은 입력 레이어(input layer), 여러 히든 레이어(hidden layer), 출력 레이어(output layer)로 구성되어 인간의 신경망과 유사한 구조를 가지는 하위 개념이다. 이 때 DL의 히든 레이어는 입력된 이미지의 다양한 특징을 추출하고 이를 조합하여 높은 수준의 표현을 학습하여 최종적으로 이미지를 이해하고 분류하는데 중요한 역할을 한다. 따라서, 많은 연구자들은 DL 알고리즘을 병리 이미지 분석에 이용하고자 했다. Hematoxylineosin (H&E) 염색은 병리 검사에서 가장 널리 사용되는 기법으로 의학 진단에서 gold standard로 여겨진다[1,2]. Computational pathology는 기존의 병리학적 분석 방법을 컴퓨터 알고리즘 및 AI 기술과 통합하여 자동화하고, 복잡한 조직 이미지를 효과적으로 처리하며, 정량적이고 정확한 결과를 얻는 것을 의미한다[3]. 초기 연구에서는 ML을 통해 병리 이미지를 분석하였는데 곧 한계를 접하게 되었다. 병리 이미지는 해부학적 구조가 복잡하고 질병의 다양성이 존재하기 때문에 고차원적이고 복잡한 데이터에서 기계학습을 이용한 모델은 과적합(overfitting)되어 다른 독립적인 데이터셋에서는 성능이 상당히 떨어지게 된다. 이에 반해 DL을 사람의 지식이나 경험에 의거한 과정 없이 데이터로부터 자체적으로 특징을 추출하고 학습하기 때문에 인간의 눈으로 관찰하기 어려운 구조적 특징 또는 패턴을 찾아낼 수 있으며 더 나아가 H&E 이미지에서 환자의 치료 예측에 대한 바이오마커를 발굴해낼 수 있었다[4,5].
특히 암 진단의 영역에 있어서 computational pathology의 적용 범위는 초기에는 암의 인식(detection), 아형 분류, 분화도 예측, 예후 예측 등이었으나[6-10], 최근 예후 관련 바이오마커 발굴 또는 치료 이득 예측과 같은 맞춤 의학을 위한 도구로서의 가능성을 보여주고 있다[11]. 또한 AI 모델을 통해 병리 이미지에서 유전자 프로파일링을 예측하게 된다면 유전자 분석을 위한 시간적, 경제적 비용을 절약할 수 있으며 환자 치료에 대해 더 많은 정보에 입각하여 결정을 내릴 수 있다[11].
본 종설에서는 병리 조직 이미지 분석 기반의 DL 모델 구축 과정을 소개하고 AI, 특히 DL을 활용한 두경부암의 병리학 이미지 분석 연구 분야의 최근 보고들을 알아보고자 한다.

본 론

병리 이미지 분석을 위한 Deep learning 모델

전처리 및 학습데이터

병리 이미지 데이터셋의 품질은 초반의 구축 단계와 슬라이드 제작 장비에 따라 좌우된다. 디지털 병리 이미지 알고리즘 평가에 대한 지침에 따르면 AI 모델 훈련 및 테스트에 사용되는 병리 이미지 데이터셋을 만들기 위해서는 기술 및 생물학적 다양성, 훈련 세트의 특수성, 클래스 정의, 샘플링, 품질 관리 프로토콜, 재현성 등 많은 요인에 의한 변형을 고려해야 한다[12].
조직 슬라이드의 전처리 과정과 스캐너 장비의 다양성은 병리 이미지 색상의 매트릭스와 강도의 일관성을 저하시켜 훈련 데이터셋의 일반화에 영향을 주어 DL 모델의 성능 저하를 초래할 수 있다[13]. 따라서, 이에 대한 해결 방법으로 이미지의 전처리 과정에서 color normalization, color augmentation, conversion to grayscale가 적용될 수 있다[14].

분할과 단편화

병리 이미지 분석 과정에 분할(segmentation)은 이미지 내에서 세포, 핵, 조직 또는 병변과 같은 영역이나 구조를 식별해서 윤곽을 그리는 과정이다. 정확한 segmentation은 이미지 데이터에서 특징을 정량하고 모델을 통해 얻고자 하는 정보를 추출하는 데 중요한 역할을 한다. 주로 컨볼루션 신경망(convolutional neural network, CNN) 기반의 모델인 UNet 또는 Mask-Recurrent Neural Network와 같은 semantic segmentation network가 주로 사용된다[15,16]. 일반적으로 whole slide imaging (WSI)은 고해상도여서 한번에 처리하기에는 용량이 크기 때문에 이미지를 더 작고 처리하기 쉬운 패치(patch)나 타일(tile)로 분리 또는 조각내는 과정(fragmentation)을 거친다. 이것은 대형 이미지를 효율적으로 처리하고 모델이 계산적으로 실용적인 방식으로 처리할 수 있도록 한다. 즉 병렬 처리를 용이하게 하고 메모리의 제약을 피하는데 도움이 된다.

특징 추출

이렇게 준비된 병리 patch 또는 tile에서 DL 모델은 일련의 이미지 특성 또는 특징을 추출한다. 초기의 기계학습 모델에서는 관심 부분에 manual annotation을 시행 후 이러한 특징이 조직 또는 세포의 생물학적 특성을 반영할 수 있도록 하였다. 그러나 DL은 기존 ML에서의 특징 추출 단계를 우회하는 강력한 수학적 프레임워크인 인공 신경망을 가지게되었다. 이 신경망에는 해석하기에는 매우 복잡하지만 의미 있는 특징을 자동으로 찾는 알고리즘 구조가 포함된다. 특히 CNN은 병리 이미지를 포함한 모든 영역에서 이미지 분석의 기본으로 자리잡았다. 기본적으로 CNN은 컨볼루션 레이어(convolutional layer)에서 각 tile에 여러 개의 커널을 적용하여 특징 맵을 생성하고 이를 활성화 함수(activation function)와 풀링 레이어(pooling layer)를 거쳐 완전 연결 레이어(fully connected layer)를 만든다. 이 완전 연결 레이어에서 분류기(classifier)를 통해 최종 예측 값을 출력한다.
최근에는 이러한 gigapixel 사이즈의 이미지 또는 pixel 수준의 annotation된 데이터 처리에 의한 time-consuming 문제를 해결하기 위한 방법으로 weakly-supervised 방식인 multiple-instance learning (MIL) 프레임워크가 연구 개발되고 있다. MIL에서는 “bag”과 “instance”의 개념을 가지는데 하나의 슬라이드에 해당하는 “bag” 내에서는 이미지 patch 또는 tile에 해당하는 여러 개의 “instance”가 풀링(pooling)되게 된다. 이 bag에 하나 이상의 instance가 암 조직의 것이면 그 bag은 암 조직으로 레이블링되고 모든 instance가 음성인 경우 암 조직이 아닌 것으로 레이블링된다[5,17]. 특히, 이 방법은 레이블이 부족한 데이터셋에서 유용하며 객체 검출(object detection)에 적합하다.
일반적으로 병리학자는 병리 슬라이드를 판독할 때 암, 기질, 정상 조직 간의 공간적 상호 관계에 대한 인사이트(insight)를 얻을 수 있지만 전통적인 CNN 기반의 모델은 조직병리학 이미지의 문맥 정보(contextual information)를 포착하기 어렵다는 한계가 있다. 최근 보고되고 있는 그래프 기반(graph-based) 방법은 병리 이미지의 고유한 구조적 특징을 고려해 상황별 정보와 심층적인 생물학적 특징을 더 잘 포착할 수 있다[18]. 이러한 방법은 종양 분류, 세포/조직 분할 뿐만 아니라 예후 예측 등 다양한 작업에서 탁월한 성능을 입증했다[19,20].

Deep learning model을 이용한 최신 연구 결과

두경부암의 진단

Halicek 등[21]은 156명의 두경부암 환자 조직에서 생성된 381개의 WSI를 이용해서 다른 암종들 중에서 두경부암을 detection 하기 위한 inception-V4 CNN 모델을 구축하였다. 이 모델을 통해 편평세포암 테스트 데이터셋과 갑상선암 테스트 데이터셋에서 각각 0.916, 0.954의 area under the receiver operating characteristic curve (AUC)를 보고하였다. 정상과 암을 구분하는 능력은 앞선 테스트 그룹에서 0.944, 0.995의 AUC 값으로 더욱 우수한 성능을 보였다. Chuang 등[7]은 비인두암의 생검 H&E 슬라이드 이미지에서 비인두암을 진단하는 DL 모델을 보고하였다. 그 결과 patch 수준에서는 0.99, 슬라이드 수준에서는 0.94의 우수한 AUC 값을 얻었다. 또한, 경사 가중치 클래스 활성화 지도(gradient-weighted class activation mapping)를 이용하여 비인두암의 patch를 구분하는 암세포의 형태학적 특징을 입증하였다. 정상과 암을 분류할 뿐만 아니라 구강 편평상피세포의 이형성 단계를 분류하는 CNN 모델도 보고되었다. 672개의 구강 상피 조직의 이미지를 통해 정상, 경도, 중등도, 고도의 이형성을 분류하는 DL 모델을 구축하였으며 테스트 데이터셋에서 89.3%의 정확도를 보고하였다[22].

조직 분류

Folmsbee 등[23]은 구강암의 WSI에서 7가지 조직의 종류(stroma, lymphocyte, tumor, mucosa, keratin pearls, blood, background/adipose)를 분류하기 위해 능동 학습(active learning, AL)을 이용한 CNN 모델을 구축하였다. AL은 기존의 랜덤 학습(random learning)과 달리 레이블링 되어 있지 않은 샘플에 대해 훈련되고 평가하는 반복 훈련 방법으로 적은 수의 라벨링이 된 샘플을 사용하여 더 높은 정확도를 얻을 수 있어 분류기 학습의 효율성을 향상시키는 기법이다. 이를 통해 3.26% 향상된 성능을 보고하였으며 이는 향후 주석(annotation) 되어 있지 않은 대단위 데이터셋의 활용이 가능하게 되었다.

세포 인식

암침윤 림프구(tumor-infiltrating lymphocytes, TILs)는 여러 암종에서 TNM 병기처럼 예후를 예측할 수 있는 능력을 가진다고 보고되고 있다[24]. 이러한 TIL은 암에 대한 면역 반응의 하나로서 혈액에서 종양으로 이동한 T 림프구로 구성된다. 따라서 종양에 침윤되어 있는 림프구를 detection하고 TIL의 영역 또는 공간 패턴을 정량화하여 암의 예후를 예측하고자 하는 노력이 있어 왔다[25-27]. 그러나 시각적으로 TIL을 정량화하는 것은 관찰자 간 및 관찰자 내 변동성과 재현성의 부족으로 주관적이 될 가능성이 높다. 이를 극복하기 위해 CNN을 이용해서 TIL을 자동 정량화하는 AI 모델이 보고되었다. Shaban 등[28]은 구강편평세포암 조직에서 TIL의 abundance를 정량화하기 위해 WSI를 종양, 림프구, 기질(stroma) 등으로 분할한 후 림프구와 종양 영역의 겹치는 부위로 정량화하여 객관적으로 산출하였다. 이 TIL abundance 점수는 구강편평세포암 코호트에서 무병생존율(disease free survival)과 유의한 상관 관계(p=0.0006)를 보였으며 manual로 계산된 TIL 점수(p=0.0024)에 비해 높은 예후 예측 능력을 확인하였다. 또한, 저자들은 WSI에서 종양, 림프구, 기질, non-region of interest를 분류하기 위한 tissue region classifier model 로서 CNN 모델을 기반으로 하는 5가지 모델(ResNet50, DenseNet, Inception, Xception, MobileNet)의 성능을 비교하였다. 이 가운데 MobileNet의 성능이 가장 높았으며 96.31%의 정확도를 보고하였다.
Corredor 등[29]은 human papilloma virus (HPV) 연관 구인두암 환자의 위험 계측화를 위해 WSI 내 TIL을 분석하였다. 이 연구에서 각 WSI에서 생산된 타일에서 세포 detection을 위해 모든 개별 nucleus는 Mahmood 등[30]이 개발한 딥러닝 모델을 통해 자동을 분할하여 TIL 또는 non-TIL로 분류하였다. 이를 바탕으로 TIL과 non-TIL 간의 공간적 상호작용을 subgraph와 cluster를 생성하여 feature로 추출하였다. 이렇게 도출된 oropharyngeal-TIL feature는 1기 HPV 연관 구인두암 환자에서 무병 생존율을 예측하는 강력한 인자였다.

바이러스 감염 인식

인유두종 바이러스(HPV) 또는 엡스타인바 바이러스(Epstein Barr virus, EBV)는 두경부암의 잘 알려진 발암성 바이러스(oncogenic virus)이다. 이러한 바이러스 감염에 의한 암은 항암 방사선 치료에 반응이 좋고 면역항암제에 대한 효과가 높기 때문에 바이러스 감염여부는 치료 결정에 중요한 정보가 된다.
Kather 등[31]이 구축한 심층 전이학습(deep transfer learning) 모델은 환자 수준의 교차검증에서 두경부암의 WSI에서 HPV의 유무를 AUC 0.89 수준에서 예측할 수 있음을 보여주었다. 또한 동일한 작업을 EBV 유발 위암 데이터에 적용하여 AUC 0.80의 성능과 외부 검증 데이터셋에서도 근접한 결과를 보고하였다. 특히, 저자들은 신경망 모델이 바이러스 유발 암을 감지하는 데 사용한 형태학적 특징(morphological feature)을 이해할 수 있게 하기 위해 특징 시각화(featurevisualization) 방법을 사용하였다. 이러한 방법은 심층 신경망 모델에서 리버스 엔지니어링(reverse-engineering) 기법을 이용해 추론 가능하고 병리 전문의 또는 임상의가 진단을 내리는 데 중요한 형태학적 특징에 대한 정보를 제공할 수 있게끔 하였다. 이는 병리 이미지에 대한 AI 모델이 병리학자의 진단을 용이하게 하는 도구로만 사용되는 것뿐만 아니라 인간 관찰자가 조직 형태(morphology)에서 다른 관점을 통한 정보를 얻을 수 있다는 것을 보여 준 연구이다. Klein 등[32]도 구인두암 환자의 WSI에서 DenseNet 모델을 이용해 HPV 연관 구인두암의 이미지를 분류하도록 학습하였으며 AUC 0.8의 성능을 보고하였다. 또한 이를 토대로 HPV 예측 점수를 생성하였고 이 점수가 여러 코호트 데이터셋에서 유의한 예후 예측인자임을 보였다.

암의 분화도 및 아형 예측

두경부암은 Broder가 제시한 조직학적 등급에 따라 분화도를 정상, 고분화(well-differentiated), 중등도 분화(moderately differentiated), 미분화(poorly differentiated)로 분류된다[33]. 대부분의 구강암이 moderately differentiated이지만 분화도는 암의 전이 및 특성을 반영하기 때문에 예후, 생존에 밀접하게 관련되어 치료 전략 수립에 중요한 인자이다[34]. Das 등[35]은 구강암의 WSI 데이터셋을 CNN과 전이학습(transfer learning) 기법을 통해 분화도를 분류하는 모델을 구축하였다. 4개의 분화도에 대한 multi-class 분류를 수행하였을 때, ResNet-50 모델을 이용한 전이학습에서는 92.15%의 정확도를 달성했지만 CNN 모델에서는 97.5%의 정확도로 보다 우수한 성능을 보였다. 두경부암에 있어서 암면역 미세 환경(tumor immune microenvironment)은 높은 이질성(heterogeneity)을 특징으로 하며 이를 기반으로한 환자의 계층화는 환자의 치료 계획 수립 측면에서 임상적 유용성을 가지는 것으로 보고되었다[36-38]. 따라서 이러한 면역 아형의 분류에 대한 연구는 Omics 데이터를 중심으로 수행되어졌다. Yang 등[39]은 The Cancer Genome Atlas (TCGA) 기반의 면역 관련 유전자 발현 및 돌연변이 데이터를 이용하여 multi-omics 클러스터링을 통해 1) adaptive immune activation subtype, 2) innate immune subtype, 3) immune desert subtype 3개의 면역 아형으로 분류하였다. 그리고 3개의 CNN 기반의 딥러닝 모델을 이용해서 병리 이미지에서 면역 아형을 예측하는 시스템을 개발하였으며 99.31%의 정확도를 보고하였다. 또한 이미지 기반 주요 특징 생성(imagebase key feature generation) 기법을 통해 각 면역 아형을 특징 짓는 미세한(microscopic), 거시적인(macroscopic) 특징을 추출하였다(Table 1).

한계와 해결 방안

이러한 AI의 병리 이미지 분석에 있어서 다양한 적용에도 불구하고 아직 두경부암 임상 현장에서 AI 모델이 이용되는 데에는 해결해야 할 부분들이 있다. 우선 기술적인 문제로서 WSI는 병리 슬라이드에서 고해상도의 스캐너를 통해 얻게 되는 이미지이기 때문에 일반 디지털 방사선 영상에 비해 40배 이상 데이터 용량이 커지게 된다[40]. 또한 병리 조직이 큰 경우 20배율의 WSI로 스캔을 하더라도 샘플 하나당 수십 gigabyte의 저장 공간이 필요하다[41]. 또한 아직까지 고가의 병리 슬라이드 스캐너는 비용이 부담이 될 수 있다. 현재 우리 나라의 보험 체계에서는 디지털 병리 시스템에 대한 수가 보상되지 않기 때문에 이러한 저장 공간을 위한 컴퓨터 자원(computational resource) 유지와 스캐너 시스템 도입은 어려운 것이 현실이다. 따라서 이로 인해 개발된 AI 모델의 테스트 및 검증을 위한 양질의 대단위 데이터셋의 구축은 아직 초기 단계이다. 병리 이미지 데이터의 저장 용량의 문제는 DICOM과 같은 포맷으로의 변환 적용이 하나의 해결 방법이 될 수 있다. 또한, 기존에 구축된 WSI 데이터셋에서도 고르지 못한 색감이나 조명, 해상도나 초점의 문제 등이 발생할 수 있다. 이는 WSI를 만드는 과정이 조직의 수집 및 전처리, 슬라이드 제작, 스캔 작업 등 여러 단계로 이루어져 있기 때문이다. 다양한 코호트에서 만들어진 데이터셋일수록 이러한 문제가 발생한 가능성이 높다. 저자가 검토한 바로도 TCGA의 두경부암 WSI 데이터셋에도 이러한 artifact가 존재하는 이미지들이 포함되어 있다. 이러한 문제를 해결하기 위해 앞서 서술한 이미지 전처리의 표준화(standardization)와 증강(augmentation) 기법이 소개되고 있다[42]. 딥러닝 기반 병리 이미지를 통한 예측 모델의 해석 가능성에 대해서는 아직까지 논란이 있다. 일반적으로 전통적인 CNN 모델은 출력 계산에 대한 이해가 불가능해 “블랙박스”로 간주된다[43]. 이로 인해 임상 현장에서는 AI 기반의 병리 이미지 분석 모델의 투명도(transparency)와 해석가능성(interpretability)이 반드시 해결해야 하는 부분이다. 따라서, 최근 설명 가능한 AI 모델(explainable AI)이나 Grad-CAM와 같은 시각화 도구(visualization tool)들이 보고된 바 있다[44,45].
최근 암병리 이미지에 대한 DL의 적용은 단순한 암의 진단 또는 detection의 수준을 넘어서 분자 수준의 상태(molecular statue)의 판단, 암미세환경에 대한 평가를 통한 치료 반응의 예측을 하는 모델 개발이 활발히 이루어지고 있다. 그러나 본 고찰에서 두경부암 병리 이미지에서의 AI 적용 문헌을 검색해 본 결과 아직 두경부암에서는 다른 암종에 비해 연구가 미비한 상태이다. 이는 두경부의 이질성, HPV status 이외의 바이오마커의 부재, 데이터셋의 부족에 기인한다고 생각한다. 특히, 아직까지 주석이 달린 대단위 두경부암 병리 이미지 데이터셋이 부족하다는 것이 가장 큰 과제이다. 효과적인 AI 모델을 구축하는 데 있어서 필수적인 요소가 훈련을 위한 신뢰할 수 있는 레이블로 된 대규모 데이터셋의 가용성이지만 두경부암에서는 TCGA, Clinical Proteomic Tumor Analysis Consortium 등의 일부 데이터셋 외에 open source의 데이터셋이 없기 때문에 외부 집단에서의 평가가 어렵다. 향후 두경부암 병리 이미지에 대한 AI 연구가 활발하게 진행될 것을 기대한다.

결 론

본 종설에서는 DL 기반의 두경부암의 병리 이미지 분석 연구를 살펴보았다. 이미지 처리 DL 기술의 발달로 두경부암 영역에서는 암 조직 또는 세포의 detection 뿐만 아니라 TIL의 detection을 통한 예후 예측, HPV 등의 바이러스 감염 예측, 면역 아형의 분류 등이 가능해지고 있다. 그러나 이러한 발달에도 불구하고 병리 이미지 데이터의 변동성, 해석에 대한 가변성, 모델의 투명성 및 임상 현장에서의 해석 가능성을 가진 알고리즘 개발은 극복해야 할 과제이다. 향후 AI 기술의 발달은 디지털 병리를 통한 진단능력을 향상시킬 뿐만 아니라 두경부암의 메커니즘에 대한 이해를 높이고 새로운 예후 인자를 발견할 수 있는 강력한 도구라 될 것이다. 그리고 유전체학, 영상의학과의 통합을 통해 두경부암의 맞춤 치료 플랫폼 구축에 기여할 것으로 기대한다.

ACKNOWLEDGMENTS

This work was supported by the National Research Foundation of Korea (NRF) grant funded by the Korean government (MSIT) (RS-2023-00241230).

REFERENCES

1. Fox H. Is H&E morphology coming to an end? J Clin Pathol. 2000; 53(1):38–40.
2. Chan JK. The wonderful colors of the hematoxylin-eosin stain in diagnostic surgical pathology. Int J Surg Pathol. 2014; 22(1):12–32.
3. Bera K, Schalper KA, Rimm DL, Velcheti V, Madabhushi A. Artificial intelligence in digital pathology—new tools for diagnosis and precision oncology. Nat Rev Clin Oncol. 2019; 16(11):703–15.
4. Rivenson Y, Wang H, Wei Z, de Haan K, Zhang Y, Wu Y, et al. Virtual histological staining of unlabelled tissue-autofluorescence images via deep learning. Nat Biomed Eng. 2019; 3(6):466–77.
5. Campanella G, Hanna MG, Geneslaw L, Miraflor A, Werneck Krauss Silva V, Busam KJ, et al. Clinical-grade computational pathology using weakly supervised deep learning on whole slide images. Nat Med. 2019; 25(8):1301–9.
6. Chen PC, Gadepalli K, MacDonald R, Liu Y, Kadowaki S, Nagpal K, et al. An augmented reality microscope with real-time artificial intelligence integration for cancer diagnosis. Nat Med. 2019; 25(9):1453–7.
7. Chuang WY, Chang SH, Yu WH, Yang CK, Yeh CJ, Ueng SH, et al. Successful identification of nasopharyngeal carcinoma in nasopharyngeal biopsies using deep learning. Cancers (Basel). 2020; 12(2):507.
8. Sirinukunwattana K, Domingo E, Richman SD, Redmond KL, Blake A, Verrill C, et al. Image-based consensus molecular subtype (imCMS) classification of colorectal cancer using deep learning. Gut. 2021; 70(3):544–54.
9. Bulten W, Pinckaers H, van Boven H, Vink R, de Bel T, van Ginneken B, et al. Automated deep-learning system for Gleason grading of prostate cancer using biopsies: a diagnostic study. Lancet Oncol. 2020; 21(2):233–41.
10. Kulkarni PM, Robinson EJ, Sarin Pradhan J, Gartrell-Corrado RD, Rohr BR, Trager MH, et al. Deep learning based on standard H&E images of primary melanoma tumors identifies patients at risk for visceral recurrence and death. Clin Cancer Res. 2020; 26(5):1126–34.
11. Wen Z, Wang S, Yang DM, Xie Y, Chen M, Bishop J, et al. Deep learning in digital pathology for personalized treatment plans of cancer patients. Semin Diagn Pathol. 2023; 40(2):109–19.
12. Marée R. The need for careful data collection for pattern recognition in digital pathology. J Pathol Inform. 2017; 8(1):19.
13. Somaratne UV, Wong KW, Parry J, Sohel F, Wang X, Laga H. Improving follicular lymphoma identification using the class of interest for transfer learning. Proceedings of the 2019 Digital Image Computing: Techniques and Applications (DICTA); 2019 Dec 2-4; Perth, WA, Australia: IEEE;2019. p.1-7.
14. Komura D, Ishikawa S. Machine lear ning methods for histopathological image analysis. Comput Struct Biotechnol J. 2018; 16:34–42.
15. He K, Gkioxari G, Dollar P, Girshick R. Mask R-CNN. IEEE Trans Pattern Anal Mach Intell. 2020; 42(2):386–97.
16. Ronneberger O, Fischer P, Brox T. U-Net: convolutional networks for biomedical image segmentation. In: Navab N, Hornegger J, Wells W, Frangi A, editors. Medical image computing and computer-assisted intervention – MICCAI 2015. Lecture notes in computer science (vol 9351). Cham: Springer;2015. p.234-41.
17. Oner MU, Chen J, Revkov E, James A, Heng SY, Kaya AN, et al. Obtaining spatially resolved tumor purity maps using deep multiple instance learning in a pan-cancer study. Patterns (N Y). 2022; 3(2):100399.
18. Meng X, Zou T. Clinical applications of graph neural networks in computational histopathology: a review. Comput Biol Med. 2023; 164:107201.
19. Lee Y, Park JH, Oh S, Shin K, Sun J, Jung M, et al. Derivation of prognostic contextual histopathological features from whole-slide images of tumours via graph deep learning. Nat Biomed Eng. In press 2022.
20. Bai Y, Mi Y, Su Y, Zhang B, Zhang Z, Wu J, et al. A scalable graph-based framework for multi-organ histology image classification. IEEE J Biomed Health Inform. 2022; 26(11):5506–17.
21. Halicek M, Shahedi M, Little JV, Chen AY, Myers LL, Sumer BD, et al. Head and neck cancer detection in digitized whole-slide histology using convolutional neural networks. Sci Rep. 2019; 9(1):14043.
22. Gupta RK, Kaur M, Manhas J. Tissue level based deep learning framework for early detection of dysplasia in oral squamous epithelium. J Multimed Inf Syst. 2019; 6(2):81–6.
23. Folmsbee J, Liu X, Brandwein-Weber M, Doyle S. Active deep learning: Improved training efficiency of convolutional neural networks for tissue classification in oral cavity cancer. In: 2018 IEEE 15th international symposium on biomedical imaging (ISBI 2018). IEEE;2018. p.770-3.
24. Kurokawa H, Zhang M, Matsumoto S, Yamashita Y, Tomoyose T, Tanaka T, et al. The high prognostic value of the histologic grade at the deep invasive front of tongue squamous cell carcinoma. J Oral Pathol Med. 2005; 34(6):329–33.
25. Peled M, Onn A, Herbst RS. Tumor-infiltrating lymphocytes— location for prognostic evaluation. Clin Cancer Res. 2019; 25(5):1449–51.
26. Zhou C, Wu Y, Jiang L, Li Z, Diao P, Wang D, et al. Density and location of CD3+ and CD8+ tumor-infiltrating lymphocytes correlate with prognosis of oral squamous cell carcinoma. J Oral Pathol Med. 2018; 47(4):359–67.
27. Catacchio I, Silvestris N, Scarpi E, Schirosi L, Scattone A, Mangia A. Intratumoral, rather than stromal, CD8+ T cells could be a potential negative prognostic marker in invasive breast cancer patients. Transl Oncol. 2019; 12(3):585–95.
crossref
28. Shaban M, Khurram SA, Fraz MM, Alsubaie N, Masood I, Mushtaq S, et al. A novel digital score for abundance of tumour infiltrating lymphocytes predicts disease free survival in oral squamous cell carcinoma. Sci Rep. 2019; 9(1):13341.
29. Corredor G, Toro P, Koyuncu C, Lu C, Buzzy C, Bera K, et al. An imaging biomarker of tumor-infiltrating lymphocytes to risk-stratify patients with HPV-associated oropharyngeal cancer. J Natl Cancer Inst. 2022; 114(4):609–17.
30. Mahmood F, Borders D, Chen RJ, Mckay GN, Salimian KJ, Baras A, et al. Deep adversarial training for multi-organ nuclei segmentation in histopathology images. IEEE Trans Med Imaging. 2020; 39(11):3257–67.
31. Kather JN, Schulte J, Grabsch HI, Loeffler C, Muti H, Dolezal J, et al. Deep learning detects virus presence in cancer histology. BioRxiv 690206 [Preprint]. 2019; [cited 2023 Dec 1]. Available from: URL: https://doi.org/10.1101/690206.
32. Klein S, Quaas A, Quantius J, Löser H, Meinel J, Peifer M, et al. Deep learning predicts HPV association in oropharyngeal squamous cell carcinomas and identifies patients with a favorable prognosis using regular H&E stains. Clin Cancer Res. 2021; 27(4):1131–8.
33. Doshi NP, Shah SA, Patel KB, Jhabuawala MF. Histological grading of oral cancer: a comparison of different systems and their relation to lymph node metastasis. Nat J Community Med. 2011; 2(1):136–42.
34. Fortin A, Couture C, Doucet R, Albert M, Allard J, Tetu B. Does histologic grade have a role in the management of head and neck cancers? J Clin Oncol. 2001; 19(21):4107–16.
35. Das N, Hussain E, Mahanta LB. Automated classification of cells into multiple classes in epithelial tissue of oral squamous cell carcinoma using transfer learning and convolutional neural network. Neural Netw. 2020; 128:47–60.
crossref
36. Chen YP, Wang YQ, Lv JW, Li YQ, Chua MLK, Le QT, et al. Identification and validation of novel microenvironment-based immune molecular subgroups of head and neck squamous cell carcinoma: implications for immunotherapy. Ann Oncol. 2019; 30(1):68–75.
37. Chen Y, Li ZY, Zhou GQ, Sun Y. An immune-related gene prognostic index for head and neck squamous cell carcinoma. Clin Cancer Res. 2021; 27(1):330–41.
38. Moskovitz J, Moy J, Ferris RL. Immunotherapy for head and neck squamous cell carcinoma. Curr Oncol Rep. 2018; 20(2):22.
crossref
39. Yang D, Wu Y, Wan Z, Xu Z, Li W, Yuan P, et al. HISMD: a novel immune subtyping system for HNSCC. J Dent Res. 2023; 102(3):270–9.
crossref
40. Lujan G, Quigley JC, Hartman D, Parwani A, Roehmholdt B, Meter BV, et al. Dissecting the business case for adoption and implementation of digital pathology: a white paper from the digital pathology association. J Pathol Inform. 2021; 12(1):17.
41. Ashman K, Zhuge H, Shanley E, Fox S, Halat S, Sholl A, et al. Whole slide image data utilization informed by digital diagnosis patterns. J Pathol Inform. 2022; 13:100113.
42. Brieu N, Gavriel CG, Harrison DJ, Caie PD, Schmidt G. Context-based interpolation of coarse deep learning prediction maps for the segmentation of fine structures in immunofluorescence images [online]. [cited 2023 Dec 1]. Available from: URL: https://doi.org/10.1117/12.2292794.
crossref
43. Madabhushi A, Lee G. Image analysis and machine learning in digital pathology: challenges and opportunities. Med Image Anal. 2016; 33:170–5.
crossref
44. Tosun AB, Pullara F, Becich MJ, Taylor DL, Fine JL, Chennubhotla SC. Explainable AI (xAI) for anatomic pathology. Adv Anat Pathol. 2020; 27(4):241–50.
crossref
45. Rudin C. Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nat Mach Intell. 2019; 1(5):206–15.
crossref

Table 1.
Summary of studies using artificial intelligence in the head and neck cancer histopathological image analysis
Author Year Cancer subtype Algorithms Objectives Performance
Folmsbee, et al. [23] 2018 OSCC Fully convolutional CNN Cell type classification 3.26% greater performance than random learning
Shaban, et al. [28] 2019 OSCC MobileNet Detecting tumor-infiltrating lymphocyte abundance for prognostic purpose Accuracy 96.31%
ResNet
Halicek, et al. [21] 2019 OSCC Inception V4 Tissue classification AUC 0.916 (SCC test) 0.954 (thyroid cancer test)
Gupta, et al. [22] 2019 OSCC Self-proposed CNN Cell type classification Accuracy 89.3%
Das, et al. [35] 2020 OSCC AlexNet Classification based on pathological grading Accuracy 97.5%
VGG-16
VGG-19
ResNet-50
Self-proposed CNN
Kather, et al. [31] 2019 HNSCC VGG-19 Identification of virus drived cancer AUC 0.89 (HPV)
Klein, et al. [32] 2021 OPSCC DesneNet (classification) Detection of HPV associated OPSCC AUC 0.80 (EBV)
U-Net (segmentation) Identification of NPC AUC 0.80
Chuang, et al. [7] 2020 NPC ResNeXt AUC 0.99 (patch level)
AUC 0.9848 (slide level)
Corredor, et al. [29] 2022 OPSCC GAN (generative adversarial network) Discovery of biomarker that characterizes the spatial interplay between TILs and surrounding cells HR 2.56
Yang, et al. [39] 2023 HNSCC EfficientNet Immune subtype prediction Accuracy 99.31%
ShuffleNet-V2
ResNet-34

CNN, convolutional neural network; OSCC, oral squamous cell carcinoma; OPSCC, oropharyngeal squamous cell carcinoma; HNSCC, head and neck squamous cell carcinoma; NPC, nasopharyngeal cancer; HPV, human papilloma virus; AUC, area under the receiver operating characteristic curve; TIL, tumor-infiltrating lymphocyte; EBV, Epstein Barr virus; HR, hazard ratio

TOOLS
Similar articles