• KCI(Korea Citation Index)
  • DOI(CrossRef)
  • DOI(CrossCheck)

Journal of Broadcast Engineering

ISSN : 1226-7953 (Print) / 2287-9137 (Online)

  • KCI(Korea Citation Index)
  • DOI(CrossRef)
  • DOI(CrossCheck)

ISSN : 1226-7953 (Print) / 2287-9137 (Online)

Current Issue

JOURNAL OF BROADCAST ENGINEERING - Vol. 29 , No. 3

[ Special Paper ]
JOURNAL OF BROADCAST ENGINEERING - Vol. 29, No. 3, pp. 306-311
Abbreviation: JBE
ISSN: 1226-7953 (Print) 2287-9137 (Online)
Print publication date 31 May 2024
Received 15 May 2024 Revised 17 May 2024 Accepted 17 May 2024
DOI: https://doi.org/10.5909/JBE.2024.29.3.306

병리 영상 핵분할 성능 향상을 위한 생성적 적대 신경망과 데이터 증강 기법의 효과 분석
루이보a) ; 정승원a),
a)고려대학교 전기전자공학부

Analysis of the Effectiveness of Generative Adversarial Networks and Data Augmentation Techniques for Enhancing Nuclei Segmentation Performance in Pathological Images
Ruibo Duana) ; Seung-Won Junga),
a)Department of Electrical Engineering, Korea University
Correspondence to : 정승원(Seung-Won Jung) E-mail: swjung83@korea.ac.kr Tel: +82-2-3290-3230


Copyright © 2024 Korean Institute of Broadcast and Media Engineers. All rights reserved.
“This is an Open-Access article distributed under the terms of the Creative Commons BY-NC-ND (http://creativecommons.org/licenses/by-nc-nd/3.0) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited and not altered.”

초록

병리 이미지는 의료 이미징 분야에서 흔히 볼 수 있는 이미지 중 하나로, 최근에는 딥러닝 기술의 다양한 모델들이 나타나면서 세포 분할을 비롯한 기술을 병리 이미지 분야에 적용하기 시작했다. 최근 몇 년간 세포 분할 분야의 모델이 대량 생성되었고 이러한 모델은 좋은 성능을 달성했다. 세포 분할을 진행하는 동안 병리 이미지 데이터집의 희소성으로 인해 해당 분야의 이미지 데이터는 매우 희박하다. 이와 같은 데이터에 대한 세포 분할을 진행할 때 성능 향상을 위한 데이터 증강도 매우 중요하다.  본 연구에서는 mask2image 모델로 생성(fake) 이미지를 생성한 후, 해당 생성 이미지로 image2mask 모델을 훈련시켰다. 다양한 데이터 증강 기술을 적용하여 생성된 세포 이미지를 추가적으로 사용하여 훈련한 image2mask 모델의 성능을 제시하는 동시에 다양한 데이터 증강이 실제 세포 이미지 분할 성능에 어떠한 효과가 있는지를 분석하였다.

Abstract

Pathological images constitute a significant category within medical imaging. With the advent of deep learning techniques, particularly models for nuclei segmentation, the application scope of these methods has expanded to encompass pathological images. Numerous highly effective nuclei segmentation models have emerged. However, the scarcity of pathological image datasets poses a challenge. Addressing this, data augmentation becomes pivotal to bolster the performance of nuclei segmentation within such datasets. This study employs a mask2image model to generate synthetic images, subsequently utilized to train an image2mask model. Incorporating diverse data augmentation techniques, we evaluate the efficacy of synthetic images and analyze the impact of various augmentation methods on segmentation performance.


Keywords: Nuclei segmentation, Data augmentation, Image generation

Ⅰ. 서 론

최근 몇 년 동안 딥러닝 기술은 의학 이미지 분석 분야에서 뛰어난 발전을 이루었고 특히 병리 세포 이미지의 분할 및 식별에서 상당한 발전을 이루었다. 주석이 정확하고 고품질의 의학 이미지 데이터 희소성으로 인해 모델의 훈련 및 최적화는 여전히 큰 도전에 직면하고 있다. 이와 같은 문제를 해결하기 위해 본 연구는 SCGAN[2](Semantic-Composition Generative Adversarial Networks) 모델과 HoverNet[4] 세포 분할 모델을 결합한 새로운 프레임을 제안하여, 생성적 적대 신경망에서 생성된 합성 이미지 증강 훈련 데이터집을 통해 세포 분할 모델의 성능을 향상시켰다. 본 연구에서는 생성 모델과 데이터 강화 기술을 통한 세포 분할 모델의 성능 향상을 목표로 한다. 해당 프레임은 고품질의 디테일이 풍부한 합성 의학 이미지를 대량으로 생성하여 데이터의 양을 증가시키고 데이터의 다양성을 개선하였다. 따라서 모델이 실제 병리 세포 이미지를 식별하고 분할하는 임무를 더욱 잘 학습하고 일반화하는데 도움이 된다. 해당 방법의 핵심은 SCGAN[2]에 있으며, SCGAN[2]은 이미 보유하고 있는 소량의 주석 데이터를 기반으로 고도의 사실적인 이미지를 생성할 수 있다. HoverNet[4]은 정밀한 세포 분할을 진행할 수 있다. 양자의 결합은 데이터의 희소성 문제를 해결하고 분할 모델이 현실 세계 속의 복잡한 병리 이미지를 처리할 때의 정확성과 강건성을 향상시킨다.

본 연구의 프레임은 우선 소량의 정확하게 표기되어 있는 병리 세포 이미지를 통해 SCGAN[2] 모델을 훈련시켜 해당 이미지의 분포를 학습하고 모방하게 한다. SCGAN[2] 훈련이 완료될 경우, 대량의 고품질 합성 병리 세포 이미지를 생성한다. 이와 같은 합성 이미지는 시각적으로 실제 이미지와 구분이 어려울 뿐만 아니라 훈련에 사용되는 핵심 정보를 보유한다. 예를 들면 세포의 모양, 크기, 상호간의 공간적 관계 등을 보유하며, 이는 HoverNet[4] 모델을 훈련하는데 매우 중요하다. 다음 본 연구에서는 합성 이미지와 실제 이미지를 훈련 데이터로 사용하여 HoverNet[4] 모델의 세포 분할 임무 훈련을 진행한다.

본 연구는 SCGAN[2]과 HoverNet[4]을 결합하는 효과적인 방법으로 훈련 데이터가 부족한 문제를 해결하고 세포 분할 모델의 성능을 크게 향상시켰다. 이는 병리 진단의 정확성과 효율성 향상에 중요한 의의가 있다. 본 연구의 연구 결과에 따르면 해당 프레임은 여러 병리 세포 이미지 데이터에서 모두 선행 기술보다 뛰어난 성능을 보여주고, 의학 이미지 분석에서 딥러닝의 효과성을 보여준다.


Ⅱ. 방 법
1. GAN 기반 데이터 증강 방식

우선, Lizard[3] 데이터셋을 이용하여 SCGAN[2] 모델로 병리 세포의 mask(그림 이진화 마스크, 세포의 위치 및 모양 표기)를 상응한 병리 세포 이미지로 전환한다. SCGAN[2] 모델의 장점은 세포 이미지의 의미 정보를 이해하고 시뮬레이션할 수 있는 것으로, 생성된 이미지는 시각적으로 실제 이미지와 구분하기 어렵다. 해당 절차는 모델 훈련에 대량의 풍부하고 다양한 이미지 데이터를 제공하여 모델이 세포의 특징 학습을 더욱 잘할 수 있도록 도움을 준다.

다음 본 연구에서는 생성된 병리 세포 이미지에 대해 회전, 비틀림 등을 비롯한 데이터 강화 처리 작업을 진행하여 실제 적용 시 나타날 수 있는 다양한 변화 및 상황을 시뮬레이션한다. 이와 같은 데이터 증강 기술은 모델의 일반화 학습 능력 향상 뿐만 아니라, 훈련 데이터의 다양성을 확장시키고, 모델 훈련을 위한 더욱 풍부한 환경을 만들어준다. 이러한 작업은 설비 차이, 조명 조건의 변화, 촬영 각도의 차이 등을 비롯한 실제 현실 세계에서 나타날 수 있는 상황과 변화를 시뮬레이션한 것으로, 모델을 실제 적용할 때의 강건성과 일반화 학습 능력을 향상시킨다. 이러한 방식을 통해 훈련 데이터집의 규모와 다양성을 한층 더 확대하고, 모델이 세포 이미지 속에서 미세한 변화를 식별하고 적응하는 능력을 향상시킨다. 이는 병리 세포의 식별 및 분할의 정확성 향상에 매우 중요하다.

본 연구에서는 lizard 병리 이미지 데이터셋[3]을 사용하였다. 이번 실험에서는 NVIDIA GEFORCE RTX 2080 Ti 그래픽 카드 2장을 사용하여 훈련하였다.


Fig. 1. 
Experiment Architecture

본 연구는 세포 간의 중첩, 세포가 다양한 단계에서의 형태적 변화, 세포가 서로 다른 염색 조건 속에서의 외관적 차이 등 의학 이미지 시뮬레이션에서 흔히 볼 수 있는 특수 상황에 주의를 기울였다. 이러한 상황은 실제 병리 이미지 분석에서 흔히 보이는 상황으로, 모델의 식별 및 분할 학습에 있어 매우 어려운 문제를 야기한다. 데이터 강화 과정에서 이와 같은 복잡한 요소 추가하여 시뮬레이션 할 경우, 본 연구의 모델은 복잡한 상황을 더욱 잘 적응하고 처리하여 실제 적용 시의 성능 및 정확성을 향상시킬 수 있다. 전반적인 데이터 준비 과정에서 본 연구는 자동화 이미지 품질 평가 및 선택 메커니즘, 기계 학습을 기반으로 한 자동 표기 기술 등 다양한 고급 기술을 통해 데이터 품질과 처리 효율성을 보장하였다. 해당 기술을 적용한 것은 훈련 데이터집의 품질 뿐만 아니라, 데이터 준비 단계의 효율성도 향상시켜 모델 훈련에 드는 시간 및 자원을 절약하였다. 종합적인 전략을 통해 본 연구는 훈련 데이터 양이 부족하고 다양성이 부족한 문제를 성공적으로 해결하고, 모델이 복잡한 병리 세포 이미지를 식별하고 분할하는 능력을 향상시켰다. 이는 딥러닝 기술을 사용하여 효율적이고 정확하게 병리 이미지를 분석할 수 있다는 새로운 가능성을 제시하고, 병리 진단의 효율성과 정확성에 중요한 의의가 있다.


Fig. 2. 
Image generated by SCGAN using mask

2. 영상처리 기반 데이터 증강 방식

이미지 데이터 증강은 원본 이미지에 후속의 변환을 적용하여 인위적으로 훈련데이터집의 다양성을 증가시키는 기술이다. 이러한 변환에는 회전, 뒤집기, 축소 및 확대, 절단, 색채 조정(밝기, 대비도, 채도 조정), 잡음 추가 등이 포함된다. 세포 분할 모델 훈련에서 데이터 증강은 데이터 양을 증가시킬 뿐만 아니라, 모델이 이미지 변화 상황에서 적응하는 능력을 향상시키고, 따라서 모델의 일반화 및 강건성을 증강시킨다. 생물 의학 이미지 분석, 특히 세포 분할 분야에서 데이터 강화 기술은 중요한 역할을 하고 있다. 세포 분할의 주요 목적은 이미지 속에서 단일 세포를 정확하게 식별하고 격리하는 것이며, 이는 세포의 생물학 행위 및 질병의 진단과 치료를 이해하는데 중요한 의의가 있다. 이미지 형성 조건의 다양성, 세포 형태의 변이성, 이미지 품질의 불일치성 등으로 인해 원본 이미지 데이터집 훈련으로 획득한 모델은 높은 정확도와 일반화 효과를 달성하기 어렵다. 이때 이미지 데이터 증강은 데이터 품질과 수량을 향상하는 기술로 사용되어 모델의 성능을 향상시킬 수 있다. 세포 이미지는 서로 다른 이미징 조건, 서로 다른 유형의 세포, 세포 간의 상호작용 등을 비롯한 고유적인 특성이 있으며, 이러한 요소는 세포 분할 모델이 고도의 유연성과 적응성을 보유하는 것을 요구한다. 데이터 증강을 통해 이러한 조건에서의 이미지 변화를 시뮬레이션 할 수 있으며 학습된 모델을 비학습 데이터에 실제 적용할 때 세포 분할을 더욱 정확하게 수행할 수 있도록 한다.

회전 및 뒤집기는 가장 일반적인 데이터 증강 방법으로, 이러한 작업을 통해 모델은 세포가 서로 다른 방향에서의 표현 형태를 학습하여 모델의 회전 불변성을 증강시킨다. 축소와 절단은 모델이 다양한 크기와 비율의 세포에 적응할 수 있도록 하며, 특히 절단은 모델이 강제적으로 이미지의 국부적 특정에 초점을 맞추도록 하는데 이는 대규모의 세포 이미지를 처리할 때 매우 중요하다. 색채 조정은 이미지의 밝기, 대비, 채도 등을 변경하여 모델이 빛의 변화와 색채차이에 대한 적응 능력을 증가시킨다.

세포 분할 모델의 훈련 과정에서 이미지 데이터 증강 전략을 합리적으로 설계하고 적용하는 것은 모델 성능을 향상시키는데 매우 중요하다. 데이터 증강을 통해 데이터집을 효과적으로 확장시키고, 모델의 일반화 학습 능력을 증가시키며, 실제 적용 시 더욱 높은 정확도와 강건성을 달성할 수 있다. 데이터 증강 전략의 선택은 구체적인 적용 환경 및 목표에 따라 디테일한 조정이 필요하며, 그 이유는 증강 후의 데이터가 불필요한 변화 도입으로 인한 모델의 학습 효율성에 영향을 주지 않고, 모델의 성능을 효과적으로 향상해야 하기 때문이다.


Fig. 3. 
Sample image of affine transformation, noise injection, color augmentation transformation

AT: Affine Transformation NI: Noise Injection CA: Color Augmentation AUG: Augmented Image GT: Ground Truth



3. 세포핵 분할 모델

HoverNet[4]는 세포 분할 모델의 일종으로 의학 이미지 분석에서의 세포 분할과 유형 식별 임무에 사용되기 위해 전문적으로 설계된 것이다. 해당 모델은 ResNet[1] 블록이 포함되어 있는 컨볼루션 신경망(CNN) 아키텍처를 이용하여 세포 구조와 형태를 정확하게 해석하고 복잡하게 중첩된 세포 이미지를 정확하게 분할하는 것을 가능하게 하였다. HoverNet[4]의 핵심 특징은 세포의 분할과 분류 임무를 동시에 처리할 수 있다는 것이다. 데이터 강화 처리를 거친 이미지는 HoverNet[4] 세포 분할 모델 훈련에 사용된다. HoverNet[4]는 첨단 세포 분할 네트워크로 Horizontal map & Vertical map을 적용하였기 때문에 이러한 설계는 복잡하게 중첩된 세포 이미지를 처리하는데 사용되며, 단일 세포를 정확하게 식별하고 분할할 수 있다. 본 실험에서 SCGAN[2]으로 생성한 뒤 데이터 강화 처리를 거친 이미지를 훈련 데이터로 하여 HoverNet[4] 모델이 병리 세포 분할에서의 성능을 현저히 향상시켰다.

실험 및 훈련 과정에서 HoverNet[4]의 성능은 뚜렷하게 향상되고 이는 SCGAN[2]이 생성한 데이터 증강 이미지등을 학습에 추가적으로 사용한 효과로 분석된다. SCGAN[2] 모델을 통해 고도의 다양성과 복잡성의 합성 세포 이미지를 생성하고 해당 이미지는 훈련 데이터집에서 중요한 역할을 한다. 데이터 증강 처리를 거친 이미지를 훈련 데이터로 사용할 경우, HoverNet[4]은 더욱 복잡하고 변화가 많은 환경 속에서 학습하여 실제 병리 세포 분할 임무에서의 성능을 향상시킬 수 있다. HoverNet[4]은 설계 시 모델의 범용성과 적응성을 고려하였다.

실험 결과에 따르면 제한적인 실제 이미지 데이터로 훈련하는 것보다 본 연구의 방법이 모델의 세포 분열 정확도 및 일반화 학습 능력을 현저히 향상시켰다. 본 논문의 실험에서는 종류별 데이터 강화 기술은 모델 성능의 향상에 대한 자세한 분석을 수행하였고 서로 다른 데이터 강화 전략이 세포 분열 정확도를 향상하는 것에 대한 기여도를 보였다.

4. 실험 세부 사항

우선 기본 실험으로 본 연구에서는 100% 정답(ground truth) 데이터 이미지를 사용하여 모델에 대한 성능 테스트를 진행하고 기준 성능 지표를 확립하였다. 다음은 데이터량이 제한적인 조건에서의 모델 성능을 시뮬레이션하기 위해 실제 데이터집에서 임의로 50%의 데이터를 선택하여 테스트를 진행하였다. 해당 실험의 목적은 데이터량의 감소가 모델 성능에 대한 영향을 파악하고 다음의 데이터 증강 실험에 기반을 마련하기 위함이었다.

Table 1. 
Segmentation performance test experiments on the lizard datasets.(real: real data, fake: generated data)
Dice Coefficient data
100% real 0.77
50% real 0.76
50% real + 50% fake(no augmentation) 0.77
50% real + 50% fake(noise+color) 0.78
50% real + 50% fake(affine) 0.78
50% real + 50% fake(affine+noise+color) 0.82

나아가 본 연구에서는 50%의 실제(ground truth) 데이터와 50%의 생성 데이터를 포함한 혼합 데이터 실험을 설계하였다. 해당 설계는 실제 적용 장면에서 직면할 수 있는 데이터 부족 및 품질 불균일 상황을 시뮬레이션하기 위해서이다. 해당 실험에서 본 연구는 순수한 데이터 조합의 변화가 모델 성능에 대한 영향을 정확하게 검토하기 위해 데이터 증강 기술을 활용하지 않았다. 혼합 데이터가 모델 성능에 일정한 긍정적인 영향이 있음을 확인한 뒤, 본 연구에서는 데이터 증강 기술의 효과에 대한 분석을 진행하였다. 우선 이미지의 확대 및 축소, 평행 이동, 회전 및 절단 등을 포함한 작업, 즉 아핀 변환을 단독으로 적용하고 이와 같은 기하학적 변환을 통해 이미지 데이터의 다양성을 증가하였다. 다음 잡음만 주입하는 데이터 증강 실험도 진행하였다. 마지막으로 본 연구에서는 아핀 변환과 잡음 주입, 두 가지 데이터 증강 기술을 결합하고 모델에 대한 훈련 및 테스트를 진행하였다.

본 연구에서는 Dice 계수 평가 기준을 사용하였다. 이는 Dice 유사도 계수(Dice Coefficient)로도 알려져 있으며, 의료 영상 분석 분야에서 널리 사용되는 성능 평가 지표이다. 특히 영상 분할 작업에서 중요한 역할을 한다. 이 지표는 두 샘플의 유사도를 측정하는데 사용되며, 구체적으로는 수동으로 표시된 진정한 분할과 알고리즘에 의해 생성된 예측 분할 사이의 유사도를 비교하는데 주로 사용된다.

Dice=2×XYX+Y

이 계수의 값은 0에서 1 사이이며, 0은 중첩이 전혀 없음을 의미하고 1은 완전한 중첩을 의미한다.

실험 결과 실제 데이터만 사용했을 때의 성능은 평범하다. 데이터 증강 없이 50% 실제 데이터, 50% 생성 데이터를 사용하는 경우와 전부 실제 데이터를 사용하는 경우의 성능이 동일하다. 50% 실제 데이터와 50% 가짜 데이터를 사용할 때, noise+color 데이터 증강이나 affine 데이터 증강을 추가하면 성능이 조금 향상되었다. 그리고 noise+color+affine 데이터 증강을 모두 사용했을 때 성능이 가장 높다.


Ⅲ. 결 론

연구에 따르면 생성적 적대 네트워크와 데이터 강화 기술을 통해 생성된 합성 이미지는 세포 분열 모델을 훈련하는데 효과적으로 사용될 수 있고, 모델의 성능 뿐만 아니라, 데이터가 희소한 상황 속에서 연구에 유력한 도움을 제공한다. 이와 같은 발견은 의료 이미지 분석 분야에서 새로운 관점과 방법을 제안한 것으로, 앞으로 더욱 많은 의료 이미지 처리 작업에 널리 사용될 것으로 예상한다.


References
1. Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. CVPR,2016.
2. Yi Wang, Lu Qi, Ying-Cong Chen, Xiangyu Zhang, and Jiaya Jia. Image synthesis via semantic composition. In ICCV, pages 13749–13758, 2021.
3. Simon Graham, Mostafa Jahanifar, Ayesha Azam, Mohammed Nimir, Yee-Wah Tsang, Katherine Dodd, Emily Hero, Harvir Sahota, Atisha Tank, Ksenija Benes, et al. Lizard: a large-scale dataset for colonic nuclear instance segmentation and classification. In ICCVW, pages 684–693, 2021.
4. Simon Graham, Quoc Dang Vu, Shan E Ahmed Raza, Ayesha Azam, Yee Wah Tsang, Jin Tae Kwak, and Nasir Rajpoot. Hover-net: Simultaneous segmentation and classification of nuclei in multi-tissue histology images. Medical Image Analysis, 58:101563, 2019.

루 이 보

- 2023년 2월 : 연세대학교 컴퓨터과학과 학사

- 2023년 3월 ~ 현재 : 고려대학교 전기전자공학과 석사

- ORCID : https://orcid.org/0009-0008-6869-2193

- 주관심분야 : 영상처리, 컴퓨터비전

정 승 원

- 2005년 8월 : 고려대학교 전자공학과 학사

- 2011년 2월 : 고려대학교 전기전자공학과 박사

- 2012년 3월 ~ 2014년 2월 : 삼성전자 종합기술원 전문연구원

- 2014년 3월 ~ 2020년 2월 : 동국대학교 멀티미디어공학과 조교수

- 2020년 3월 ~ 현재 : 고려대학교 전기전자공학부 부교수

- ORCID : https://orcid.org/0000-0002-0319-4467

- 주관심분야 : 영상처리, 컴퓨터비전