npsm 새물리 New Physics : Sae Mulli

pISSN 0374-4914 eISSN 2289-0041
Qrcode

Article

Research Paper

New Phys.: Sae Mulli 2024; 74: 244-250

Published online February 29, 2024 https://doi.org/10.3938/NPSM.74.244

Copyright © New Physics: Sae Mulli.

Application of Machine Learning Methods to Optimize the Sensitivity and Resolution on Phase Contrast Images from a Grating Interferometer

격자 간섭계의 위상 영상에서의 민감도 및 해상도 최적화를 위한 기계학습법 적용 연구

Seong Hak Jeong1, Seho Lee2, Seung Wook Lee1*

1School of Mechanical Engineering, Pusan National University, Busan 46241, Korea
2Process R&D Center, POSCO, Gwangyang 57807, Korea

Correspondence to:*seunglee@pusan.ac.kr

Received: January 22, 2024; Accepted: January 22, 2024

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License(http://creativecommons.org/licenses/by-nc/3.0) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

The X-ray and neutron grating interferometers enable phase-contrast and dark field imaging. Phase-contrast imaging leverages the phase difference of waves as radiation passes through an object, yielding superior contrast compared to conventional absorption imaging. In a grating interferometer system, the maximum sensitivity is achieved in a symmetrical configuration, with the phase grating (G1) positioned at the center. Sensitivity and resolution depend on the distance between the phase (G1) and the analyzer (G2) grating. To harmonize these inversely proportional characteristics, a Swin Transformer-based deep learning model was employed, synthesizing favorable attributes. The performance of this model was subsequently compared and analyzed against the results of a deep residual GAN model, as detailed in our previously published paper [S. H. Lee et al., Sci. Rep. 10, 9891 (2020)]. In the subsequent analysis of the outcomes, we scrutinized and identified the data types contributing to synthesis challenges. Additionally, we explored the network structure and characteristics of both GAN and Swin Transformer, proposing supplementary points for further research. Grating Interferometer,

Keywords: Grating interferometer, Phase contrast image, Deep learning, Swin transformer, Simulation

X-선과 중성자와 같은 방사선은 물체를 파괴하지 않고 내부를 볼 수 있는 의료 및 비파괴 검사 분야에서 널리 사용된다. 엑스선과 중성자를 이용한 흡수 영상 외에도, 격자 간섭계를 사용한 위상차 영상과 다크필드 영상이 있다. 위상차 영상은 방사선이 투과 시 발생하는 파동의 위상차를 이용해 대조비를 나타내고, 기본 흡수 영상보다 더 뛰어난 식별 능력을 가진다. 격자 간섭계 시스템에서 위상격자(G1)가 중앙에 위치한 대칭 구조에서 가장 높은 민감도를 얻을 수 있으며, 위상격자(G1)와 해석격자(G2) 사이에서 샘플의 위치에 따라 결과 영상의 민감도와 영상 품질이 달라진다. 이 반비례하는 특성을 조정하기 위해 스윈 트랜스포머 기반 딥러닝 모델을 사용하여 각각의 좋은 특성을 합성하였으며 이 모델의 성능과 논문 [S. H. Lee et al., Sci. Rep. 10, 9891 (2020)]의 deep residual GAN 모델 결과와 비교 분석하였다. 이후 결과 분석에서 합성 문제를 일으킨 데이터의 유형과 GAN 및 스윈 트랜스포머의 네트워크 구조와 특성을 분석하여, 후속 연구를 위한 보완점을 제안한다.

Keywords: 격자간섭계, 위상차영상, 딥러닝, 스윈트랜스포머, 시뮬레이션

격자간섭계(Grating Interferometer)를 활용한 위상차 영상(phase contrast imaging)은 일반적인 흡수 영상(absorption imaging)에 비해 저원자번호(low atomic number)에 대해서도 큰 대비 효과를 보여준다[1]. 일반적으로 격자 간섭계는 두 개의 격자 (G1, G2) 로 구성된 탈봇 격자 간섭계 (Talbot-interferometry)와 세 개의 격자 (G0, G1, G2)로 구성된 탈봇-라우 격자 간섭계 (Talbot-Lau interferometry)가 널리 사용되고 있으며, 실험실 선원이나 중성자 선원에서는 주로 탈봇-라우 격자 간섭계를 채택한다. 격자간섭계에서 영상의 품질을 결정하는 중요한 요소 중 하나는, 각 격자의 배치와 샘플의 위치이다. 과거 연구[2]의 내용을 살펴보면 G1 격자가 G0 및 G2 격자 한가운데 위치한 대칭형 구조 (Symmetric Configuration)일 때 가장 높은 민감도를 얻을 수 있으며, 추가로 샘플을 G1 격자에 근접하여 위치시키면 보다 높은 민감도 영상을 획득할 수 있다. 민감도가 높아지면 작은 위상 변화도 감지할 수 있으므로 이는 곧 대조도의 증가로 이어진다. 여기서 샘플이 G1 격자에 가까울수록 더 높은 민감도를 얻는 대신, 영상 검출기와의 거리가 길어지므로 영상 블러링의 증가로 영상 품질이 낮아진다. 즉 해상도는 감소한다. 반대로 샘플이 G2 격자에 가까워질수록 앞의 상황은 반대가 된다[2]. 이러한 반비례 특성을 타협하여 개선 시킬 필요가 있다. 이에 딥러닝을 활용하여 고해상력 영상과 고대조도 영상의 장점을 합성시켜서 대립되는 문제를 타협하고자 한다.

영상의 품질개선이나 영상 정합 등의 분야에서 딥러닝 모델의 뛰어난 성능은 이미 입증 되었다. 더욱이, chat-GPT와 같은 거대 모델 기반의 생성형 AI를 필두로 생성형 이미지 모델들이 최근 발표되고 있다. 생성형 이미지 AI모델은 기존에 없던 이미지를 생성하거나, 기존 이미지의 스타일을 학습하여 전혀 다른 이미지에 기존 스타일을 입힌 이미지를 생성하는 등 이미지 분야에서의 새로운 패러다임을 선보이고 있다. 이러한 특성은, 물리적 상충관계에 있는 각 영상을 정합하여 보다 높은 품질의 영상으로 재생성함에 있어 딥러닝 모델이 충분한 성능을 발휘할 수 있음을 시사한다. 따라서, 본 연구에서는 최근 이미지 분야에서 가장 활발히 활용되고 있는 모델을 채택하여 격자간섭계에서 발생하는 대조도와 해상도 사이의 대립되는 문제를 해결하고자 한다. 이미지 분야에서는 트랜스포머(Transformer) 기반의 모델이 많은 주목을 받고 있으며 스윈 트랜스포머 (Swin Transformer)는 이미지 처리 분야에서 뛰어난 성능을 보여주며 많은 연구자들의 관심을 받고 있다. 따라서, 본 연구에서는 스윈 트랜스포머를 격자간섭계의 위상차 영상 개선에 적용해보고자 한다. 이후 Ref. 3의 deep residual GAN 모델을 활용한 위상차 영상 개선 결과와 비교한다. GAN은 생성자와 판별기를 이용해서 원본 영상의 기본 구조를 유지하지만 어느정도 생성자가 조금 더 현실적인 이미지로 생성한다. 그러므로 육안적인 부분보다 픽셀 단위에서 원본의 특성이 감소될 수 있다. 그에 비해 스윈 트랜스포머는 원본 이미지의 지역 정보에서 전역 정보의 모든 특징적 맥락을 포착하려는 목적성 때문에 원본 이미지를 보존하려는 특성이 있다[4]. 이러한 관점에서 학습 완료 후 추론된 스윈 트랜스포머 결과 영상과 GAN 추론 결과 영상은 PSNR, SSIM 등 영상 지표에서 어느 정도의 수치 차이가 비견되는지 확인해보고자 한다.

또한, 본 논문에서는 스윈 트랜스포머을 기반으로 하는 아키텍쳐를 응용한 이미지 복원 모델인 Fast Fourier Convolution Block를 접목시킨 Swin Transformer FIR[5] 모델을 2-channel 입력 구조로 변경하고 실험 데이터와 비슷한 적절한 학습 데이터를 생성하여 구현 환경에 적합한 배치사이즈, 에폭수 등의 학습 파라미터를 설정하여 고해상도-저대조도 영상과 고대조도-저해상도 영상의 장점 특징이 적절하게 합성 되는지 확인하고 이전의 GAN 결과 영상에 비해 PSNR, 대조도 등 수치 비교한다.

1. 연구 방법

Reference 4는 2개의 입력과 1개의 출력을 가진 GAN 딥러닝 구조를 제안하였다. Reference 2의 연구에 따라 위상차 영상은 샘플이 대칭 구조(Symmetric Configuration System)에 가까울수록 G1 격자에 샘플이 인접하게 되어 고대조도의 영상을 얻을 수 있다. 반대로, 샘플이 멀어질수록 저대조도이면서 고해상도의 영상을 얻게 된다. 이렇게 얻은 극단적인 위치에서의 최고 대조도와 해상도의 이미지들을 딥러닝을 활용하여 각각의 장점을 결합하는 방식을 제안하였다. Reference 4는 deep residual GAN의 CNN 구조를 사용하여 위의 접근법을 구현하였다. 본 연구에서는 최근 이미지 향상 분야에서 높은 성능을 보이는 스윈 트랜스포머 아키텍쳐를 사용하여 다시 구현하였다.

본 연구에서는 실험데이터와 시뮬레이션 데이터를각각 입력데이터로 활용하였다. 아래 Fig. 1의 데이터는 본 연구실에서 NCNR(NIST Center for Neutron Reseach)의 중성자 Beam line NG6에서 직접 실험하여 획득한 알루미늄 로드(Aluminum rod), 미국 주화(Dollar coin), 실리콘 웨지(Si-wedge)의 위상차 영상이다. 3가지 샘플을 촬영마다 G1 격자와 G2 격자 사이에서 위치를 조절하여 해상도와 대조도가 최고 수준에 이르는 고대조도-저해상도(HC-LR: High Contrast-Low Rsolution)영상과 저대조도-고해상도(LC-HR: Low Contrast-High Resolution)영상을 획득하였다. Figure 2는 Shepp-Logan 팬텀과 XCAT 팬텀을 위상차 영상으로 모사하여 생성한 저대조도-고해상도 영상, 고대조도-저해상도 영상 데이터이다.

Figure 1. NIST Neutron Phase contrast imaging. (a) Aluminum rod low-contrast-high-resolution (LC-HR) image, (b) Aluminum rod high-contrast-low-resolution (HC-LR) image, (c) Silicon wedge low-contrast-high-resolution image, (d) Silicon wedge high-contrast-low-resolution image, (e) Dollar coin low-contrast-high-resolution image, (f) Dollar coin high-contrast-low-resolution image.

Figure 2. Simulated phase contrast images of Shepp-Logan and XCAT phantoms. (a) XCAT low-contrast-high-resolution image, (b) XCAT high-contrast-low-resolution image, (c) Shepp-Logan low-contrast-high-resolution image, (d) Shepp-Logan high-contrast-low-resolution image.

2. 학습데이터 생성

실험 데이터 대부분 복잡하지 않은 구조를 가지기 때문에, 학습 데이터 역시 기본적인 이미지를 기반으로 생성하였다. 무작위 크기와 위치에 배치된 두 개의 사각형이 포함된 800개의 이미지를 생성하였다. 이 이미지들은 위상차 영상과의 유사성을 확보하기 위해 0과 1 사이로 정규화하였다. 실제 실리콘 웨지를 참조하여 배경의 값을 결정하였고, 실리콘 웨지의 밝고 어두운 영역의 평균값을 두 사각형에 적용하였다. 이렇게 생성된 800개의 이미지 내 사각형의 값은 고해상도-저대조도 Si-wedge의 밝고 어두운 영역 값으로 수정하였다. 이어서 가우시안 분포를 기반으로한 노이즈에 매트랩의 메디안 필터(median filter) 함수를 추가하여 어느정도 중성자에 의한 노이즈와 비슷한 노이즈를 추가하였다. 또한, Si-wedge 고대조도-저해상도 영상과 고해상도-저대조도 영상의 밝은 부분의 행의 프로파일을 참조하여 픽셀 경사를 분석한 수치 정도를 비교해서 매트랩의 가우시안 필터(gaussian filter)를 적용하여 고해상도와 저해상도 이미지를 생성하였다. Figure 3은 이러한 프로세스를 통해 얻어진 학습 데이터와 참값(ground truth)이다.

Figure 3. (Color online) 2-channel deep learning model training data and ground truth.

3. SwinFIR 학습 시뮬레이션

실험에 사용된 모델은 SwinFIR이다[5]. 컴퓨터 사양은 AMD Ryzen 9 5900HS 프로세서, NVIDIA GeForce RTX 3060 및 16GB RAM이다. GPU서버의 수준과 학습 시간을 고려해서 경량화된 네트워크 구조를 선택하였다. 초기 1-channel 입력을 2-channel로 확장하였고, 이 두 데이터는 Shallow Feature Extraction을 거쳐 Deep Feature Extraction 층으로 전달된다. 표준 Deep Feature Extraction층에는 6개의 RSTB층과 1개의 SFB층이 포함되나, 여기에서는 3개의 RSTB층만을 사용하였다. 각 RSTB는 5개의 STL(Swin Transformer Layer) 1개의 SFB로 구성된다.

학습 데이터는 800쌍 (총 1600개)이며, 각 이미지는 512 × 512 픽셀 크기를 가진다. 그러나, 모델의 입력으로는 이를 4분할하여 128 × 128 픽셀 크기의 데이터를 사용하며, 2채널이기 때문에 실제 입력 차원은 128 × 128 × 2가 된다. 이 데이터는 STL을 거쳐 144차원으로 임베딩되며, 윈도우 사이즈는 8이다. 따라서, 각 데이터는 16 × 16개의 패치로 분할된다. 각 셀프-어텐션 블록은 6개의 병렬 헤드를 포함하며, 각 헤드는 24차원 데이터를 처리한다. 이 방식이 W-MSA(Window multi head 셀프-어텐션)이다. SwinFIR의 핵심인 SFB는 컨볼루션층, 배치 정규화(Batch Normalization), 그리고 LeakyReLU 활성화 함수를 결합한 구조로 구성이다. 이 블록은 입력 데이터의 공간적 특징을 효율적으로 추출하고 처리하는 데 중점을 둔다. 컨볼루션 레이어는 주어진 입력에서 중요한 특징을 감지하기 위해 여러 필터를 적용하며, 이어지는 배치 정규화 과정은 이러한 특징 맵의 데이터 분포를 조정하여, 모델의 학습 과정을 안정화시키고 속도를 향상시킨다. 마지막으로, LeakyReLU 활성화 함수는 비선형성을 도입하여 모델이 더 복잡한 데이터 패턴을 학습할 수 있게 해주며, 특히 음의 입력값에 대해 작은 양의 기울기를 유지함으로써 네트워크가 더욱 효과적으로 학습될 수 있도록 지원한다[5].

1600개의 이미지는 128 × 128 × 2의 크기로 분할되며, 배치 사이즈는 8이다. 따라서, 한 번의 배치에 4개의 이미지 데이터가 포함된다. 전체 학습은 500 에폭 동안 진행되며, 학습률은 0.0001로 설정하였다. 하이퍼 파라미터 세부 사항은 Table 1에서 확인된다.

Table 1 . Learning hyper parameters.

Hyper ParametersValue
in_chans2
img_size128 × 128
batch_size8
learning rate0.0001
epochs500
momentum0.9
weight_decay0.001

1. 실험 결과

Figure 4는 Shepp-Logan 팬텀과 XCAT 팬텀 적용 결과를 보여주고 있다. 두 영상의 해상도 정보와 대조도 정보가 합성된 모습을 보여준다.

Figure 4. Input and result images for Shepp-Logan phantom (top) and XCAT phantom (bottom). (a),(d) left side shows low-contrast-high-resolution images, right side shows high-contrast-low-resolution images, (b),(e) are GAN result images, (c),(f) are SwinFIR result images.

Figure 5Fig. 6은 각각 Shepp-Logan 팬텀, XCAT 팬텀에 대한 입력, 결과 영상과 Ref. 4의 GAN 결과 영상을 포함한 전체 프로파일 그래프이다. Table 2Table 3은 각각에 대한 입력영상, GAN 결과 영상과 SwinFIR 영상의 대조도, FWHM, PSNR[6], SSIM[7]을 비교한 자료이다. 대조도는 영상을 0과 1 사이의 값으로 정규화 시킨 뒤 전체의 표준편차를 산출하여 수치화했다[8]. FWHM는 해상도를 나타내는 지표로 그래프의 세로축에 해당하는 내부값(Value)의 중간값을 기준으로 각 영상의 가장 높은 피크(peak)의 절반 값을 가지는 두 지점의 폭을 계산하여 수치화했다.

Figure 5. (Color online) Profile in the Shepp-Logan phantom image.

Figure 6. (Color online) Profile in the XCAT phantom image.

Table 2 . Comparison of image metrics for shepp-logan phantom.

DataContrastFWHM
LC-HR0.02624 pixels
HC-LR0.10660 pixels
GAN0.07338 pixels
SwinFIR0.05047 pixels
DataPSNR / SSIMPSNR / SSIM
LC-HR25.72 / 0.9629.66 / 0.95
HC-LR23.05 / 0.9221.82 / 0.89
GANSwinFIR


Table 3 . Comparison of image metrics for XCAT phantom image.

DataContrastFWHM
LC-HR0.04029 pixels
HC-LR0.11444 pixels
GAN0.11930 pixels
SwinFIR0.10334 pixels
DataPSNR / SSIMPSNR / SSIM
LC-HR21.79 / 0.9217.79 / 0.81
HC-LR25.83 / 0.8522.06 / 0.77
GANSwinFIR


NIST의 NG6 Beam line에서 얻은 중성자 위상차 영상 실험 결과는 Fig. 7에 나타나 있다. Al-rod의 입력 영상과, Ref. 4의 GAN 결과 영상 그리고 본 실험의 SwinFIR 결과 영상이다. 또한 영상 지표 비교는 Table 4에서 확인할 수 있다.

Figure 7. Phase contrast image of the aluminum rod. (a) Left side shows low-contrast-high-resolution image, right side shows high-contrast-low-resolution image. (b) GAN result image. (c) SwinFIR result image.

Table 4 . Comparison of image metrics for Aluminum rod image.

DataContrastFWHM
LC-HR0.04268 pixels
HC-LR0.122134 pixels
GAN0.12952 pixels
SwinFIR0.161100 pixels
DataPSNR / SSIMPSNR / SSIM
LC-HR19.23 / 0.4415.65 / 0.53
HC-LR18.38 / 0.4118.16 / 0.51
GANSwinFIR


2. 토 의

두 가지 팬텀 데이터와 알루미늄 로드 데이터의 결과에서 보여지듯이, SwinFIR 모델 또한 GAN 모델과 같이 본 연구의 목적이었던 2-Channel 입력에 의한 각기 입력의 특징 합성이 성공했음을 알 수 있다. Figure 5Fig. 6 그리고 Fig. 8에서 알 수 있듯이 고대조도 저해상도 입력 영상과 고해상도 저대조도 입력 영상의 장점들이 잘 합성되어 GAN 모델과 같이 SwinFIR 결과 또한 대조도와 해상도가 잘 개선되었다. 그러나 Table 2Table 3 그리고 Table 4에서 대조도, 해상도(FWHM), PSNR, SSIM의 관점에서 SwinFIR이 GAN모델보다 더 좋은 지표를 보이지는 못했다.

Figure 8. (Color online) Profile in the Aluminum rod image.

그리고 Dollar coin과 Si-wedge 데이터의 결과는 Fig. 9로 나타났다.

Figure 9. Pre-and post-synthesis phase contrast images. (a),(c) Input images of dollar coin, silicon wedge. (b),(d) SwinFIR result images.

Dollar coin 데이터는 입력 영상 정보가 합성된 것이 육안으로 확인되지만 원본 이미지 자체에서 내부 구조나 특징이 불분명하게 표현되어 합성 과정에서도 해당 특징들이 제대로 반영되지 않은 것으로 판단된다. 딥러닝 모델은 주어진 데이터의 패턴과 특징을 학습하여 이미지를 합성하는데 원본 이미지에서 특징이 불분명하거나 약한 경우, 모델은 다른 더 명확한 특징에 더 큰 가중치를 둘 수 있다. 이로 인해 합성 과정에서 특정 부분의 정보가 누락 되거나 불분명하게 표현될 수 있을 거라 고려된다.

실리콘 웨지 데이터는 고해상도-저대조도 영상의 모양 특징(Shape)에 대조도 정보가 입혀지는 듯했으나 고대조도-저해상도 영상의 밝은 부분이 덧씌워지는 결과를 보였다. 이 경우, 두 입력 이미지의 형태나 특징이 다른 데이터들에 비해 다소 상이한 것이 이유일 수 있다. 합성 과정에서 모델이 두 영상의 특징을 동시에 반영하려고 할 때, 충돌이나 중첩이 발생할 수 있고 두 영상의 특징이 서로 상이할 때, 각각의 특징을 동시에 최대한 보존하려고 시도할 수 있다.

스윈 트랜스포머는 입력한 영상을 윈도우로 분할하여 지역 정보를 해석하고 계층을 진행하면서 패치 머징에 의해 그 규모가 점점 전역으로 확대되어 정보 파악을 하게 된다. 즉, 원본 이미지의 지역적 특징, 전역적 특징의 모든 맥락을 포착하려는 목적을 가지고 있다. 그러므로 GAN이 보다 자연스러운 결과물을 생성할 수 있을 것이라는 기대[9]에 반해 스윈 트랜스포머는 원본 이미지를 보존하는 특성에 의해 실리콘 웨지의 모양 특징이 다른 두 영상이 그대로 합성이 되려 했다고 판단한다.

이후 연구에서는 학습 데이터 설계에서 고해상도-저대조도 영상의 모양에 중점을 둔 선택이 필요할 것이며 Ground-Truth 영상 또한 원본 영상과 유사한 특징을 가져야만 할 것이다. 위상차 영상의 고대조도-저해상도 영상의 경우 이미지의 경계 부분의 왜곡이 심한 블러링(blurring) 특성이 존재하므로 이러한 부분을 반영해야 할 것이다. 또한 GAN 모델과의 정확한 비교 분석을 위해서 GAN 모델 또한 동시에 구현하여 비교를 해 볼 필요가 있다. 동일한 양질의 학습데이터를 선정하고, 두 모델의 학습기간이 최대한 비슷하도록 네트워크 구조와 하이퍼 파라미터를 최적화하여 두 모델의 성능을 직관적으로 비교해야 할 것이다.

격자 간섭계를 이용한 위상차 영상에서 샘플의 구조를 세밀히 분석하기 위해서는 높은 대조도가 요구 된다. 본 논문에서는 고대조도를 유지하며 영상 해상도를 개선하기 위해 스윈 트랜스포머 기반 아키텍처를 활용하여 딥러닝 모델을 구현하였고 2-channel 입력으로서 고해상도-저대조도, 고대조도-저해상도 영상 셋을 적용하였고 간단한 도형 이미지를 본 실험 데이터와 비슷한 위상차 영상으로 모사하여 학습하였다. Shepp-Logan 팬텀, XCAT 팬텀 위상차 모사 영상과 NIST의 NG6 Beam line에서 획득한 알루미늄 로드, Dollar coin, 실리콘 웨지 3가지의 위상차 영상을 테스트하여 추론한 결과 영상과 이전의 선행연구에서의 GAN 결과 영상과 비교 분석하였다. 스윈 트랜스포머는 지역적 특징에서 전역적 특징으로 순차적으로 정보를 집약하는 독특한 구조를 가지고 있어, 이미지의 다양한 지역적 특징들을 보존하면서도 전체적인 문맥을 고려할 수 있다. 이러한 구조적 특성은 영상 합성에 있어서 두 영상의 장점을 동시에 가져오는 것에 큰 기여를 하였다. 그럼에도 불구하고, 모양 특징이 상이한 두 가지 영상은 적절히 합성되지 못하고 덧씌워지는 결과를 초래했다. 이는 스윈트랜스포머가 원본 이미지를 그대로 보존하며 개선시키는 특징에 의한 것이라 판단하였다. 경계 부분에서의 왜곡 특성이 반영되지 않은 학습 데이터가 합성 능력에 영향을 주었다고 판단한다.

후속 연구에서는 정확한 성능의 측정과 이전 모델과의 정확한 비교를 위해서 경량 네트워크가 아닌 고용량의 네트워크를 채택하고 GAN모델과 SwinFIR 모델을 동시에 구현해서 동일한 양질의 학습데이터와 동일한 학습기간이 설정되도록 하이퍼 파라미터 등을 최적화해야 한다고 판단한다.

이 과제는 부산대학교 기본연구지원사업(2년)에 의하여 연구되었습니다.

  1. M. Bech, Ph.D. thesis, University of Copenhagen (2009).
  2. T. Donath, et al., J. Appl. Phys. 106, 054703 (2009).
    CrossRef
  3. S. H. Lee, et al., Sci. Rep. 10, 9891 (2020).
    Pubmed KoreaMed CrossRef
  4. Z. Liu, et al.. in Proceedings of the IEEE/CVF International Conference on Computer Vision (2021), pp. 10012-10022.
  5. D. Zhang, et al., arXiv: 2208.11247 (2021).
  6. C. Liu, W. T. Freeman, R. Szeliski and S. B. Kang. in IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2006), pp. 901-908.
  7. Z. Wang, A. C. Bovik, H. R. Sheikh and E. P. Simoncelli, IEEE Trans. Image Process. 13, 600 (2004).
    Pubmed CrossRef
  8. E. Peli, J. Opt. Soc. Am. A 7, 2032 (1990).
    Pubmed CrossRef
  9. S.-T. Liaw, et al., Aust. Fam. Physician 44, 387 (2015).

Stats or Metrics

Share this article on :

Related articles in NPSM