npsm 새물리 New Physics : Sae Mulli

pISSN 0374-4914 eISSN 2289-0041
Qrcode

Article

Research Paper

New Phys.: Sae Mulli 2024; 74: 1072-1079

Published online October 31, 2024 https://doi.org/10.3938/NPSM.74.1072

Copyright © New Physics: Sae Mulli.

Optimizing Bath Fitting in Dynamical Mean-Field Theory Using Machine Learning

유효 저장소 맞춤: 기계 학습 접근법

Taeung Kim, Ara Go*

Department of Physics, Chonnam National University, Gwangju 61186, Korea

Correspondence to:*arago@jnu.ac.kr

Received: May 31, 2024; Revised: July 19, 2024; Accepted: July 31, 2024

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License(http://creativecommons.org/licenses/by-nc/4.0) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Hamiltonian-based impurity solvers for dynamical mean-field theory (DMFT) approximate a continuous hybridization function with a finite set of effective bath orbitals to keep computational costs manageable. This process involves minimizing a cost function that quantifies the difference between the hybridization function of the continuous bath and that of a finite number of bath orbitals. However, as the number of effective bath orbitals increases, minimizing a multi-dimensional cost function becomes increasingly complex, and the computational expense of optimizing bath parameters escalates. To address these challenges, we employ a machine learning approach using supervised learning to replace computationally intensive tasks. We test various features and labels to identify efficient machine-learning models capable of bypassing the time-consuming bath fitting procedure.

Keywords: Machine learning, Bath fitting, Dynamical mean-field theory

동적 평균장 이론(dynamical mean-field theory, DMFT)에서 해밀토니안 기반의 불순물 풀이개(impurity solver)는 계산비용을 관리 가능한 수준으로 유지하기 위해 연속적인 혼성함수(hybridization function)를 유한한 유효 저장소로 환원한다. 이 과정은 연속 혼성함수와 유한한 수의 저장소 궤도의 혼성함수를 정량적으로 나타내는 비용함수를 최소화하는 방식으로 이루어진다. 다만 유효 저장소의 수가 증가함에 따라 다차원 비용 함수의 최소화 문제가 복잡해지고 최적화된 매개변수를 찾기 위한 계산 비용이 더욱 증가한다. 우리는 이러한 문제의 해결방안으로 계산 집약적인 작업을 대체하기 위해 지도 학습을 통한 기계 학습 접근 방식을 도입한다. 본 논문에서는 여러 속성과 꼬리표를 시험하여 시간 소모가 큰 저장소 맞춤 과정을 우회할 수 있는 효율적인 기계 학습 모형을 식별한다.

Keywords: 기계 학습, 유효 저장소 맞춤, 동적 평균장 이론

기계 학습은 계산 분야에서 계산자원을 절감할 수 있는 강력한 도구로 응집물질물리 분야에서도 널리 활용되고 있다[1-6]. 한편 동적 평균장 이론[7, 8]과 그 확장인 송이 동적 평균장 이론(cluster dynamical mean-field theory, CDMFT)[9-14]은 강상관 전자계를 다루기 위한 일반적 접근법으로 자리 잡았으나, 상호작용으로 인한 필요 계산자원 증가가 보다 넓은 범위에 대한 응용을 가로막고 있는 상태이다. 따라서 최근 기계 학습을 활용하여 동적 평균장 이론의 효율을 개선하려는 시도 역시 이어지고 있다[15-19]. 동적 평균장 이론에 대한 기계 학습 연구는 불순물 풀이개(impurity solver)를 개선하는 데 중점을 두는 경우가 많으나, 본 연구에서는 유효 저장소 맞춤 개선을 다루고자 한다.

격자계에 대한 동적 평균장 이론은 무한한 공간에서 상호작용하는 다체문제를 국소 불순물과 이를 둘러싼 유효 저장소로, 즉 불순물 모형으로 대응시킨다. 이 불순물 모형은 본래의 격자계에 비해 현저히 작은 수의 자유도를 가지지만 여전히 상호작용하는 다체문제이므로 이를 효과적으로 다룰 수 있는 방법론, 예를 들면 정확한 대각화(exact diagonalization, ED)[12, 20]와 양자 몬테 카를로 알고리즘(quantum Monte Carlo algorithm, QMC)[21, 22]과 같은 불순물 풀이개가 필요하다. 불순물 모형의 해는 격자에 대한 병진 운동 대칭성이 만족된다는 가정 아래 유효 저장소를 갱신하는 과정에 이용되며, 이러한 과정이 자체모순없는 해를 얻을 때까지, 달리 표현하면 유효 저장소가 더 이상 유의미하게 변하지 않을 때까지 반복된다. 유효 저장소를 갱신하는 방식은 불순물 풀이개에 따라 다르다. 해밀토니안 기반 불순물 풀이개의 경우 계산에 포함할 수 있는 유효 저장소 궤도 수가 제한되므로, 이 갱신 과정에서 본래는 연속적인 유효 저장소 혼성함수를 유한한 수의 궤도로 나타내야 한다. 일반적으로 연속 혼성함수와 유한한 궤도로 표현되는 혼성함수 사이의 차이를 정량화하여 비용함수를 정의한 뒤 해당 비용함수를 최소화하는 방식으로 다음 회차를 위한 유효 저장소 매개변수를 추출하는데, 이 과정을 유효 저장소 맞춤이라고 한다[23-25].

이 비용함수는 많은 국솟점을 가지는 비선형 다변수함수이기 때문에, 비용함수 최소화 과정이 초기 저장소 매개변수 추정값에 크게 의존하게 된다. 최적 조합을 찾는 과정에 많은 반복 계산이 필요함에 따라 높은 계산비용이 발생하는데, 유효 저장소 매개변수의 수가 증가할수록 국솟점의 수가 증가하여 기대 계산비용 역시 빠르게 증가한다. 따라서 불순물 풀이개를 개선하여 보다 많은 수의 궤도를 불순물 모형에 포함할 수 있게 된다고 하더라도, 이 저장소 맞춤 과정을 효율적으로 수행할 수 있어야만 불순물 풀이개의 성능을 효과적으로 활용할 수 있다.

저장소 맞춤, 즉 혼성함수로부터 유효 저장소 매개변수를 추출하는 과정은 앞서 기술한 바와 같이 높은 계산비용을 요구하는 문제이지만, 주어진 저장소 매개변수로부터 혼성함수를 계산하는 과정은 단순 연산의 조합에 불과하다. 본 연구에서는 특정 제한조건 하에 무작위로 생성된 유효 저장소 매개변수로부터 혼성함수를 계산하여 자료집합을 구성하고, 이 자료집합을 통해 훈련시킨 모형이 시험집합에 대해 우수한 성능을 보이기 위한 조건을 특정한다. 이를 위해 랜덤 포레스트(random forest), 선형회귀 등의 다양한 기계 학습 방법론을 시도하였으나, 본 논문에서는 그중 가장 우수한 성능을 보인 지도 학습의 커널 능형 회귀(kernel ridge regression, KRR) 모형[16, 17]을 다룬다.

논문의 구성은 다음과 같다. II절에서는 동적 평균장 이론의 개략적인 과정, 유효 저장소 맞춤 그리고 기계 학습에 사용한 커널 능형 회귀 모형에 대해 소개한다. III절은 기계 학습 자료를 구축하는 과정과 모형에 사용된 속성에 대해 기술하고, IV절에서는 성능 지표를 정의하고 훈련 모형에 대한 결과를 제시한다. 마지막으로 V절에서는 기계 학습을 활용한 유효 저장소 맞춤에 대한 본 연구의 한계와 후속 연구의 필요성을 다룬다.

1. 동적 평균장 이론과 유효 저장소 맞춤

양자 불순물 모형의 유효 저장소 혼성함수는 아래와 같이 기술된다[26-28].

Δ(iωn)=l|Vl|2iωn-εl,

여기서 ωn=2n+1βπ으로 마츠바라 진동수이고, εlVl은 각각 l번째 유효 저장소의 궤도 에너지와 불순물-저장소 혼성 세기이다.

동적 평균장 이론에서는 자체 모순 없는 해를 구하기 위해 국소 격자 그린함수로부터 추출한 혼성함수가 불순물 모형의 혼성함수와 충분히 가까워질 때까지 지속적으로 혼성함수를 갱신한다.

물리적 직관에 따라 설정한 초기 저장소 매개변수에 대해 양자 불순물 모형을 풀어 자체 에너지를 얻고, 해당 자체 에너지가 격자의 국소 자체 에너지를 대체한다는 가정 하에 격자 그린함수를 아래와 같이 계산한다.

Glatt-1(k,iωn)=iωn+μ-tk-Σ(iωn).

이때 tk는 건너뜀 항의 푸리에 변환으로 격자 해밀토니안 연산자의 격자운동량 고유상태 |k에 대한 기댓값이다. 국소 격자 그린함수는 아래와 같이 계산된다.

Gloc(iωn)=kGlatt(k,iωn).

이렇게 계산된 국소 격자 그린함수로부터 다이슨 방정식(Dyson's equation)을 통해 상호작용 없는 격자 그린함수를 얻을 수 있다.

G0-1(iωn)=Gloc-1(iωn)+Σ(iωn).

이때 G0-1(iωn)로부터 저장소 혼성함수를 얻는다.

Δ(iωn)=iωn+μ-Σ(iωn)-G0-1(iωn).

이 혼성함수는 격자로부터 계산된 것으로 격자 내의 무한히 많은, 연속적인 저장소 전자궤도의 영향을 반영하고 있다. 만약 동적 평균장 이론의 자체모순 없는 해를 얻었다면, 위 식의 격자 혼성함수는 Eq. (1)의 불순물 혼성함수와 충분히 가까워야한다. 그렇지 못하면 유효 저장소 맞춤으로, 다시 말해 위 혼성함수로부터 불순물 매개변수를 추출하는 것으로 자체모순 없는 해를 얻기 위한 다음 회차의 동적 평균장 이론 계산을 시작한다[9, 29]. 이때 동적 평균장 이론의 가정에 따라 불순물 모형과 격자의 국소 자체에너지가 동일하다면 격자 혼성함수와 불순물 혼성에너지의 차는 상호작용 없는 그린함수의 차와 같다. 그러므로 유효 저장소 맞춤은 아래와 같이 정의된 비용함수 χ2를 최소화함으로써 수행할 수 있다.

χ2=1Nmaxn=0Nmax-1|Gimp(iωn)-G0(iωn)|2.

유효 저장소 맞춤을 거쳐 얻어낸 저장소 매개변수로 불순물 모형을 구성하고, 불순물 풀이개로부터 새로이 얻은 자체 에너지로 Eq. (2)로부터 저장소 맞춤까지의 과정을 충분히 수렴된 해를 얻을 때까지 반복한다.

일반적으로 Eq. (6)는 다수의 국솟점을 가지기 때문에 경사 하강법 계열 방법으로 저장소 매개변수를 추출하는 과정은 상당한 계산 비용을 소모한다. 반면 저장소 매개변수가 주어졌을 때 Eq. (1)을 통해 혼성함수를 구하는 과정은 단순 사칙연산의 조합이다. 따라서 뒤의 과정을 통해 충분히 큰 자료집합을 구성하고 기계 학습 모형을 훈련시킴으로써 앞의 과정을 보다 효율적으로 수행한다면 기존 동적 평균장 이론의 효율을 크게 개선시킬 수 있다.

우리가 훈련시킬 모형의 목적은 혼성함수로부터 유효 저장소 매개변수를 추출하는 것이다. 이때 기계 학습에서 사용되는 m번째 훈련 표본에 대한 속성을 Fm라 할 때, 이에 해당하는 꼬리표(label)인 유효 저장소 매개변수 순서쌍을 Dm=Dm(Fm)로 표기한다. FmDm 모두 1차원으로 평탄화된 자료 구조를 가진다.

2. 커널 능형 회귀

커널 능형 회귀는 일반적으로 시험 표본의 속성 Ft에 대해 다음과 같이 예측 모형 DtML을 구성한다.

DtML(Ft)= m=1 NLαmK(Fm,Ft).

m은 훈련 표본을 나타내고, 계수 αm은 가중치를 의미한다. 이때 DML(Ft)Ft에 대한 예측된 유효 저장소 매개변수 순서쌍 조합을 나타낸다.

K는 속성간의 유사도를 측정하는 커널이다. 본 논문에서는 아래와 같이 기술된 라플라스 커널(laplacian kernel)을 사용하였다.

K(Fm,Ft)=exp(γ||FmFt||),

여기서 ||||는 두 입력 벡터 사이의 맨해튼 노름(Manhattan norm)이고, 초매개변수(hyperparameter) γ는 예측 가중치를 결정한다.

훈련 표본 m에 대한 계수 αm는 모형 예측치 DmML와 실제값 Dm의 차이를 최소화하는 비용 함수를 통해 결정된다[30].

C(α)= m=1 NL(Dm MLDm )2+λαTK¯α,

여기서 α=(α1αNL)이다. 최적의 α 해는 다음과 같이 주어진다.

α=(K¯+λI)-1f.

I¯NL×NL 단위 행렬, K¯Kij(Fi,Fj)를 원소로 가지는 NL×NL 커널 행렬 그리고 f=(f1,,fNL)이다. 이때 λ는 라그랑주 승수(Lagrage multiplier)로 모형의 복잡도를 조절하여 훈련 자료에 대한 적합도를 결정하는 매개변수이다. λ가 작은 경우에는 훈련 자료에 대해 정확한 해에 근사한 값을 산출해주지만, λ가 커질수록 편차가 커지고 포괄적인 영역에서 해를 산출한다. λ를 적절히 조절해 과소적합(under-fitting)과 과대적합(over-fitting)을 방지해 주어야 한다.

유효 저장소 매개변수와 혼성함수 사이에는 다음과 같은 합-규칙(sum-rule)이 성립해야 한다[23].

-1πIm[-dωΔ(ω+iη)]=l|Vl|2.

마츠바라 그린함수는 n이 무한대인 극한에서 n이 증가함에 따라 1/ωn에 비례하는 거동을 보이며 비례상수는 오직 국소 상호작용에만 의존한다. 결과적으로 마츠바라 진동수가 클 때, 그린함수가 저장소 매개변수의 영향을 받지 않게 되므로 효율적인 맞춤을 위해 비용함수 정의에 n의 상한 Nmax를 설정한다. 본 논문에서는 β는 128에 대해 마츠바라 진동수가 충분히 크도록 Nmax를 8,192로 설정하였다. 기계 학습이 용이한 저장소 매개변수의 특징을 규명하기 위해 다양한 조건에 따라 생성된 유효 저장소 순서쌍으로부터 혼성함수를 계산하여 기계 학습 모형을 훈련한다.

1. 꼬리표: 유효 저장소 매개변수

불순물-저장소 혼성 세기 V와 오비탈 에너지 ε는 각각 [0, 0.75] 및 [-3, 3]의 범위 내에서 분포하도록 설정하였다. 이러한 에너지 값들은 물론 동적 평균장 이론을 적용하는 대상 계에 따라 크기가 달라질 수 있다. 만약 기계 학습 모형을 적용코자 하는 대상 혼성함수의 에너지 분포가 훈련집합과 다르다면, 먼저 에너지 눈금을 일괄 조정하여 에너지 분포 범위를 일치하게 한 뒤 Eq. (11)에 따라 V의 값을 |V|2의 합이 일치하도록 규격화하는 방식으로 눈금을 맞출 수 있으므로, 특정 범위를 가정하여 자료집합을 구성하여도 일반성을 잃지 않는다.

본 연구에서는 저장소 매개변수 Vε을 다양한 조건으로 생성하여 해당 자료집합에 대한 기계 학습의 성능을 시험하였다. 저장소 매개변수는 크게 표본-의존적(sample-dependent), 또는 표본-비의존적(sample-independent)인 경우로 분류되며, 이는 Fig. 1에서 확인할 수 있다. 에너지 ε는 표본-의존적 유형에서 추가적으로 세가지 유형으로 나뉜다: 첫 번째 유형(Fig. 1(a,e))에서는 가장 낮은 에너지를 임의로 설정하고 나머지 에너지가 일정한 간격을 유지하도록 한다. 이때 최고 에너지와 최저 에너지 사이 간격을 3으로 설정하였다. 두 번째 유형(Fig. 1(b,f))에서는 최고 에너지와 최저 에너지를 임의로 설정한 후, 나머지 에너지들이 이 두 값 사이에 등간격으로 분포하도록 한다. 마지막 유형(Fig. 1(c,g))에서는 모든 에너지가 -3과 3 사이에서 무작위로 분포된다. 불순물-저장소 혼성 세기와 에너지가 모두 표본-비의존적인 경우는 모든 표본이 같은 꼬리표를 가져 기계 학습의 대상이 될 수 없으므로 다루지 않는다.

Figure 1. (Color online) Label (bath parameter) combination table. Blue dots represent pairs of {ε,V}. Red lines indicate the intervals between ε. In the Constant column, all samples have identical ε intervals. In the Uniform column, the ε intervals are consistent within each sample but vary randomly between different samples.

2. 속성

기계 학습 모형에서 사용할 속성으로는 1. 허수진동수에서의 혼성함수(Nmax=8,192), 2. 실수진동수에서의 혼성함수(에너지의 범위 [-8,8]에 8,192개의 진동수를 등간격으로, 확장계수 η(broadening factor)는 0.15), 3. 허수시간 혼성함수을 르장드르 다항식으로 전개했을 때의 계수, 총 세 가지를 이용하여 성능을 비교하였다. 해밀토니안 기반 불순물 풀이개는 불순물 모형의 자체에너지를 진동수에 대한 함수로 계산하는 것이 자연스럽다. 보통 혼성함수의 극점(pole)이 존재하지 않는 허수축에서 저장소 맞춤을 수행하는 것이 일반적이나, 해밀토니안 기반 불순물 풀이개는 양자 몬테카를로 계열과 달리 실수축에서의 그린함수 계산을 위해 해석적 연속화가 필요치 않기 때문에 1과 2의 계산 난이도에는 차이가 없다. 3의 경우 허수시간축으로의 푸리에 변환이 추가로 필요하지만, 동적 평균장 이론 회차마다 한 번만 수행하면 되기때문에, 해당 속성을 이용하는 것이 기계 학습 성능을 개선할 수 있다면 저장소 맞춤 과정을 우회하는 비용으로는 합리적인 수준이다. 르장드르 다항식의 계수는 소수의 속성으로 정보를 저장할 수 있기 때문에 기계 학습 모형의 효율을 높일 수 있음이 알려져 있다[16, 31]. 아래와 같이 르장드르 다항식의 직교 성질을 이용하여 르장드르 다항식의 계수를 얻을 수 있다.

al=2l+12β-ββdτΔ(τ)Pl(τβ).

τ는 허수 시간(imaginary time), Plall번째 르장드르 다항식과 그 계수를 나타낸다. 본 논문에서는 르장드르 다항식의 계수 생성할 때 128개의 계수를 생성했으나, 이는 원함수의 실수 정밀도 한계를 크게 넘어서는 수치이다. 따라서, 모형 훈련에는 16개의 계수만을 사용하였다.

1. 성능 지표

기계 학습에서는 개별 표본 결과를 검토하는 것보다는 통계적 성능 지표를 통해 모형의 일반화 능력을 평가하는 것이 중요하다. 가장 흔히 사용되는 성능 지표 중 하나인 평균 제곱 오차(mean squared error, MSE)는 다음과 같이 정의된다.

MSE=1ni=1n(y(i)-y^(i))2

여기서 n은 총 학습 표본의 개수, y(i)i번째 학습 표본의 정답 그리고 y^(i)i번째 학습 표본의 예측값을 나타낸다. 하지만 MSE는 가질 수 있는 값의 제한이 없기 때문에 모형의 성능을 직관적으로 판단하기 어렵다. 그래서 우리는 보다 직관적으로 모형의 성능을 해석하고자 결정계수 R2를 사용한다. 결정 계수 R2는 아래와 같이 정의된다.

R2=1-MSEVar().

이는 목표값 y의 분산에서 모형이 설명하는 비율로, [0,1]사이의 값을 가지게 되며 1에 가까울수록 좋은 성능을 나타낸다. 여기서 Var는 분산(variance)을 나타낸다. 결정 계수 R2는 학습 자료내에서 추정된 y^를 기반으로 결정되는 지표로 평가 자료에 대해서는 음수가 나올 수 있고, 이는 모형의 예측이 해당 자료의 평균을 사용하는 간단한 모형보다도 더 나쁜 성능을 보이고 있음을 의미한다.

Equation (1)을 사용하여 예측된 유효 저장소 매개변수로 계산된 혼성함수의 정확도를 평가하기 위해, 각 표본에 대한 오차의 절대값 제곱의 평균(mean of absolute squared error)을 다음과 같이 정의한다.

χ2=1Nmaxn=0Nmax-1|Δ(iωn)predict-Δ(iωn)target|2.

이는 유효 저장소 맞춤에서 일반적으로 사용되는 비용 함수의 정의와 같다. χ2의 값이 0에 가까울수록 모형의 성능이 좋다는 것을 나타낸다.

2. 결 과

Figure 1에서 분류된 불순물-저장소 혼성 세기 V와 오비탈 에너지 ε의 유효 저장소 매개변수 조합에 대한 기계 학습 성능을 Fig. 1에서 정량적으로 확인할 수 있다. Figure 1(a–g)에서 묘사된 자료집합을 각각 대응되는 알파벳을 이용하여 {A},{B},,{G}로 나타내기로 하자. 이 각각의 자료집합을 이용하여 훈련된 기계 학습 모형의 성능지표가 Fig. 2(a–f)의 대응되는 위치에 나타나있다. ε이 무작위 분포를 가지지 않는 경우 R2가 1에 근접한 값을 가지며, 훈련 표본의 개수를 늘려갈 수록 χ2또한 수렴해가는 것을 볼 수 있다. 이에 대한 구체적인 예시로 Fig. 3에서 자료집합 {E}의 표본 하나에 대해 유효 저장소 매개변수, 실수축 혼성함수 그리고 마츠바라 혼성함수를 얼마나 잘 재현하는지 보여준다. 자료집합 {E}의 경우 뿐 아니라 다른 집합에 대해서도 대체로 훈련 표본의 개수가 늘어남에 따라 성능이 개선됨을 확인할 수 있는데, ε의 분포가 규칙성을 가지면서 자유도가 제한되는 경우에는 적은 훈련 표본에 대해서 성능이 좋지 않을 지라도 훈련 표본의 개수를 늘리면 성능이 좋아지는 것을 확인할 수 있다.

Figure 2. (Color online) Performance of the machine learning model trained with the dataset generated according to the rule shown in Fig. 1. The figure labels (a–f) correspond to those presented in Fig. 1: (a–c) Samples independent of V. (d–f) Samples dependent on V. The conditions for ε are (a) and (e) constant, (b) and (f) uniform, (c) random, and (d) sample independent. The colors blue and orange represent R2 and χ2, respectively. In (a), (b), and (d), χ2 is fitted on a semi-log scale.

Figure 3. (Color online) Comparison between a test sample in dataset {E} and the predicted result by machine learning for (a) bath parameters {ε, V}, (b) real-axis hybridization functions, where the shaded area represents the test function, and (c) Matsubara hybridization functions. The feature used is the real-axis hybridization function. Gray color represents target values. Blue, orange, and green colors represent models trained with 500, 1000, and 8000 data sets, respectively. As the number of samples increases, the prediction approaches the exact one.

하지만 ε이 무작위로 분포되는 {C}, {G}의 경우에는 표본 수가 증가함에 따라 성능이 오히려 악화된다. {C}에 대한 성능 지표 Fig. 2(c)를 보면 훈련 표본의 개수의 증가함에 따라 R2가 미세하게 증가하지만, χ2는 오히려 커지기 때문에 성능이 개선된다고 볼 수 없다. 게다가 Vε 모두 무작위로 분포하게 되면서 늘어난 자유도를 고려하여 100,000개의 표본을 학습시켰음에도 R2가 음수가 나오며 유효한 결과를 주지 못해 {G}의 경우는 Fig. 2에서 제외하였다. εV가 무작위 분포된 표본을 학습한 모형을 이용해 일반화된 유효 저장소 맞춤이 가능한지 확인하기 위해 {E}에 해당하는 표본을 {E}{G}의 표본으로 훈련된 모형을 사용하여 예측한 결과를 Fig. 4에서 보여준다. 그래프를 보면 알 수 있듯이 {G}의 표본으로 훈련된 모형으로는 ε이 규칙적인 분포를 가진 경우에 대해서도 좋은 예측을 보여주지 못한다.

Figure 4. (Color online) Comparison between a test sample in dataset {E} and the result by machine learning model trained by dataset {E} (blue) and {G} (orange), while gray represents target values for (a) bath parameters, (b) real-axis hybridization functions, and (c) Matsubara hybridization functions.

특히 {C}{D}를 비교해 보면, 모든 표본이 동일한 ε 분포를 가지는 경우({C}), ε을 제외하고 무작위 V만을 모형에 학습시켰을 때 학습 표본의 수가 증가함에 따라 성능이 향상되는 것을 확인할 수 있었다. 반면, {D}에서는 표본들이 동일한 V를 가져 학습에서 제외한 후 무작위 ε만을 예측했을 때 유효한 성능을 내지 못하였다. 이는 ε을 예측하는 것이 훨씬 어려운 문제임을 보여준다. 이처럼 위와 같이 무작위 분포를 가지는 ε에 대한 모형은 1.5TB 메모리 용량이 감당 가능한 수준에서 최대한 많은 수의 자료 집합을 이용하여 훈련시키더라도 일반화된 유효 저장소 맞춤을 수행할 수 없다는 것을 알 수 있다.

본 연구에서는 동적 평균장 이론의 유효 저장소 맞춤 과정을 기계 학습으로 대체 가능한지 검토했다. 단일 궤도와 7개의 유효 저장소를 갖는 경우에 대한 계산을 수행하였으며, 유효 저장소의 에너지가 규칙적으로 분포된 경우에는 불순물-저장소 혼성 세기와 무관하게 훈련 표본의 수가 증가할수록 성능이 향상되었다. 유효 저장소의 에너지 분포가 규칙적인 경우({A},{B},{E},{F})에는 전반적으로 실수축의 혼성함수를 속성으로 훈련한 모형의 성능이 좋았는데, 이는 실수축의 혼성함수에서 ε이 극점의 위치를 조절하기 때문에 속성과의 상관관계가 상대적으로 컸기 때문일 것으로 추측한다. 그러나 유효 저장소의 에너지 분포가 무작위일 경우, 성능이 급격히 감소하여 유효한 맞춤 결과를 제공하지 못했다. 이는 임의로 추출된 유효 저장소 매개변수로 기계 학습 모형을 훈련하는 데는 한계가 있음을 나타낸다.

이러한 한계를 극복하기 위한 방안으로 두 방향으로의 후속 연구를 추진중이다. 한 가지는 보다 큰 자료집합에 대해 효율적으로 기능함이 알려져 있는 딥러닝 기법(deep learning)을 이용하여 기계 학습 모형을 구축하는 것이고, 다른 하나는 무작위로 생성된 자료집합 대신 물리적 상황에 걸맞게 최적화된 유효 저장소 매개변수를 기반으로 기계 학습 모형을 훈련시키는 것이다. 본 연구의 결과를 기반으로 딥러닝 기반 모형을 위한 자료집합에는 혼성세기 V에 비해 저장소 에너지 ε의 다양성을 보완하고, 최적화된 유효 저장소 매개변수 자료집합은 최대한 물리적으로 유사한 혼성함수들로 구축할 계획이다.

저장소 궤도 수가 증가함에 따라 동일 성능을 달성하기 위해 필요한 훈련 자료의 수가 증가함은 자연스럽다. 다만 훈련 자료 생성에 필요한 계산이 소수의 단순 사칙연산에 불과하기 때문에, 현실적으로 동적 평균장 이론에서 다룰 수 있는 정도의 범위에서는 궤도 수 증가가 자료집합 생성과 훈련에 소모되는 자원에 큰 영향을 주지 않는다. 기계학습 모형의 예측 결과는 동적 평균장 이론에 직접적으로 사용하기에는 정밀도가 다소 부족하지만, 경사하강법 계열의 최적화 방법을 위해 합리적인 초기조건을 제공하여 반복계산을 회피케 하는 데에는 충분하다. 따라서 향상된 방법론은 더욱 많은 수의 저장소 궤도를 포함한 동적 평균장 이론 계산의 효율을 크게 높일 것으로 기대된다.

이 논문은 전남대학교 학술연구비(과제번호: 2021-2367)와 한국연구재단 우수신진연구(NRF-2021R1C1C1010429) 지원에 의하여 연구되었습니다.

  1. R. Nagai, R. Akashi and O. Sugino, Completing density functional theory by machine learning hidden messages from molecules, npj Comput. Mater. 6, 43 (2020).
    CrossRef
  2. A. Chandrasekaran, et al., Solving the electronic structure problem with machine learning, npj Comput. Mater. 5, 22 (2019).
    CrossRef
  3. D. Di Sante, et al., Deep Learning the Functional Renormalization Group, Phys. Rev. Lett. 129, 136402 (2022).
    CrossRef
  4. Y. Jang, C. H. Kim and A. Go, Classification of magnetic order from electronic structure by using machine learning, Sci. Rep. 13, 12445 (2023).
    CrossRef
  5. X. Dong, E. Gull and L. Wang, Equivariant neural network for Green's functions of molecules and materials, Phys. Rev. B 109, 075112 (2024).
    CrossRef
  6. K. Zhang, et al., Machine learning reveals features of spinon Fermi surface, Commun. Phys. 7, 54 (2024).
    CrossRef
  7. A. Georges, G. Kotliar, W. Krauth and M. J. Rozenberg, Dynamical mean-field theory of strongly correlated fermion systems and the limit of infinite dimensions, Rev. Mod. Phys. 68, 13 (1996).
    CrossRef
  8. D. Zgid and G. K.-L. Chan, Dynamical mean-field theory from a quantum chemical perspective, J. Chem. Phys. 134, 094115 (2010).
    CrossRef
  9. A. I. Lichtenstein and M. I. Katsnelson, Antiferromagnetism and d-wave superconductivity in cuprates: A cluster dynamical mean-field theory, Phys. Rev. B 62, 9283 (2000).
    CrossRef
  10. G. Kotliar, S. Y. Savrasov, G. Pálsson and G. Biroli, Cellular Dynamical Mean Field Approach to Strongly Correlated Systems, Phys. Rev. Lett. 87, 186401 (2001).
    CrossRef
  11. M. Capone, et al., Cluster-dynamical mean-field theory of the density-driven Mott transition in the one-dimensional Hubbard model, Phys. Rev. B 69, 195105 (2004).
    CrossRef
  12. A. Go and G. S. Jeon, Properties of the one-dimensional Hubbard model: cellular dynamical mean-field description, J. Phys.: Condens. Matter 21, 485602 (2009).
    CrossRef
  13. T. Zhu, et al., Coupled-cluster impurity solvers for dynamical mean-field theory, Phys. Rev. B 100, 115154 (2019).
    CrossRef
  14. H. F. Fotso, K.-M. Tam and J. Moreno, Beyond quantum cluster theories: multiscale approaches for strongly correlated systems, Quantum Sci. Technol. 7, 033001 (2022).
    CrossRef
  15. L.-F. Arsenault, A. Lopez-Bezanilla, O. A. von Lilienfeld and A. J. Millis, Machine learning for many-body physics: The case of the Anderson impurity model, Phys. Rev. B 90, 155136 (2014).
    CrossRef
  16. E. Sheridan, et al., Data-driven dynamical mean-field theory: An error-correction approach to solve the quantum many-body problem using machine learning, Phys. Rev. B 104, 205120 (2021).
    CrossRef
  17. C. Venturella, C. Hillenbrand, J. Li and T. Zhu, Machine Learning Many-Body Green’s Functions for Molecular Excitation Spectra, J. Chem. Theory Comput. 20, 143 (2023).
    CrossRef
  18. B. Bordelon and C. Pehlevan, Self-consistent dynamical field theory of kernel evolution in wide neural networks, J. Stat. Mech. 2023, 114009 (2023).
    CrossRef
  19. J. B. Rigo and A. K. Mitchell, arXiv:2401.13600 [cond-mat.str-el]. https://arxiv.org/abs/2401.13600.
  20. A. Liebsch and H. Ishida, Temperature and bath size in exact diagonalization dynamical mean field theory, J. Phys.: Condens. Matter 24, 053201 (2011).
    CrossRef
  21. D. J. Scalapino and R. L. Sugar, Method for Performing Monte Carlo Calculations for Systems with Fermions, Phys. Rev. Lett. 46, 519 (1981).
    CrossRef
  22. E. Sheridan, C. Weber, E. Plekhanov and C. Rhodes, Continuous-time quantum Monte Carlo solver for dynamical mean field theory in the compact Legendre representation, Phys. Rev. B 99, 205156 (2019).
    CrossRef
  23. E. Koch, G. Sangiovanni and O. Gunnarsson, Sum rules and bath parametrization for quantum cluster theories, Phys. Rev. B 78, 115102 (2008).
    CrossRef
  24. D. Sénéchal, Bath optimization in the cellular dynamical mean-field theory, Phys. Rev. B 81, 235125 (2010).
    CrossRef
  25. M. Nusspickel and G. H. Booth, Frequency-dependent and algebraic bath states for a dynamical mean-field theory with compact support, Phys. Rev. B 101, 045126 (2020).
    CrossRef
  26. R. Peters, Spectral functions for single- and multi-impurity models using density matrix renormalization group, Phys. Rev. B 84, 075139 (2011).
    CrossRef
  27. M. Ganahl, et al., Chebyshev expansion for impurity models using matrix product states, Phys. Rev. B 90, 045144 (2014).
    CrossRef
  28. F. A. Wolf, et al., Imaginary-Time Matrix Product State Impurity Solver for Dynamical Mean-Field Theory, Phys. Rev. X 5, 041032 (2015).
    CrossRef
  29. C. J. Bolech, S. S. Kancharla and G. Kotliar, Cellular dynamical mean-field theory for the one-dimensional extended Hubbard model, Phys. Rev. B 67, 075110 (2003).
    CrossRef
  30. T. Hastie, R. Tibshirani and J. Friedman, The Elements of Statistical Learning, Springer Series in Statistics (Springer New York Inc., New York, NY, USA, 2001).
  31. L. Boehnke, et al., Orthogonal polynomial representation of imaginary-time Green’s functions, Phys. Rev. B 84, 075145 (2011).
    CrossRef

Stats or Metrics

Share this article on :

Related articles in NPSM