npsm 새물리 New Physics : Sae Mulli

pISSN 0374-4914 eISSN 2289-0041
Qrcode

Article

Research Paper

New Phys.: Sae Mulli 2025; 75: 174-179

Published online February 28, 2025 https://doi.org/10.3938/NPSM.75.174

Copyright © New Physics: Sae Mulli.

Solving the Eigenvalue Problem of the Schrödinger Equation with a Gaussian Potential Using Physics-Informed Neural Networks (PINNs)

물리지식기반 인공신경망을 이용한 가우시안 형태의 양자 퍼텐셜의 고유치 문제 풀이

Jai-Min Choi

Department of Science Education, Jeonbuk National Univeristy, Jeonju 54896, Korea

Correspondence to:jaiminchoi@jbnu.ac.kr

Received: October 23, 2024; Accepted: January 3, 2025

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License(http://creativecommons.org/licenses/by-nc/4.0) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

In this study, we solved the eigenfunction and eigenvalue problems of the Schrödinger equation with a Gaussian potential, which plays an important role in both theoretical and experimental contexts, using Physics-Informed Neural Networks (PINNs). Since the Gaussian potential lacks an analytical solution, we validated the results obtained from PINNs using the finite difference method. The results showed that PINNs closely matched the finite difference method for the ground state and lower energy levels, with eigenvalues agreeing within a 1% margin of error. However, at higher energy levels, discrepancies arose due to boundary conditions and the limitations of the orthogonality loss function. This study demonstrates the potential of applying PINNs to eigenvalue problems in realistic experimental scenarios and discusses their possible use in future research on complex quantum systems and as an educational tool.

Keywords: Physics-Informed neural netweorks, Gaussian potential well, Eigenvalue problem, Physics education

본 연구에서는 이론 및 실험적으로 중요한 가우시안 퍼텐셜을 갖는 슈뢰딩거 방정식의 고유함수와 고유치를 구하는 문제를 물리정보기반 인공신경망(PINN)을 활용하여 해결하였다. 가우시안 퍼텐셜은 해석적 해가 존재하지 않기 때문에, PINN으로 도출한 결과를 유한 차분법을 통해 검증하였다. 연구 결과, PINN은 기저 상태와 낮은 에너지 상태에서 유한 차분법과 잘 일치하는 결과를 보여주었으며, 에너지 고유값은 1% 이내의 오차를 보였다. 그러나 높은 에너지 상태에서는 경계조건과 직교성 손실함수의 제약으로 인해 수치해와 차이가 발생하였다. 본 연구를 통해 PINN을 이용한 고유치 문제 해결 방법을 실제 실험적 상황으로 확장할 수 있는 가능성을 제시하였으며, 향후 복잡한 양자 시스템의 연구 및 교육적 도구로서의 활용 가능성을 논의하였다.

Keywords: 물리지식기반 인공신경망, 가우시안 퍼텐셜, 고유치 문제, 물리 교육

기계학습은 무인운전, 에너지 수확, 건강 관리, 금융 등 다양한 산업분야에서 활용되어 놀라운 성과를 보여주고 있으며, 단백질 3차원 구조 예측, 새로운 별이나 은하의 발견, 기후 예측 및 환경 모니터링, 신약 후보군 탐색, LHC와 같은 거대 규모 실험에서 힉스 보손과 같은 입자를 탐지하는 데 필요한 이벤트를 신속하고 정확하게 식별하는 등 자연과학의 다양한 분야에서 중요한 도구로 활용되고 있다[1]. 기계학습의 일반적인 방법론은 대규모 데이터를 학습하는 과정을 통해 인공신경망을 구성하고, 이를 이용하여 새로운 결과를 예측하는 데 활용하는 것이다. 인공신경망을 활용한 기계학습은 앞서 언급한 다양한 사례에서 성공적인 결과를 도출하였으나, 학습된 모델이 데이터에만 의존하기 때문에 현상에 대한 메커니즘이 결여된다는 근본적인 한계가 있다.

이와는 다른 접근법으로 물리법칙 등 주어진 현상에 대해 알고 있는 사전 지식을 이용하여 인공신경망을 학습시키는 물리정보기반 인공신경망(Physics-Informed Neural Networks, PINN)을 이용한 연구가 기존의 기계학습 방법론의 단점을 보완하는 방법으로 주목받고 있다[2]. 물리정보기반 인공신경망은 물리법칙과 현상의 근본적인 특성에 대한 지식을 수학적인 모델로 사용하여 인공신경망을 학습시키기 때문에 데이터에 대한 의존성을 획기적으로 줄 일 수 있는 장점이 있어서 기존의 기계학습에서 다루기 힘든 노이즈가 포함된 문제, 다차원 문제, 다중물리학 현상, 역문제(inverse problem) 등을 효율적으로 해결하는 방법으로 기대되고 있다[3].

최근 들어 PINN을 이용하여 양자역학적인 시스템을 기술하는 슈뢰딩거 방정식을 다양한 상황에서 풀이하는 연구들도 활발하게 진행되고 있다. Lagaris et al.은 인공신경망을 학습시켜 상미분 방정식과 편미분 방정식을 풀 수 있음을 보였으며[4], 관련 연구에서 인공신경망 방법을 이용하여 Henon-Heiles 해밀토니언의 기저상태 에너지와 몇 개의 고유함수를 구하였다[5]. Jin et al.은 슈뢰딩거 방정식과 함께 양자시스템의 직교성 등을 손실함수와 규제항에 도입하여 주어진 양자 퍼텐셜의 고유상태 및 에너지를 순차적으로 찾는 방법을 고안하였다[6, 7]. Holliday et al.은 앞서 Jin et al.이 제안한 PINN 방법론을 개선하여 다양한 모양의 2차원 무한 퍼텐셜의 기저 상태 근처의 고유함수와 에너지 고유값을 찾은 연구를 보고하였다[8]. 한편 Li et al.은 주어진 시스템의 해밀토니언과 고유상태 간의 직교성을 손실함수로 도입하여 N 개의 고유 에너지와 고유함수를 동시에 찾는 방법을 보고하였으며[9], Liu et al.은 에너지 고유값의 분산을 손실함수에 도입하여 다수의 고유상태에 대한 풀이를 동시에 얻는 연구를 보고하였다[10].

본 논문에서는 Jin et al. 이 제안한 PINN 방법론을 이용하여 유전체 나노입자나 원자를 포획하는 데 이용되는, 가우시안 분포를 갖는 광학적인 퍼텐셜 우물에 대한 에너지 고유값과 이에 해당하는 고유함수를 구하는 연구를 수행하였다. 광포획 우물의 고유함수와 에너지 고유값을 정확히 아는 것은 포획입자를 주어진 퍼텐셜의 기저상태로 냉각하여 양자역학적인 현상을 구현하는 데 있어서 매우 중요한 요소이다. 한편, 앞서 제시한 기존의 연구 사례에서는 조화진동자 퍼텐셜, Morse 퍼텐셜, Henon-Heiles 퍼텐셜 등 해석적인 해가 존재하는 교과서적인 상황에 대하여 PINN 방법론을 적용한 결과를 보고하였지만 가우시안 퍼텐셜의 경우 해석적인 해가 존재하지 않는다. 따라서 유한 차분법(finite difference method)를 이용하여 수치계산을 수행하여 PINN을 통해 얻은 결과를 검증하였다[11].

본 논문에서 다루는 가우시안 퍼텐셜에 대한 슈뢰딩거 방정식의 해를 PINN 방법론으로 구하는 주제는 향후 실험상황을 반영하는 파라메터를 도입하여 노이즈를 포함한 퍼텐셜의 고유치 문제 등 연구 주제로 확장 할 수 있을 것으로 생각하며, 또한 교육적인 관점에서 전산물리학과 양자역학 그리고 기계학습의 개념과 방법론이 모두 적용되는 학습주제로 향후 AI 디지털교과서(AI Digital Textbook, AIDT)에서 고급 주제로 활용 될 수도 있을 것이다.

물리지식기반 인공신경망은 Fig. 1에 나타낸 것 처럼 입력층과 은닉층 그리고 출력층으로 구성된다. PINN에서 인공신경망의 학습은 주어진 상황에 대한 물리적 지식을 반영하는 손실함수를 구현하고 이를 최소화 하는 과정을 통해 다층 퍼셉트론을 구성하는 인공신경들을 연결하는 가중치 값들과 편향값들을 찾아내는 과정이라고 할 수 있다. 여기서 물리적인 지식은 이차 미분방정식을 이용하여 나타낼 수 있으며, 본 논문에서는 가우시안 형태의 광학적 퍼텐셜의 에너지 고유값과 고유함수를 Jin et al.이 제안한 PINN 방법을 사용하여 구하고[6, 7], 그 결과를 기존의 검증된 수치해를 통해 얻은 결과와 비교하여 검증하고자 한다.

Figure 1. The architecture of artificial neural networks for physics-informed neural networks. We use deep neural networks with two hidden layers and each Hidden layers consists of 100 neurons.
-12d2dx2+V(x)ψ(x,ε)=εψ(x,ε)

Equation (1)로 주어진 슈뢰딩거 방정식을 만족하는 파동함수 ψ(x,ε), 다층 퍼셉트론의 출력 N(x,ε), 경계조건을 만족시키기 위해 도입한 함수 B(x) 그리고 경계값 ψb를 이용하여 다음과 같이 가설 풀이 ψ˜(x,ε)를 나타낼 수 있다.

ψ˜(x,ε)=ψb+B(x)ψ(x,ε)

여기서 ψb는 Dirichlet 조건에 따라 경계에서의 함수 값이고, ψ˜(x,ε)이 항상 경계조건을 만족시키도록 B(x)=(1-e-(x-xL))(1-e(x-xR))로 선택한다 (xL<0,xR>0).

인공 신경망의 출력으로 얻어지는 가설 풀이 ψ˜(x,ε)가 슈뢰딩거 방정식을 만족하는 참된 해에 근접하는 척도로서 손실함수를 정의하여 인공신경망의 출력을 평가한다.

Ltotal=LSch+νnoLno+νorLor

여기서 Ltotal는 총 손실함수 이고, LSch는 슈뢰딩거 방정식에 대한 손실함수로 Eq. (4)로 주어지며, Lno는 뻔한 해를 피하기 위하여 고유함수를 규격화하기 위한 손실함수로 Eq. (5)로 주어지고, Lor는 고유함수의 직교성을 평가하는 손실함수로 Eq. (6)으로 주어진다. νnoνor은 각각의 손실 함수의 비중을 조절하기 위한 기계학습에서 사용하는 하이퍼파라메터이다.

LSch=1NiN-12d2dx2+V(xi)ψ˜(xi,ε)-εψ˜(xi,ε) Lno=NL2i|ψ˜(xi,ε)|2-1 Lor=iψiψ˜

위에서 N은 위치 표본의 수, L은 구간의 길이이다. Equation (6)에서 ψi은 시스템의 고유함수를 나타낸다.

Figure 1에 나타낸 다층 퍼셉트론을 구성하는 l번째 은닉층의 n 번째 인공 신경이 입력받는 값(zal)은 이전 층(l-1)의 m 번째 인공신경의 출력(σml-1(z))과 가중치(wmnl)와 편향값(bnl)의 선형적인 결합으로 나타낼 수 있다.

znl=m=0Nl-1wnmlσ[zml-1]

위에서 편향값은 m=0인 가중치에 포함시켜 나타내었으며, σ는 인공신경의 활성화 함수로 일반적으로 sigmoid, ReLU 함수 등이 사용되는 데, 본 연구에서는 sine 함수를 활성화 함수로 사용하였다. 총 손실함수는 각각의 인공신경의 출력과 입력을 연결하는 가중치에 대한 의존성을 갖으므로 Ltotal(x,εw)로 나타낼 수 있다(w={wmnl}). 인공 신경망의 학습은 초기 입력 ({xi},ε)에 대하여 손실함수를 최소화하는 가중치들의 값을 경사 하강법을 이용하여 찾아가는 과정으로 다음의 수식으로 나타낼 수 있다.

ww-ηwLtotal

여기서 η는 학습률을 나타내는 데 본 연구에서는 η=2.5×10-3로 설정하였으며 최적화 과정은 Adam 최적화 기법을 사용하였다.

원자 또는 유전체 나노입자를 포획하는 광집게는 레이저 광선을 강하게 집속하여 포획 입자에 대해 3차원의 구속력을 작용시키도록 하여 구현한다. 일반적으로 레이저 광선의 횡방향 세기는 가우시안 분포를 갖으며 이에 따른 입자에 작용하는 퍼텐셜은 레이저 광선의 세기가 가장 센 곳에서 최소값을 갖으며 V(x)=-V0e-2x2/σ2와 같이 나타낼 수 있다. 여기서 V0는 퍼텐셜의 깊이, x는 레이저의 중심축으로부터의 거리, σ는 레이저 광선의 폭이다.

주어진 1차원 퍼텐셜 V(x)와 시스템의 에너지 ε에 대하여 WKB 적분을 다음과 같이 나타낼 수 있다[12].

x1x22ε-V(x)dx=n-12π, for n=1,2,3,...

ε=0인 조건에서 고전적인 운동의 터닝포인트에 해당하는 x1,x2는 각각 ,-이고 이때의 상태수 n=N은 최종 구속 상태에 대한 양자수의 의미를 갖는다. 본 연구에서는 위 조건을 고려하여 총 5개의 구속 상태가 존재하도록 퍼텐셜 파라메터를 V0=5,σ2=8 로 정하여 인공신경망 학습을 진행하였다[11].

인공신경망은 2개의 은닉층을 가진 심층신경망으로 구성하였으며, Jin et al.의 경우 각각의 은닉층이 50 개의 인공뉴런을 가진 구조를 사용하였으나 본 연구에서는 각각의 은닉층이 100개의 인공뉴런을 갖도록 구성하였다. 인공신경망을 학습하기 위해 xmin=-10, xmax=10의 구간에서 1001개의 포인트를 선택하여 인공신경망에 입력하였으며, 고유에너지 ε의 초기값은 1을 입력하였다. 또한 인공신경들을 연결하는 가중치들의 초기값은 Glorot et al.이 제안한 분포를 이용하였으며[13], 학습률은 η=2.5×10-3으로 하였다. 인공 신경망의 학습은 앞의 방법론에서 기술한 것 처럼 경사하강법을 사용하여 손실함수를 최소화하는 과정으로 한 번의 학습주기(epoch)마다 역전파 방법을 사용하여 손실함수를 줄이는 가중치 값들을 찾게 된다. 또한 이 과정을 통하여 초기에 입력한 에너지 고유값 역시 손실함수를 줄이는 방향으로 변경된다.

인공신경망의 학습 진행에 따라 인공신경망의 출력으로 얻어지는 에너지 고유값(En)과 손실함수의 변화를 Fig. 2에 나타내었다. 제시한 결과는 같은 조건으로 5회를 반복하여 인공신경망을 학습 시킨 결과중 하나이다. 그림에서 손실함수 크기는 log 스케일로 나타내었다. 임의의 초기조건에서 얻어지는 손실함수의 크기는 103 정도이고 학습이 진행함에 따라 인공신경망이 주어진 슈뢰딩거 방정식을 만족하도록 구성되면서 기저상태에 대한 손실함수의 크기는 10-5 수준으로 줄어든다. 학습을 하는 과정에서 손실함수의 크기가 설정한 한계값(δthresh)보다 작아지면 에너지 고유값과 인공신경망의 가중치 값들을 저장하고 인공 신경망을 초기화 하여 다른 고유상태를 탐색하게 된다. 이때 Fig. 2Epochs = 15000 근처에서 손실함수가 급격하게 커지는 것을 볼 수 있다. 하나의 고유상태를 찾으면 총 손실함수는 고유 함수간의 직교성을 조사하는 Lor를 포함하도록 하여 한 번 찾은 고유 상태를 다시 찾지 않도록 한다. Figure 2에는 손실함수의 변화가 급격하게 변하는 지점이 4개가 있으며 이때가 주어진 퍼텐셜의 총 5개의 속박상태 중 4개의 고유상태를 찾은 지점이다. 마지막 고유상태를 찾으면 훈련을 마치도록 프로그램하였기 때문에 그래프에서 5번째 상태를 찾은 지점을 인식하기 어렵지만 Epoch = 103397에서 손실함수의 크기가 δthresh 작은 조건을 만족하고 마지막 5번째의 고유상태를 찾고 학습을 마치게 된다. 이러한 과정으로 인공신경망은 총 5개의 속박상태에 해당하는 에너지 고유치와 고유함수에 해당하는 인공신경망 파라메터를 학습하게 된다. Figure 3에 학습 진행에 따른 손실함수 LSch,Lno,Lor의 변화를 보다 구체적으로 나타냈다. 인공신경망이 물리정보를 사용하여 기저상태(n=0)을 찾는 초기 구간에서는 손실함수 LSchLno가 줄어들고 있으며, 기저 상태를 찾은 이후 Lor이 큰 비중으로 나타나는 것을 볼 수 있다. 앞으로 추가연구를 진행하여 고유상태 사이의 직교성의 지표인 Lor를 개선하여 인공신경망을 통해 주어진 슈뢰딩거 방정식을 만족하는 보다 정확한 고여유함수와 고유에너지 값을 얻을 수 있을 것으로 기대한다.

Figure 2. (Color online) Enegy eigenvalues (En) search results using PINNS. (top) En search history. Horizontal grid lines correspond to energy eigenvalues {0.744,2.113,3.190,4.143,4.613} found by PINN. (bottom) Associated loss during the artificial network training.
Figure 3. (Color online) Loss terms (LSch,Lno,Lor) changes during the artificial network training. LSch is the Schödinger equation loss, Lno is the normalization loss, and Lor is the orthogonality loss.

주어진 퍼텐셜 V(x)=-5e-x2/4에 대하여 물리기반 인공신경망(PINN)으로 찾은 고유함수와 고유에너지 값을 Fig. 4와 Table 1에 나타냈으며 유한 차분법(finite difference method)으로 얻은 결과도 함께 나타내었다. 편의상 에너지 고유값은 상수 5를 더하여 나타내었으며 이는 V(x)=51-e-x2/4의 결과에 해당한다. PINN으로 찾은 Fig. 4(a)에 나타낸 고유함수는 5회 반복한 실험 중 하나의 결과를 나타낸 것이며, Fig. 4(b)의 에너지 고유값은 평균치와 표준편차를 함께 나타내었다. 유한 차분법으로 얻은 고유함수와 고유값은 수렴하는 조건에서 얻은 결과로 오차를 따로 표시하지 않았다. 기저상태와 첫번째 들뜬 상태의 에너지 고유값은 1% 이내의 차이로 일치하는 결과를 보여주고 있으며 이에 해당하는 고유함수 역시 PINN 결과와 유한 차분법으로 얻은 결과가 매우 잘 일치하는 것을 확인할 수 있다. 하지만 가장 높은 구속 상태 근처에서는 에너지 고유값과 고유함수가 수치계산의 결과와 차이가 증가하는 것을 볼 수 있다. 이에 대한 정성적인 설명은 높은 고유상태의 경우 고유함수가 기저 상태에 비하여 상대적으로 넓은 영역에 분포하여 본 연구에서 사용한 인공신경망을 학습시킨 구간 -10,10이 Dirichlet 경계조건을 만족하기에 충분하지 않은 이유와 앞서 고유함수들을 찾음에 따라 직교성에 대한 손실함수 Lor가 증가하여 δthresh를 충분히 낮출 수 없기 때문이다. 현재 인공신경망을 학습시키기 위한 보다 적절한 파라메터 값을 정하고 손실함수에 대한 정량적인 연구를 통하여 인공신경망의 성능을 향상 시키는 연구를 진행하고 있으며 개선된 결과를 얻을 수 있을 것으로 기대한다.

Figure 4. (Color online) Comparison of PINN and numerical results. Numerical calculations were performed using the finite difference method. (a) The wave functions of the bound states: PINN results are presented with solid lines, while the corresponding numerical results are shown with dashed lines. (b) Comparison of energy eigenvalues between PINN and numerical results

Comparison of eigenvalues found by PINN vs finite difference method. EFD and EPINN are eigenvalues obtained using finite difference method and PINN, respectively.


StateEFDEPINN
00.7430.744 ± 0.0005
12.1282.123 ± 0.0224
23.2983.190 ± 0.0215
34.2224.143 ± 0.0481
44.8404.613 ± 0.2144

본 연구는 PINN을 이용하여 가우시안 퍼텐셜의 고유함수와 고유치를 구할 수 있음을 보였으며, 이는 기존의 교과서적인 퍼텐셜에 국한된 PINN 연구를 실제 실험 상황에 적용할 수 있는 가능성을 확인한 첫걸음이라고 할 수 있다. 특히, 유한 차분법을 통해 해석적인 해가 존재하지 않는 상황에 대한 PINN의 결과를 검증하였으며, 두 방법이 기저 상태와 낮은 에너지 상태에서는 높은 일치율을 보였다는 점에서 PINN의 유용성을 입증하였다.

다만, 높은 에너지 상태에서는 경계 조건과 손실 함수의 직교성 항이 고유함수의 학습에 어려움을 주었으며, 이로 인해 PINN의 학습 결과가 수치해와 차이를 보였다. 이는 고유함수가 높은 에너지 상태에서 더 넓은 공간에 퍼지기 때문에, 학습 구간의 한계와 경계 조건이 결과에 영향을 미쳤기 때문으로 분석된다. 향후 연구에서는 보다 적절한 학습 구간의 설정, 경계 조건의 개선, 그리고 직교성 손실 함수를 포함한 손실 함수의 조정 등을 통해 이러한 문제를 개선할 수 있을 것으로 기대한다.

또한, 본 연구에서 사용한 방법론은 이론적인 가우시안 퍼텐셜의 고유치 문제를 다루는 것에 그치지 않고, 향후 실험에서 발생할 수 있는 다양한 노이즈나 복잡한 퍼텐셜 형태에 PINN을 적용할 수 있는 가능성을 제시하고 있다. 끝으로, 본 연구의 결과는 물리학 교육에서 PINN을 활용한 새로운 교육적 도구로 활용될 수 있으며, 전산물리학 및 양자역학의 문제를 다루는 데 있어 학습자들에게 기계학습과 물리학을 통합한 학습 주제로서 중요한 교육적 가치를 가질 수 있다.

본 연구는 2023년과 2024년 전북대학교 학술트랙 연구지원금으로 수행되었습니다.

  1. G. Carleo, et al., Machine Learning and the Physical Sciences, Rev. Mod. Phys. 91, 045002 (2019).
    CrossRef
  2. M. Raissi, A. Yazdani and G. E. Karniadakis, Hidden Fluid Mechanics: Learning Velocity and Pressure Fields from Flow Visualizations, Science 367, 1026 (2020).
    CrossRef
  3. G. E. Karniadakis, et al., Physics-informed Machine Learning, Nat. Rev. Phys. 3, 422 (2021).
    CrossRef
  4. I. E. Lagaris, A. Likas and D. I. Fotiadis, Artificial Neural Networks for Solving Ordinary and Partial Differential Equations, IEEE Trans. Neural Netw. 9, 987 (1998).
    CrossRef
  5. I. E. Lagaris, A. Likas and D. I. Fotiadis, Artificial Neural Network Methods in Quantum Mechanics, Comput. Phys. Commun. 104, 1 (1997).
    CrossRef
  6. H. Jin, M. Mattheakis and P. Protopapas, Unsupervised Neural Networks for Quantum Eigenvalue Problems, arXiv: 2010.05075.
    CrossRef
  7. H. Jin, M. Mattheakis and P. Protopapas, Physics-Informed Neural Networks for Quantum Eigenvalue Problems, 2022 International Joint Conference on Neural Networks (IJCNN) (IJCNN Padua, Italy, 2022).
    CrossRef
  8. E. G. Holliday, J. F. Lindner and W. L. Ditto, Solving Quantum Billiard Eigenvalue Problems with Physics-informed Machine Learning, AIP Adv. 13, 085013 (2023).
    CrossRef
  9. H. Li, Q. Zhai and J. Z. Y. Chen, Neural-network-based Multistate Solver for a Static Schrödinger Equation, Phys. Rev. A 103, 032405 (2021).
    CrossRef
  10. J. Liu, et al., Calculating Many Excited States of the Multidimensional Time-independent Schrödinger Equation Using a Neural Network, Phys. Rev. A 108, 032803 (2023).
    CrossRef
  11. S. Nandi, The Quantum Gaussian Well, Am. J. Phys. 78, 1341 (2010).
    CrossRef
  12. E. Merzbacher, Quantum Mechanics, 3rd ed. (Wiley, New York, 2005), Chap. 7.
  13. X. Glorot and Y. Bengio, Understanding the Difficulty of Training Deep Feedforward Neural Networ, in Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, Y. W. Teh and M. Titterington (eds.) (PMLR, 2010), pp. 249-256.

Stats or Metrics

Share this article on :

Related articles in NPSM