npsm 새물리 New Physics : Sae Mulli

pISSN 0374-4914 eISSN 2289-0041
Qrcode

Article

Research Paper

New Phys.: Sae Mulli 2023; 73: 478-486

Published online May 31, 2023 https://doi.org/10.3938/NPSM.73.478

Copyright © New Physics: Sae Mulli.

A New Patent Search System Applying Contrastive Learning

대조 학습을 이용한 유사 특허기술 탐색 시스템

Si Heon Jo1, Sangjoon Park1, Yongsung Kwon1, Mi Jin Lee2*, Seung-Woo Son1,2†

1Department of Applied Artificial Intelligence, Hanyang University, Ansan 15588, Korea
2Department of Applied Physics, Hanyang University, Ansan 15588, Korea

Correspondence to:*E-mail: mijinlee@hanyang.ac.kr
E-mail: sonswoo@hanyang.ac.kr

Received: February 8, 2023; Accepted: March 11, 2023

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License(http://creativecommons.org/licenses/by-nc/3.0) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Prior to patent application, relevant existing patents must first be searched. Patent attorneys investigate previous patents and technology trends, but this can be a time consuming process; thus, automating the process has become imperative. Previous research has used natural language processing models to recommend similar patents by vectorizing these patents in latent space. In the current study, we propose using PatentBERT, a pretrained language model for patents, to vectorize words and reduce the search scope of patents using the contrastive loss function. This model can reduce the time needed for preliminary patent investigation and can be applied to other areas, such as screening research papers or searching for similar references.

Keywords: Deep Learning, Natural Language Processing, Patent

새로운 기술이 개발되면 특허를 출원하는 과정에서 이전에 유사한 기술이 등록됐는지 확인하는 특허 기술 선행조사를 해야한다. 특허 선행기술 조사는 변리사들이 선행 특허를 직접 조사하여 유사한 기술 동향을 파악한다. 이 과정은 변리사가 전문 지식을 가지고 직접 진행하여 시간 소모가 크고 많은 인력이 들어간다. 최근 인공지능이 발달함에 따라 특허 선행기술 조사를 자동화하는 연구가 진행되고 있다. 특허를 잠재 공간 상에 벡터화하여 유사한 특허를 찾는 방식이다. 하지만 같은 특허 분류번호로 구분되고 내용이 유사한 특허임에도 특허 사이의 단어 구성이 달라 탐색시 작동하지 않는 경우가 있다. 본 연구에서는 자연어 처리 모델에 대조 학습을 이용하여 특허 탐색 모델을 제안한다. 제안 모델을 이용하여 도메인 중심으로 군집화를 이루었고, 유사특허 탐색에서 성능을 보였다. 이 방법은 특허 선행기술 조사 범위 축소와 유사한 내용 논문 선별, 표절 검사 등의 영역에서 활용될 것으로 기대된다.

Keywords: 딥러닝, 자연어처리, 특허

4차 산업 시대에 이르러 기술 발전은 다양한 분야에 걸쳐 날이 갈수록 빠르게 진행되고 있다. 수많은 기술이 다양한 국가와 다양한 분야에서 쏟아져 나오며 기존의 기술과 유사하거나 중복되는 등 기술 사이의 권리 침해가 일어날 수 있다. 기술의 권리 침해가 일어나는 경우 어떤 기술의 최초 개발자 외에 유사하거나 중복되는 기술로 이익을 얻는 사람이 발생할 수 있다. 과거보다 향상된 유사 기술은 관련 기술의 최초 발명자 허락 없이 사용될 위험성이 있는데 발명자의 권리를 지켜주기 위한 제도적 장치를 특허권이라 한다. 특허권은 기업이나 개인의 발명을 다른 이에게서 보호하기 위한 제도이며 발명자의 아이디어를 많은 사람이 누릴 수 있고 발전된 기술로 산업 발전으로 이어질 수 있게 해준다[1].

이렇듯 새로운 기술을 개발하고 특허를 출원하는 과정에서 이전의 유사하거나 중복되는 특허가 있는지 확인하는 일은 필수적이다. 이러한 과정을 특허 선행기술 조사라 한다. 이는 신규성과 진보성을 판단하는 과정으로 특허의 출원 여부를 결정짓는 중요한 요소이다[2]. 특허 선행기술 조사 시 특허 조사 범위는 국내와 국외 모두를 포함한다. 국내 특허는 특허청의 키프리스 (KIPRIS)[3] 또는 윕스 (WIPS)[4] 등의 특허 검색 사이트를 이용해 변리사가 직접 검색을 수행하고, 해외 특허는 주로 구글 특허[5] 검색 등을 활용해 선행기술을 조사한다. 문제는 해가 갈수록 기술의 발전의 속도가 빨라지며 특허의 출원 양도 늘고 전체 특허 건수가 누적되어 탐색해야할 자료 수가 기하급수적으로 증가하고 있다는 것이다. 선행기술 조사과정은 자동화가 쉽지 않아 특허 양이 많을수록 소요 시간은 늘어난다. 또한 특허 선행조사 업무를 맡은 담당관의 세부 전공 분야와 거리가 먼 세부 분야의 특허 선행조사를 진행할 경우 정확한 유사 특허를 찾기가 더욱 힘들다는 문제점이 있다.

전문가가 직접 선행기술 조사를 하는 일에 많은 시간과 인력이 소요되기에 최근에는 인공지능을 이용하여 자동화하는 방법이 연구되고 있다. 특허는 논문이나 보고서와 같이 문서의 글로 이루어져있기 때문에 자연어 처리 모델이 이용된다. 이전 연구에서는 자연어 처리 모델로 글의 단어를 벡터화하여 글 사이의 유사도를 계산했다[6-10]. 이를 특허에 적용하여 유사한 특허를 탐색하는 시스템을 구축하여 유사 특허를 추천하는 모델이 제안되었다. 하지만 자연어 처리 모델이 글의 문맥적 특징까지 파악하도록 설계되지 않았고, 같은 내용의 특허라도 특허의 단어 구성이 다르다면 추천 받지 못하는 문제점이 있다[11-13]. 최근 연구에서는 글의 벡터화 과정에서 문맥을 반영하는데 좋은 성능을 보이는 Bidirectional Embedding Representation from Transformer (BERT)를 주로 활용하고 있다[14]. 특히, 특허 문서를 처리하는데 더 적합한 모델을 사용하기 위해 특허 문서로 미세조정한 PatentBERT가 활용되고 있다[15]. 다른 연구에서는 판별하고자하는 특허와 유사한 특허를 찾기 위해서, 데이터 비교를 통해 학습시키는 대조 학습(contrastive learning)을 활용한 사례도 있었다[16].

본 논문은 유사한 특허를 탐색하는 용도로 쓰이던 언어 모델인 PatentBERT와 대조 학습의 대조 손실(contrastive loss)[17]를 결합하여 대조 학습의 성능 향상을 수행하였다. 먼저, 특허 문서의 초록을 바탕으로 텍스트 형태의 데이터를 잠재공간에 올리기 위해 PatentBERT를 이용해서 특허 데이터를 벡터화했다. 위 과정을 통해서 벡터화된 각각의 특허 문서는 잠재공간에 위치하게 된다. PatentBERT를 통과한 벡터 형태의 특허 문서는 글의 문맥 정보에 의해서만 잠재공간에 위치하게 되는데, 이는 각 기술의 도메인 지식을 기반으로 만들어진 것이 아니기 때문에 분류하고자 하는 특허 데이터에 대한 미세조정(fine-tuning)이 필요하다. 따라서 특허 문서들을 제대로 임베딩 시키기 위해 PatentBERT 이후에 순방향 신경망(feedforward neural network)을 구성하고 이에 대한 미세조정에서 대조 학습을 통해 진행한다. PatentBERT와 대조학습으로 미세조정한 모델은 BERT에 대해 대조 학습을 진행한 것 보다 군집화 측면에서 더 뛰어난 성능을 보인다. 또한 잠재공간 상 유클리드 거리(Euclidean distance) 기반 유사 특허탐색에서 다른 단어들로 구성이 되어있지만 내용이 유사한 특허를 찾아내는 것이 가능함을 확인하였다.

본 연구의 각 장에서는 다음과 같은 내용을 다룬다. II 장에서 학습 및 평가에 사용한 미국 특허 관련 United States Patent and Trademark Office (USPTO) 데이터와 유사 특허탐색을 위해 구축한 인공 신경망 모델의 구조에 대해 설명한다. III 장에서는 적절한 군집화를 위한 대조 손실과 대조 학습에 사용되는 데이터 쌍을 형성하는 과정을 다룬다. IV 장에서는 PatentBERT와 대조 학습 활용 여부에 따른 군집화 정도를 평가하고, 잠재공간 상에서 인접한 특허들이 내용이 비슷한 특허인지 확인함으로써 유사 특허탐색이 가능함을 보인다.

특허 사이의 단어 구성이 얼마나 유사한지 측정한 자카드 유사도(Jaccard similarity)와 잠재공간 상에서 특허 문서 사이의 거리를 나타내는 유클리드 거리를 살펴보기 위해 하버드 데이터버스(Harvard Dataverse)에서 제공하는 USPTO 데이터[18]를 사용했다. 하버드 대학에서 제공하는 USPTO 데이터는 특허들의 초록에 대한 자카드 유사도가 기재되어 있다. 데이터는 미국 특허청에서 제공한 1973년에서 2013년까지 4,422,009개의 특허를 포함한다. 본 연구에서는 자카드 유사도 0.5이상 1,276개와 0.5이하 1,276개를 랜덤으로 추출하여 총 2,552개의 특허 초록을 훈련데이터로 사용했다. 평가 데이터는 자카드 유사도를 0.2 단위로 각 구간에서 600개씩 추출하여 총 3,000개의 데이터를 추출하였다. 추출된 특허들의 기술 관련 섹션은 생활필수품 관련 특허 (섹션 A) 510개, 운수 관련 특허 (섹션 B) 918개, 화학 관련 특허 (섹션 C) 2,069개, 섬유 관련 특허 (섹션 D) 107개, 고정구조물 관련 특허 (섹션 E) 140개, 무기 관련 특허 (섹션 F) 454개, 물리학 관련 특허 (섹션 G) 779개, 전기 관련 특허 (섹션 H) 575개로 구성되어 있다.

PatentBERT는 BERT를 특허 관련 Cooperative Patent Classification(CPC)을 다중 분류 할 수 있도록 미세조정(fine-tuning)한 모델이다. PatentBERT는 특허 관련 분류에서 기존 BERT보다 뛰어난 결과를 보여왔다[15]. 본 연구에서는 PatentBERT를 활용하여 대조 학습을 활용한 유사특허 탐색을 진행한다. PatentBERT는 CPC 분류를 학습한 모델로서 본 연구의 유사 특허기술 탐색을 진행하기 위해서는 추가적인 학습이 필요하다. 따라서 대조 학습으로 같은 기술 섹션의 특허들은 가깝게, 다른 기술 섹션의 특허들은 서로 멀리 임베딩 되도록 모델을 미세조정한다. 이를 위해 Fig. 1과 같이 PatentBERT 이후 순방향 신경망을 구성한다. 순방향 신경망은 학습 파라미터인 가중치 행렬 W와 비선형성을 가지는 활성화함수 σ로 학습 데이터에 따라 업데이트한다. 본 연구의 모델은 사전 학습된 PatentBERT 모델 F(x)로 특허 i의 초록 Xi를 특허 벡터 Hi1로 나타내고, Hi1=F(Xi), Hil+1=σ(WlHil)와 같이 순방향 신경망을 활용하여 업데이트 한다. l은 순방향 신경망의 층을 나타내는 인덱스로 최종 출력이 기술 섹션에 따라 잠재공간 상에서 클러스터를 이루도록 학습한다.

Figure 1. (Color online) Structure of the model. The patent's abstract data is vectorized using PatentBERT and fine-tuning. This method reduces the scope of the prior search for patents by identifying the closest nodes to the target node.

대조 학습은 입력된 학습 데이터 쌍의 비교를 통하여 학습하는 방법이다. 본 연구에서는 잠재공간에 같은 기술 섹션의 특허 문서들끼리 모이고, 다른 기술 섹션의 특허끼리는 멀리 배치하도록 하여 기술 도메인 끼리 모이도록 하고자 한다. 데이터 쌍은 비교하는 대상에 따라 양성(positive)과 음성(negative)으로 나눌 수 있다. 데이터 쌍이 유사한 경우 양성으로, 아닌 경우 음성으로 정의한다. 본 연구에서 기술 섹션이 같은 특허 쌍을 양성, 다른 경우를 음성으로 하여 도메인 중심의 유사 특허탐색이 가능하도록 한다. 유사 특허탐색은 유클리드 거리 D를 기준으로 같은 기술 섹션의 특허는 거리가 가깝게, 다른 기술 섹션의 특허는 멀어지도록 학습시켜서 같은 도메인의 특허들이 모이도록 하였다. 거리 기반의 대조 학습은 다음 대조 손실 함수를 통해서 진행된다.

Li=jδijDij2+(1δij)max[0,αDij2],

여기서 ij는 특허 쌍이고, δij는 두 특허의 기술 도메인이 일치하는지를 나타내는 라벨이다. 특허 ij가 같은 기술 섹션인 경우 δij=1이 되고, 다른 기술 섹션이면 δij=0을 나타낸다. α는 하이퍼파라미터(hyperparameter)로, 값을 조절함으로써 다른 기술 섹션 특허와의 최소 거리를 설정 할 수 있다. 대조 학습은 데이터 쌍에 대해 손실을 계산하여 모델을 학습시킨다. 따라서 데이터 쌍을 구성하는 방법에 따라 학습 결과가 달라질 수 있다.

데이터 쌍을 구성하는 방법에는 다양한 알고리즘이 있다. 많은 연구들에서 배치(batch) 내 데이터 쌍을 구성할 때 양성은 한 개, 음성의 수는 여러 개로 구성한다[19-21]. 데이터셋의 규모가 작을수록 양성보다는 음성들이 많이 존재한다. 특허 탐색에서 유사한 특허를 발견하기 위해서는 적은 수의 양성도 중요하다. 하지만 데이터 쌍에서 양성과 음성의 불균형으로 인해 양성과 음성의 중요도가 달라지게 된다. 이처럼 양성과 음성에 대한 중요도가 달라지는 문제로 인해 데이터 쌍을 여러 개의 양성을 구성한 연구가 존재한다[22]. 우리는 양성 데이터 쌍의 중요도를 높이기 위해, 데이터 쌍 구성에서 여러 개의 양성을 포함시킨다. 이를 위해 배치를 구성하는 특허들의 조합으로 데이터 쌍을 생성한다. 배치는 다른 기술 섹션들의 특허 데이터 뿐만 아니라 같은 기술 섹션의 특허 데이터들도 있다. 따라서 배치 내 특허들의 조합으로 음성 뿐만 아니라 양성도 여러 개 생성 할 수 있도록 하였다.

본 연구의 방법론을 적용했을 때와 적용하기 전의 잠재공간 상 특허 분포를 비교하기 위해 미세조정한 순방향 신경망의 출력과 PatentBERT의 출력을 t-SNE[23]로 시각화하였다 (Fig. 2). 산점도에서 점은 개별 특허로, 특허 사이의 유사도에 따라 군집화 하려한다. Figure 2(a)는 PatentBERT로 특허를 벡터화 시킨 후 잠재공간 상에 나타낸 그림으로 여러 기술 섹션들이 섞여 있는 것을 알 수 있다. BERT 모델들은 글 내용만을 반영하여 벡터화하므로 기술 섹션별로 분리가 되지 않은 것은 당연한 결과이다. 반면, 대조 학습으로 미세조정한 순방향 신경망 모델의 출력 결과를 잠재공간 상에 나타낸 Fig. 2(b)는 같은 기술 섹션끼리 잘 모여 도메인 군집화가 이루어진 것을 확인할 수 있다. 잠재공간에 단순히 글의 유사도에 의해서만 배치시키는 PatentBERT 모델과는 다르게 대조 학습 과정은 기술 섹션별로 도메인 군집화까지 시키므로, 새로운 특허에 대해 유사한 특허들을 찾아 더 쉽게 비교할 수 있게 한다.

Figure 2. (Color online) Visualizing data vector embeddings. (a) Visualization of vector embeddings of learning data without the contrastive loss and (b) visualization of vector embeddings of data with the contrastive loss. In the figure without the contrastive loss, many domains are mixed. However, it is observed that the embeddings using the contrastive loss are well-organized between technology domains.

Figure 2에서 시각화한 결과를 정량적으로 평가하기 위해 특허들이 어떤 기술 섹션의 군집 중심에 가장 가까운지 측정하였다. 군집의 중심은 시험 데이터로 사용되는 특허들을 모두 잠재공간 상에 나타내고 각 기술 섹션별 특허 벡터들의 평균값으로 계산하여 클러스터의 무게 중심에 해당한다. 모델의 성능을 평가하기 위해 시험 데이터의 특허 문서들을 잠재공간에 올려 가장 가까운 군집의 중심과의 거리를 측정하고, 가장 가까운 군집의 기술 섹션을 입력해준 시험 데이터 특허의 기술 섹션으로 간주한다. 특허들의 기술 섹션과 가장 가까운 군집의 기술 섹션이 일치하는 정도를 나타낸 것이 Fig. 3이다.

Figure 3. (Color online) Confusion matrix for patent clustering. (a) Confusion matrix of BERT, (b) confusion matrix of PatentBERT, (c) confusion matrix of BERT with contrastive loss, and (d) confusion matrix of PatentBERT with contrastive loss, which is more accurate than others.

본 연구의 모델이 기존 방법들에 비해 군집화가 뛰어난지 확인하기 위해 BERT와 PatentBERT, 그리고 대조 학습으로 미세조정 여부로 결과를 비교했다. 미세조정을 하지 않은 모델의 결과인 Figs. 3(a)와 3(b)를 보면 특정 기술 섹션들에서 정확도가 낮은 것을 볼 수 있다. 반면 대조 학습으로 미세조정을 진행 후 측정한 혼동 행렬(confusion matrix) Figs. 3(c)와 3(d)는 미세조정을 하지 않을 때보다 기술 섹션들을 더 골고루 맞추는 것을 알 수 있다. 이는 미세조정이 기술 섹션 분류에 확실히 도움이 되는 것을 보여 준다. 그리고 Figs. 3(c)와 3(d)를 비교해보면 PatentBERT를 활용한 경우에 기술 섹션별 정확도가 더 높은 것을 알 수 있다. 따라서, 본 연구에서 활용한 PatentBERT와 대조 학습은 특허 기술 섹션 분류에 있어 성능을 높여주는 것을 알 수 있다.

학습 데이터인 USPTO 데이터에 기재되어있는 특허 사이의 자카드 유사도와 잠재공간 상에서 유클리드 거리 관계를 확인하기 위해 Fig. 4와 같은 산점도 그림으로 나타냈다. 자카드 유사도와 유클리드 거리 관계를 확인함으로써 잠재공간 상에서 특허들의 분포가 자카드 유사도와 연관이 있는지 비교했다. Figures 4(a)와 4(b)는 대조 학습으로 미세조정하지 않고 BERT와 PatentBERT의 출력으로 얻은 그림으로, 자카드 유사도가 감소함에 따라 유클리드 거리가 증가하는 경향이 있다. 확실히 BERT모델들이 특허 문서끼리 단어 구성이 유사성을 확인하는 자카드 유사도가 높을 수록 가깝게 배치하는 경향이 보였다. 반면, 대조 학습으로 미세조정 후 나타낸 Figs. 4(c)와 4(d)에서는 자카드 유사도와 유클리드 거리 사이의 경향이 없어졌다. 따라서 대조 학습을 거친 특허 문서들은 잠재공간에서 자카드 유사도에서 벗어나서 배치되어있다는 것을 알 수 있다. 실제로 유사한 특허 문서라 해도 단어의 구성이 다르면 자카드 유사도가 작은 값으로 측정된다. 본 연구에서 사용한 모델은 단어의 구성이 다른 특허 문서의 경우에도 내용의 유사도에 따라 판단할 수 있다.

Figure 4. (Color online) Scatter plot of Jaccard similarity and Euclidean distance. Scatter plots display Jaccard similarity and Euclidean distance for (a) simple BERT, (b) PatentBERT, (c) simple BERT learning with contrastive loss, and (d) PatentBERT learning with contrastive loss.

추가로 잠재공간 상에서 특허들간의 유클리드 거리에 문맥이 반영되었는지 확인하기 위해 인접한 특허들에 대한 내용을 확인하였다. 앞서 결과에서 보았듯이 자카드 유사도의 경우 글에서 단어 구성이 비슷할 수록 큰 값을 주기에, 실제 글이 유사한 특허를 다룬다 하더라도 다른 단어를 쓰게 되면 자카드 유사도 값이 작아지게 된다. 실제로 모델이 이러한 점을 잘 반영하는지 확인하기 위해 예시로 두개의 특허를 확인하였다. Figure 5(a)에는 캔 용기의 입구와 관련된 두 개의 특허를 보여준다 (U.S Patent No.3,696,961 (1972)[24], U.S Patent No.3,705,563 (1972)[25]). 두 특허 모두 캔 용기의 입구와 관련된 내용이지만, 글의 단어 구성이 다르기 때문에 자카드 유사도는 0.179로 비교적 낮게 측정되었다. Figure 5(b)는 BERT 학습 후, 두 특허의 유클리드 거리는 22.08로 나타나게 되었고 Fig. 5(c)는 대조 학습으로 미세조정 이후의 유클리드 거리는 0.92로 나타난다. 두 특허의 유사성을 나타내는 유클리드 거리가 대조 학습으로 인해 감소했음을 알 수 있다. 이처럼 비슷한 내용의 특허가 가깝게 위치하여 잠재공간 상 특허의 분포에 글의 맥락이 고려된 것으로 확일할 수 있다.

Figure 5. (Color online) (a) Examples of patents with the same content but low Jaccard similarity, (b) After learning BERT only, the Jaccard similarity and Euclidean distance of the two patents are shown in a red circle, (c) After fine-tuning PatentBERT with the contrastive learning, the Jaccard similarity and Euclidean distance of the two patents are shown in a red circle. The study examined how Euclidean distances changed after contrastive learning. The patents relate to the entrance of a can container and the word composition of the phrase is measured by Jaccard similarity, which is 0.179. After learning BERT, the Euclidean distance between the two patents is 22.08. After fine-tuning with contrastive Learning, the Euclidean distance is 0.92, indicating a decrease in the similarity between the two patents due to the contrastive learning.

특허 선행조사는 출원과정에 꼭 필요한 과정이지만 출원된 특허들이 누적됨에 따라 특허 탐색 범위가 매우 넓어지는 어려움이 있다. 본 연구는 대조 학습(contrastive learning)을 활용한 특허 군집화로 특허 선행조사의 탐색 범위를 줄여줄 수 있는 방법을 제시한다. 새롭게 출원하는 특허를 제안된 모델에 적용하여 유사한 특허 섹션을 쉽게 알아낼 수 있을 뿐만 아니라, 유사한 특허들을 확인하여 특허 선행조사에 도움을 줄 수 있다. 또한 본 모델의 경우 특허 문서의 단어 구성보다 글의 맥락을 반영한 분석을 할 수 있다. 기존에 글의 유사도 측정에 활용되던 자카드 유사도의 경우 단순히 출현 단어의 빈도만을 측정하여 단어 구성이 달라지면 값이 낮아지는 경향이 존재한다. 그러나 단어의 구성이 다르더라도 특허 기술의 내용이 유사할 경우 문서 상 글의 맥락을 파악하는 일은 중요하다. 본 연구 결과를 통해 대조 학습은 단어의 구성과 관계 없이 유사한 특허 기술을 찾는데 좋은 성능이 있다는 것을 보였다. 이러한 결과는 대조 학습은 단순히 단어의 구성과 빈도로 특허 문서를 파악하기 보다는 글의 맥락까지 파악하는 것을 알 수 있다. 또한 군집화 과정을 통해 특허에 대한 기술 섹션 분류에 활용이 가능하다. 본 연구에서 제안된 방법은 표절 문서 검사나 유사 내용 문서 선별과 같이 특허 뿐만 아니라 다양한 영역에서 활용이 가능할 것으로 기대된다.

본 연구는 2022년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원(No.RS-2022-00155885, 인공지능융합혁신인재양성(한양대학교 ERICA))과 한국연구재단의 연구비 지원 NRF-2021R1C1C1007918(M.J.L.)와 No.NRF-2020R1A2C2010875(S.-W.S.)에 의해 이루어졌습니다.

  1. K. N. Kang, Innov. Stud. 14, 179 (2019).
    CrossRef
  2. H. Lim, Justice 99, 117 (2007).
    CrossRef
  3. E. Yun and Y. Park, New Phys.: Sae Mulli 69, 1038 (2019).
    CrossRef
  4. S. H. Lee, New Phys.: Sae Mulli 68, 655 (2018).
    CrossRef
  5. Y. J. Park et al, New Phys.: Sae Mulli 67, 569 (2017).
    CrossRef
  6. Y. J. Kim et al, New Phys.: Sae Mulli 68, 700 (2018).
    CrossRef
  7. H. K. Jho, New Phys.: Sae Mulli 70, 974 (2020).
    CrossRef
  8. L. Helmers et al, PLoS ONE 14, 0212103 (2019).
    Pubmed KoreaMed CrossRef
  9. J. S. Lee and J. Hsiang, arXiv preprint arXiv:2009.09132 (2020).
    CrossRef
  10. G. Kumaravel and S. Sankaranarayanan, Mob. Inf. Syst. 2021, 1 (2021).
    CrossRef
  11. J. Devlin et al, arXiv preprint arXiv:1810.04805 (2018).
    CrossRef
  12. J. S. Lee and J. Hsiang, arXiv preprint arXiv:1906.02124 (2019).
    CrossRef
  13. H. Li et al, Proceedings of the 31st ACM International Conference on Information & Knowledge Management, p. 1104-1113.
  14. T. Chen et al, International conference on machine learning, p. 1597-1607.
  15. S. Arts, B. Cassiman and J. C. Gomez, Strateg. Manag. J. 39, 62 (2018).
    CrossRef
  16. E. Hoffer and N. Ailon, Proceedings 3, Similarity-Based Pattern Recognition: Third International Workshop, SIMBAD 2015 (Copenhagen, Denmark, October 12-14, 2015), p. 84-92.
    CrossRef
  17. E. Xing et al, Proceedings of the Advances in Neural Information Processing Systems 15, p. 505-512.
  18. W. Chen et al, Proceedings of the IEEE conference on computer vision and pattern recognition, p. 403-412.
  19. H. Tang et al, IEEE Trans. Multimed. 24, 1338 (2021).
    CrossRef
  20. L. van der Maaten and G. Hinton, J. Mach. Learn. Res. 9, 2579 (2008).
  21. H. Albert. J (1972). Protective edge for easy opening container. uS Patent 3,696,961.
  22. E. William F (1972). Method of forming convenience closure for container body. uS Patent 3,705,563.

Stats or Metrics

Share this article on :

Related articles in NPSM