이 박사학위 논문은 신경망을 적용한 알고리즘에 대한 두 가지의 연구로 구성된다. 첫 번째는 와서스타인 생성적 적대 신경망에서 경사 페널티를 주었을 때, 이 학습 과정의 국소수렴성 분...

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
https://www.riss.kr/link?id=T16081902
포항 : 포항공과대학교 대학원, 2022
학위논문(박사) -- 포항공과대학교 대학원 , 수학과 , 2022. 2
2022
영어
경상북도
; 26 cm
지도교수: 황형주
I804:47020-200000597499
0
상세조회0
다운로드이 박사학위 논문은 신경망을 적용한 알고리즘에 대한 두 가지의 연구로 구성된다. 첫 번째는 와서스타인 생성적 적대 신경망에서 경사 페널티를 주었을 때, 이 학습 과정의 국소수렴성 분...
이 박사학위 논문은 신경망을 적용한 알고리즘에 대한 두 가지의 연구로 구성된다. 첫 번째는 와서스타인 생성적 적대 신경망에서 경사 페널티를 주었을 때, 이 학습 과정의 국소수렴성 분석 결과에 대한 연구이다. 이 연구는 기존의 경사 페널티에 관련되어 제시되었던 방법들을 포괄하는 문제에 와서스타인 생성적 적대 신경망을 학습하는 과정 중 경사 페널티를 일반적인 추상측도 형태로 부여하였을 때 어떤 특정 조건을 만족시켰을 경우 국소수렴성이 보장됨을 증명하였다. 더불어, 특정 분포를 만들어내거나 그림을 만들어내는 실험을 통해 우리가 제시한 특정 조건에 대한 실험적 검증을 수행하였다. 두 번째는 그래프를 분류하는 문제에서 간선에 대한 정보를 수집하는 그래프 신경망 구조를 새로이 제시한 연구이다. 이 논문에서는 기존의 그래프 동형 네트워크를 비롯하여 인접한 꼭지점의 정보만을 수집하는 경우 구분할 수 없는 그래프의 군집을 새로 보이고, 이를 해결하기 위해 이웃한 꼭지점들끼리의 연결 관계를 수집하는 구조를 제시하였다.
다국어 초록 (Multilingual Abstract)
This doctoral dissertation contains two studies related to the recent topics of neural networks. The first part analyses the local stability of the Wasserstein Generative Adversarial Networks (WGANs) with a gradient penalty, where the penalty measure ...
This doctoral dissertation contains two studies related to the recent topics of neural networks. The first part analyses the local stability of the Wasserstein Generative Adversarial Networks (WGANs) with a gradient penalty, where the penalty measure is given as an abstract parametric form. We provide an analysis of GANs to reveal what conditions for gradient penalty methods should be satisfied to achieve successful convergence. The second part proposes a new edge-aggregating framework for a graph classification task with graph neural networks (GNN). Our proposed framework gives integrated information that describes which nodes in the neighborhood are connected. This can be discovered with a family of graphs that are not distinguished by the previous 1-hop based algorithms. For both topics, our experiment results substantiate our arguments on various generative tasks and graph classification tasks.
목차 (Table of Contents)
참고문헌 (Reference)
1. A. Approximation theory of the mlp model in neural networks, PINKUS, numerica 8 (, , 1999
1. A. Approximation theory of the mlp model in neural networks, PINKUS, numerica 8 (, , 1999