http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
Apoptosis-inducing Effect of Akebia Saponin D from the Roots of Dipsacus asper Wall in U937 Cells
정승일,Beng Zhou,배진범,김남석,김선근,권진,김대근,신태용,전훈,임종필,김홍준,김호경,오찬호 대한약학회 2008 Archives of Pharmacal Research Vol.31 No.11
Methanol extracts of the root of Dipsacus asper Wall (Dipsacaceae) were found to exhibit apoptosisinducing activities in U937 (human monocyte-like histiocytic) cells. Investigation of the active n-BuOH fraction led to the isolation of akebia saponin D (ASD). Structure was established by spectroscopic methods. Treatment of U937 cells with ASD induced apoptosis in a dose dependent manner. ASD exerted strong cytotoxicity against human and murine leukemia cells. It is significantly increased the subG1 cell population and expression of p53 and Bax gene. And also ASD enhanced NO production from RAW264.7 macrophage cells. Taken together, these results strongly indicate that ASD may exert apoptosis-inducing activity via induction of apoptosis through activation chiefly via the nitric oxide and apoptosis-related p53 and Bax gene expression. These data provide scientific evidence that Dipsacus asper Wall can be useful as a chemopreventive agent.
전투기의 MIL-STD-810G 폭발성 대기 시험에 관한 고찰
이재원,정승범,황영하,고정우 한국항공우주학회 2022 韓國航空宇宙學會誌 Vol.50 No.10
In various environmental requirements of a fighter aircraft, the explosive atmosphere is a test to verify whether or not military products are ignited for the safety of the aircraft system and crew. For the test, the explosive atmosphere test chamber owned by the Korea Institute of Industrial Technology (KITECH) was applied, and n-hexane, which has more sensitive ignition characteristics than general fuel, was used to conduct the test conservatively. Based on Procedure I, Method 511.6, MIL-STD-810G w/Change 1, the US military environmental test specification, the scope of application, tailoring guide, and detailed test procedures are checked, and the necessity of this test for each subsystem of the fighter aircraft is considered. In this study, we present the correct tailoring method by analyzing the explosive atmosphere test results for the components installed in the fighter aircraft and sharing the derived essential points. 전투기의 여러 가지 환경 요구도 중 폭발성 대기는 항공기 체계와 승무원의 안전을 위해 군수품의 점화 여부를 확인하는 시험이다. 시험은 한국생산기술연구원(KITECH)에서 보유하고 있는 폭발성 대기 시험장비를 활용하였고, 보수적으로 시험을 수행하기 위해 일반 연료보다 점화 특성이 민감한 n-hexane을 사용하였다. 미 군용 환경시험 규격서인 MIL-STD-810G w/Change 1, Method 511.6, Procedure I을 바탕으로 적용 범위와 테일러링(Tailoring) 가이드, 세부 시험절차를 확인하고 전투기의 각 계통에 대한 본 시험의 필요성을 고찰한다. 본 연구를 통해 전투기에 장착되는 구성품에 대한 폭발성 대기 시험 결과를 분석하고, 도출한 주안점을 공유하여 올바른 테일러링 방안을 제시한다.
임팩트 팩터를 이용한 신경 회로망의 연결 소거 알고리즘
이하준,정승범,박철훈 대한전자공학회 2004 電子工學會論文誌-CI (Computer and Information) Vol.41 No.4
일반적으로 작은 구조의 신경 회로망은 좋은 일반화 성능을 나타내지만 원하는 학습 목표까지 학습하기가 어려운 경향이 있다. 반면에 큰 구조의 신경 회로망은 학습 데이터는 쉽게 배우지만 일반화 성능이 좋지 않은 경향이 있다. 따라서 좋은 일반화 성능을 얻기 위한 일반적인 방법은 학습이 되는 한도 내에서 최소 구조의 신경 회로망 즉 최적 구조 신경 회로망을 찾는 것이다. 본 논문에서는 가중치의 제곱과 뉴런 출력의 분산의 곱으로 정의되는 임팩트 팩터(ImF: Impact Factor)를 이용한 새로운 연결 소거 알고리즘을 제안한다. 그리고 함수 근사화 문제에 적용하여 제안된 방법이 효율적임을 보인다. In general, small-sized neural networks, even though they show good generalization performance, tend to fail to team the training data within a given error bound, whereas large-sized ones learn the training data easily but yield poor generalization. Therefore, a way of achieving good generalization is to find the smallest network that can learn the data, called the optimal-sized neural network. This paper proposes a new scheme for network pruning with ‘impact factor’ which is defined as a multiplication of the variance of a neuron output and the square of its outgoing weight. Simulation results of function approximation problems show that the proposed method is effective in regression.
이종석,김재영,정승범,박철훈 대한전자공학회 2004 電子工學會論文誌-CI (Computer and Information) Vol.41 No.3
신경회로망을 이용하여 주어진 문제를 해결할 때, 문제의 복잡도에 맞는 구조를 찾는 것이 중요하다. 이것은 신경회로망의 복잡도가 학습능력과 일반화 성능에 크게 영향을 주기 때문이다. 그러므로, 문제에 적합한 신경회로망의 구조를 자기 구성적으로 찾는 알고리즘이 유용하다. 본 논문에서는 시그모이드 활성함수를 가지는 전방향 다층 신경회로망에 대하여 주어진 문제에 맞는 구조를 결정하는 알고리즘을 제안한다. 개발된 알고리즘은 구조증가 알고리즘과 연결소거 알고리즘을 이용하여, 주어진 학습 데이터에 대해 가능한 한 작은 구조를 가지며 일반화 성능이 좋은 최적에 가까운 신경회로망을 찾는다. 네 가지 함수 근사화 문제에 적용하여 알고리즘의 성능을 알아본다. 실험 결과에서, 제안한 알고리즘이 기존의 알고리즘 및 고정구조를 갖는 신경회로망과 비교하였을 때 최적 구조에 가까운 신경회로망을 구성하는 것을 확인한다. When a neural network is used to solve a given problem it is necessary to match the complexity of the network to that of the problem because the complexity of the network significantly affects its learning capability and generalization performance. Thus, it is desirable to have an algorithm that can find appropriate network structures in a self-organizing way. This paper proposes algorithms which automatically organize feed forward multi-layer neural networks with sigmoid hidden neurons for given problems. Using both constructive procedures and pruning procedures, the proposed algorithms try to find the near optimal network, which is compact and shows good generalization performance. The performances of the proposed algorithms are tested on four function regression problems. The results demonstrate that our algorithms successfully generate near-optimal networks in comparison with the previous method and the neural networks of fixed topology.
임팩트 팩터를 이용한 신경 회로망의 연결 소거 알고리즘
이하준,박철훈,정승범 대한전자공학회 2004 電子工學會論文誌-CI (Computer and Information) Vol.41 No.02
In general, small-sized neural networks, even though they show good generalization performance, tend to fail to learn the training data within a given error bound, whereas large-sized ones learn the training data easily but yield poor generalization. Therefore, a way of achieving good generalization is to find the smallest network that can learn the data, called the optimal-sized neural network. This paper proposes a new scheme for network pruning with ‘impact factor’ which is defined as a multiplication of the variance of a neuron output and the square of its outgoing weight. Simulation results of function approximation problems show that the proposed method is effective in regression. 일반적으로 작은 구조의 신경 회로망은 좋은 일반화 성능을 나타내지만 원하는 학습 목표까지 학습하기가 어려운 경향이 있다. 반면에 큰 구조의 신경 회로망은 학습 데이터는 쉽게 배우지만 일반화 성능이 좋지 않은 경향이 있다. 따라서 좋은 일반화 성능을 얻기 위한 일반적인 방법은 학습이 되는 한도 내에서 최소 구조의 신경 회로망 즉 최적 구조 신경 회로망을 찾는 것이다. 본 논문에서는 가중치의 제곱과 뉴런 출력의 분산의 곱으로 정의되는 임팩트 팩터(ImF: Impact Factor)를 이용한 새로운 연결 소거 알고리즘을 제안한다. 그리고 함수 근사화 문제에 적용하여 제안된 방법이 효율적임을 보인다.