RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        A Study on the Nylon Wire Holding and Release Mechanism for Cube Satellites by Applying Constant Holding

        구건우 항공우주시스템공학회 2021 항공우주시스템공학회지 Vol.15 No.4

        The non-explosive holding and release mechanism is used to prevent damage to the mission component caused by explosives when the deployment structure for Cube Satellites is separated. However, among the several types available, the non-explosive holding and release mechanism system using nylon wires depend on the nylon wire knot method and tightening power of the worker. Therefore, in this study, we conducted experiments with the operation of a new holding and release mechanism system by conceptualizing the Boa System Dial, which can provide a constant tightening force regardless of worker proficiency and deploying a imitational solar panel. In this study, the process of binding and unbinding with constant tension was recorded while applying the novel non-explosive holding and release mechanism using the Boa System Dial proposed. In addition, required advances are indicated for the application of the proposed system to actual Cube Satellites.

      • KCI등재

        L2 영어 교과서를 ‘학습’한 L2-신경망 언어 모델의 문법 일반화 양상

        구건우,박명관 현대문법학회 2022 현대문법연구 Vol.113 No.-

        Recent studies employing state-of-the-art neural network language models (NLMs) have reported their human-like performances in ‘understanding’ various linguistic phenomena particularly through the Benchmark of Linguistic Minimal Pairs (BLiMP), which is a challenge test dataset of sentences to be used for evaluating the linguistic knowledge of NLMs on major grammatical phenomena in English (Warstadt et al., 2020). Adopting the methodology at hand, this paper aims to assess the level of linguistic knowledge acquired by L2-NLMs trained on English textbooks (alias the K-English datasets) published in Korea and compare it with the corresponding different levels in English native speakers and L1-NLMs. Assuming that an NLM is also a language learner, we used the BLiMP to evaluate the grammaticality rating performances of L2-NLMs based on Generation Pre-trained Transformer-2 (GPT-2) and Long Short-Term Memory (LSTM). In conclusion, this study demonstrates that the L2-NLMs have attained a substantially lower level of grammatical generalization than L1 counterparts as well as English native speakers. The results imply that the K-English training datasets are not robust enough for L2 NLMs to make substantial grammatical generalizations. .

      • KCI등재

        Intrathoracic Desmoid Tumor Presenting as Multiple Lung Nodules 13 Years after Previous Resection of Abdominal Wall Desmoid Tumor

        구건우,김태형,정성준,곽주희,오창규,박동원,곽현중,문지용,김상헌,손장원,윤호주,신동호,박성수,오영하,표주연 대한결핵및호흡기학회 2015 Tuberculosis and Respiratory Diseases Vol.78 No.3

        Desmoid tumors are rare soft tissue tumors considered to have locally infiltrative features without distant metastasis until now. Although they are most commonly intraabdominal, very few cases have extra-abdominal locations. The origin of intrathoracic desmoid tumors is predominantly the chest wall with occasional involvement of pleura. True intrathoracic primary desmoid tumors with no involvement of the chest wall or pleura are extremely rare. We recently experienced a case of true intrathoracic desmoid tumor presenting as multiple lung nodules at 13 years after resection of a previous intraabdominal desmoid tumor.

      • KCI등재

        '부정극어 허가 처리 평가: 영어 교과서를 학습한 신경망 언어 모델을 활용하여

        구건우,이재민,박명관 서강대학교 언어정보연구소 2022 언어와 정보 사회 Vol.46 No.-

        The GRNN (Gulordava et al. 2018) neural language model (NLM) is viewed as a language learner in that it is trained with sentences and, like humans, ‘predicts’ the next-word given a sequence of words. Recent studies employing NLMs have reported their human-like performances in ‘understanding’ various linguistic phenomena. Building on previous studies, this paper aims to assess the level of linguistic knowledge that an NLM can acquire from a collection of English textbooks published in Korea for last two decades. We applied a psycholinguistic experimental method to compare the L2-GRNN to the L1-GRNN, focusing on the learning/processing of negative polarity item (NPI)-licensing in English. The L1-GRNN LM that was trained with the dataset from Wikipedia was reported to attain the linguistic knowledge that native speakers of English have. The L2-GRNN LM was trained with learning materials for Korean English learners. The result of analyzing the data extracted from the NLMs in NPI processing showed that the overall performance of the L2-GRNN NLM was far behind that of the L1-GRNN LM. In conclusion, this study demonstrates that the L2-GRNN has attained a far lower level of grammatical knowledge in NPI processing than its L1 counterpart. This result implies that the L2 dataset representing English textbooks published in Korea is not enough for the L2-GRNN NLM to acquire substantial grammatical knowledge that the L1-GRNN NLM as well as native speakers has.

      • KCI등재

        보안철책의 훼손 감지를 위한 이미지 전처리 연구

        구건우,윤동호 한국지능시스템학회 2022 한국지능시스템학회논문지 Vol.32 No.4

        본 논문에서는 사전에 주어진 보안철책의 이미지에서 정상 또는 비정상 와이어 패턴 영역을수작업으로 진행하는 전통적인 라벨링 작업방식이 아닌 보다 효율적인 작업방식인 오토-라벨링 방식을 사용하는 작업과정을 제안한다. 특히 풀숲 배경에 의해 보안철책의 와이어 패턴의 형상을 정확하게 인식하기 어려웠던 과거의 문제점을 해결하기 위해 녹색 계열의 색상을 추출하고 학습을 위한 마스크 이미지를 제작하였다. 그 후 얻어진 마스크 이미지에서 보안철책의 와이어 패턴 영역을 성공적으로 라벨링 하기 위해 현재의 보안철책이 지닌 구조적특징을 바탕으로 허프편환을 통하여 철책을 이루는 기둥과 지지대 구조물을 선분으로 나타내었다. 이 때 각 선분들이 겹치는 교점의 좌표값들을 구하여 보안철책에서 와이어 패턴이존재할 수 있는 영역을 정의해 오토-라벨링을 위한 관심 영역을 정의하였다.

      • P-107 : 폐내 종양으로 재발한 복강내 데스모이드 종양

        구건우,정승준,김유신,이성자,박동원,곽현정,문지용,김상헌,윤호주,신동호,박성수,김태형 대한결핵 및 호흡기학회 2013 대한결핵 및 호흡기학회 추계학술대회 초록집 Vol.116 No.-

        데스모이드 종양은 모든 종양의 0.03% 미만에 해당하는 드문 연부조직 종양으로, 국소적으로 침범하고 원격전이는 아직 보고되지 않고 있다. 대부분 복강내 종양으로 관찰되나, 드물게 복강외 데스모이드 종양도 관찰되는데, 주로 흉벽, 견갑대, 샅고랑, 두경부에 발생하며 대부분 흉곽내 확장을 동반한 흉벽 종양으로 발견되고, 폐내 종양은 드물다. 저자들은 10여년전의 복부 데스모이드 종양이 폐내 종양으로 재발한 1예를 경험하였기에 보고하는 바이다. 증례: 54세 여자 환자가 잦은 상기도 감염 및 1주 이상 지속된 기침으로 흉부단순 촬영 후 다발성 폐결절 발견되어 호흡기내과 외래를 방문하였다. 비흡연자로, 이전의 폐질환 병력은 없었다. 입원 후 시행한 세침흡인 생검 결과 데스모이드 종양으로 확인되었으며, 환자는 10 여년 전 복벽 종물 제거 수술을 받은 병력이 있었고, 당시 조직학적 소견은 데스모이드 종양으로 확인되어 부가적인 치료 없이 지냈다고 했다. 폐조직 생검 결과는 이전의 복부 종물과 동일한 것으로 확인되었으며 복강내 데스모이드 종양이 생겼던 자에게 발생한 복강외 데스모이 드 종양으로 사료되었다. 이 환자는 증상이 없는 비침습적인 상태로 현재 별다른 치료없이 경과관찰 중이다.

      • KCI등재

        영어권 아동 도서의 일반 상식 평가 -신경망 언어 모델을 활용하여-

        구건우,이재민,김유희 동국대학교 동서사상연구소 2023 철학·사상·문화 Vol.- No.41

        Artificial intelligence has made significant progress in recent years through the development of deep learning, enabling it to match human performance in many areas. However, one of the major challenges facing AI is its lack of commonsense knowledge. While humans are able to unconsciously and intuitively infer general knowledge based on their experiences in the world, even the most advanced neural network language models, such as GPT-3, struggle to possess such knowledge. To address this limitation, researchers are conducting extensive studies to teach AI general knowledge about the world through the use of commonsense graphs. The goal of this research is to determine how much commonsense knowledge neural network language models can learn, and this is being evaluated through the CB-COMET model, which was trained on the Children's Book Dataset using ATOMIC-2020. 최근 딥러닝의 발전으로 다양한 방면에서 신경망 언어 모델이 인간 수준에 도달했다는 평가를 받고 있다. 그러나 현재 언어 모델이 직면한 가장 큰 문제는 일반 상식을 갖추지 못했다는 것이다. 인간은 세상에 대한 경험을 토대로 일반 상식을 무의식적으로, 그리고 직관적으로 추론해내지만, 현재 가장 성공적으로 과제를 수행해내는 GPT-3 등의 초거대 신경망 언어 모델조차 이러한 일반 상식을 갖추는 데 어려움을 겪고 있다(Hwang et al..2021). 이러한 한계를 극복하기 위해 일반 상식 그래프(commonsense knowledge graph, CKG)를 활용하여 인공지능으로 하여금 세상에 대한 일반 상식을 학습시키는 연구가 활발히 진행되고 있다. 본 연구는 최근에 발표된 ATOMIC 2020(Hwang et al..2021)을 활용하여 영어권 아동 도서 데이터 세트를 학습한 CB-COMET을 평가함으로써, 아동에게 노출되는 아동 도서를 기반으로 만들어진 신경망 언어 모델을 활용하여 일반 상식을 더욱 폭넓게 습득/도출하는데 기여할 수 있는지 밝히는 것을 목적으로 한다.

      • KCI등재

        ‘인공 지능이 인간답다’라 함은? -심층 신경망 언어 모델을 중심으로-

        구건우,이재민,김유영,임선희,전수경,최릉운,박명관 동국대학교 동서사상연구소 2022 철학·사상·문화 Vol.- No.39

        The statement 'artificial intelligence is human-like' has recently been a buzzword as an AI/neural-network language model is reported to reach a human level in language learning and processing, with the model implemented by applying the so-called deep neural network to language learning. In this paper, we evaluate the proposition of 'artificial intelligence is human', concentrating on the neural network language model. Accordingly, when neural network language models exhibit aspects of language learning and processing that humans do, we need to clarify whether the two human and AI learning & processing systems are homologous or what differences there are between them. Furthermore, based on the comparison of the two systems, we discuss what lights neural network language models shed on traditional issues raised for human language acquisition and processing, such as nature vs. nurture, human linguistic ability, etc. 사람의 신경망을 컴퓨터 공학 기술로 구현한 것이 소위 심층 신경망이다. 이를 적용한 언어 모델이 사람의 언어 학습을 재현함에 따라, 인공 지능 신경망 언어 모델이 언어 학습과 처리에 있어 사람에 상응하는 수준에 도달하고 있다고 보고되면서 ‘인공 지능(신경망 언어 모델)이 (언어 학습과 처리에 있어) 인간답다’라는 말이 회자된다. 본고에서는 신경망 언어 모델을 중심으로 ‘인공 지능이 인간답다’라는 명제를 재검토한다. 이에 따라, 신경망 언어 모델이 사람과 같은 언어 학습과 처리의 양상을 보인다고 할 때, 두 학습 및 처리 시스템이 상동한지 아니면 어떤 차이점이 있는지를 해명한다. 나아가서, 두 시스템의 비교를 바탕으로, 사람을 대상으로 언어 학습과 처리에 관한 전통적 이슈들에 관하여, 사람과 대비하여 신경망 언어 모델은 어떤 특성을 보이는지 논의한다.

      • KCI등재후보

        행성탐사용 (초)소형 로버 개발 동향

        구건우,김해동,Keon-Woo Koo,Hae-Dong Kim 한국우주과학회 2023 우주기술과 응용 Vol.3 No.3

        Unmanned exploration rovers serve as tools for investigating mineral resources, mining, and carrying out various scientific on celestial bodies beyond Earth, acting on behalf of humans. Recently, not only the United States but also other countries such as Japan, India and China have been attempting to develop unmanned planetary exploration rovers for space development or have successfully operated them on other celestial bodies. This has accelerated the enthusiasm for space exploration and development. However, the development and operation of unmanned rovers for planetary exploration still entail significant costs and high risks, making it difficult for universities or companies to undertake such project independently without the guidance of financial backing from government entities. In this paper, we describe the recent development trends of micro-rovers, known as Cube Rovers, which inherit the concepts and definitions of traditional Cube Sat. We also introduce the potential and expectations of Cube Rovers through the necessity of their development and ongoing planetary exploration cases.

      • KCI등재

        Hierarchical Inductive Bias in the L2 Textbook-T5 and Child-T5 Language Model: A Study of Data and Architecture

        구건우,Jaemin Lee,박명관 한국응용언어학회 2023 응용 언어학 Vol.39 No.4

        This study aims to investigate neural language models in alignment with Chomsky's (1965, 1980) proposition regarding the innate human tendency to acquire syntactic rules based on hierarchical structures rather than linear order. We have examined the architectural and dataset factors influencing the acquisition of a syntactic inductive bias during the pre-training of the T5 model. To achieve this objective, particularly concerning the pre-training dataset, we inquire whether there are differences when using datasets of varying complexity. We use two distinct pre-training datasets: Child-Directed Speech and L2-Textbook dataset. Upon examination, we observe that these datasets exhibit different levels of syntactic complexity. Then, with our models, we employ two syntactic transformation tasks: (i) question formation and (ii) passivization. Our results indicate that model depth (number of layers) exerts a more significant influence on hierarchical generalization compared to other model components. Furthermore, we observed that models learn the hierarchical aspects of language more efficiently when exposed to the simpler complexity of the dataset.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼