RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • 텍스트 문서의 창의성 평가 모델 최신 연구 동향

        유대곤(DaeGon Yu),온병원(Byung-Won On) 한국정보기술학회 2022 Proceedings of KIIT Conference Vol.2022 No.6

        4차 산업혁명 시대를 맞아 빅데이터, 사물인터넷, 인공지능(AI) 등의 기술이 발전하였다. AI는 빅데이터를 사용자의 요구에 맞게 처리 및 가공하여 사용자가 원하는 의미 있는 데이터를 내놓는다. 이렇게 AI와 인간이 협업하기 시작하면서 단순 반복적인 업무는 AI가 담당하고 인간은 좀 더 창의적인 활동에 집중하게 됨에 따라 인간의 고유한 특성인 창의성이 더욱 대두되기 시작했다. 창의성의 개념에 대한 논의도 다양하고 교육현장에서의 글쓰기 평가도 여러 가지가 있지만 이를 표현하는 인공지능 모델은 공학적인 부분에서만 창의성을 판단하고 탐지하는 한계가 존재한다. 따라서 교육현장에서의 글쓰기 평가 방식을 고려하여 인공지능 모델을 구현하는 노력이 요구되어 진다. In the era of the 4th industrial revolution, technologies such as big data, Internet of Things, and artificial intelligence (AI) have developed. AI processes and processes big data according to the user’s needs to provide meaningful data that the user wants. As AI and humans started to collaborate, AI took charge of simple and repetitive tasks and humans focused on more creative activities. There are various discussions about the concept of creativity and there are various evaluations of writing in the educational field, but the AI model that expresses this has a limit in judging and detecting creativity only in the engineering part. Therefore, an effort to implement an artificial intelligence model is required in consideration of the writing evaluation method in the educational field.

      • 자연어처리를 위한 대조 학습 기반의 심층학습 모델에 대한 최근 연구 동향

        유대곤(Daegon Yu),한상우(Sangwoo Han),온병원(Byung-Won On) 한국정보기술학회 2022 Proceedings of KIIT Conference Vol.2022 No.12

        대조 학습은 의미가 유사한 벡터에서 추출한 양성 샘플과 의미가 다른 벡터에서 추출한 음성 샘플을 기반으로 손실을 줄여 학습한다. 최근 대조 학습이 자연어처리 분야에서 보다 좋은 품질의 벡터를 생성하기 위한 방법으로 널리 사용되고 있다. 특히 비지도 학습에 사용되며 레이블이 지정되지 않은 데이터에서도 지도 학습모델을 능가한다. 이 외에도 대조 학습은 단일 문장 분류, 문장 임베딩 문제의 성능을 향상시키는 등 사전 학습 시 다양하게 활용된다. Contrastive learning methods are trained by reducing the loss based on positive samples extracted from vectors with similar meanings and negative samples extracted from vectors with different meanings. Recently, it is widely used as a method for generating better quality vectors in the field of natural language processing. Especially, it is used in unsupervised learning, outperforming supervised learning models, even with unlabeled data. In addition, it is used in a variety of ways during pre-training, such as improving the performance of single sentence classification and sentence embedding problems.

      • KCI등재

        CLES-BERT: 에세이 점수 예측을 위한 대조학습 기반 BERT 모델

        유대곤(Daegon Yu),김용연(Yongyeon Kim),한상우(Sangwoo Han),온병원(Byung-Won On) 한국정보기술학회 2023 한국정보기술학회논문지 Vol.21 No.4

        Creativity is an important ability in the 4th industrial revolution so writing is one of educational tools to improve creativity. However, student’s essays have been mainly evaluated subjectively in schools. To address this problem, Automated Essay Evaluation(AES) plays an important role in objective evaluation in addition to reducing the time and effort of instructors. This paper presents a novel AES model in which contrastive learning-based loss function is added to BERT. Furthermore, for contrastive learning, positive and negative samples are selected based on mean embedding vectors per essay score. The experimental results show that the proposed Contrastive Learning Essay Scoring-Bidirectional Encoder Representations from Transformers(CLES-BERT) improved average accuracy up to 3%, compared to main AES models, in Automated Student Assessment Prize(ASAP) data set.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼