RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        실천력 강화를 위한 인공지능 윤리 교육 모델

        배진아,이정훈,조정원 대한산업경영학회 2022 산업융합연구 Vol.20 No.5

        인공지능 기술로 인한 사회·윤리적 문제 사례가 발생하면서 인공지능의 위험과 부작용에 대한 사회적 관심과 함께 인공지능 윤리가 주목받고 있다. 인공지능 윤리는 알고, 느끼는 것에 그치는 것이 아니라 행동과 실천으로 이루어져야 한 다. 이에 본 논문은 인공지능 윤리의 실천력을 강화하기 위한 인공지능 윤리 교육 모델을 제안하고자 한다. 인공지능 윤리 교육 모델은 선행 연구 분석을 통해 교육목표와 인공지능을 이용한 문제해결 프로세스를 도출하고, 실천력 강화를 위한 교수학습방법을 적용하였으며 기존에 제안된 인공지능 교육 모델과 비교 분석하여 그 차이를 도출하였다. 본 논문에서 제 안하는 인공지능 윤리 교육 모델은 컴퓨팅 사고력 함양과 인공지능 윤리의 실천력 강화를 목표로 한다. 이를 위해 인공지능 을 이용한 문제해결 프로세스를 6단계로 제안하고, 인공지능 특성을 반영한 인공지능 윤리요소를 도출하여 문제해결 프로 세스에 적용하였다. 또한, 인공지능 윤리 의식에 대한 사전·사후 평가와 과정 평가를 통해 인공지능 윤리 기준을 무의식적 으로 확인하게 하고, 학습자 중심의 교수학습방법을 적용하여 학습자의 윤리 실천을 습관화하도록 설계하였다. 본 연구를 통해 개발된 인공지능 윤리 교육 모델이 컴퓨팅 사고력을 함양하고, 인공지능 윤리가 실천으로 이어지는 인공지능 교육이 될 수 있을 것으로 기대한다. As cases of social and ethical problems caused by artificial intelligence technology have occurred, artificial intelligence ethics are drawing attention along with social interest in the risks and side effects of artificial intelligence. Artificial intelligence ethics should not just be known and felt, but should be actionable and practiced. Therefore, this study proposes an artificial intelligence ethics education model to strengthen the practical ability of artificial intelligence ethics. The artificial intelligence ethics education model derived educational goals and problem-solving processes using artificial intelligence through existing research analysis, applied teaching and learning methods to strengthen practical skills, and compared and analyzed the existing artificial intelligence education model. The artificial intelligence ethics education model proposed in this paper aims to cultivate computing thinking skills and strengthen the practical ability of artificial intelligence ethics. To this end, the problem-solving process using artificial intelligence was presented in six stages, and artificial intelligence ethical factors reflecting the characteristics of artificial intelligence were derived and applied to the problem-solving process. In addition, it was designed to unconsciously check the ethical standards of artificial intelligence through preand post-evaluation of artificial intelligence ethics and apply learner-centered education and learning methods to make learners' ethical practices a habit. The artificial intelligence ethics education model developed through this study is expected to be artificial intelligence education that leads to practice by developing computing thinking skills.

      • 인공지능 윤리원칙 분류 모델에 관한 고찰

        소순주(Soon-Ju SO),안성진(OSeong-Jin Ahn) 한국컴퓨터교육학회 2021 한국컴퓨터교육학회 학술발표대회논문집 Vol.25 No.2(A)

        지능정보화사회에서 가장 핵심이 되고 있는 인공지능 기술은 사회 전반에 거쳐 다양한 형태로 모든 제품이나 서비스에 큰 변화를 가져오고 있다. 오늘날 인공지능은 초거대 인공지능 기술까지 발전하면서 사회, 경제, 생활 등 모든 분야에 활용됨으로써 순기능과 역기능이 함께 공존하게 되었다. 특히, 인공지능 기술발전으로 인하여 인공지능 윤리(Artificial Intelligence Ethics) 문제가 급속하게 이슈화 되고 있다. 유럽을 비롯하여 세계 각국과 국내에서도 2016년도를 기점으로 인공지능 윤리 가이드라인이 발표되고 있으며, 인공지능 기술 개발과 사용에 인공지능 윤리 가이드라인을 적극적으로 적용해나가고 있으나, 윤리원칙에 대한 체계적인 분류와 연구가 미흡한 실정이다. 본 연구는 각 국가, 유관 단체에서 발표한 인공지능 윤리가이드라인과 인공지능 기술을 적용한 제품, 서비스 개발전략, 정책, 관련 문헌 등을 바탕으로 인공지능 윤리원칙을 영역별로 분류할 수 있는 모델을 제안하였다. 제안된 인공지능 윤리원칙 분류모델은 인공지능 소프트웨어 개발, 검증, 인증, 운영, 교육에 필요한 표준모델을 만드는데 사용될 수 있으며, 신뢰할 수 있는 지속가능한 인공지능 기술연구와 인공지능 활용에 기여할 것이다.

      • KCI등재

        인공지능 의사결정에서의 이익조정과 이원적 규제모델에 관한 연구

        이희옥(Lee, Heuiok) 행정법이론실무학회 2020 행정법연구 Vol.- No.63

        빅데이터, 스마트 그리드 등 저변 기술에 힘입은 인공지능의 현실화를 앞두고 인공지능의 명암(明暗)이 거론되면서, 개인정보 보호, 프라이버시, 차별 등의 문제가 법적 쟁점으로 접근되고 있다. 인공지능기술은 기존의 데이터 주도형 기술에서 인공지능 주도형으로 패러다임의 전환을 일으키고 있다. 이러한 기술의 질적 변화는 기존의 기술사회의 위험을 가중함으로써 인간의 존엄과 자유에 기반한 개인의 자기결정의 가치를 제한하거나 침해할 수 있다. 인공지능 시대의 중요한 문제를 인공지능이 의사결정의 주체인 인간을 객체로 보아 인간의 자기결정을 위협하는 것에 있다고 전제하더라도, 인공지능은 완성된 기술이 아니라는 점에서 성급히 법적 규제에 나아가기는 어려운 측면이 있고, 반대로 적절한 시기를 놓치면 여러 가지 위험들에 개인의 권리가 무방비로 노출될 수 있어 사후적 규제만으로는 한계가 있다고도 볼 것이다. 기술이 진보할 때마다 규제체계가 새롭게 만들어져야 하는 것은 아니지만, 국가는 헌법상 기본권 보호의무와 제9장 경제조항에 따른 국민의 권리 보호 및 과학기술 진흥에 따른 경제적 이익을 구현해야 할 책무가 있다. 인공지능의 의사결정은 기존에 정보통신 내지는 인터넷을 대상으로 한 규제와는 질적으로 다른 기술을 대상으로 하고 있다는 점에서, 인공지능에 대응한 규제모델은 인공지능의 이해당사자 간의 이익조정을 고려하는 중에 개인의 ‘자기결정권’을 보장하는 구조로 정립될 필요가 있다. 이에 구체적인 입법안을 고려하기 이전에 규범적 측면에서의 사전적 규제모델을 고려해 볼 여지가 있다고 생각한다. 인공지능은 크게 보아 빅데이터와 머신러닝의 기술로 나눠볼 수 있으며, 인공지능에 대한 규제모델은 i) 데이터 처리와 ii) 인공지능 알고리즘의 처리를 대상으로 규율할 수 있을 것이다. 본 논문은 인공지능의 기술적 특성과 알고리즘 의사결정의 위험을 논의의 전제로 보아, 인공지능에 대응한 개인의 권리 보호의 문제를 규제의 관점에서 접근하고자 하였다. 아울러 데이터와 알고리즘 처리를 규율대상으로 하는 이원적 규제모델을 헌법적 관점에 따라 인공지능 향유의 주체 간(개인-기업-국가) 이익조정을 고려해 제시한다. As artificial intelligence is mentioned ahead of the realization of artificial intelligence thanks to underlying technologies such as big data and smart grids, issues such as personal information protection, privacy and discrimination are approaching legal issues. Artificial intelligence technology is creating a paradigm shift from existing data-driven technology to artificial intelligence-driven technology. These qualitative changes in technology may limit or infringe on the value of individual self-determination based on human dignity and freedom by adding to the risk of an existing technological society. Even assuming that artificial intelligence is a threat to human self-determination by viewing human beings, the main body of decision-making, as objects, it is difficult to rush to legal regulation in that artificial intelligence is not a finished technology, and on the contrary, if one misses the right time, individual rights can be exposed to various risks, which is limited by ex post-regulation alone. Although the regulatory system is not required to be newly created whenever technology advances, the state has a constitutional obligation to protect fundamental rights and implement economic benefits from the protection of people"s rights and the promotion of science and technology under Chapter 9. Given that artificial intelligence"s decision-making targets technologies that are qualitatively different from regulations aimed at information and communication or the Internet, the regulatory model that responds to artificial intelligence needs to be established in a structure that guarantees an individual"s “right to self-determination” while considering adjusting interests among stakeholders of artificial intelligence. Therefore, I think there is room to consider a prescriptive regulatory model before considering specific legislation. In addition, a dual regulation model, which targets data and algorithm processing, was presented in line with the constitutional perspective of profit-alignment between individuals (individual-enterprise-state) utilizing AI.

      • KCI등재

        중국 인공지능 영상의학 진료의 권리 침해 시 손해배상 법률문제 연구

        김종우 한국경영법률학회 2022 經營法律 Vol.33 No.1

        The AI ​​radiology treatment process mainly includes four processes: data pre-processing, image segmentation, feature collection, and adequacy judgment. Artificial intelligence image treatment technology mainly has the following three functions. First, it improves the accuracy of radiology treatment. Second, it improves the efficiency of radiology treatment work. Third, there is a function to pioneer the field of radiology treat- ment application. At present, there are mainly three application models of AI imaging medical treatment technology in China. First, there is a large hospital radiology treatment model. Second, there is a tele- medicine radiology treatment model. Third, there is a model in which medical images are transferred to other hospitals for treatment. Regarding the infringement of common rights, the Chinese 「Rights Infringement Liability Law」 applies the concept of consultation, but it is limited to the infringement of the rights of multiple people. Infringement of the rights of multiple people is again classified into collective rights violations and individual rights violations. There is an effect that can expect fairness in liability for damages for infringement of rights according to artificial intelligence radiology treatment. First, infringement of rights according to AI radiology treatment does not have the basic characteristics of infringement of common rights. Second, the act of infringement of the rights of patients caused by artificial intelligence radiology treatment is objectively differentiated from the act of infringement of the rights of many people. Third, the infringement of rights created by AI radiology treatment for patients belongs to an indirect combination of individual rights rather than common rights in China's 「Right Violation Liability Act」 level. The components of liability for infringement of rights caused by AI-assisted medical care to patients are composed of four conditions: the result of damage, infringement of rights, causality and negligence. A reasonable order of recognition between the components of the patient's rights infringement liability according to the artificial intelligence radiology examination follows the steps of result of damage, infringement of rights, causality, and negligence. As for how to recognize the subject of liability related to compen- sation for damages caused by AI-assisted radiology, the legal status of AI-based radiology robots in China must first be established. Positive theory, negative theory, and compromise theory are representative. Ultimately, considering that smart robots are smart tools created by mankind and serviced by humans, civil subjects and objects are dualized and qualified as civil subjects as separate objects. The notion of not doing so may be more persuasive. Regarding the route of recognition of the responsible person in the treatment model of large hospitals, if a radiologist reports a diagnosis based on an incorrect AI radiology and treats a patient by forming an erroneous treatment, this will lead to a violation of the medical rights formed by the patient. The resulting damage must be recognized as a liability based on three steps. First, it is necessary to determine the person responsible for the treatment. Second, the person responsible for treatment must be determined. Third, the person responsible for treatment and the person responsible for treatment, which has already been clarified, should jointly bear the liability for damages to the patient. Regarding the route of recognition of the responsible person for the telemedicine imaging model, if the hospital receiving the application for telemedicine imaging diagnosis and the hospital in charge of the treatment are independent civil liability entities, the recognition of the person responsible for the damage caused by the medical accident created by this situation The path is as follows. First, the person responsible for treatment is determined. Second... 인공지능 영상의학 진료 과정은 주로 데이터 사전 처리, 영상 분할, 특징 취합 및 적정성 판단이라는 네 과정을 포함한다. 인공지능 영상 진료기술은 주로 아래 세 가지 기능이 있다. 첫째, 영상의학 진료의 정확도를 향상시킨다. 둘째, 영상의학 진료업무의 효율을 향상시킨다. 셋째, 영상의학 진료 응용 현장을 개척하는 기능이 있다. 현재 중국의 인공지능 영상의학 진료기술 응용 모델은 주로 세 가지가 있다. 첫째, 대형병원 영상의학 진료 모델이 있다. 둘째, 원격의료 영상의학 진료 모델이 있다. 셋째, 의료영상을 기타 병원으로 옮겨 진료하는 모델이 있다. 공동 권리 침해에 대해 중국 「권리침해책임법」은 협의의 개념을 적용하고 있는데, 단지 多數人의 권리 침해에 한정된다. 多數人의 권리 침해행위는 다시 공동 권리 침해행위와 개별적인 권리 침해행위로 분류된다. 인공지능 영상의학 진료에 따른 권리 침해행위의 손해배상 책임에 대해서는 공정성을 기대할 수 있는 효과가 있다. 첫째, 인공지능 영상의학 진료에 따른 권리 침해행위는 공동 권리 침해행위의 기본 특징을 구비하지 않는다. 둘째, 인공지능 영상의학 진료로 발생한 환자에 대한 권리 침해행위는 객관적으로 多數人의 권리 침해행위와 차별화된다. 셋째, 인공지능 영상의학 진료가 환자에 대해 조성한 권리 침해행위는 중국 「권리침해책임법」차원에서는 공동 권리보다는 개별적인 권리 침해행위에서의 간접 결합행위에 속한다. 인공지능 영상의학 보조 진료가 환자에 대해 초래한 권리 침해 책임의 구성 요건은 손해가 발생한 결과, 권리 침해행위, 인과관계 및 과실이라는 네 가지 요건으로 구성한다. 인공지능 영상의학 진료 검사에 따른 환자의 권리 침해 책임 구성 요건 간에 합리적인 인지 순서는 손해가 발생한 결과, 권리 침해행위, 인과관계 및 과실의 단계를 따른다. 인공지능 영상의학 보조 진료 때문에 발생한 손해배상이 관련된 책임의 주체를 어떻게 인정할 것인가에 대해서는 우선 중국 인공지능 영상의학 로봇의 법률 지위가 확립되어야만 한다. 긍정설, 부정설, 절충설 등이 대표적인데 궁극적으로는 스마트로봇이 인류가 창조하고 사람에게 서비스하도록 한 스마트화한 도구라는 것을 감안하면, 민사주체와 객체가 서로 이원화되어 분리된 물체로서 민사주체 자격을 구비하지 않는다는 견해가 설득력을 가질 수 있다. 대형병원 진료 모델의 책임 주체 인정 루트와 관련해서는 만약 영상의학과 의사가 잘못된 인공지능 영상의학에 근거하여 진단을 보고 받고 착오의 진료를 형성하여 환자에게 진료를 했다면, 이로 인해 환자에게 형성된 의료 권리 침해에 따른 손해는 세 가지 단계에 근거하여 책임 주체를 인정해야 한다. 첫째, 진료 책임 주체를 확정해야 한다. 둘째, 치료의 책임 주체를 확정해야 한다. 셋째, 이미 분명해진 진료의 책임 주체와 치료의 책임 주체가 환자에 대해 손해 배상책임을 공동 부담해야 한다. 원격의료 영상 진료 모델의 책임 주체 인정 루트에 대해서는 만약 원격진료 영상 진단 신청 병원과 접수를 수용하여 진료를 담당한 병원이 독립적인 민사책임 주체라면, 이런 상황이 조성한 의료사고에 따른 손해 책임 주체의 인정 경로는 아래와 같다. 첫째, 진료 시 책임 주체를 확정한다. 둘째, 치료 시 책임 주체를 분명히 해야 한다. 셋째, 이미 분명하게 확정된 진료 책임 주체와 치료 책임주 ...

      • KCI등재

        인공지능 모델의 추론을 이용한 법적 논증

        신홍균 국민대학교 법학연구소 2022 법학논총 Vol.34 No.3

        Artificial intelligence as a concept is based upon the presupposition that computer is able to learn. The object of the learning is the data, and the result of the learning is a sort of rule. AI learns and finds training data and general rules. AI may perform the inference regarding the specific case according to the general rule. Such inference as a sort of legal decision may be equal to a valid legal argumentation. AI model may also operate as a logical basis for the legal argumentation. Legal argumentation is valid as legal norms and empirical propositions is providing the deductive basis for a certain rulem or propositions. The output of machine learning feature engineering model is not the result of deductive reasoning over the text but the inference based upon the rules resulting from integer calculation of the feature. Therefore, validity of the logical reasoning is not to be witnessed. The precision will be measured. BERT model has learned the 300 datasets with labelled data and made the inference function corresponding each labelling such as valid article or invalid article of end user agreement. 300 datasets are made of 300 article of end user agreement. In other words, each datasets equal to the specific relevant factual statetement. Therefore, the BERT classification model returns the inference function including the rule and rationale of interpretation of article of the agreement. One element of the justification of the rule and rationale consists in an universality. As objective calculation is free from the human bias, BERT model may fulfill such condition. However, a calculation may not entail value propositions such that BERT model inference is not a valid legal argumentation. 인공지능이란 컴퓨터가 학습할 수 있음을 전제로 사용되는 개념이다. 인공지능의 학습 대상은 데이터이고 학습의 결과는 일정한 규칙(rule)이다. 특정(specific)한 데이터를 학습해서 컴퓨터가 일반적(general)인 규칙을찾아낸다. 학습을 마친 인공지능은, 즉 인공지능 모델은 일반적 규칙을 적용하여 개별 사건에 대해서 추론(inference)한다. 법적판단에 해당하는 인공지능 모델의 추론이 법적논증으로 성립될 수 있다. 또는 인공지능 모델이 법적논증의 근거로서 기능할 수도 있다, 즉 법규범과 경험적 명제에서 연역적 귀결의 근거로서 일정한 규칙이나 절차 또는 명제가 찾아지면 법적논증은 성립한다. 머신러닝 알고리즘은 문언을 읽고 법리에 따라 해석하여 연역적으로 사고하는 것이 아니라, 피처를 선별한 데이터, 즉 가공데이터를 정수(integer)로 연산해서 추론의 규칙을 도출한다. 따라서 연역적 사고에 따른 논리적 타당성은 측정될 수 없고, 추론규칙의 정확도가 계산된다. 딥러닝의 BERT 모델은 함수식을 도출하고 그에 따라서 추론을 한다. 따라서 주어진 법리가 논리적으로 타당하게 적용되는가의 여부가 아니라추론 규칙의 정확도, 즉 함수식의 정확도가 계산된다. 머신러닝 피처 엔지니어링과는 달리, BERT 모델은 언어의 이해를 전제로 하기에 수식의 정확도를 둘러싸고 다양한 쟁점이 제기된다. BERT 모델의 정확도가 신뢰되지 않는다면 법리적용의 타당성 요건이 충족되지 않는다. 또한 법리의 이론적 정당성에 관해서는, 약관 라벨링 모델은 300개의 데이터셋을 학습하여 약관규제법에 따라 무효 라벨링과 유효 라벨링에 각각해당하는 함수식을 도출한다. 300개의 데이터셋 각각은 약관규제법 조항에 따라 무효 또는 유효로 판정되는 조문을 담고 있다. 달리 말하면 데이터셋 각각은 약관규제법에 따라서 유효 또는 무효로 판정되는 사실관계에해당한다. 그래서 그러한 사실관계와 라벨링간의 관계를 BERT를 이용한 라벨링 모델이 학습해서 도출하는 함수식은 약관규제법 조항의 해석 규칙내지는 적용 원리를 담고 있다. 그래서 약관 라벨링 모델의 추론이 법적논증이기 위해서는 그 함수식이 법리의 정당성 요건을 충족하야야 한다. 정당성 요건중의 하나는 보편성이다. 사람이 통제할 수 있는 과정이 매우 제한적이라는 점에서 BERT 모델은 사람에 의한 편향성 문제를 겪지않을 것이고, 그래서 보편성을 충족할 수도 있다. 그러나 편향성 문제가 없는 점과는 대비되는 쟁점으로서, 사람의 통제가 없다면 법리를 적용하는 것이 정당한가에 관한 가치체계가 모델의 연산에 주입될 수 없다는 쟁점은제기된다. 따라서 약관 모델링은 법적논증으로서 성립된다고 보기 어렵다.

      • KCI등재

        인공지능 기반 모바일 U.I.의 지속적 사용 의도에 영향을 미치는 요인 분석 -가치 기반 수용 모델을 중심으로-

        김경탁,송지성 한국디자인문화학회 2020 한국디자인문화학회지 Vol.26 No.2

        Purpose and Necessity of this study: This study was conducted to empirically analyze factors affecting perceived value of A.I.-based mobile U.I. design and persistent intention to use it. In this study, two independent variables such as ‘Benefits of A.I.-based mobile U.I. design’ and ‘sacrifices to use A.I.-based mobile U.I. design’, and two dependent variables such as ‘perceived value’ and ‘persistent intention to use’(). Method and scope of this study: This study conducted theoretical analyses of mobile U.I. Design and ‘value-based acceptance model’, and empirical surveys for general users. The scope of the empirical survey was focused on a sample survey of respondents who participated in this study. Research contents and results: The results of this study are as follows. First, Hypothesis 1: ‘The benefits of A.I.-based mobile U.I. designs will have a statistically significant effect on the perceived value of A.I.-based mobile U.I. designs’, and its sub-hypotheses 1-1, 1-2 were all adopted. Among the two sub-factors of benefits, perceived usefulness has more influence on perceived value than perceived enjoyment7). Second, Hypothesis 2: ‘The sacrifices to use of A.I.-based mobile U.I. design will have a statistically significant effect on the perceived value of the A.I.-based mobile U.I. design’,(K and its sub-hypotheses 2-1, 2-2 were all adopted(). Among the two sub-factors of sacrifices, complexity of the technology has more influence on perceived value than security risk(. Third, Hypothesis 3: ‘The benefits of A.I.-based mobile U.I. design will have a statistically significant effect on persistent intention to use of it’, and its sub-hypotheses 3-1, 3-2 were all adopted(). Among the two sub-factors of benefits, perceived usefulness has more influence on perceived value than perceived enjoyment(Kim. 2017). Fourth, Hypothesis 4: ‘The sacrifices to use of A.I.-based mobile U.I. design will have a statistically significant effect on the persistent intention to use of it’, and its sub-hypotheses 4-1, 4-2 were all adopted(Kim. 2017). Among the two sub-factors of sacrifices, security risk has more influence on the persistent intention to use than complexity of the technology(7). Fifth, Hypothesis 5: ‘Perceived value of A.I.-based mobile U.I. design will have a statistically significant effect on persistent intention to use it’ was adopted). As described above, in order to enhance and improve the perceived value and persistent intention to use of A.I.-based mobile U.I. design, the perceived usefulness, the perceived enjoyment of use, the technical friendliness and convenience, the low cost should be activated and maintained(). In addition, this study conducted a more scientific and logical empirical analysis by using the ‘Value-based Adoption Model’, which is the theoretical analysis model of acceptance and use process of new technology..K I hope to provide effective theoretical, practical guidelines and basic references which will directly contribute to expand, disseminate and activate of A.I.-based mobile U.I. designs. 연구의 목적 및 필요성: 본 연구는 인공지능 기반모바일 U.I. 디자인의 지각된 가치와 지속적인 사용의도에 영향력을 미치는 요인들을 ‘가치 기반적 수용모델’을 토대로 실증 분석하기 위해 수행되었다. 이를통해, 본 연구는 인공지능 기반 모바일 U.I. 디자인이라는 신기술의 가치를 사용자들이 지각하고 수용하면서 지속적⋅중장기적으로 사용하려는 의도 등에 영향을 미치는 요인들을 분석입증하였다. 이를 통해 인공지능 기반 모바일 U.I. 디자인의 보급과⋅확산에 도움이 되는 이론적, 실무적 지침을 제공하고자 한다. 연구의 방법 및 범위: 이를 위해 본 연구는 모바일U.I. 디자인과 ‘가치 기반 수용 모델’에 대한 이론적고찰 및 일반 사용자를 대상으로 하는 실증 조사(설문 조사)를 병행하였다. 실증 조사의 범위는 본 연구가 수행한 설문조사에 참여한 응답자들을 대상으로한 표본 조사 중심으로 진행하였다. 연구내용 및 결과: 본 연구 결과를 요약하면 다음과같다. 첫째, 인공지능 기반 모바일 U.I. 디자인을 통해얻을 수 있는 ‘이익’은 사용자들의 ‘지각된 가치’에 유의미한 정정(+)의 영향을 미치는 것으로 나타났다(유훈, 2018). 따라서 본 연구의 가설 제1과 세부적 가설1-1, 1-2는 모두들 채택되었다. 이익의 2종 하위 요인들 중에 ‘지각된 유용성’이 ‘지각된 즐거움’보다도 더더욱 많은 영향을 미치는 것으로 분석되었다(유훈, 2018). 둘째, 인공지능 기반 모바일 U.I. 디자인 사용을 위해 감수해야 할 ‘희생’은 사용자들의 ‘지각된 가치’에 유의미한 부적인(-)의 영향을 미치는 것으로 나타났다(유훈, 2018). 따라서 본 연구의 가설 2와 세부적 가설 2-1, 2-2는 모두들 채택되었다. 희생의 2종하위의 요인들 중에 ‘기술의 복잡성’이 ‘보안의 위험성’보다 많은 부적인(-)의 영향을 미치는 것으로 분석되었다. 셋째, 인공지능 기반 모바일 U.I. 디자인을 통해 얻을 수 있는 ‘이익’은 사용자들의 ‘지속적인 사용의도’에 유의미한 정적인(+)의 영향을 미치는 것으로나타났다(유훈, 2018). 따라서 본 연구의 가설 제3과세부 가설인 3-1, 3-2은 모두들 채택되었다. 이익의 2 종 하위 요인들 중에 ‘지각된 유용성’이 ‘지각된 즐거움’보다 좀많은 영향을 미치는 것으로 분석되었다(유훈, 2018). 넷째, 인공지능 기반 모바일 U.I. 디자인의사용과정을 위해 감수해야 할 ‘희생’은 사용자들의 ‘지속적인 사용 의도’에 유의미한 부적인(-)의 영향을 미치는 것으로 나타났다. 따라서 본 연구의 가설 제4와세부 가설인 4-1, 4-2는 모두 채택되었다(유훈, 2018). 희생의 2종 하위 요인들 중에 ‘보안적 위험성’이 ‘기술의 복잡성향’보다 좀 많은 영향을 미치는 것으로 분석되었다. 다섯째, 인공지능 기반 모바일 U.I. 디자인의지각된 가치체계는 지속적인 사용 의도에 유의미한정적인(+)의 영향을 미치는 것으로 나타났다. 따라서본 연구의 가설 제5는 채택되었다(유훈, 2018). 위의 결과들을 보면, 사용자들은 인공지능 기반 모바일 U.I. 디자인의 수용 및 지속적 사용 과정에서 지각된 즐거움이나 유쾌함, 기쁨, 만족감 등보다는 실질적인 유용성, 일상생활과 직무 등에 도움이 되는 속성을 보다 중시함을 알 수 있다. 또한 인공지능 기반 모바일 U.I. 디자인의 가치를 지각하고 이를 새롭게 수용하려는 단계에서는 기술적 복잡성을 신경 쓰는 반면, 지속적⋅장기적 사용을 위해서는 보안 위험성을좀 더 우려함을 알 수...

      • KCI등재

        인공지능 비서에 대한 소비자의 지각된 가치와 신뢰가 수용의도에 미치는 영향

        장민흔,이진명 한국소비자정책교육학회 2021 소비자정책교육연구 Vol.17 No.1

        본 연구의 목적은 잠재적인 인공지능 비서 수용자들이 현재 인공지능 비서의 혜택과 희생을 어떻게 지각하고 있는지 살펴보고, 가치기반 수용모델을 기반으로 지각된 혜택과 희생 요인 및 신뢰가 소비자의 인공지능 비서 수 용의도에 미치는 영향력을 규명하는 것이다. 이를 위해 인공지능 비서에 관심이 있으나 현재 사용하고 있지 않은 20대에서 50대까지의 잠재적 수용자를 대상으로 온라인 설문조사를 실시하였으며 총 354명의 유효자료를 수집 하여 SPSS 24.0 및 AMOS 24.0 프로그램을 이용하여 분석하였다. 인공지능 비서에 대한 소비자 인식 수준을 확인한 결과, 혜택 요인 중 즐거움에 대한 지각이 가장 높으며 공감 성은 상대적으로 낮은 수준으로 나타났다. 희생 요인 중에서는 사생활침해 위험을 가장 높게 지각하는 것으로 나 타났다. 구조방정식 모형분석을 통해 가설을 검증한 결과 개인화 혜택, 즐거움, 공감성이 높아질수록 지각된 가 치가 유의하게 높아지며, 경제적 비용과 사생활침해 위험이 높아질수록 지각된 가치가 유의하게 낮아지는 것으로 나타났다. 또한, 지각된 가치와 소비자 신뢰가 인공지능 비서 수용의도에 모두 유의한 긍정적 영향을 미치는 것 으로 나타났다. 부츠스트래핑을 통해 매개효과를 살펴본 결과, 개인화 혜택, 즐거움, 공감성 그리고 경제적 위험 이 지각된 가치를 매개로 인공지능 비서 수용의도에 유의한 영향을 미치는 것으로 나타났다. 본 연구는 인공지능 비서에 대한 소비자의 총체적 가치지각과 인공지능 비서에 대한 신뢰가 수용의도에 미치는 영향력을 규명함으로써 관련 산업계에 실무적 함의를 제공하며 소비자 중심의 인공지능 기술 관련 연구를 확장한 다는 점에서 학문적 의의를 지닌다. The purpose of this study is to investigate the effects of artificial intelligent(AI) assistants' benefits and sacrifice factors on perceived values and the effects of perceived values and trust on Adoption intention by applying the theoretical framework of the ‘Value-based Adoption Model’. To this end, an online survey was conducted for potential adopters of AI assistants in their 20s to 50s, and a total of 354 valid data were collected and analyzed using SPSS 24.0 and AMOS 24.0 programs. The main results are summarized as follows. First, among the benefit factors of AI assistants, the perception of pleasure was the highest and the perception of empathy was relatively low. Among the sacrifice factors, the perception of the risk of privacy invasion was the highest. Second, as a result of structural equation model analysis, it was found that personalization benefits, enjoyment, and empathy had a significant positive effect on perceived value for AI assistants. On the other hand, it was found that the economic cost and the risk of invasion of privacy had a significant negative effect on the perceived value of the AI assistant. Third, it was found that both perceived value and consumer trust had a significant positive effect on the intention to adopt AI assistants. In addition, as a result of bootstrapping, personalization benefits, enjoyment, empathy, and economic risk had a significant indirect effect on the intention to adopt an AI assistant through perceived value. These results suggest that it is important not only to increase the value of the service, but also to increase trust in the service providers. This study provides practical implications to the industry related to AI assistants by examining the influence of consumers' overall perception of value and trust in AI assistants on adoption intentions and has academic significance in expanding research on AI technology centered on consumers.

      • KCI등재

        초등 인공지능 교육을 위한 설명 가능한 인공지능의 교육적 의미 연구

        박다빈,신승기 한국정보교육학회 2021 정보교육학회논문지 Vol.25 No.5

        본 연구는 문헌 연구 통해 설명 가능한 인공지능의 개념과 문제해결과정을 탐구하였다. 본 연구를 통하여 설명 가능한 인공지능의 교육적 의미와 적용 방안을 제시하였다. 설명 가능한 인공지능 교육이란 인간과 관련된 인공지 능 문제를 다루는 사람 중심의 인공지능 교육으로 학생들은 문제 해결 능력을 함양할 수 있다. 그리고, 알고리즘 교육을 통해 인공지능의 원리를 이해하고 실생활 문제 상황과 관련된 인공지능 모델을 설명하며 인공지능의 활용 분야까지 확장할 수 있다. 이러한 설명 가능한 인공지능 교육이 초등학교에서 적용되기 위해서는 실제 삶과 관련 된 예를 사용해야 하며 알고리즘 자체가 해석력을 지닌 것을 활용하는 것이 좋다. 또한, 이해가 설명으로 나아가 기 위해 다양한 교수학습방법 및 도구를 활용해야 한다. 2022년 개정 교육과정에서 인공지능 도입을 앞두고 본 연 구가 실제 수업을 위한 기반으로써 의미 있게 활용되기를 바란다. This study explored the concept of artificial intelligence and the problem-solving process that can be explained through literature research. Through this study, the educational meaning and application plan of artificial intelligence that can be explained were presented. XAI education is a human-centered artificial intelligence education that deals with human-related artificial intelligence problems, and students can cultivate problem-solving skills. In addition, through algorithmic education, it is possible to understand the principles of artificial intelligence, explain artificial intelligence models related to real-life problem situations, and expand to the field of application of artificial intelligence. In order for such XAI education to be applied in elementary schools, examples related to real world must be used, and it is recommended to utilize those that the algorithm itself has interpretability. In addition, various teaching and learning methods and tools should be used for understanding to move toward explanation. Ahead of the introduction of artificial intelligence in the revised curriculum in 2022, we hope that this study will be meaningfully used as the basis for actual classes.

      • KCI우수등재

        인공지능 알고리즘의 편향성, 불투명성이 법적 의사결정에 미치는 영향 및 규율 방안

        양종모 ( Yang Jongmo ) 법조협회 2017 法曹 Vol.66 No.3

        인공지능의 파급력은 대단하다. 법률 분야에서도 다양한 형태로 인공지능의 활용이 모색되고 있다. 특히 머신러닝이 인공지능의 대세가 되면서 법률분야의 파괴적 혁신을 주도하고 있는 양상이다. 인공지능이 인간의 지능을 초월하는 특이점 현상이 거론되기도 하고, 인공지능으로 인해 많은 직업이 사라지게 될 것이라거나, 또는 인공지능이 인류의 생존에 위협이 될 것이라는 우려 섞인 전망도 없지 않다. 그러나 인공지능은 이미 현실에서 작동되고 있으며 특히 인공지능이 인간의 의사결정을 대체하는 기능을 수행하고 있다는 사실은 간과하기 쉽다. 미국 경찰은 오래 전부터 인공지능 알고리즘을 이용한 범죄예측기법을 사용하여 범죄예방 활동을 벌이면서 범죄율 감소 등 상당한 성과를 거두고 있으며, 형사사법에서도 보호관찰이나 보석결정, 심지어 판결과정에서까지 재범의 위험성 예측을 위한 인공지능의 통계적 예측 기법이 널리 쓰이고 있다. 본고에서는 인공지능 알고리즘에 의한 법적 의사결정이나 예측 과정에서 나타날 수 있는 여러 가지 문제점에 대하여 논의해보고자 하였다. 인공지능 알고리즘에 의한 예측이나 의사결정은 주관이나 편견에 의해 좌우되는 인간의 결정과는 달리 객관적이고 편견에서 자유로울 것이라고 생각하게 마련이지만, 의외로 인공지능 알고리즘에 의한 의사결정은 오류가능성 뿐만 아니라 편향성과 차별적 결과를 보이고 있다는 것이 밝혀졌다. 이러한 인공지능 알고리즘에 의한 의사결정의 편향성과 그로 인한 차별적 결과는 차별금지라고 하는 사회적 가치를 훼손할 우려가 크다. 따라서 이러한 편향성 문제 등 인공지능 알고리즘에 의한 의사결정이 가지고 있는 여러 가지 문제점에 대한 대책으로는 차별적 결과를 시정하는 사후적 규율뿐만 아니라 인공지능 의사결정 도구의 설계와 구현, 성능 평가 과정에서 차별적 결과 생성을 사전에 차단하려는 사전규제 방안을 모색할 필요가 크다. 특히 인공지능 알고리즘에 의한 법적 의사결정과 같은 공적 영역에서는 의사결정의 영향력이 광범위하고 어떤 급부의무나 부작위가 문제되는 사적 영역에서의 개별적 사후 구제와는 다른 방도가 필요한데, 이미 차별적 효과가 발생한 후 사후적 구제를 모색하기 보다는 의사결정 과정에서 차별적 효과를 가져 올 수 있는 알고리즘 요소를 원천 차단하는 것이 효율적일 것으로 보인다. 이러한 사전규제 방안 중 개발과정의 사전 통제와 사용승인을 통한 적법성규제가 우선적 고려 대상이다. 개발과정의 사전 통제에는 윤리적 설계라는 개념도입도 필요한데, 단순히 설계자의 의도대로 작동된다는 수준을 넘어 인공지능알고리즘이 윤리적 기준에 부합하도록 작동한다는 것이 담보되어야 윤리적 설계라고 할 수 있다. 나아가 인공지능 알고리즘을 사용하기 전에 알고리즘 코드 위주의 분석인 정적 분석과 실제 알고리즘의 작동 과정을 살피는 동적 분석 등이 행하여져야 한다. 나아가 인공지능 알고리즘이 활용되면 의사결정의 자동화가 이루어져 어느 누구도 의사결정으로 초래된 위험이나 과오에 대하여 책임지지 않는다는 문제가 생긴다. 따라서 법적 의사결정에 규범적 근거를 제공하고 책임 주체를 명확히 한다는 측면에서 의사결정 과정에 인간의 간여가 필요하다. 이러한 사전 규제외에도 인공지능 알고리즘의 불투명성 해소도 규율의 큰 그림에 포함되어야 한다. 머신러닝과 같은 알고리즘은 블랙박스와 같이 작동되고, 인간이 그 작동과정을 제대로 감독할 수 없다는 불투명성이 항상 문제되지만, 설계 과정에서 이러한 불투명성을 해소하도록 강제하고, 특히 차별적 결과를 보이는 알고리즘의 경우는 작동과정의 설명 의무 부과 등으로 불투명성 문제를 해소하는 노력이 필요하다. In the field of law, artificial intelligence is being explored in various forms. Especially, machine learning is leading the destructive innovation in the field of law as the artificial intelligence becomes popular. There are also concerns that artificial intelligence may be mentioned as a singular phenomenon that transcends human intelligence, that many jobs are lost due to artificial intelligence, or that artificial intelligence is a threat to the survival of mankind. However, it is easy to overlook the fact that artificial intelligence is already operating in reality, and that artificial intelligence, in particular, plays a role in human decision-making. US police have long been engaged in crime prevention activities using artificial intelligence-based crime prediction techniques and have achieved considerable achievements such as reduced crime rates. In the judiciary, for example, probation, bail, and even judgment, models to predict recidivism is widely used. Although it is thought that decision making such as prediction by artificial intelligence will be free from objectivity and prejudice unlike human decision which is influenced by subjectivity, it is surprisingly revealed that decision making by artificial intelligence is biased and particularly discriminatory. The biased nature of decision making by artificial intelligence and its discriminatory results are likely to undermine the social value of prohibiting discrimination. Therefore, the countermeasures against various problems of decision making by artificial intelligence such as biased problems include not only posterior discipline that corrects differential results, but also generation of differential results in the design, implementation, and performance evaluation of artificial intelligence decision tools. There is also a great need for pre-regulation to block in advance. Especially in the public domain, such as legal decision making by artificial intelligence algorithms, there is a need for a different approach to individual remediation in the private domain, where decision making has a wide range of influences. Rather than seeking redress, it seems effective to block the source of the algorithm elements that can bring discriminative effects in the decision making process. Among these precautionary measures, legality control through prior control of the development process and approval of use is a priority. It is necessary to introduce the concept of ethical design to the pre-control of the development process. It must be ensured that the artificial intelligence algorithm operates in accordance with the ethical standards beyond the merit of being operated by the designer`s intention. Furthermore, before using artificial intelligence algorithms, it is necessary to perform static analysis, which is an algorithm code oriented analysis, and dynamic analysis, which examines the operation process of an actual algorithm. Furthermore, when artificial intelligence algorithms are used, there is a problem that automation of decisions is made so that no one is responsible for the risks or mistakes caused by decisions. Therefore, human intervention in the decision-making process is necessary in order to provide normative grounds for legal decision making and to clarify the responsible party. In addition to these pre-regulations, the resolution of the opacity of artificial intelligence algorithms should also be included in the larger picture of the discipline.

      • KCI등재

        현대 지능정보사회와 인격성의 확장

        양천수 전북대학교 동북아법연구소 2018 동북아법연구 Vol.12 No.1

        현재 진행되고 있는 제4차 산업혁명을 통해 새로운 사회 패러다임이 등장하고 있다. 지능정보 사회가 대표적인 경우에 해당한다. 지능정보사회는 새로운 법적 문제를 제기하는데, 인공지능 로봇에게 법적 인격을 인정할 수 있는지가 대표적인 예에 속한다. 이 글은 요즘 화제가 되고 있는 인공지능 로봇에게 법적 인격을 인정할 수 있는지, 그럴 필요가 있는지를 다룬다. 이를 위해 이 글은 그 동안 법체계 안에서 인격성이 어떻게 변화되어 왔는지를 분석한다. 이 글에 따르면, 법체계 안에서 인격성은 지속적으로 확장되었다. 물론 처음에 인격 개념은 인간에서 출발하였지만, 인간과 인격이 분리되고, 법인이 등장하면서 인격 개념은 인간보다 더욱 확장되 었다. 이러한 분석을 통해 이 글은 다음과 같은 결론을 도출한다. 인격 개념은 고정된 것이 아니 라, 사회적 소통에 의존하는 변화가능한 개념이라는 것이다. 인격은 관계적인 개념이다. 이러한 근거에서 이 글은 인공지능 로봇에게도 법적 인격성을 부여할 수 있다고 주장한다. 이 글은 인격성 부여에 관한 모델로서 세 가지를 제시한다. 인간중심적 모델, 불완전한 탈인간중심적 모델, 완전한 탈인간중심적 모델이 그것이다. 이 중에서 완전한 탈인간중심적 모델을 따를 때, 인공지능 로봇에게 법적 인격성을 인정할 수 있다. 다만 이 글은 인공지능 로봇에게 법적 인격성 을 인정해야 할 필요가 있는지 의문을 제기한다. 이 문제는 획일적으로 해결할 수 있는 것이 아니라, 각 상황에 맞게 해결해야 한다고 주장한다. 그러면서 이 글은 인공지능 로봇의 인격성을 논의하는 것도 여전히 인간중심적 사고에서 벗어나지 못한 것이 아닌지 의문을 제기한다. 마지 막으로 이 글은 궁극적으로 인간중심적 법체계와 로봇중심적 법체계가 충돌하는 문제도 등장할 것이라고 진단한다. A new social paradigm emerges through the ongoing “fourth industrial revolution”, “Intelligence information society” is one of those cases. Intelligence information society raises new legal problems, and it is one of the examples of whether artificial intelligence robots can be recognized as legal person. This article deals with the questions of whether and why artificial intelligence robots are recognized as legal person. To this end, this article analyzes how personality has changed in the legal system. According to this article, the concept of personality in the legal system has been continuously expanded. Of course, at first, the concept of personality originated from human beings, but its concept was expanded more than that of human beings as the separation of the concept of human being and person and the appearance of corporation. This analysis results in the following conclusion: personality is not fixed, but a changeable concept that depends on social communication. Personality is a relational concept. On this basis, the article argues that artificial intelligence robots can be recognized as legal person. In this context, the author presents three models on legal personality: anthropocentric model, incomplete post-anthropocentric model and complete post-anthropocentric model. According to the complete post-anthropocentric model, we can recognize artificial intelligence robots as legal person. However, this article raises the question of whether artificial intelligence robots need to be recognized as legal person. The author argues that this problem could not be solved uniformly, but should be solved for each situation and case.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼