RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
        • 주제분류
        • 발행연도
        • 작성언어
        • 저자

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        사물인터넷(IoT) 관련 사이버범죄 동향 및 형사법적 규제

        양종모(Yang, Jongmo) 대검찰청 2015 형사법의 신동향 Vol.0 No.48

        사물인터넷은 네트워크상에서 사람과 사물, 사물과 사물이 연결되어 상호 소통할 수 있는 인프라인데, 이러한 사물인터넷으로 인하여 현대사회는 초연결사회의 특징을 보인다. 사물인터넷의 확산으로 엄청난 양의 데이터가 생성되고 축적되며, 그 필연적 결과로 빅데이터가 출현하였고, 빅데이터로부터 가치 있는 정보를 찾아내는 데이터 마이닝이 정보화 사회의 주요 이슈가 되었다. 정보의 가치가 물질의 가치를 초월하는 시대가 된 것이다. 그러나 이러한 사물인터넷의 확산으로 인하여 우리 사회는 새로운 도전에 직면하게 되었다. 사물인터넷 단말들이 가진 저사양/저전력 등의 특징 때문에 보안에 치명적인 결함을 노정할 수밖에 없는데 이러한 보안상의 취약점을 노린 다양한 형태의 사이버범죄의 창궐이 예상된다. 사물인터넷 단말 등에 악성프로그램을 유포 하여 사물인터넷 단말들을 기반으로 한 봇넷을 구축한 사례나, 사물인터넷 단말을 통로로 한 침입 사례 등이 이미 발견되었다. 나아가 사이버범죄자들이 사물인터넷 단말 등에 침입하여 악성프로그램을 유포한 후, 그 단말들을 마음대로 조작할 수 있게 되었고, 지능형 인슐린 펌프, 자동차와 같은 생명과 직결된 사물인터넷 단말들의 악의적 조작을 통한 살인의 가능성도 제기되었다. 이와 같이 이미 발생하였거나, 발생이 예상되는 사물인터넷과 관련된 여러 형태의 사이버범죄를 어떻게 규율할 것인가 하는 것이 이 논의의 중점이다. 사물인터넷은 정보통신망의 일종이므로, 이러한 형태의 사이버 범죄는 정보통신망법의 적용대상이 된다. 그 외에 정보통신 기반 보호법, 개인정보 보호법 등이 적용된다. 정보통신망법 등의 규정이 이와 같은 새로운 형태의 사이버 범죄를 효율적으로 규율하는 데 문제가 없는지 살펴볼 필요가 있다. 정보통신망법 등의 개개 규정을 보면 그 규정 자체의 해석과 관련하여 사이버범죄를 효율적으로 규율 하는데 문제가 있는 것으로 보인다. 특히 사이버범죄의 융합적 성격에 비추어 정보 통신망법 등의 구성요건에 여러 가지 변화가 필요하다. 또 기존의 정보통신망법 등이 예정하지 못하였던 새로운 형태의 범죄를 통합적으로 규율하기 위하여 새로운 구성 요건의 창설도 필요한 것으로 판단된다. A Hyper-connected Society is Coming. Hyper-connectivity is the increasing digital interconnection of people ? and things ? anytime and anywhere. Internet of Things, a network of items?each embedded with sensors?which are connected to the Internet will change everything. As we are entering the age of the Internet of Things, our homes are becoming increasingly populated by devices that are connected to the Internet. The idea of devices of all sorts coming under computer control, and being able to communicate with servers and with each other promises an explosion of IoT for Business. IoT ranges from wearable devices like Google Glass, Jawbone, smart clothing, smart car and many others from automated household appliances to sophisticated business tools. The number of connected machines and devices will be about 1 trillion by the year 2022. The ability to put an IP address on very small devices has created almost endless opportunities for innovation. The huge business value of IoT is that it opens an opportunity for new business models in industries ranging from manufacturing, agriculture, health care, transportation and more. As the Internet of Things becomes a greater part of everyday life, security concerns are developing faster than the Internet of Things itself. IoT, which will involve more devices, processes, and people interacting via the internet, will create a “wider attack surface and more attack vectors”. With connected technologies, cyber criminals could disrupt major business processes. For example, many smart cities are leveraging surveillance and sensor technologies to perform city planning, incident response, traffic coordination, and crime management. Hacking these systems could create disastrous consequences. IID even predicted that a death caused by an by internet-connected device may happen within the year. This article seeks to address and analyse the following issues. Firstly, it provides overview of various type and examples of IoT cyber crime. Secondly it reviews the state of the existing legislative and regulatory framework and their efficiency in combating this form of cyber crime. Straightforwardly, the existing legal framework in Korea is insufficient to face this challenges. The existing law governing the cyber crime is Act of promotion of Information and Communication Network Utilization and Information Protection, etc, Personal Information Protection Act, Act of the Protection of Information and Communications Infrastructure, and so on. But it is insufficient to regulate the critical cyber crime. Finally, this article also urges legislatures to update statutory rule that govern the cyber crime in response to the new challenge of IoT cyber crime.

      • KCI등재

        오케스트라 활동이 학업성취도에 미치는 영향

        양종모(Jongmo Yang)박진홍(Jinhong Park) 한국음악교육공학회 2011 음악교육공학 Vol.- No.12

        본 논문은 초등학교에서 이루어지고 있는 오케스트라 활동이 학업성취도 평가에 어떤 영향을 주는지를 살펴보기 위해, 오케스트라 활동을 하고 있는 한 개 학교를 지정하고, 오케스트라 단원들의 성적 변화를 살펴보았다. 그 결과, 전체 4개 과목의 합(국어, 수학, 사회, 과학)에서는 4학년과 6학년에서 통계적으로 유의미한 차이를 보였다. 그리고 과목별로 4학년에서는 수학과 과학, 5학년에서는 수학, 6학년에서는 수학과 사회에서 통계적으로 유의미한 차이가 있는 것으로 나타났다. 통계적으로 유의미한 차이를 보이는 과목들은 모두 단원들이 비단원들에 비해 점수가 향상되는 것을 보여 주었다. 특히, 3개 학년에 공통적으로 단원들의 수학 과목의 점수가 상대적으로 높게 나타나고 있다는 점은 오케스트라 활동이 수학 과목의 성적을 올리는 데 긍정적인 효과가 있다는 점을 확인해 주고 있다. 이 연구의 결과는 오케스트라 활동이 학업성적을 높이는 데 부정적인 영향보다는 긍정적인 영향이 더 크다는 것을 보여 주고 있으며, 특히 수학 점수를 올리는 데 효과가 있다는 점을 말해 준다. This paper has examined the changes in the school records of orchestra members by designating one school performing orchestra activity in order to examine what effects the orchestra activity has on learning achievement evaluations taking place in elementary schools. As a result, a statistical significance of difference was shown in fourth grade and sixth grade in the sum of all four subjects. And by subjects, a significance difference was turned out statistically at mathematics and science in fourth grade, at mathematics in fifth grade as well as at math and social studies in sixth grade. All subjects showing a statistical significance of difference meant more improvement of score by orchestra members than non-members. Especially, the fact that mathematics score of orchestra members commonly showing as relatively high in three grades verifies the fact that orchestra activity has a positive effect in raising mathematics score. The result of this study told us that the orchestra activity has greater positive effect than negative effect. We must have more interest and study about the effect of musical activities on learining achievements.

      • KCI등재후보

        수사기법으로서의 데이터 마이닝에 대한 법적 고찰

        양종모(Yang Jongmo) 대검찰청 2013 형사법의 신동향 Vol.0 No.40

        현대사회는 엄청난 정보가 생성되고 축적되는 소위 정보화 사회라고 할 수 있다. 모바일 폰 등 획기적인 정보 인프라로 인해 빅데이터가 출현하고, 이러한 빅데이터로부터 가치 있는 정보를 찾아내는 데이터 마이닝 기법도 등장하게 되었다. 이러한 데이터 마이닝기법은 아주 다양하게 쓰이지만 수사에 있어서도 그 유용성이 크다. 국내에서는 아직 이러한 데이터 마이닝을 수사에 활용한 실례를 찾아보기 어렵지만 조만간 수사에 데이터 마이닝 기법을 도입할 것으로 보고 그에 대한 법적 규제를 논하여 보았다. 데이터 마이닝은 새로운 형태의 강제처분이다. 그 과정에서 사생활 영역 침해가 당연히 수반되기 때문인데, 기존의 압수 ‧ 수색과 유사한 측면이 있지만 기존의 강제처분에 대한 규제로는 도저히 해결할 수 없는 특성도 가지고 있다. 이를 규제할 수 있는 새로운 방안과 그에 기초한 규정의 신설이 필요하겠지만, 현행 법제를 전제로 그 법적 규제에 대하여 검토하였다. 사생활 영역 침해의 심각성 때문에 데이터 마이닝이나 그 전제가 되는 정보의 수집에 영장주의가 적용되어야 하고, 개인의 동의가 없거나 법원의 영장을 발부받지 않고 행하는 데이터 마이닝은 위법하다고 볼 여지가 없지 않지만, 데이터 마이닝 자체는 영장주의에 적합하지 않고, 그 필요성에 비추어 그것을 규제할 수 있는 새로운 규정의 신설 이전이라도 수사 활동의 일환으로 허용되어야 하고, 그 결과를 이용한 수사도 적법하다고 할 것이다. 다만 데이터 마이닝의 결과는 신뢰도 측면에서 문제가 있어 그 결과를 직접 증거로 쓰기는 어렵다고 할 것이다. Data mining technology allows large volumes of data to be exploited for discovering previously unknown, possibly useful information and knowledge. This is due to the improvement in the database technology which has provided large data and our high dependence on internet which results in mass data production. More specifically, data mining is the application of database technology and techniques-such as statistical analysis and modeling-to uncover hidden patterns and subtle relationships in data and to infer rules that enable the prediction of future results. Data mining application plays an important role in various fields. Even the government has been using data mining techniques for various purposes, from attempting to improve service to trying to detect terrorist patterns and activities. Indeed, several departments and agencies are using or planning to use data mining. Efforts to detect criminal activities and patterns are spread out somewhat evenly across agencies. Since 9/11, The U.S. government agency have been eager to experiment with data mining process as a way of nabbing criminals. However, the privacy of personally sensitive information is not respected generally in the process, which creates some legal problems. People have worried about improper data use in data mining process, especially arbitrary invasions of personal privacy by government officials. In this study, the emerging legal issues of data mining are explored and the admissibility of evidence obtained by data mining is presented. It considers the various arguments for privacy concerns relating data mining. If data mining performed without a proper search warrant, the evidence obtained in the process is illegal and may not be used in court? It is not always true. Under certain circumstances, such evidence is admissible in court. Data mining is new type of compulsory execution and in the permissible scope of warrantless search under various circumstances. The existing law governing the warrant process is not suitable for data mining process. So this article also urges legislatures to update statutory rule that govern the warrant process in response to the new challenge of data mining and argues that data mining will trigger the need for a new criminal procedure to regulate its process in criminal investigation.

      • KCI등재

        전체적 감시체제의 법률적 규율방안 고찰 -인공지능과 모자이크 이론의 적용-

        양종모 ( Jongmo Yang ) 홍익대학교 법학연구소 2016 홍익법학 Vol.17 No.2

        사물인터넷의 이용증가와 빅 데이터 생성이 일상화되면서, 사물인터넷 이용 감시체제의구축이 가능해졌다. 언제부턴가 CCTV 감시 영상이 범죄해결에 결정적 단서로 작용하면서CCTV 설치에 대한 긍정적 평가가 일반적이다. 특히 최근 경찰 등 수사기관에서는 과학치안의 일환으로 지능형 영상인식 기술, 안면인식 기술(Face Recognition Technology)이나 지능형 침입 탐지 및 추적 시스템, 지능형 CCTV 시스템, 지능형 교통관제 시스템 등을 도입하거나 도입을 계획하고 있는데, 이러한 시스템 등은 모두 사물인터넷 기술을 기반으로 하고 있고, 이러한 과학치안을 위한 각종 시스템은 필연적으로 막대한 빅 데이터를 생성하거나, 빅 데이터 기술을 활용하게 된다. 과학치안의 가장 현실적인 구현 형태는 영상감시라고할 수 있다. 영상감시 장치로서 CCTV 시스템은 단순히 주변 상황을 감시하는 아날로그CCTV에서 네트워크 기반의 지능형 CCTV로 빠르게 발전하고 있다. 지능형 CCTV 시스템은 CCTV 카메라로 촬영된 영상에서 자동으로 사물이나 사람의 특징적인 객체를 인식ㆍ추적할 수 있어 주변상황 감시 기능을 매우 효과적으로 수행할 수 있다. 이러한 지능형 CCTV 등 시스템에서는 각 CCTV가 네트워크로 연결되는데, 각 CCTV는 사물인터넷 시스템의 센서 노드에 해당하고, 이러한 센서 노드에서 끊임없이 영상정보가 생성되며, 네트워크 기능을 통해 결집된 영상정보는 빅 데이터 규모가 된다. 지능형 CCTV 시스템을 효과적으로구축하기 위하여서는 단순한 정보 결집으로는 부족하고, 이러한 정보를 효과적으로 분석하는 지능형 영상분석기술이 수반되어야 한다. 이러한 지능형 영상분석 기술은 영상의 정보를 분석하여 자동으로 이상 행위를 탐지하고 관리자에게 경보를 전송하는 기술로써, 사고를 사전에 예방하고 사고가 발생한 경우에는 신속하게 대응하여 피해를 줄일 수 있게 해준다. 영상의 정보를 분석하여 자동으로 이상행위를 탐지하는 등 지능형 영상분석 기술의 모든 기능은 인공지능 때문에 가능하게 된 것이다. 이러한 영상 감시 기술 이외에도 사물인터넷으로 생성되는 GPS 위치정보 등 각종 정보는 빅 데이터를 구성하면서, 각종 감시활동의전제가 된다. 사물인터넷의 본질은 연결과 감지(sensing)라고 할 것인데, 이러한 본질 때문에 사물인터넷을 이용할 수밖에 없는 현대인의 일상은 철저한 감시 시스템 하에 자연스럽게 놓이게 된다. 이러한 전체적 감시 시스템을 법률적으로 규율하는 데는 기존의 개별적규율로는 부족하다. 하나하나의 감시활동 자체는 큰 문제가 되지 않더라도, 그러한 감시활동의 총합은 개인의 사생활영역을 심대하게 침해할 수 있기 때문이다. 따라서 이러한 감시활동에 대한 법률적 규제방안도 개별적·고립적 고찰이 아닌, 전체적 감시 시스템 자체를대상으로 종합적으로 이루어져야 한다는 점은 명백하다. 미국이 United States v. Jones 사건에서 수집된 개별 정보가 아닌 축적된 정보 전체를 고찰하여 사생활영역 침해 여부를결정하여야 한다는 의견이 제시된 것도 이런 맥락이라 하겠다. 이러한 견해에 따른 모자이크 이론(Mosaic Theory)이라는 새로운 관점의 논의도 마찬가지다. 본 연구는 사물인터넷사용이 일상화되고, 일상생활에서 형성되는 각종 개인 정보를 대상으로 인공지능 기반의첨단의 빅 데이터 분석기술을 동원하면, 종전에는 예상하기 어려운 여러 가지 차원의 개인권리 침해가 일어날 수 있다는 점에 착안하여 이러한 전체적 감시 시스템에 대한 법률적규율방안을 선제적으로 검토함으로써 전체적 감시활동으로 인한 각종 문제 발생 전에 그에 대한 대비책과 해결방안을 제시하고자 한다. The Internet has become connected to more and more things in our everyday life. The Internet of Things has the ability to better monitor, track, and improve people`s life. Our new technologies have the capability to gather mass amounts of data on us and how we live our daily lives. In nearly every sector of our society, information technologies identify, track, analyze, and classify individuals by collecting and aggregating data. Law enforcement and individuals are all engaged in the pervasive collection and analysis of data that ranges from the mundane to the deeply personal. These data gathering and surveillance systems are linked, shared, and integrated. The system already aggregates data from traffic cameras, real-time private and public video streams, GPS location data, automatic license plate readers, drones. This system provides law enforcement live streaming 24 hours a day, 7 days a week. At the heart of this solution are intense uses of technology that continuously and indiscriminately collect, use, and analyze information on everyone. This would provide government and private collaborators with a window into network activities, which could then be exploited using data-mining and statistical -analysis tools capable of revealing more about us and our lives than we are willing to share with even intimate family members. This pervasive surveillance system has the potential combination of surveillance technologies with artificial intelligence neuroanalytics to reveal, predict, and manipulate instinctual behavioral patterns of which we are not even aware. In this way the large scale law enforcement practice of collecting and data is just one aspect of the total surveillance characteristic of the whole networked information. There can be no doubt that advanced surveillance technologies such as these raise serious privacy concerns and the Fourth amendment protection. Artificial intelligence technology is the core component of total surveillance. AI substitutes for humans at various stages of observation or surveillance, allowing such activity to reach a previously impracticable scale. So this article provide background explanation on the nature of artificial intelligence. This article also suggest how to respond to the total surveillance technology. Law enforcement uses the massive stores of available data to paint a mosaic of user`s past and current behavior. Before United States v. Jones Fourth Amendment decision always evaluate every step of an investigation individually. But In Jones courts introduced what we might call a mosaic theory of the Fourth Amendment, by which courts evaluate a collective sequence of government activity as aggregated whole to consider whether the sequence amounts to a search. This article provides a simple explanation of mosaic theory. This potential for total government surveillance has opened the door to whole new era of panopticon. This article offers a framework to explain why this total surveillance system should be regulated differently than separate surveillance.

      • KCI등재

        인공지능의 위험의 특성과 법적 규제방안

        양종모 ( Yang Jongmo ) 홍익대학교 법학연구소 2016 홍익법학 Vol.17 No.4

        이창호와 DeepMind의 알파고 대결은 충격적 결과와 더불어 인공지능에 대한 관심이 증폭되는 계기가 되었다. 그 사건을 계기로 사회 각 분야에서 인공지능에 대한 갖가지 평가와 분석이 나왔다. 그런 분석 가운데는 인공지능의 위험을 과대평가하는 경우가 많고 이런 현상은 외국도 마찬가지다. 인공지능이나 인공지능 로봇이 인간을 지배할 날이 멀지 않았다는 것을 전제로 인공지능에 대한 적절한 통제가 필요하다는 견해를 피력하는 사람도 많다. 이러한 시점에서 인공지능에 대한 제대로 된 이해를 바탕으로 인공지능의 위험과 관련한 법적 규제방안을 검토할 필요성은 크다고 할 것이다. 인공지능은 군사용 로봇이나 휴머노이드 형 로봇에서만 문제되는 것은 아니다. 비근한 예로 자율주행자동차는 인공지능이 체화된 대표적 모델이지만, 산업생산 현장이나 병원의 수술실 등에도 로봇 Infra를 이용한 다양한 형태의 로봇이 있다. 로봇이라고 하여 주행 또는 이동 기능을 꼭 수반하여야 하는 것은 아니므로, 사물인터넷 기능과 결합한 인공지능을 기반으로 한 각종 구현 모델들은 모두 로봇이라고도 할 수 있다. 특히 첨단 군사기술 등에서 인공지능 로봇 기술이 차지하는 비중은 빠르게 늘고 있다. 군사용 로봇은 법적 문제 외에도 민감하고도, 다양한 형태의 각종 문제를 양산한다. 이러한 시점에서 인공지능 로봇의 전제가 되는 인공지능에 대한 연구가 인공지능을 제대로 이해하지 못한 상태에서 이루어진다면 불행한 일일 것이다. 인공지능이 초래할 수 있는 위험과 관련하여 법적 규율 방안의 모색도 인공지능에 대한 심도 있는 이해를 바탕으로 이루어져야 한다. 인공지능이나 인공지능 개발이 갖는 위험의 평가나 규율에 있어서 인공지능 고유의 특질들을 고려할 필요가 있다. 인공지능은 두 번의 부침을 겪은 후 현재 제3세대에 접어들었다. 제1세대나 제2세대가 그리 오래 가지 못한 것은 인공지능 연구자들이나 후원자들이 애초 기대했던 성과가 나오지 않았기 때문이다. 어쩌면 환상에 가까운 기대를 하였는지도 모른다. 현재는 제1세대나 제2세대에서 난제로 생각했던 부분들이 머신러닝의 선도적 연구자들에 의하여 해결되면서 또 다른 기대를 갖게 하지만, 현재까지의 인공지능 수준은 뚜렷한 한계가 있다. 따라서 터미네이터와 같은 강한 인공지능이 출현하여 인류를 위협하는 상황은 요원한 일로 보인다. 따라서 인간 수준의 로봇을 전제로 로봇 윤리학, 로봇의 실존 문제 등을 다루는 논의는 성급하다. 오히려 현재에도 활용되고 있는 약한 의미의 인공지능의 특질을 제대로 분석하고, 그 개발과정이 기존의 기술에 기초한 개발과 어떠한 차이를 보이는지를 제대로 들여다본후, 그런 기초 위에서 그 위험의 특성에 맞는 적절한 법적 규율 방안을 논하는 것이 맞다. 본고에서는 약한 인공지능에 국한하여 그 위험의 특성을 다양한 각도에서 들여다보기로 하였다. 인공지능이나 그 개발과정의 특성을 고려하면 민?형사법적 책임 귀속을 통한 사후적 규율만으로 부족하다. 사후적 규율 외에 개발 단계에 개입하는 사전 규율이 필요하다고 보고 그 방안에 대하여 함께 논의하였다. 실상 인공지능이나 그 개발과정의 위험은 위험사회라고 규정되는 현대에서도 독특하다. 그러면서도 다른 첨단과학 기술이 야기하는 위험과 유사한 측면도 있다. 첨단과학기술 분야는 기존의 법적 체계만 가지고는 그 규율에 많은 어려움이 있다는 점에서 인공지능 규율과 유사한 것은 분명하다. 인공지능은 예측 곤란성, 자율성 등 기존의 기술에서는 볼 수 없는 많은 특질이 있다. 이러한 여러 가지 특질을 규율방안 구상의 출발 선상에 놓아야 한다. 과거 1세대나 2세대의 인공지능 관련 법적 연구는 기호학적 접근법이었다. IF THEN RULE에 따라 세상의 모든 규칙을 기호화하고, 인공지능에게 전지전능한 힘을 부여하려 하였던 제1세대나 제2세대적 인공지능 연구의 실패를 반면교사로 삼아야 한다. 2006년을 기점으로 시작된 현재의 제3세대 인공지능은 머신러닝이라는 다분히 확률론에 기초한 의사결정이 주종을 이룬다. 사람이 일일이 지도.감독(supervise)하지 않고 기계로 하여금 스스로 학습케 하여 규칙을 창출하는 머신러닝이 오늘날 세계인을 놀라게 한 여러 성과를 만들어내었다. 이런 시점에 인공지능과 관련한 법적 연구가 제1세대적인 기호학적 접근방식으로 이루어진다면 시대착오적이다. 인공지능에 대한 논의가 거의 없던 단계에서 인공지능에 대한 다양한 논의가 전개되는 상황으로의 변화는 분명 소망스러운 것이지만, 그 논의는 인공지능이나 머신러닝 등 현재의 인공지능 부활을 가져온 이론에 대한 제대로 된 이해의 전제 위에서 이루어져야 한다. Artificial Intelligence permeates our lives in numerous ways. Our lives are being transformed by large, mobile AI robots with increasingly higher levels of autonomy, intelligence. For example, driverless automobiles are likely to become commercially available within a decade. However great the benefits of AI might be, the risk of losing control of the intelligence created is still greater. And Some concerned that strong AI may threaten the existence of humanity. Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence. There are numerous ethical, policy, and legal issues relating to creation and deployment of artificial intelligence. Moreover, It is difficult defining what, exactly, “artificial intelligence” means. Rather than mentioning a particular point of view on the artificial intelligence technology, the primary aim of this paper is to promote awareness of nature of artificial intelligence to encourage lawyers, policy makers, and other relevant stakeholders to consider what may be appropriate legal and regulatory responses to artificial intelligence as they are being developed and deployed. Regulations are divided into two categories, ex ante and ex post regulation. The government should regulate the development and operation of artificial intelligence robot, autonomous vehicles by rulemaking, and permits current development and operation under certain conditions, should impose additional oversight on the development and operation of AI robot. But regulation by government would be difficult because A.I. research and development may be discreet, discrete, diffuse, and opaque. The ex ante regulation uses a judicially imposed liability system of corrective justice that requires wrongdoers to compensate victims for injury caused by a wrongdoing. But the autonomous nature of A.I. creates issues of foreseeability and control that might render ex post regulation ineffective. It is important to search for a balance between ex-ante and ex-post regulation for AI development.

      • KCI우수등재

        인공지능 알고리즘의 편향성, 불투명성이 법적 의사결정에 미치는 영향 및 규율 방안

        양종모 ( Yang Jongmo ) 법조협회 2017 法曹 Vol.66 No.3

        인공지능의 파급력은 대단하다. 법률 분야에서도 다양한 형태로 인공지능의 활용이 모색되고 있다. 특히 머신러닝이 인공지능의 대세가 되면서 법률분야의 파괴적 혁신을 주도하고 있는 양상이다. 인공지능이 인간의 지능을 초월하는 특이점 현상이 거론되기도 하고, 인공지능으로 인해 많은 직업이 사라지게 될 것이라거나, 또는 인공지능이 인류의 생존에 위협이 될 것이라는 우려 섞인 전망도 없지 않다. 그러나 인공지능은 이미 현실에서 작동되고 있으며 특히 인공지능이 인간의 의사결정을 대체하는 기능을 수행하고 있다는 사실은 간과하기 쉽다. 미국 경찰은 오래 전부터 인공지능 알고리즘을 이용한 범죄예측기법을 사용하여 범죄예방 활동을 벌이면서 범죄율 감소 등 상당한 성과를 거두고 있으며, 형사사법에서도 보호관찰이나 보석결정, 심지어 판결과정에서까지 재범의 위험성 예측을 위한 인공지능의 통계적 예측 기법이 널리 쓰이고 있다. 본고에서는 인공지능 알고리즘에 의한 법적 의사결정이나 예측 과정에서 나타날 수 있는 여러 가지 문제점에 대하여 논의해보고자 하였다. 인공지능 알고리즘에 의한 예측이나 의사결정은 주관이나 편견에 의해 좌우되는 인간의 결정과는 달리 객관적이고 편견에서 자유로울 것이라고 생각하게 마련이지만, 의외로 인공지능 알고리즘에 의한 의사결정은 오류가능성 뿐만 아니라 편향성과 차별적 결과를 보이고 있다는 것이 밝혀졌다. 이러한 인공지능 알고리즘에 의한 의사결정의 편향성과 그로 인한 차별적 결과는 차별금지라고 하는 사회적 가치를 훼손할 우려가 크다. 따라서 이러한 편향성 문제 등 인공지능 알고리즘에 의한 의사결정이 가지고 있는 여러 가지 문제점에 대한 대책으로는 차별적 결과를 시정하는 사후적 규율뿐만 아니라 인공지능 의사결정 도구의 설계와 구현, 성능 평가 과정에서 차별적 결과 생성을 사전에 차단하려는 사전규제 방안을 모색할 필요가 크다. 특히 인공지능 알고리즘에 의한 법적 의사결정과 같은 공적 영역에서는 의사결정의 영향력이 광범위하고 어떤 급부의무나 부작위가 문제되는 사적 영역에서의 개별적 사후 구제와는 다른 방도가 필요한데, 이미 차별적 효과가 발생한 후 사후적 구제를 모색하기 보다는 의사결정 과정에서 차별적 효과를 가져 올 수 있는 알고리즘 요소를 원천 차단하는 것이 효율적일 것으로 보인다. 이러한 사전규제 방안 중 개발과정의 사전 통제와 사용승인을 통한 적법성규제가 우선적 고려 대상이다. 개발과정의 사전 통제에는 윤리적 설계라는 개념도입도 필요한데, 단순히 설계자의 의도대로 작동된다는 수준을 넘어 인공지능알고리즘이 윤리적 기준에 부합하도록 작동한다는 것이 담보되어야 윤리적 설계라고 할 수 있다. 나아가 인공지능 알고리즘을 사용하기 전에 알고리즘 코드 위주의 분석인 정적 분석과 실제 알고리즘의 작동 과정을 살피는 동적 분석 등이 행하여져야 한다. 나아가 인공지능 알고리즘이 활용되면 의사결정의 자동화가 이루어져 어느 누구도 의사결정으로 초래된 위험이나 과오에 대하여 책임지지 않는다는 문제가 생긴다. 따라서 법적 의사결정에 규범적 근거를 제공하고 책임 주체를 명확히 한다는 측면에서 의사결정 과정에 인간의 간여가 필요하다. 이러한 사전 규제외에도 인공지능 알고리즘의 불투명성 해소도 규율의 큰 그림에 포함되어야 한다. 머신러닝과 같은 알고리즘은 블랙박스와 같이 작동되고, 인간이 그 작동과정을 제대로 감독할 수 없다는 불투명성이 항상 문제되지만, 설계 과정에서 이러한 불투명성을 해소하도록 강제하고, 특히 차별적 결과를 보이는 알고리즘의 경우는 작동과정의 설명 의무 부과 등으로 불투명성 문제를 해소하는 노력이 필요하다. In the field of law, artificial intelligence is being explored in various forms. Especially, machine learning is leading the destructive innovation in the field of law as the artificial intelligence becomes popular. There are also concerns that artificial intelligence may be mentioned as a singular phenomenon that transcends human intelligence, that many jobs are lost due to artificial intelligence, or that artificial intelligence is a threat to the survival of mankind. However, it is easy to overlook the fact that artificial intelligence is already operating in reality, and that artificial intelligence, in particular, plays a role in human decision-making. US police have long been engaged in crime prevention activities using artificial intelligence-based crime prediction techniques and have achieved considerable achievements such as reduced crime rates. In the judiciary, for example, probation, bail, and even judgment, models to predict recidivism is widely used. Although it is thought that decision making such as prediction by artificial intelligence will be free from objectivity and prejudice unlike human decision which is influenced by subjectivity, it is surprisingly revealed that decision making by artificial intelligence is biased and particularly discriminatory. The biased nature of decision making by artificial intelligence and its discriminatory results are likely to undermine the social value of prohibiting discrimination. Therefore, the countermeasures against various problems of decision making by artificial intelligence such as biased problems include not only posterior discipline that corrects differential results, but also generation of differential results in the design, implementation, and performance evaluation of artificial intelligence decision tools. There is also a great need for pre-regulation to block in advance. Especially in the public domain, such as legal decision making by artificial intelligence algorithms, there is a need for a different approach to individual remediation in the private domain, where decision making has a wide range of influences. Rather than seeking redress, it seems effective to block the source of the algorithm elements that can bring discriminative effects in the decision making process. Among these precautionary measures, legality control through prior control of the development process and approval of use is a priority. It is necessary to introduce the concept of ethical design to the pre-control of the development process. It must be ensured that the artificial intelligence algorithm operates in accordance with the ethical standards beyond the merit of being operated by the designer`s intention. Furthermore, before using artificial intelligence algorithms, it is necessary to perform static analysis, which is an algorithm code oriented analysis, and dynamic analysis, which examines the operation process of an actual algorithm. Furthermore, when artificial intelligence algorithms are used, there is a problem that automation of decisions is made so that no one is responsible for the risks or mistakes caused by decisions. Therefore, human intervention in the decision-making process is necessary in order to provide normative grounds for legal decision making and to clarify the responsible party. In addition to these pre-regulations, the resolution of the opacity of artificial intelligence algorithms should also be included in the larger picture of the discipline.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼