RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      인공지능(AI)기반의 치명적 자율무기에 대한 법적·윤리적 쟁점 기초연구 = A Basic Study on Legal and Ethical Issues on the Lethal Autonomous Weapons Based on Artificial Intelligence, so called Killer Robots!

      한글로보기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      다국어 초록 (Multilingual Abstract)

      "The enormous advances made in the field of artificial intelligence over the past years have led to mounting fears and debates on the future warfare. Especially lethal autonomous weapons(LAWs) which can select both the target and means of attack autonomously without decision of human being are in the center of the debate. The current research and future deployment of lethal autonomous weapon systems(LAWs) is actively under running throughout the military and international communities.
      The legal community is also have increasing interest about artificial intelligence, which has already emerged as an issue of the fourth industrial revolution. As a result, the topic of artificial intelligence has begun to appear in legal papers. Most of them are papers dealing with issues related to self-driving cars and intellectual property rights. However, issues surrounding autonomous weapons system based by artificial intelligence are important and immediate.
      For that reasons, this paper is mainly focused on the military advantage to be gained from current and future systems, the risks and potential benefits inherent and the ethics of their use. Ongoing discussions at different multilateral fora on the definition of ‘Lethal Autonomous Weapons Systems(LAWS) are focused on a preemptive ban on LAWs on one hand and the justification of the dual use of technology on the other. Those who advocate for a pre-emptive and thorough ban on LAWs argue that such weapon systems are not able to comply with the fundamental principles of proportionality, distinction and precaution which is the main principle of the International Humanitarian Law(IHL).
      Considering the dual use of robot technology and already existing degree of autonomy in current warfare, what is essential is to engage in meaningful deliberations to arrive at common understandings on compliance of LAWs with the principles of IHL and IHRL ahead of their deployment in future conflicts. Like previous technological revolutions, artificial intelligence surely poses new challenges for international humanitarian law, particularly regarding accountability and the legal regulations governing the use of force.
      As seriously discussed in the U.S. Congress, artificial intelligence is undoubtedly a field of science and technology development that directly affects national security. It is clear that artificial intelligence (AI) will have a profound impact on future national intelligence activities and therefore national security issues.
      The real issue is that the emergence of new technologies, such as deadly autonomous weapons based on dazzling development of artificial intelligence, raises a variety of ethical and legal issues. Such legal and ethical issues arise not just as theoretical material but as ethical issues at the national security level of sovereignty. Most significantly, will it allow the development of lethal autonomous weapons? What restrictions would be placed if allowed? How will artificial intelligence change future wars? How will lethal autonomous weapons (LAWs) affect military balance with rivals? Is there any possibility of an international ethical dispute? In reality, the CIA, which goes by the hands of the world's secret hands, is said to have already hired artificial intelligence spies. The National Security Agency (NSA), nicknamed the ear of the Earth, admitted that it is operating by introducing artificial intelligence to gather information and analyze information. China and Russia, which have a serious impact on South Korea's national security, are also known to be racing fiercely.
      From all those point of vies, this thesis suggests and emphases to rethink lethal autonomous weapons,‘s pros and cons considering legal and ethical point of views."
      번역하기

      "The enormous advances made in the field of artificial intelligence over the past years have led to mounting fears and debates on the future warfare. Especially lethal autonomous weapons(LAWs) which can select both the target and means of attack auton...

      "The enormous advances made in the field of artificial intelligence over the past years have led to mounting fears and debates on the future warfare. Especially lethal autonomous weapons(LAWs) which can select both the target and means of attack autonomously without decision of human being are in the center of the debate. The current research and future deployment of lethal autonomous weapon systems(LAWs) is actively under running throughout the military and international communities.
      The legal community is also have increasing interest about artificial intelligence, which has already emerged as an issue of the fourth industrial revolution. As a result, the topic of artificial intelligence has begun to appear in legal papers. Most of them are papers dealing with issues related to self-driving cars and intellectual property rights. However, issues surrounding autonomous weapons system based by artificial intelligence are important and immediate.
      For that reasons, this paper is mainly focused on the military advantage to be gained from current and future systems, the risks and potential benefits inherent and the ethics of their use. Ongoing discussions at different multilateral fora on the definition of ‘Lethal Autonomous Weapons Systems(LAWS) are focused on a preemptive ban on LAWs on one hand and the justification of the dual use of technology on the other. Those who advocate for a pre-emptive and thorough ban on LAWs argue that such weapon systems are not able to comply with the fundamental principles of proportionality, distinction and precaution which is the main principle of the International Humanitarian Law(IHL).
      Considering the dual use of robot technology and already existing degree of autonomy in current warfare, what is essential is to engage in meaningful deliberations to arrive at common understandings on compliance of LAWs with the principles of IHL and IHRL ahead of their deployment in future conflicts. Like previous technological revolutions, artificial intelligence surely poses new challenges for international humanitarian law, particularly regarding accountability and the legal regulations governing the use of force.
      As seriously discussed in the U.S. Congress, artificial intelligence is undoubtedly a field of science and technology development that directly affects national security. It is clear that artificial intelligence (AI) will have a profound impact on future national intelligence activities and therefore national security issues.
      The real issue is that the emergence of new technologies, such as deadly autonomous weapons based on dazzling development of artificial intelligence, raises a variety of ethical and legal issues. Such legal and ethical issues arise not just as theoretical material but as ethical issues at the national security level of sovereignty. Most significantly, will it allow the development of lethal autonomous weapons? What restrictions would be placed if allowed? How will artificial intelligence change future wars? How will lethal autonomous weapons (LAWs) affect military balance with rivals? Is there any possibility of an international ethical dispute? In reality, the CIA, which goes by the hands of the world's secret hands, is said to have already hired artificial intelligence spies. The National Security Agency (NSA), nicknamed the ear of the Earth, admitted that it is operating by introducing artificial intelligence to gather information and analyze information. China and Russia, which have a serious impact on South Korea's national security, are also known to be racing fiercely.
      From all those point of vies, this thesis suggests and emphases to rethink lethal autonomous weapons,‘s pros and cons considering legal and ethical point of views."

      더보기

      국문 초록 (Abstract)

      "인공지능은 미래 과학기술문명의 정점을 이룰 것으로 제3의 종으로도 예견된다. 제4차산업혁명의 핵심 주제이다. 그 결과 법학계의 관심도 증대하고 있고 법률논문에도 인공지능 주제가 등장하기 시작했다. 대개는 자율주행차와 지적재산권 관련 쟁점을 다루는 수준이다. 그러나 직접적이고 현실적인 것은 인공지능 기술이 국가안보 수호를 목표로 하는 신기술 무기체계로 응용되는 경우이다. 그 대표적인 것이 치명적 자율무기(LAWs) 쟁점이다.
      그동안 미국 의회에서 심각하게 논의된 바와 같이 의심할 여지없이 인공지능(AI)은 국가안보에 직접적인 영향을 미치는 새로운 과학기술 분야이다. 따라서 인공지능(AI)은 미래의 국가정보활동 그러므로 국가안보 쟁점에도 심대한 영향을 미칠 것임이 명백하다.
      그 현실적인 쟁점으로 치명적 자율무기가 우리 앞에 성큼 다가왔다. 눈부시게 발전하는 인공지능에 기반을 둔 치명적 자율무기 같은 신기술 출현은 다양한 윤리적ㆍ법적 쟁점을 제기 한다. 그러한 법윤리적 쟁점은 단순한 이론적 흥미가 아니다. 주권국가 차원의 안전과 안보 윤리이슈로 대두된다. 가장 크게는 과연 치명적 자율무기 개발을 허용할 것인가? 허용한다고 하는 경우에는 어떤 제한을 둘 것인가? 인공지능(AI)이 미래 전쟁을 어떻게 변화시킬 것인가? 치명적 자율무기(LAWs)는 경쟁국들과의 군사적 균형에 어떤 영향을 미칠 것인가? 국제 윤리적 논쟁 소지는 없는가? 등이다.
      현실적으로 세계 비밀의 손으로 통하는 미국 중앙정보국(CIA)은 이미 인공지능 스파이(AI-Spy)를 고용하였다고 한다. 지구의 귀라는 별칭을 갖는 펜타곤의 국가안보국(NSA)은 정보수집과 정보분석에 인공지능을 도입하여 운용중임을 시인했다. 대한민국의 국가안보에 심각한 영향을 미치는 중국과 러시아 또한 맹렬히 질주하고 있는 것으로 알려져 있다.
      이러한 국가안보와 국제안보의 현실 상황에서 목전의 쟁점으로 제기되는 치명적 자율무기에 대한 법적ㆍ윤리적 쟁점을 검토하는 것은 국가정보기구의 당연한 책무일 것이다. 이에 본고는 인공지능 기반 무기체계에 대한 국가정보기구의 활동이 정당성을 갖추는데 필수적 전제인 법윤리 인식의 기초 자료로 제공함을 목적으로 한다."
      번역하기

      "인공지능은 미래 과학기술문명의 정점을 이룰 것으로 제3의 종으로도 예견된다. 제4차산업혁명의 핵심 주제이다. 그 결과 법학계의 관심도 증대하고 있고 법률논문에도 인공지능 주제가 등...

      "인공지능은 미래 과학기술문명의 정점을 이룰 것으로 제3의 종으로도 예견된다. 제4차산업혁명의 핵심 주제이다. 그 결과 법학계의 관심도 증대하고 있고 법률논문에도 인공지능 주제가 등장하기 시작했다. 대개는 자율주행차와 지적재산권 관련 쟁점을 다루는 수준이다. 그러나 직접적이고 현실적인 것은 인공지능 기술이 국가안보 수호를 목표로 하는 신기술 무기체계로 응용되는 경우이다. 그 대표적인 것이 치명적 자율무기(LAWs) 쟁점이다.
      그동안 미국 의회에서 심각하게 논의된 바와 같이 의심할 여지없이 인공지능(AI)은 국가안보에 직접적인 영향을 미치는 새로운 과학기술 분야이다. 따라서 인공지능(AI)은 미래의 국가정보활동 그러므로 국가안보 쟁점에도 심대한 영향을 미칠 것임이 명백하다.
      그 현실적인 쟁점으로 치명적 자율무기가 우리 앞에 성큼 다가왔다. 눈부시게 발전하는 인공지능에 기반을 둔 치명적 자율무기 같은 신기술 출현은 다양한 윤리적ㆍ법적 쟁점을 제기 한다. 그러한 법윤리적 쟁점은 단순한 이론적 흥미가 아니다. 주권국가 차원의 안전과 안보 윤리이슈로 대두된다. 가장 크게는 과연 치명적 자율무기 개발을 허용할 것인가? 허용한다고 하는 경우에는 어떤 제한을 둘 것인가? 인공지능(AI)이 미래 전쟁을 어떻게 변화시킬 것인가? 치명적 자율무기(LAWs)는 경쟁국들과의 군사적 균형에 어떤 영향을 미칠 것인가? 국제 윤리적 논쟁 소지는 없는가? 등이다.
      현실적으로 세계 비밀의 손으로 통하는 미국 중앙정보국(CIA)은 이미 인공지능 스파이(AI-Spy)를 고용하였다고 한다. 지구의 귀라는 별칭을 갖는 펜타곤의 국가안보국(NSA)은 정보수집과 정보분석에 인공지능을 도입하여 운용중임을 시인했다. 대한민국의 국가안보에 심각한 영향을 미치는 중국과 러시아 또한 맹렬히 질주하고 있는 것으로 알려져 있다.
      이러한 국가안보와 국제안보의 현실 상황에서 목전의 쟁점으로 제기되는 치명적 자율무기에 대한 법적ㆍ윤리적 쟁점을 검토하는 것은 국가정보기구의 당연한 책무일 것이다. 이에 본고는 인공지능 기반 무기체계에 대한 국가정보기구의 활동이 정당성을 갖추는데 필수적 전제인 법윤리 인식의 기초 자료로 제공함을 목적으로 한다."

      더보기

      참고문헌 (Reference)

      1 전웅, "현대 국가정보학" 박영사 2015

      2 로렌스 레식, "코드: 사이버 공간의 법이론, 코드가법이다" 나남 2002

      3 한겨레, "카이스트 보이콧 선언한 세계 학자들, AI무기 개발 비판"

      4 전웅, "첩보수집 수단의 유용성 비교: 인간정보와 기술정보를 중심으로" 한국국가정보학회 7 (7): 75-115, 2014

      5 대니얼 데닛, "자유는 진화한다 - 자유의지의 진화를 통해 본 인간 의식의 비밀" 동녘사이언스 2009

      6 김윤명, "인공지능과 법적 쟁점 - AI가 만들어낸 결과물의 법률문제를 중심으로" SPRi 2016

      7 한희원, "인공지능(AI)의 법인격 주체성의 논리적 기틀에 대한 기초 연구" 중앙법학회 20 (20): 375-412, 2018

      8 한희원, "인공지능(AI) 치명적자율무기(LAWs)의 법적ㆍ윤리적 쟁점에 대한 기초연구" 중앙법학회 20 (20): 325-365, 2018

      9 한희원, "인공지능(AI) 법과 공존윤리" 박영사 2018

      10 웬델 월러치, "왜 로봇의 도덕인가?" 메디치미디어 2014

      1 전웅, "현대 국가정보학" 박영사 2015

      2 로렌스 레식, "코드: 사이버 공간의 법이론, 코드가법이다" 나남 2002

      3 한겨레, "카이스트 보이콧 선언한 세계 학자들, AI무기 개발 비판"

      4 전웅, "첩보수집 수단의 유용성 비교: 인간정보와 기술정보를 중심으로" 한국국가정보학회 7 (7): 75-115, 2014

      5 대니얼 데닛, "자유는 진화한다 - 자유의지의 진화를 통해 본 인간 의식의 비밀" 동녘사이언스 2009

      6 김윤명, "인공지능과 법적 쟁점 - AI가 만들어낸 결과물의 법률문제를 중심으로" SPRi 2016

      7 한희원, "인공지능(AI)의 법인격 주체성의 논리적 기틀에 대한 기초 연구" 중앙법학회 20 (20): 375-412, 2018

      8 한희원, "인공지능(AI) 치명적자율무기(LAWs)의 법적ㆍ윤리적 쟁점에 대한 기초연구" 중앙법학회 20 (20): 325-365, 2018

      9 한희원, "인공지능(AI) 법과 공존윤리" 박영사 2018

      10 웬델 월러치, "왜 로봇의 도덕인가?" 메디치미디어 2014

      11 허태회, "선진 국가방첩이론과 방첩효율성의 제고" 한국국가정보학회 7 (7): 59-100, 2014

      12 중앙일보, "북핵보다 치명적인 인공지능 무기"

      13 행크 프런컨(Hank Prunckun), "방첩의 세계" 박영사 2015

      14 로이 고드슨(Roy Godson), "더러운 속임수인가 아니면비장의 카드인가" 박영사 2015

      15 윌리엄 존슨(William R. Johnson), "기만과 방첩: 스파이들의 전쟁" 박영사 2015

      16 한희원, "국가정보체계 혁신론" 법률출판사 2009

      17 한희원, "국가정보-법의 지배와 국가정보" 법률출판사 2018

      18 한희원, "국가정보(법의 지배와 국가정보)" 법률출판사 2010

      19 마크 엠.로웬탈(Mark M. Lowenthal), "국가정보" 명인문화사 2008

      20 Adam Frisk, "What is Project Maven? The Pentagon AI project Google employees want out of"

      21 Aaron Saenz, "We Live in a Jungle of Artificial Intelligence that will Spawn Sentience"

      22 Paul Scharre, "The US Can Be a World Leader in AI, Here’s How" The National Interest

      23 Ray Kurzweil, "The Singularity is Near" Penguin Group 2005

      24 Defense Science Board, "The Role of Autonomy in DOD Systems"

      25 Williamson Murray, "The Dynamics of Military Revolution, 1300-2050" Cambridge University Press 2001

      26 Ray Kurzweil, "The Age of Spiritual Machines" Viking 30-, 1999

      27 Paul Scharre, "Testimony to Subcommittee on Emerging Threats and Capabilities, Hearing on China’s Pursuit of Emerging Technologies" The Committee on Foreign Investment in the United States

      28 "Testimony of Ed Felten, in U.S. Congress, Senate Committee on Commerce, Subcommittee on Communications, Technology, Innovation, and the Internet, Hearing on Machine Learning and Artificial Intelligence"

      29 Sherman Kent, "Strategic Intelligence for American World Policy" Princeton Paperback Edition 1971

      30 Abram N. Shulsky, "Silent Warfare - Understanding the World of Intelligence" Potomac Books, Inc 2002

      31 U.S. Congress, "Sen. Maria Cantwell, Fundamentally Understanding the Usability and Realistic Evolution of Artificial Intelligence Act of 2017, and Jordan Novet, Lawmakers Aim to ‘Get Smart’ about AI" CNBC

      32 Gubrud, Mark, "Semi-autonomous and on their own: Killer robots in Plato’s Cave"

      33 J. Sydney, Jr. Freedberg, "Secretary Of Drones: Mabus Creates DASN for Unmanned" Breaking Defence

      34 Pat M. Halt, "Secret Intelligence and Public Policy"

      35 Guarini, "Robotic Warfare"

      36 C. Heyns, "Report of the UN Special Rapporteur on extrajudicial, summary or arbitrary executions" 2014

      37 Justin Doubleday, "Project Maven Aims to Introduce AI tools into Services’ Intel Systems" Inside Defense

      38 Richard A. Posner, "Preventing Surprise Attacks" Hoover Institution 2005

      39 Patricia Moloney Figliola, "Overview and Issues for Implementation of the Federal Cloud Computing Initiative: Implications for Federal Information Technology Reform Management" CRS

      40 Colin Clark, "Our Artificial Intelligence ‘Sputnik Moment’ is Now: Eric Schmidt and Bob Work" Breaking Defense

      41 John R. Allen, "On Hyperwar" 2017

      42 Dycus, "National Security Law" Aspen Publishers 2007

      43 Amaani Lyle, "National Security Experts Examine Intelligence Challenges at Summit"

      44 Norbert Glaser, "Models and Knowledge Acquisition Cycles for Multi-Agent Systems" CRIN-CNRS/INRIA Lorraine 2013

      45 맥스 테그마크, "Life 3.0" 동아시아 2017

      46 CRS, "Lethal Autonomous Weapon Systems: Issues for Congress" 2016

      47 Anderson, "Law and Ethics for Robot Soldiers" Columbia Public Law Research 2012

      48 Krishnan, Armin, "Killer robots : Legality and ethicality of autonomous" Ashgate 2009

      49 Angela Kane, "Killer Robots and the Rule of Law"

      50 Human Rights Watch, "Killer Robots and the Concept of Meaningful Human Control" Memorandum to Convention on Conventional Weapons

      51 Simpson, Thomas W, "Just war and robots’ killings" 2016

      52 Mark M. Lowenthal, "Intelligence: From Secrets to Policy" Presss CQ 2006

      53 Michael, Herman, "Intelligence and Power in Peace and War" Cambridge University Press 2008

      54 Heewon Han, "How hot? ‘Real hot’: can we control North Korean nuclear weapons through the applicable international law? Hints from the International Court of Justice’s advisory opinion"

      55 U.S. Congress, "House of Representatives Committee on Armed Services, Subcommittee on Emerging Threats and Capabilities, Hearing on China’s Pursuit of Emerging Technologies"

      56 Scott Rosenberg, "Firewalls Don’t Stop Hackers, AI Might" Wired

      57 Aaron Mehta, "Defense Innovation Board Lays Out First Concepts" Defense News

      58 Morgan Chalfant, "Congress Told to Brace for Robotic Soldiers"

      59 James W. Mancillas, "Closer than You Think: The Implications of the Third Offset Strategy for the US Army" US Army War College Press 2017

      60 "Campaign to Stop Killer Robots"

      61 Daniel S. Hoadley, "Artificial Intelligence and National Security" CRS 2018

      62 Greg Allen, "Artificial Intelligence and National Security" Belfer Center for Science and International Affairs

      63 Kelley M. Sayler, "Artificial Intelligence and National Security"

      64 "Army Guide, Warrior x700"

      65 "An Open Letter to the United Nations Convention on Certain Conventional Weapons"

      66 Jason Sherman, "ASB: S&T Funding Inadequate to Support ‘Big Bets’ on Disruptive Technologies" Inside Defense

      67 Department of Defense Directive, "3000.09, Autonomy in Weapon Systems"

      더보기

      동일학술지(권/호) 다른 논문

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2027 평가예정 재인증평가 신청대상 (재인증)
      2021-01-01 평가 등재학술지 유지 (재인증) KCI등재
      2018-01-01 평가 등재학술지 선정 (계속평가) KCI등재
      2016-01-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 0.75 0.75 0.68
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0 0 0.991 0.06
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼