RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재
      • KCI등재

        [국문번역문] 자율 시스템, 인공지능과 로봇: 형법의 관점에서 지향성은?

        Eric Hilgendorf,송시강(감수) 서울대학교 공익산업법센터 2019 경제규제와 법 Vol.12 No.2

        디지털화의 확대는 많은 영역에 새로운 도전을 가져다주는데, 형법도 여기에 해당한다. 본고는 형법에서 다루어질 필요가 있는 현재 및 미래의 쟁점들을 개관하는 것을 시도한다. 5개 현재의 사례가 제시되는데, 이들 사례는 문제점을 잘 보여준다. 첫째로는 바우나탈(Baunatal)의 공장에서 2015년에 발생한 사례가 설명된다. 이는 노동자가 로봇팔에 맞아서 사망한 사실에 기초하고 있다. 이어서 이른바 아 샤펜부르크(Aschaffenburg) 사례가 좀 더 자세하게 설명될 것이다. 여기서 주요한 문제는 자율 시스템이 완전하게 기능하지만 그럼에도 불구하고 형법에서 중요한 피해를 야기하는 경우에 자율 시스템의 제조자가 형사적으로 책임이 있는 것으로 판결될 수 있는지 여부이다. 이 사례는 이 문제가 특히 자율주행 영역에서 중요하다는 것을 분명히 한다. 특히 이른바 딜레마 상황은 새로운 법적 문제를 야기한다. 자동차가 사고 현장에 접근하면서 브레이크를 작동할 수 없고 오로지 운전대를 조종할 수만 있는 경우에 자동차는 누구를 죽여야 하나? 도로 한편에 서 있는 무고한 사람? 혹은 도로에 누워 있는 2인의 사고 피해자? 도로교통에서 분만 아니라 일상적인 삶에서도 새로운 범죄적 상황은 발생할 수 있다. 2016년에 마이크로소프트는 챗봇(chatbot)을 온라인 상태로 두어서 대화를 통해 스스로 학습할 수 있도록 하였다. 그 과정에서 챗봇은 제조자가 의도한 바와 달리 여러 가지 말 중에서 여성혐오적이고 인종주의적인 콘텐츠를 학습하였다. 챗봇은 이렇게 새로 학습한 지식을 타인에게도 표현하였다. 이때 모욕에 해당한다면 누가 범죄의 주체로 간주되어야 하는가? 우선 생각할 수 있는 바는 챗봇에게 공격적인 콘텐츠를 가르친 사람, 이러한 챗봇이나 그 시스템 자체의 제조자이다. 이러한 생각의 끝을 좇으면 전개가 어떤 방향으로 이루어지는지 알 수 있다. 요컨대, 초점은 미래의 기술적 발전에 있다.

      • KCI등재

        강연회 발표논문 : 현대의 독일 형법학

        ( Eric Hilgendorf ) 한양대학교 법학연구소 2013 법학논총 Vol.30 No.4

        독일 형법이론은 전 세계에 영향을 주어왔다. 스페인과 라틴 아메리카가 독일 모델을 계수하고 있고, 중앙아시아에 형법적 사고를 확장하는 시작으로 볼 수 있는 터키도 마찬가지이다. 그러나 가장 주목할 것은 어떻게 독일 형법이론이 일본, 한국을 거쳐 중국에 이르는 동 아시아에 전파 되었는가 이다. 물론 이 모든 국가들에서 원래의 독일 모델로부터 시작된 정도는 다양할 것이다. 그런 차이는 대부분, 각 국가의 역사와 문화에 근거한 일련의 형법규범에서 나타난다. 이 논문은 독일 형법학의 몇 가지 강점과 약점을 분석하려고 한다. 독일 형법학의 강점은 그 이론에서 찾을 수 있다. 그것은 복잡한 법 문제조차도 명확히 이해 가능하도록 구조화하고 해결할 수 있게 한다. 이렇게 정치적 영향력이 미칠 가능성이나 법관이 법적 쟁점을 판단할 때 자신의 개인적 가치관과 사고를 사용할 가능성이 제한되어 법 적용은 예측 가능하고 합리적으로 검증이 가능하다. 독일 형법이론의 한 가지 약점은 가끔 그 모든 의미를 잃을 정도로 분석적인 법이론적인 방식을 택한다는 것이다. 두 번째 약점은 형법이론이 법의 분야에서 최고의 찬사를 받고 있음에도, 종종 지도자들이 그것 혹은 그것의 가장 중요한 메시지에 주의하거나 이용하지 못한다는 사실이다. 이것은 형법에 있어서 중요한 헌법적 요소를 지켜줄 일반의 의지의 명백한 감소를 설명하고 있다. 이것은 특히 독일 형법에 대한 유럽 법의 기대의 변화와 관련해서 사실이다. 앞으로 독일 형법학은 동아시아, 스페인어 국가나 터키 등에서 이루어지고 있는 학문적인 제를 많이 다루어야 할 것이다. 그리고 미래는 비교 형법에 달려있다. 이것은 대립의 문제가 아니라 상호동반자의 문제이다. 나는 독일 형법이론의 일방적 계수의 시대는 끝이 나고, 미래는 각 국가 사이의 협력적인 작업에 달려있다고 생각한다.

      • KCI등재
      • KCI등재
      • KCI등재

        Autonomous systems, artificial intelligence and robots: An orientation from a criminal law perspective?

        Eric Hilgendorf 서울대학교 공익산업법센터 2019 경제규제와 법 Vol.12 No.2

        Increasing digitalisation presents many areas with new challenges, including criminal law. The paper serves as an initial overview of current and future issues that need to be addressed in this area. Five current cases are presented, which illustrate the problems. At the beginning, a case is explained that occurred in 2015 in a factory building in Baunatal. This is based on the fact that a worker was hit and killed by a robot arm. Subsequently, the so-called Aschaffenburg case will be explained in more detail. The main question here is whether the manufacturer of an autonomous system can be held criminally liable if it functions perfectly but nevertheless causes damage that is relevant under criminal law. This case makes it clear that such problems play a role above all in the area of automated driving. In particular, the so-called dilemma situations raise new legal questions. Who should the vehicle kill if it approaches an accident scene but can no longer brake, but only set a steering impulse? An uninvolved person standing at the side of the road? Or the two accident victims lying on the road? Not only in road traffic, but also in everyday life, new criminal situations can arise. In 2016, Microsoft put a chatbot online, which could learn by itself through conversations. In the process, he learned-not intentionally by the manufacturer-among other things misogynistic and racist content. Chatbot expressed this newly learned knowledge to others. Who can then be considered a criminal subject in the event of a potential insult? One could think, among other things, of those who taught the chatbot the offensive content, of the manufacturer of such a chatbot or even of the system itself. This last train of thought shows in which direction the development could go. Finally, the focus is on future technical developments.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼