RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        호주의 관점에서 바라본 인공지능, 윤리 및 규제 과제

        김태오 서울대학교 법학연구소 2019 경제규제와 법 Vol.12 No.2

        윤리적이고 책임 있는 인공지능의 개발은 중요한 규제 및 정책 과제이며 기술 혁신의 촉진에 대한 필요성과 개인 과 사회적 권익에 대한 피해를 최소화하는 균형 잡힌 방안 이 필요하다. 정책 문제의 파악과 분석에 토대가 되는 윤리 및 규제의 틀을 어떻게 짜느냐에 따라서 상충하는 현안 사 이에서 균형을 잡을 수 있다. 본 연구는 급부상하는 호주의 인공지능 및 윤리 프레임워크를 중심으로 인공지능이 야기 하는 윤리 및 법적 과제에 대한 호주의 정책 대응을 소개 및 조사하고, 평가하고자 한다. 본 연구는 ‘원칙허용성과 실용성’을 큰 특징으로 하는 호 주의 신기술 규제 접근법의 일반적인 특징을 소개하고 인공 지능으로 인한 도전에 대응하기 위해서 현재 호주에서 실시하고 있는 정책 프로세스를 예시로 들어 자세히 설명하였 다. 첫째, 호주에서 현재까지 인공지능 기반 기술 대응에서 가장 많은 진전을 이룩한 분야인 자율 주행차 규제와 관련 하여 호주 정부가 추진한 정책계획을 설명하였다. 둘째, 데 이터61의 ‘인공지능과 윤리’와 인공지능 표준 로드맵 수립 을 궁극적인 목표로 하는 호주표준화위원회 프로세스를 중 심으로 호주 정부의 ‘책임 있는 인공지능’ 프레임워크의 주 요 내용을 개략적으로 살펴보았다. 셋째, 인공지능으로 인 한 인권 문제를 다루는 기관인 호주인권위원회에서 진행하 는 인권 및 기술 프로젝트를 소개하였다. 마지막으로 호주 규제 전통의 주류를 이루는 결과주의와의 비교를 위해서 비 도구주의(non-instrumentalist) 프레임워크를 채택하는 윤리센터의 ‘윤리중심 설계’방식에 대해서 설명하고 인공지 능 적용 설계 시 윤리적 측면의 중요성을 지적하였다. 결론에서는 본 연구에서 설명한 책임 있는 인공지능 개발 에 대한 호주 정책 대응에 관하여 분석한 결과로부터 도출한 평가를 제시하였다. 이러한 정책 프로세스는 여전히 개발 중 에 있으며 분석 결과는 다음과 같다. 첫째, 실용주의에 입각 하여 신기술을 허용하는 호주 전통에 비추어 볼 때 기술 혁 신의 촉진과 개인과 사회에 끼치는 해악으로부터 보호라는 양 쪽의 균형의 측면에서 호주는 인공지능 기반 기술을 촉진 및 증진하는 방안을 선호할 것이다. 둘째, 본 연구는 국가 차 원에서 인공지능 윤리 프레임워크를 개발하기 위한 데이터 61과 같이 본질적으로 실용적이고 결과주의적인 방식과 호 주 인권위원회(AHRC) 인권 및 기술 프로젝트 방식과 같이 인권과 인간 중심적인 접근 방식 사이에 명백한 긴장감이 존 재한다는 사실을 인지하고 있다. 호주 정부는 대부분의 경우 자율규제(또는 공동규제)를 통하여 규제 개입을 최소화 (‘light-touch’)하는 전자의 방식을 선호할 것으로 보인다. 셋째, 도구주의적 기술에 직면한 상황에서 호주 정부의 실용 적이고 기술 중심의 방식은 인간의 존엄성 및 자율성과 같은 인간 중심적 가치 보호의 측면에서 볼 때 인공지능 기술로 인해 발생하는 정책 및 윤리 과제를 사실상 간과하고 있지만 앞으로도 널리 통용될 것으로 보인다. 넷째, 인공지능기술의 등장은 기술 설계에 윤리적 측면을 최적으로 고려하면서도 동시에 적절하게 ‘유연’하고 ‘선제적인’ 규제 전략을 수립해 야 하는 새로운 규제 딜레마를 불러왔다. 이러한 사안들은 본 연구에서 제안한 정책 프로세스에 관한 공적 논의를 통해 서 다뤄지겠지만, 결론적으로 해당 기술에 버금가는 정도로 혁신적 ... The development of ethical or responsible AI poses significant regulatory and policy challenges, including those focused on how to balance the need for promoting technological innovation against ensuring that harms to individual and social rights and interests are minimised. Balancing these competing imperatives self-evidently depends upon the ethical or regulatory frameworks from which policy issues are identified and analysed. This article introduces, surveys and evaluates Australian policy responses to the ethical and legal challenges posed by Artificial Intelligence (AI), with a focus on emerging Australian AI and ethics frameworks. The article begins with an introduction to some general features of the Australian approach to regulating new technologies, which we characterise as overwhelmingly ‘enabling and pragmatic’. These general features are then illustrated by examples taken from current Australian policy processes aimed at responding to the challenges posed by AI. First, the article explains the Australian initiatives taken in relation to the regulation of autonomous vehicles which, to date, is the most developed part of the Australian response to AI-based technologies. Secondly, the main elements of the Australian government’s ‘responsible AI’ framework are outlined, with an emphasis on the Data61 ‘AI and Ethics’ process, but including the Standards Australia process, which aims eventually to produce an AI Standards Roadmap. Thirdly, the article introduces the Australian Human Rights Commission’s (AHRC’s) project on human rights and technology, which has developed a particular focus on the human rights challenges posed by AI. Finally, mainly as a point of comparison with the consequentialist emphasis of the mainstream Australian regulatory tradition, the article explains The Ethics Centre’s ‘Ethical by Design’ approach, which adopts a non-instrumentalist framework, and points to the importance of taking ethical considerations into account in the design of AI applications. In the conclusion to the article, a number of observations are drawn from the analysis of the Australian policy responses to developing responsible AI that are explained in the article, bearing in mind that the policy processes are not yet fully developed. First, it seems clear that in balancing the promotion of technological innovation and protection against individual and social harms, that, based upon the Australian tradition of pragmatically enabling new technologies, Australia will favour approaches that promote and facilitate the introduction of AI-based technologies. Secondly, while the article identifies clear tensions between approaches that are essentially pragmatic and consequentialist, such as the Data61 approach to developing a national AI ethics framework, and those that adopt a more human rights or human-centred approach, such as the AHRC approach to its human rights and technology project, it seems likely that Australia will favour the former approach, so that any regulatory intervention will be ‘light touch’ and minimalist, probably consisting largely of self-regulatory (or co-regulatory) codes of practice. Thirdly, the Australian pragmatic and technology-enabling approach is likely to prevail, even though it effectively overlooks some of the most significant policy and ethical challenges arising from AI technologies, especially those concerned with protecting human-centred values, such as human dignity and autonomy, in the face of highly instrumentalist technologies. Fourthly, the rise of AI technologies poses novel regulatory dilemmas, including how to best build ethical considerations into the design of technologies and how to devise regulatory strategies that are appropriately ‘adaptive’ or ‘anticipatory’. Although these issues are likely to be raised in public debates relating to the policy processes introduced in this article, we conclude that it is unlikely that Australia will take the...

      • KCI등재

        [국문번역문] 호주의 관점에서 바라본 인공지능, 윤리 및 규제 과제

        David Lindsay,Jane Hogan,김태오(감수) 서울대학교 공익산업법센터 2019 경제규제와 법 Vol.12 No.2

        윤리적이고 책임 있는 인공지능의 개발은 중요한 규제 및 정책 과제이며 기술 혁신의 촉진에 대한 필요성과 개인과 사회적 권익에 대한 피해를 최소화하는 균형 잡힌 방안이 필요하다. 정책 문제의 파악과 분석에 토대가 되는 윤리 및 규제의 틀을 어떻게 짜느냐에 따라서 상충하는 현안 사이에서 균형을 잡을 수 있다. 본 연구는 급부상하는 호주의 인공지능 및 윤리 프레임워크를 중심으로 인공지능이 야기하는 윤리 및 법적 과제에 대한 호주의 정책 대응을 소개 및 조사하고, 평가하고자 한다. 본 연구는 ‘원칙허용성과 실용성’을 큰 특징으로 하는 호주의 신기술 규제 접근법의 일반적인 특징을 소개하고 인공지능으로 인한 도전에 대응하기 위해서 현재 호주에서 실시하고 있는 정책 프로세스를 예시로 들어 자세히 설명하였다. 첫째, 호주에서 현재까지 인공지능 기반 기술 대응에서 가장 많은 진전을 이룩한 분야인 자율 주행차 규제와 관련하여 호주 정부가 추진한 정책계획을 설명하였다. 둘째, 데이터61의 ‘인공지능과 윤리’와 인공지능 표준 로드맵 수립을 궁극적인 목표로 하는 호주표준화위원회 프로세스를 중심으로 호주 정부의 ‘책임 있는 인공지능’ 프레임워크의 주요 내용을 개략적으로 살펴보았다. 셋째, 인공지능으로 인한 인권 문제를 다루는 기관인 호주인권위원회에서 진행하는 인권 및 기술 프로젝트를 소개하였다. 마지막으로 호주규제 전통의 주류를 이루는 결과주의와의 비교를 위해서 비도구주의(non-instrumentalist) 프레임워크를 채택하는 윤리센터의 ‘윤리중심 설계’방식에 대해서 설명하고 인공지능 적용 설계 시 윤리적 측면의 중요성을 지적하였다. 결론에서는 본 연구에서 설명한 책임 있는 인공지능 개발에 대한 호주 정책 대응에 관하여 분석한 결과로부터 도출한 평가를 제시하였다. 이러한 정책 프로세스는 여전히 개발 중에 있으며 분석 결과는 다음과 같다. 첫째, 실용주의에 입각하여 신기술을 허용하는 호주 전통에 비추어 볼 때 기술 혁신의 촉진과 개인과 사회에 끼치는 해악으로부터 보호라는 양 쪽의 균형의 측면에서 호주는 인공지능 기반 기술을 촉진 및 증진하는 방안을 선호할 것이다. 둘째, 본 연구는 국가 차원에서 인공지능 윤리 프레임워크를 개발하기 위한 데이터 61과 같이 본질적으로 실용적이고 결과주의적인 방식과 호주 인권위원회(AHRC) 인권 및 기술 프로젝트 방식과 같이 인권과 인간 중심적인 접근 방식 사이에 명백한 긴장감이 존재한다는 사실을 인지하고 있다. 호주 정부는 대부분의 경우 자율규제(또는 공동규제)를 통하여 규제 개입을 최소화 (‘light-touch’)하는 전자의 방식을 선호할 것으로 보인다. 셋째, 도구주의적 기술에 직면한 상황에서 호주 정부의 실용적이고 기술 중심의 방식은 인간의 존엄성 및 자율성과 같은 인간 중심적 가치 보호의 측면에서 볼 때 인공지능 기술로 인해 발생하는 정책 및 윤리 과제를 사실상 간과하고 있지만 앞으로도 널리 통용될 것으로 보인다. 넷째, 인공지능기술의 등장은 기술 설계에 윤리적 측면을 최적으로 고려하면서도 동시에 적절하게 ‘유연’하고 ‘선제적인’ 규제 전략을 수립해야 하는 새로운 규제 딜레마를 불러왔다. 이러한 사안들은 본 연구에서 제안한 정책 프로세스에 관한 공적 논의를 통해서 다뤄지겠지만, 결론적으로 해당 기술에 버금가는 정도로 혁신적이고 창의적인 정책 및 규제가 필요한 상황에서 호주정부는 이 분야의 정책 및 규제 대응 개척에 선도적인 역할을 할 것으로 보이지는 않는다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼