RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      호주의 관점에서 바라본 인공지능, 윤리 및 규제 과제 = An Australian Perspective on AI, Ethics and its Regulatory Challenges

      한글로보기

      https://www.riss.kr/link?id=A106832702

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      윤리적이고 책임 있는 인공지능의 개발은 중요한 규제 및 정책 과제이며 기술 혁신의 촉진에 대한 필요성과 개인 과 사회적 권익에 대한 피해를 최소화하는 균형 잡힌 방안 이 필요하다. 정...

      윤리적이고 책임 있는 인공지능의 개발은 중요한 규제 및 정책 과제이며 기술 혁신의 촉진에 대한 필요성과 개인 과 사회적 권익에 대한 피해를 최소화하는 균형 잡힌 방안 이 필요하다. 정책 문제의 파악과 분석에 토대가 되는 윤리 및 규제의 틀을 어떻게 짜느냐에 따라서 상충하는 현안 사 이에서 균형을 잡을 수 있다. 본 연구는 급부상하는 호주의 인공지능 및 윤리 프레임워크를 중심으로 인공지능이 야기 하는 윤리 및 법적 과제에 대한 호주의 정책 대응을 소개 및 조사하고, 평가하고자 한다. 본 연구는 ‘원칙허용성과 실용성’을 큰 특징으로 하는 호 주의 신기술 규제 접근법의 일반적인 특징을 소개하고 인공 지능으로 인한 도전에 대응하기 위해서 현재 호주에서 실시하고 있는 정책 프로세스를 예시로 들어 자세히 설명하였 다. 첫째, 호주에서 현재까지 인공지능 기반 기술 대응에서 가장 많은 진전을 이룩한 분야인 자율 주행차 규제와 관련 하여 호주 정부가 추진한 정책계획을 설명하였다. 둘째, 데 이터61의 ‘인공지능과 윤리’와 인공지능 표준 로드맵 수립 을 궁극적인 목표로 하는 호주표준화위원회 프로세스를 중 심으로 호주 정부의 ‘책임 있는 인공지능’ 프레임워크의 주 요 내용을 개략적으로 살펴보았다. 셋째, 인공지능으로 인 한 인권 문제를 다루는 기관인 호주인권위원회에서 진행하 는 인권 및 기술 프로젝트를 소개하였다. 마지막으로 호주 규제 전통의 주류를 이루는 결과주의와의 비교를 위해서 비 도구주의(non-instrumentalist) 프레임워크를 채택하는 윤리센터의 ‘윤리중심 설계’방식에 대해서 설명하고 인공지 능 적용 설계 시 윤리적 측면의 중요성을 지적하였다. 결론에서는 본 연구에서 설명한 책임 있는 인공지능 개발 에 대한 호주 정책 대응에 관하여 분석한 결과로부터 도출한 평가를 제시하였다. 이러한 정책 프로세스는 여전히 개발 중 에 있으며 분석 결과는 다음과 같다. 첫째, 실용주의에 입각 하여 신기술을 허용하는 호주 전통에 비추어 볼 때 기술 혁 신의 촉진과 개인과 사회에 끼치는 해악으로부터 보호라는 양 쪽의 균형의 측면에서 호주는 인공지능 기반 기술을 촉진 및 증진하는 방안을 선호할 것이다. 둘째, 본 연구는 국가 차 원에서 인공지능 윤리 프레임워크를 개발하기 위한 데이터 61과 같이 본질적으로 실용적이고 결과주의적인 방식과 호 주 인권위원회(AHRC) 인권 및 기술 프로젝트 방식과 같이 인권과 인간 중심적인 접근 방식 사이에 명백한 긴장감이 존 재한다는 사실을 인지하고 있다. 호주 정부는 대부분의 경우 자율규제(또는 공동규제)를 통하여 규제 개입을 최소화 (‘light-touch’)하는 전자의 방식을 선호할 것으로 보인다. 셋째, 도구주의적 기술에 직면한 상황에서 호주 정부의 실용 적이고 기술 중심의 방식은 인간의 존엄성 및 자율성과 같은 인간 중심적 가치 보호의 측면에서 볼 때 인공지능 기술로 인해 발생하는 정책 및 윤리 과제를 사실상 간과하고 있지만 앞으로도 널리 통용될 것으로 보인다. 넷째, 인공지능기술의 등장은 기술 설계에 윤리적 측면을 최적으로 고려하면서도 동시에 적절하게 ‘유연’하고 ‘선제적인’ 규제 전략을 수립해 야 하는 새로운 규제 딜레마를 불러왔다. 이러한 사안들은 본 연구에서 제안한 정책 프로세스에 관한 공적 논의를 통해 서 다뤄지겠지만, 결론적으로 해당 기술에 버금가는 정도로 혁신적 ...

      더보기

      다국어 초록 (Multilingual Abstract)

      The development of ethical or responsible AI poses significant regulatory and policy challenges, including those focused on how to balance the need for promoting technological innovation against ensuring that harms to individual and social rights and ...

      The development of ethical or responsible AI poses significant regulatory and policy challenges, including those focused on how to balance the need for promoting technological innovation against ensuring that harms to individual and social rights and interests are minimised. Balancing these competing imperatives self-evidently depends upon the ethical or regulatory frameworks from which policy issues are identified and analysed. This article introduces, surveys and evaluates Australian policy responses to the ethical and legal challenges posed by Artificial Intelligence (AI), with a focus on emerging Australian AI and ethics frameworks. The article begins with an introduction to some general features of the Australian approach to regulating new technologies, which we characterise as overwhelmingly ‘enabling and pragmatic’. These general features are then illustrated by examples taken from current Australian policy processes aimed at responding to the challenges posed by AI. First, the article explains the Australian initiatives taken in relation to the regulation of autonomous vehicles which, to date, is the most developed part of the Australian response to AI-based technologies. Secondly, the main elements of the Australian government’s ‘responsible AI’ framework are outlined, with an emphasis on the Data61 ‘AI and Ethics’ process, but including the Standards Australia process, which aims eventually to produce an AI Standards Roadmap. Thirdly, the article introduces the Australian Human Rights Commission’s (AHRC’s) project on human rights and technology, which has developed a particular focus on the human rights challenges posed by AI. Finally, mainly as a point of comparison with the consequentialist emphasis of the mainstream Australian regulatory tradition, the article explains The Ethics Centre’s ‘Ethical by Design’ approach, which adopts a non-instrumentalist framework, and points to the importance of taking ethical considerations into account in the design of AI applications. In the conclusion to the article, a number of observations are drawn from the analysis of the Australian policy responses to developing responsible AI that are explained in the article, bearing in mind that the policy processes are not yet fully developed. First, it seems clear that in balancing the promotion of technological innovation and protection against individual and social harms, that, based upon the Australian tradition of pragmatically enabling new technologies, Australia will favour approaches that promote and facilitate the introduction of AI-based technologies. Secondly, while the article identifies clear tensions between approaches that are essentially pragmatic and consequentialist, such as the Data61 approach to developing a national AI ethics framework, and those that adopt a more human rights or human-centred approach, such as the AHRC approach to its human rights and technology project, it seems likely that Australia will favour the former approach, so that any regulatory intervention will be ‘light touch’ and minimalist, probably consisting largely of self-regulatory (or co-regulatory) codes of practice. Thirdly, the Australian pragmatic and technology-enabling approach is likely to prevail, even though it effectively overlooks some of the most significant policy and ethical challenges arising from AI technologies, especially those concerned with protecting human-centred values, such as human dignity and autonomy, in the face of highly instrumentalist technologies. Fourthly, the rise of AI technologies poses novel regulatory dilemmas, including how to best build ethical considerations into the design of technologies and how to devise regulatory strategies that are appropriately ‘adaptive’ or ‘anticipatory’. Although these issues are likely to be raised in public debates relating to the policy processes introduced in this article, we conclude that it is unlikely that Australia will take the...

      더보기

      동일학술지(권/호) 다른 논문

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2028 평가예정 재인증평가 신청대상 (재인증)
      2022-01-01 평가 등재학술지 유지 (재인증) KCI등재
      2019-01-01 평가 등재학술지 유지 (계속평가) KCI등재
      2016-01-01 평가 등재학술지 선정 (계속평가) KCI등재
      2015-01-01 평가 등재후보학술지 유지 (계속평가) KCI등재후보
      2013-01-01 평가 등재후보 1차 PASS (등재후보1차) KCI등재후보
      2011-01-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 0.9 0.9 1.17
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0.89 0.83 1.29 0.25
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼