RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        SW・AI 교육을 위한 학교 수학 교육과정 개선 연구

        박상우,홍후조 한국컴퓨터교육학회 2022 컴퓨터교육학회 논문지 Vol.25 No.2

        This study is to analyze and review AI based learning contents in school education so that SW・AI education can be conducted in the intelligent information era due to changes in education paradigm. It was intended to present a plan to improve Mathematics Curriculum, focusing on areas including school Practical Arts/Informatics and AI-based learning contents outside the subject for SW・AI education. In addition, based on the 2015 Revision Curriculum Standards document in Korea, In order for education to be conducted for the competency approach of AI technology, we extracted key concepts according to the classification of mathematics area, considering the direction of school education, goals, and competencies to develop. And we explored and presented achievement standards in this research. Depending on the research results, it is believed that the ability to enable conceptual thinking in elementary schools, reasoning thinking in middle schools, and convergence thinking in high schools can be developed. Subsequently, the school is imperative to come up with improvement plan to a mixed teaching and learning method of the value as pure learning and the value necessary for acquisition in the future society. 본 연구는 교육 패러다임의 변화로 지능 정보화 시대의 SW・AI 교육이 이루어질 수 있도록 학교 교육에서 AI 기반 학습 내용을 분석하고 검토함으로써, SW・AI 교육을 위한 학교 실과/정보 교과 및 교과 외 AI 기반 학습 내용을 포함한 영역을 중심으로 수학 교육과정 개선안을 제시하고자 하였다. 또한, 2015 개정 교육과정기준 문서를 토대로 AI 기술의 역량적 접근을 위한 교과 교육이 이루어질 수 있도록 학교 교육의 나아갈 방향, 목표, 길러야 할 역량 등을 고려하여 수학의 영역 분류에 따른 핵심개념을 추출하고 그 성취기준을 탐구하여 제시하였다. 연구 결과에 따라 초등학교에서는 개념적 사고, 중학교에서는 추론적 사고, 고등학교에서는 융・복합적 사고를 가능하게 할 수 있는 역량을 키울 수 있으며, 학교는 순수학문으로서의 가치와 미래사회에서의 습득에 필요한 가치의 혼합 융합된 교수・학습 방법에 대한 구안이 절실하다.

      • KCI등재

        인공지능 리터러시 측정을 위한 검사 지표 개발

        류미영(Mi-Young Ryu),한선관(Seon-Kwan Han) 한국컴퓨터정보학회 2023 韓國컴퓨터情報學會論文誌 Vol.28 No.7

        본 연구는 인공지능 소양 능력의 측정을 위한 검사 기준의 설계와 개발을 목적으로 한다. 선행연구와 전문가 FGI를 통해 AI 소양의 핵심 영역을 선정하고 세부 기준을 설계하였다. 검사 기준의 영역은 AI의 개념, 실제와 영향 3가지로 구분하고 세부 항목은 AI의 개념 33문항, AI의 실제 13문항, AI의 영향 15문항으로 구성하였다. 검사 기준의 타당성 확보를 위해 2번에 걸친 전문가 타당도 검사를 실시하여 검사 기준을 수정, 보완하였다. 최종 AI소양 검사 기준은 총 30문항으로 개발하였다. 본 연구에서 개발된 AI소양 검사 기준은 AI소양 능력 측정을 위한 자기 체크리스트나 AI역량 검사 문항을 개발하는 중요한 도구가 되기를 기대한다. The purpose of this study is to design and develop the test standard to measure AI literacy abilities. First, we selected key areas of AI literacy through the related studies and expert FGI and designed detailed standard. The area of the test standard is divided into three categories: AI concept, practice, and impact. In order to confirm the validity of the test standard, we conducted twice expert validity tests and then modified and supplemented the test index. To confirm the validity of the test standard, we conducted an expert validity test twice and then modified and supplemented the test standard. The final AI literacy test standard consisted of a total of 30 questions. The AI literacy test standard developed in this study can be an important tool for developing self-checklists or AI competency test questions for measuring AI literacy ability.

      • KCI등재

        새로운 노멀, 인공지능(AI)과 윤리규범에 관한 소고

        김경동 한국법학회 2023 법학연구 Vol.90 No.-

        This study attempted to discuss the direction for human dignity and human rights and to provide legal policy implications on the subject of the new normal, AI and ethical standards. The thesis presents the following problems surrounding AI and ethical standards in the new normal. 1. The problems arising from the change of era and paradigm shift are 1) changes in ethical standards and ideological structure, 2) invasion of personal information and privacy, 3) concerns over state control and human rights violations, 4) asymmetry of information and distortion of decision making, 5) moral hazard and corruption. 2. In the case of problems arising from AI and human dignity, they are presented as 1) undermining human dignity, 2) violation of human rights, 3) loss of human labor, 4) deepening of human alienation, and 5) loss of humanity. 3. The legal position and responsibility of AI are 1) insufficient legal definition of AI, 2) absence of regulatory devices for AI risks, 3) opacity of information distribution process, 4) The possibility of AI intervention in decision-making, 5) the necessity of supplementing AI-related laws. In this regard, this study derived three major implications as follows. The details are as follows. 1. Re-awareness of era change and paradigm propose 1) re-awareness of era change and paradigm shift, 2) public-private joint promotion of AI and related technologies and provision of information, 3) education on human dignity and human rights and social Campaign, 4) suggested discussions on the daily use of AI and search for countermeasures. 2. Changes in ethical standards and ideological structure according to the times are as follows. The contents are: 1) recognition and resetting of ethical standards related to AI, 2) conversion of the structure of consciousness toward AI, 3) argument of AI ethical direction and norms, 4) discussion on decision-making distortion of AI and presentation of direction, 5) seeking for reliability and safety of AI. 3. Discussion and search for AI regulatory direction and institutional devices are presented as follows. The contents include 1) discussion and setting of the level and direction of AI regulation, 2) gradual legal and policy approach to AI regulation, 3) reorganization of the scope and target in response to the daily use of AI and intelligence information technology, 4) strict regulation of AI decision-making intervention and distortion, 5) establishment of a monitoring and response system for AI and intelligence information technology. Through this, this study provides implications for AI and ethical standards in the new normal, and concludes the study in the hope that it will help human dignity and human rights.

      • KCI등재

        방송 동영상 활용 AI 학습데이터의 표준화: AI허브의 데이터세트 관련 문서를 통한 객체, 행동, 상황 클래스 설계

        박대민 한국방송학회 2023 방송과 커뮤니케이션 Vol.24 No.1

        With the recent development of deep learning techniques in the field of computer vision, more attempts are being made to introduce automated video content analysis based on artificial intelligence (AI). AI is expected to be highly utilized in the broadcasting field in the future as the tasks of production, editing, and distribution. To develop a high-performance deep learning model for the content analysis of broadcast videos based on deep learning, it is necessary to get enough qualified learning data to learn the model. In this study, seven types of AI learning data using broadcasting videos released by the Korea Intelligence Information Society Agency (NIA) on AI Hub were analyzed in terms of design and sought standardization measures, especially focusing on classes. As of October 2022, AI Hub has established and released seven types of AI learning data worth a total of 10,895 hours using videos from nine broadcasters, including KBS, MBN, EBS, SBS, Maeil Economy TV, YTN, OBS, tvN, and Maeil Bussiness Newspaper. The size of the learning data construction is close to 132.88 million, including 129,514,816 objects (based on bounding boxes), 124,521 behaviors (based on clips), 3,136,345 situations (based on clips), 22,099 people (based on bounding boxes and key points), and 60,000 shots (based on key shots). In this study, various tasks were organized into objects, actions, and situations, and the format and class of source data and annotation data were standardized. Object and behavior classes into 3-level categorization, and then standardized their names. The situation was viewed as a combination of objects, actions, times, places, content, and emotions, and standardized by detailed units. Accordingly, we derived standardized classes of 28/212/1338 objects, 18/56/353 behaviors, 8/55 emotions, 8/55 content, 2/10 hours, and 25/92 places. According to the standardization results, there were 477 object classes with more than 4,000 bounding boxes and 41 behavioral classes with more than 300 clips. The standardization of AI hub broadcast video datasets can be useful to develop an integrated broadcasting database, to manage datasets efficiently. This study also contributes to the development of deep learning-based broadcast video analysis models and AI transformation in the broadcasting field.

      • KCI등재

        A Study on the Standard AI Developer Job Training Track Based on Industry Demand

        Won Joo Lee(이원주),Doohyun Kim(김두현),Sang Il Kim(김상일),Han Sung Kim(김한성) 한국컴퓨터정보학회 2022 韓國컴퓨터情報學會論文誌 Vol.27 No.3

        본 논문에서는 산업체 수요에 기반한 표준 AI 개발자 직무 교육과정을 제안한다. 이 교육과정의 특징은 산업체와 대학간의 AI 개발자 직무 역량의 미스 매치를 최소화 할 수 있다는 것이다. AI 개발자 직무 교육과정 개발을 위해 산업체 현장에 재직중인 AI 개발자를 대상으로 설문 조사를 실시한다. 이 설문조사에서는 NCS 기반의 5개 AI 개발자 직무 중 산업체 현장의 인력 수요가 많은 AI 개발자 직무를 도출하여 직무분석을 실시한다. 직무분석에서는 해당 직무의 핵심 능력단위요소를 선정하고, 그 핵심 능력단위요소를 수행하기 위해 필요한 지식, 기술, 도구 등을 도출한다. 그리고 지식, 기술, 도구 등을 교육할 수 있는 핵심 교과목과 이수 체계를 도출하여 표준 AI개발자 직무 교육과정을 개발한다. 그리고 본 논문에서 제안한 표준 AI 개발자 직무 교육과정을 활용한 효율적인 AI 개발자 직무 교육 방안을 제시한다. In this paper, we propose a standard AI developer job training track based on industry needs. The characteristic of this curriculum is that it can minimize the mismatch of AI developer job competency between industries and universities. To develop an AI developer job training track, a survey will be conducted for AI developers working in industrial fields. In this survey, among the five NCS-based AI developer jobs, job analysis is conducted by deriving AI developer jobs with high demand for manpower in industrial fields. In job analysis, the core competency unit elements of the job are selected, and knowledge, skills, tools, etc. necessary to perform the core competency unit elements are derived. In addition, a standard AI developer job curriculum is developed by deriving core subjects and road-map that can educate knowledge, skills, tools, etc. In addition, we present an efficient AI developer job training method using the standard AI developer job training course proposed in this paper.

      • KCI등재

        An Australian Perspective on AI, Ethics and its Regulatory Challenges

        David Lindsay,Jane Hogan 서울대학교 공익산업법센터 2019 경제규제와 법 Vol.12 No.2

        The development of ethical or responsible AI poses significant regulatory and policy challenges, including those focused on how to balance the need for promoting technological innovation against ensuring that harms to individual and social rights and interests are minimised. Balancing these competing imperatives self-evidently depends upon the ethical or regulatory frameworks from which policy issues are identified and analysed. This article introduces, surveys and evaluates Australian policy responses to the ethical and legal challenges posed by Artificial Intelligence (AI), with a focus on emerging Australian AI and ethics frameworks. The article begins with an introduction to some general features of the Australian approach to regulating new technologies, which we characterise as overwhelmingly ‘enabling and pragmatic’. These general features are then illustrated by examples taken from current Australian policy processes aimed at responding to the challenges posed by AI. First, the article explains the Australian initiatives taken in relation to the regulation of autonomous vehicles which, to date, is the most developed part of the Australian response to AI-based technologies. Secondly, the main elements of the Australian government’s ‘responsible AI’ framework are outlined, with an emphasis on the Data61 ‘AI and Ethics’ process, but including the Standards Australia process, which aims eventually to produce an AI Standards Roadmap. Thirdly, the article introduces the Australian Human Rights Commission’s (AHRC’s) project on human rights and technology, which has developed a particular focus on the human rights challenges posed by AI. Finally, mainly as a point of comparison with the consequentialist emphasis of the mainstream Australian regulatory tradition, the article explains The Ethics Centre’s ‘Ethical by Design’ approach, which adopts a non-instrumentalist framework, and points to the importance of taking ethical considerations into account in the design of AI applications. In the conclusion to the article, a number of observations are drawn from the analysis of the Australian policy responses to developing responsible AI that are explained in the article, bearing in mind that the policy processes are not yet fully developed. First, it seems clear that in balancing the promotion of technological innovation and protection against individual and social harms, that, based upon the Australian tradition of pragmatically enabling new technologies, Australia will favour approaches that promote and facilitate the introduction of AI-based technologies. Secondly, while the article identifies clear tensions between approaches that are essentially pragmatic and consequentialist, such as the Data61 approach to developing a national AI ethics framework, and those that adopt a more human rights or human-centred approach, such as the AHRC approach to its human rights and technology project, it seems likely that Australia will favour the former approach, so that any regulatory intervention will be ‘light touch’ and minimalist, probably consisting largely of self-regulatory (or co-regulatory) codes of practice. Thirdly, the Australian pragmatic and technology-enabling approach is likely to prevail, even though it effectively overlooks some of the most significant policy and ethical challenges arising from AI technologies, especially those concerned with protecting human-centred values, such as human dignity and autonomy, in the face of highly instrumentalist technologies. Fourthly, the rise of AI technologies poses novel regulatory dilemmas, including how to best build ethical considerations into the design of technologies and how to devise regulatory strategies that are appropriately ‘adaptive’ or ‘anticipatory’. Although these issues are likely to be raised in public debates relating to the policy processes introduced in this article, we conclude that it is unlikely that Australia will take the lead in pioneering policies a

      • KCI등재

        AI 윤리와 규제에 관한 표준 프레임워크 설정 방안 연구

        남문희 한국융합학회 2022 한국융합학회논문지 Vol.13 No.4

        정보와 기술의 탈중앙화/분권, 공유/개방, 연결을 통한 개별 맞춤 시대의 지능화 세계 지향으로 그 어느 때 보다도 인공지능에 대한 관심과 기술적 담론 속에 기대와 우려가 교차하는 경향을 자주 보게 된다. 최근에는 2045년 전, 후로 AI의 특이성(Singularity)이 나타날 것이라는 미래학자들의 주장도 쉽게 찾아볼 수 있다. 이제는 다가올 인공지능 시대 에서 AI와 함께 상생하고 번영하는 공존 패러다임을 만들기 위한 준비의 일환으로 보다 올바른 AI 윤리와 규제 설정을 위한 표준 프레임워크가 요구되고 있다. 주요지침 설정 누락의 위험성 배제와 타당하고 보다 합리적인 지침 항목과 평가 기준을 가늠 할 수 있는 방안이 점차 큰 연구문제로 나타나고 있기 때문이다. 이런 연구문제 해결과 동시에 AI 윤리와 규제 설정에 대한 지속적인 경험과 학습효과가 연결 발전될 수 있도록 국제기구/국가/기업의 AI 윤리와 규제에 대한 가이드 라인 자료 등을 수집하여 설정 연구모형과 텍스트 마이닝 탐색 분석을 통해 표준 프레임워크(SF: Standard Framework) 설정 방안을 연구 제시한다. 본 연구결과는 향후 보다 발전적인 AI 윤리와 규제지침 항목 설정과 평가 방안연구에 기초 선행연구 자료로 기여될 수 있을 것이다. With the aim of an intelligent world in the age of individual customization through decentralization of information and technology, sharing/opening, and connection, we often see a tendency to cross expectations and concerns in the technological discourse and interest in artificial intelligence more than ever. Recently, it is easy to find claims by futurists that AI singularity will appear before and after 2045. Now, as part of preparations to create a paradigm of coexistence that coexists and prosper with AI in the coming age of artificial intelligence, a standard framework for setting up more correct AI ethics and regulations is required. This is because excluding the risk of omission of setting major guidelines and methods for evaluating reasonable and more reasonable guideline items and evaluation standards are increasingly becoming major research issues. In order to solve these research problems and at the same time to develop continuous experiences and learning effects on AI ethics and regulation setting, we collect guideline data on AI ethics and regulation of international organizations / countries / companies, and research and suggest ways to set up a standard framework (SF: Standard Framework) through a setting research model and text mining exploratory analysis. The results of this study can be contributed as basic prior research data for more advanced AI ethics and regulatory guidelines item setting and evaluation methods in the future.

      • KCI등재

        호주의 관점에서 바라본 인공지능, 윤리 및 규제 과제

        김태오 서울대학교 법학연구소 2019 경제규제와 법 Vol.12 No.2

        윤리적이고 책임 있는 인공지능의 개발은 중요한 규제 및 정책 과제이며 기술 혁신의 촉진에 대한 필요성과 개인 과 사회적 권익에 대한 피해를 최소화하는 균형 잡힌 방안 이 필요하다. 정책 문제의 파악과 분석에 토대가 되는 윤리 및 규제의 틀을 어떻게 짜느냐에 따라서 상충하는 현안 사 이에서 균형을 잡을 수 있다. 본 연구는 급부상하는 호주의 인공지능 및 윤리 프레임워크를 중심으로 인공지능이 야기 하는 윤리 및 법적 과제에 대한 호주의 정책 대응을 소개 및 조사하고, 평가하고자 한다. 본 연구는 ‘원칙허용성과 실용성’을 큰 특징으로 하는 호 주의 신기술 규제 접근법의 일반적인 특징을 소개하고 인공 지능으로 인한 도전에 대응하기 위해서 현재 호주에서 실시하고 있는 정책 프로세스를 예시로 들어 자세히 설명하였 다. 첫째, 호주에서 현재까지 인공지능 기반 기술 대응에서 가장 많은 진전을 이룩한 분야인 자율 주행차 규제와 관련 하여 호주 정부가 추진한 정책계획을 설명하였다. 둘째, 데 이터61의 ‘인공지능과 윤리’와 인공지능 표준 로드맵 수립 을 궁극적인 목표로 하는 호주표준화위원회 프로세스를 중 심으로 호주 정부의 ‘책임 있는 인공지능’ 프레임워크의 주 요 내용을 개략적으로 살펴보았다. 셋째, 인공지능으로 인 한 인권 문제를 다루는 기관인 호주인권위원회에서 진행하 는 인권 및 기술 프로젝트를 소개하였다. 마지막으로 호주 규제 전통의 주류를 이루는 결과주의와의 비교를 위해서 비 도구주의(non-instrumentalist) 프레임워크를 채택하는 윤리센터의 ‘윤리중심 설계’방식에 대해서 설명하고 인공지 능 적용 설계 시 윤리적 측면의 중요성을 지적하였다. 결론에서는 본 연구에서 설명한 책임 있는 인공지능 개발 에 대한 호주 정책 대응에 관하여 분석한 결과로부터 도출한 평가를 제시하였다. 이러한 정책 프로세스는 여전히 개발 중 에 있으며 분석 결과는 다음과 같다. 첫째, 실용주의에 입각 하여 신기술을 허용하는 호주 전통에 비추어 볼 때 기술 혁 신의 촉진과 개인과 사회에 끼치는 해악으로부터 보호라는 양 쪽의 균형의 측면에서 호주는 인공지능 기반 기술을 촉진 및 증진하는 방안을 선호할 것이다. 둘째, 본 연구는 국가 차 원에서 인공지능 윤리 프레임워크를 개발하기 위한 데이터 61과 같이 본질적으로 실용적이고 결과주의적인 방식과 호 주 인권위원회(AHRC) 인권 및 기술 프로젝트 방식과 같이 인권과 인간 중심적인 접근 방식 사이에 명백한 긴장감이 존 재한다는 사실을 인지하고 있다. 호주 정부는 대부분의 경우 자율규제(또는 공동규제)를 통하여 규제 개입을 최소화 (‘light-touch’)하는 전자의 방식을 선호할 것으로 보인다. 셋째, 도구주의적 기술에 직면한 상황에서 호주 정부의 실용 적이고 기술 중심의 방식은 인간의 존엄성 및 자율성과 같은 인간 중심적 가치 보호의 측면에서 볼 때 인공지능 기술로 인해 발생하는 정책 및 윤리 과제를 사실상 간과하고 있지만 앞으로도 널리 통용될 것으로 보인다. 넷째, 인공지능기술의 등장은 기술 설계에 윤리적 측면을 최적으로 고려하면서도 동시에 적절하게 ‘유연’하고 ‘선제적인’ 규제 전략을 수립해 야 하는 새로운 규제 딜레마를 불러왔다. 이러한 사안들은 본 연구에서 제안한 정책 프로세스에 관한 공적 논의를 통해 서 다뤄지겠지만, 결론적으로 해당 기술에 버금가는 정도로 혁신적 ... The development of ethical or responsible AI poses significant regulatory and policy challenges, including those focused on how to balance the need for promoting technological innovation against ensuring that harms to individual and social rights and interests are minimised. Balancing these competing imperatives self-evidently depends upon the ethical or regulatory frameworks from which policy issues are identified and analysed. This article introduces, surveys and evaluates Australian policy responses to the ethical and legal challenges posed by Artificial Intelligence (AI), with a focus on emerging Australian AI and ethics frameworks. The article begins with an introduction to some general features of the Australian approach to regulating new technologies, which we characterise as overwhelmingly ‘enabling and pragmatic’. These general features are then illustrated by examples taken from current Australian policy processes aimed at responding to the challenges posed by AI. First, the article explains the Australian initiatives taken in relation to the regulation of autonomous vehicles which, to date, is the most developed part of the Australian response to AI-based technologies. Secondly, the main elements of the Australian government’s ‘responsible AI’ framework are outlined, with an emphasis on the Data61 ‘AI and Ethics’ process, but including the Standards Australia process, which aims eventually to produce an AI Standards Roadmap. Thirdly, the article introduces the Australian Human Rights Commission’s (AHRC’s) project on human rights and technology, which has developed a particular focus on the human rights challenges posed by AI. Finally, mainly as a point of comparison with the consequentialist emphasis of the mainstream Australian regulatory tradition, the article explains The Ethics Centre’s ‘Ethical by Design’ approach, which adopts a non-instrumentalist framework, and points to the importance of taking ethical considerations into account in the design of AI applications. In the conclusion to the article, a number of observations are drawn from the analysis of the Australian policy responses to developing responsible AI that are explained in the article, bearing in mind that the policy processes are not yet fully developed. First, it seems clear that in balancing the promotion of technological innovation and protection against individual and social harms, that, based upon the Australian tradition of pragmatically enabling new technologies, Australia will favour approaches that promote and facilitate the introduction of AI-based technologies. Secondly, while the article identifies clear tensions between approaches that are essentially pragmatic and consequentialist, such as the Data61 approach to developing a national AI ethics framework, and those that adopt a more human rights or human-centred approach, such as the AHRC approach to its human rights and technology project, it seems likely that Australia will favour the former approach, so that any regulatory intervention will be ‘light touch’ and minimalist, probably consisting largely of self-regulatory (or co-regulatory) codes of practice. Thirdly, the Australian pragmatic and technology-enabling approach is likely to prevail, even though it effectively overlooks some of the most significant policy and ethical challenges arising from AI technologies, especially those concerned with protecting human-centred values, such as human dignity and autonomy, in the face of highly instrumentalist technologies. Fourthly, the rise of AI technologies poses novel regulatory dilemmas, including how to best build ethical considerations into the design of technologies and how to devise regulatory strategies that are appropriately ‘adaptive’ or ‘anticipatory’. Although these issues are likely to be raised in public debates relating to the policy processes introduced in this article, we conclude that it is unlikely that Australia will take the...

      • KCI등재후보

        AI서비스에서의 개인정보보호를 위한 책임과 원칙의 적용에 관한 연구

        신영진 한국사회안전범죄정보학회 2021 한국범죄정보연구 Vol.7 No.1

        본 연구는 다양한 인공지능 서비스가 확대되고 있는 가운데, 발생하고 있는 개인정보의 악용, 오남용 등 개인정보 침해사고를 방지하고, 안전한 서비스 환경을 구현하기 위해 개인정보처리과정에서 준수해 야 할 원칙을 제안하고자 한다. 이를 위해 문헌조사를 하여 미국, EU, 호주 등에서 제시하는 AI준수원칙 등을 중심으로 사례분석을 하였는데, 미국의 대통령 행정명령, EU의 GDPR과 가이드라인, 호주의 보고 서 및 가이드라인 등을 통해 원칙을 제시하고 있다. 물론, 우리나라도 데이터3법, 지능정보화기본법 등을 개정하여 별도 윤리기준과 가이드라인을 통해 기준을 제시하고 있으나, 전반적으로 국내외적인 기준에서는 개인정보보호에 관한 세부적인 사항을 명시하고 있지 못하다. 따라서, 본 연구에서는 OECD, 개인정보 보호법 등에 의한 개인정보보호원칙을 수립하고 있는데, 개인 정보의 처리과정뿐만 아니라, AI서비스과정인 데이터 수집, 전처리 및 정제, AL개발과 활용의 단계와 연계하여 개인정보보호를 수행해야 할 원칙을 도출하였다. 특히, 데이터 수집단계에서의 법적 준수사항, 데이터의 목적 및 수집근거의 명확화, 축적된 데이터의 정확화 등이 필요하며, 데이터의 전처리 및 정제 단계에서 개인정보보호조치 및 안전한 관리, AL개발 및 활용단계에서의 비식별조치, 안전성 확보조치, 파기절차 이행 등이 필요하다. 앞으로 AI서비스가 확대됨에 따라 전과정에서의 개인정보보호조치 및 개인정보보호방안이 마련되어야 할 것이다. The purpose of this study is to suggest principles to protect personal information processing in order to prevent personal information infringement accidents such as misuse and misuse of personal information that are occurring, and to implement a safe service environment. For this purpose, the study conducted a literature review and case analysis focusing on AI compliance principles presented by the US, EU, Australia, and so on. In addition, principles are presented through the US presidential executive order, EU GDPR and guidelines, and Australia's reports and guidelines. Of course, South Korea is also presenting standards through separate ethical standards and guidelines by amending the Data 3 Acts and the Framework Act on Intelligent Informatization. However, overall, domestic and international standards do not specify details regarding personal information protection. Therefore, in this study, personal information protection principles are established according to the OECD and the Personal Information Protection Act. In addition to the processing of personal information, the AI service process, data collection, pre-processing and purification, and AL development and utilization principles for information protection were derived. In particular, it is necessary to comply with the law at the data collection stage, clarify the purpose and basis of data collection, and correct the accumulated data. In the pre-processing and refining stage of data, personal information protection measures and safe management, AL development and De-identification measures, measures to ensure safety, and implementation of the destruction procedure are necessary at the utilization stage.As AI services expand in the future, it is prepared to personal information protection measures and plans.

      • KCI등재

        적응형 AI를 활용한 ESG 의료경영 구현과 간호종사자에 대한 불평등 개선방안 검토

        정재진,이다정,황정훈 사단법인 한국법이론실무학회 2023 법률실무연구 Vol.11 No.3

        정보통신부는 공공의료기관을 대상으로 디지털 혁신기술을 활용한 의료·건강관리 솔루션·서비스 도입과 활용을 지원하기 위해 AI 기반 의료시스템 디지털 전환 지원사업을 시행하고 있다. 이를 통해 공공의료기관은 의료 정보 시스템 구축, 의료 데이터 관리 등의 디지털 전환을 가속화하고, 환자 중심의 의료 서비스 제공 및 의료 혁신을 추진할 수 있다. 장기요양보험제도의 도입과 확대시행으로 인해, 간호서비스는 의료기관뿐만 아니라 지역사회 내 가정과 시설에서도 확대될 전망이며, 이에 따른 간호사의 역할 범위도 과거보다 폭넓게 확대될 가능성이 높아진다고 할 수 있다. 이러한 지역사회 내 간호서비스는 노인과 장애인 등의 취약계층을 대상으로 일상생활에서의 간호와 지원 서비스를 제공하여 그들의 삶의 질을 높이는 역할을 한다. 이에 따라, 간호사의 역할도 보다 폭넓게 확대될 가능성이 높아지며, 의료기관에서의 간호뿐만 아니라 지역사회 내 가정과 시설에서도 간호서비스를 제공하는 것이 필요해진다. 이러한 지역사회 내 간호서비스는 의료기관에서 제공되는 간호서비스와는 달리, 집단생활과 일상생활에서 발생하는 다양한 문제들에 대한 간호 서비스를 제공하는 것이 특징이다. ESG 경영과 지속 가능한 가치 사슬 구축은 의료기관의 사회적 책임을 강조하고, 지속 가능한 개발을 추구하는 데 도움이 된다. 이를 통해 의료기관은 환경 보호, 사회적 공헌, 건강 증진 등의 다양한 영역에서 긍정적인 영향을 미칠 수 있다. 의료 분야에서 적응형 AI 보안 가이드라인과 의료 경영 ESG 진단 모델에 대한 전략 수립 방안을 검토하는 것은 매우 중요한 과제이다. 인공지능 윤리 기준 중 하나인 사회의 공공선 원칙은 소득 불균형이 심화되는 상황에서 효율적인 재분배를 위해 기회의 균등과 인간의 존엄성을 고려하는 방식을 지향하는 원칙으로 한다. 이를 실현하기 위하여 적응형 AI를 활용한 불평등 개선 시스템 구축을 통한 간호 불평등 개선을 위한 재정적 지원 모델로 SIB 채권을 활성화하는 방안을 고려할 수 있다. 추가적인 연구와 현장에서의 구체적인 적용을 통해 의료 경영 ESG 진단 모델과 적응형 AI를 통한 의료분야에서의 개선 시스템을 발전시킬 수 있을 것이다. Due to the introduction and expansion of the long-term care insurance system, nursing services are expected to expand not only in medical institutions but also in homes and facilities in the community, and the scope of nurses' roles is likely to expand more widely than in the past. Nursing services in the community play a role in improving the quality of life by providing nursing and support services in daily life to vulnerable groups such as the elderly and the disabled. Unlike nursing services provided by medical institutions, nursing services in the community are characterized by providing nursing services for various problems arising from group life and daily life. ESG management and the establishment of a sustainable value chain emphasize the social responsibility of medical institutions and help them pursue sustainable development. Medical institutions can have a positive impact in various areas such as environmental protection, social contribution, and health promotion. In the medical field, it is a very important task to review strategies for adaptive AI security guidelines and medical management ESG diagnostic models. It is possible to consider activating SIB bonds as a financial support model for improving nursing inequality through the establishment of an inequality improvement system using adaptive AI. Further research and specific applications in the field will enable the development of medical management ESG diagnostic models and improvement systems in the medical field through adaptive AI.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼