The current “Framework Act on Intelligent Informatization” has newly introduced a “social impact assessment” for intelligent information services, including artificial intelligence services. According to Article 56 of the Act, The main goal of...
http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
다국어 초록 (Multilingual Abstract)
The current “Framework Act on Intelligent Informatization” has newly introduced a “social impact assessment” for intelligent information services, including artificial intelligence services. According to Article 56 of the Act, The main goal of...
The current “Framework Act on Intelligent Informatization” has newly introduced a “social impact assessment” for intelligent information services, including artificial intelligence services. According to Article 56 of the Act, The main goal of the social impact assessment system is to investigate and assess the impact of the utilization and spread of intelligent information services that have far-reach effects on citizens’ lives, disclose the results, reflect them in policies, and directly recommend improvement measures. The social impact assessment on intelligent information services is distinguished from the current technology impact assessment, as specified in the article. In particular, it is an important means of regulating risk in the field of artificial intelligence as a system close to “ex-post social impact assessment” that secures social acceptance and normative validity for commercial artificial intelligence services. Therefore, artificial intelligence service impact assessment based on social impact assessment regulations differs from various impact assessment systems implemented to prevent risks, and these unique institutional characteristics need to be considered in the process of specifying the elements of the impact assessment system.
The first step in establishing an artificial intelligence service impact assessment system is to establish governance, and the subject (organization) and procedure of impact assessment form the backbone of governance. Although the state and local governments are required to have discretion to conduct impact assessments as performers, it is essential to form a specialized organization that determines the actual subject and scope of assessment, and investigates and evaluates the impact. In addition, when targeting artificial intelligence services provided by private operators, using risk management information held by operators as basic data for assessment can increase the precision and validity of assessment, so it is necessary to prioritize governance of public-private cooperation, including self-assessment. Furthermore, the institutional significance and utility of social impact assessment that realizes a virtuous cycle of risk management system can be enhanced if a specialized organization or dedicated organization conducts an impact assessment and collects opinions from stakeholders or general users at Citizens’ forums.
The indicators of artificial intelligence service impact assessment are directly related to follow-up sanctions and measures that lower the risk of artificial intelligence and increase reliability. Therefore, it is no exaggeration to say that the success or failure of the impact assessment depends crucially on the assessment indicators. In light of the assessment items stipulated in the law, the main goal of social impact assessment under the current law is to ensure the safety and reliability of intelligent information services, so research to develop indicators and techniques to evaluate safety and reliability must precede. Discussions on the unsystematic issues and reorganization of items throughout the assessment items were left as a follow-up task, and this paper focused on safety and reliability set as key items of artificial intelligence service impact assessment, and tried to lay the foundation for research on social impact assessment methodology by illustrating detailed assessment items and indicators.
국문 초록 (Abstract)
현행 「지능정보화 기본법」은 인공지능 서비스를 비롯한 지능정보서비스에 대한 ‘사회적 영향평가’를 도입하였다. 동법 제56조에 따르면, 국가 및 지방자치단체는 국민의 생활에 파급력...
현행 「지능정보화 기본법」은 인공지능 서비스를 비롯한 지능정보서비스에 대한 ‘사회적 영향평가’를 도입하였다. 동법 제56조에 따르면, 국가 및 지방자치단체는 국민의 생활에 파급력이 큰 지능정보서비스의 활용 및 확산이 사회, 경제, 문화 등에 미치는 영향을 조사하고 평가할 수 있으며, 그 결과를 공개하고 정책에 반영할 뿐만 아니라 개선 조치를 직접 권고할 수 있다. 지능정보서비스에 대한 사회적 영향평가는 조문에 명시된 대로 현행 기술영향평가와는 대상과 절차가 구별된다. 이는 상용 중인 인공지능 서비스에 대하여 사회적 수용성과 규범적 타당성을 확보하는 ‘사후적 사회영향평가’에 가까운 제도인 동시에, 인공지능 분야의 리스크 규제 수단으로서 중요한 의미를 지닌다. 따라서 사회적 영향평가 규정에 근거한 인공지능 서비스 영향평가는 위험 예방 차원에서 사전적으로 시행하는 각종 영향평가제도와 차이가 있고, 영향평가 체계의 제 요소를 구체화하는 과정에서 이러한 특유의 제도적 성격을 고려할 필요가 있다.
인공지능 서비스 영향평가 체계를 수립하는 첫 단추는 거버넌스를 구축하는 것이며, 영향평가의 주체(조직)와 절차가 곧 거버넌스의 골자를 이룬다. 국가 및 지방자치단체가 수행 주체로서 영향평가 실시 재량권을 갖는 것으로 규정되어 있지만, 여타 영향평가제도와 마찬가지로 실제 평가 대상과 범위를 결정하고 영향을 조사ㆍ평가하는 전문조직의 구성은 필수적이다. 또한 민간 사업자가 제공하는 인공지능 서비스를 대상으로 하는 경우에는 평가의 기초자료로서 사업자가 보유한 리스크 관리 정보를 활용하는 것이 평가의 정밀성과 타당성을 높일 수 있으므로, 사업자의 자체평가 결과를 정부의 영향평가에 활용하는 민관 협력의 거버넌스를 우선 고려할 필요가 있다. 나아가 현행 기술영향평가의 경우와 마찬가지로, 전문기관이 영향평가를 시행한 뒤 그 결과에 대하여 이해관계자나 일반 이용자의 의견을 수렴하는 ‘시민포럼’을 정식의 절차로 둔다면, 선순환의 리스크 관리 체계로서의 사회적 영향평가의 제도적 의의와 효용을 증진할 수 있을 것이다.
인공지능 서비스 영향평가의 지표는 인공지능의 위험도를 낮추고 신뢰도를 높이는 후속 조치와 직결된다. 따라서 영향평가의 성패는 결정적으로 평가지표에 달렸다고 해도 과언이 아니다. 법에 규정된 평가 항목에 비추어, 현행법상 사회적 영향평가의 주된 목표는 지능정보서비스의 안전성과 신뢰성을 확보하는 데 있으므로, 무엇보다 안전성과 신뢰성을 평가하기 위한 지표와 기법을 개발하는 연구가 선행되어야 한다. 평가 항목 전반의 비체계성 문제와 항목의 재구성에 관한 논의는 후속 과제로 남겨두고, 본고에서는 인공지능 서비스 영향평가의 핵심 항목으로 설정된 안전성과 신뢰성에 초점을 두고 세부 평가 항목과 지표를 예시함으로써 사회적 영향평가 방법론 연구의 초석을 마련하고자 하였다.
참고문헌 (Reference)
1 윤용희, "환경영향평가의 내용상 하자에 대한 사법심사의 방법" 한국법학원 (130) : 280-308, 2012
2 윤순진, "환경갈등의 예방·완화·해소를 위한 환경영향평가제도 개선방안: 시민참여적 사회영향평가의 제도화를 중심으로" 서울행정학회 15 (15): 283-312, 2004
3 이종호, "환경갈등과 사회경제영향평가" 30 (30): 29-52, 2014
4 권은정, "지능화 혁명 시대의 위험 통제 및 기술 수용을 위한 법체계 전환에 관한 연구" 정보통신정책연구원 2020
5 김태오, "제4차 산업혁명의 견인을 위한 규제패러다임 모색 : 한국의 규제패러다임을 중심으로" 법학연구소 10 (10): 140-168, 2017
6 양희태, "인공지능의 안전성 이슈와 정책 대응 방안" 한국통신학회 43 (43): 1724-1732, 2018
7 조원영, "인공지능 신뢰체계 정립방안 연구" 소프트웨어정책연구소 2022
8 윤혜선, "인공지능 규제 정책에 관한 연구: 주요국의 규제 정책 사례를 중심으로" 정보통신정책학회 26 (26): 135-176, 2019
9 정주철 ; 임재영, "사회영향평가의 원칙 및 지침에 관한 연구 -미국사례를 중심으로-" 한국환경영향평가학회 16 (16): 45-58, 2007
10 이명화, "기술영향평가의 실효성 제고를 위한제도 개선방안" 과학기술정책연구원 2015
1 윤용희, "환경영향평가의 내용상 하자에 대한 사법심사의 방법" 한국법학원 (130) : 280-308, 2012
2 윤순진, "환경갈등의 예방·완화·해소를 위한 환경영향평가제도 개선방안: 시민참여적 사회영향평가의 제도화를 중심으로" 서울행정학회 15 (15): 283-312, 2004
3 이종호, "환경갈등과 사회경제영향평가" 30 (30): 29-52, 2014
4 권은정, "지능화 혁명 시대의 위험 통제 및 기술 수용을 위한 법체계 전환에 관한 연구" 정보통신정책연구원 2020
5 김태오, "제4차 산업혁명의 견인을 위한 규제패러다임 모색 : 한국의 규제패러다임을 중심으로" 법학연구소 10 (10): 140-168, 2017
6 양희태, "인공지능의 안전성 이슈와 정책 대응 방안" 한국통신학회 43 (43): 1724-1732, 2018
7 조원영, "인공지능 신뢰체계 정립방안 연구" 소프트웨어정책연구소 2022
8 윤혜선, "인공지능 규제 정책에 관한 연구: 주요국의 규제 정책 사례를 중심으로" 정보통신정책학회 26 (26): 135-176, 2019
9 정주철 ; 임재영, "사회영향평가의 원칙 및 지침에 관한 연구 -미국사례를 중심으로-" 한국환경영향평가학회 16 (16): 45-58, 2007
10 이명화, "기술영향평가의 실효성 제고를 위한제도 개선방안" 과학기술정책연구원 2015
11 전동준, "국민참여형 환경평가 체계 구축 및 제도 개선 방안" 한국환경정책·평가연구원 2018
12 김유환, "과학기술규제의 특성과 규제거버넌스(Governance)의 재구성" 행정법이론실무학회 (47) : 239-267, 2016
13 NIST, "U.S. Leadership In Ai : A Plan For Federal Engagement In Developing Technical Standards And Related Tools Draft For Public Comment"
14 "The Senate (S. 3572) - Algorithmic Accountability Act of 2022"
15 The High-Level Expert Group on AI, "The Assessment List for Trustworthy Artificial intelligence (ALTAI)"
16 High-Level Expert Group on Artificial Intelligence, "The Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment"
17 Roig, Antoni, "Safeguards for the right not to be subject to a decision based solely on automated processing (Article 22 GDPR)" 8 (8): 2017
18 Scherer, Matthew U., "Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies" 29 (29): 353-, 2016
19 European Commission., "Proposal for a Regulation on a European approach for Artificial Intelligence, Brussels, 21 April 2021, COM(2021) 206 final, 2021/0106(COD)European Data Protection Supervisor, A Preliminary Opinion on data protection and scientific research"
20 Louis Meuleman, "Owl meets beehive: how impact assessment and governance relate" 33 (33): 4-15, 2015
21 Houben, S., "Inspect, understand, overcome:A survey of practical methods for ai safety"
22 조성은, "ICT 기반 사회현안 해결방안 연구" 정보통신정책연구원 2021
23 High-Level Expert Group on Artificial Intelligence, "Ethics guidelines for trustworthy AI"
24 Pokorni, S. J., "Current state of the application of artificial intelligence in reliability and maintenance" 69 (69): 578-593, 2021
25 Calvo, Rafael A., "Advancing impact assessment for intelligent systems" 2 : 89-91, 2020
26 Kroll, Joshua A., "Accountable Algorithms" 165 (165): 633-, 2017
27 Juric, M., "AI safety:state of the field through quantitative lens" IEEE 1254-1259, 2020
28 Hernández-Orallo, J., "AI paradigms and AI safety: mapping artefacts and techniques to safety issues"
29 Gabriella Ezeani, "A Survey of Artificial intelligence risk assessment methodologies – The global state of play and leading practices identified" 2021
30 US Congress, "A Bill to direct the Federal Trade Commission to require impact assessments of automated decision systems and augmented critical decision processes, and for other purposes (Algorithmic Accountability Act of 2022), H. R. 6580, introduced in the House 3 April 2022"
31 US Congress, "A Bill to direct the Federal Trade Commission to require entities that use, store, or share personal information to conduct automated decision system impact assessments and data protection impact assessments (Algorithmic Accountability Act of 2019), H. R.2231, introduced in the House 10 April 2019"
법률영역에서 GPT-4 활용 가능성과 시사점 - 법학적성시험(LEET) 중심으로 -
국가핵심기술 지정 해제 ⋅ 절차에서의 기술일몰제 도입방안
신약 승인 기간 단축을 위한 비용부담 법제도 연구 - 미국 「전문의약품 승인신청자 비용부담법」(PDUFA)을 중심으로 -