RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      생성형 AI 시대의 개인정보보호 규제 연구 — 미디어ㆍ저널리즘 분야의 주요 법적 쟁점을 중심으로 — = A Study on Personal Data Protection Regulation in the Era of Generative AI — Focusing on key legal issues for Media and Journalism —

      한글로보기

      https://www.riss.kr/link?id=A109686531

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      AI 기술의 급속한 발전은 기존 법 체계에 새로운 도전을 제기하고 있다. 특히, 미디어・저널리즘 환경에서도 생성형 AI의 활용이 증가함에 따라 표현의 자유를 보장하면서도 개인정보 보호와 명예훼손 방지를 담보할 수 있는 균형 잡힌 규제 방안에 대한 필요성이 제기되고 있다. 이에 본고에서는 해외 규제 사례 등을 바탕으로 주요 법적 쟁점을 제시하고, 대응 방안을 모색하고자 한다.
      AI가 생성한 콘텐츠로 인한 명예훼손이나 사생활 침해에 대한 책임 소재 불분명, 의사결정 과정의 불투명성, 알고리즘 편향성에 의한 차별 등이 주요 문제로 부상하고 있다. 특히 AI의 자기학습 능력으로 인한 예견가능성 판단의 어려움과 개발 및 운영 과정에서 여러 주체의 관여로 인한 책임 소재 불명확성은 전통적 법 적용에 한계를 가져오고 있다.
      본 연구는 EU 인공지능법(AI Act)의 위험 기반 접근법, 미국의 표현의 자유 중심 규제, 중국과 일본의 사례 등 국제적 규제 동향을 분석하고, 생성형 AI의 미디어・저널리즘 환경에서의 특수성을 고려한 실효성 있는 법적 대응방안을 다음과 같이 제시한다.
      첫째, 미디어・저널리즘 분야 AI 특화 법적 규제 방안으로, AI 생성 콘텐츠에 대한 책임 소재를 명확히 하고 투명성 의무를 법제화하여 미디어 소비자가 정보의 출처와 생성 방식을 인지할 수 있도록 해야 한다. 둘째, 위험형법 이론과 언론윤리 원칙의 결합을 통해 AI 기술이 초래할 수 있는 잠재적 위험을 관리하면서도 언론의 자유를 과도하게 제한하지 않는 균형점을 찾아야 한다. 셋째, 회복적 사법 접근법과 언론 피해 구제 제도의 통합을 통해 AI 관련 개인정보 침해 사고의 특성을 고려한 효과적인 피해 회복 및 재발 방지 메커니즘을 구축해야 한다. 넷째, AI 콘텐츠 검증 시스템과 알고리즘 감사제도와 같은 기술적 해법을 도입하여 명예훼손이나 사생활 침해를 사전적으로 방지하고 책임 소재를 명확히 해야 한다. 마지막으로, 법적 규제와 업계 차원의 자율규제의 조화를 통해 표현의 자유를 최대한 보장하면서도 개인정보를 보호할 수 있는 책임 있는 AI 활용이 이루어질 수 있는 환경을 조성해야 한다.
      번역하기

      AI 기술의 급속한 발전은 기존 법 체계에 새로운 도전을 제기하고 있다. 특히, 미디어・저널리즘 환경에서도 생성형 AI의 활용이 증가함에 따라 표현의 자유를 보장하면서도 개인정보 보호와...

      AI 기술의 급속한 발전은 기존 법 체계에 새로운 도전을 제기하고 있다. 특히, 미디어・저널리즘 환경에서도 생성형 AI의 활용이 증가함에 따라 표현의 자유를 보장하면서도 개인정보 보호와 명예훼손 방지를 담보할 수 있는 균형 잡힌 규제 방안에 대한 필요성이 제기되고 있다. 이에 본고에서는 해외 규제 사례 등을 바탕으로 주요 법적 쟁점을 제시하고, 대응 방안을 모색하고자 한다.
      AI가 생성한 콘텐츠로 인한 명예훼손이나 사생활 침해에 대한 책임 소재 불분명, 의사결정 과정의 불투명성, 알고리즘 편향성에 의한 차별 등이 주요 문제로 부상하고 있다. 특히 AI의 자기학습 능력으로 인한 예견가능성 판단의 어려움과 개발 및 운영 과정에서 여러 주체의 관여로 인한 책임 소재 불명확성은 전통적 법 적용에 한계를 가져오고 있다.
      본 연구는 EU 인공지능법(AI Act)의 위험 기반 접근법, 미국의 표현의 자유 중심 규제, 중국과 일본의 사례 등 국제적 규제 동향을 분석하고, 생성형 AI의 미디어・저널리즘 환경에서의 특수성을 고려한 실효성 있는 법적 대응방안을 다음과 같이 제시한다.
      첫째, 미디어・저널리즘 분야 AI 특화 법적 규제 방안으로, AI 생성 콘텐츠에 대한 책임 소재를 명확히 하고 투명성 의무를 법제화하여 미디어 소비자가 정보의 출처와 생성 방식을 인지할 수 있도록 해야 한다. 둘째, 위험형법 이론과 언론윤리 원칙의 결합을 통해 AI 기술이 초래할 수 있는 잠재적 위험을 관리하면서도 언론의 자유를 과도하게 제한하지 않는 균형점을 찾아야 한다. 셋째, 회복적 사법 접근법과 언론 피해 구제 제도의 통합을 통해 AI 관련 개인정보 침해 사고의 특성을 고려한 효과적인 피해 회복 및 재발 방지 메커니즘을 구축해야 한다. 넷째, AI 콘텐츠 검증 시스템과 알고리즘 감사제도와 같은 기술적 해법을 도입하여 명예훼손이나 사생활 침해를 사전적으로 방지하고 책임 소재를 명확히 해야 한다. 마지막으로, 법적 규제와 업계 차원의 자율규제의 조화를 통해 표현의 자유를 최대한 보장하면서도 개인정보를 보호할 수 있는 책임 있는 AI 활용이 이루어질 수 있는 환경을 조성해야 한다.

      더보기

      다국어 초록 (Multilingual Abstract)

      The rapid advancement of AI technology is posing new challenges to existing legal frameworks. Particularly, as the use of generative AI increases in media and journalism environments, there is a growing need for balanced regulatory measures that can guarantee freedom of expression while ensuring privacy protection and prevention of defamation. This paper aims to present key issues and explore countermeasures based on overseas regulatory cases.
      Major issues emerging include unclear responsibility for defamation or privacy infringement caused by AI-generated content, opacity in decision-making processes, and discrimination due to algorithmic bias. In particular, the difficulty in determining predictability due to AI's self-learning capabilities and the ambiguity of responsibility due to the involvement of multiple entities in development and operation are bringing limitations to the application of traditional law.
      This study analyzes international regulatory trends such as the EU's AI Act with its risk-based approach, the US's regulation centered on freedom of expression, and cases from China and Japan. It proposes effective legal countermeasures considering the specificity of generative AI in media and journalism environments as follows: First, as an AI-specialized legal regulation for the media and journalism field, the source of responsibility for AI-generated content should be clarified, and transparency obligations should be legislated to allow media consumers to recognize the source and generation method of information. Second, a balance point that manages potential risks that AI technology may bring while not excessively restricting press freedom should be found through the combination of risk criminal law theory and press ethics principles. Third, an effective damage recovery and recurrence prevention mechanism considering the characteristics of AI-related crimes should be established through the integration of restorative justice approaches and press damage remedy systems. Fourth, technical solutions such as AI content verification systems and algorithm audit systems should be introduced to prevent defamation or privacy infringement in advance and clarify responsibility. Finally, an environment where responsible AI utilization can take place while guaranteeing freedom of expression to the maximum extent should be created through the harmony of legal regulations and industry-level self-regulation.
      As a balanced approach that can simultaneously protect freedom of expression and individual rights is needed in the press and media environment of the AI era, it is important to continuously monitor the development trend of AI technology and flexibly develop a legal system in response.
      번역하기

      The rapid advancement of AI technology is posing new challenges to existing legal frameworks. Particularly, as the use of generative AI increases in media and journalism environments, there is a growing need for balanced regulatory measures that can g...

      The rapid advancement of AI technology is posing new challenges to existing legal frameworks. Particularly, as the use of generative AI increases in media and journalism environments, there is a growing need for balanced regulatory measures that can guarantee freedom of expression while ensuring privacy protection and prevention of defamation. This paper aims to present key issues and explore countermeasures based on overseas regulatory cases.
      Major issues emerging include unclear responsibility for defamation or privacy infringement caused by AI-generated content, opacity in decision-making processes, and discrimination due to algorithmic bias. In particular, the difficulty in determining predictability due to AI's self-learning capabilities and the ambiguity of responsibility due to the involvement of multiple entities in development and operation are bringing limitations to the application of traditional law.
      This study analyzes international regulatory trends such as the EU's AI Act with its risk-based approach, the US's regulation centered on freedom of expression, and cases from China and Japan. It proposes effective legal countermeasures considering the specificity of generative AI in media and journalism environments as follows: First, as an AI-specialized legal regulation for the media and journalism field, the source of responsibility for AI-generated content should be clarified, and transparency obligations should be legislated to allow media consumers to recognize the source and generation method of information. Second, a balance point that manages potential risks that AI technology may bring while not excessively restricting press freedom should be found through the combination of risk criminal law theory and press ethics principles. Third, an effective damage recovery and recurrence prevention mechanism considering the characteristics of AI-related crimes should be established through the integration of restorative justice approaches and press damage remedy systems. Fourth, technical solutions such as AI content verification systems and algorithm audit systems should be introduced to prevent defamation or privacy infringement in advance and clarify responsibility. Finally, an environment where responsible AI utilization can take place while guaranteeing freedom of expression to the maximum extent should be created through the harmony of legal regulations and industry-level self-regulation.
      As a balanced approach that can simultaneously protect freedom of expression and individual rights is needed in the press and media environment of the AI era, it is important to continuously monitor the development trend of AI technology and flexibly develop a legal system in response.

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼