RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        대형언어모형은 이해를 가지는가?

        천현득 서울대학교 철학사상연구소 2023 철학사상 Vol.90 No.-

        This article examines whether (and in what sense) large language models understand. Impressed by the rapid development of generative artificial intelligence (AI) technologies, there is a growing concern about their potential risks. It is significant to ask whether the AI models understand because it is closely tied to how to prioritize issues. We begin with a brief overview of how the Transformer architecture, which is the basic structure of many language models, works. It is claimed that understanding is divided into distinctively linguistic and cognitive understanding, and that cognitive understanding is further divided into epistemic and semantic understanding. Building on these distinctions, we show that large language models can have linguistic understanding but fall short in cognitive understanding. In particular, we critically examine the claim by Coelo Molo and Milliere (2023) that ChatGPT can have semantic understanding, which is based on teleosemantics.

      • KCI등재
      • KCI등재

        인공 반려의 유혹: 인공물과의 교감을 생각한다

        천현득 한국과학철학회 2019 과학철학 Vol.22 No.2

        In this article, the concept and potential risk of artificial companionship are discussed. This discussion is timely because artificial intelligence robots are expected to enter into people's everyday spaces as partners of social and emotional interactions. After briefly surveying the background of the development of social robots, we examine the conditions on which an object can make a companion relationship with us. In order to establish such a relationship, the condition of empathy turns out to be the most important. In this article, I distinguish empathy and sympathy from mind-reading in the cognitive sense and reveal that social robots in the near future are hard to achieve a genuine sense of empathy. Finally, we identify the nature of the companion-substitute and address some ethical and social issues concerning its replacement with human companions. 인공지능 로봇이 사회적, 정서적 상호작용의 대상으로서 사람들의 일상적 공간 안으로 들어올 것으로 예상되는 상황에서, 이 글은 우리가 똑똑한 인공물과 어떤 식으로 교감할 수 있는지 다루고자 한다. 특히, 인공 반려의 가능성과 잠재적 문제에 초점을 맞춘다. 인공 반려를 개발하는 배경을 간략히 살펴본 후, 어떠한 조건들이 만족되는 경우 어떤 대상이 우리와 반려의 관계를 맺을 수 있는지 점검해본다. 반려 관계를 맺기 위해서는 정서적 교감 능력이 필요함이 드러난다. 이 글에서 나는 교감의 형태를, 마음 읽기, 감정적 전염, 동정, 공감으로 구분하고, 진정한 공감 능력은 인공지능이 가까운 미래에 획득하기 어렵다고 주장한다. 마지막으로, 공감 능력이 없지만 사람들이 공감하는 존재로 대우하는 반려대체물의 성격을 규명하고, 그것이 가져올 몇 가지 윤리적, 사회적 문제에 관해 언급한다.

      • KCI등재

        시공간의 본성에 대하여 ― 구멍 논변을 중심으로 ―

        천현득 한국과학철학회 2010 과학철학 Vol.13 No.2

        There has been a controversy concerning the nature of spacetime between substantivalists and relationalists. Recently, Norton and Earman, as relationalists, have presented the Hole argument which demonstrates that manifold substantivalism generates a radical sort of indeterminism. The primary purpose of this paper is to reformulate the structure and the contents of the argument, and to show the geography of the controversy centered on the Hole argument in a succinct way. I try to analyze the assumptions of the argument to reveal which points are at issue. In the course of it, I also examine some of substantival alternatives. Finally, I show that the Hole argument does not conclusively refute substantivalism but impose a considerable burden to those who want to defend substantivalism. 시공간의 본성에 대해 실체론과 관계론은 오랫동안 대립해왔다. 노튼(Norton)과 어만(Earman)이 제시한 “구멍 논변”은 시공간 실체론이 급진적 비결정론으로 귀결되는 딜레마에 빠진다고 주장함으로써, 관계론의 손을 들어주었다. 이 글의 일차적 목표는 그들이 제시한 구멍 논변의 구조를 일목요연한 형태로 보여주는 데 있다. 구멍 논변은 세 종류의 전제들로 구성된다. 하나는 시공이론에 대한 전제들이고, 둘째는 실체론에 대한 전제들이며, 세 번째는 결정론에 대한 전제들이다. 나는 각 전제들을 분석함으로써 주된 쟁점이 무엇인지를 드러내고, 가능한 실체론적 대안들을 검토한다. 그런 과정을 통해 나는 구멍 논변이 실체론을 결정적으로 논박하지는 못했으나 실체론을 옹호하기 위해서는 치러야할 대가가 적지 않음을 보인다.

      • KCI등재

        "킬러 로봇"을 넘어: 자율적 군사로봇의 윤리적 문제들

        천현득 이화여자대학교 이화인문과학원 2019 탈경계인문학 Vol.12 No.1

        KAIST Boycott Affair has made us take the ethics related to military robots seriously. No one would deny that ‘killer robots’ should be banned. However, it is not crystal clear what the slogan “stop killer robots” implies for the development of autonomous weapon systems and their uses in warfare. Just as all soldiers are not merely killers, so are robots on the battlefield. Many ethical discussion on ‘killer robots’ hangs on the definition of wrongful killings in warfare since there might be ethically permissible acts of killing. In this article, I begin with an attempt to classify various kinds of military robots. Then, I diagnose the core ethical problems of using military robots by adopting just war theory. It is claimed that the operation of military robots can be justified only when it meets the principle of discrimination and the principle of proportionality. Finally, I argue that a new negotiation is needed on how to distribute the responsibilities to relevant groups before the uses of autonomous weapons. 카이스트 보이콧 사태는 군사 로봇의 윤리적 문제가 인문학이 다루어야할 매우 긴급한 문제임을 보여주었다. “킬러 로봇”을 금지해야한다는 주장에반대하는 사람은 없겠지만, 그러한 금지 주장이 자율적 무기체계의 개발과사용에 대해 구체적으로 어떤 제약을 가하는지는 분명치 않다. 전쟁터의모든 군인이 살인자가 아니듯, 모든 군사 로봇을 살인자 로봇으로 규정하기는 어렵다. 이 논문은 먼저 카이스트 보이콧 사태를 소개한다. 모든 군사로봇이 똑같은 의미의 킬러가 아님을 보이기 위해 다양한 종류의 군사로봇들을 분류한 후, 정당한 전쟁 이론을 통해 군사 로봇의 사용이 가질수 있는 잠재적인 윤리적 문제들이 무엇인지 해명한다. 특히, 군사 로봇이전쟁에서 사용하기 위해서는 식별의 원리와 비례성의 원리를 따르는 것이중요하며, 현 단계에서 그러한 원리들을 충실히 만족하도록 로봇을 제작하기는 쉽지 않음을 밝힌다. 끝으로, 군사 로봇의 잘못된 수행에 관한 책임문제를 다루면서, 관련된 집단들이 자율적 무기체계의 사용과 관련하여책임을 어떻게 분배할 것인가를 놓고 새로운 협상이 필요함을 주장한다.

      • KCI등재

        포스트휴먼 시대의 인간 본성

        천현득 한국철학회 2016 철학 Vol.0 No.126

        The arguments for or against human enhancement assume their own understandings of human nature. However, there are two major challenges to such arguments: (1) whether there is a scientifically respectable conception of human nature, (2) whether such a conception provides a normative guidance in debates over human enhancement. In this paper, it is claimed that there are the conceptions of human nature that are compatible with what we know about human species, and such conceptions can play a role in normative discourse. 인간 향상에 찬성하거나 반대하는 여러 논의들은 인간 본성에 관한나름의 이해를 전제로 한다. 그러나 인간 본성의 개념과 그 쓸모에 관해 심각한도전이 존재한다. 첫째, 인간에 관해 경험적으로 알려진 사실들과 조화될 수 있는 인간 본성이란 존재하지 않는다는 생각이 팽배하다. 둘째, 그런 인간 본성의개념이 있다고 하더라도, 인간 향상을 둘러싼 윤리적 논쟁에서 아무런 역할을하지 않는다는 반론이 존재한다. 본 논문은 인간과학과 양립가능한 인간 본성의 개념이 가능하며, 그것이 규범적 논의에서 일정한 역할을 수행한다고 주장한다. 이를 위해, 인간 본성에 관한 전통적 입장과 현대적인 대안들을 검토하고, 여러 대안들 사이의 공통점을 발굴하여 그 개념이 규범적 논의에서 어떻게 기능하는지 살펴본다.

      • KCI등재

        인공 지능에서 인공 감정으로‒감정을 가진 기계는 실현가능한가?‒

        천현득 한국철학회 2017 철학 Vol.0 No.131

        As artificial intelligence outperforms humans in some cognitive tasks which have been regarded as properly belonging to the human being, there is growing anxiety that people experience. Now, many people attempt to place the uniqueness of the humans in emotion rather than reason or intelligence. Since artificial emotions and emotional robots are emerging as new topics in artificial intelligence and robotics, however, philosophical treatment of them is required. I begin with discussing what has motivated to develop emotional robots and why emotions matter in robotics. After reviewing the current status of emotional robots, I examine whether the emotion-possessing robots are possible. The possibility of artificial emotions depends on what emotions really are. Instead of stipulating the definition of emotions, I suggest criteria on which we can assign emotions to other people, animal, or alien objects including artificial agents by considering the key roles played by emotions in intelligent beings. On these criteria, I argue, it is unlikely for genuinely emotional robots to be realized in the near future. Still, even if emotional robots would not appear shortly, unidirectional emotional bonds with social robots equipped with some degree of autonomy are potentially detrimental, which ought to be seriously considered in an ethical discussion of robots. 인공 감정에 관한 철학적 탐구가 필요한 시점이다. 인간의 고유한 영역으로 간주되던 인지적 과제에서 기계의 추월을 염려하는 처지가 되자, 사람들은 이제 이성이 아니라 감정에서 인간의 고유성을 찾으려한다. 하지만 최근인공지능 로봇에 감성을 불어넣는 작업이 새로운 화두로 떠오르고 있다. 이 글은 인공 감정의 실현가능성과 잠재적인 위험을 논의한다. 먼저, 감성 로봇의 개발 현황과 주요한 동기들을 개괄하고, 왜 로봇의 감정이 문제가 되는지 살펴본다. 진정한 감정-소유 로봇이 가능한지 검토하기 위해 감정을 선험적으로 정의하기보다는 감정이 수행하는 몇 가지 핵심 역할을 소개하고 이로부터 어떤 대상에 감정을 부여할 수 있는 기준들을 제안한다. 나는 이런 기준에 비추어 진정한 감정 로봇이 근미래에 실현될 가능성이 낮다고 주장한다. 그러나 감정-소유로봇이 등장하기 이전이라도, 어느 정도의 자율성을 가진 로봇과 맺는 일방적감정 소통은 잠재적으로 위험할 수 있으며, 이에 대비하는 것이 시급하다고 주장한다.

      • KCI등재

        분산된 인지와 비확장적 마음

        천현득 한국과학철학회 2011 과학철학 Vol.14 No.2

        본 논문은 “분산된 마음 없는 분산된 인지”라는 기어리(R. Giere)의 입장을 비판하며 “마음의 분산 없이는 인지의 분산도 없다”고 주장하는 이영의(2008)의 논문을 비판적으로 검토한다. 먼저, 인지체계의 경계 문제를 다루기 위한 기어리(Giere, 2002)의 기준과 클락과 차머스의 기준(Clark and Chalmers, 1998)을 비교함으로써 기어리의 입장을 보다 분명히 한다. 둘째, 기어리에 가해진 세 가지 비판이 “분산된 마음 없는 분산된 인지”를 논박하지 못함을 보인다. 셋째, 동일한 것으로 전제되고 있는 분산된 인지와 확장된 인지가 구별될 필요가 있음을 보인다. 넷째, 기어리와 반대자 모두가 공유하고 있는 전제 - 인식적 행위능력에 대한 통합적 관점 -를 드러내, 마음이냐 인지냐의 논의를 더 세밀한 차원의 논의로 발전시켜야 한다고 주장한다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼