http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
An EOQ Approach to Purchase-Dependent Demands When Unmet Orders Are Canceled
Changkyu Park(박창규),Minji Sung(성민지) 한국경영과학회 2021 韓國經營科學會誌 Vol.46 No.1
We investigate the inventory models for purchase-dependent demands in the case in which customer orders are canceled if all items in the order are not delivered all at once. The exact objective function of an inventory model is quite difficult to derive when purchase dependence exists. Determining the optimal order quantity and reorder point is also a challenging task. Thus, we first analyze the properties of optimal solutions using an EOQ model to derive the condition of optimal solution. Then, we extend the condition to continuous review models. Through computer simulations, we demonstrate the usefulness of this study’s approach. In general, the inventory model, which considers the purchase dependence, reduces the loss of sales by holding more inventories through more frequent orders, thus eventually minimizing the total cost.
ChatGPT에서 캐릭터 유형이 허위 정보 용인에 미치는 영향
장순규 ( Jang Soonkyu ),박나은 ( Park Naeun ),성민지 ( Sung Minji ),이채은 ( Lee Chaeeun ),이희주 ( Lee Heeju ),정유진 ( Jeong Yujin ) 커뮤니케이션디자인학회 2024 커뮤니케이션 디자인학연구 Vol.87 No.-
ChatGPT는 허위 정보를 생성하기도 한다. 이러한 허위 정보는 사회에 문제를 일으킬 수 있을 것이다. 이에 본 연구는 사용자와 AI가 대화로 상호작용하는 서비스 중에서 캐릭터를 사용하는 챗봇 사례를 활용하여 개선하고자 했다. 현재 ChatGPT는 캐릭터를 사용하지 않고 있다. 이에 ChatGPT 서비스에 캐릭터가 활용되면, 허위정보 생성에 어느 정도 용인하고 재사용할 의사가 있는지를 확인하고자 했다. 이를 위해 인간과 동물, 사실적 표현과 왜곡된 표현인 데포르메 기반 표현을 구분하여 4가지 캐릭터 유형을 바탕으로 ChatGPT 기반 서비스의 프로토타입을 구성하였다. 실험은 매력, 용인, 재사용의도, 인지에 대한 5점 척도평가와 비구조식 주관식 답변으로 구성하였다. 실험 결과, 사용자는 ChatGPT에 캐릭터가 활용되는 경우에 있어, 사람의 데포르메 표현 방식에 대하여 가장 긍정적으로 평가했다. 이는 모든 실험 요인에서 동일하게 확인되었다. 인터뷰에서 피험자는 사실적 표현에 대한 부정적인 의견을 제시하였다. 이는 불쾌한 골짜기 이론과 유사한 의견이었다. 또한 사람 및 동물과 직접 대화하는 것 같이 느껴져서 캐릭터 활용이 긍정적이라 했다. 위 결과를 통해, ChatGPT에 사람의 데포르메 표현 캐릭터를 활용한 다면 허위정보에 대하여 어느 정도 인지하고, 수용할 수 있으며, 재차 사용할 의사를 가질 수 있다는 것을 확인했다. ChatGPT also generates false information. Such false information could cause problems in society. Therefore, this research attempted to improve by using the case of a chatbot that uses a character among services in which users and AI interact through conversation. Currently, ChatGPT does not use characters. Currently, ChatGPT does not use characters on the service. Accordingly, if a character is used on ChatGPT, this research tried to determine to what extent it is willing to tolerate and reuse false information. For this purpose, the prototype, which was concept design based on ChatGPT, was constructed with 4 character types that were dividing humans and animals, factual expressions, and distorted expressions, déformer expressions. The experiment consisted of a 5-point scale evaluation of attractiveness, tolerance, reuse intention, and cognition, and non-structural interview. As a result of the experiment, subjects evaluated character A case(human + déformer) most positively on the prototype based-ChatGPT. This was confirmed equally in all experimental factors. In the interview, the subject presented a negative opinion on the realistic expression. This was an opinion similar to the unpleasant valley theory. In addition, the use of the character was positive because it felt like talking directly to people and animals. As above, this research confirmed that if déformer expression of human will be used in ChatGPT, users may be aware and accept about false information. And, although ChatGPT generates false information, user will intend use of ChatGPT again.
ChatGPT 의 허위 정보 전달 상황에서 캐릭터가 사용자 경험에 미치는 영향
이희주(Heeju Lee),박나은(Naeun Park),성민지(Minji Sung),이채은(Chaeeun Lee),정유진(Yujin Jeong),장순규(Soonkyu Jang) 한국HCI학회 2024 한국HCI학회 학술대회 Vol.2024 No.1
인간처럼 대화하고 답변하는 생성형 AI ChatGPT는 반드시 정답을 말하는 것은 아니다. 즉, 잘못된 정보가 학습되어 AI 가 사용자에게 허위정보를 전달하는 상황이 다수 발생하며, 이에 대한 경계가 필요할 것이다. 이에 AI가 특정한 캐릭터를 가질 경우, AI 가 의인화 되어 허위 정보를 전달할 것이라는 인지에 영향을 미치는지 확인하고자 한다. 실험은 인간, 동물의 형태/실사와 데포르메 표현으로 구분된 4 가지 유형으로 진행한다. 실험 결과, 인간-데포르메 스타일의 캐릭터가 ChatGPT 와 사용자 대화에서 활용된다면, 허위 정보를 제기할 수도 있을 것이란 인지와 용인에 도움이 되는 것을 확인했다.