http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
소아 장중첩증에서 증상 지속 시간에 따른 단순 복부 사진의 변화
전형석,최영철,최승호,Jun, Hyung-Seok,Choi, Young-Cheol,Choi, Seung-Ho 대한소아외과학회 2009 소아외과 Vol.15 No.2
The purpose of this study was to determine the success rate of air reduction as the primary treatment of intussusception and whether the success of air reduction could be predicted by plain x-ray. The authors reviewed the medical records of 54 consecutive patients diagnosed with intussusception from Jan 2005 to Dec 2007 at the Department of Surgery, Masan Samsung Hospital. The natures of symptoms and findings of plain abdominal radiography performed in the emergency department (ED) were reviewed. Air reduction failed more frequently (26.3 %) in patients who visited ED more than 24 hours after symptom onset (p=0.009). The mean duration of symptom for operated patients was longer than air reduction group (p=0.01). Also, 3/4 of patients having localized distension of small bowel in the left upper quadrant abdomen had unsuccessful air reduction (p=0.002). In conclusion, the time interval from symptom onset to arrival at ED and localized distension of small bowel in the left upper quadrant abdomen significantly increased the failure rate of air reduction.
Hi, KIA! 기계 학습을 이용한 기동어 기반 감성 분류
김태수 ( Taesu Kim ),김영우 ( Yeongwoo Kim ),김근형 ( Keunhyeong Kim ),김철민 ( Chul Min Kim ),전형석 ( Hyung Seok Jun ),석현정 ( Hyeon-jeong Suk ) 한국감성과학회 2021 감성과학 Vol.24 No.1
본 연구에서는 승용차에서 사람들이 기기를 사용하기 위해 사용하는 기동어인 “Hi, KIA!”의 감성을 기계학습을 기반으로 분류가 가능한가에 대해 탐색하였다. 감성 분류를 위해 신남, 화남, 절망, 보통 총 4가지 감정별로 3가지 시나리오를 작성하여, 자동차 운전 상황에서 발생할 수 있는 12가지의 사용자 감정 시나리오를 제작하였다. 시각화 자료를 기반으로 총 9명의 대학생을 대상으로 녹음을 진행하였다. 수집된 녹음 파일의 전체 문장에서 기동어 부분만 별도로 추출하는 과정을 거쳐, 전체 문장 파일, 기동어 파일 총 두 개의 데이터 세트로 정리되었다. 음성 분석에서는 음향 특성을 추출하고 추출된 데이터를 svmRadial 방법을 이용하여 기계 학습 기반의 알고리즘을 제작해, 제작된 알고리즘의 감정 예측 정확성 및 가능성을 파악하였다. 9명의 참여자와 4개의 감정 카테고리를 통틀어 기동어의 정확성(60.19%: 22~81%)과 전체 문장의 정확성(41.51%)을 비교했다. 또한, 참여자 개별로 정확도와 민감도를 확인하였을 때, 성능을 보임을 확인하였으며, 각 사용자 별 기계 학습을 위해 선정된 피쳐들이 유사함을 확인하였다. 본 연구는 기동어만으로도 사용자의 감정 추출과 보이스 인터페이스 개발 시 기동어 감정 파악 기술이 잠재적으로 적용 가능한데 대한 실험적 증거를 제공할 수 있을 것으로 기대한다. This study explored users’ emotional states identified from the wake-up words ―“Hi, KIA!”―using a machine learning algorithm considering the user interface of passenger cars’ voice. We targeted four emotional states, namely, excited, angry, desperate, and neutral, and created a total of 12 emotional scenarios in the context of car driving. Nine college students participated and recorded sentences as guided in the visualized scenario. The wake-up words were extracted from whole sentences, resulting in two data sets. We used the soundgen package and svmRadial method of caret package in open source-based R code to collect acoustic features of the recorded voices and performed machine learning-based analysis to determine the predictability of the modeled algorithm. We compared the accuracy of wake-up words (60.19%: 22%~81%) with that of whole sentences (41.51%) for all nine participants in relation to the four emotional categories. Accuracy and sensitivity performance of individual differences were noticeable, while the selected features were relatively constant. This study provides empirical evidence regarding the potential application of the wake-up words in the practice of emotion-driven user experience in communication between users and the artificial intelligence system.