
http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
디지털 포렌식을 위한 시나리오 기반의 파일 카빙 검증 연구
김해니 연세대학교 정보대학원 2020 국내석사
File Carving is a file recovery technique that is used when a storage medium is formatted and file system metadata is missing or corrupted. This is a way to reassemble deleted files by finding the file's unique Header·Footer signature or data structure. However, with the diversification of storage media and the high level of file fragmentation, the challenges to recover files from digital forensics have been increasing. Various tools have been developed to address this challenge, and data sets have been provided from various studies to verify them, but there are still practical limitations. This research develops 16 new scenario-based carving verification images that can solve the problems of existing file carving data sets and validates and compares commercial file digital forensic tools Foremost, Scalpel, Autopsy, and WinHex. Then, the file carving technique and working procedure are presented. The tool's verification results in low overall carving rates and accuracy, and the tool's performance in the same environment is very different. In reality, in order to efficiently recover deleted files quickly, file carving procedures and methods according to storage media and environment are required. In order to reduce the time required for recovery by performing this process, we present a procedure for file carving after storage media collection and six different carving techniques. 파일 카빙 (File Carving)은 저장매체가 포맷되어 파일시스템 메타데이터가 없거나 손상된 경우에 활용되는 파일 복구 기법으로 파일의 고유한 헤더 (Header) · 푸터 (Footer) 시그니처 혹은 데이터 구조를 찾아 파일의 조각을 재조립하는 방법이다. 그러나 점차 저장매체가 다양해지고 파일 단편화가 고도화되면서 디지털 포렌식에서 파일을 복구하는데 있어 해결해야 할 난제가 산적해져 왔다. 이를 해결하기 위해 다양한 도구가 개발되고 이를 검증하기 위하여 다양한 연구로부터 데이터 셋이 제공되고 있으나 여전히 현실적인 한계가 존재한다. 본 연구에서는 기존의 파일 카빙 데이터 세트의 문제점을 해결할 수 있는 새로운 시나리오 기반의 16가지 카빙 검증 이미지를 개발하여 상용 파일 디지털 포렌식 도구인 Foremost, Scalpel, Autopsy, WinHex를 검증∙비교하고, 파일 카빙 기법 및 작업 절차에 대해 제시한다. 도구의 검증 결과로는 카빙률과 정확도가 전반적으로 낮은 결과를 나타내며 동일한 환경에서 도구들의 성능은 매우 다르다. 현실적으로 빠른 시간 내 삭제된 파일을 효율적으로 복구하기 위해서는 저장매체와 환경에 따른 파일 카빙 절차와 방법이 필요하며 이 과정을 수행함으로써 복구에 소모되는 시간을 감소할 수 있도록 저장매체 수집 이후 파일 카빙에 대한 절차와 여섯 가지 카빙 기법을 제시한다.
Towards a high-performance transaction supporting file system
Park, Daejun Sungkyunkwan university 2020 국내박사
For data durability, many applications rely on synchronous operations such as an fsync() system call. However, latency-sensitive synchronous operations can be delayed under the compound transaction scheme of the current journaling technique. Because a compound transaction includes irrelevant data and metadata, as well as the data and metadata of fsynced file, the latency of an fsync call can be unexpectedly long. In this paper, we first analyze various factors that may delay an fsync operation, and propose a novel hybrid journaling technique, called ijournaling, which journals only the corresponding file-level transaction for an fsync call, while recording a normal journal transaction during periodic journaling. The file-level transaction journal has only the related metadata updates of the fsynced file. By removing several factors detrimental to fsync latency, the proposed technique can reduce the fsync latency, mitigate the interference between fsync-intensive threads, and provide high manycore scalability. Experiments using a smartphone and a desktop computer showed significant improvements in fsync latency through the use of ijournaling. On the other hands, User applications that require transactional file access generally employ user-level transactional protocols, such as logging, and atomic rename, etc., as the POSIX interface does not support transactional file operations. However, the user-level protocols result in complex protocols and require specific persistence properties of file systems for correctness. If the kernel provides transactional access to file data, application developers can avoid the complex and error-prone application-level protocols. Although there are many previous studies on kernel-level transactional support, they suffer several critical limitations, such as complex APIs, file system-dependence, and low transaction concurrency. In this study, considering the limitations of the previous schemes, we propose a kernel-level write-ahead logging (WAL) technique, called KWAL. KWAL maintains user-transparent WAL files and redirects the transactional IOs to these files. As KWAL is implemented as a stackable file system, it can be mounted over any native file systems without modifying these systems. KWAL provides simple APIs such as tx_start() and tx_commit(), with which the application developers can easily implement transactional applications. To provide a higher transaction concurrency while guaranteeing isolation, KWAL supports byte-level write conflict detection and repeatable read isolation. We also propose a novel block remap technique to resolve the duplicate write problem of the WAL-based transaction scheme. To demonstrate the effectiveness of KWAL, we implement a simple key-value store using KWAL APIs, resolve the wrong transaction implementation of the Git application, and simplify the implementation of storage engines of MySQL and SQLite.
Redesigning I/O Stack for Emerging Storage Technology
이창규 서강대학교 일반대학원 2025 국내박사
Storage technology has evolved to provide higher bandwidth, lower latency, and larger capacity. These advancements are often scale-ups of storage devices for better performance, like NVMe SSDs, which continue to catch up with the latest PCIe bandwidth. The cutting-edge performance has made NVMe SSDs crucial in high-performance systems like cloud data centers, HPC, and AI supercomputers. Advancements in storage technology are not limited to achieving higher bandwidth. Ongoing demands to eliminate I/O overhead have led to drastic changes in the interface and role of storage devices, bringing forth new storage technologies like Computational Storage and Zoned Storage. From a software standpoint, the I/O stack also needs to evolve to fully utilize the performance of underlying devices as new technology reveals software bottlenecks or necessitates redesigning the I/O stack. This dissertation presents redesigns of I/O stacks in response to the advancements in storage devices, specifically for high-performance NVMe SSDs, Computational Storage, and Zoned Storage devices. We begin with I/O stack remedies for NVMe SSDs. The low latency of high-performance NVMe SSDs has revealed bottlenecks in file systems that were previously hidden by low I/O performance. This degrades parallel I/O performance, particularly in shared file write cases, and prevents full utilization of the available bandwidth of the SSD. We identified that the lack of parallelism in accessing a shared file and the file metadata for block mapping are two primary bottlenecks in the file system. To resolve these issues, we employed a range lock for allowing I/Os on disjoint regions of shared files and sub-tree locking in file metadata for parallel updates of metadata. Meanwhile, Computational Storage aims to improve I/O bandwidth efficiency by retrieving only the required data through offloading IO-intensive tasks, such as filtering, to a Computational Storage Device (CSD). However, the data items need to be accessible within the CSD; otherwise, extra communications and I/O facilities are required. To address this, we propose an LSM-tree-based Key-Value SSD. Since it stores key-value pairs rather than blocks, the input and output data can be easily manipulated within the CSD. However, specialized hardware like CSD limits compatibility and necessitates a customized I/O stack. To enable Computational Storage with off-the-shelf hardware, we propose an SPDK-based Computational Storage design using eBPF as runtime. Thus, Computational Storage can be built with widely used technologies and can be gradually adopted into the existing storage system. Unlike Computational Storage, Zoned Storage offers better compatibility since it uses a block interface. However, it segments the space into zones with a sequential write constraint within a zone. It also delegates garbage collection to the host to remove latency spikes. This necessitates that the file system design conforms to zone semantics. To this end, we propose the Collective Log-structured File System (CLFS). CLFS employs per-zone logs and handles all data, including file system metadata, as log entries. CLFS assigns log entries to zones in a manner that groups related entries, such as inodes and their file data, into the same zone. This prevents log entries, which are likely to be invalidated together, from being scattered across zones, thus mitigating recursive garbage collections. 스토리지 기술은 더 높은 대역폭, 더 낮은 지연 시간, 그리고 더 큰 용량을 제공하기 위해 꾸준히 발전해왔다. 이러한 발전은 주로 NVMe SSD와 같이 최신 PCIe 대역폭에 맞춰 스토리지 장치의 성능을 확장하는 형태로 나타나며, 이를 통해 I/O 성능를 극대화한다. 이와 같은 고성능 NVMe SSD의 등장은 이를 클라우드 데이터센터, HPC, AI 슈퍼컴퓨터 등 고성능 시스템에서 필수적인 요소로 자리매김하게 만들었다. 스토리지 기술의 발전은 단순히 더 높은 대역폭을 달성하는 것에만 국한되지 않는다. I/O 오버헤드를 최소화하고자 하는 요구가 커짐에 따라 스토리지 장치의 인터페이스와 역할도 크게 변화하고 있으며, 그 결과 Computational Storage, Zoned Storage와 같은 새로운 스토리지 기술이 등장하고 있다. 그러나 새롭게 부상하는 하드웨어 기술은 이전에는 드러나지 않았던 소프트웨어 병목 현상을 드러내거나 I/O 스택의 재설계 초래하기 때문에, 하드웨어 발전에 발맞춘 소프트웨어 관점에서의 I/O 스택의 연구가 필수적이다. 본 논문은 고성능 NVMe SSD, Computational Storage, 그리고 Zoned Storage와 같은 최신 스토리지 기술에 발맞춰 I/O 스택을 재설계하는 방안을 제시한다. 먼저, 고성능 NVMe SSD 등장에 따른 I/O 스택 개선책을 제안한다. 고성능 NVMe SSD의 낮은 지연 시간으로 인해, 기존 저장장치의 낮은 I/O 성능에 가려져있던 파일 시스템 내부의 병목 지점이 드러난다. 이는 특히 공유 파일에 대한 쓰기 작업에서 병렬 I/O 성능을 저해하고, 고성능 SSD가 제공하는 대역폭을 온전히 활용하지 못하게 만든다. 이 문제의 주된 원인은 공유 파일 접근의 병렬성 부족과 블록 매핑에 필요한 파일 메타데이터 병목 현상이다. 이를 해결하기 위해, 공유 파일의 상호간 중복되지 않는 구간에 대한 I/O를 허용하는 범위 잠금 (Range lock) 기법과 메타데이터를 병렬로 업데이트할 수 있도록 하는 부분 트리 잠금(Sub-tree locking) 기법을 적용하였다. 다음으로, Computational Storage는 필터링과 같은 I/O 집약적 작업을 Computational Storage Device (CSD)로 오프로드하여 필요한 데이터만 전송함으로써 소요 전송량을 줄이고 I/O 대역폭 효율을 높이는 기술이다. 그러나 이를 실현하려면 오프로드를 위한 입력 데이터가 CSD 내부에서 직접 접근 가능해야 하며 그 데이터의 구조를 CSD가 미리 파악해야한다. 그렇지 않은 경우, 추가적인 이러한 정보 주입을 위한 I/O 인프라가 필수적이다. 이를 회피하기 위해, 본 논문에서는 블록 단위가 아닌 Key-Value 쌍을 저장하는 LSM-tree 기반 Key-Value SSD를 제안한다. 이를 통해 입력 및 출력 데이터를 CSD 내부에서 직접 조작할 수 있게 된다. 한편, CSD와 같은 특수 하드웨어는 별도의 맞춤형 I/O 스택을 요구한다. 본 논문에서는 범용 하드웨어에도 적용 가능한 SPDK 기반 Software-defined Computational Storage 아키텍처를 제안한다. 마지막으로, Zoned Storage는 블록 인터페이스를 사용하기 때문에 비교적 호환성이 높지만, 주소 공간을 여러 Zone으로 나누어 각 Zone 내부에서 순차 쓰기를 강제한다. 또한 가비지 컬렉션과 같은 여유공간 관리를 호스트가 직접 수행함으로써 예측 불가능한 지연 시간의 급증을 방지하지만, 이는 Zone 인터페이스에 맞는 파일 시스템 설계를 요구한다. 이를 위해 본 논문에서는 Collective Log-structured File System (CLFS)을 제안한다. CLFS는 Zone별 Log 구조를 통하여 파일 시스템 메타데이터를 포함한 모든 데이터를 Log Entry로 처리한다. 동시에, Inode 및 파일 데이터와 같이 연관성이 높은 로그들을 동일 Zone에 그룹화함으로써, 함께 무효화될 가능성이 높은 데이터가 여러 존에 분산되는 일을 막고 재귀적 가비지 컬렉션을 최소화한다.
학습기능을 내장한 Content 기반 파일 유형 식별 방법
한동훈 숭실대학교 정보과학대학원 2010 국내석사
컴퓨터가 정보산업의 발전과 함께 현대생활 및 기업 활동에 필수도구로 자리잡아 다양한 형태의 파일 유형을 사용하게 되었다. 운영시스템(OS), 방화벽(Firewall), 침입탐지시스템(IDS), 바이러스 검색기(Virus Scanner)에서는 다양한 형태의 파일의 유형을 식별하기 위해 몇 가지 방법을 사용하고 있다. 일반적인 방법으로 파일 확장자, Signature, 전체 Content를 이용한 식별방법을 사용되고 있으나 사용자에 의해 수정되거나 모든 파일이 Signature를 갖고 있지 않고 낮은 정확도로 인해 유효성 및 신뢰성이 확보되지 못한다. 본 논문에서는 파일유형을 동일유형그룹으로 세분화한 Fileprint를 생성하여 파일이 Media Data(avi, wav, gif, jpg, swf 등)와 결합된 경우 정확도가 낮아지는 문제를 해결하고 학습기능을 내장하여 식별결과를 지속적으로 Fileprint에 반영하여 기존 식별 방식의 평균 정확도 27.5%보다 높은 46.88%의 정확도를 나타내었고 특히 특정파일유형(doc, gif, jpg, pdf, ppt, xls)의 평균 정확도 8.3% 보다 높은 45.83%의 정확도를 나타내어 기존 식별 방식의 문제점을 보완하고 Content 기반 식별방법의 유효성 및 신뢰성을 증가시켰다. 향후 Media Data에 의한 오탐율 감소와 정확도 향상을 위한 지속적인 연구가 필요하다. With the development of the information industry, a computer becomes a necessary tool for modern life and companies’ activities and its diverse types of files are used. The operation system (OS), firewall, IDS, and virus scanner use several methods to identify various files of files. As the general methods, the identification method using file extension, signature, and overall contents, but it is modified by the user and every file has no efficiency and reliability because it doesn’t have signature and low accuracy. This study showed 46.88% of accuracy higher than 27.5%, average accuracy of the existing identification method by solving lower accuracy when files are combined with Media Data (avi, wav, gif, jpg, swf, etc) after creating the Fileprint that divides file types into the group of the same type and reflecting identification method after installing learning function inside. In particular, it showed 45.83% of accuracy higher than 8.3%, average accuracy of the specific file types (doc, gif, jpg, pdf, ppt, xls) to complement problems of existing identification methods and increase efficiency and reliability of those methods. The constant study to reduce false-positives and improve accuracy is necessary by means of media data in the future.
파일 카빙: 디지털 포렌식을 위한 JPEG 이미지 단편화 지점 감지
파일 카빙은 일반적인 데이터 복구와 디지털 과학수사를 위한 중요한 기술이다. 파일 카버는 파일시스템의 종류에 상관없이, 특정 파일 형식에 대한 header와 footer 데이터베이스를 이용하여 원시 데이터로부터 파일을 복원한다. 파일 카빙은 파일시스템의 메타데이터가 파괴 되었을지라도 파일을 재조립 할 수 있게 한다. 대부분의 운영체제에서 파일이 안전하게 삭제되지 않고, 파일 컨텐츠는 섹터로 메모리에 계속 남아 있으며, 파일의 시작과 길이, 파일 소유자 및 일부 놓치거나 단편화된 데이터뿐만 아니라 섹터의 순서까지도 남아있다. 단편화란 파일 또는 데이터가 디스크의 연속된 클러스터에 연속적으로 저장되어 있지 않음을 의미한다. 파일이 단편화 되어 있지 않으면, 파일의 시작부터 파일의 끝에 대한 클러스터의 순서는 잘못된 재구성을 야기할 것이다. 최근의 디지털 과학수사 기법들은 그래프 이론적 카빙 방법으로서의 재구성과 잠재적으로 손상된 데이터의 단편화 지점 검출에 주력하고 있다. 우리는 JPEG 이미지 포맷이 디지털 영역과 디지털 이미지 배포에서 가장 일반적인 포맷이라는 것을 이미 알고 있다. 또한, JPEG 이미지 포맷은 특정 유형의 과학수사와 관계가 있다. 디지털 이미지는 긴밀하게 구성된 픽셀의 모임으로 이루어져 있으며, 각각의 픽셀은 숫자로 된 색상 값이 할당되어 있고 이에 색상을 할당하기 위한 다양한 포맷이 존재한다. 대부분의 경우에, 손상된 이미지는 손상된 부분의 경계와 함께 보여진다. 경계를 조작하기 위해, 우리는 이산 코사인 변환의 2차원 버전을 사용하는 조작 기술을 제안하고, 이러한 접근 방법이 JPEG 이미지 파일 카빙 툴 개발에 사용될 수 있다는 것을 보인다. File carving is a significant technique for common data recovery and digital forensics. File carvers retrieve files from raw data by using a database of headers and footers for specific file types, regardless of the type of file system on the disk. Perhaps more than that, file carving enables to reassemble the files even if the file system metadata has been destroyed. Most of operation systems do not delete any files securely, and the file content is still on the memory as sectors, but sequence of the sectors as well as start, and length, file owner and some metadata that are missed and got fragmented. The fragmentation means file is not stored in the correct sequence on consecutive clusters on a disk. Otherwise, if a file has been fragmented, the sequence of clusters from the start of a file to end of the file will result in an incorrect reconstruction of the file. In lately, digital forensic techniques have been focusing on a reformulating as graph theoretic carving methods and fragmentation point detection for potentially corrupted data. We know that JPEG image format is one of the most popular image formats in the digital area and distribution of digital photographic drawing it is interested frequently in certain types of forensic investigation. A digital image consists of a rectangular array of closely packed pixels, each of whom is assigned a color value that is given by numbers, and various formats exist for mapping colors to corresponding numbers. In most case, corrupted images are shown gaudiness with a boundary of the corrupted parts. To manipulate the boundary, we propose a technique using a two dimensional version of the discrete cosine transform and try to show the approach can be used for JPEG image file carving tool development.
유동적 IoT 플랫폼을 위한 자원 효율적 안전한 네트워크 부팅 및 공격자 기만 기법
In the IoT industry, the paradigm is shifting toward the creation of a flexible industrial ecosystem for technology development, device production, and service distribution by forming a close cooperative structure with various organizations participating in the industry. In this paper, this work intends to define a flexible IoT platform and apply network booting technology to build an IoT platform that reflects the change of this industrial paradigm. The floating IoT platform is a platform in which each IoT device constituting the IoT platform changes its state according to the purpose and plays various roles. In the floating IoT platform, IoT devices play various roles by changing system images such as kernel images or applications used in IoT devices according to their operational purposes. The platform administrator sets up an IoT platform operation plan, which allows the server to be more flexible in the IoT device.In addition to changing the application that the IoT device operates on in order to perform multiple roles on the IoT platform, the application can be used more efficiently. To the operating system. In this paper, this work intends to increase the efficiency and flexibility of IoT platform by applying network boot to IoT platform to expand the liquidity of IoT platform. There are some things to consider when applying an existing network boot to an IoT platform. First, Trivial File Transfer Protocol (TFTP), a file transfer protocol mainly used in the existing network environment, is designed to be specialized for file transfer and is designed without security consideration. TFTP used in secured network is not emphasized due to lack of security, but if security for TFTP used in open network such as IoT platform is not considered, it can pose a security threat across the platform. Can be. Second, network booting occurs frequently on IoT platform composed of numerous IoT devices. In this situation, if the server's processing capacity for network boot requests is not supported, there will be a delay in network booting, leading to a platform-wide delay. Therefore, this work proposes a resource-efficient secure network boot and attacker deception technique for the flexible IoT platform to solve the above problems. The proposed system consists of secure TFTP service and resource-efficient file transfer of server. First, secure TFTP service consists of file access control and attacker deception techniques compatible with TFTP. TFTP-compatible file access control shares secret key between the IoT device and server, and the IoT device requests the system image from the server including the shared secret key. Through this, it can be used in conjunction with the existing TFTP-based network boot environment without changing the protocol of TFTP. The attacker deception technique provides security against file acquisition attempts by increasing the time and resources spent by an attacker to determine whether the attack is successful by sending fake data similar to real data instead of an error code when an attacker performs a brute force attack. Second, it consists of adaptive file transfer and deduplication and scheduling scheme for system image for resource efficient file transfer of server. Adaptive file transfer monitors the network boot frequency to determine the appropriate file transfer method for unicast and broadcast file transfers and transfers files. In addition, redundancy and scheduling of the system image minimize the time spent transmitting the system image. Through this, it is designed to efficiently use server resources for network boot requests of IoT devices and to minimize the time required for file transfer. The experimental results for the system proposed in this paper are as follows. TFTP-compatible operation-efficient file access control provides TFTP file access control with a low overhead of about 0.2ms. In addition, the attacker spends more than three times the time of a brute force attack to attempt unauthorized file acquisition by the TFTP, and as the attack is repeated, the attacker's time increases exponentially. According to the experiment, 1000 times of attack takes about 3000 times of attack time. Switching between unicast and broadcast through adaptive file transfer reduces file transfer completion time by about 11 times compared to the network boot environment using unicast only. In addition, the experiment on scheduling of the system image without deduplication shows faster file transfer completion time when scheduling is applied compared with the case where no scheduling is applied, and the lower compression rate improves performance. The system proposed secures TFTP for the flexible IoT platform and minimizes response time for network boot request through resource efficient file transfer of server. The proposed system is designed to interoperate with the existing TFTP-based network boot environment by securing security without changing the protocol for TFTP. It is expected that the proposed system will be used to activate the IoT platform by securing the liquidity and security of the entire platform through the proposed system in the reality that the IoT industry is changing to secure liquidity. IoT 산업은 산업에 참여하는 다양한 기관들이 긴밀한 협력 구조를 형성하여, 기술 개발 및 기기 생산, 서비스 배포 등을 위한 유동적인 산업 생태계를 구축하려는 방향으로 패러다임이 변화하고 있다. 본 논문에서는 이러한 산업 패러다임의 변화를 반영한 IoT 플랫폼을 구축하기 위해 유동적 IoT 플랫폼을 정의하고 네트워크 부팅 기술을 적용하고자 한다. 유동적 IoT 플랫폼이란 IoT 플랫폼을 구성하는 각각의 IoT 기기가 목적에 따라 기기의 상태를 변경하며 다양한 역할을 수행하는 플랫폼이다. 유동적 IoT 플랫폼에서 IoT 기기는 운영 목적에 맞게 IoT 기기에서 사용되는 커널 이미지나 응용 프로그램 등의 시스템 이미지를 변경하여 다양한 역할을 수행한다. 플랫폼 관리자는 IoT 플랫폼 운영 계획을 설정하고, 이에 따라 유동적 IoT 플랫폼에서는 IoT 기기가 여러 역할을 수행하기 위해 기기에서 동작하는 응용 프로그램을 변경할 뿐만 아니라 응용 프로그램을 더욱 효율적으로 사용하기 위해 운영체제까지 함께 변경한다. 본 논문에서는 IoT 플랫폼의 유동성을 확장하기 위해 IoT 플랫폼에 네트워크 부팅을 적용하여 IoT 플랫폼에 대한 효율성과 유연성을 증진시키고자 한다. IoT 플랫폼에 기존 네트워크 부팅을 적용할 때 고려해야 하는 사항이 있다. 첫째, 기존의 네트워크 환경에서 주로 사용되는 파일 전송 프로토콜인 Trivial File Transfer Protocol (TFTP)는 파일 전송에 특화되게 설계되어 보안성이 고려되지 않은 채로 설계되었다. 보안성이 확보된 네트워크에서 사용하는 TFTP는 보안성 부재에 따른 문제가 강조되지 않았지만, IoT 플랫폼과 같은 공개된 네트워크에서 사용되는 TFTP에 대한 보안성이 고려되지 않을 경우, 플랫폼 전체의 보안 위협으로 작용할 수 있다. 둘째, 수많은 IoT 기기로 구성된 IoT 플랫폼에서는 네트워크 부팅이 빈번히 발생한다. 이러한 상황에서 네트워크 부팅 요청에 대한 서버의 처리 능력이 뒷받침되지 않는다면 네트워크 부팅에 대한 지연이 발생하며, 플랫폼 전체의 지연으로 이어진다. 따라서 본 논문에서는 위의 문제점을 해결하기 위한 유동적 IoT 플랫폼을 위한 자원 효율적 안전한 네트워크 부팅과 공격자 기만 기법을 제안한다. 제안한 시스템은 크게 TFTP에 대한 보안성 확보와 서버의 자원 효율적 파일 전송로 구성되어 있다. 첫째, TFTP에 대한 보안성 확보는 TFTP와 호환가능한 파일 접근제어와 공격자 기만 기법으로 구성된다. TFTP 호환가능한 파일 접근제어는 IoT 기기와 서버 간 비밀값을 공유하고 IoT 기기는 비밀값을 통해 서버에게 시스템 이미지를 요청한다. 이를 통해 TFTP의 프로토콜을 변경하지 않고, 기존의 TFTP 기반의 네트워크 부팅 환경과 연동하여 사용할 수 있다. 공격자 기만 기법은 공격자가 무차별 공격을 수행할 때 에러 코드 대신 진짜 데이터와 유사한 가짜 데이터를 보내 공격자가 공격의 성공 여부를 판단하기 위해 소모되는 시간과 자원을 증가시켜 파일 획득 시도에 대한 보안성을 제공한다. 둘째 서버의 자원 효율적 파일 전송을 위해 적응형 파일 전송과 시스템 이미지에 대한 중복성 제거 및 스케줄링 기법으로 구성된다. 적응형 파일 전송은 네트워크 부팅 빈도를 모니터링하여 유니캐스트와 브로드캐스트 방식의 파일 전송 중 상황에 적합한 파일 전송 방식을 결정하여 파일을 전송한다. 또한, 시스템 이미지의 중복성 제거와 스케줄링을 통해 시스템 이미지를 전송하는 소모되는 시간을 최소화한다. 이를 통해 IoT 기기의 네트워크 부팅 요청에 대해 서버의 자원을 효율적으로 사용하며, 파일 전송에 완료되는 시간을 최소화하도록 설계하였다. 본 논문에서 제안한 시스템에 대한 실험 결과는 다음과 같다. TFTP 호환가능한 연산 효율적 파일 접근제어를 통해 약 0.2ms의 낮은 오버헤드 추가로 TFTP의 파일 접근제어 기능을 제공한다. 또한, TFTP의 파일 무단 획득 시도를 위한 무차별 공격에 대해 공격자는 기존 대비 약 3배 이상의 시간이 소모되며 공격이 반복될수록 공격자가 소모하는 시간은 배로 증가하게 되어 1000회 공격을 실시할 경우 기존 대비 약 3000배의 공격 시간이 소모된다. 적응형 파일 전송을 통한 유니캐스트와 브로드캐스트 방식의 전환을 통해 유니캐스트 방식만 사용하는 네트워크 부팅 환경에 비해 약 11배 이상 파일 전송 완료 시간이 감소하였다. 또한, 중복성이 제거된 시스템 이미지에 대한 스케줄링에 대한 실험에서는 스케줄링을 적용하지 않는 경우와 비교하여 스케줄링을 적용한 경우 더 빠른 파일 전송 완료 시간을 보이며 낮은 압축률일수록 성능이 더 향상되는 것으로 나타났다. 본 논문에서 제안한 시스템은 유동적 IoT 플랫폼을 위해 TFTP에 대한 보안성을 확보하고, 서버의 자원 효율적 파일 전송을 통해 네트워크 부팅 요청에 대한 응답 시간을 최소화한다. 제안한 시스템은 TFTP에 대한 프로토콜 변경 없이 보안성을 확보하여 기존 TFTP 기반 네트워크 부팅 환경에 연동할 수 있도록 설계하였다. IoT 산업이 유동성을 확보하는 방향으로 변화하고 있는 현실에서 제안한 시스템을 통해 플랫폼 전체의 유동성 및 보안성을 확보하여 IoT 플랫폼의 활성화에 활용이 되기를 기대한다.
Yoon, Joon Hyuk 부산대학교 대학원 2025 국내석사
Nickel-titanium (NiTi) files are indispensable tools in root canal treatment due to their flexibility and efficiency. However, a significant drawback is the difficulty in removing NiTi files when they fracture inside the root canal during use. Fractured files can obstruct proper disinfection and lead to the failure of root canal treatment. This study aimed to evaluate the removal efficiency of fractured files using ultrasonic instruments based on alloy type and fragment length, using standardized resin blocks as a model. Standardized J-blocks (n = 100) were shaped up to ProTaper Gold F2. Artificially fractured files were inserted 1.5 mm coronal to the apical end, and the coronal area was reshaped using Gates Glidden drill #3 and ultrasonic instruments. The fractured files used were ProTaper Gold (PTG) F2 files and ProTaper Universal (PTU) F2 files with fragment lengths of 3 mm and 4 mm, respectively (n = 25 for each system and length). The retrieval time was measured using a stopwatch to record the time taken for the fractured file to be removed from the canal using an ultrasonic instrument. The differences in "retrieval time" based on alloy type and fragment length were analyzed using SPSS. As the data did not follow a normal distribution, the Mann-Whitney U test, a non-parametric method, was applied to assess significant differences between the distributions of two independent samples. Statistical significance was set at a 95% confidence level. For 3 mm fragments, the PTU files demonstrated significantly shorter retrieval times than the PTG files (P < 0.05). However, no significant difference in retrieval time was found between PTG and PTU files for 4 mm fragments. The fragment of 3 mm length was removed in a significantly shorter time than the 4 mm fragment group, regardless of the file alloy types (P < 0.05). The length and alloy type of fractured NiTi files significantly influenced their removal efficiency in clinical settings. These findings highlight the importance of considering these factors when planning fractured file removal and emphasize the need for continued efforts to prevent file fractures.
콩 성균관대학교 국정관리대학원 2013 국내석사
Tax e-filing is one of the e-government services that is gaining importance for public to perform their responsibility to the country through tax payment. Despite the rapid adoption of e-filing in Vietnam, the e-filing system is still unreliable especially at peak period which lead to high level of risk perceived by taxpayers. The research analyzes and assesses the present status of electronic tax filing system in Vietnam. It aims to identify the factors that determine taxpayers’ acceptance of electronic tax filing using a Theory of Planned Behavior and a theoretical Technology Acceptance Model. Data relating to the constructs were collected from 192 respondents in Vietnam. The proposed model fits the data quite well. The results demonstrated that electronic tax filing acceptance in Vietnamese context can be explained in terms of two sub categories in which individual factors are composed of perceived usefulness, perceived ease of use, perceived risk, self efficacy, perceived facilitating conditions while organizational factors embrace top leadership support, network policy, and training. All of those factors except perceived risk have positive relationship with taxpayers’ usage intention of electronic tax filing. Based on the findings of this study, implications and recommendations for electronic tax filing in particular and for e-government services in general are discussed. Finally, this paper concludes by discussing limitations that could be addressed in future studies.
Cong Thanh Huyen Sungkyunkwan University 2013 국내석사
Tax e-filing is one of the e-government services that is gaining importance for public to perform their responsibility to the country through tax payment. Despite the rapid adoption of e-filing in Vietnam, the e-filing system is still unreliable especially at peak period which lead to high level of risk perceived by taxpayers. The research analyzes and assesses the present status of electronic tax filing system in Vietnam. It aims to identify the factors that determine taxpayers’ acceptance of electronic tax filing using a Theory of Planned Behavior and a theoretical Technology Acceptance Model. Data relating to the constructs were collected from 192 respondents in Vietnam. The proposed model fits the data quite well. The results demonstrated that electronic tax filing acceptance in Vietnamese context can be explained in terms of two sub categories in which individual factors are composed of perceived usefulness, perceived ease of use, perceived risk, self efficacy, perceived facilitating conditions while organizational factors embrace top leadership support, network policy, and training. All of those factors except perceived risk have positive relationship with taxpayers’ usage intention of electronic tax filing. Based on the findings of this study, implications and recommendations for electronic tax filing in particular and for e-government services in general are discussed. Finally, this paper concludes by discussing limitations that could be addressed in future studies.
송은경 서울대학교 치의학대학원 2012 국내석사
< Abstract > 1. Objectives The purpose of this survey was to investigate the preference and usage technique among the general dentists on the bases of their clinical experience of the NiTi rotary instrument and to retrieve the data for the frequency of the NiTi file re-use and the incidence of file separation in their clinical practice settings. 2. Methods A survey was performed via e-mails and on-site response. The on-site questionnaire was distributed after endodontic conference on May 2010 in which about 500 dentists were attended. E-mail survey forms were also sent at the same time period to 200 general dentists in South Korea. The survey consists of 8 inquires which address the usage and techniques during the root canal preparation with NiTi rotary instruments. 3. Results Profile was used most among the inexperienced operator as well as the experienced NiTi users. There were an equal percentage of those responding (36.8%) who were using crown down and hybrid preparation method as a main NiTi rotary file instrumentation technique. The combinations of Profile/ProTaper (30.6%) or GGD/Profile (26.0%) were the two top choices among the respondents who adopt hybrid technique. 46.1% of the respondents re-used NiTi files more than 10 times. Only 6 respondents (1.7%) revealed that they discarded NiTi file after single use. Almost half of the respondent (47.9%) answered their estimated unexpected file separation during NiTi file usage was less than 5 times a year. According to this data, the estimated file separation frequency decreased as experience of respondent increased. <국문초록> 1. 연구목적 이 연구의 목적은 NiTi rotary 파일에 대한 임상적 경험에 기초하여 개원의들의 사용 기술 선호도에 대해 조사하는 것이다. 또한 그들의 임상적인 과정에서 나타나는 NiTi 파일의 재사용의 빈도와 파일 분리의 경험을 알아보고자 하는 것이 본 연구의 목적이다. 2. 연구대상 및 방법 Survey는 이메일과 인터뷰에 기초한 설문으로 이루어졌다. 인터뷰는 2010년 5월 근관학회가 끝난 후에 이루어진 500명 중 349명에 대한 반응 자료를 포함하였다. 200명의 임상적인 조사는 대한민국의 200명의 일반 개원의들을 대상으로 이루어졌다. 질문은 8개로 구성되었으며, NiTi 파일을 사용해서 근관을 형성할 때 사용하는 파일의 종류와 기술에 관한 내용이 포함되었다. 3. 결과 응답자들이 사용하는 주된 형성 테크닉은 crown down 형성방법 (35.5%) 과 hybrid 형성 테크닉 (36.8%)이 동일한 비율로 사용되고 있는 것으로 확인되는데 이 중 hybrid technique을 사용하는 술자들은 Profile과 ProTaper의 조합 (30.6%) 또는 GGD + Profile의 조합을 (26.0%) 유사한 높은 비율로 사용하고 있었다. 설문자의 설문에 참여한 술자 중 NiTi file을 1회 사용하고 discard 하는 응답자는 1.7%에 불과하였으며 열 번 이상 재사용하는 술자가 전체 응답자의 46.1% 이상을 차지하는 것으로 확인되는데 이는 임상경험이 증가할수록 유의성있게 높은 비율로 나타나고 있다. NiTi file 사용도중 경험한 unexpected separation의 횟수는 일년에 다섯 번 미만이 46.4%의 비율로 전체의 대다수를 차지하는 것으로 보인다. 이 비율도 임상경험이 증가함에 따라 분리되는 숫자가 줄어드는 것으로 확인된다.