RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • 뉴로-퍼지 소프트웨어 신뢰성 예측에 대한 최적의 데이터 분할비율에 관한 연구

        이상운,Lee, Sang-Un 한국정보처리학회 2001 정보처리학회논문지D Vol.8 No.2

        본 논문은 미래의 소프크웨어 공장 수나 고장시간 예측 정확성을 얻기 위해, 뉴로-피지 시스템을 이용할 경우 최적의 검증 데이터 할당 비율에 대한 연구이다. 훈련 데이터가 주어졌을 때, 과소 적합과 과잉 적합을 회피하면서 최적의 일반화 능력을 얻기 취해 Early Stopping 방법이 일반적으로 사용되고 있다. 그러나 훈련과 검증 데이터로 얼마나 많은 데이터를 할당갈 것인가는 시행착오법을 이용해 경험적으로 해를 구해야만 하며, 과다한 시간이 소요된다. 최적의 검증 데이터 양을 구하기 위해 규칙 수를 증가시키면서 다양한 검증 데이터 양을 할당하였다. 실험결과 최소의 검증 데이터로도 좋은 예측 능력을 보였다. 이 결과는 뉴로-퍼지 시스템을 소프트웨어 신뢰성 분야에 적용시 실질직언 지침을 제공할 수 있는 것이다. This paper presents the optimal fraction of validation set to obtain a prediction accuracy of software failure count or failure time in the future by a neuro-fuzzy system. Given a fixed amount of training data, the most popular effective approach to avoiding underfitting and overfitting is early stopping, and hence getting optimal generalization. But there is unresolved practical issues : How many data do you assign to the training and validation set\ulcorner Rules of thumb abound, the solution is acquired by trial-and-error and we spend long time in this method. For the sake of optimal fraction of validation set, the variant specific fraction for the validation set be provided. It shows that minimal fraction of the validation data set is sufficient to achieve good next-step prediction. This result can be considered as a practical guideline in a prediction of software reliability by neuro-fuzzy system.

      • 주성분분석을 이용한 소프트웨어 개발노력 추정능력 향상

        이상운,Lee, Sang-Un 한국정보처리학회 2002 정보처리학회논문지D Vol.9 No.1

        Putnam은 소프트웨어 프로젝트에 참여하는 인력이 Rayleigh 분포를 따르는 SLIM 모델을 제시하였다. 이 모델에서 인력분포를 얻기 위해서는 총 개발노력과 개발 난이도를 추정해야 한다. 프로젝트 개발에 참여할 것인지 여부를 결정하기 위해서는 소프트웨어 생명주기의 초기단계에서 이 모수들을 보다 적확히 추정하는 것이 필요하다. Putnam은 시스템 속성들 중 강한 상관관계가 있는 변량을 제거하고 나머지 변량들만으로 총 개발노력과 개발 난이도를 추정하였다. 그러나 통계적 방법에 따라 변량들이 다르게 선택되며 모델의 성능에 차이가 발생한다. 본 논문은 Putnam 방법 대신 주성분분석을 이용하여 최적의 시스템 속성을 선택하였다. 모델의 성능분석 결과 주성분분석 방법이 Putnam의 방법보다 9.85% 성능향상을 보였다. 또한, 제안된 모델은 단순하고 쉽게 구현할 수 있다. Putnam develops SLIM (Software LIfecycle Management) model based upon the assumption that the manpower utilization during software project development is followed by a Rayleigh distribution. To obtain the manpower distribution, we have to be estimate the total development effort and difficulty ratio parameter. We need a way to accurately estimate these parameters early in the requirements and specification phase before investment decisions have to be made. Statistical tests show that system attributes are highly correlation (redundant) so that Putnam discards one and get a parameter estimator from the other attributes. But, different statistical method has different system attributes and presents different performance. To select the principle system attributes, this paper uses the principle component analysis (PCA) instead of Putnam's method. The PCA's results improve a 9.85 percent performance more than the Putnam's result. Also, this model seems to be simple and easily realize.

      • 프로젝트 인도율 그룹 분할 방법을 이용한 소프트웨어 개발노력 추정

        이상운,노명옥,이부권,Lee, Sang-Un,No, Myeong-Ok,Lee, Bu-Gwon 한국정보처리학회 2002 정보처리학회논문지D Vol.9 No.2

        소프트웨어 개발시 중요하게 제기되는 문제점으로 소프트웨어 생명주기의 초기단계에서 개발에 투입될 노력과 비용을 추정하는 능력이다. 측정된 소프트웨어 규모인 기능점수 (FP, Function Point)로부터 프로젝트 개발에 소요되는 노력과 비용을 추정하는 회귀모델들이 제안되었다. 그러나 이들 제안된 모델들은 사용한 표본의 크기가 작고, 과거에 개발된 프로젝트를 대상으로 하고 있다. 1990년대에 개발된 789개 소프트웨어 개발 프로젝트들에 투입된 개발노력에 이들 모델을 적용한 결과 결정계수 $R^2$가 0.53 이하로 데이터의 변동을 설명하였다. 본 논문은 프로젝트 인도율(PDR)을 이용하여 동질성을 갖는 그룹으로 분류하여 개발노력을 추정하는 모델을 제안하였다. 제안된 모델은 랜덤한 잔차 분포를 갖고 있고, 대부분의 PDR 범위에서 0.99이상의 결정계수로 데이터의 변동을 설명하였다. The main issue in software development is the ability of software project effort and cost estimation in the early phase of software life cycle. The regression models for project effort and cost estimation are presented by function point that is a software sire. The data sets used to conduct previous studies are of ten small and not too recent. Applying these models to 789 project data developed from 1990 ; the models only explain fewer than 0.53 $R^2$(Coefficient of determination) of the data variation. Homogeneous group in accordance with project delivery rate (PDR) divides the data sets. Then this paper presents general effort estimation models using project delivery rate. The presented model has a random distribution of residuals and explains more than 0.93 $R^2$ of data variation in most of PDR ranges.

      • KCI등재후보

        소프트웨어 개발노력 치적 분배에 관한 연구

        이상운,김용수,한판암,Lee, Sang-Un,Kim, Young-Soo,Han, Pan-Am 한국정보처리학회 2002 정보처리학회논문지D Vol.9 No.5

        성공적인 프로젝트 계획은 활용 가능한 일정과 더불어 프로젝트를 완수하는데 요구되는 노력을 얼마나 정확히 추정하느냐에 달려있다. 현존하는 소프트웨어 노력 추정 모델들은 샹명주기 전반에 걸쳐 투입되는 총 개발노력과 단위시간당 소요되는 노력 함수만을 제공한다. 또한, Putnam은 세부단계별로 일정한 개발노력 투입 비율을 제시하였다. 그러나 소프트웨어의 규모, 복잡도와 운영환경의 영향으로 인해 프로젝트 별로 투입되는 총 개발노력의 규모에 차이가 발생한다. 그 결과, 개발 세부단계별로 투입되는 노력의 규모도 프로젝트마다 차이가 발생한다. 본 논문은 소프트웨어 규모와 개발형태에 따라 계획, 명세, 구축, 시험과 이행단계에 투입될 노력을 추정하는 모델들을 제시하였다. 이 모델들은 155종의 다른 소프트웨어 프로젝트들로부터 유도되었다. 제안된 모델들은 프로젝트의 일정과 노력 분배 관리에 실질적인 지침을 제공할 것이다. Successful project planning relies on a good estimation of the effort required to complete a project, together with the schedule options that may be available. Existing software effort estimation models are present only the total effort and instantaneous effort function for the software life-cycle. Also, Putnam presents constant effort rate in each phase. However, the size of total effort varies according to the software projects under the influence of its size, complexity and operational environment. As a result, the allocated effort in each phase also differs from one project to another. This paper suggests models for effort allocation in planning, specifying, building, testing and implementing phases followed by the project size and development types. These models are derived from 155 different projects. Therefore, these models can be considered as a practical guideline in management of project schedule and effort allocation.

      • 비정규화 데이터를 이용한 신경망 소프트웨어 신뢰성 예측

        이상운(Sang Un Lee) 한국정보처리학회 2000 정보처리학회논문지 Vol.7 No.5

        When we predict of software reliability, we can't know the testing stopping time and how many faults be residues in software (the maximum value of data) during the software testing process, therefore we assume the maximum value and the training result can be inaccuracy. In this paper, we present neural network approach for software reliability prediction with unnormalized (actual or original collected) data. This approach is not consider the maximum value of data and possible use the network without normalizing but the predictive accuracy is better. Also, the unnormalized method shows better predictive accuracy than the normalized method given by maximum value. Therefore, we can make the best use of this model in software reliability prediction using unnormalized data.

      • KCI등재

        단순한 차수 제약 최소신장트리 알고리즘

        이상운(Sang-Un Lee) 한국정보기술학회 2015 한국정보기술학회논문지 Vol.13 No.10

        The degree-constrained minimum spanning tree(DCMST) is a special case of MST, which is also an important problem in network design. There has been unknown polynomial time algorithm for DCMST that is one of the NP-complete problem. Therefore metaheuristic method has been applied this problem to obtain approximated solution. This paper suggests an polynomial time heuristic algorithm to solve a DCMST with degree range d<SUB>L</SUB>≤d≤ d<SUB>H</SUB> . The d<SUB>H</SUB> DCMST is decided by minimum spanning tree. The 3≤d ≤d<SUB>H</SUB>-1DCMST is obtained by 1-opt edge swap method that has reduced one degree from MST step-by-step. Also, d<SUB>L</SUB>=2 Hamiltonian path DCMST can be obtain using k-opt (k=1,2,3) method. Empirical evaluation using eight benchmarking data of SHRD series, the proposed algorithm outperforms well-known optimal solution.

      • KCI등재

        PCB 부품배치기계의 조립시간 최소화에 관한 중량급 부품 우선 배치 알고리즘

        이상운(Sang-Un Lee) 韓國컴퓨터情報學會 2016 韓國컴퓨터情報學會論文誌 Vol.21 No.3

        This paper deals with the PCB assembly time minimization problem that the PAP (pick-and-placement) machine pickup the K-weighted group of N-components, loading, and place into the PCB placement location. This problem considers the rotational turret velocity according to component weight group and moving velocity of distance in two component placement locations in PCB. This paper suggest heavy-weight component group first pick-and-place strategy that the feeder sequence fit to the placement location Hamiltonean cycle sequence. This algorithm applies the quadratic assignment problem (QAP) that considers feeder sequence and location sequence, and the linear assignment problem (LAP) that considers only feeder sequence. The proposed algorithm shorten the assembly time than iATMA for QAP, and same result as iATMA that shorten the assembly time than ATMA.

      • 그룹 고장 데이터의 소프트웨어 신뢰성 예측에 관한 신경막 모델

        이상운(Sang Un Lee),박영목(Yeong Mok Park),박수진(Soo Jin Park),박재홍(Jae Heung Park) 한국정보처리학회 2000 정보처리학회논문지 Vol.7 No.12

        Many software projects collect grouped failure data (failures in some failure interval or in variable time interval) rather than individual failure times or failure count data during the testing or operational phase. This paper presents the neural network (NN) modeling that is able to predict cumulative failures in the variable future time for grouped failure data. A NN''s predictive ability can be affected by what it learns and in its learning sequence. Eleven training regimes that represents the input-output of NN are considered. The best training regimes are selected based on the next-step average relative prediction error (AE) and normalized AE (NAE). The suggested NN models are compared with other well-known NN models and statistical software reliability growth models (SRGMs) in order to evaluate performance. Experimental results show that the NN model with variable time interval information is necessary in order to predict cumulative failures in the variable future time interval.

      • KCI등재후보

        기능점수를 이용한 소프트웨어 개발노력 추정

        이상운,강정호,박중양,Lee, Sang-Un,Gang, Jeong-Ho,Park, Jung-Yang 한국정보처리학회 2002 정보처리학회논문지D Vol.9 No.4

        소프트웨어공학에서 소프트웨어 측정분야는 30년 이상 수많은 연구가 있어 왔으나 아직까지 구체적인 소프트웨어 개발노력과 비용 추정 모델이 거의 없는 실정이다. 만약 소프트웨어 개발노력과 비용을 측정하려면 소프트웨어 규모를 추정해야 한다. 소프트웨어의 규모를 측정하기 위한 많은 소프트웨어 척도가 개발되었지만 가장 일반적인 척도가 LOC(line of code)와 FPA(Function Point Analysis)이다. FPA는 소프트웨어 규모를 측정하는데 LOC를 사용할 때의 단점을 극복할 수 있는 기법이다. 본 논문은 FP(Function Point)로 측정된 소프트웨어 규모로 소프트웨어 개발노력을 추정하는 단순회귀모델을 제안한다. 실험에 사용된 데이터들은 다양한 개발환경과 개발방법을 적용한 최근의 789개 소프트웨어 개발 프로젝트들이다. 실험 데이타들에 대한 산점도를 그려 개발노력과 FP의 적합한 관계로부터 단순회귀분석 모델을 유도하였다. 또한, 다양한 소프트웨어 개발환경과 개발방법 등을 고려해 개발된 최근의 대용량 프로젝트에 대해 제안된 단순회귀분석 모델이 기존의 회귀분석 모델들보다 개발노력 추정 정확성이 월등히 좋음을 보였다. Area of software measurement in software engineering is active more than thirty years. There is a huge collection of researches but still no concrete software development effort and cost estimation model. If we want to measure the effort and cost of a software project, we need to estimate the size of the software. A number of software metrics are identified in the literature; the most frequently cited measures are LOC (line of code) and FPA (function point analysis). The FPA approach has features that overcome the major problems with using LOC as a measure of system size. This paper presents simple linear regression model that related software development effort to software size measured in FP. The model is derived from the plotting of the effort and FP relation. The experimental data are collected from 789 software development projects that were recently developed under the various development environments and development methods. Also, the model is compare with other regression analysis model. The presented model has the best estimation ability among the software effort estimation models.

      • KCI등재

        안정된 동숙자 문제의 최소 선호도 합 알고리즘

        이상운(Sang-Un Lee) 한국정보기술학회 2015 한국정보기술학회논문지 Vol.13 No.9

        Given n participants each of whom offered preference data over n-1 other participants in a stable roommates problem, this problem can be usually solved by the Irving algorithm with O(n<SUP>2</SUP>) complexity. The Irving algorithm get the initial solution S in first phase using Gale-Shapley algorithm with O(n<SUP>2</SUP>) complexity. In second phase, this algorithm change the set S using iterative rotation. This paper proposes a O(n) algorithm for this problem. In the preprocessing phase, the algorithm computes the sum preference sum<SUP>ij</SUP> - the sum of p<SUB>i</SUB>’s preference over p<SUB>i</SUB> and p<SUB>i</SUB>’s preference over p<SUB>i</SUB> - from an upper triangular matrix of an n-1 × n matrix. In Step 1, it selects the minimum sum preference min s<SUB>ij</SUB> and runs n/2 times the deletion of row and columns i,j . It then performs an alternation process of Step 2, given no stable roommates are attainable in the presence of a blocking pair. When tested on 10 roommates problems, the proposed algorithm has successfully obtained optimal solutions with complexity of O(n).

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼