자격증/빅데이터분석기사
[빅분기] 1. 빅데이터 분석 기획 - 데이터 분석 계획(1)
gangee
2024. 1. 9. 16:52
728x90
반응형
1. 분석 방안 수립
1. 데이터 분석
1-1. 데이터 분석의 지향점
- 전략적 통찰이 없는 데이터 분석 배제
- 단순하게 데이터 분석을 자주, 많이 하는 것이 아닌 경쟁의 본질을 파악하여 분석 진행
- 일차원적인 데이터 분석 지양
- 금융 : 신용점수 산정, 사기방지, 프로그램 트레이딩
- 소매 : 프로모션, 판매관리, 수요예측, 재고관리
- 제조 : 공급사슬 최적화, 수요예측, 재고관리, 상품개발
- 운송 : 일정관리, 노선배정, 수익관리
- 병원 : 약품거래, 질병관리
- 에너지 : 트레이딩, 공급, 수요예측
- 정부 : 사기방지, 범죄방지
- 온라인 : 고객추천, 사이트 설계
- 기타 : 성과관리
- 전략 도출을 위한 가치 기반 데이터 분석 지향
- 사업 성과를 견인하는 요소들과 차별화를 꾀할 기회에 대해 전략적 인사이트를 주는 가치 기반 분석 단계로 나아가야 함
- 가치 기반 데이터 분석을 통해 해당 사업의 중요한 가치를 발굴하고, 경영진의 지원을 얻어낼 수 있으며 이를 통해 강력한 모뎀텀을 형성할 수 있음
1-2. 데이터 분석 시 고려사항
- 데이터 분석은 규모가 아니라 어떤 시각과 통찰을 얻을 수 있는가의 문제
- 비즈니스 핵심에 대해 객관적이고 종합적인 통찰을 가져다 줄 수 있는 데이터를 찾아야 함
- 전략과 비즈니스의 핵심 가치에 집중하고 관련된 분석 평가지표를 개발하여 시장과 고객 변화에 효과적으로 대응하는 것 중요
2. 데이터 분석 기획
- 어떠한 목표(What)를 달성하기 위해(Why) 어떠한 데이터를 가지고 어떤 방식으로(How) 수행할 것인가에 대한 일련의 계획 수립
2-1. 분석 기획의 특징
- 분석 대상과 방법에 다른 분류(What, How)
What | |||
---|---|---|---|
O | X | ||
Optimization | Insight | O | How |
Solution | Discovery | X |
- 목표 시점에 따른 분류
- 단기적 접근 방식(과제 중심적 접근) : 과제를 빠르게 해결하기 위함, 명확한 해결을 위해 Quick-Win 방식을 분석
- 중장기적 접근 방식(마스터플랜 접근) : 지속적인 분석 문화를 내재화하기 위한 목적, 장기적 관점에서 과제 수행
- 혼합 방식(분석 기획 시 적립) : 마스터 플랜을 수립하고 장기적 관점에서 접근하는 것
2-2. 분석 기획 시 필요역량
- 분석 기획을 위한 기본 소양 : 도메인 지식, 정보기술, 수학 및 통계학적 지식
- 프로젝트 관리 역량과 리더십
2-3. 분석 기획 시 고려사항
- 사용 가능한 데이터 확인
- 적합한 사례 탐색
- 분석 수행 시 발생 가능한 요소 고려
- 분석 결과의 정확도를 높이기 위해 기간과 투입 자원 증가가 불가피하며, 이로 인한 비용 상승을 충분히 고려
- 데이터 분석 유형
- 설명 분석 : 데이터를 요약 및 정제하여 결과 도출, 과거 또는 현재 발생한 사실 그 자체를 설명
- 예측 분석 : 미래의 불확실한 사실을 사전에 예측
- 진단 분석 : 데이터 간의 인과관계 또는 상관관계를 파악하여 특정 결과가 발생한 원인을 밝히기 위해 분석 수행
- 처방 분석 : 예측되는 상황을 위해 무엇을 하면 좋을 지 대안 제시
3. 분석 마스터 플랜과 로드맵 설정
3-1. 분석 마스터 플랜
- 수립 절차
- 일반적인 정보전략계획 방법론 활용 O
- 과제 도출 방법을 활용하여 과제들을 빠짐없이 정의
- 중요도, 난이도 등을 고려하여 우선순위 정함
- 단기, 중장기로 나누어 로드맵 수립
- 정보전략계획(ISP:Information Strategy Planning)
- 정보기술 및 시스템을 전략적으로 활용하기 위한 중장기 마스터 플랜을 수립하는 절차
- 조직 내, 외부의 환경을 분석하여 새로운 기회나 문제점 도출
- 사용자의 요구사항을 확인하여 시스템 구축 우선순위 결정
3-2. 분석 과제 우선순위 평가기준
- IT 프로젝트의 과제 우선순위 평가
- 전략적 중요도(전략적 필요성, 시급성), 실행 용이성(투자 용이성, 기술 용이성)
- 데이터 분석 프로젝트의 우선순위 평가
- 투자비용 요소(volume, variety, velocity), 비즈니스 효과(value)
- 분석 ROI 요소를 고려한 우선순위 평가기준
- 시급성(전략적 중요도, 목표가치 - 비즈니스 효과), 난이도(데이터 획득, 가공, 저장 비용, 분석 적용 비용, 분석 수준 - 투자비용 효과)
3-3. 분석 과제 우선순위 선정 및 조정
- 포트폴리오 사분면 분석 기법 활용
- 매트릭스 내 분석 과제 우선순위 선정
- 가장 우선적으로 분석 과제 적용이 필요한 영역은 3사분면
- 우선순위가 낮은 영역은 2사분면
- 기준이 시급성일 경우 : 3-4-1-2 영역
- 기준이 난이도일 경우 : 3-1-4-2 영역
- 매트릭스 내 분석 과제 우선순위 조정
- 시급성이 높고 난이도가 높은 1사분면 : 의사결정을 통해 적용 우선순위 조정 가능
- 데이터 양, 특성, 분석 범위 등에 따라 난이도 조율 가능(ex. 난이도를 조율하여 1사분면에서 3사분면으로 이동)
- 분석 과제 우선순위 조정 시 고려사항
- 기술적 요소에 따른 적용 우선순위 조정
- 분석 범위에 따른 우선순위 조정
3-4. 분석 로드맵 설정
- 분석 로드맵 수립 절차
- 데이터 분석체계 도입 -> 데이터 분석 유효성 검증 -> 데이터 분석 확산 및 고도화
- 반복적인 정련과정을 통해 프로젝트의 완성도를 높여 나감
- 데이터 수집 및 확보, 분석 데이터 준비 단계 : 순차적
- 모델링 단계 : 반복적
4. 분석 문제 정의
4-1. 분석 문제 정의 개요
- 대표적인 분석 과제 도출 방법
- 상향식 접근 방식 : Optimization -> Solution
- 하향식 접근 방식 : Insight -> Discovery
- 최적의 의사결정을 위한 혼합 방식
- 상향식 접근 방식의 발산 단계 : 가능한 옵션을 도출
- 하향식 접근 방식의 수렴 단계 : 도출된 옵션을 분석하고 검증
- 동적인 환경에서 발산, 수렴 단계 반복적 수행
- 분석 과제 정의서
- 다양한 방식으로 도출한 분석 과제들을 명확하게 정의하여 상세하게 작성
- 프로젝트를 수행하는 이해관계자가 프로젝트의 방향을 설정하고 성공 여부를 판단할 수 있는 자료로 사용
4-2. 하향식 접근 방식(Top Down Approach)
- 문제 탐색 -> 문제 정의 -> 해결방안 탐색 -> 타당성 평가
- 문제 탐색 단계
- 현황분석, 인식된 문제점, 전략에서 기회나 문제를 탐색
- 비즈니스 모델 기반, 외부 참조 모델 기반 문제 탐색, 분석 유스케이스 정의
- 문제 정의 단계
- 식별된 비즈니스 문제를 데이터적인 문제로 변환하여 정의
- 필요한 데이터와 기법을 정의하기 위한 데이터 분석 문제로 변환
- 분석 수행자 외 문제 해결 시 효용을 얻을 최종 사용자 관점에서 정의
- 해결방안 탐색 단계
- 데이터 관점의 문제를 해결하기 위한 방안 탐색
Who | |||
---|---|---|---|
확보 | 미확보 | ||
기존 시스템 개선 활용 |
교육 및 채용을 통한 역량 확보 |
기존 시스템 | How |
시스템 고도화 | 전문 업체 Sourcing | 신규 도입 |
- 타당성 평가 단계
- 데이터 분석의 타당성 평가
- 경제적 타당성 : 비용 대비 편익 분석 관점의 접근 필요
- 데이터 및 기술적 타당성
- 데이터 분석 : 데이터, 분석 시스템 환경 분석 역략 필요
- 기술적 타당성 분석 : 역량 확보 방안의 사전수립 필요
4-3. 하향식 접근 방식의 문제 탐색 방법
- 비즈니스 모델 캔버스를 활용한 과제 발굴
- 비즈니스 모델 캔버스의 9가지 블럭 -> 문제 발굴 3가지, 관리 2가지
- 문제 발굴 : 업무, 제품, 고객 / 관리 : 규제&감사, 지원인프라
- 분석 기회 발굴의 범위 확장
- 거시적 관점 : 사회, 기술, 경제, 환경, 정치
- 경쟁자 확대 관점 : 대체재, 경쟁자, 신규 집입자
- 사장의 니즈 탐색 관점 : 고객, 채널, 영향자들
- 역략의 재해석 관점 : 내부 역량, 파트너와 네트워크
4-4. 상향식 접근 방식(Bottom Up Approach)
- 다량의 데이터 분석을 통해 왜(Why) 그러한 일이 발생하는지 역으로 축적하면서 문제를 도출하거나 재정의할 수 있는 방식
- 일반적으로 비지도학습 방법에 의해 수행됨
- 등장배경
- 기존 하향식 접근 방식의 한계를 극복하기 위함
- 문제 해결 방법
- 프로토타이핑 접근법 : 먼저 분석을 시도해 보고 그 결과를 확인하며 반복적으로 개선해 나가는 방식
- 필요성 : 문제에 대한 인식 수준, 필요 데이터 존재 여부의 불확실성, 데이터 사용 목적의 가변성
- 프로토타이핑 접근법 : 먼저 분석을 시도해 보고 그 결과를 확인하며 반복적으로 개선해 나가는 방식
5. 데이터 분석 방안
5-1. 분석 방법론
- 분석 방법론의 구성요건
- 상세한 절차, 방법, 도구화 기법, 템플릿과 산출물, 어느 정도의 지식만 있으면 활용 가능한 수준의 난이도
- 분석 방법론의 생성과정(선순환)
- 형식화 : 개인의 암묵지가 조직의 형식지로 발전(분석가의 경험 -> 문서화)
- 체계화 : 문서화한 최적화된 형식로 전개됨으로써 방법론 생성
- 내재화 : 개인에게 전파되고 활용되어 암묵지로 발전(전파된 방법론 -> 내재화)
5-2. 계층적 프로세스 모델 구성
- 단계 -> 태스크 -> 스텝
- 차상위 계층 - 단계(Phase)
- 완성된 단계별 산출물 생성
- 각 단계는 기준선으로 설정되어 관리되어야 하며 버전관리 등을 통하여 통제
- 중간 계층 - 태스크(Task)
- 단계를 구성하는 단위 활동
- 물리적 또는 논리적 단위로 품질 검토 가능
- 최하위 계층 - 스텝(Step)
- WBS(Work Breakdown Structure)의 워크패키지
- 입력자료, 처리 및 도구, 출력자료로 구성된 프로세스 단위
5-3. 소프트웨어개발 생명주기 활용
- SDLC(Software Development Life Cycle)
- 구성요소
- 계획(요구명세) : 고객의 요구사항 명세화, 요구사항은 일반적으로 모호하고 불완전하며 모순되기도 함
- 요구 분석 : 대상이 되는 문제 영역과 사용자가 원하는 태스크 이해
- 설계 : 분석 모형을 가지고 이를 세분화함으로써 구현될 수 있는 형태로 전환
- 구현 : 실행 가능한 코드 생성
- 시험 : 발생 가능한 실행 프로그램의 오류를 발견하고 수정
- 유지보수 : 인수가 완료된 후 일어나는 모든 개발 활동
- 폭포수 모형(Waterfall Model)
- 소프트웨어 개발을 단계적, 순차적, 체계적 접근 방식으로 수행
- 개념 정립에서 구현까지 하향식 접근 방법 사용
- 문제점이 늦게 발견됨
- 프로토타입 모형(Prototype Model)
- 실험적 프로토타입 : 요구분석의 어려움을 해결하기 위해 실제 개발될 소프트웨어의 일부분을 직접 개발함으로써 의사소통의 도구로 활용
- 진화적 프로토타입 : 프로토타입을 요구분석의도구로만 활용하는 것이 아니라, 이미 개발된 프로토타입을 지속적으로 발전시켜 최종 소프트웨어로 발전
- 요구분석의 어려움 해결을 위해 사용자 차명 요구
- 사용자와의 커뮤니케이션 수단으로 활용 가능
- 개발 타당성 검토 수단으로 활용 가능
- 원하는 바를 구체적으로 모를 때 간단한 시제품으로 개발 가능
- 폭포수 모형의 단점 보완
- 나선형 모형(Spiral Model)
- 시스템을 개발하면서 생기는 위험을 최소화하기 위해 나선을 돌면서 점진적으로 완벽한 시스템으로 개발하는 모형
- 프로젝트의 완전성 및 위험 감소와 유지보수 용이
- 관리가 중요하나 매우 어렵고 개발시간이 장기화될 가능성 있음
- 구현 단계 : 계획수립 -> 위험분석 -> 개발 -> 고객평가
- 반복적 모형(Iterative Development Model)
- 시스템을 여러 번 나누어 릴리즈하는 방법
- 증분형 모형 : 기능을 분해한 후 릴리즈별 기능을 추가 개발
- 진화형 모형 : 전체 기능을 대상으로 하되 릴리즈를 진행하면서 기능이 완벽해짐
- 모형 선정 기준
- 프로젝트의 규모와 성격
- 개발에 사용되는 방법과 도구
- 개발에 소요되는 시간과 비용
- 개발과정에서의 통제수단과 소프트웨어 산출물 인도 방식
5-4. KDD 분석 방법론의 분석 절차
- 데이터 선택 -> 전처리 -> 변환 -> 마이닝 -> 마이닝 결과 평가
- 데이터셋 선택
- 데이터베이스 또는 원시데이터에서 분석에 필요한 데이터 선택
- 필요시 목표 데이터 추가적으로 구성
- 데이터 전처리
- 잡음, 이상값, 결측치 식별, 필요시 제거 및 대체
- 데이터가 추가적으로 필요시 데이터셋 선택 절차부터 다시 실행
- 데이터 변환
- 분석 목적에 맞는 변수 선택, 차원축소
- 학습용, 검증용 데이터로 분리
- 데이터 마이닝
- 분석 목적에 맞는 마이닝 기법, 알고리즘 선택 및 분석 진행
- 필요시 데이터 전처리, 데이터 변환 절차 추가로 실행, 결과의 품질 높임
- 데이터 마이닝 결과 평가
- 분석 결과에 대한 해석과 평가 및 분석 목적과의 일치성 확인
- 발견된 지식을 업무에 활용하기 위한 방안 모색
- 필요시 데이터셋 선택 부터 마이닝 절차까지 반복 수행
5-5. CRISP-DM 분석 방법론
- 데이터 마이닝 프로세스 : 최상위 레벨 -> 일반화 태스크 -> 세분화 태스크 -> 프로세스 실행
- CRISP-DM 분석 방법론의 분석절차 : 업무 이해 -> 데이터 이해 -> 데이터 준비 -> 모델링 -> 평가 -> 전개
- 업무 이해
- 업무 목적 파악, 데이터 마이닝 목표 설정, 프로젝트 계획 수립
- 데이터 이해
- 초기 데이터수집, 데이터 기술 분석, 데이터 품질 확인, 데이터 탐색
- 인사이트 발 견 단계
- 데이터 준비
- 분석용 데이터셋 선택, 데이터 정제, 데이터 통합, 데이터 포맷팅
- 모델링
- 모델링 기법 선택, 모형 테스트 계획 설계, 모형 작성, 모형 평가
- 데이터셋 추가를 위해 데이터 준비 절차 반복 가능
- 평가
- 분석결과 평가, 모델링 과정 평가, 모형 적용성 평가
- 전개
- 전개 계획 수립, 모니터링과 유지보수 계획 수립, 프로젝트 종료 보고서 작성, 프로젝트 리뷰
- CRISP-DM, KDD 비교
- 데이터 이해 = 데이터셋 선택, 데이터 전처리
- 데이터 준비 = 데이터 변환
- 모델링 = 데이터 마이닝
- 평가 = 데이터 마이닝 결과 평가
5-6. SEMMA 분석 방법론
- 주로 데이터 마이닝 프로젝트의 모델링 작업에 중점을 둠
- SEMMA 분석 방법론의 분석절차 : 추출 -> 탐색 -> 수정 -> 모델링 -> 평가
- 추출
- 분석할 데이터 추출, 모델 평가를 위한 데이터 준비
- 통계적 추출, 조건 추출
- 탐색
- 분석용 데이터 탐색, 데이터 오류 확인, 비즈니스 이해, 이상 현상 및 변화 탐색
- 그래프, 기초통계, Clustering, 변수 유의성 및 상관분석
- 수정
- 분석용 데이터 변환, 데이터 표현 극대화, 파생변수 생성, 선택, 변형
- 수량화, 표준화, 벼노한, 그룹화
- 모델링
- 분석 모델 구축, 패턴 발견, 모델링과 알고리즘 적용
- Neural Network, Decision Tree, Logistic Regression
- 평가
- 모델 평가 및 검증, 서로 다른 모델 동시 비교, 다음 단계 결정
- 리포트, 피드백, 모델 검증 자료
6. 빅데이터 분석 방법론
6-1. 빅데이터 분석 방법론의 개발절차
- 빅데이터 분석 방법론 개요 : 단계 -> 태스크 -> 스텝
- 개발 절차 : 분석기획 -> 데이터 준비 -> 데이터 분석 -> 시스템 구현 -> 평가 및 전개
- 분석 기획
- 비즈니스 이해 및 범위 설정 : 비즈니스 이해, 도메인 문제점 파악, 프로젝트 범위 설정 및 구조화된 명세서 작성
- 프로젝트 정의 및 계획 수립 : 모형 평가기준 설정, 데이터 분석 프로젝트 정의서 작성, 프로젝트 수행 계획서 작성
- 프로젝트 위험 계획 수립 : 데이터 분석 위험 식별 및 사전 대응방안 수립, 위험 우선순위 설정, 위험 관리 계획서 작성
- 데이터 준비
- 필요 데이터 정의 : 데이터 정의 및 정의서 작성, 법률 관련 문제점 사전 파악, 데이터 획득 방안 수립
- 데이터 스토어 설계 : 정형, 비정형, 반정형 데이터를 모두 저장할 수 있도록 논리적, 물리적 분리하여 데이터 스토어 설계
- 데이터 수집 및 정합성 점검 : 데이터 수집 및 저장, 데이터 정합성 점점 및 품질 개선이 필요한 부분 보완 작업 진행
- 데이터 분석
- 분석용 데이터 준비 : 비즈니스 룰 파악, 데이터셋 준비
- 텍스트 분석 : 텍스트 데이터 확인 및 추출, 텍스트 데이터 분석
- 탐색적 분석 : 탐색적 데이터 분석, 사용자 인터페이스 또는 프로토타입으로 시각화 활용
- 모델링 : 학습용, 검증용 데이터로 분할, 데이터 모델링, 알고리즘 설명서 상세히 작성, 모델 적용 및 운영방안 수립
- 모델 평가 및 검증 : 모형 완성도 평가, 모형 평가 프로세스 진행, 모형의 객관성 및 실무 적용성 검증
- 시스템 구현
- 설계 및 구현 : 시스템 분석 및 설계, 시스템 구현
- 시스템 테스트 및 운영 : 단위, 통합, 시스템 테스트 실시, 시스템의 객관성 및 완전성 확보, 시스템 운영 계획 수립
- 평가 및 전개
- 모델 발전계획 수립 : 모형의 유지보수, 재구축을 위한 방안 마련, 발전계획 상세히 수립하여 모형의 계속성 확보
- 프로젝트 평가 및 보고 : 정량적 성과, 정성적 성과로 나누어 성과 평가서 작성, 산출된 지식과 프로세스 등 산출물 자산화, 최종 보고서 작성 및 보고 후 종료
7. 데이터 분석 거버넌스
7-1. 데이터 분석 거버넌스 개요
- 필요성 : 데이터 분석 업무를 하나의 기업 문화로 정착하고 이를 지속적으로 고도화 해나가기 위해
- 구성요소 : 데이터 분석 기획과 관리를 수행하는 조직, 데이터 분석 과제 기획과 운영 프로세스, 데이터 분석 지원 인프라, 데이터 거버넌스, 데이터 분석 교육 및 마인드 육성 체계
7-2. Organization
- 집중형, 기능형, 분산형 조직구조
7-3. Process
- 데이터 분석 과제 관리 프로세스 : 분석 Idea 발굴 -> 분석과제 후보 제안 -> 분석과제 확정 -> 팀 구성 -> 분석과제 실행 -> 분석과제 진행 관리 -> 결과 공유/개선
- 프로세스 특징
- 조직 내 데이터 분석 문화를 내재화하여 경쟁력 확보
- 결과물을 잘 축적 및 관리함으로써 향후 유사 과제 수행 시 시행착오 최소화
- 프로젝트 효율적 진행
- 과제 발굴 단계 (분석 Idea 발굴 -> 분석과제 후보 제안 -> 분석과제 확정)
- 개별 조직이나 개인이 도축한 아이디어 발굴
- 발굴된 아이디어 과제화하여 데이터 분석 과제 풀로 관리
- 프로젝트 선정 작업 수행
- 과제 수행 및 모니터링 단계 (팀 구성 -> 분석과제 실행 -> 분석과제 진행 관리 -> 결과 공유/개선)
- 분석 수행할 팀 구성
- 분석 실행 시 지속적 모니터링 수행
- 결과 공유 및 개선
7-4. System
- 데이터 분석 플랫폼 구축 이유
- 데이터 분석 마스터 플랜을 기획하는 단계에서 부터 장기적, 지속적, 안정적으로 활용할 수 있도록 고려
- 단기적으로 구축하기 쉬운 개별 시스템보다는 확장성을 고려한 플랫폼 구조 도입 적절
- 정의 : 데이터 분석 서비스를 위한 응용프로그램이 실행될 수 있는 환경과 기초를 이루는 컴퓨터 시스템
- 특징 : 분석 시 필요한 프로그래밍 및 실행, 서비스할 수 있는 환경 제공, 확장성 증대
- 구성요소 : 분석 서비스 제공 엔진, 분석 애플리케이션, 분석 서비스 제공 API, 협의의 분석 플랫폼(데이터처리 Framework, 분석엔진, 분석 라이브러리), 운영체제, 하드웨어
7-5. Data
- 데이터 거버넌스 필요성
- 빅데이터 프로젝트의 효과적 추진 및 효과의 지속성을 얻기 위해 데이터 거버넌스 체계 수립 필요
- 정의 : 전사 차원의 모든 데이터에 대하여 정책 및 지침, 표준화, 운영조직과 책임 등의 표준화된 관리 체계를 수립하고 운영하기 위한 프레임워크와 저장소를 구축하는 것
- 주요 관리 대상
- 마스터 데이터 : 마스터 파일을 형성하는 데이터, 데이터 처리 및 조작하기 위해 사용되는 기본 데이터
- 메타 데이터 : 데이터에 대한 구조화된 데이터, 다른 데이터를 설명하기 위해 사용되는 데이터
- 데이터 사전 : 효과적인 데이터 자원관리를 위해 저장해놓은 데이터
- 특징
- 데이터 거버넌스
- 데이터의 가용성, 유용성, 통합성, 보안성, 안전성 확보
- 프로젝트를 성공으로 이끄는 기반 마련
- 빅데이터 거버넌스
- 데이터 거버넌스에 추가적으로 빅데이터가 갖는 고유한 특성을 고려하여 관리 체계 수립
- 데이터 거버넌스
- 구성요소
- 원칙 : 데이터를 유지하고 관리하기 위한 지침 및 가이드
- 조직 : 데이터를 관리할 조직의 역할과 책임, 데이터 관리자, 데이터베이스 관리자 등
- 프로세스 : 데이터 관리를 위한 활동과 체계
- 체계
- 데이터 표준화 : 데이터 표준 용어 설명, 명명 규칙 수립, 메타 데이터 및 데이터 사전 구축
- 데이터 관리 체계 : 항목별 상세 프로세스 수립, 조직별 역할 및 책임 구체적으로 마련, 데이터 생명주기 관리방안 수립
- 데이터 저장소 관리 : 메타 데이터 및 표준 데이터 관리를 위한 전사 차원의 저장소 구성, 데이터 관리체계 지원을 위한 워크플로우 및 관리용 애플리케이션 지원, 관리 대상 시스템과의 인터페이스를 통한 통제 가능, 데이터 구조 변경에 따른 사전 영향 평가 수행
- 표준화 활동 : 체계 표준 준수 여부 주기적 점검, 계속적인 변화관리 및 주기적인 교육 진행, 실용성 증대
7-6. Human Resource
- 데이터 분석 교육 및 마인드 육성을 위한 변화 관리 필요성
- 데이터 분석의 가치 극대화하고 내재화하여 안정적인 추진기로 접어들기 위함
- 데이터 분석 문화 도입방안
- 적극적 도입 방안 : 적합한 데이터 분석 과제 도출, 분석 조직 마련, 지속적인 교육과 훈련, 변화관리 지속적으로 계획 및 수행
- 데이터 분석 교육 방향 : 데이터 분석 역량 확보 및 강화하는 방향
- 기획자 : 데이터 분석 큐레이션 교육
- 실무자 : 데이터 분석 기법 및 도구 사용 교육
- 기존 업무 수행자 : 데이터 분석 기회 발굴, 시나리오 작성법 교육
8. 데이터 분석 수준진단
8-1. 데이터 분석 수준진단 개요
- 필요성 : 조직 경쟁력 강화를 위해 현 상태에 대한 명확한 점검 필요
- 목표 : 각 조직이 현재 수행하고 있는 데이터 분석 수준을 명확히 이해, 수준진단 결과를 바탕으로 미래 목표수준 정의
- 프레임워크 : 6개 영역의 분석 준비도, 3개 영역의 분석 성숙도
8-2. 분석 준비도(Readiness)
- 정의 : 조직 내 데이터 분석 업무 도입을 목적으로 현재 수준을 파악하기 위한 진단방법
- 원리 : 6가지 영역에서 일정 수준 이상 충족하면 데이터 분석 업무 도입
- 프레임워크
- 분석 업무 파악: 발생한 사실 분석 업무, 예측적 분석 업무, 분석 업무 정기적 개선 등
- 인력 및 조직 : 분석 전문가 직무 존재, 경영진 분석 업무 이해 능력, 관리자들의 기본적인 분석 능력 등
- 분석 기법 : 업무별 적절한 분석기법 사용, 분석 업무 도입 방법론, 분석기법 라이브러리 등
- 분석 데이터 : 분석업무를 위한 데이터 충분성, 마스터데이터 관리 등
- 분석 문화 : 사실에 근거한 의사결정, 관리자의 데이터 중시, 경영진의 직관보다 데이터 등
- IT 인프라 : 운영시스템 데이터 통합, 빅데이터 분석 환경, 분석 전용 서버 및 스토리지
8-3. 분석 성숙도 모델
- 정의 : 데이터 분석 능력 및 데이터 분석 결과 활용에 대한 조직의 성숙도 수준 평가하여 현재 상태 점검 방법
- 특징 : 비즈니스 부문, 조직 및 역략 부문, IT 부문을 대상으로 실시
- 상세화 : 성숙도 수준에 따라 도입, 활용, 확산, 최적화 단계로 구분
- 도입 단계 : 분석을 시작하여 환경 시스테 구축
- 활용 단계 : 분석 결과를 실제 업무에 적용
- 확산 단계 : 전사 차원에서 분석을 관리하고 공유
- 최적화 단계 : 분석을 진화시켜 혁신 및 성과 향상에 기여
8-4. 분석 수준진단 결과
- 분석 준비도 및 성숙도 진단 결과 : 조직의 현재 데이터 분석 수준 객관적 파악 가능
- 사분면 분석 : 데이터 관점에서 4가지 유형으로 데이터 분석 수준진단 결과 구분
728x90
반응형