반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 공공빅데이터청년인턴
- k-means
- textmining
- 2023공공빅데이터청년인재양성
- machinelearning
- Kaggle
- DeepLearning
- decisiontree
- 분석변수처리
- 2023공빅데
- datascience
- Keras
- 공빅데
- 텍스트마이닝
- 빅데이터
- 클러스터링
- ML
- 공빅
- ADsP3과목
- 2023공공빅데이터청년인재양성후기
- 데이터전처리
- ADSP
- 오버샘플링
- 머신러닝
- DL
- 공공빅데이터청년인재양성
- 데이터분석
- data
- SQL
- NLP
Archives
- Today
- Total
목록불순도 (1)
愛林

Decision Tree (의사결정나무) 의사결정트리는, 데이터들이 가진 속성들로부터 분할 기준 속성을 판별하고, 분할 기준 속성에따라서 트리 형태로 모델링하는 분류 및 예측 모델이다. 불순도와 순수도, 트리 깊이(Depth) 를 설정한다. 의사결정나무는 나무 구조에 의해서 모델이 표현되기 때문에 해석이 쉬우며, 새로운 자료에 모델을 적합시키기가 쉽다. 두 개 이상의 변수가 결합하여 종속변수에 어떠한 영향을 주는 지에 대해 알기가 쉽다. 그리고 이상치에 또한 민감하지 않다. 그러나, 연속형 변수를 비연속적인 값으로 취급하기 때문에 예측 오류가 클 가능성이 높다. 그리고 선형 또는 주 효과 모델에서와 같은 결과를 얻을 수 없고 분석용 자료에만 의존하기 때문에 새로운 자료의 예측에는 불안정한 모습을 보인다...
Data Science/Machine Learning
2022. 8. 15. 00:05