반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- Kaggle
- Keras
- machinelearning
- 공공빅데이터청년인턴
- ADsP3과목
- DL
- SQL
- 텍스트마이닝
- data
- k-means
- 빅데이터
- NLP
- 공빅데
- 오버샘플링
- 머신러닝
- DeepLearning
- 클러스터링
- 데이터분석
- 2023공빅데
- ADSP
- decisiontree
- 공공빅데이터청년인재양성
- 데이터전처리
- 2023공공빅데이터청년인재양성후기
- 분석변수처리
- 2023공공빅데이터청년인재양성
- ML
- textmining
- datascience
- 공빅
Archives
- Today
- Total
목록K-NN (1)
愛林

이전에도 배웠던 적이 있는 K-NN 기법에 대해서 자세히 알아보도록 하자. K-NN (K-Nearest Neightbor) 입력과 결과가 있는 데이터들이 주어진 상황에서 , 새로운 입력에 대한 결과를 추정할 때, 결과를 아는 최근접한 k개의 데이터에 대한 결과 정보를 이용하는 방법이다. 데이터 간의 거리를 계산해서, 효율적으로 근접한 이웃을 탐색 후 이 탐색한 근접 이웃 k 개로부터 결과를 추정하게 된다. 분류(Classification) 알고리즘에 속한다.4 여기서 사용되는 데이터 간의 거리는, 유클리디언 거리(Euclidian Distance) 이다. 즉, 직선 거리를 사용한다. 최근접 k개로부터 결과를 추정하는 방법은, 분류와 예측(회귀) 가 있는데, 차이는 이와 같다. 구분 분류 예측(회귀) 목적..
Data Science/Machine Learning
2022. 8. 6. 13:53