본문 바로가기
728x90

컴퓨터공학과3

2.1. Decision Tree (의사결정 나무) 본 포스팅은 충남대학교 박정희 교수님의 기계학습 수업과 으뜸 머신러닝 (강영민 , 박동규 저)를 참고하였습니다. 결정 트리를 이용한 분류결정 트리는 decision tree라고도 합니다. 결정 트리는 귀납 추론을 위해 자주 사용되는 실용적인 방법입니다. 일반적인 트리 구조를 생각 해보면 가장 위에 루트 노드(root)에서 시작하여 차례로 중간 노드(internal)들을 거쳐 단말 노드(leaf)로 마무리 되는 구조입니다. 결정 트리도 일반적인 트리 구조를 따라 루트 -> 중간 -> 단말 순으로 알고리즘을 실행합니다. 이렇게 순차적으로 내려가는 방식을 rule - base라고 합니다.그림을 살펴보면 '공의 크기' 부분이 가장 위에 있으므로 루트 노드입니다. '경기장 중앙 네트', '손을 쓰냐' 부분은 중간.. 2023. 9. 22.
1.2. K-NN classifier (실습) 본 포스팅은 충남대학교 박정희 교수님의 기계학습 수업과 으뜸 머신러닝 (강영민 , 박동규 저)를 참고하였습니다. K-NN classifier에 대한 이론 정리는 아래 포스팅에서 정리하였습니다.https://math-love.tistory.com/30 1.1. K-NN classifier (이론) 본 포스팅은 충남대학교 박정희 교수님의 기계학습 수업과 으뜸 머신러닝 (강영민 , 박동규 저)를 참고하였습니다. K-NN classifier k-NN 알고리즘은 k-Nearest Neighbor의 약자입니다. k-최근접 이웃이라고 math-love.tistory.com 실습문제 문제에서 주어진 csv파일은 iris 데이터입니다. 클래스는 0, 1, 2로 분류되어 있으며 4개의 feature를 가진 iris 데이터.. 2023. 9. 18.
1.1. K-NN classifier (이론) 본 포스팅은 충남대학교 박정희 교수님의 기계학습 수업과 으뜸 머신러닝 (강영민 , 박동규 저)를 참고하였습니다. K-NN classifier k-NN 알고리즘은 k-Nearest Neighbor의 약자입니다. k-최근접 이웃이라고 번역할 수 있습니다. 이름에서 알 수 있듯이 k-NN 알고리즘은 feature에 분포하는 데이터에 대하여 k개의 가장 가까운 neighbor을 살펴보고 다수결 방식(majority voting) 으로 데이터의 레이블을 할당 하는 분류방식을 말합니다. 위 그림을 살펴보면 k값은 하이퍼파라미터임을 알 수 있습니다. k = 3일 때와 k = 5일 때로 나누어 집니다. 좀 더 자세히 살펴보면 초록색으로 칠해진 오각형 데이터가 다음과 같은 2차원 feature좌표 축에 자리잡혔습니다. .. 2023. 9. 14.
728x90