본문 바로가기
728x90

데이터 사이언스20

Ch 7. Logistic Regression (로지스틱 회귀) 이번 포스팅에서는 로지스틱 회귀에 대한 실습 과정을 알아보도록 하겠습니다. 본 포스팅은 혼자 공부 하는 머신러닝(박해선 저)와 충남대학교 AI 중급교육과정을 참고하였습니다. 로지스틱 회귀와 관련된 이론은 아래 포스팅을 참고해주시기 바랍니다. https://math-love.tistory.com/25 로지스틱 회귀 이번 포스팅에서는 로지스틱 회귀에 대한 기본적인 과정을 알아보도록 하겠습니다. 로지스틱 회귀 예를 들어 Target_set에 정확히 이진으로 분류된 집합이 존재한다고 가정하겠습니다. (남자, 여 math-love.tistory.com 로지스틱 회귀 마찬가지로 데이터를 불러올게요. import pandas as pd fish = pd.read_csv('/content/drive/MyDrive/Co.. 2023. 7. 15.
Ch 6. Gradient descent (경사하강법) 이번 포스팅에서는 경사하강법에 대한 실습 과정을 알아보도록 하겠습니다. 본 포스팅은 혼자 공부 하는 머신러닝(박해선 저)와 충남대학교 AI 중급교육과정을 참고하였습니다. 경사하강법과 관련된 이론은 아래 포스팅을 참고해주시기 바랍니다. https://math-love.tistory.com/24 선형회귀 와 경사하강법 이번 포스팅에서는 선형회귀와 경사하강법 이론에 대한 기본적인 과정을 알아보겠습니다. 선형회귀 Input_data와 Target_data가 아래와 같이 열벡터로 주어졌다고 가정해보겠습니다. 각각의 점이 (1, math-love.tistory.com 확률적 경사하강법 우선 data를 불러오겠습니다. import pandas as pd fish = pd.read_csv('/content/drive/.. 2023. 7. 14.
<머신러닝 이론 02> 로지스틱 회귀 이번 포스팅에서는 로지스틱 회귀에 대한 기본적인 과정을 알아보도록 하겠습니다. 로지스틱 회귀 예를 들어 Target_set에 정확히 이진으로 분류된 집합이 존재한다고 가정하겠습니다. (남자, 여자), (동물, 식물), (여름, 겨울)들과 같이 확실히 이진으로 분리된 집합입니다. (남자, 여자)로 분리된 집합이라고 가정하겠습니다. Target_set이 두 개의 집합으로 분할되기 때문에 labelling을 위해 남자를 '1', 여자를 '0'으로 생각해줄 수 있습니다. 이제 그림1.을 좌표평면 위에 나타내 보겠습니다. 그림2.를 보면 파란색 '1'로 되어있는 부분이 남자 빨간색 '0'으로 되어있는 부분이 여자집합입니다. 어떠한 독립변수가 input되었는지 모르겠지만 어쨌든 그림2.와 같은 분류를 할 수 있습니.. 2023. 7. 14.
<머신러닝 이론 01> 선형회귀 와 경사하강법 이번 포스팅에서는 선형회귀와 경사하강법 이론에 대한 기본적인 과정을 알아보겠습니다. 선형회귀 Input_data와 Target_data가 아래와 같이 열벡터로 주어졌다고 가정해보겠습니다. 각각의 점이 (1, 4), (2, 7), (3, 11)로 순서쌍을 이루고 있습니다. 즉 Input_data와 Target_data가 1-1 correspondence를 이루고 있습니다. 그림1.의 Data를 좌표평면 위에 나타내면 다음 그림과 같습니다. 그림을 그려 확인해 봤을 때 주어진 세 점은 y = 3*x + 1 이라는 직선위의 점이라는 것을 시각적으로 확인할 수 있습니다. 그런데 Input_data와 Target_data의 realation이 {(1, 4), (2, 7), (3, 11)}이 아닌 그림3. 과 같은.. 2023. 7. 14.
728x90