Informatik
-
[Machine Learning] 나이브 베이즈 분류(Naïve Bayes Classification)Informatik 2022. 2. 21. 22:01
※ 나이브 베이즈 분류(Naive Bayes Classification)를 공부하기 전에 베이즈 결정 이론(Bayesian Decision Theory)에 대한 기초 지식이 없다면 밑에 링크를 통해 먼저 공부하고 오는 것을 추천합니다. ※ [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) 지도 학습(Supervised Learning)의 분류(Classification)에 해당하는 머신러닝(Machine Learning) 기법인 베이즈 결정 이론은 일상생활에서 흔하게 볼 수 있고 사용할 수 있는 기법이다. 예를 들어, 스팸 메일을. minicokr.tistor..
-
[Machine Learning] 인공 신경망(Artificial Neural Network)Informatik 2022. 2. 18. 18:19
※ [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) 지도 학습(Supervised Learning)의 분류(Classification)에 해당하는 머신러닝(Machine Learning) 기법인 베이즈 결정 이론은 일상생활에서 흔하게 볼 수 있고 사용할 수 있는 기법이다. 예를 들어, 스팸 메일을. minicokr.com 데이터 분포(Data Distribution)를 정확히 예측한 경우, 베이즈 최적 분류기(Bayes Optimal Classifier) 보다 더 정확한 이진 분류기가 없다. 하지만 실생활에서 데이터의 분포를 예측하는 것은 어렵기 때문에 항상..
-
[Machine Learning] 피셔의 선형 판별 분석(Fisher Linear Discriminant Analysis)Informatik 2022. 2. 17. 18:35
※ [Machine Learning] 상관계수(Correlation Coefficient) [Machine Learning] 상관계수(Correlation Coefficient) 상관계수는 두 변수 사이의 통계적 관계를 표현하기 위해 특정한 상관관계의 정도를 수치적으로 나타낸 계수이다. [wikipedia] $\mathbf {x}_t \in \mathbb {R}^{T \times 1}$과 $\mathbf {y} \in \mathbb {R}^{T.. minicokr.com 일차원 데이터 $\mathbf {x} \sim \mathcal {N} (0, 1)$와 노이즈(Noise) $\epsilon \sim \mathcal {N} (0, 1)$가 주어질 때, $y = \gamma \mathbf {x} + \sq..
-
[Machine Learning] 공분산 행렬(Covariance Matrix)Informatik 2022. 2. 16. 20:11
교차 공분산 행렬(Cross Covariance Matrix) 확률 변수(Random Variable) $X, Y$의 평균이 각각 $\mu_X, \mu_Y$일 때, 교차 공분산 행렬 $\Sigma$은 다음과 같이 정의된다. $$Cov (X, Y) = \mathbb {E} [(X- \mu_X)(Y - \mu_Y)^{\top}]$$ 공분산 행렬(Covariance Matrix) 일반적인 공분산 행렬 확률 변수(Random Variable) $X$의 평균이 $\mu$일 때, 공분산 행렬은 다음과 같이 정의된다. $$Var (X) = Cov (X) = \mathbb {E} [(X- \mu)(X - \mu)^{\top}]$$ 정렬된 데이터의 공분산 행렬 $T$개의 데이터 $\mathbf {x} \in \mathb..
-
[Machine Learning] 상관계수(Correlation Coefficient)Informatik 2022. 2. 16. 19:48
상관계수는 두 변수 사이의 통계적 관계를 표현하기 위해 특정한 상관관계의 정도를 수치적으로 나타낸 계수이다. [wikipedia] $\mathbf {x}_t \in \mathbb {R}^{T \times 1}$과 $\mathbf {y} \in \mathbb {R}^{T \times 1}$가 주어졌을 때, $\mathbf {x}$과 $\mathbf {y}$의 상관계수의 경험적 추정치는 다음과 같다. $$ \begin {align*} Corr(\mathbf {x}, \mathbf {y}) &= \sum_t \frac {x_t y_t}{\sqrt {x^2_t y^2_t}} \\ &= \frac {\mathbf {x}^{\top} \mathbf {y}}{\sqrt {\mathbf {x}^{\top} \mathb..
-
[Machine Learning] 퍼셉트론 인공신경망(Perceptron Artificial Neural Network)Informatik 2022. 2. 16. 19:28
※ [Machine Learning] 선형 분류(Linear Classification) [Machine Learning] 선형 분류(Linear Classification) 선형 분류는 일차원 혹은 다차원 데이터들을 선형 모델(Linear Model)을 이용하여 클래스들로 분류(Classification)하는 머신러닝(Machine Learning) 기법이다. 아래 예시는 2차원 데이터를 어떤 선형 모델로 minicokr.com ※ [Machine Learning] NCC(Nearest Centroid Classifier) [Machine Learning] NCC(Nearest Centroid Classifier) ※ [Machine Learning] 선형 분류(Linear Classifier) [Ma..
-
[Machine Learning] NCC(Nearest Centroid Classifier)Informatik 2022. 2. 16. 17:55
※ [Machine Learning] 선형 분류(Linear Classifier) [Machine Learning] 선형 분류(Linear Classifier) 선형 분류는 일차원 혹은 다차원 데이터들을 선형 모델(Linear Model)을 이용하여 클래스들로 분류(Classification)하는 머신러닝(Machine Learning) 기법이다. 아래 예시는 2차원 데이터를 어떤 선형 모델로 minicokr.com 머신러닝에서 NCC는 분류하고자 하는 데이터에서 가장 가까이 위치하고 있는 레이블링 된 데이터의 집합의 중심을 기준으로 분류하는 모델 중 하나다. [wikipedia] 두 개의 중심 $\mu_1, \mu_2$과 각 레이블에 속하는 데이터들이 주어졌다고 가정하자. 새로운 데이터에서 두 개의 중..
-
[Machine Learning] 편향-분산 분해(Bias-Variance Decomposition)Informatik 2022. 2. 15. 01:50
편향-분산 분해는 지도 학습(Supervised Learning) 알고리즘의 오버 피팅(Overfitting)을 예방하기 위해 기대 오차(Expected Error)를 분석하는 방법이다. 오차를 편향, 분산 그리고 데이터 자체에 내재하고 있어 어떤 모델링으로 줄일 수 없는 오류의 합으로 본다. [wikipedia] 모수의 통계(Statistics of Parameter) 머신러닝은 미지수의 모수(Unknown Parameter) $\theta$에 생성되는 데이터 $\mathcal {D}$를 관찰 및 가정하여 모델을 학습하고 추정한 모수 $\hat {\theta}$에 대하여 관찰되지 않은 데이터들까지 가정에 들이 맞는지 모델을 평가하고 알맞은 모델을 선택한다. 좋은 머신러닝 모델이란, 미지수 모수 $\th..