Informatik
-
[Bash] 배쉬 명령어와 스크립트의 모음집(Collection of Bash Commands and Scripts)Informatik 2023. 3. 27. 21:50
한 번도 제대로 배워보지 않은 배쉬(Bash), 컴공인이라면 다들 필요할 때마다 찾아서 쓰는 언어이지 않나 쉽다. 필요할 때마다 찾아 쓰고 정작 머릿속에는 들어가지 않아 제대로 배운 것을 기록할 필요성을 느꼈다. 요즘 한국어보다는 영어가 편해서 영어로 정리하였고, 앞으로 차곡차곡 쌓아갈 예정이라 포스팅 대신 노션 페이지(Notion Page)의 링크를 걸어둔다. 댓글 권한은 허용했으니 만약 질문이나 피드백이 있으면 달아주세요. Bash Bash is a command-line shell and scripting language for Linux and macOS. It lets you execute commands and scripts, manipulate files and directories, and..
-
[How to] 맥의 가상 머신에서 GUI 리눅스 실행하기(Running GUI Linux in a virtual machine on a Mac)Informatik 2022. 12. 5. 00:08
맥 운영체제(macOS)에서 버추얼박스(VirtualBox)나 패러렐즈(Parallels)와 같은 추가적인 설치 프로그램 없이 리눅스 운영체제(Linux OS)를 가상화할 수 있는 방법을 쉽게 설명하고자 한다. M1 및 M2 애플 실리콘(Apple Silicon) 칩을 탑재한 ARM64 기반 맥에서도 애플(Apple)의 통합 개발 환경(IDE)인 엑스코드(Xcode)에서 스위프트(Swift) 코드만으로 리눅스를 설치하고 실행할 수 있다. 요구 사항 macOS 13.0 이상 Xcode 14.0 이상 1. 리눅스 ISO 이미지 다운로드 취향에 따라 원하는 리눅스 배포(Distro)를 선택한다. 애플 실리콘 맥을 사용할 경우 aarch64 및 arm64 이미지를 다운로드하고, 인텔(Intel) 기반 맥의 경우..
-
[Machine Learning] 가우시안 프로세스 회귀(Gaussian Process Regression)Informatik 2022. 3. 2. 03:58
가우시안 프로세스는 어떤 확률변수(Random Variable)의 결합 확률(Joint Probability)이 가우시안 분포(Gaussian Distribution)를 따를 때를 말한다. 임의의 결합 확률에서 회귀(Regression) 결과가 나온다고 하자. $$p_{\theta} (y_1, y_2, \cdots, y_N)$$ 위의 결합 확률이 가우시안 분포를 따른다고 할 때, $$p_{\theta} (y_1, y_2, \cdots, y_N) \sim \mathcal {N} (0, \Sigma)$$ 공분산(Covariance)은 입력 데이터 $\mathbf {x}_1, \cdots, \mathbf {x}_N$에 의해 결정된다. $$\Sigma_{ij} = k(x_i, x_j) + \sigma^2 \de..
-
[Machine Learning] 커널 능형 회귀(Kernel Ridge Regression)Informatik 2022. 3. 2. 01:10
※ [Machine Learning] 회귀(Regression) [Machine Learning] 회귀(Regression) 통계학에서 회귀 분석이란 관찰된 연속형 변수들에 대해 두 변수 사이의 모형을 구한 뒤 적합도를 측정해 내는 분석 방법이다. [wikipedia] 분류(Classification) vs. 회귀(Regression) 분류는 $\mathbb {R}^d$상. minicokr.com ※ [Machine Learning] 언더 피팅과 오버 피팅(Underfitting and Overfitting) [Machine Learning] 언더 피팅과 오버 피팅(Underfitting and Overfitting) 일반적으로 학습 데이터는 실제 데이터의 부분 집합이므로 학습 데이터에 대해서 오차가 감..
-
[Machine Learning] SVM(Support Vector Machine): 원초 문제에서 쌍대 문제로(From the Primal to the Dual Problem)Informatik 2022. 3. 1. 20:25
※ [Machine Learning] 커널 기법(Kernel Method): 커널 트릭(Kernel Trick), 서포트 벡터 머신(Support Vector Machine) [Machine Learning] 커널 기법(Kernel Method): 커널 트릭(Kernel Trick), 서포트 벡터 머신(Support Vector Machine) 기계 학습에서 회귀(Regression)나 $$(\mathbf {x}_1, y_1), \cdots, (\mathbf {x}_N, y_N) \in \mathbb {R}^n \times \mathbb {R}^m$$ 분류(Classification) $$(\mathbf {x}_1, y_1), \cdots, (\mathbf {x}_N, y_.. minicokr.com S..
-
[Machine Learning] 커널 기법(Kernel Method): 커널 트릭(Kernel Trick), 서포트 벡터 머신(Support Vector Machine)Informatik 2022. 2. 28. 23:32
기계 학습에서 회귀(Regression)나 $$(\mathbf {x}_1, y_1), \cdots, (\mathbf {x}_N, y_N) \in \mathbb {R}^n \times \mathbb {R}^m$$ 분류(Classification) $$(\mathbf {x}_1, y_1), \cdots, (\mathbf {x}_N, y_N) \in \mathbb {R}^n \times \{ \pm 1 \}$$ 문제에서 사용되는 학습 셋(Training Set)은 모두 미지수의 확률 분포(Probability Distribution) $P(\mathbf {x}, y)$를 따른다. 검정 셋(Test Set)으로 기대 오차(Expected Error)를 다음과 같이 확률 분포에 대해서 계산했을 때, 그 값이 최소..
-
[Machine Learning] 멀티 클래스 선형 분류(Multi-Class Linear Classification)Informatik 2022. 2. 22. 18:28
※ [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) 지도 학습(Supervised Learning)의 분류(Classification)에 해당하는 머신러닝(Machine Learning) 기법인 베이즈 결정 이론은 일상생활에서 흔하게 볼 수 있고 사용할 수 있는 기법이다. 예를 들어, 스팸 메일을. minicokr.com ※ [Machine Learning] 선형 분류(Linear Classification) [Machine Learning] 선형 분류(Linear Classification) 선형 분류는 일차원 혹은 다차원 데이터들을 선형 모델(Linear..
-
[Machine Learning] 분류의 성능 평가 지표(Evaluation Metrics of Classification)Informatik 2022. 2. 22. 02:35
※ [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) 지도 학습(Supervised Learning)의 분류(Classification)에 해당하는 머신러닝(Machine Learning) 기법인 베이즈 결정 이론은 일상생활에서 흔하게 볼 수 있고 사용할 수 있는 기법이다. 예를 들어, 스팸 메일을. minicokr.com ※ [Machine Learning] 나이브 베이즈 분류(Naïve Bayes Classification) [Machine Learning] 나이브 베이즈 분류(Naïve Bayes Classification) ※ [Machine Learn..