전체 글
-
13.06.22: Porsche 구매, Corbusierhaus로 이사, Georg Kolbe MuseumAlltags 2022. 6. 14. 07:39
자 이제부터 귀여운 거 모음집 ⓚⓞ㉹ⓚⓙⓘ 요리 계정을 위한 화전 만들귀 @teishoku.diary 수입도 없이 2주만에 집구하기 성공. 독일인애들도 일년째 집구하고 다닌다는데 ㅋㅋㅋㅋㅋㅋ 드디어 기다리고 기다려왔던 Ausflug. 예약하고 나서 너무 설렜었던 ㅎ 우리 집 너무 좋아죽겄다 눈알 집 뒤에 있는 Mies Van der Rohe & Georg Kolbe 박물관 다녀왔어욤 하 진짜 글쓰기 개귀찮다
-
15.04.22: 한국 방문과 다시 입독Alltags 2022. 4. 16. 05:45
버터와 디저트는 정말 맛있었다.. 밥 주지 말고 디저트만 주세요. 그리고 한국 도착. 간지가 넘쳐흐른 할아버지 집. 멋있다. 아마 내가 4장의 사진을 서울을 표현한다면 바로 이것. 쿠이신보에서 같이 일하던 매니저 오빠가 새로 가게 여셨다고 해서 한국 온 김에 방문했다. :) 쿠이신보와는 야키토리 메뉴들은 비슷하지만 다른 점을 꼽아보자면, 야키토리들이 크기가 큼직해서 미디엄으로 먹으면 육즙이 줄줄 흐른다. 하지만 겉은 뽜삭 ㅎ. 분위기도 더 조용하고 가게도 깔끔해서 시끄러운 거 별로 안 좋아하는 내가 가게에서 제일 시끄러웠다. 정말 오랜만에 보는데 너무 반갑게 인사해주셔서 괜히 속으로는 울컥 했다. 옛날 스무 살 초반 생각도 나고 시간도 정말 빨리 가는 것 같고.. 내 곁에 좋은 사람들은 오래 남는 것 같..
-
[Machine Learning] 가우시안 프로세스 회귀(Gaussian Process Regression)Informatik 2022. 3. 2. 03:58
가우시안 프로세스는 어떤 확률변수(Random Variable)의 결합 확률(Joint Probability)이 가우시안 분포(Gaussian Distribution)를 따를 때를 말한다. 임의의 결합 확률에서 회귀(Regression) 결과가 나온다고 하자. $$p_{\theta} (y_1, y_2, \cdots, y_N)$$ 위의 결합 확률이 가우시안 분포를 따른다고 할 때, $$p_{\theta} (y_1, y_2, \cdots, y_N) \sim \mathcal {N} (0, \Sigma)$$ 공분산(Covariance)은 입력 데이터 $\mathbf {x}_1, \cdots, \mathbf {x}_N$에 의해 결정된다. $$\Sigma_{ij} = k(x_i, x_j) + \sigma^2 \de..
-
[Machine Learning] 커널 능형 회귀(Kernel Ridge Regression)Informatik 2022. 3. 2. 01:10
※ [Machine Learning] 회귀(Regression) [Machine Learning] 회귀(Regression) 통계학에서 회귀 분석이란 관찰된 연속형 변수들에 대해 두 변수 사이의 모형을 구한 뒤 적합도를 측정해 내는 분석 방법이다. [wikipedia] 분류(Classification) vs. 회귀(Regression) 분류는 $\mathbb {R}^d$상. minicokr.com ※ [Machine Learning] 언더 피팅과 오버 피팅(Underfitting and Overfitting) [Machine Learning] 언더 피팅과 오버 피팅(Underfitting and Overfitting) 일반적으로 학습 데이터는 실제 데이터의 부분 집합이므로 학습 데이터에 대해서 오차가 감..
-
[Machine Learning] SVM(Support Vector Machine): 원초 문제에서 쌍대 문제로(From the Primal to the Dual Problem)Informatik 2022. 3. 1. 20:25
※ [Machine Learning] 커널 기법(Kernel Method): 커널 트릭(Kernel Trick), 서포트 벡터 머신(Support Vector Machine) [Machine Learning] 커널 기법(Kernel Method): 커널 트릭(Kernel Trick), 서포트 벡터 머신(Support Vector Machine) 기계 학습에서 회귀(Regression)나 $$(\mathbf {x}_1, y_1), \cdots, (\mathbf {x}_N, y_N) \in \mathbb {R}^n \times \mathbb {R}^m$$ 분류(Classification) $$(\mathbf {x}_1, y_1), \cdots, (\mathbf {x}_N, y_.. minicokr.com S..
-
[Machine Learning] 커널 기법(Kernel Method): 커널 트릭(Kernel Trick), 서포트 벡터 머신(Support Vector Machine)Informatik 2022. 2. 28. 23:32
기계 학습에서 회귀(Regression)나 $$(\mathbf {x}_1, y_1), \cdots, (\mathbf {x}_N, y_N) \in \mathbb {R}^n \times \mathbb {R}^m$$ 분류(Classification) $$(\mathbf {x}_1, y_1), \cdots, (\mathbf {x}_N, y_N) \in \mathbb {R}^n \times \{ \pm 1 \}$$ 문제에서 사용되는 학습 셋(Training Set)은 모두 미지수의 확률 분포(Probability Distribution) $P(\mathbf {x}, y)$를 따른다. 검정 셋(Test Set)으로 기대 오차(Expected Error)를 다음과 같이 확률 분포에 대해서 계산했을 때, 그 값이 최소..
-
26.02.22: Classic-Remise Berlin 방문, 차 수리Alltags 2022. 2. 27. 01:40
지인 중에 올드카 수리를 전문으로 하는 (잘생긴) 아재가 있는 정비소에 갔다 왔다. 여기가 Classic-Remise라고 Berlin에 있는 하나의 큰 자동차 단지인데, 이 도시에 사는 갑부 아재들이 소장용 자동차를 보관해주는 곳이기도 하다. 창고뿐만 아니라, 올드 벤츠 전문, 올드 페라리 전문, 프랑스 차 전문 등등해서 세부적으로 전문화된 자동차 정비소가 건물 내 곳곳 위치하고 있다. 엄청난 규모의 차들이 많은데 옛날 공장 건물에 숨겨져 있어서, Berlin에 살아도 차에 관심이 없으면 알지 못하고 지나칠 법도 하다. John & 아빠가 사려고 눈독 들인 올드 포르셰. 요즘 들어, 모든 소장품들의 가격들이 워낙 미친 듯이 뛰어서 더 비싸지기 전에 사는 것도 괜찮은 듯하다. 올드 911은 정말 정신 나간..
-
[Machine Learning] 멀티 클래스 선형 분류(Multi-Class Linear Classification)Informatik 2022. 2. 22. 18:28
※ [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) 지도 학습(Supervised Learning)의 분류(Classification)에 해당하는 머신러닝(Machine Learning) 기법인 베이즈 결정 이론은 일상생활에서 흔하게 볼 수 있고 사용할 수 있는 기법이다. 예를 들어, 스팸 메일을. minicokr.com ※ [Machine Learning] 선형 분류(Linear Classification) [Machine Learning] 선형 분류(Linear Classification) 선형 분류는 일차원 혹은 다차원 데이터들을 선형 모델(Linear..