베이즈 정리 어떤 사건이 서로 배반하는 원인들에 의해 일어난다고 할 때, 실제 사건이 일어났을 때 이것이 원인들 중 하나일 확률을 구하는 정리. 이전의 경험(을 바탕으로 하는 가설 H)과 현재의 증거(E)를 토대로 어떤 사건의 확률(=사후확률)을 추론하는 과정 결과를 관측한 뒤 원인을 추론할 수 있다는 특징 공식 P(H|E) = P(E|H) P(H) / P(E) P(H|E): 사건 E가 일어나고 난 후, 사건 H의 확률. P(H): E가 일어나기 전에 갖고 있던 사건 H의 확률. 과거의 경험, 가설. 현상? P(E): 증거. 확률의 크기 조정. 현재 발생한 증거, 데이터 P(E|H): 사건 H가 발생한 경우, 사건 E가 일어날 확률 전제 1. 조건부 확률 2. 전체 확률의 법칙 P(B) = P(B∩A) ..
TIL
오늘은 - cycleGAN 논문 introduction까지 봤다.(여기까지 보는데도 시간이 좀 걸렸다. 차차 빨라지겠지) - 코테 - 모수 검정 vs 비모수 검정 에 대해서 간략하게 알아보고 정리했다. 모수 검정과 비모수 검정에 대해서 종종 듣고 보는데, 뜻이 바로 생각이 나지 않아서 정리 좀 하고 넘어가야 겠다. 모수적 검정 관측 값이 어느 특정한 확률분포(정규분포, 이항분포)를 따른다고 전제한 후, 그 분포의 모수(parameter)에 대한 검정을 실시 비모수 검정 관측 값이 특정 확률분포를 따른다고 전제할 수 없거나, 또는 모집단에 대한 아무런 정보가 없는 경우에 실시하는 검정방법 자료가 정규분포가 아니거나 표본의 크기가 작아 중심 극한 정리도 사용할 수 없을 경우분포에 대한 기본 가정을 필요로 하..
오늘은 kaggle playground s3e9 LGBM, XGBoost 개념 정리 + CatBoost model 테스트까지 진행. --> 내일은 ensemble model 정리까지 하면 될 듯 그리고 다음날부터 google - Isolated Sign Language Recognition 이거 해볼 예정.. 강남에서 진행한 StableDiffusion 과 chatGPT 모두팝을 듣고 왔다. 피어슨 상관계수 vs 스피어만 상관계수 두 변수 간의 관계를 측정하는 지표. 피어슨 상관계수 두 변수가 선형적으로 연관되어 있는 경우 적합한 지표 두 변수가 서로 직선 형태의 관계를 갖고 있는 경우, 하나의 변수가 증가할 때 다른 변수도 비례하여 증가하거나 감소하는 경우. -1부터 1까지 값을 갖는다. 스피어만 상관..
오늘은 코칭스터디 - 인공지능 기초 다지기에서 딥러닝 기초 다지기 파트를 들었다. 도커 환경설정 python에서 tensor를 다루는 법을 간단하게 배웠다. gradient descent, SGD를 파이썬 코드 관점에서 간단하게 배웠다. 간단한 지식이었지만, pytorch에 대해서 기본 지식도 없는 채로 실무에서 코드를 봤을 때 막막했던 부분들이었는데, 이번 기회에 알아서 좋았기도 했고, 한편으로는 이런 기본 지식도 없는데 어떻게 일을 했을까 싶더라. pytorch methods Squeeze: dimension의 사이즈가 1인 부분을 날려버린다. Unsqueeze: 내가 원하는 dimension에 1을 넣어준다. 그래서 반드시 쓸 때 꼭 dimension을 명시해야 한다. 참고: https://pyto..