문제링크: https://school.programmers.co.kr/learn/courses/30/lessons/12953 문제 설명 두 수의 최소공배수(Least Common Multiple)란 입력된 두 수의 배수 중 공통이 되는 가장 작은 숫자를 의미합니다. 예를 들어 2와 7의 최소공배수는 14가 됩니다. 정의를 확장해서, n개의 수의 최소공배수는 n 개의 수들의 배수 중 공통이 되는 가장 작은 숫자가 됩니다. n개의 숫자를 담은 배열 arr이 입력되었을 때 이 수들의 최소공배수를 반환하는 함수, solution을 완성해 주세요. 제한 사항 - arr은 길이 1이상, 15이하인 배열입니다. - arr의 원소는 100 이하인 자연수입니다. 문제 이해 - 처음에는 지수를 활용한 풀이로 풀었다. 참고..
분류 전체보기
문제링크: https://school.programmers.co.kr/learn/courses/30/lessons/12949 문제설명 2차원 행렬 arr1과 arr2를 입력받아, arr1에 arr2를 곱한 결과를 반환하는 함수, solution을 완성해주세요. 제한 조건 행렬 arr1, arr2의 행과 열의 길이는 2 이상 100 이하입니다. 행렬 arr1, arr2의 원소는 -10 이상 20 이하인 자연수입니다. 곱할 수 있는 배열만 주어집니다. 입출력 예 문제 이해 겉으로 보기에는 간단한, 행렬곱을 코딩하는 문제이다. 행렬 곱을 표현하면 다음과 같다. (m, k)의 A 행렬과 (k, n)의 B 행렬을 곱했을 때 A행렬의 i행과 B행렬의 j열의 성분을 각각 곱하고, 이를 모두 더한 값이 AxB 행렬의..
[문제링크] https://school.programmers.co.kr/learn/courses/30/lessons/12946 문제 설명 하노이 탑(Tower of Hanoi)은 퍼즐의 일종입니다. 세 개의 기둥과 이 기동에 꽂을 수 있는 크기가 다양한 원판들이 있고, 퍼즐을 시작하기 전에는 한 기둥에 원판들이 작은 것이 위에 있도록 순서대로 쌓여 있습니다. 게임의 목적은 다음 두 가지 조건을 만족시키면서, 한 기둥에 꽂힌 원판들을 그 순서 그대로 다른 기둥으로 옮겨서 다시 쌓는 것입니다. 한 번에 하나의 원판만 옮길 수 있습니다. 큰 원판이 작은 원판 위에 있어서는 안됩니다. 하노이 탑의 세 개의 기둥을 왼쪽 부터 1번, 2번, 3번이라고 하겠습니다. 1번에는 n개의 원판이 있고 이 n개의 원판을 3번..
원래 나는 코딩테스트를 따로 포스팅하지 않았다. 이유는, 알고리즘 효율을 따져야 하나 싶기도 했다. 요즘 컴퓨터 성능이 워낙 좋아서 딱히 알고리즘 효율을 생각 안해도 된다는 말을 들어서 그렇기도 했다. 원래 코테 공부의 용도는 네이버 부스트캠프에 들어가려고, 구현 연습 및 알고리즘 암기 정도로 생각하고 있었다. 그런데, 1. 이번에 라이브 코딩 테스트를 보면서, 어려운 문제를 푸는 것 보다는 평이한 문제라도 문제 해결 과정 및 코드를 설명하는 능력이 중요하다고 느꼈다. 그도 그럴게, 프로그래밍은 혼자하는 것이 아니고 남들과 코드를 공유해야 하는 분야이기 때문이다. 공유를 하면 당연히 남들에게 내 코드의 알고리즘도 잘 설명해야겠지? 지금까지의 공부 방식은 이러한 능력 향상에 도움이 1도 되지 않는다고 생각..
일주일동안 뭐했나 한 번 살펴보려고 작성해 본다. 일시 2023-04-10 ~ 2023-04-16 주요 사건 diffusion model DDPM, DDIM 논문 리뷰 너무 어려웠음. 아직도 diffusion model의 수식을 이해하는데 시간을 쏟고 있다. 면접 베이글코드(라이브 코딩 테스트. 광탈) 반프(온라인 면접) 기초 학습 베이즈 정리 가능도와 확률, MLE에 대한 정리 사이드 프로젝트: 포춘쿠키 사이트 만들기 로딩 서클 만듬 깃허브에 업로드함.
확률과 가능도(우도) 확률 : 주어진 분포에서 특정 사건이 관측될 확률 확률 = P(관측값 X | 확률분포 D) 가능도 : 주어진 값이 특정 확률분포에서 관측될지에 대한 확률 가능도 = L(확률분포 D | 관측값 X) 최대 우도 추정( Maximum Likelihood) : 주어진 관측값에 대한 총 가능도(모든 가능도의 곱)가 최대가 되게 하는 분포를 찾는 것. 여러 개의 관측값을 구했을 때, 이렇게 관측 될 가능성이 가장 큰 확률분포를 구하는 것이 MLE이다. 먼저 이 포스팅에서는 두 가지 가정을 한다. 가정1. 관측값이 이렇게 분포되었다고 가정 가정2. 관측값에 대한 분포는 정규분포를 띈다고 가정 정규분포의 식을 구할 때는 두 가지만 구하면 된다. 평균 μ 표준편차 σ step 1. 평균 구하기 임의..
베이즈 정리 어떤 사건이 서로 배반하는 원인들에 의해 일어난다고 할 때, 실제 사건이 일어났을 때 이것이 원인들 중 하나일 확률을 구하는 정리. 이전의 경험(을 바탕으로 하는 가설 H)과 현재의 증거(E)를 토대로 어떤 사건의 확률(=사후확률)을 추론하는 과정 결과를 관측한 뒤 원인을 추론할 수 있다는 특징 공식 P(H|E) = P(E|H) P(H) / P(E) P(H|E): 사건 E가 일어나고 난 후, 사건 H의 확률. P(H): E가 일어나기 전에 갖고 있던 사건 H의 확률. 과거의 경험, 가설. 현상? P(E): 증거. 확률의 크기 조정. 현재 발생한 증거, 데이터 P(E|H): 사건 H가 발생한 경우, 사건 E가 일어날 확률 전제 1. 조건부 확률 2. 전체 확률의 법칙 P(B) = P(B∩A) ..
Abstract Image-to-image translation(이하 translation)은 한 이미지 도메인을 다른 이미지 도메인으로 변환시키는 computer vision의 한 task translation은 보통 input과 output이 짝이 지어진 상태에서 학습. 하지만 짝이 지어진 학습 데이터를 얻는 것이 어렵습니다. 따라서 cycleGAN 논문에서는 짝지어진 예시 없이 X라는 domain으로부터 얻은 이미지를 target domain Y로 바꾸는 방법을 제안. 이 연구는 Adversarial loss를 활용해, G(x)로부터 생성된 이미지 데이터의 분포와 Y로부터의 이미지 데이터의 분포가 구분이 불가능하도록 "함수 G:X -> Y"를 학습시키는 것을 목표로 합니다. X --> Y로의 map..