본문 바로가기

인공지능(Coursera)15

[AI 7주차] Hyperparameter Tuning, Batch Normarlization, and Programming Frameworks Hyperparameter Tuninghyperparameter 를 어떻게 잘 설정할 수 있는지에 대해서 알아보자. hyperparameter 를 잘 설정하기 위해서 어떻게 해야 잘 탐색할 수 있을까?  Don't use a gridmachine learning algorithm 초기 세대에는 grid로 point 들을 sampling 했다. 아래와 같이 hyperparameter가 2개가 있고, hyperparameter 1을 learning rate, hyperparameter 2를 epsilon 이라고 하자. 25개의 point 들이 있다. 근데, 여기서 epsilon은 값을 바꿔도 크게 달라지지 않아서 크게 중요하지 않지만, learning rate는 아주 중요하다. 값에 따라 결과가 많이 달라진.. 2024. 7. 26.
[AI 6주차] Optimization Algorithm Mini-batch gradient descent인공지능에서 Optimization Algorithm은 neural network 를 더 빠르게 학습시키기 위한 방식이다. 이전 내용에서 m examples training 에서 vectorization은 더 효율적으로 빠르게 계산하도록 도와준다는 사실을 배웠었다.X = [X^(1), X^(2), ... , X^(m)] # (n_x, m)Y = [y^(1), y^(2), ... , y^(m)] # (1, m) 그렇다면, m 이 아주 큰 값, 예를 들어  5,000,000 or 50,000,000 그 이상이라면 어떻게 될까?  아주 많은 양의 training data set 를 전부 처리하고 나서야 겨우  한 단계의 gradient descent 를 할 .. 2024. 7. 15.
[AI 5주차] Deep learning의 실용적인 측면 Train / Dev / test sets모든 data를 가져와서 이를 training set, validation set, test set으로 나누고 training set를 사용해서 training을 하고, validation set에서 다양한 모델 중 가장 성능이 좋은 모델을 체크한다. 이러한 과정을 충분히 수행한 후 evaluate하고 싶은 최종적인 모델이 있을 때, test set을 사용해서 evaluate할 수 있다.  여기서 주의할 점은 각각의 data set의 distribution이 일치해야된다는 점이다. 사용자가 많은 사진을 업로드할 수 있는 application을 만들고 있고, 사용자에게 보여주기 위해 고양이 사진을 찾는 것이 목표라고 해보자. training set은 web page.. 2024. 7. 2.
[AI 4주차] DNN(깊은 신경망) Deep Neural Network(DNN): hidden layer가 2개 이상인 Neural network를 의미한다. 아래 그림은 4 Layer NN에서 3개의 hidden layer가 있는 경우이다. layer 0                   layer1                 layer2           layer3           layer4 Forward Propagation아래는 layer0에서 layer1로가는 forward propagation이다.w11 w12 w13 w14 w15w21 w22 w23 w24 w25 = w`^[1] //3 x 5 가중치 행렬w31 w32 w33 w34 w355 x 3 가중치 행렬로 만들어주기 위해 전치행렬을 가중치 행렬로 설정한.. 2024. 6. 27.