[AI 6주차] Optimization Algorithm
Mini-batch gradient descent인공지능에서 Optimization Algorithm은 neural network 를 더 빠르게 학습시키기 위한 방식이다. 이전 내용에서 m examples training 에서 vectorization은 더 효율적으로 빠르게 계산하도록 도와준다는 사실을 배웠었다.X = [X^(1), X^(2), ... , X^(m)] # (n_x, m)Y = [y^(1), y^(2), ... , y^(m)] # (1, m) 그렇다면, m 이 아주 큰 값, 예를 들어 5,000,000 or 50,000,000 그 이상이라면 어떻게 될까? 아주 많은 양의 training data set 를 전부 처리하고 나서야 겨우 한 단계의 gradient descent 를 할 ..
2024. 7. 15.