[boostcourse] Day8 학습기록_minibatch28
Date:
학습 내용
선택2번 추가 공부
피어세션 👨👨👦👦 👨👨👦
모더레이터 : 홍요한
참가자 : 강재현, 권예환, 김준태, 박마루찬, 서광채, 장동건, 홍요한
건의사항
-
강의에서 AlexNet, GoogLeNet에 대해서 다뤘는데, 내용 설명이 아닌 구현으로 해보는건 어떨지?
논의 item
- 알려진 모델에 dataset하나 정해서 Test 후 비교해보기
- 직접 구현
→ 모델의 중요한 부분의 code에 대해서 review하는 형식으로 진행하자
모델의 중요 code에 대해서 Review하는 것으로 얘기됨
과제 리뷰
- 선택과제 2번 설명 AAE (홍요한, 김준태)
- 선택과제 3번 설명 MDN (강재현, 권예환, 장동건)
질문내용
-
질문 : kaiming(ReLU), xavier(sigmoid) 등 다양한 weight 초기화 방법이 있는데, 어떤 상황일 때 어떤 방법으로 initialization을 하면 좋을지?(재현님)
답 : activation function하고 관련이 있다 -추가 확인 필요함
-
질문 : CNN에서는 따로 weight 초기화를 해주면 학습이 잘 되는건 알겠습니다. 근데 단순 MLP같은 경우 weight 초기화를 다르게 해준다고 해서 목적식이 바뀌는 것도 아닌데 초기화를 공들여서 하는 의미가 있을까요?(재현님)
답 : sigmoid - gradient vanishing
-
질문 : 이미지 분류대회를 했을떄 모델 말고 다른 선택해야할게 있을까?
답 : activation function, opt, weight init 등 여러 함수들 선택해야함
회고록
오늘 AAE에 대해서 조원들에게 공유하는 시간이 있었다. 시간을 투자한 것에 비해서 생각보다 전달이 안됐던 것 같다. 요점을 찍어서 알려줘야하는데,, 나 조차도 뭐가 중요한지 어떤걸 궁금해할지 생각할 여유가 없었던 것 같다.
앞으로 DL 관련 Model를 이해하거나 설명할 때,
- 배경 & 흐름을 설명
- 이전에 모델 대비 개선점
- Loss Function(어떻게 학습하는지)
상기 3가지를 기억해 놔야겠다.
💡 수정 필요한 내용은 댓글이나 메일로 알려주시면 감사하겠습니다!💡
댓글