- 회고(Retrospective) 목적
회고는 우리가 진행하고 있는 방향을 점검하고, 이후 진행할 방향성을 확인하기 위함이다.
또한, 스스로 느꼈던 감정, 했던 일을 통해 Action Item에 대한 아이디어를 생각하는 것이다
- 회고에 대한 마음가짐
- 모두에서 이야기할까 말까? 하던 것을 회고를 통해 이야기를 하면서 개선하기
- 이전 회고를 참고하여 현재 진행하는 프로젝트에 대한 생각과 감정을 정리하기
- "특정 상황에 내가 어떤 감정이 들었는가?"라는 본인을 되돌아보고 그 당시 어떤 감정을 느꼈는지
- 만약, 그때에는 많이 힘들었다면 어떤 상황이 힘들었는지, 어떻게 했으면 달라졌는지
- 문제가 되었던 부분을 비판적으로 분석하고, 어떻게 개선할 수 있는지
- 제시되었던 아이디어, 내가 가진 아이디어에 대해 열린 시선으로 바라보기
- 수동적으로(하라고 해서 한다) 하는 것은 좋지 않으니 적극적으로 하기
- 가장 중요한 것으로 회고를 꾸준히 하기
SKN Family AI 3기 회고록 14주 차 (5F 회고 방법론)
- Facts : 사실. 무슨 일이 있었는가?
| 날짜 | Facts | 비고 |
| 10.07 | 1. Vanilla RNN 2. LSTM(Long Short Term Memory) 3. Bi-LSTM(Bi-directional long short term memory) 4. GRU(Gated Recurrent Unit) 5. 텍스트 생성(text generator) |
|
| 10.08 | 1. GRU 복습 2. Sequence To Sequence 3. Seq2Seq and Attention |
|
| 10.09 | 한글날 | |
| 10.10 | 1. Attention Mechanism 2. Transformer 3. Transformer Layers |
|
| 10.11 | 1. OCR(Optical Character Recognition) 2. CRNN |
- Feeling : 느낀 점, 감정. 어떤 느낌이 들었는가?
- AI에서 중요한 Attention과 Transformer강의 듣게 되어 기대감이 높았습니다.
- AI의 기반 이론인 만큼 어려워서 이해하는데 시간이 걸렸습니다.
- Finding : 배운 점, 인사이트. 어떤 것을 기억하고 싶은가?
- 기본 RNN도 상당한 성능을 보여줬는데 Attention과 Transformer를 적용하니 적은 epoch에도 상당한 성능을 보여줘서 놀라웠습니다.
- 다만 Attention과 Transformer를 적용하기 위해선 기반이 되는 data량이 매우 많아야 하는 점과 연산량이 엄청나서 일반 배포용으로 사용하기엔 제한이 많다는 점이 단점입니다.
- 또한 최근 이미지 인식관련 인공지능 대회에선 CNN 모델이 오히려 더 좋은 성능을 보여준 사례가 있는 만큼 적절한 상황에 적절한 모델을 사용하는 것이 좋다고 생각됩니다.
- Future Action : 향후 액션 아이템. 앞으로 무엇을 할 것인지?
- 기존 딥러닝 과정부터 복습하면서 다시 기반을 다지려고 합니다.
- 가장 필요해 보이는 Ray tune(딥러닝의 HPO)의 사용을 자유자제로 할 수 있도록 만들어야 할 것 같습니다.
- Feedback : 피드백. Future Action에서 정한 액션 아이템을 실행하고 어떤 피드백을 받았는가?
- 지금 하는 탬포대로 천천히 하되, 컨디션 조절 잘할 것
'SKN > Family AI camp 3기 회고록' 카테고리의 다른 글
| SKN Family AI 3기 회고록 16주 차 (0) | 2024.10.28 |
|---|---|
| SKN Family AI 3기 회고록 15주 차 (7) | 2024.10.21 |
| SKN Family AI 3기 회고록 13주 차 (1) | 2024.10.07 |
| SKN Family AI 3기 회고록 12주 차 (0) | 2024.09.30 |
| SKN Family AI 3기 회고록 11주 차 (1) | 2024.09.23 |