Notice
Recent Posts
Recent Comments
Link
«   2025/07   »
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
Tags
more
Archives
Today
Total
관리 메뉴

걍블로그

Diffusion 기반의 Text 생성 실험2차 수정 본문

인공지능/실험 해보기

Diffusion 기반의 Text 생성 실험2차 수정

애쉬용용 2023. 6. 11. 18:32

  - 1차 수정에 대한 결과 그래프(아래)를 보면서, 두가지 의미를 생각했다. 1. Train Data도 Validation으로 가치가 있다 :  왜냐면 그래프를 봤을 때, 데이터를 외웠다고 볼수 없다. 애초에 에폭 단위로 찍은게 아니라 Unseen Train Data이기도 해서 문제가 없다는 가정을 어느정도 뒷받침 해줄 수 있어 보임. 2. 그래프는 10000번의 iteraion 마다 그래프를 업데이트 하고 있다. 아래 그래프 상으로 12만번 학습한 결과로 loss가 증가한 것을 볼 수 있는데, 이는 model이 학습을 못했다고 볼 수 있는데 학습률이 커서 생긴 문제로 추정을 했기 때문에 학습률을 낮출 필요가 있다(물론 validation은 학습을 하면서 loss가 증가 될 수 있는것은 일부 사실이지만, 아래의 경우 loss 증가폭이 매우 큰 부분과 전체적인 경향성이 loss가 감소하는 결과나 나타나지 않는 부분과 진동폭이 큰 부분을 모델 학습이 실패 했다는 근거로 생각한다).

 

결론 : 일단 구성은 의미가 있음 + 학습률 낮춰서 재학습 진행

 

결과 

다소 효과가 있다고 보여짐 -> loss가 줄었음

근데.... 진동이 생가보다 큼.... 중간에 큰 loss가 있고 이로 인해서 그래프가 망가지는 기존의 가설이 그대로 적용된거 같긴함...! 그래서 조금 더 낮춰서 다시 해보기!