목록전체 글 (51)
걍블로그

- 1차 수정에 대한 결과 그래프(아래)를 보면서, 두가지 의미를 생각했다. 1. Train Data도 Validation으로 가치가 있다 : 왜냐면 그래프를 봤을 때, 데이터를 외웠다고 볼수 없다. 애초에 에폭 단위로 찍은게 아니라 Unseen Train Data이기도 해서 문제가 없다는 가정을 어느정도 뒷받침 해줄 수 있어 보임. 2. 그래프는 10000번의 iteraion 마다 그래프를 업데이트 하고 있다. 아래 그래프 상으로 12만번 학습한 결과로 loss가 증가한 것을 볼 수 있는데, 이는 model이 학습을 못했다고 볼 수 있는데 학습률이 커서 생긴 문제로 추정을 했기 때문에 학습률을 낮출 필요가 있다(물론 validation은 학습을 하면서 loss가 증가 될 수 있는것은 일부 사실이지만, ..
휴식.... 이것저것 했지만, 기록을 남길만한 부분이 없음...

- Diffusion 기반의 Text 생성 실험1차 실험에서 이상한 부분들을 발견하여서 수정을 진행하였음 - airflow로 데이터 파이프라인을 만드는 법을 간단하게 진행했었다. 실제 프로덕트 보다는 그냥 간단한 예제 코드만 수행해 봤다. - 인공지능 스터디를 하면서 데이터를 수렴하는 경우에 대해서 같이 논의 했었다. 결국에는 쉬운 결론이지만, 실제 복잡한 데이터의 파이프라인에서 이를 판단하는 작업은 생각보다 어렵다. 원인 : 1. 데이터 구성의 문제(데이터의 입력이 구분할 수 없는 경우, 매우 복잡한 경우, 여러 정보가 규칙성 없이 들어 와서 입력에 대한 패턴이 없는 경우) 2. 모델 문제(자주 발생하는 부분은 아니지만, 일부 세팅이나 모델 크기의 문제로 인해서) 데이터를 외우거나 패턴을 이해할정도로 ..

해야될 실험을 못하고 요즘 다른 작업들에 정신이 팔려서.... 다시 원래의 실험에 돌아왔다! 학습의 효율성을 더 높일 수 있는 방법!?을 고민해 보다가 몇가지 생각이 들었고 이것을 기반으로 작업 방향을 수정 하고자함. - 고민 사항 : 1. LM-Head 부분을 발견 했는데 내가 굳이 이부분을 재학습할 필요가 있나? 기존 Pre-trained 모델이 훨씬 더 잘 학습 했을텐데?? -> 실제로 해보니까 원본 데이터를 잘 복원함 2. Decoder 부분의 Layer가 굳이 깊을 필요가 있나? 기존의 방법들도 Decoder 부분이 Transformer처럼 다른 도메인을 다루는 경우가 아니라 단순하기 Sequence의 의미를 해석할 때는 그렇게 깊게 하지는 않았음. 그래서 아키텍처를 조금 수정해볼 필요가 있을것..

지인의 부탁으로 간단한 키오스크 프로그램을 만들려고 했다. 프론트 파트를 해본적이 없지만, 대충 2시간이면 끝날줄 알았던 프로젝트가 생각보다 시간이 걸렸다. 이전에 만들었던 Vue.js에서 그냥 그림, 글자, 이벤트만 수정해서 처리하면 될 줄 알았던 간단한 프로젝트..... 배포를 하기도 하고 DB에 대한 구현도 할겸해서 fire-base를 연동해서 쓸려고 했는데, db입력에서 3시간을 날렸다. 심지어 해결도 못했다. 어려운 프로젝트도 아니니까 그냥 다 지우고 새로 만들어버려야겠다! 막상 하다보니 제일 중요한 메인 프로젝트를 잘 못하고 있다. 이제부터 스케줄링을 좀 더 신경 써야겠다!

- 오늘은 그냥 설렁설렁 이것저것 해보고 있다! - 고정 ip 처리 : 이전에 여러 시도를 해보다가 결국 실패를 했는데, 그래서 통신사에 직접 전화를 해서 물어 봤는데.... 방법이 없다고 한다. 가정용 PC에는 고정 ip 할당이 안된다고 한다! 열심히 만들어도 서비스가 안된다는 것을 알게 되니까 조금 아쉬운 마음이 컸다. - 이런저런 디자인 작업 : 사실 디자인을 할 줄 모른다. 그냥 피그마를 이용해서 박스 여러개를 붙여 넣은게 전부긴 하다....! 이럴거면 그냥 피피티로 할걸 굳이 피그마를 쓰는 의미는 없는거 같다! 사실 이전에 프로트엔트 부분도 피그마로 데모 디자인을 만들었다. 근데 그닥 효과는 없어서 굳이 안써도 될거 같다. - 운동하기 : 꾸준히 운동을 하고 있다! 밤의 풍경은 항상 아름답다!

할게 없어서, 그냥 논문을 좀 보면서 아이디어들이 어떤 것들이 있나 구경을 좀 해봤다. 너무 대충이지만 그래도 정리를 해야할 것 같아서 해봤다. https://eoehdvldk.tistory.com/39 아이디어 탐색 실험을 돌아가는 동안 시간이 좀 남아서 최근(?) 논문들을 간단하기 훑어 보았다. 그냥 대략적으로 보기만 한거라 이해를 잘못하거나 못한 부분도 그냥 넘어갔다. 그냥 어떤 아이디어들이 있는 eoehdvldk.tistory.com 그리고 오늘은 야간 산책을 다녀왔는데, 경치가 이뻤다. 앞으로는 종종 이쁜 장소도 놀러 가보고는 해야겠다!

실험을 돌아가는 동안 시간이 좀 남아서 최근(?) 논문들을 간단하기 훑어 보았다. 그냥 대략적으로 보기만 한거라 이해를 잘못하거나 못한 부분도 그냥 넘어갔다. 그냥 어떤 아이디어들이 있는지만 볼 생각이라...... 대충 보고 넘기는 중이다. IMAGEBIND: One Embedding Space To Bind Them All : 기존의 CLIP의 멀티 모달 버전. - CLIP은 이미지-Text 쌍에 대한 관계만 정의해주는 반면에, 여기서는 오디오, Text, 이미지 등의 관계로 확장 - 기존에는 (Text,Image)를 (Text,Image), (Audio,Image), (Depth,Image)등으로 이미지를 고정한 다른 모달과의 관계를 학습함(제목인 IMAGEBIND도 이와 연관된듯). 그러면 신기하게..