프로젝트 회고
xlm-roberta-large 모델이 성능이 좋다는 이야기를 많이 들어서 시도해봤다. 모델이 무거워서 그런지 저장용량이 부족해서 중간에 자꾸 멈추는 바람에 폴더를 지워가면서 몇 번이나 처음부터 다시 했다. 우여곡절 끝에 간신히 성공했는데 성능이 72%에서 무려 76.4%로 올랐다. 다음에는 special token도 한 번 적용해볼 생각이다.
'부스트캠프 AI Tech 1기 [T1209 최보미] > P stage-2 (KLUE)' 카테고리의 다른 글
Day9 학습정리 - 최신 자연어 처리 연구 (0) | 2021.04.22 |
---|---|
Day8 학습정리 - GPT 언어 모델 소개 (0) | 2021.04.21 |
Day6 학습정리 - BERT 기반 두 문장 관계 분류 모델 학습 (0) | 2021.04.19 |
Day5 학습정리 - BERT 기반 단일 문장 분류 모델 학습 (0) | 2021.04.16 |
Day4 학습정리 - 한국어 BERT 언어 모델 학습 (0) | 2021.04.15 |