프로젝트 회고
- 문장 길이를 어느정도 맞추기 위해 엔티티 앞뒤 30자까지만 남기고 나머지는 잘라봤는데 큰 효과는 없었다.
- 엔티티를 'e1, e2의 관계는?'와 같이 질문 형태로 바꿔봤는데 이것도 큰 효과는 없었다.
- 토론게시판에 올라온 NER 적용한 csv파일을 받아서 사용해봤는데 이것 역시 효과가 없었다.
- maxlength를 160에서 130으로 바꿔봤는데 성능이 비슷했다.
- 스페셜토큰을 문장에만 주는 것이 아니라 엔티티에도 줘봤는데 큰 효과가 없었다.
- 토론게시판에 올라온 정확도 80% 나온다는 train.py 코드를 그대로 가져와서 사용해봤는데 내가 했을 땐 성능이 안 좋게 나왔다.
- 마지막으로 가장 정확도가 높았던 submission 파일 5개를 hard voting 방식으로 앙상블했더니 정확도가 1.5%정도 올랐다.
'부스트캠프 AI Tech 1기 [T1209 최보미] > P stage-2 (KLUE)' 카테고리의 다른 글
Day 10 학습정리 - Stage2 마무리 (0) | 2021.04.23 |
---|---|
Day8 학습정리 - GPT 언어 모델 소개 (0) | 2021.04.21 |
Day7 학습정리 - BERT 기반 문장 토큰 분류 모델 학습 (0) | 2021.04.20 |
Day6 학습정리 - BERT 기반 두 문장 관계 분류 모델 학습 (0) | 2021.04.19 |
Day5 학습정리 - BERT 기반 단일 문장 분류 모델 학습 (0) | 2021.04.16 |