강의 복습
- BERT 학습의 단계
- Tokenizer 만들기
- 데이터셋 확보
- Next sentence prediction(NSP)
- Masking
- 이미 있는 걸 쓰지 않고 새로 학습하는 이유: 도메인 특화 task의 경우, 도메인 특화된 학습데이터만 사용하는 것이 성능이 더 좋기 때문
- 학습을 위한 데이터 만들기
프로젝트 회고
오늘은 주어진 베이스라인 코드를 그대로 돌려서 첫 제출을 해봤더니 58.3%가 나왔다. VSCode로 연동해서 코드를 좀 손본 다음에 제출하고 싶었는데 왜인지는 모르겠지만 ssh 연결이 잘 안 되어서 어쩔 수 없이 그냥 주피터에서 돌렸다.
VSCode 연동에 성공하면 우선 train이랑 inference를 한 번에 실행하는 run.py를 만들고 config.json 파일도 따로 만들 생각이다.
+추가: VSCode 연동이 안 됐던 이유가 key파일 경로를 잘못 입력해서였다. 경로를 다시 설정해줬더니 연결에 성공했다.
'부스트캠프 AI Tech 1기 [T1209 최보미] > P stage-2 (KLUE)' 카테고리의 다른 글
Day6 학습정리 - BERT 기반 두 문장 관계 분류 모델 학습 (0) | 2021.04.19 |
---|---|
Day5 학습정리 - BERT 기반 단일 문장 분류 모델 학습 (0) | 2021.04.16 |
Day3 학습정리 - BERT 언어 모델 소개 (0) | 2021.04.14 |
Day2 학습정리 - 자연어의 전처리 (0) | 2021.04.13 |
Day1 학습정리 - 인공지능과 자연어 처리 (0) | 2021.04.12 |