huggingface transformers を使って日本語 BERT モデルをファインチューニングして感情分析 (with google colab) part02
March 13, 2021
こちらの記事の内容は古くなっています。最新版は以下のページをご覧ください
https://jupyterbook.hnishi.com/language-models/fine_tune_jp_bert_part02.html
part01 に引き続いて、今回は、まとまったデータセットを使い、transformers の Trainer class を使いファインチューニングする方法を記載します。
また、学習後の評価方法に関しても記載します。
なお、今回はまとまった量 (4000 件程度) のデータを使って学習を行いますので、GPU の使用を推奨します (著者は google colab を使用して動作確認しています)。
この記事は、part02 です。
すべての記事の目次は以下をご参照ください。
https://github.com/hnishi/handson-language-models/blob/main/README.md
参考
必要なライブラリのインストール
!pip install -q transformers
[K |████████████████████████████████| 1.9MB 7.7MB/s[K |████████████████████████████████| 3.2MB 36.1MB/s[K |████████████████████████████████| 890kB 51.3MB/s[?25h Building wheel for sacremoses (setup.py) ... [?25l[?25hdone
import pandas as pdimport torchfrom transformers import BertTokenizer, BertForSequenceClassification, pipelinefrom transformers import AdamW