zpwiki/pages/topics/bert/README.md

121 lines
5.0 KiB
Markdown
Raw Normal View History

2021-10-12 11:52:58 +00:00
---
title: Jazykový model slovenského jazyka
published: true
author: Daniel Hládek
---
! Cieľ:
!
2021-10-21 11:14:54 +00:00
! - Natrénovať a vyhodnotiť slovenský jazykový model typu BERT z korpusu webových textov
2021-10-12 11:52:58 +00:00
## Súvisiace projekty
- [SlovakBERT](https://github.com/gerulata/slovakbert) od Kinit, a [článok](https://arxiv.org/abs/2109.15254)
- [SK Quad](/topics/question) - Slovak Question Answering Dataset
2021-10-12 11:55:31 +00:00
- bakalárska práca [Ondrej Megela](/students/2018/ondrej_megela)
2021-11-19 11:34:01 +00:00
- diplomová práza Jozef Olekšák (in progress, trénovanie electra na colab).
2021-10-21 11:10:46 +00:00
- https://git.kemt.fei.tuke.sk/dano/bert-train
2021-10-12 11:52:58 +00:00
2021-11-16 13:44:39 +00:00
## Rozpracované úlohy
- Trénovanie na TPU Google Colab Electra Base. (Olekšák)
- trénovanie XLNet Base
- Tokenizer SentencePiece pre XLNet
2021-11-19 11:34:01 +00:00
- Trénovanie Roberta Base (zatiaľ najlepšie 0.65)
2021-11-16 13:44:39 +00:00
2021-10-20 06:45:31 +00:00
2021-10-12 11:52:58 +00:00
## Hotové úlohy
2022-01-19 13:37:54 +00:00
## Trénovací korpus
Deduplikované a tokenizované webové dáta pomocou nášho tokenizátora a deduplikátora.
- Wikipédia
- Oscar Dedup
- Sita
- Websucker 2010,2012,2017
- Websucker 2022 in progress
Spolu 25 GB po deduplikovaní.
2021-11-09 13:46:47 +00:00
### Electra Model
- Vyhodnotenie Electra na SK SQUAD, UDP POS tagging
- Trénovacie skripty Electra
- Konvertovanie Electra do Transformers pomocou ransformers/src/transformers/models/electra/convert_electra_original_tf_checkpoint_to_pytorch.py
2021-10-21 11:16:18 +00:00
- Natrénovaný model Electra-small 128, 256 batch size, learning 2e-4, skweb2017dedup, Slovník 32K wordpiece, 0.83 POS, 0.51 Squad
2021-10-12 11:52:58 +00:00
2021-11-09 13:46:47 +00:00
### Hugging Face Models Finetuning
2021-11-19 11:34:01 +00:00
- Dotrénovaný model multilingual BERT base na SK QUAD, funguje demo skript. (0.72)
- Dotrénovany Slovak Bert na SK QUAD (0.75)
2021-11-09 13:46:47 +00:00
- Dotrénovaný model multilingual BERT na SQUAD anglickej, overné na slovenskej SK QUAD
- SK Quad Datasets Interface
### Hugging Face Roberta
- Natrénovaný HF Roberta Small
- Deduplikovaný webový korpus oscar plus skweb2017
- tokenizer BPE Roberta
2022-01-19 13:37:54 +00:00
- natrénovaný roberta base na 17GB korpuse, 0.65 na Squad
- trénovanie pomocou deepspeed (zrýchľuje cca 2x).
- pri efektívnej veľkosti dávky 1000 je asi najrýchlejčia konvrergencia pri lr 1e-4. , adam (0.9-0.999).
2022-01-19 13:38:58 +00:00
- Tokenizátor BPE treba trénovať na celkom korpuse.
2021-11-09 13:46:47 +00:00
2021-10-21 11:20:15 +00:00
## Budúce úlohy
2021-10-12 11:52:58 +00:00
2021-10-21 11:20:15 +00:00
- Pripraviť aj iné množiny na vyhodnotnie: kategorizácia textu na SCNC1.
2022-01-19 13:49:19 +00:00
- trénovanie na HPC
- trénovanie Large modelu
- trénovanie BART
2021-10-12 11:52:58 +00:00
2022-01-19 13:55:58 +00:00
## Poznámky Roberta
2021-10-12 11:52:58 +00:00
2022-01-19 13:49:19 +00:00
- Trénovanie roberta base s deepspeed 5 epoch, 25G korpus trvá 400 hod. BEz deepsdpeed 900 hod. na dvoch kartách.
- Veľkosť dávky roberta base na jedno zariadenie Titan24GB je 64 pre deepspeed.
2022-01-19 13:37:54 +00:00
- Dáta z prokuratúry asi zhoršujú model kvôli anonymizácii, skratkám a právnickému jazyku.
2022-01-19 13:55:58 +00:00
- Konfigurácia deepspeed po čase nastavila lr na nula a trénovanie sa zastavilo.
## Poznámky Electra
2021-10-12 11:52:58 +00:00
- Electra vie využiť iba jednu Titan kartu, druhú zbytočne blokuje.
- Trénovanie base electra trvá cca 40 dní na jednej karte.
2021-10-12 13:09:09 +00:00
- Trénovanie electra small trvá asi 3 dni na jednej karte Titan RTX, ale model už ďalej nekonverguje po jednom dni.
- Trénovanie electra small trvá asi 7 dní na jednej karte GTX1080
2021-10-12 11:52:58 +00:00
- Dotrénovanie trvá iba niekoľko hodín.
2021-10-12 13:09:09 +00:00
- Electric small 128 nefunguje na Quadre kvôli pamäti,
2021-10-13 05:53:05 +00:00
- Electra small 512/32 batch funguje na Titane.
2021-10-15 13:37:18 +00:00
- ELECTRA ingoruje pokyn na ponechanie diakritiky!!!! Ponechanie diakritiky funguje iba pre "prepare", inak sa diakritika stále odstraňuje. Ne ponechanie diakritiky sú potrebné úpravy v zdrojových kódoch.
2021-10-15 13:40:54 +00:00
- TODO: Vytvorenie slovníka ako pri BERT https://github.com/google-research/electra/issues/58
2022-01-19 13:55:58 +00:00
- electra prepare skript defaultne odstraňuje diakritiku a dáva malé písmená.
## Poznámky ku hyperparametrom
- V SLovak Bert bola veľkosť vstupného vektora 512. Máme toľko pamäte?
- Spotrebu pamäte ovplyvňujú veľkosť vstupného vektora, veľkosť trénovacej dávky.
- Nie každý model je vhodný na QA. Je potrebné aby mal veľký rozmer vstupného vektora aby aj dlhší odsek mohol byť na vstupe. Z toho dôvodu 128 "small model" asi nestačí na QA.
- Väčší vstupný rozmer je obmedzený veľkosťou RAM pri trénovaní.
- learning rate by malo byť priamo úmerné s batch_size. Malý batch size by mal mať malý learning rate.
2021-10-15 13:37:18 +00:00
2021-10-12 11:52:58 +00:00
## Budúci výskum
2021-10-12 15:16:25 +00:00
- Zistiť aký je optimálny počet tokenov? V Slovak BERT použili 50k.
2021-10-12 11:52:58 +00:00
- Pripraviť webové demo na slovenské QA.
- Integrovať QA s dialógovým systémom.
- Integrovať QA s vyhľadávačom.
- Zostaviť multilinguálny BERT model.
- Natrénovať BART model.
- Natrénovať model založený na znakoch.
2021-10-21 11:10:46 +00:00
## Hardvérové požiadavky
[https://medium.com/nvidia-ai/how-to-scale-the-bert-training-with-nvidia-gpus-c1575e8eaf71](zz):
When the mini-batch size n is multiplied by k, we should multiply the starting learning rate η by the square root of k as some theories may suggest. However, with experiments from multiple researchers, linear scaling shows better results, i.e. multiply the starting learning rate by k instead.
| BERT Large | 330M |
| BERT Base | 110M |
Väčšia veľkosť vstupného vektora => menšia veľkosť dávky => menší parameter učenia => pomalšie učenie