forked from KEMT/zpwiki
zz
This commit is contained in:
parent
c64f78be4a
commit
77296a745c
@ -13,25 +13,41 @@ author: Daniel Hládek
|
|||||||
- [SlovakBERT](https://github.com/gerulata/slovakbert) od Kinit, a [článok](https://arxiv.org/abs/2109.15254)
|
- [SlovakBERT](https://github.com/gerulata/slovakbert) od Kinit, a [článok](https://arxiv.org/abs/2109.15254)
|
||||||
- [SK Quad](/topics/question) - Slovak Question Answering Dataset
|
- [SK Quad](/topics/question) - Slovak Question Answering Dataset
|
||||||
- bakalárska práca [Ondrej Megela](/students/2018/ondrej_megela)
|
- bakalárska práca [Ondrej Megela](/students/2018/ondrej_megela)
|
||||||
|
- diplomová práza Jozef Olekšák (inprogress, trénovanie electra na colab).
|
||||||
- https://git.kemt.fei.tuke.sk/dano/bert-train
|
- https://git.kemt.fei.tuke.sk/dano/bert-train
|
||||||
|
|
||||||
|
|
||||||
## Hotové úlohy
|
## Hotové úlohy
|
||||||
|
|
||||||
- Vyhodnotenie na SK SQUAD, UDP POS tagging
|
### Electra Model
|
||||||
- Trénovacie skripty
|
|
||||||
- Dotrénovaný model multilingual BERT base na SK QUAD, funguje demo skript. Nefunguje exaktné vyhodnotenie.
|
- Vyhodnotenie Electra na SK SQUAD, UDP POS tagging
|
||||||
|
- Trénovacie skripty Electra
|
||||||
|
- Konvertovanie Electra do Transformers pomocou ransformers/src/transformers/models/electra/convert_electra_original_tf_checkpoint_to_pytorch.py
|
||||||
- Natrénovaný model Electra-small 128, 256 batch size, learning 2e-4, skweb2017dedup, Slovník 32K wordpiece, 0.83 POS, 0.51 Squad
|
- Natrénovaný model Electra-small 128, 256 batch size, learning 2e-4, skweb2017dedup, Slovník 32K wordpiece, 0.83 POS, 0.51 Squad
|
||||||
|
|
||||||
|
### Hugging Face Models Finetuning
|
||||||
|
|
||||||
|
- Dotrénovaný model multilingual BERT base na SK QUAD, funguje demo skript.
|
||||||
|
- Dotrénovany Slovak Bert na SK QUAD
|
||||||
|
- Dotrénovaný model multilingual BERT na SQUAD anglickej, overné na slovenskej SK QUAD
|
||||||
|
- SK Quad Datasets Interface
|
||||||
|
|
||||||
|
### Hugging Face Roberta
|
||||||
|
|
||||||
|
- Natrénovaný HF Roberta Small
|
||||||
|
- Deduplikovaný webový korpus oscar plus skweb2017
|
||||||
|
- tokenizer BPE Roberta
|
||||||
|
|
||||||
## Budúce úlohy
|
## Budúce úlohy
|
||||||
|
|
||||||
- Konvertovať do Transformers pomocou ransformers/src/transformers/models/electra/convert_electra_original_tf_checkpoint_to_pytorch.py
|
|
||||||
- Pridať OSCAR a Wikipedia do trénovania.
|
|
||||||
- Trénovanie na TPU Google Colab
|
- Trénovanie na TPU Google Colab
|
||||||
- Natrénovať Electra Base.
|
- Natrénovať Electra Base.
|
||||||
- Dokončiť SK SQUAD databázu pre exaktné vyhodnotenie.
|
|
||||||
- Pripraviť aj iné množiny na vyhodnotnie: kategorizácia textu na SCNC1.
|
- Pripraviť aj iné množiny na vyhodnotnie: kategorizácia textu na SCNC1.
|
||||||
|
- Trénovanie Roberta Base
|
||||||
|
- trénovanie XLNet Base
|
||||||
|
- Tokenizer SentencePiece pre XLNet
|
||||||
|
- Pridať Wikipedia do trénovania.
|
||||||
|
|
||||||
## Poznámky
|
## Poznámky
|
||||||
|
|
||||||
@ -61,7 +77,6 @@ author: Daniel Hládek
|
|||||||
- Zostaviť multilinguálny BERT model.
|
- Zostaviť multilinguálny BERT model.
|
||||||
- Natrénovať BART model.
|
- Natrénovať BART model.
|
||||||
- Natrénovať model založený na znakoch.
|
- Natrénovať model založený na znakoch.
|
||||||
- Adaptovať SlovakBERT na SQUAD. To znamená dorobiť úlohu SQUAD do fairseq.
|
|
||||||
|
|
||||||
## Hardvérové požiadavky
|
## Hardvérové požiadavky
|
||||||
|
|
||||||
|
Loading…
Reference in New Issue
Block a user