forked from KEMT/zpwiki
		
	zz
This commit is contained in:
		
							parent
							
								
									c64f78be4a
								
							
						
					
					
						commit
						77296a745c
					
				@ -13,25 +13,41 @@ author: Daniel Hládek
 | 
			
		||||
- [SlovakBERT](https://github.com/gerulata/slovakbert) od Kinit, a [článok](https://arxiv.org/abs/2109.15254)
 | 
			
		||||
- [SK Quad](/topics/question) - Slovak Question Answering Dataset 
 | 
			
		||||
- bakalárska práca [Ondrej Megela](/students/2018/ondrej_megela)
 | 
			
		||||
- diplomová práza Jozef Olekšák (inprogress, trénovanie electra na colab).
 | 
			
		||||
- https://git.kemt.fei.tuke.sk/dano/bert-train
 | 
			
		||||
 | 
			
		||||
 | 
			
		||||
## Hotové úlohy
 | 
			
		||||
 | 
			
		||||
- Vyhodnotenie na SK SQUAD, UDP POS tagging
 | 
			
		||||
- Trénovacie skripty
 | 
			
		||||
- Dotrénovaný model multilingual BERT base  na SK QUAD, funguje demo skript. Nefunguje exaktné vyhodnotenie.
 | 
			
		||||
### Electra Model
 | 
			
		||||
 | 
			
		||||
- Vyhodnotenie Electra na SK SQUAD, UDP POS tagging
 | 
			
		||||
- Trénovacie skripty Electra
 | 
			
		||||
- Konvertovanie Electra do Transformers  pomocou ransformers/src/transformers/models/electra/convert_electra_original_tf_checkpoint_to_pytorch.py 
 | 
			
		||||
- Natrénovaný model Electra-small 128, 256 batch size, learning 2e-4, skweb2017dedup, Slovník 32K wordpiece, 0.83 POS, 0.51 Squad
 | 
			
		||||
 | 
			
		||||
### Hugging Face Models Finetuning
 | 
			
		||||
 | 
			
		||||
- Dotrénovaný model multilingual BERT base  na SK QUAD, funguje demo skript. 
 | 
			
		||||
- Dotrénovany Slovak Bert na SK QUAD
 | 
			
		||||
- Dotrénovaný model multilingual BERT na SQUAD anglickej, overné na slovenskej SK QUAD
 | 
			
		||||
- SK Quad Datasets Interface
 | 
			
		||||
 | 
			
		||||
### Hugging Face Roberta
 | 
			
		||||
 | 
			
		||||
- Natrénovaný HF Roberta Small
 | 
			
		||||
- Deduplikovaný webový korpus oscar plus skweb2017
 | 
			
		||||
- tokenizer BPE Roberta
 | 
			
		||||
 | 
			
		||||
## Budúce  úlohy
 | 
			
		||||
 | 
			
		||||
- Konvertovať do Transformers  pomocou ransformers/src/transformers/models/electra/convert_electra_original_tf_checkpoint_to_pytorch.py 
 | 
			
		||||
- Pridať OSCAR a  Wikipedia do trénovania.
 | 
			
		||||
- Trénovanie na TPU Google Colab
 | 
			
		||||
- Natrénovať Electra Base.
 | 
			
		||||
- Dokončiť SK SQUAD databázu pre exaktné vyhodnotenie.
 | 
			
		||||
- Pripraviť aj iné množiny na vyhodnotnie: kategorizácia textu na SCNC1.
 | 
			
		||||
 | 
			
		||||
- Trénovanie Roberta Base
 | 
			
		||||
- trénovanie XLNet Base
 | 
			
		||||
- Tokenizer SentencePiece pre XLNet
 | 
			
		||||
- Pridať Wikipedia do trénovania.
 | 
			
		||||
 | 
			
		||||
## Poznámky
 | 
			
		||||
 | 
			
		||||
@ -61,7 +77,6 @@ author: Daniel Hládek
 | 
			
		||||
- Zostaviť multilinguálny BERT model.
 | 
			
		||||
- Natrénovať BART model.
 | 
			
		||||
- Natrénovať model založený na znakoch.
 | 
			
		||||
- Adaptovať SlovakBERT na SQUAD. To znamená dorobiť úlohu SQUAD do fairseq.
 | 
			
		||||
 | 
			
		||||
## Hardvérové požiadavky
 | 
			
		||||
 | 
			
		||||
 | 
			
		||||
		Loading…
	
		Reference in New Issue
	
	Block a user