forked from KEMT/zpwiki
		
	Update 'pages/students/2016/maros_harahus/README.md'
This commit is contained in:
		
							parent
							
								
									fa7e74a876
								
							
						
					
					
						commit
						4a5a8fff6e
					
				@ -10,6 +10,20 @@ taxonomy:
 | 
			
		||||
 | 
			
		||||
## Diplomový projekt 2 2020
 | 
			
		||||
 | 
			
		||||
Zásobník úloh:
 | 
			
		||||
 | 
			
		||||
- Preštudovať literatúru na tému "pretrain" a "word embedding"
 | 
			
		||||
    - [Healthcare NERModelsUsing Language Model Pretraining](http://ceur-ws.org/Vol-2551/paper-04.pdf)
 | 
			
		||||
    - [Design and implementation of an open source Greek POS Tagger and Entity Recognizer using spaCy](https://ieeexplore.ieee.org/abstract/document/8909591)
 | 
			
		||||
    - https://arxiv.org/abs/1909.00505
 | 
			
		||||
    - https://arxiv.org/abs/1607.04606
 | 
			
		||||
    - LSTM, recurrent neural network, 
 | 
			
		||||
- Vykonať viacero experimentov s pretrénovaním - rôzne modely, rôzne veľkosti adaptačných dát a zostaviť tabuľku
 | 
			
		||||
- Opísať pretrénovanie, zhrnúť vplyv pretrénovania na trénovanie v krátkom článku cca 10 strán.
 | 
			
		||||
- skúsiť prezentovať na lokálnej konferencii, (Data, Znalosti and WIKT) alebo fakultný zborník (krátka verzia diplomovky).
 | 
			
		||||
- Využiť korpus Multext East pri trénovaní.  Vytvoriť mapovanie Multext Tagov na SNK Tagy.
 | 
			
		||||
 | 
			
		||||
 | 
			
		||||
Virtuálne stretnutie 8.10.2020
 | 
			
		||||
 | 
			
		||||
Stav:
 | 
			
		||||
@ -19,11 +33,13 @@ Stav:
 | 
			
		||||
- vyskytol sa problém že nevie alokovať viac ako 2GB RAM
 | 
			
		||||
- 200 iterácií pretrénovania, 4000 riadkov viet
 | 
			
		||||
 | 
			
		||||
 | 
			
		||||
Úlohy do ďalšieho stretnutia:
 | 
			
		||||
- Dať zdrojáky na GIT
 | 
			
		||||
- Urobiť porovnanie voči presnosti bez pretrain
 | 
			
		||||
- Výsledky dajte do tabuľky - alké parametre ste použili pri trénovaní a pretrénovaí?
 | 
			
		||||
- Výsledky dajte do tabuľky - aké parametre ste použili pri trénovaní a pretrénovaí?
 | 
			
		||||
- experimenty si poznačte do skriptu aby sa dali zopakovať
 | 
			
		||||
- Do článku (do súboru README na GIte) presne opíšte nastavenie experimentu - parametre, dáta a spôsob overenia, aspoň rozpracovať.
 | 
			
		||||
- Začnite spisovať teoretickú časť článku, aspoň rozpracovať.
 | 
			
		||||
 | 
			
		||||
Stretnutie 25.9.2020
 | 
			
		||||
 | 
			
		||||
@ -72,18 +88,6 @@ K zápočtu:
 | 
			
		||||
- Porovnajte s presnosťou bez pretrénovania.
 | 
			
		||||
 | 
			
		||||
 | 
			
		||||
Zásobník úloh:
 | 
			
		||||
 | 
			
		||||
- Preštudovať literatúru na tému "pretrain" a "word embedding"
 | 
			
		||||
    - [Healthcare NERModelsUsing Language Model Pretraining](http://ceur-ws.org/Vol-2551/paper-04.pdf)
 | 
			
		||||
    - [Design and implementation of an open source Greek POS Tagger and Entity Recognizer using spaCy](https://ieeexplore.ieee.org/abstract/document/8909591)
 | 
			
		||||
    - https://arxiv.org/abs/1909.00505
 | 
			
		||||
    - https://arxiv.org/abs/1607.04606
 | 
			
		||||
    - LSTM, recurrent neural network, 
 | 
			
		||||
- Vykonať viacero experimentov s pretrénovaním - rôzne modely, rôzne veľkosti adaptačných dát a zostaviť tabuľku
 | 
			
		||||
- Opísať pretrénovanie, zhrnúť vplyv pretrénovania na trénovanie v krátkom článku cca 10 strán.
 | 
			
		||||
- skúsiť prezentovať na lokálnej konferencii, (Data, Znalosti and WIKT) alebo fakultný zborník (krátka verzia diplomovky).
 | 
			
		||||
- Využiť korpus Multext East pri trénovaní.  Vytvoriť mapovanie Multext Tagov na SNK Tagy.
 | 
			
		||||
 | 
			
		||||
 | 
			
		||||
Virtuálne stretnutie 15.5.2020:
 | 
			
		||||
 | 
			
		||||
		Loading…
	
		Reference in New Issue
	
	Block a user