forked from KEMT/zpwiki
		
	Update 'pages/students/2016/maros_harahus/README.md'
This commit is contained in:
		
							parent
							
								
									fa7e74a876
								
							
						
					
					
						commit
						4a5a8fff6e
					
				| @ -10,6 +10,20 @@ taxonomy: | |||||||
| 
 | 
 | ||||||
| ## Diplomový projekt 2 2020 | ## Diplomový projekt 2 2020 | ||||||
| 
 | 
 | ||||||
|  | Zásobník úloh: | ||||||
|  | 
 | ||||||
|  | - Preštudovať literatúru na tému "pretrain" a "word embedding" | ||||||
|  |     - [Healthcare NERModelsUsing Language Model Pretraining](http://ceur-ws.org/Vol-2551/paper-04.pdf) | ||||||
|  |     - [Design and implementation of an open source Greek POS Tagger and Entity Recognizer using spaCy](https://ieeexplore.ieee.org/abstract/document/8909591) | ||||||
|  |     - https://arxiv.org/abs/1909.00505 | ||||||
|  |     - https://arxiv.org/abs/1607.04606 | ||||||
|  |     - LSTM, recurrent neural network,  | ||||||
|  | - Vykonať viacero experimentov s pretrénovaním - rôzne modely, rôzne veľkosti adaptačných dát a zostaviť tabuľku | ||||||
|  | - Opísať pretrénovanie, zhrnúť vplyv pretrénovania na trénovanie v krátkom článku cca 10 strán. | ||||||
|  | - skúsiť prezentovať na lokálnej konferencii, (Data, Znalosti and WIKT) alebo fakultný zborník (krátka verzia diplomovky). | ||||||
|  | - Využiť korpus Multext East pri trénovaní.  Vytvoriť mapovanie Multext Tagov na SNK Tagy. | ||||||
|  | 
 | ||||||
|  | 
 | ||||||
| Virtuálne stretnutie 8.10.2020 | Virtuálne stretnutie 8.10.2020 | ||||||
| 
 | 
 | ||||||
| Stav: | Stav: | ||||||
| @ -19,11 +33,13 @@ Stav: | |||||||
| - vyskytol sa problém že nevie alokovať viac ako 2GB RAM | - vyskytol sa problém že nevie alokovať viac ako 2GB RAM | ||||||
| - 200 iterácií pretrénovania, 4000 riadkov viet | - 200 iterácií pretrénovania, 4000 riadkov viet | ||||||
| 
 | 
 | ||||||
| 
 |  | ||||||
| Úlohy do ďalšieho stretnutia: | Úlohy do ďalšieho stretnutia: | ||||||
| - Dať zdrojáky na GIT | - Dať zdrojáky na GIT | ||||||
| - Urobiť porovnanie voči presnosti bez pretrain | - Urobiť porovnanie voči presnosti bez pretrain | ||||||
| - Výsledky dajte do tabuľky - alké parametre ste použili pri trénovaní a pretrénovaí? | - Výsledky dajte do tabuľky - aké parametre ste použili pri trénovaní a pretrénovaí? | ||||||
|  | - experimenty si poznačte do skriptu aby sa dali zopakovať | ||||||
|  | - Do článku (do súboru README na GIte) presne opíšte nastavenie experimentu - parametre, dáta a spôsob overenia, aspoň rozpracovať. | ||||||
|  | - Začnite spisovať teoretickú časť článku, aspoň rozpracovať. | ||||||
| 
 | 
 | ||||||
| Stretnutie 25.9.2020 | Stretnutie 25.9.2020 | ||||||
| 
 | 
 | ||||||
| @ -72,18 +88,6 @@ K zápočtu: | |||||||
| - Porovnajte s presnosťou bez pretrénovania. | - Porovnajte s presnosťou bez pretrénovania. | ||||||
| 
 | 
 | ||||||
| 
 | 
 | ||||||
| Zásobník úloh: |  | ||||||
| 
 |  | ||||||
| - Preštudovať literatúru na tému "pretrain" a "word embedding" |  | ||||||
|     - [Healthcare NERModelsUsing Language Model Pretraining](http://ceur-ws.org/Vol-2551/paper-04.pdf) |  | ||||||
|     - [Design and implementation of an open source Greek POS Tagger and Entity Recognizer using spaCy](https://ieeexplore.ieee.org/abstract/document/8909591) |  | ||||||
|     - https://arxiv.org/abs/1909.00505 |  | ||||||
|     - https://arxiv.org/abs/1607.04606 |  | ||||||
|     - LSTM, recurrent neural network,  |  | ||||||
| - Vykonať viacero experimentov s pretrénovaním - rôzne modely, rôzne veľkosti adaptačných dát a zostaviť tabuľku |  | ||||||
| - Opísať pretrénovanie, zhrnúť vplyv pretrénovania na trénovanie v krátkom článku cca 10 strán. |  | ||||||
| - skúsiť prezentovať na lokálnej konferencii, (Data, Znalosti and WIKT) alebo fakultný zborník (krátka verzia diplomovky). |  | ||||||
| - Využiť korpus Multext East pri trénovaní.  Vytvoriť mapovanie Multext Tagov na SNK Tagy. |  | ||||||
| 
 | 
 | ||||||
| 
 | 
 | ||||||
| Virtuálne stretnutie 15.5.2020: | Virtuálne stretnutie 15.5.2020: | ||||||
|  | |||||||
		Loading…
	
		Reference in New Issue
	
	Block a user