forked from KEMT/zpwiki
Update 'pages/students/2016/maros_harahus/README.md'
This commit is contained in:
parent
fa7e74a876
commit
4a5a8fff6e
@ -10,6 +10,20 @@ taxonomy:
|
||||
|
||||
## Diplomový projekt 2 2020
|
||||
|
||||
Zásobník úloh:
|
||||
|
||||
- Preštudovať literatúru na tému "pretrain" a "word embedding"
|
||||
- [Healthcare NERModelsUsing Language Model Pretraining](http://ceur-ws.org/Vol-2551/paper-04.pdf)
|
||||
- [Design and implementation of an open source Greek POS Tagger and Entity Recognizer using spaCy](https://ieeexplore.ieee.org/abstract/document/8909591)
|
||||
- https://arxiv.org/abs/1909.00505
|
||||
- https://arxiv.org/abs/1607.04606
|
||||
- LSTM, recurrent neural network,
|
||||
- Vykonať viacero experimentov s pretrénovaním - rôzne modely, rôzne veľkosti adaptačných dát a zostaviť tabuľku
|
||||
- Opísať pretrénovanie, zhrnúť vplyv pretrénovania na trénovanie v krátkom článku cca 10 strán.
|
||||
- skúsiť prezentovať na lokálnej konferencii, (Data, Znalosti and WIKT) alebo fakultný zborník (krátka verzia diplomovky).
|
||||
- Využiť korpus Multext East pri trénovaní. Vytvoriť mapovanie Multext Tagov na SNK Tagy.
|
||||
|
||||
|
||||
Virtuálne stretnutie 8.10.2020
|
||||
|
||||
Stav:
|
||||
@ -19,11 +33,13 @@ Stav:
|
||||
- vyskytol sa problém že nevie alokovať viac ako 2GB RAM
|
||||
- 200 iterácií pretrénovania, 4000 riadkov viet
|
||||
|
||||
|
||||
Úlohy do ďalšieho stretnutia:
|
||||
- Dať zdrojáky na GIT
|
||||
- Urobiť porovnanie voči presnosti bez pretrain
|
||||
- Výsledky dajte do tabuľky - alké parametre ste použili pri trénovaní a pretrénovaí?
|
||||
- Výsledky dajte do tabuľky - aké parametre ste použili pri trénovaní a pretrénovaí?
|
||||
- experimenty si poznačte do skriptu aby sa dali zopakovať
|
||||
- Do článku (do súboru README na GIte) presne opíšte nastavenie experimentu - parametre, dáta a spôsob overenia, aspoň rozpracovať.
|
||||
- Začnite spisovať teoretickú časť článku, aspoň rozpracovať.
|
||||
|
||||
Stretnutie 25.9.2020
|
||||
|
||||
@ -72,18 +88,6 @@ K zápočtu:
|
||||
- Porovnajte s presnosťou bez pretrénovania.
|
||||
|
||||
|
||||
Zásobník úloh:
|
||||
|
||||
- Preštudovať literatúru na tému "pretrain" a "word embedding"
|
||||
- [Healthcare NERModelsUsing Language Model Pretraining](http://ceur-ws.org/Vol-2551/paper-04.pdf)
|
||||
- [Design and implementation of an open source Greek POS Tagger and Entity Recognizer using spaCy](https://ieeexplore.ieee.org/abstract/document/8909591)
|
||||
- https://arxiv.org/abs/1909.00505
|
||||
- https://arxiv.org/abs/1607.04606
|
||||
- LSTM, recurrent neural network,
|
||||
- Vykonať viacero experimentov s pretrénovaním - rôzne modely, rôzne veľkosti adaptačných dát a zostaviť tabuľku
|
||||
- Opísať pretrénovanie, zhrnúť vplyv pretrénovania na trénovanie v krátkom článku cca 10 strán.
|
||||
- skúsiť prezentovať na lokálnej konferencii, (Data, Znalosti and WIKT) alebo fakultný zborník (krátka verzia diplomovky).
|
||||
- Využiť korpus Multext East pri trénovaní. Vytvoriť mapovanie Multext Tagov na SNK Tagy.
|
||||
|
||||
|
||||
Virtuálne stretnutie 15.5.2020:
|
||||
|
Loading…
Reference in New Issue
Block a user