dmytro_ushatenko/pages/students/2018/david_omasta/README.md

4.8 KiB

title published taxonomy
Dávid Omasta true
category tag author
dp2023
lm
Daniel Hladek

Začiatok štúdia: 2018

Súvisiace stránky:

  • Question Answering - interný projekt
  • Jozef Olekšák
  • Matej Čarňanský (BERT)
  • Ondrej Megela

Diplomová práca 2023

Téma: Dotrénovanie slovenského generatívneho jazykového modelu.

Vedúci: Ján Staš

Návrh na názov:

Generatívne modely slovenského jazyka

Návrh na zadanie DP:

  • Vypracujte prehľad najnovších generatívnych neurónových jazykových modelov.
  • Vypracujte prehľad slovenských a multilinguálnych generatívnych jazykových modelov.
  • Navrhnite experiment, pri ktorom bude model generovať odpovede na zadané otázky a kontext.
  • Analyzujte výsledky experimentu vhodným spôsobom a identifikujte možné zlepšenia.

Ciele na zimný semester:

Praktické:

  • Rozbehajte proces dotrénovania jazykových modelov pomocou knižnice Huggingface Transformers
  • Vyberte alebo vytvorte vhodnú dátovú množinu ktorá bude obsahovať slovenské dialógu.
  • Vyskúšajte slovenský generatívny model GPT a dotrénujte ho pre použitie v dialógovom systéme.
  • Vytvorte demonštračnú aplikáciu.

Teoretické:

  • Vypracujte prehľad najnovších generatívnych neurónových jazykových modelov (cca 20 strán).
  • Napíšte návod na inštaláciu a návod na použitie skriptov pre dotrénovanie (cca 5 strán).

Stretnutie 25.4.

Stav:

  • Napísaný draft práce
  • Pripravené demo s generovaním otázok pomocou t5, huggingface, streamlit, fastapi.

Úlohy:

  • Pracovať na textovej časti podľa poznámok - zlepšiť text, štruktúru a úpravu.
  • Finalizovať repozitár s demom. Pridajte odkazy na modely, modely nedávajte na GIT. Na git dajte zdorjové kódy v Python a Notebooky. Pridajte README s opisom kódov a návodom na inštaláciu.
  • Skontrolujte výsledky ROUGE, vyzerajú podozrivo.

Zásobník úloh:

  • Vytvorte Dockerfile

Stretnutie 24.2.2023

Stav:

  • Rozbehaný notebook na dotrénovanie slovenského t5 na úlohu generatívneho question answering.

Úlohy:

  • Dajte notebook na GIT
  • Vyhodnnotte presnosť generovania odpovede pomocou P-R-F1 pre celú dev množinu.
  • [-] Pokračujte v písaní textu DP. Opíšte slovenský QA dataset. Slovne opíšte experiment. Aký postup ste použili, aké dáta, aké modely.
  • Zopakujte experiment pre model mt5-small, mt5-base. Výsledky dajte do tabuľky.

Stretnutie 24.11

Stav:

  • nainštalované prostredie na idoc, spustený hf skript run_generation.py
  • prečítané články.

Úlohy:

Stretnutie 14.10.

Stav:

  • Na vlastnom počítači rozbehané Anaconda, Pytorch a CUDA.
  • Prečítané články.

Úlohy:

  • Pokračovať.

Stretnutie 7.10.

Stav:

  • Obznámený s Google Colab. Vyskúšané tutoriály BERT text classification,

Úlohy:

  • [-] Prečítajte si ako funguje neurónová sieť typu Transformer a [ ] písomne to vysvetlite. Uveďte odkazy na odborné články.
  • Písomne vysvetlite, čo to je generatívny jazykový model a ako funguje. Uveďte odkazy na najnovšie články o generatívnych jazykových modeloch - T5, GPT, BART.
  • Nainštalujte si prostredie Anaconda, knižnicu PyTorch s podporou CUDA a knižnicu HF transformers. Použite server idoc.
  • Vyskúšajte tento skript: https://github.com/huggingface/transformers/tree/main/examples/pytorch/text-generation.

Zásobník úloh: