From fbe7d535f486951ee7608043786ba14687dfbde7 Mon Sep 17 00:00:00 2001 From: Patrik Pavlisin Date: Mon, 26 Apr 2021 20:32:23 +0200 Subject: [PATCH] one --- .../2016/patrik_pavlisin/dp21/.README.md.swp | Bin 0 -> 20480 bytes .../2016/patrik_pavlisin/dp21/README.md | 68 ++++++++++++++++-- readme.md | 36 ---------- 3 files changed, 64 insertions(+), 40 deletions(-) create mode 100644 pages/students/2016/patrik_pavlisin/dp21/.README.md.swp delete mode 100644 readme.md diff --git a/pages/students/2016/patrik_pavlisin/dp21/.README.md.swp b/pages/students/2016/patrik_pavlisin/dp21/.README.md.swp new file mode 100644 index 0000000000000000000000000000000000000000..0ea8f547eb3ca8bf0a8b97b104f0226acd6db829 GIT binary patch literal 20480 zcmeI4U5_N!S;rfUKnRc#;YDx(Cs>AAWnOmI1X<>4jaR|Ov%9g!V+n|o>aMfXHPuz8 zQ*U;+OmGCZOT-082#9FOd$Eu~fcI*o*$ZmsKJXEI%ZGs9|D3AoUJJ)YvV;_Rl=Adc zSDo{m=jH#rX2;i$Up+K0?%x>k^RuJT-+c4!Z+!bdpB;VUM@FN=>=@}R8h*ydGvaP#_&-{xLbB*KhpfX!JbSul@LF^s8L|M6uwE>mRrt zas3rVfWPGWGp;}7`X#PkXn`<_GHwT4{V-9$ZUFfK2D#$yFVHk zGaB6$u@gH-(8lKRUgh@qW%^eU@UY|s60{PqDbWIxC3!vbES|d*maL)~+e1iZ9FGfqC^ z3Dz!LlPBgr>nuBYb@cVpTa;D%D07Y0F=Ko6M7o1omT8^oV_GCUP@oLZcWk2kWR^@) zmzn753F}7rq&;7jx^WsU7in$YK0Ny9{lC8PTb zHZQ+^`z;PQccL|t@JsaOG;^^na(jBUYR|Iu39^16&#=33Q`vZ7#%|_#sVSsrUM(6F zBr?5{R&bb=Qz_)-ccNLRB5P8_yeQQg@chgRaPE2y%6J=7US>5^E?p6fhNX(cc1KzA zF;1gk&*jWDyJq7p9@TNU9T35##iBy#I#~c8Mf-S}FEUJ^sHglIUY2BrJy|r#lMKNF zBa_6{(mQZK$LeL>*lK~OZk?LcUVcYgl+X)?^qU#aptVHU0ro+RYnJ0WP5>_83~AXc zs*p8G(8~syl}4P!^fFVpWf`Hkow4o?LgIyB1hS@HUJJ8~X71_n~>6UKDP; zSX(?sclGxbTVty14w!W2y0)#IHxG}lfrb#)Azy6E=;~qNE+4?w*uka<~F?^O8XC-K%LE8V&GGIVtyI50sd z)*-X-OUluKn16A>^SA@xB5NOCJ*iE633R3lBRgItR}Ufa_SLH5us9O_)1HAA9FdQZ zYk|@=APZP~cIk6}OfA3hlo4o4mURKc(1#5ef~V+xdnWOClfduESD``O`Jo>cLDnJS z%$>XvzG;aPo_bZSb8M74OpIy1+kMvP~33{b`I(ZH`uk8 zD(5`%04B~eI5?M5M5$@uwCFlztGGm8;U~1c=wdAs)s^eab}*M-Az?5Ic=<$F?X?N7hS8vr5iU7E zNsi)iyNe>^?KgQoD8RmX*-a(F=<-Rg77Ooze3aB)NZ6HwM=)AwDx=rEs5BtfBXAic z#OngNL@$U94b2=DE4B6x)DjpZHWj+3P5T&SbdxFm#v&YrGM0JV*@!@Ex)7*`EA*0TMM%(*P?7I=9V2ZV^d{x1BeD>jY|(Dba}_ z=FQFwy{Gt!b0_F=&`tg;^==eVd`0{3gs=bYacS-l2}Uz>$leKpIYK-rQg3aP;Tw7k~L z&Vu8P#2W0PT?zHeR31N>`2+%vR)rlaTL7}WWhME^ZWnS5K|~GC4M7A{wyRT^32x=e zX>@el&Om8t;G}$~|AyZ^rxH1vf$m5VHy*@mk%wo1gFFN1A5@EAyEA8nPMu%Lq*|DB z+_;#iR6;>_i30*?NRJ6RGg~F_j99QeTc+~lz3#d-$C`x?;XKP=%Y;)w;Sh@jKx=+wZkcR z1hL8!*n63yam3w3dN}Re>&7QMDjHq3D>fJK*kYT@28SU+0=h0tqY%<(8G2eMDd3m< z*d%Trmooxd)Ksc3y2&tQ0q1Ku^d?^8s-An!1X%b@1Qt*s>rkOuqk@0KW}}hv|F4qU z|1p>H|Gt0!?Vlcv-sk#O|J~=7zi$`Xa$w7WEeEz7*m7XYfh`CAKXc%?j{+?!DKq~4=XvocmNScZr735|?5rSfW)zz<5&mrGam`U=kq-PmZSyurrR2oPT ze2zdVcIxZw)>LlFUNjXH(0BE#VM~<+nyV+I{F}+b5Lt(?Sj2~o2uCk`^TSs)^oK7X zvFW`~yH({lY}gk`YLz}nVSMerB_UUuuUI@%rLnMA52K}>sJP>g;u?~fs4JW3Gu2hf zs;GA*g&&+f_)I||y}fT!wyykgkkFfr^5+`2N&} zw0NTBnquXM(ZttJQ~~cRY$O+bmJ*JmJe5pFtX85%8Np4d-b5jzR;%n{rn4qvHAF%V zMZPj{wbLnNa6+0?DASp{%uQHrtusSuP&HMO#L%!)jiuWsi{1@odDOuh#QNO6qS6;O zmB;nD-K0rW_tdSf0k}(2HbqgC<|{p2H0{}`Z-Q}F<*oOrTb`*4B|*x#jyIq07et%r zmX*lAuZyW1dZl%}va+GqF0#H?LM1R1o!HgQt95(9*XGBz*p%rjri#*VY$eU)h|>OU zL)r+TK@mEKk{eY(yYarNCcd`5X+5e8#_HBA8>eJfOdixIu#1eJ=2Pf_C7bp74edjj zH~W_5A`?B5JG@**>I_sWD8M?%P)k)`pf~UXotp5QUG71$t@<|YM&{iY2$zU}!Y8|F zS)Wx?T%*G1VIaKS==~;PE43SWu2&edvz!(+Bz^h%bzz2{n}_PCR}q>44V66q6@Z(Z zVr!2Asx7D~Y+7zGA#ZzB@BzAzpsOav2~~s%X0hn%3on}M>=~ICZu$@YA<9aL%J;de zQguG0WC3HkI>kzqbQQy$4ZFW4*bS8*x?n>caa~mtlIwgi=-3?qv_{gjHYsf@|KFpB z|94!<|NHs=sa4H><=Vv zz1V#_tma<@9`34jB!knks*{61Y7?o3t#WlR^%*VR{t;dhVOr_6r}0y+5+)|HU|(H! z-06b2r_nURpN`(UJ1)!(wPl9(xo?Mf1Qa=(+dEVm6f56~;2YW{-aQ89%M*qQdVBWX z=)ITr_Fj6=jK27XU)z~h)x3P^;NT>w_EVcx`}b|KU)8DIFVlnHzkPVr|MMP2^v=Op zLkZJ^j2??EKGQ$=QO$2&KX}% z1`-&7Vu-E~s06$&H;4YJ@H^?p6o}4-fZp?3QlT*$+UwqAy3X6sDrT2E>J+SJn=YT! zV{FO0JIPCH&;-LbJT5xT#Tf;ALId%ALAVSg(T-KKTN6U4AIA^QVdw{{$q|Ah!e`bE z&bQYHNV%s5xQ}v(67YEbVLZAx85H%=MhE~6J_J}8wGD}z{GuUt@$(`<3i3&h=|o5# zVScI)uyCMfB_ez1+c|!;s&C+jAVow*KIp{VMskxlV(2{fDHYDI?=i_6dSchC(u5d{ zARp)!4w1>zXYRP=yB2hMf`|aP5V|Z~%*=*mc8oD8UJncTTKqb^JybX!#+YsqdSQe< zH42DOB@HGmz_=f#tGW%P9ZcV76ogJ@HxKvm3sZILas%^$j~W+6n$(@ zIPWz*s&zb1ta|Y3 zw;)r9l?kks?99{|&2t@bP;>uRH^|mU|2;iH)ai@?6N!<$?gP!iWoR0CvRA~unG(?c8h0(O2-gI%+$!tx^#!!@^yBQr<&57|*-C#t8auPmiOc zsq{iO3Z;*|SWwANlyN}F(BxLm>vO^`nd&*uoDCVak~dW7x?*+@cYSi^Xtk01;Y<7w zjNni7%ik%s?^jW@-%TYd90;ZpfcRo~h=dpAJDd9DZVDIb!-~XM)cTR)&-*1SLuN@pWVSc}hMq7gc`1IKEuW1FH z*jIL@63Rr?oo+#ah#(Pxbe@lh1n5|8Sf0`q-zZ0i>wd1SCSQ`C!$)OpWkpscJ?|h% zgFBPy0yo6H4!EAqoVA#8P+Hi&!%AyYo|nfHT&hU!5P@bn0v_N7Od-vaj8vY$vC-W1 z1FalI!3(LHvPED2>3L$7<3%9QFqqd~gnCccqg5CXlzcI728Cg0Zl=r92b9qb(2DTW|~Mf_DBB>5TRJX literal 0 HcmV?d00001 diff --git a/pages/students/2016/patrik_pavlisin/dp21/README.md b/pages/students/2016/patrik_pavlisin/dp21/README.md index 43d9f965a..4dd7fffb6 100644 --- a/pages/students/2016/patrik_pavlisin/dp21/README.md +++ b/pages/students/2016/patrik_pavlisin/dp21/README.md @@ -29,11 +29,9 @@ Ak sa použijú aktivačné funkcie, ktorých deriváty môžu nadobúdať väč ## Wordpiece Model -Tento prístup je založený výlučne na dátach a je zaručené, že pre každú možnú postupnosť znakov vygeneruje deterministickú segmentáciu. Je to podobné ako metóda použitá pri riešení zriedkavých slov v strojovom preklade neurónov. Na spracovanie ľubovoľných slov najskôr rozdelíme slová na slovné druhy, ktoré sú dané trénovaným modelom slovných spojení. Pred cvičením modelu sú pridané špeciálne symboly hraníc slov, aby bolo možné pôvodnú sekvenciu slov získať zo sekvencie slovného slova bez nejasností. V čase dekódovania model najskôr vytvorí sekvenciu slovných spojení, ktorá sa potom prevedie na zodpovedajúcu sekvenciu slov. +Tento prístup je založený výlučne na dátach a je zaručené, že pre každú možnú postupnosť znakov vygeneruje deterministickú segmentáciu. Je to podobné ako metóda použitá pri riešení zriedkavých slov v strojovom preklade neurónov. Na spracovanie ľubovoľných slov najskôr rozdelíme slová na slovné druhy, ktoré sú dané trénovaným modelom slovných spojení. Pred cvičením modelu sú pridané špeciálne symboly hraníc slov, aby bolo možné pôvodnú sekvenciu slov získať zo sekvencie slovného slova bez nejasností. V čase dekódovania model najskôr vytvorí sekvenciu slovných spojení, ktorá sa potom prevedie na zodpovedajúcu sekvenc -| -![](https://git.kemt.fei.tuke.sk/KEMT/zpwiki/raw/branch/master/pages/students/2016/patrik_pavlisin/tp20/Bez%20n%c3%a1zvu.png) -| +![](https://git.kemt.fei.tuke.sk/KEMT/zpwiki/raw/branch/master/pages/students/2016/patrik_pavlisin/tp20/Bez%20n%c3%a1zvu.png)| |:--:| |Obr 1. príklad postupnosti slov a príslušná postupnosť slovných spojení| @@ -43,3 +41,65 @@ Vo vyššie uvedenom príklade je slovo „Jet“ rozdelené na dve slovné spoj Wordpiece model sa generuje pomocou prístupu založeného na údajoch, aby sa maximalizovala pravdepodobnosť jazykových modelov cvičných údajov, vzhľadom na vyvíjajúcu sa definíciu slova. Vzhľadom na cvičný korpus a množstvo požadovaných tokenov D je problémom optimalizácie výber wordpieces D tak, aby výsledný korpus bol minimálny v počte wordpieces, ak sú segmentované podľa zvoleného wordpiece modelu. V tejto implementácii používame špeciálny symbol iba na začiatku slov, a nie na oboch koncoch. Počet základných znakov tiež znížime na zvládnuteľný počet v závislosti na údajoch (zhruba 500 pre západné jazyky, viac pre ázijské jazyky). Zistili sme, že použitím celkovej slovnej zásoby medzi 8 000 a 32 000 slovnými jednotkami sa dosahuje dobrá presnosť (skóre BLEU) aj rýchla rýchlosť dekódovania pre dané jazykové páry. V preklade má často zmysel kopírovať zriedkavé názvy entít alebo čísla priamo zo zdroja do cieľa. Na uľahčenie tohto typu priameho kopírovania vždy používame wordpiece model pre zdrojový aj cieľový jazyk. Použitím tohto prístupu je zaručené, že rovnaký reťazec vo zdrojovej a cieľovej vete bude segmentovaný presne rovnakým spôsobom, čo uľahčí systému naučiť sa kopírovať tieto tokeny. Wordpieces dosahujú rovnováhu medzi flexibilitou znakov a efektívnosťou slov. Zistili sme tiež, že naše modely dosahujú lepšie celkové skóre BLEU pri používaní wordpieces - pravdepodobne kvôli tomu, že naše modely teraz efektívne pracujú v podstate s nekonečnou slovnou zásobou bez toho, aby sa uchýlili iba k znakom. +**Neurónová sieť** + +Neurónovú sieť tvoria neuróny, ktoré sú medzi sebou poprepájané. Obecne môžeme neuróny poprepájať medzi ľubovoľným počtom neurónov, pričom okrem pôvodných vstupov môžu byť za vstupy brané aj výstupy iných neurónov. Počet neurónov a ich vzájomné poprepájanie v sieti určuje tzv. architektúru (topológiu) neurónovej siete. Neurónová sieť sa v čase vyvíja, preto je potrebné celkovú dynamiku neurónovej siete rozdeliť do troch dynamík a potom uvažovať tri režimy práce siete: organizačná (zmena topológie), aktívna (zmena stavu) a adaptívna (zmena konfigurácie). Jednotlivé dynamiky neurónovej siete sú obvykle zadané počiatočným stavom a matematickou rovnicou, resp. pravidlom, ktoré určuje vývoj príslušnej charakteristiky sieti v čase. + +Synaptické váhy patria medzi dôležité časti Neurónovej siete. Tieto váhy ovplyvňujú celú sieť tým, že ovplyvňujú vstupy do neurónov a tým aj ich stavy. Synaptické váhy medzi neurónmi _i, j_ označujeme _w__i,j_. Najdôležitejším momentom pri činnosti Neurónovej siete je práve zmena váh delta _w__i,j_. Vo všeobecnosti ich rozdeľujeme na kladné (excitačné) a záporné (inhibičné). + +Neurón je základným prvkom Neurónovej siete. Rozdiel medzi umelým a ľudským je v tom, že v súčasnosti je možné vytvoriť oveľa rýchlejší neurón, ako ľudský. Avšak čo sa týka počtu neurónov, ľudský mozog sa skladá z 10 na 11 až 10 na 14 neurónov a každý neurón má 10 na 3 až 10 na 4 neurónových spojení. V súčasnej dobe nie je možné nasimulovať v rámci jednej Neurónovej siete také množstvo neurónov. V tomto ohľade je ľudský mozog podstatne silnejší oproti nasimulovanej Neurónovej siete. [3] + +|![](https://git.kemt.fei.tuke.sk/KEMT/zpwiki/raw/branch/master/pages/students/2016/patrik_pavlisin/tp20/neuronova%20siet.png)| +|:--:| +|Obr 2. základné zobrazenie Neurónovej siete| + + +Činnosť Neurónových sieti rozdeľujeme na : + +- Fáza učenia – v tejto fáze sa znalosti ukladajú do synaptických váh neurónovej siete, ktoré sa menia podľa stanovených pravidiel počas procesu učenia. V prípade neurónových sieti môžeme pojem učenie chápať ako adaptáciu neurónových sieti, teda zbieranie a uchovávanie poznatkov. + +- Fáza života – dochádza ku kontrole a využitiu nadobudnutých poznatkov na riešenie určitého problému (napr. transformáciu signálov, problémy riadenia procesov, aproximáciu funkcií, klasifikácia do tried a podobne). V tejto fáze sa už nemenia synaptické váhy. + +Neurónová sieť by vo všeobecnosti mala mať pravidelnú štruktúru pre ľahší popis a analýzu. Viacvrstvová štruktúra patrí k pomerne dobre preskúmaným štruktúram Neurónovej siete a skladá sa z : + +- Vstupná vrstva (Input layer) – na vstup prichádzajú len vzorky z vonkajšieho sveta a výstupy posiela k ďalším neurónom + +- Skrytá vrstva (Hidden layer) – vstupom sú neuróny z ostatných neurónov z vonkajšieho sveta (pomocou prahového prepojenia) a výstupy posiela opäť ďalším neurónom + +- Výstupná vrstva (Output layer) – prijíma vstupy z iných neurónov a výstupy posiela do vonkajšieho prostredia + +Reprezentatívna vzorka je jedným zo základných pojmov Neurónových sieti. Jedná sa o usporiadanú množinu usporiadaných dvojíc, pričom ku každému vstupu je priradený vyhovujúci výstup. Poznáme dva typy reprezentatívnych vzoriek : + +- Trénovaciu vzorku – využíva sa pri fáze učenia (pri tejto vzorke je dôležité vybrať tú najvhodnejšiu a najkvalitnejšiu, pretože získané poznatky sa ukladajú učením do synaptických váh neurónovej siete) + +- Testovacia vzorka – používa sa vo fáze života + + + +Topológiu Neurónových sieti rozdeľujeme na : + +- Dopredné Neurónové siete (feed-forward neural network), ktoré sa ďalej delia na kontrolované a nekontrolované učenie, v tejto topológií je signál šírený iba jedným smerom. + + +|![](https://git.kemt.fei.tuke.sk/KEMT/zpwiki/raw/branch/master/pages/students/2016/patrik_pavlisin/tp20/dopredn%c3%bd%20nn.png)| +|:--:| +|Obr 3. Dopredná Neurónová sieť| + + +- Rekurentné Neurónové siete (recurrent neural network), ktoré sa ďalej delia na kontrolované a nekontrolované učenie, signál sa šíry obojsmerne (neuróny sa môžu správať ako vstupné aj výstupné). [3] + + + +|![](https://git.kemt.fei.tuke.sk/KEMT/zpwiki/raw/branch/master/pages/students/2016/patrik_pavlisin/tp20/recurrent%20neural%20network.png)| +|:--:| +|Obr 3. Rekurentná Neurónová sieť| + +**Neurónový preklad** + +Neurónový strojový preklad vo všeobecnosti zahŕňa všetky typy strojového prekladu, kde sa na predpovedanie sekvencie čísel používa umelá neurónová sieť. V prípade prekladu je každé slovo vo vstupnej vete zakódované na číslo, ktoré neurónová sieť prepošle do výslednej postupnosti čísel predstavujúcich preloženú cieľovú vetu. Prekladový model následne funguje prostredníctvom zložitého matematického vzorca(reprezentovaného ako neurónová sieť). Tento vzorec prijíma reťazec čísel ako vstupy a výstupy výsledného reťazca čísel. Parametre tejto neurónovej siete sú vytvárané a vylepšované trénovaním siete s miliónmi vetných párov. Každý takýto pár viet tak mierne upravuje a vylepšuje neurónovú sieť, keď prechádza každým vetným párom pomocou algoritmu nazývaným spätné šírenie. [3] + +[1]. WU Y., SCHUSTER M., CHEN Z., LE V. Q., NOROUZI M.: _Google’s Neural Machine Translation System: Bridging the Gapbetween Human and Machine Translation._ [online]. [citované 08-09-2016]. + +[2]. PYKES K.: _The Vanishing/Exploding Gradient Problem in Deep Neural Networks._ [online]. [citované 17-05-2020]. + +[3]. ŠÍMA J., NERUDA R.: Teoretické otázky neurónových sítí [online]. [1996]. diff --git a/readme.md b/readme.md deleted file mode 100644 index 21c2d8f2e..000000000 --- a/readme.md +++ /dev/null @@ -1,36 +0,0 @@ -Google’s neural machine translation system - -NMT používa end-to-end vzdelávací prístup pre automatický preklad, ktorého cieľom je prekonať slabé stránky konvenčných frázových systémov. Bohužiaľ systémy NMT sú výpočtovo nákladné počas trénovania ako aj pri samotnom preklade (niekedy kvôli ochrane napr. pri vysokom množstve veľkých súborov a veľkých modelov). Niekoľko autorov tiež uviedlo, že systémom NMT chýba robustnosť, najmä keď vstupné vety obsahujú zriedkavé, alebo zastaralé slová. Tieto problémy bránili používaniu NMT v praktických nasadeniach a službách, kde je nevyhnutná presnosť aj rýchlosť. Spoločnosť Google preto predstavila GNMT (Google´s Neural Machine Translation) systém , ktorý sa pokúša vyriešiť mnohé z týchto problémov. Tento model sa skladá z hlbokej siete Long Short-Term Memory (LSTM) s 8 kódovacími a 8 dekódovacími vrstvami, ktoré využívajú zvyškové spojenia, ako aj pozorovacie spojenia zo siete dekodéra ku kódovaciemu zariadeniu. Aby sa zlepšila paralelnosť a tým pádom skrátil čas potrebný na tréning, tento mechanizmus pozornosti spája spodnú vrstvu dekodéra s hornou vrstvou kódovacieho zariadenia. Na urýchlenie konečnej rýchlosti prekladu používame pri odvodzovacích výpočtoch aritmetiku s nízkou presnosťou. Aby sa vylepšila práca so zriedkavými slovami, slová sa delia na vstup aj výstup na obmedzenú množinu bežných podslovných jednotiek („wordpieces“). Táto metóda poskytuje dobrú rovnováhu medzi flexibilitou modelov oddelených znakom a účinnosťou modelov oddelených slovom, prirodzene zvláda preklady vzácnych slov a v konečnom dôsledku zvyšuje celkovú presnosť systému. - -Štatistický strojový preklad (SMT) je po celé desaťročia dominantnou paradigmou strojového prekladu. Implementáciami SMT sú vo všeobecnosti systémy založené na frázach (PBMT), ktoré prekladajú sekvencie slov alebo frázy, kde sa môžu dĺžky líšiť. Ešte pred príchodom priameho neurónového strojového prekladu sa neurónové siete s určitým úspechom používali ako súčasť systémov SMT. Možno jeden z najpozoruhodnejších pokusov spočíval v použití spoločného jazykového modelu na osvojenie frázových reprezentácií, čo prinieslo pozoruhodné zlepšenie v kombinácii s prekladom založeným na frázach. Tento prístup však vo svojej podstate stále využíva frázové prekladové systémy, a preto dedí ich nedostatky. - -O koncepciu end-to-end učenia pre strojový preklad sa v minulosti pokúšali s obmedzeným úspechom. Po seminárnych prácach v tejto oblasti sa kvalita prekladu NMT priblížila k úrovni frázových prekladových systémov pre bežné výskumné kritériá. V anglickom až francúzskom jazyku WMT’14 dosiahol tento systém zlepšenie o 0,5 BLEU v porovnaní s najmodernejším frázovým systémom. Odvtedy bolo navrhnutých veľa nových techník na ďalšie vylepšenie NMT ako napríklad použitie mechanizmu pozornosti na riešenie zriedkavých slov, mechanizmu na modelovanie pokrytia prekladu, rôznymi druhmi mechanizmov pozornosti, minimalizáciou strát na úrovni vety. Aj keď presnosť prekladu týchto systémov bola povzbudivá, systematické porovnanie s veľkým rozsahom chýba, frázové prekladové systémy založené na kvalite výroby chýbajú. - -LSTM sú špeciálny typ Rekurentných neurónových sietí (RNN), ktorý slúži na dosiahnutie dlhodobého kontextu (napr. Pri doplnení chýbajúcej interpunkcie alebo veľkých písmen). Najväčšie využitie LSTM je v oblasti strojového učenia a hĺbkového učenia. - -Vlastnosti LSTM: - - pripravený spracovať nielen jednoduché dáta, ale aj celé sekvenčné dáta (napr. reč alebo video), - - sú vhodné na klasifikáciu, spracovanie a vytváranie predikcií na základe časových údajov - - LSTM boli definované tak, aby si na rozdiel od RNN vedeli pomôcť s problémom, ktorý sa nazýva „Exploding and vanishing gradient problems“. - -Exploding and vanishing gradient problems - -V strojovom učení sa s problémom miznúceho gradientu stretávame pri trénovaní umelých neurónových sietí metódami učenia založenými na gradiente a spätnou propagáciou. V takýchto metódach dostáva každá z váh neurónovej siete aktualizáciu úmernú čiastočnej derivácii chybovej funkcie vzhľadom na aktuálnu váhu v každej iterácii tréningu. Problém je v tom, že v niektorých prípadoch bude gradient zbytočne malý, čo účinne zabráni tomu, aby váha zmenila svoju hodnotu. V najhoršom prípade to môže úplne zabrániť neurónovej sieti v ďalšom tréningu. Ako jeden príklad príčiny problému majú tradičné aktivačné funkcie, ako je hyperbolická tangenciálna funkcia, gradienty v rozsahu (0, 1) a spätné šírenie počíta gradienty podľa pravidla reťazca. To má za následok znásobenie n týchto malých čísel na výpočet gradientov prvých vrstiev v sieti n-vrstiev, čo znamená, že gradient (chybový signál) exponenciálne klesá s n, zatiaľ čo prvé vrstvy trénujú veľmi pomaly. - -Ak sa použijú aktivačné funkcie, ktorých deriváty môžu nadobúdať väčšie hodnoty, riskujeme, že narazíme na súvisiaci problém s explodujúcim gradientom. Problém s explodujúcim gradientom je problém, ktorý sa môže vyskytnúť pri trénovaní umelých neurónových sietí pomocou gradientného klesania spätným šírením. Problém s explodujúcim gradientom je možné vyriešiť prepracovaním sieťového modelu, použitím usmernenej lineárnej aktivácie, využitím sietí s dlhodobou krátkodobou pamäťou (LSTM), orezaním gradientu a regularizáciou hmotnosti. Ďalším riešením problému s explodujúcim gradientom je zabrániť tomu, aby sa gradienty zmenili na 0, a to pomocou procesu známeho ako orezávanie gradientov, ktorý kladie na každý gradient vopred definovanú hranicu. Orezávanie prechodov zaisťuje, že prechody budú smerovať rovnakým smerom, ale s kratšími dĺžkami. -Wordpiece Model - -Tento prístup je založený výlučne na dátach a je zaručené, že pre každú možnú postupnosť znakov vygeneruje deterministickú segmentáciu. Je to podobné ako metóda použitá pri riešení zriedkavých slov v strojovom preklade neurónov. Na spracovanie ľubovoľných slov najskôr rozdelíme slová na slovné druhy, ktoré sú dané trénovaným modelom slovných spojení. Pred cvičením modelu sú pridané špeciálne symboly hraníc slov, aby bolo možné pôvodnú sekvenciu slov získať zo sekvencie slovného slova bez nejasností. V čase dekódovania model najskôr vytvorí sekvenciu slovných spojení, ktorá sa potom prevedie na zodpovedajúcu sekvenciu slov. - -| -Obr 1. príklad postupnosti slov a príslušná postupnosť slovných spojení - -Vo vyššie uvedenom príklade je slovo „Jet“ rozdelené na dve slovné spojenia „_J“ a „et“ a slovo „feud“ je rozdelené na dve slovné spojenia „fe“ a „ud“. Ostatné slová zostávajú ako jednotlivé slová. „“ Je špeciálny znak pridaný na označenie začiatku slova. - -Wordpiece model sa generuje pomocou prístupu založeného na údajoch, aby sa maximalizovala pravdepodobnosť jazykových modelov cvičných údajov, vzhľadom na vyvíjajúcu sa definíciu slova. Vzhľadom na cvičný korpus a množstvo požadovaných tokenov D je problémom optimalizácie výber wordpieces D tak, aby výsledný korpus bol minimálny v počte wordpieces, ak sú segmentované podľa zvoleného wordpiece modelu. V tejto implementácii používame špeciálny symbol iba na začiatku slov, a nie na oboch koncoch. Počet základných znakov tiež znížime na zvládnuteľný počet v závislosti na údajoch (zhruba 500 pre západné jazyky, viac pre ázijské jazyky). Zistili sme, že použitím celkovej slovnej zásoby medzi 8 000 a 32 000 slovnými jednotkami sa dosahuje dobrá presnosť (skóre BLEU) aj rýchla rýchlosť dekódovania pre dané jazykové páry. - -V preklade má často zmysel kopírovať zriedkavé názvy entít alebo čísla priamo zo zdroja do cieľa. Na uľahčenie tohto typu priameho kopírovania vždy používame wordpiece model pre zdrojový aj cieľový jazyk. Použitím tohto prístupu je zaručené, že rovnaký reťazec vo zdrojovej a cieľovej vete bude segmentovaný presne rovnakým spôsobom, čo uľahčí systému naučiť sa kopírovať tieto tokeny. Wordpieces dosahujú rovnováhu medzi flexibilitou znakov a efektívnosťou slov. Zistili sme tiež, že naše modely dosahujú lepšie celkové skóre BLEU pri používaní wordpieces - pravdepodobne kvôli tomu, že naše modely teraz efektívne pracujú v podstate s nekonečnou slovnou zásobou bez toho, aby sa uchýlili iba k znakom. -