forked from KEMT/zpwiki
		
	Update 'pages/topics/bert/README.md'
This commit is contained in:
		
							parent
							
								
									90565214c3
								
							
						
					
					
						commit
						0f405f933b
					
				| @ -65,9 +65,14 @@ Spolu 25 GB po deduplikovaní. | ||||
| ## Budúce  úlohy | ||||
| 
 | ||||
| - Pripraviť aj iné množiny na vyhodnotnie: kategorizácia textu na SCNC1. | ||||
| - trénovanie na HPC | ||||
| - trénovanie Large modelu | ||||
| - trénovanie BART | ||||
| 
 | ||||
| ## Poznámky | ||||
| 
 | ||||
| - Trénovanie roberta base s deepspeed 5 epoch, 25G korpus trvá 400 hod. BEz deepsdpeed 900 hod. na dvoch kartách. | ||||
| - Veľkosť dávky roberta base na jedno zariadenie Titan24GB je 64 pre deepspeed.   | ||||
| - Dáta z prokuratúry asi zhoršujú model kvôli anonymizácii, skratkám a právnickému jazyku. | ||||
| - Nie každý model je vhodný na QA. Je potrebné aby mal veľký rozmer vstupného vektora aby aj dlhší odsek mohol byť na vstupe. Z toho dôvodu 128 "small model" asi nestačí na QA. | ||||
| - Väčší vstupný rozmer je obmedzený veľkosťou RAM pri trénovaní.  | ||||
|  | ||||
		Loading…
	
		Reference in New Issue
	
	Block a user