@
AiMLEzZz (18.01.2021 12:47): Treba tenhle diagram (shodou okolnosti take z webu Nvidia) by ti to mohl trochu objasnit -
https://developer.nvidia.com/blog/infere ... rated-deep-learning/
Aniz bych hodnotil, zda to ma Nvidia vymyslene dobre nebo ne, funguje to tak (pokud vim, nejsem v tom v zadnem pripade expert), ze vypocetne je uceni (training) a vyhodnocovani (inference) prakticky stejne narocne, u uceni je tam navic jen ta ucici (feedback) funkce. Ta stejna cast je o tom, ze das na vstup data, ta projdou mnoha vrstvami neuronu (funkci, napriklad a*x^b, kde x je vstup a a/b trenujes) a nakonec se z toho urci vysledek.
Dokazu si predstavit, ze pro prepocitani obrazu napriklad z 1080p na 4k bude potreba spocitat minimalne kazdy pixel v tom nizsim rozliseni, tedy 1920*1080 = 2073600 pixeu, pro jednoduchost 2 miliony. Pokud by byl model velky rekneme 100x100 (absolutne netusim, jestli je to realisticke), je to radove 10000 operaci. Pokud chces, aby to jelo, pro jednoduchost, 100FPS, vypadne z toho "2 miliony*10 tisic*sto"=2 teraoperace za vterinu (2 biliony operaci za vterinu), coz je obecny pripad bez nejakych vychytavek, ale proto to nikdo aktualne nedela, neda se to na beznem pocitaci upocitat (i kdyby to bylo jen 10x10, je to porad 20 gigaoperaci za vterinu, coz uz je snaze predstavitelne, kdyz dnesni procesory maji treba 8 jader na 4Ghz, tedy teoreticky nejakych 32 gigaoperaci za vterinu, tedy alespon radove uz dostavame nekam do realneho sveta).
A ted k tem tensorcores, respektive specializovanemu hardwaru obecne (netusim, jak presne tensorcores funguji) - obecne se specializovany hardware pouziva ze dvou duvodu - byva levnejsi na vyrobeni a/nebo zvladne specificke operace rychleji nez genericky hardware (napriklad CPU). Pokud by napriklad dany hardware zvladnul spocitat 10x10 neuronovou sit v jednom taktu a bylo by jich tam napriklad 100, snizi se to z 20 gigaoperaci za vterinu zpet na ty cca 2 miliony operaci (tedy pocet pixelu), coz jsou 2 megaoperace (tedy "neco jako 2MHz").
To je samozrejme obecny priklad, jak je to presne s DLSS a tensorcores netusim, pravdepodobne se nebude prepocitavat kazdy pixel, ale bude za tim nejaka chytristika, protoze tam je, mam dojem, i nutna podpora v enginu hry. Kazdopadne dedikovany hardware dava obecne smysl, viz vznik grafickych karet/grafickych akceleratoru obecne, driv to take pocital jen procesor :)
A ted doufam, ze neprijde nejaky (D)NN/ML expert a neudela ze me uplneho hlupaka :)