Am si eu o intrebare legata de DLSS. In cat timp invata AI-ul ala sa randeze jocul? Secunde, minute, ore, zile?
AI-ul e gata antrenat (adica "invatat" in alta parte, nu ce te joci tu) si cel mai probabil va primi update-uri prin drivere, altfel s-ar dezvolta diferit la diferiti useri.
"NGX utilizes deep neural networks (DNNs) and a set of Neural Services to perform AI-based functions that accelerate and enhance graphics, rendering, and other client-side applications. NGX employs the Turing Tensor Cores for deep learning-based operations and accelerates delivery of NVIDIA deep learning research directly to the end-user. Note that NGX does not work on GPU architectures before Turing."
partially correct. Din ce am inteles eu cum merge DLSS-ul si de ce are nevoie de un AI core separat el merge in felul urmator:
din drivere care sunt updatate isi ia modele pentru diferite jocuri, sau unul default(desi nu cred ca o sa se intample).
cand joci core-ul AI se ocupa de DLSS, si lasa core-urile CUDA (!?!) sa fara restul randarii fara AA.
Bazat de modelul pe care il are rezolva imaginea si aplica DLSS(which is fancy AA) in timp real.
Hence motivul pentru care daca activezi DLSS, generatia noua e mai rapida devine evident, pentru ca core-urile care se ocupau pana acum de AA, nu mai au aceasta obligatie, deci poti sa iti furnizeze extra FPS. Si pentru AA e folosit acest AI.
In principiu suna bine si e gandit bine. Daca ne gandim ca peste x ani, DLSS e metoda default pentru jocuri, gandestete ca poti vinte placi video care au un core AI mai mare sau mai mic. Arhitectural e mai usor sa faci design la componente mici pe care le adaugi, decat full chip design. Adicalea e posibil ca xx70 si xx80 sa aibe acelasi numar de cuda, insa AI sa fie de 2x size pe xx80. Hence in jocuri, cum activezi DLSS xx80 zboara in fata.
si fix la fel e si cu RayTracing care e facut de un modul separat.
Daca sezi si cugeti, arhitectura e gandita bine si poate fi scalata usor.
Acum sa vina dracului 7nm cu preturi decente.