DLSS 2.0 by NVIDIA
(deep learning super sampling)
Cos'è
Una tecnologia proprietaria di NVIDIA (funzionante esclusivamente su schede Turing e le venture Ampere) che ha l'obiettivo di migliorare drammaticamente sia le prestazioni che la qualità dell'immagine, grazie a complesse tecniche di ricostruzione condotte mediante l'intelligenza artificiale.
Presentazione ufficiale versione 2.0
https://www.nvidia.c...n-ai-rendering/
-----------------
La lunga ricerca della verità
E' da ormai un po' di tempo che si sente parlare di questo affare, ma se nella sua prima iterazione sembrava una barzelletta, con la terza versione (benché ancora denominata 2.0) la cosa inizia a farsi seria.
Del resto non ci sono alternative: o Nvida è improvvisamente impazzita, riversando sulle sue schede un sacco di ferraglia apparentemente inutile (i tensor core) per giustificare i prezzi esorbitanti che propone, oppure ci ha visto veramente luuuuungo.
E per capire quanto lungo, è necessario menzionare l'altra parolina maggica che tanto risuona negli ultimi anni: raytracing.
Il quadro è chiaro: un colpo al cerchio e uno alla botte.
Tutto ciò che il DLSS riesce a risparmiare alla gpu potrà esser riversato sul rivoluzionario sistema d'illuminazione. Ed è un punto d'arrivo: non ci sono altri modi per rendere i fotoni se non simulandoli uno ad uno, o quasi; ma questa è un'altra bella storia da raccontare davanti al camino, non divaghiamo...
Questo thread non nasce per cercare di convincere
Bensì principalmente per condividere l'esperienza diretta rispetto a questa tecnologia.
In rete ci sono un sacco di articoli patinati ma, da attuale possessore di una scheda Pascal, sono il primo curioso di leggere le vostre impressioni : ).
Le immagini, così come i video e le comparazioni sempre più numerose in rete, raccontano solo una parte della favola.
Perché la battaglia su pc non è tanto e solo sulle prestazioni come accennavo poc'anzi, ma anche sulla definizione in movimento. Cosa che solo la prova diretta può permettere di saggiare autenticamente.
La partita vera si gioca qui e se apro questo thread è perché ho iniziato a leggere con una certa frequenza che il DLSS 2.0 si sta comportando non solo bene, ma a volte addirittura meglio della risoluzione nativa .
Sulle prime ho liquidato il tutto come una Cagata Pazzesca™, la solita boiata di Digital Foundry mi dicevo. Eppure continuo a constatare che tale opinione è sempre più diffusa...
Via Damasco n.3kti
Sicché ho iniziato a guardarmi in giro e proprio ieri sono incappato in un post illuminante, che intuisco (non avendo controprove dirette) c'entri in pieno quale sia lo stratagemma che rende possibile tutto ciò.
Eccolo, leggete molto attentamente:
It took me a while to understand it as well. I don't think the media has done a good job of communicating it. Here is what I have concluded:
The "native resolution" results are using some kind of high-performance but low-quality anti-aliasing method. Typically something like TAA (temporal anti-aliasing). TAA introduces some unintended blurring of details.
DLSS 2.0 is actually very similar to TAA in concept, but it uses a neural network rather than a pre-baked algorithm. The neural network turns out to be far superior to the current TAA algorithm and causes much less unintended blurring of details. It is so much better than traditional TAA that the image may look better even when rendered at a lower resolution and upscaled.
Ultimately the reason DLSS 2.0 can sometimes look better than native is because of how bad TAA is. If you were to render the native resolution image using a higher quality form of anti-aliasing, such as SSAA, then the native resolution image would always win in quality. However the performance cost of SSAA is very high.
What DLSS 2.0 has exposed is that our existing algorithms for doing TAA are woefully sub-optimal. In theory we could figure out a different algorithm that worked as well as DLSS 2.0, but without a neural network. However finding this algorithm is easier said than done.
Rif. https://www.resetera...2#post-39738997
[edit] Un secondo commento, altrettanto valido:
Most modern games use some form of temporal anti-aliasing to clean up a large number of artefacts that are troublesome with other techniques at a low performance cost. It results in a very clean image for the most part, but also in a loss of clarity (perceptual sharpness) and loss of detail (slight blurring on textures and whatnot). Since overall pixel counts are fairly high these days, the image still looks quite good, and somewhat "filmic". In order to combat the reduction in perceptual sharpness, some form of sharpening filter is applied over the image.
DLSS guesses/invents micro detail in the image, and it does thing like connect thin lines together that might otherwise only look good at extreme resolution (e.g. hair strands). The detail that it has isn't necessarily totally true to the source artwork, but since it's mostly tiny scale things being fudged it still appears very good to the naked eye. It does a much better job than most TAA+Sharpening solutions at retaining perceptual sharpness, although it is also sometimes going overboard here resulting in ringing artefacts of it's own (the sharpness is apparently developer-adjustable).
Rif. https://www.resetera...5#post-39725653
A voi la palla, popolo della razza superiore.
Modificata da Andrea_23, 17 July 2020 - 07:20 PM.
aggiunto secondo commento