La robba dura del momento è il PBR (Physically-Based Rendering, google per approfondimenti ). Impiegato in molti giochi (più o meno bene, in TW3 ad esempio non è che sia questo granché... lo era prima del downgrade). Eccellente invece, ad esempio, in Overwatch.
Poi ci sarebbe il VXGI ma non ha ancora trovato applicazione pratica all'infuori delle tech demo, data la pesantezza.
Il resto delle *novità* è abbastanza trascurabile, a mio avviso.
quindi fondamentalmente siamo in una situazione di stallo?
cioè per il rendering in ray tracing (lo prendo solo come esempio, ma magari usciranno alternative a questa tecnica) ho letto ci vorrebbero circa 800 teraflops per giocare in real time. le schede attuali arriveranno ad una decina se non erro (scusate non ne so tanto).
allora se ora serve tutta questa potenza per fare la differenza cosa potrebbe rappresentare un salto nel prossimo futuro? trovo ok il fatto che DX12 non introduca effetti, se non erro riprogetta invece la gestione hardware per il software. quindi la possibilità di usare tutti i core della CPU assieme alla GPU (poi la mia conoscenza limitatissima sul campo si ferma qui e magari ho anche sbagliato).
è possibile però che per fare il salto successivo serva una tecnologia hardware talmente più evoluta rispetto ad oggi che rappresenterebbe decenni di evoluzione hardware e software? cioè come dire, possibile che si è arrivati agli ultimi gradini prima del fotorealismo ma l'ultimo gradino non si era calcolato fosse altissimo rispetto agli altri precedenti?
in un certo mi rispondo da solo dicendo che la grafica in real time e il foto realismo non dipendono solo dal motore che gestisce l'illuminazione e ci sono tanti altri fattori, poly count, dimensione degli ambienti (il discorso dei landscape che facevamo prima ad esempio), la gestione della fisica, come dicevamo anche l'IA, etc, etc... però mi chiedo possibile che tra tutti questi ce ne sia uno in particolare sul quale se si spendesse più energia si arriverebbe per primi ad una resa del fotorealismo?