Vai al contenuto

Ps5 e Ray Tracing... cosa aspettarci davvero?


  • Non puoi aprire una nuova discussione
  • Effettua l'accesso per rispondere
Questa discussione ha avuto 25 risposte

#1
Andreotto

Andreotto
  • Eye Supreme

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Everyeye.it Pro
  • Messaggi: : 9620
Buongiorno e buon inizio di settimana a tutta la Community

Ieri, data la mia ragazza assente a casa, ho voluto fare un test. Sony ha dichiarato che PS5 supporterà il Ray Tracing, tramitre GPU AMD. Io sono un amante della tecnologia, specialmente "grafica" su pc. Guardo tutte le analisi di Digital Foundry e poi le provo io stesso. Possiedo un computer con una 2080 ti e amo spingerla al limite con i nuovi ritrovati in termini di grafica/illuminazione, quali appunto gli effetti di RT. Vista la giornata libera di ieri ho così voluto cercare di fare una constatazione più verosimile possibile su che cosa ci aspetta lato RT con la next gen. L'idea di questo test mi è venuto mentre parlavo con vari utenti nella news di Control. Si parlava di un Control sulla next gen. Per chi non lo sapesse Control è ad oggi il gioco su PC con la migliore implementazione del Ray Tracing. Questo effetto infatti è possibile applicarlo ad ogni singola voce di illuminazione e riflessi. Così mi sono detto, perchè non simulare un Control su next gen con la mia 2080 ti?
L'ho aperto ed ho iniziato a fare delle prove. La prima cosa che mi è saltata all'occhio subito è il DLSS. Per chi non lo sapesse è una "tecnica" di Nvidia per compensare alla perdita considerevole di prestazioni che porta l'utilizzo dell'RT. In sostanza, attraverso un IA, il computer sviluppa un immagine per farla assomigliare il più possibile ad una risoluzione nativa pur non essendola, guadagnando così prestazioni. Esempio di Control: attivando il dlss l'immagine nativa del gioco è in 1440p per poi essere upscalata a 2160p. Semplice upscaling dunque? No, assolutamente. L'IA migliora di volta in volta e la risultante è un immagine che sembra davvero un 2160p(4k) nativo. Ma davvero uguale, come ad esempio in Metro, in cui in Sam's Story sto trovando il dlss INDISTINGUIBILE dal 4k nativo. Perchè questa descrizione accurata? Beh, perchè AMD non ha il DLSS! Al momento nulla di simile è stato annunciato, quindi è una features che non si può prendere in considerazione.
Ora, veniamo al test: immagino che l'obiettivo di un Control per next gen siano i 4k e i 30 fps. Solitamente nelle console i dettagli (che in control sono : basso, medio, alto, ossia tutto al max) oscillano tra il basso e il medio, con rare accezioni su alto.
Mi sono messo in un punto preciso del gioco, punto calmo, niente combattimenti o distruzione, che potrebbe far calare gli fps rilevati anche di 5/10 rispetto a quelli da me rilevati, ed ho fatto le seguenti prove:

In 4k con RT su alto (ossia, attivati TUTTI glie effetti RT di cui control dispone) gli fps, dal preset basso a quello alto dei dettagli variavano dai 25 (dettagli alti) ai 30 (dettagli bassi).

In 4k Con RT su Medio (ossia con 2 effetti RT su 5) gli fps, variano di pochissimo, al variare del prest dei dettagli, forse anche per poca ottimizzazione con RT attivo. si passa dai 30 fps (dettagli alto) ai 35 (dettagli bassi).

In 4k Con RT DISATTIVATO gli fps stanno a 45 a (con dettagli alti) e a 60 (con dettagli medi)
In ogni caso i preset dei dettagli non sembrano fare differenza "incredibili" dal punto di vista della qualità visiva. Cioè, da basso ad alto la differenza si vede, ma in altri giochi è molto più incisiva.

Ora, che conclusioni ho tratto da questi test? Intanto io personalmente dubito fortemente che PS5 potrà essere paragonata a una 2080 ti, quindi io penso di essere sopra alle prestazioni pure di una ps5, che prevedo simile ad una 2080, forse nella variante "super" (anche proprio per una questione di costi, oltre che di TF puri). Detto questo, per il target delle console io prevedo, un Control su Next gen con RT su medio 2 effetti su 5 e un preset di dettagli su medio/basso, per ottenere (forse) i 30 fps stabili. Il tutto supponendo che PS5 sia quasi potente come la mia scheda, cosa che come ho detto dubito fortemente. Lalternativa? In RT non cè proprio. Per scendere di prestazioni lrt va disattivato e poi si potrebbe arrivare ad un preset alto per stare sui 60 fps.
Ci sono anche due cose: prima cosa, l'ottimizzazione console non è prevedibile, anche se notevolemnte ridotto come effetto rsipetto al passato. Altra cosa, non sappiamo se al momento AMD svilupperà un sistema come il dlss appunto, per far risparmiare prestazioni.
Se qualcuno vuole portare la sua esperienza/considerazioni mi farebbe molto piacere. Se prendiamo Control come esempio dunque laspetto RT su PS5 è tuttaltro che scontato. E la vedo decisamente grigia.

Modificata da Andreotto, 17 February 2020 - 08:53 AM.


#2
neapolis100

neapolis100
  • One Eye

  • StellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 4737

Buongiorno e buon inizio di settimana a tutta la Community

Ieri, data la mia ragazza assente a casa, ho voluto fare un test. Sony ha dichiarato che PS5 supporterà il Ray Tracing, tramitre GPU AMD. Io sono un amante della tecnologia, specialmente "grafica" su pc. Guardo tutte le analisi di Digital Foundry e poi le provo io stesso. Possiedo un computer con una 2080 ti e amo spingerla al limite con i nuovi ritrovati in termini di grafica/illuminazione, quali appunto gli effetti di RT. Vista la giornata libera di ieri ho così voluto cercare di fare una constatazione più verosimile possibile su che cosa ci aspetta lato RT con la next gen. L'idea di questo test mi è venuto mentre parlavo con vari utenti nella news di Control. Si parlava di un Control sulla next gen. Per chi non lo sapesse Control è ad oggi il gioco su PC con la migliore implementazione del Ray Tracing. Questo effetto infatti è possibile applicarlo ad ogni singola voce di illuminazione e riflessi. Così mi sono detto, perchè non simulare un Control su next gen con la mia 2080 ti?
L'ho aperto ed ho iniziato a fare delle prove. La prima cosa che mi è saltata all'occhio subito è il DLSS. Per chi non lo sapesse è una "tecnica" di Nvidia per compensare alla perdita considerevole di prestazioni che porta l'utilizzo dell'RT. In sostanza, attraverso un IA, il computer sviluppa un immagine per farla assomigliare il più possibile ad una risoluzione nativa pur non essendola, guadagnando così prestazioni. Esempio di Control: attivando il dlss l'immagine nativa del gioco è in 1440p per poi essere upscalata a 2160p. Semplice upscaling dunque? No, assolutamente. L'IA migliora di volta in volta e la risultante è un immagine che sembra davvero un 2160p(4k) nativo. Ma davvero uguale, come ad esempio in Metro, in cui in Sam's Story sto trovando il dlss INDISTINGUIBILE dal 4k nativo. Perchè questa descrizione accurata? Beh, perchè AMD non ha il DLSS! Al momento nulla di simile è stato annunciato, quindi è una features che non si può prendere in considerazione.
Ora, veniamo al test: immagino che l'obiettivo di un Control per next gen siano i 4k e i 30 fps. Solitamente nelle console i dettagli (che in control sono : basso, medio, alto, ossia tutto al max) oscillano tra il basso e il medio, con rare accezioni su alto.
Mi sono messo in un punto preciso del gioco, punto calmo, niente combattimenti o distruzione, che potrebbe far calare gli fps rilevati anche di 5/10 rispetto a quelli da me rilevati, ed ho fatto le seguenti prove:

In 4k con RT su alto (ossia, attivati TUTTI glie effetti RT di cui control dispone) gli fps, dal preset basso a quello alto dei dettagli variavano dai 25 (dettagli alti) ai 30 (dettagli bassi).

In 4k Con RT su Medio (ossia con 2 effetti RT su 5) gli fps, variano di pochissimo, al variare del prest dei dettagli, forse anche per poca ottimizzazione con RT attivo. si passa dai 30 fps (dettagli alto) ai 35 (dettagli bassi).

In 4k Con RT DISATTIVATO gli fps stanno a 45 a (con dettagli alti) e a 60 (con dettagli medi)
In ogni caso i preset dei dettagli non sembrano fare differenza "incredibili" dal punto di vista della qualità visiva. Cioè, da basso ad alto la differenza si vede, ma in altri giochi è molto più incisiva.

Ora, che conclusioni ho tratto da questi test? Intanto io personalmente dubito fortemente che PS5 potrà essere paragonata a una 2080 ti, quindi io penso di essere sopra alle prestazioni pure di una ps5, che prevedo simile ad una 2080, forse nella variante "super" (anche proprio per una questione di costi, oltre che di TF puri). Detto questo, per il target delle console io prevedo, un Control su Next gen con RT su medio 2 effetti su 5 e un preset di dettagli su medio/basso, per ottenere (forse) i 30 fps stabili. Il tutto supponendo che PS5 sia quasi potente come la mia scheda, cosa che come ho detto dubito fortemente. Lalternativa? In RT non cè proprio. Per scendere di prestazioni lrt va disattivato e poi si potrebbe arrivare ad un preset alto per stare sui 60 fps.
Ci sono anche due cose: prima cosa, l'ottimizzazione console non è prevedibile, anche se notevolemnte ridotto come effetto rsipetto al passato. Altra cosa, non sappiamo se al momento AMD svilupperà un sistema come il dlss appunto, per far risparmiare prestazioni.
Se qualcuno vuole portare la sua esperienza/considerazioni mi farebbe molto piacere. Se prendiamo Control come esempio dunque laspetto RT su PS5 è tuttaltro che scontato. E la vedo decisamente grigia.


Tutto quello che so, da dichiarazioni ufficiali fatte da Cerny su PS5, il raytracing sarà gestito via hardware con dei core dedicati solo a questo. La 2080ti di nVidia, invece, gestisce il raytracing in modo non totalmente separato dalla gpu. Nel senso... si utilizzano, in percentuali diverse, sia core dedicati che core normali condivisi con la gpu, questo significa che con l’rtx attivo e al massimo intervengono core aggiuntivi, solitamente deputati ad altro, che ovviamente fanno calare le performance globali della gpu.
Se l’rtx su PS5 sarà totalmente gestito da core separati, come afferma Cerny, il problema che hai riscontrato nel tuo test non avrà modo di esistere sulle prossime console, almeno su PS5.
Poi, non sappiamo ancora la potenza effettiva di PS5, ma se ipotizziamo che possa essere in linea con quella che forse avrà XsX, allora parliamo di 12tf rdna. Rdna ha un’efficienza molto maggiore rispetto alla precedente gcn. Questo significa che una ipotetica PS5 con 12tf rdna equivarrebbe a più di 16tf dell’attuale gcn. La 2080ti eroga 14.2tf. Quindi, se davvero PS5 avesse 12tf rdna con gestione rtx totalmente separata e deputata a core appositamente dedicati, risulterebbe, sulla carta, più performante dell’attuale 2080ti. Mettici poi l’ottimizzazione e il gioco è fatto.

#3
Andreotto

Andreotto
  • Eye Supreme

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Everyeye.it Pro
  • Messaggi: : 9620

Tutto quello che so, da dichiarazioni ufficiali fatte da Cerny su PS5, il raytracing sarà gestito via hardware con dei core dedicati solo a questo. La 2080ti di nVidia, invece, gestisce il raytracing in modo non totalmente separato dalla gpu. Nel senso... si utilizzano, in percentuali diverse, sia core dedicati che core normali condivisi con la gpu, questo significa che con lrtx attivo e al massimo intervengono core aggiuntivi, solitamente deputati ad altro, che ovviamente fanno calare le performance globali della gpu.
Se lrtx su PS5 sarà totalmente gestito da core separati, come afferma Cerny, il problema che hai riscontrato nel tuo test non avrà modo di esistere sulle prossime console, almeno su PS5.
Poi, non sappiamo ancora la potenza effettiva di PS5, ma se ipotizziamo che possa essere in linea con quella che forse avrà XsX, allora parliamo di 12tf rdna. Rdna ha unefficienza molto maggiore rispetto alla precedente gcn. Questo significa che una ipotetica PS5 con 12tf rdna equivarrebbe a più di 16tf dellattuale gcn. La 2080ti eroga 14.2tf. Quindi, se davvero PS5 avesse 12tf rdna con gestione rtx totalmente separata e deputata a core appositamente dedicati, risulterebbe, sulla carta, più performante dellattuale 2080ti. Mettici poi lottimizzazione e il gioco è fatto.

Grazie del tuo intervento intanto. Il discorso che mi sembra impossibile sono i costi. Ok i core dedicato al Ray Tracing. Ma una 2080 ti costa 1200 euro. Cone può ps5 costare 499? Cioè nemmeno la sola scheda grafica costa così poco. Questo è il nodo cruciale secondo me.
L ottimizzazione è molto limitata rispetto al passato.

#4
neapolis100

neapolis100
  • One Eye

  • StellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 4737

Grazie del tuo intervento intanto. Il discorso che mi sembra impossibile sono i costi. Ok i core dedicato al Ray Tracing. Ma una 2080 ti costa 1200 euro. Cone può ps5 costare 499? Cioè nemmeno la sola scheda grafica costa così poco. Questo è il nodo cruciale secondo me.
L ottimizzazione è molto limitata rispetto al passato.

Tu stai però paragonando i costi verso l’utenza privata con i costi che una multinazionale come Sony (ma anche Microsoft) può ottenere in vista di ordini massicci per una produzione in serie. Non si può fare un paragone. Ipotizzando che Sony si rivolga ad nVidia per una gpu custom per PS5, usando come base la 2080ti, stai certo che Sony non pagherà mai 1200$ per ogni pezzo ordinato, ma al massimo 100/120$ al pezzo. Le forniture, con relativi costi, tra le aziende, costituiscono un mondo a parte.

#5
IKKI86

IKKI86
  • Eye Master

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 25414

che poi sony pagherebbe solo il chip, niente scheda, niente ventola, niente di niente ma proprio solo la GPU cruda. 

 

NVIDIA-Turing-TU102-300A-K1-A1-GPU-3.jpg



#6
Andreotto

Andreotto
  • Eye Supreme

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Everyeye.it Pro
  • Messaggi: : 9620

Tu stai però paragonando i costi verso lutenza privata con i costi che una multinazionale come Sony (ma anche Microsoft) può ottenere in vista di ordini massicci per una produzione in serie. Non si può fare un paragone. Ipotizzando che Sony si rivolga ad nVidia per una gpu custom per PS5, usando come base la 2080ti, stai certo che Sony non pagherà mai 1200$ per ogni pezzo ordinato, ma al massimo 100/120$ al pezzo. Le forniture, con relativi costi, tra le aziende, costituiscono un mondo a parte.

Ho anche io un azienda. Premesso questo se va bene, per quantità molto più alte richieste rispetto ad un privato se si arriva ad un abbattimento del 50% del costo è già al limite. Sono d accordo che tra aziende non sia così alto il costo, per via di quantità ed intermediari assenti. Ma da 1200 passare a 100 non se ne parla proprio. Da 1200 se va bene costerà 700... 600 massimo. Discorso solo chip ci può stare ma di certo non sono le ventole e il dissipatore il costo maggiore. Senza contare che anche Sony stessa dovrà poi far e uso, quindi il costo si abbassa un pelo,ma rimane.

Modificata da Andreotto, 17 February 2020 - 11:38 AM.


#7
neapolis100

neapolis100
  • One Eye

  • StellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 4737

che poi sony pagherebbe solo il chip, niente scheda, niente ventola, niente di niente ma proprio solo la GPU cruda. 
 
NVIDIA-Turing-TU102-300A-K1-A1-GPU-3.jpg

E anche questo è vero... infatti la motherboard è il sistema di raffreddamento vengono sviluppati internamente.

#8
neapolis100

neapolis100
  • One Eye

  • StellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 4737

Ho anche io un azienda. Premesso questo se va bene, per quantità molto più alte richieste rispetto ad un privato se si arriva ad un abbattimento del 50% del costo è già al limite. Sono d accordo che tra aziende non sia così alto il costo, per via di quantità ed intermediari assenti. Ma da 1200 passare a 100 non se ne parla proprio. Da 1200 se va bene costerà 700... 600 massimo. Discorso solo chip ci può stare ma di certo non sono le ventole e il dissipatore il costo maggiore. Senza contare che anche Sony stessa dovrà poi far e uso, quindi il costo si abbassa un pelo,ma rimane.

E’ intervenuto ikki facendo luce su un’altro aspetto. Una 2080ti ha un costo perché consta di diverse parti. Solitamente, per una console, l’azienda richiede solo i chip (e qui i costi calano drasticamente) spesso customizzati e al resto ci pensa lei direttamente.

#9
Andreotto

Andreotto
  • Eye Supreme

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Everyeye.it Pro
  • Messaggi: : 9620

E intervenuto ikki facendo luce su unaltro aspetto. Una 2080ti ha un costo perché consta di diverse parti. Solitamente, per una console, lazienda richiede solo i chip (e qui i costi calano drasticamente) spesso customizzati e al resto ci pensa lei direttamente.

Letto e modificato il mio commento al riguardo.

#10
IKKI86

IKKI86
  • Eye Master

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 25414

metti pure che il guadagno su una scheda retail e' estremo perche' o prendi quella o ti attacchi. 

Purtroppo e' difficilissimo fare i conti dato che i dati non vengono mostrati per ovvi motivi.



#11
neapolis100

neapolis100
  • One Eye

  • StellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 4737

Letto e modificato il mio commento al riguardo.

Resta però un dato inconfutabile quello inerente ai singoli costi per produrre una console. Per i chip di PS4 Sony spendeva 100$ mentre Microsoft ne spendeva 110 per One. PS4 risultò poi più performante nonostante un costo unitario inferiore.
Ipotizziamo tra i 100 e i 200$ per i chip della futura PS5, direi che ci sta, soprattutto se Cerny, come si dice in giro, ha dato un grosso contributo allo sviluppo di questo chip assieme ad AMD, aprendo a quest’ultima la strada per introdurre le future gpu navi rdna 2.0, o big navi.

#12
Andreotto

Andreotto
  • Eye Supreme

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Everyeye.it Pro
  • Messaggi: : 9620

Resta però un dato inconfutabile quello inerente ai singoli costi per produrre una console. Per i chip di PS4 Sony spendeva 100$ mentre Microsoft ne spendeva 110 per One. PS4 risultò poi più performante nonostante un costo unitario inferiore.
Ipotizziamo tra i 100 e i 200$ per i chip della futura PS5, direi che ci sta, soprattutto se Cerny, come si dice in giro, ha dato un grosso contributo allo sviluppo di questo chip assieme ad AMD, aprendo a questultima la strada per introdurre le future gpu navi rdna 2.0, o big navi.

Quei costi sono veri,ma sono costi di almeno 7 anni fa. Da allora le gpu sono diventate estremamente più costose. E sul fatto che ci sia un guadagno estremo sulle stesse vendite da nvidia e da amd dubito anche di questo. Perché la stessa amd si è andata circa ad allineare con i prezzi nvidia. E non credo facciano cartello. Probabilmente la sola 2080 ti è sovraprezzata di 200 euro circa. Ma poco sposta. In più c è un altra cosa
Se poi prendiamo in riferimento i salti della mid gen ecco che il discorso si amplia. Una one x va circa come una 1070, mentre ps4/one come una 1050, al netto di ottimizzazioni. Non solo. Se paragoniamo i salti di Nvidia i risultati sono questi: la TI vecchia solitamente va quanto la top nuova serie, esclusa la nuova TI. Esempio: la 1080 ti va come la 2080. la 980 ti va come una 1080. Seguendo questo ragionamento la 3080 andrà come la 2080 ti. Detto questo io ho grossissimi dubbi che la ps5 andrà come la 3080, sotto la nuova ed ipoteticamente top 3080 ti. Mi sembra un margine troppo misero, seguendo lo storico e ragionando a livello di azienda. se la ps5 costa 500 e la sola 3080 700, che senso avrebbe prendere la 3080? non penso in questo scenario infatti.

#13
Judge Dyo

Judge Dyo
  • TI FACCIO TERRA BRUCIATA INTORNO

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: [SMod]SuperMod
  • Messaggi: : 85093

si rischia di avere un topic gemello di quello principale...



#14
Andreotto

Andreotto
  • Eye Supreme

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Everyeye.it Pro
  • Messaggi: : 9620
Questo è più tecnico. Io quello principale lo trovo troppo dispersivo con utenza che non sempre conosce questi tecnicismi. Nel caso si voglia spostare perché ritenuto non "necessario" lo capisco.

#15
IKKI86

IKKI86
  • Eye Master

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 25414

si rischia di avere un topic gemello di quello principale...

non credo li ormai se non si interviene finisce che poi so come mettere cavi in fibra dentro casa..






Leggono questa discussione 0 utenti

0 utenti, 0 ospiti, 0 utenti anonimi

Logo