Vai al contenuto

PS5: prestazioni simili a quelle di una RTX 2080 secondo un leak


  • Non puoi aprire una nuova discussione
  • Effettua l'accesso per rispondere
Questa discussione ha avuto 115 risposte

#106
Kain Di Nosgoth

Kain Di Nosgoth
  • Strong Eye Fan

  • StellettaStellettaStelletta
  • Gruppo: Utente
  • Messaggi: : 878

Comunque mi sembrava strano,sono andato a vedere la scheda di ps3,rsx la sua gpu lavora a 550mhz non 800....

infatti sembrava strano anche a me....

#107
Antares1984

Antares1984
  • Super Eye Fan

  • StellettaStellettaStellettaStelletta
  • Gruppo: Everyeye.it Pro
  • Messaggi: : 1899

Ma secondo voi avremo una ps pro anche nella prossima generazione? Secondo me si la tecnologia si evolve troppo in fretta


Penso di sì,il mercato si è evoluto e la direzione credo su quella,io credo che ps4 pro affiancherà ps5 per i primi tre anni,condividendo i giochi,la pro farà i classici 6 anni di vita di una consolle,sarà l'entry level di Sony fino all'uscita di ps5 pro.

#108
K_for_Vendetta

K_for_Vendetta
  • HardBlackEye

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 18275

Non sono d'accordo, anche le precedenti generazioni duravano 6-7 anni sebbene non ci fosse alcuna versione pro


Sì ma i tempi sono cambiati. PS3 e x360 quando uscirono erano vendute in pesantissima perdita, questo permise di mettere sul mercato piattaforme più longeve. In questa gen non è stato possibile, senza la mid gen avrebbe arrancato pesantemente almeno 2 anni fa

#109
Robyvale

Robyvale
  • Lega Nazionale Protezione Cigni

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 40897

È difficile prevederlo ma è probabile.

Però prima di parlarne male pensate che è anche grazie a pro e x che questa generazione sta durando 7 anni

 

tutte le gen durano in media 6-7 anni

 

prima a metà gen c'erano le versioni slim, adesso se la giocano col termine pro


Modificata da Robyvale, 16 August 2019 - 10:28 AM.


#110
Alex Lukanov

Alex Lukanov
  • Little Eye Fan

  • Stelletta
  • Gruppo: Utente
  • Messaggi: : 45
RDNA è la nuova architettura, mentre la GCN è quella attuale, ma tuttavia non ho capito perché 9,2 teraflops della nuova coincidano a 14 di quella vecchia. Il flops non era una unità di misura universale?

Modificata da Alex Lukanov, 16 August 2019 - 09:19 PM.


#111
Dech

Dech
  • Settimanalmente, ovvero, suino

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: [SMod]SuperMod
  • Messaggi: : 17320

RDNA è la nuova architettura, mentre la GCN è quella attuale, ma tuttavia non ho capito perché 9,2 teraflops della nuova coincidano a 14 di quella vecchia. Il flops non era una unità di misura universale?

 

E' il numero di operazioni a virgola mobile che può fare il chip in un secondo, la potenza bruta della scheda video. Un teraflops sono mille miliardi di operazioni al secondo, ma non tutte queste operazioni sono utili a generare grafica 3D.

Ottimizzazione e specializzazione nella grafica sono molto più importanti di un 15% di differenza in TF.

GCN è un chip molto completo, fin troppo, figlio della situazione economica di AMD di alcuni anni fa (non buona, serviva una GPU in grado di fare tutto e costare poco), fa bene nella grafica 3d ma per come gestisce i calcoli rende meglio nella produttività dove le esigenze di calcolo sono meno specifiche; da qui scaturiscono i TF superiori a parità di prestazioni in gioco rispetto alle Nvdia, (vedasi 1060 6gb vs RX580). 

Sulle console tutta questa "completezza" ha permesso uno sfruttamento decisamente buono, impossibile su PC dove ogni 6 mesi esce qualcosa di nuovo e le combinazioni di hw possibili sono innumerevoli.

RDNA è un chip  meno generalista che è in grado di svolgere meglio i compiti grafici e trascura quelli lavorativi, guadagnando anche in compattezza, consumi e calore. In tutto ciò integra tecnologie per gestire antialiasing e upscaling senza praticamente impattare sul framerate e dunque costituisce una base eccellente per una console.

 

Estremizzando il concetto se vedi le unità RTX e i Tensor Core delle Nvidia che sono unità ultra specializzate; queste fanno letteralmente schifo nei bench classici ma se messe a fare il loro specifico carico di lavoro valgono come 100TF delle unità "classiche". Tutto dipende dal tipo di numero che il chip deve macinare ;)



#112
Darkn3ss7

Darkn3ss7
  • HardBlackEye

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Bannati
  • Messaggi: : 16612

RDNA è la nuova architettura, mentre la GCN è quella attuale, ma tuttavia non ho capito perché 9,2 teraflops della nuova coincidano a 14 di quella vecchia. Il flops non era una unità di misura universale?

Quello che penso anch'io

#113
Guest_Dream84eYe

Guest_Dream84eYe
  • Gruppo: Ospiti

Sì ma i tempi sono cambiati. PS3 e x360 quando uscirono erano vendute in pesantissima perdita, questo permise di mettere sul mercato piattaforme più longeve. In questa gen non è stato possibile, senza la mid gen avrebbe arrancato pesantemente almeno 2 anni fa

Arrancato? Perché secondo te un titolo giocato sulla pro è più divertente dello stesso e identico titolo giocato sulla PS4 liscia? Tieni inoltre presente che salvo rare esclusive (tipo Horizon e GoW) le migliorie nella versione pro sono davvero molto marginali, ed in ogni caso quel piccolo boost grafico non mi rende il gioco più divertente. La mid-gen è stata una pura trovata commerciale: i più appassionati dopo solo 3 anni davano via la console per prendere il nuovo modello... E chi invece non aveva ancora comprato la versione liscia spendeva più soldi per comprare la versione potenziata. Ma a mio avviso il tutto si ferma alla trovata commerciale perché fintantoché la console più potente è limitata dal fatto che ogni gioco deve funzionare anche nella versione liscia allora non avrai mai vantaggi seri. Inoltre le terze parti non si sbatteranno mai più di tanto per dare un vero di più a questa minoranza di mercato. Comunque ripeto, nella versione Pro/ X lo stesso titolo risulta più divertente? Se la risposta è "No" allora la successiva domanda dovrebbe essere: allora che senso ha tale versione Pro/ X?
P.s. comunque è vero, i tempi sono cambiati... Al tempo di PS1 e PS2 la tecnologia (dal punto di vista delle potenze hardware) si muoveva ben più velocemente di adesso. A quel tempo un pc dopo 2 anni era già molto obsoleto, ora invece ci giochi ancora discretamente.

Modificata da Dream84, 17 August 2019 - 10:31 AM.


#114
Dech

Dech
  • Settimanalmente, ovvero, suino

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: [SMod]SuperMod
  • Messaggi: : 17320

Quello che penso anch'io

 

 

Dipende da quanto è specializzato il chip. Se nella grafica 3d i numeri da processare hanno "tot" cifre dopo la virgola, un'architettura di GPU specializzata a processare quella classe di numeri sarà più veloce a parità di silicio e energia spesi rispetto ad una che in linea teorica gestisce più calcoli al secondo ma all'atto pratico non è specializzata in quel range di "tot" cifre dopo la virgola.

Più specializzi il chip più ottieni in output nello scenario di utilizzo (perdendo in tutti gli altri ambiti)

Esempi li puoi trovare negli ASIC per il mining, nella scheda integrata per l'encoding video che verrà offerta come optional sui nuovi MacPro, nelle unità RTX e TensorCore sulle gpu nvidia, le cpu RISC, le stesse GPU nel fare grafica rispetto alle CPU classiche...

 

Una GPU come la Radeon VII da 14,1 teraflops nel gaming va meno di una RTX 2080 da 10,7 TF, facendo il confronto in alcuni ambiti produttivi invece la Radeon trita l'RTX (e viceversa in altri) perchè sono due schede che macinano i dati in maniera differente.

 

Ci sono in giro alcuni articoli che spiegano le differenze di architettura tra GCN a RDNA cercando di spiegare a noi comuni mortali come la nuova raggiunga i risultati con un minor impiego di silicio ed energia.

 

https://hexus.net/te...rdna-navi-gpus/


Modificata da Dech, 18 August 2019 - 09:59 AM.


#115
Darkn3ss7

Darkn3ss7
  • HardBlackEye

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Bannati
  • Messaggi: : 16612

 
 
Dipende da quanto è specializzato il chip. Se nella grafica 3d i numeri da processare hanno "tot" cifre dopo la virgola, un'architettura di GPU specializzata a processare quella classe di numeri sarà più veloce a parità di silicio e energia spesi rispetto ad una che in linea teorica gestisce più calcoli al secondo ma all'atto pratico non è specializzata in quel range di "tot" cifre dopo la virgola.
Più specializzi il chip più ottieni in output nello scenario di utilizzo (perdendo in tutti gli altri ambiti)
Esempi li puoi trovare negli ASIC per il mining, nella scheda integrata per l'encoding video che verrà offerta come optional sui nuovi MacPro, nelle unità RTX e TensorCore sulle gpu nvidia, le cpu RISC, le stesse GPU nel fare grafica rispetto alle CPU classiche...
 
Una GPU come la Radeon VII da 14,1 teraflops nel gaming va meno di una RTX 2080 da 10,7 TF, facendo il confronto in alcuni ambiti produttivi invece la Radeon trita l'RTX (e viceversa in altri) perchè sono due schede che macinano i dati in maniera differente.
 
Ci sono in giro alcuni articoli che spiegano le differenze di architettura tra GCN a RDNA cercando di spiegare a noi comuni mortali come la nuova raggiunga i risultati con un minor impiego di silicio ed energia.
 
https://hexus.net/te...rdna-navi-gpus/

Grazie del Chiarimento, molto interessante :)
Vado a leggere il Link che mi hai Postato :)

#116
Dech

Dech
  • Settimanalmente, ovvero, suino

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: [SMod]SuperMod
  • Messaggi: : 17320

Grazie del Chiarimento, molto interessante :)
Vado a leggere il Link che mi hai Postato :)

 

 

Figurati ;)






Leggono questa discussione 0 utenti

0 utenti, 0 ospiti, 0 utenti anonimi

Logo