Vai al contenuto

NVIDIA RTX 2080 e 2080 Ti: le recensioni non ne mostrano le vere potenzialità


  • Non puoi aprire una nuova discussione
  • Effettua l'accesso per rispondere
Questa discussione ha avuto 52 risposte

#31
Kudos

Kudos
  • Little Eye Fan

  • Stelletta
  • Gruppo: Everyeye.it User
  • Messaggi: : 110

La stampa internazionale seria ha confermato che, a dispetto delle recensioni attuali, queste schede andranno testate nel corso del tempo, che è l'unico modo per poter dare un giudizio. Però bisogna anche dire che bocciarle del tutto ora non ha senso. Se sei un early adopter le compri comunque, il potenziale c'è, sono le schede più potenti sul mercato, e questo è innegabile, se cerchi una scheda di fascia alta e non hai problemi a spendere, è su queste che devi andare. Se hai già una 1080 Ti, allora meglio tenersela per ora. Se hai una 1080 idem per ora, anche se le prestazioni qui migliorano molto. Ma dalla 1070 in giù, il salto prestazionale è netto.



Mettiamola così, immagina di avere una 1070 e 1000€ da spendere, e vuoi comprare una nuova GPU. Cosa fai, punti alla 1080 Ti oggi? No, prendi la 2080. Non si possono sconsigliare o bocciare le schede a prescindere, dipende da caso a caso. Ovvio che non consiglierei mai a un possessore di 1080 Ti la 2080 (la Ti la considero praticamente una scheda semi-pro, è fuori mercato per il gaming), almeno in assenza di indicazioni sulle prestazioni di Ray Tracing e DLSS.

Prima di tutto grazie della risposta e dello scambio di opinioni.
Non trovo però il tuo esempio corretto. Prima di tutto perché parliamo di un upgrade da un prodotto (1070) su una fascia di prezzo 300/400€ verso un prodotto (2080) che ne costa 800... Grazie che il divario prestazionale c'è, costa il doppio a distanza di 2 anni.
Mettiamo però che si voglia fare questo upgrade verso una fascia di mercato così costosa, al momento l'unico consiglio da poter dare è guardare al mercato dell'usato per una 1080ti sui 500/600€ non certo 800€ per una 2080 che in RTX andrà probabilmente in maniera indegna.
Oggi, la mossa di nvidia è da condannare, punto. Attendiamo la risposta di AMD ma così facendo il mercato PC subirà una caduta non giustificata nei confronti di quello console

#32
Alessio Ferraiuolo

Alessio Ferraiuolo
  • One Eye

  • StellettaStellettaStellettaStellettaStelletta
  • Gruppo: Collaboratore Everyeye
  • Messaggi: : 4480

Prima di tutto grazie della risposta e dello scambio di opinioni.
Non trovo però il tuo esempio corretto. Prima di tutto perché parliamo di un upgrade da un prodotto (1070) su una fascia di prezzo 300/400€ verso un prodotto (2080) che ne costa 800... Grazie che il divario prestazionale c'è, costa il doppio a distanza di 2 anni.
Mettiamo però che si voglia fare questo upgrade verso una fascia di mercato così costosa, al momento l'unico consiglio da poter dare è guardare al mercato dell'usato per una 1080ti sui 500/600€ non certo 800€ per una 2080 che in RTX andrà probabilmente in maniera indegna.
Oggi, la mossa di nvidia è da condannare, punto. Attendiamo la risposta di AMD ma così facendo il mercato PC subirà una caduta non giustificata nei confronti di quello console


Grazie a te, la vediamo diversamente ma si discute civilmente e questo è sempre ben accetto. Secondo me il punto sta in queste parole che hai detto "una 2080 che in RTX andrà probabilmente in maniera indegna". É il probabilmente che non permette oggi di dire con assoluta certezza "Si" o "No".
Detto questo, bisogna valutare queste schede per quelle che sono, ovvero dei prodotti indirizzati ai super appassionati.

La 2080 Ti, a mio avviso, è fuori mercato, non si può consigliare o non consigliare, è un prodotto "di lusso", chi vuole il meglio se la compra comunque, a prescindere dal rapporto prezzo-prestazioni.

La 2080 invece è più accessibile, ma resta comunque una scheda per utenti enthusiast. Il confronto devi farlo con i prezzi del nuovo, altrimenti cambia tutto ovviamente. E qui vedi che le 1080 Ti le trovi a circa 750€ (ma chissà per quanto tempo ancora), le 2080 costano circa 100€ in più. Se per te il circa 8% di prestazioni in più e la "promessa" del Ray Tracing e del DLSS valgono quella cifra, e per me, da appassionato di tecnologia, potrebbero valerla, allora meglio andare sulla 2080, altrimenti ci sono alternative.

Resto comunque convinto che investire ora in una GPU di fascia alta non convenga, meglio aspettare ed avere più informazioni per valutare. Questo non significa bocciare o promuovere un prodotto, oggi la tendenza è quella pretendere giudizi netti, ma mai come in questo caso è impossibile darli. Ogni acquisto consapevole passa attraverso la ricerca di informazioni, e oggi non sono sufficienti per arrivare a un giudizio pieno. Tutti quelli che affermano in modo sicuro che siano ottime schede o pessime schede, a mio avviso, sbagliano, perchè non hanno i dati per dare un giudizio così netto e in modo razionale, senza andare "di pancia".

#33
Kudos

Kudos
  • Little Eye Fan

  • Stelletta
  • Gruppo: Everyeye.it User
  • Messaggi: : 110

Grazie a te, la vediamo diversamente ma si discute civilmente e questo è sempre ben accetto. Secondo me il punto sta in queste parole che hai detto "una 2080 che in RTX andrà probabilmente in maniera indegna". É il probabilmente che non permette oggi di dire con assoluta certezza "Si" o "No".
Detto questo, bisogna valutare queste schede per quelle che sono, ovvero dei prodotti indirizzati ai super appassionati.

La 2080 Ti, a mio avviso, è fuori mercato, non si può consigliare o non consigliare, è un prodotto "di lusso", chi vuole il meglio se la compra comunque, a prescindere dal rapporto prezzo-prestazioni.

La 2080 invece è più accessibile, ma resta comunque una scheda per utenti enthusiast. Il confronto devi farlo con i prezzi del nuovo, altrimenti cambia tutto ovviamente. E qui vedi che le 1080 Ti le trovi a circa 750€ (ma chissà per quanto tempo ancora), le 2080 costano circa 100€ in più. Se per te il circa 8% di prestazioni in più e la "promessa" del Ray Tracing e del DLSS valgono quella cifra, e per me, da appassionato di tecnologia, potrebbero valerla, allora meglio andare sulla 2080, altrimenti ci sono alternative.

Resto comunque convinto che investire ora in una GPU di fascia alta non convenga, meglio aspettare ed avere più informazioni per valutare. Questo non significa bocciare o promuovere un prodotto, oggi la tendenza è quella pretendere giudizi netti, ma mai come in questo caso è impossibile darli. Ogni acquisto consapevole passa attraverso la ricerca di informazioni, e oggi non sono sufficienti per arrivare a un giudizio pieno. Tutti quelli che affermano in modo sicuro che siano ottime schede o pessime schede, a mio avviso, sbagliano, perchè non hanno i dati per dare un giudizio così netto e in modo razionale, senza andare "di pancia".


Tali dati mancano perché le features pubblicizzate e pagate salatamente non sono ancora state adottate dal mercato.
Il tuo concetto è giusto, ma visto che oggi quelle features misteriose te le fanno pagare come se funzionassero, non è consigliabile per un utente medio investire sulla speranza.
Vogliamo poi parlare della 2070? Ancora misteriosa e che da quanto visto non sarà capace di gestire rtx viste le prestazioni al limite della sufficienza (40/50 fps a 1080p con la 2080ti) viste...
Ripeto, Nvidia merita di rimanere con i magazzini pieni o altrimenti il mercato pc subirà una contrazione come nell'era pre-steam

#34
Alessio Ferraiuolo

Alessio Ferraiuolo
  • One Eye

  • StellettaStellettaStellettaStellettaStelletta
  • Gruppo: Collaboratore Everyeye
  • Messaggi: : 4480

Tali dati mancano perché le features pubblicizzate e pagate salatamente non sono ancora state adottate dal mercato.
Il tuo concetto è giusto, ma visto che oggi quelle features misteriose te le fanno pagare come se funzionassero, non è consigliabile per un utente medio investire sulla speranza.
Vogliamo poi parlare della 2070? Ancora misteriosa e che da quanto visto non sarà capace di gestire rtx viste le prestazioni al limite della sufficienza (40/50 fps a 1080p con la 2080ti) viste...
Ripeto, Nvidia merita di rimanere con i magazzini pieni o altrimenti il mercato pc subirà una contrazione come nell'era pre-steam


Non consiglierei mai queste schede a un utente medio, non sono per loro e anche NVIDIA non le ha pensate per loro. Il prezzo stesso taglia fuori l'utente medio da queste schede. Nemmeno la 2070 sarà per l'utente medio, 649€ sono sempre tanti.
É interessante quello che hai scritto alla fine del precedente intervento, sulla contrazione del mercato PC. Perchè la cosa davvero importante sarà capire il prezzo e le prestazioni delle 2060 e delle 2050, le vere schede per l'utente medio, di cui non si sa ancora nulla. Se si parte da cifre ragionevoli nessun problema, ma se anche i qui i prezzi saranno alti, allora la vedo dura.
AMD potrebbe approfittarne, la concorrenza sarebbe un toccasana, ma riescono sempre ad arrivare troppo tardi purtroppo.

#35
Kudos

Kudos
  • Little Eye Fan

  • Stelletta
  • Gruppo: Everyeye.it User
  • Messaggi: : 110

Non consiglierei mai queste schede a un utente medio, non sono per loro e anche NVIDIA non le ha pensate per loro. Il prezzo stesso taglia fuori l'utente medio da queste schede. Nemmeno la 2070 sarà per l'utente medio, 649€ sono sempre tanti.
É interessante quello che hai scritto alla fine del precedente intervento, sulla contrazione del mercato PC. Perchè la cosa davvero importante sarà capire il prezzo e le prestazioni delle 2060 e delle 2050, le vere schede per l'utente medio, di cui non si sa ancora nulla. Se si parte da cifre ragionevoli nessun problema, ma se anche i qui i prezzi saranno alti, allora la vedo dura.
AMD potrebbe approfittarne, la concorrenza sarebbe un toccasana, ma riescono sempre ad arrivare troppo tardi purtroppo.

L'unico modo per evitare una brusca frenata in favore delle console è che la fascia 250/300€ riesca a gestire i 30fps in 4k, eguagliando per intenderci la risoluzione massima delle console stesse.
Spero vivamente che AMD possa attuare per la fascia media un ribaltone come sta avvenendo con la serie ryzen (a prescindere dai recenti problemi di produzione Intel).
Ma quando?

#36
Alessio Ferraiuolo

Alessio Ferraiuolo
  • One Eye

  • StellettaStellettaStellettaStellettaStelletta
  • Gruppo: Collaboratore Everyeye
  • Messaggi: : 4480

L'unico modo per evitare una brusca frenata in favore delle console è che la fascia 250/300€ riesca a gestire i 30fps in 4k, eguagliando per intenderci la risoluzione massima delle console stesse.
Spero vivamente che AMD possa attuare per la fascia media un ribaltone come sta avvenendo con la serie ryzen (a prescindere dai recenti problemi di produzione Intel).
Ma quando?


Eh, il prossimo anno arriva l'architettura Navi, il problema è che si parla quasi sempre di futuro con AMD nelle GPU, mai di presente.
Dubito fortemente che riescano a gestire il 4K a 30fps comunque, non ne vedo nemmeno il bisogno, monitor 4K li usano in pochi ancora, nella fascia media quasi nessuno. Il senso è che se compri una GPU da 300€ difficilmente hai un monitor 4K. Per quello ci sono altre schede, e il prezzo ovviamente sale, è tutto segmentato in base al tipo di utenza e all'ecosistema di prodotti che ruota intorno ad esso.

#37
Kudos

Kudos
  • Little Eye Fan

  • Stelletta
  • Gruppo: Everyeye.it User
  • Messaggi: : 110

Eh, il prossimo anno arriva l'architettura Navi, il problema è che si parla quasi sempre di futuro con AMD nelle GPU, mai di presente.
Dubito fortemente che riescano a gestire il 4K a 30fps comunque, non ne vedo nemmeno il bisogno, monitor 4K li usano in pochi ancora, nella fascia media quasi nessuno. Il senso è che se compri una GPU da 300€ difficilmente hai un monitor 4K. Per quello ci sono altre schede, e il prezzo ovviamente sale, è tutto segmentato in base al tipo di utenza e all'ecosistema di prodotti che ruota intorno ad esso.


Verissimo, i monitor 4k per diagonali come quelle, generalmente non superiori ai 22/24 pollici, sono abbastanza superflui. Ma il discorso del 4k nasce come termine di paragone rispetto alle console. L'ultima xbox gestisce il 4k con alcuni titoli in modo almeno sufficiente (25/30fps) per un costo complessivo di 500€ per l'intero sistema.
Le gpu da 300€ circa hanno storicamente conteso i risultati visivi delle console, traducendosi in maggiore risoluzione o maggiori fps a pari risoluzione.
Se per avere la resa visiva medesima devo investire 400€ di gpu + altri 500 di sistema il mercato si ferma. Semplice

Modificata da Kudos, 23 September 2018 - 03:51 PM.


#38
Andrea Pisani

Andrea Pisani
  • Strong Eye Fan

  • StellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 1177

Non è affatto esagerato, e ti ho già spiegato il perché, e mi sembra l'abbiano spiegato anche i ragazzi di DF, l'immagine "sembra" essere vicina al 4K TAA perché in XV il TAA è quasi inutilizzato, ma non si discuteva della sola qualità di immagine, il discorso rimane, perché dovrei giocare in 1440p DLSS quando potrei giocare in 4K TAA e avere, praticamente, lo stesso framerate...? Questo è deludente, che il DLSS venga utilizzato per partire da 1440p e arrivare al 4K come viene fatto su console, cosa criticata tantissima dai più nel mondo PC. Come ho detto nel messaggio precedente ha ragione l'autore dell'articolo a dire che è un po' presto valutare certe tecnologie alla fine.

Guardando lo speciale di DF ho recepito invece che DLSS offre un'immagine qualitativamente più piacevole del TAA, e le performance del primo sono migliori. A 5:30 si vede il benchmark


#39
Manlio Cipullo

Manlio Cipullo
  • Little Eye Fan

  • Stelletta
  • Gruppo: Everyeye.it User
  • Messaggi: : 2

DLSS deludente ? a me non pare proprio.
I test su FFXV mostrano performance nettamente migliori e una qualità dell'immagine, che in alcuni casi, è leggermente più pulità, rispetto al TAA, perciò direi che è molto luntano dall'essere "deludente". Senza contare che verra migliorato ulteriormente in futuro.


i test su FF non sono test sul gioco, ma su un benchmark apposito, nel gioco non esiste l'opzione per attivarle.

#40
Manlio Cipullo

Manlio Cipullo
  • Little Eye Fan

  • Stelletta
  • Gruppo: Everyeye.it User
  • Messaggi: : 2

La stampa internazionale seria ha confermato che, a dispetto delle recensioni attuali, queste schede andranno testate nel corso del tempo, che è l'unico modo per poter dare un giudizio. Però bisogna anche dire che bocciarle del tutto ora non ha senso. Se sei un early adopter le compri comunque, il potenziale c'è, sono le schede più potenti sul mercato, e questo è innegabile, se cerchi una scheda di fascia alta e non hai problemi a spendere, è su queste che devi andare. Se hai già una 1080 Ti, allora meglio tenersela per ora. Se hai una 1080 idem per ora, anche se le prestazioni qui migliorano molto. Ma dalla 1070 in giù, il salto prestazionale è netto.



Mettiamola così, immagina di avere una 1070 e 1000€ da spendere, e vuoi comprare una nuova GPU. Cosa fai, punti alla 1080 Ti oggi? No, prendi la 2080. Non si possono sconsigliare o bocciare le schede a prescindere, dipende da caso a caso. Ovvio che non consiglierei mai a un possessore di 1080 Ti la 2080 (la Ti la considero praticamente una scheda semi-pro, è fuori mercato per il gaming), almeno in assenza di indicazioni sulle prestazioni di Ray Tracing e DLSS.


invece prendi proprio la 1080ti. I prezzi sono in calo e risparmi avendo le stesse prestazioni... Queste schede non hanno senso, dovevano lanciare prima delle Quadro con queste funzioni, acclimatare il mercato e affinare la tecnologia prima di proporle per il mercato consumer...

#41
Killua96

Killua96
  • Normal Eye Fan

  • StellettaStelletta
  • Gruppo: Everyeye.it Pro
  • Messaggi: : 398

Guardando lo speciale di DF ho recepito invece che DLSS offre un'immagine qualitativamente più piacevole del TAA, e le performance del primo sono migliori. A 5:30 si vede il benchmark

Il video non si ferma a 5:30 però, va visto tutto, dicono chiaramente quanto sia poco utilizzato il TAA su XV (da risultare quasi assente) e grazie al che le performance sono migliori, elabora la metà dei Pixel...! Semplicemente hai un 1440p upscalato a 4K contro il 4K nativo.

#42
corey91

corey91
  • Eye Bastard

  • StellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 6227

Non è affatto esagerato, e ti ho già spiegato il perché, e mi sembra l'abbiano spiegato anche i ragazzi di DF, l'immagine "sembra" essere vicina al 4K TAA perché in XV il TAA è quasi inutilizzato, ma non si discuteva della sola qualità di immagine, il discorso rimane, perché dovrei giocare in 1440p DLSS quando potrei giocare in 4K TAA e avere, praticamente, lo stesso framerate...? Questo è deludente, che il DLSS venga utilizzato per partire da 1440p e arrivare al 4K come viene fatto su console, cosa criticata tantissima dai più nel mondo PC. Come ho detto nel messaggio precedente ha ragione l'autore dell'articolo a dire che è un po' presto valutare certe tecnologie alla fine.


Praticamente lo stesso frame rate ? Scusami, ma qui stai dicendo una falsità bella è buona, visto che pure nella demo dell'Unreal Engine 4, si può notare un frame rate nettamente migliore con il DLSS



Siamo d'accordo sul fatto che, fino a quando non lo si vedrà in azione su dei giochi, sarà prematuro dare un parere, però non vedo perchè, dal momento in cui il DLSS sembra riuscire a restituire un immagino molto vicina al 4k, uno debba farsi tutte ste remore sul fatto che attualmente la risoluzione nativa partirà da 1440p. E' la prima implementazione di questa tecnologia sui videogiochi, perciò aspettarsi che tutto fosse perfetto, era impensabile, ma nulla vietà che in futuro, con il suo perfezionamento, si riuscirà ad avere dei risultati ancora migliori.
Il mondo PC critica questa soluzione, perchè adoperato sulle console ? scusami, ma questo poco mi interessa, perchè invece potrebbe essere un ottimo modo, per permettere a chi non possiede delle GPU TOP di gamma (2060?), di poter sfruttare un monitor 4k, senza avere delle grosse perdite in termini di prestazioni.


Modificata da corey91, 23 September 2018 - 06:41 PM.


#43
Killua96

Killua96
  • Normal Eye Fan

  • StellettaStelletta
  • Gruppo: Everyeye.it Pro
  • Messaggi: : 398

Praticamente lo stesso frame rate ? Scusami, ma qui stai dicendo una falsità bella è buona, visto che pure nella demo dell'Unreal Engine 4, si può notare un frame rate nettamente migliore con il DLSS
Siamo d'accordo sul fatto che, fino a quando non lo si vedrà in azione su dei giochi, sarà prematuro dare un parere, però non vedo perchè, dal momento in cui il DLSS sembra riuscire a restituire un immagino molto vicina al 4k, uno debba farsi tutte ste remore sul fatto che attualmente la risoluzione nativa partirà da 1440p. E' la prima implementazione di questa tecnologia sui videogiochi, perciò aspettarsi che tutto fosse perfetto, era impensabile, ma nulla vietà che in futuro, con il suo perfezionamento, si riuscirà ad avere dei risultati ancora migliori.
Il mondo PC critica questa soluzione, perchè adoperato sulle console ? scusami, ma questo poco mi interessa, perchè invece potrebbe essere un ottimo modo, per permettere a chi non possiede delle GPU TOP di gamma (2060?), di poter sfruttare un monitor 4k, senza avere delle grosse perdite in termini di prestazioni.

Vero, il frame rate è migliore, ma anche grazie al piffero se permetti! Hai la metà dei pixel da gestire! Sicuramente sarà da vedere come si evolverà la tecnologia, anche se il passato di Nvidia (vedi Physx) non promette bene.
Per quanto riguarda il resto del messaggio, il DLSS sulla 2060? Io da quel che ho capito è limitato, come tutte le altre funzioni legate al Raytracing, alla serie RTX di cui fanno parte 2070, 2080 e 2080ti.

#44
Andrea Pisani

Andrea Pisani
  • Strong Eye Fan

  • StellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 1177

Il video non si ferma a 5:30 però, va visto tutto, dicono chiaramente quanto sia poco utilizzato il TAA su XV (da risultare quasi assente) e grazie al che le performance sono migliori, elabora la metà dei Pixel...! Semplicemente hai un 1440p upscalato a 4K contro il 4K nativo.

Visto tutto, rimane sempre il fatto che il DLSS per ora ha commenti positivi, e questo è uno di quelli. Btw non è un semplice upscaling quello di cui parli. Per lo meno non quello che esiste su console, in quanto gestito da un AI. Il fatto che DF dica che la versione con DLSS è più piacevole del 4K nativo ne è una dimostrazione :)

#45
Killua96

Killua96
  • Normal Eye Fan

  • StellettaStelletta
  • Gruppo: Everyeye.it Pro
  • Messaggi: : 398

Visto tutto, rimane sempre il fatto che il DLSS per ora ha commenti positivi, e questo è uno di quelli. Btw non è un semplice upscaling quello di cui parli. Per lo meno non quello che esiste su console, in quanto gestito da un AI. Il fatto che DF dica che la versione con DLSS è più piacevole del 4K nativo ne è una dimostrazione :)

Nemmeno quello su console è "semplice upscaling" ma il pensiero alla base è lo stesso, in un modo o nell'altro si cerca di "indovinare" la quantità mancante di pixel.
Se il riferimento rimane il video di XV DF specifica anche quanto poco sia usato il TAA il ché porta il confronto a non valere nulla, e al ragionamento che l'autore dell'articolo, tutto sommato, ha ragione. Un altro utente ha postato il video di confronto con la demo dell'UE4, che mostra molto meglio le differenze, ma che rimane una demo.
Il problema è un altro, questa tecnologia deve essere implementata, e come spesso accade con Nvidia (PHYSX per citarne una) non è detto che una grande quantità di giochi la supporti, attualmente piccolissima (25 giochi di cui 2 nuovi degni di nota e uno uscito mesi fa), se quindi diamo per scontato (cosa evitabilissima ovviamente) che i giochi che supporteranno tale tecnologia non saranno molti in futuro (come accaduto con PHYSX) allora il valore di queste nuove gpu per il gaming calerebbe ancora (ricordo che il vero potenziale di queste gpu è nell'ambito workstation), perché dovrei prendere una 2080 FE a 800 euro quando posso prendere una 1080ti custom a meno se non posso nemmeno sfruttare le tecnologie in tutti i giochi? Il motivo per cui si tentenna a dare un giudizio (ribadisco che alla fine del ragionamento l'autore dell'articolo non ha tutti i torti proprio per questo) o perché se ne parla male a priori (sono uscite, se vanno valutate ora non valgono quel che costano) è proprio perché ad ora non possono mostrare nulla, oltre ai vantaggi (enormi) nelle workstation.
TL;DR, ora sono assolutamente sconsigliate, il futuro non promette affatto bene ma mai dire mai.

Modificata da Killua96, 23 September 2018 - 08:04 PM.





Leggono questa discussione 0 utenti

0 utenti, 0 ospiti, 0 utenti anonimi

Logo