Vai al contenuto

NVIDIA RTX 2080 e 2080 Ti: le recensioni non ne mostrano le vere potenzialità


  • Non puoi aprire una nuova discussione
  • Effettua l'accesso per rispondere
Questa discussione ha avuto 52 risposte

#46
Andrea Pisani

Andrea Pisani
  • Strong Eye Fan

  • StellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 1177

Nemmeno quello su console è "semplice upscaling" ma il pensiero alla base è lo stesso, in un modo o nell'altro si cerca di "indovinare" la quantità mancante di pixel.
Se il riferimento rimane il video di XV DF specifica anche quanto poco sia usato il TAA il ché porta il confronto a non valere nulla, e al ragionamento che l'autore dell'articolo, tutto sommato, ha ragione. Un altro utente ha postato il video di confronto con la demo dell'UE4, che mostra molto meglio le differenze, ma che rimane una demo.

Nope, il pensiero alla base non è assolutamente lo stesso. Anche il paragone con Physix mi sembra poco consono.
Nelle RTX ci sono dei tensor core, messì li per far funzionare il DLSS: non parliamo di un extra messo lì tanto per, ma di un hardware ideato perché NVIDIA pensa che il futuro sia quello.
Per ora le demo parlano chiaro: performance superiori. E se notare le differenze bisogna stoppare il singolo frame e fare zoom, direi che è già una vittoria per questa tecnologia.
Chiaramente sono d'accordo quando dici che "è troppo presto", ma per ora tutti i dati ci lasciano capire che questa tecnologia funziona e i miglioramenti sono netti.




#47
Killua96

Killua96
  • Normal Eye Fan

  • StellettaStelletta
  • Gruppo: Everyeye.it Pro
  • Messaggi: : 398

Nope, il pensiero alla base non è assolutamente lo stesso. Anche il paragone con Physix mi sembra poco consono.
Nelle RTX ci sono dei tensor core, messì li per far funzionare il DLSS: non parliamo di un extra messo lì tanto per, ma di un hardware ideato perché NVIDIA pensa che il futuro sia quello.
Per ora le demo parlano chiaro: performance superiori. E se notare le differenze bisogna stoppare il singolo frame e fare zoom, direi che è già una vittoria per questa tecnologia.
Chiaramente sono d'accordo quando dici che "è troppo presto", ma per ora tutti i dati ci lasciano capire che questa tecnologia funziona e i miglioramenti sono netti.

Il principio è lo stesso sì, hai la metà dei Pixel e, in un modo o nell'altro, si cerca di indovinare l'altra metà, solo che Nvidia in questo caso ha un'IA che lo fa.
Il problema è che sono solo nelle RTX, il ché significa almeno 650 euro di spesa per, appunto, una tecnologia che è da implementare nei futuri giochi e che per adesso è adottata da "solo" due giochi AAA in uscita, non mi sembra un granché come inizio, vedremo, io se sono fortunato prenderò una 1080ti a 500 euro usata, e balzerò completamente questa generazione "fantasma" in attesa della vera evoluzione che si avrà con i 7nm e sperando che Navi sia qualcosa da far tremare le gambe a Nvidia (per far crollare i prezzi, non sono un fag amd fortunatamente)

#48
Andrea Pisani

Andrea Pisani
  • Strong Eye Fan

  • StellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 1177

Il principio è lo stesso sì, hai la metà dei Pixel e, in un modo o nell'altro, si cerca di indovinare l'altra metà, solo che Nvidia in questo caso ha un'IA che lo fa.
Il problema è che sono solo nelle RTX, il ché significa almeno 650 euro di spesa per, appunto, una tecnologia che è da implementare nei futuri giochi e che per adesso è adottata da "solo" due giochi AAA in uscita, non mi sembra un granché come inizio, vedremo, io se sono fortunato prenderò una 1080ti a 500 euro usata, e balzerò completamente questa generazione "fantasma" in attesa della vera evoluzione che si avrà con i 7nm e sperando che Navi sia qualcosa da far tremare le gambe a Nvidia (per far crollare i prezzi, non sono un fag amd fortunatamente)

Il principio è quello, ok, ma qui hai una tecnologia estremamente avanzata per farlo e DF stessa sta dicendo che è stata positivamente colpita dal DLSS.
Ci può stare che non ti convince, ma allo stesso tempo è un po' curioso come tu speri che 7nm possano fare chissà qualche balzo in avanti.
La corsa al rimpicciolimento dei transistor ormai è quasi terminata, i colossi di elettronica stanno puntando tutto sull'AI (NVIDIA, Huawei, Apple, Samsung, Google, etc). Imho se AMD continua sulla strada classica prenderà una bella cantonata, ma ribadisco che questo è solo un mio pensiero.

#49
Killua96

Killua96
  • Normal Eye Fan

  • StellettaStelletta
  • Gruppo: Everyeye.it Pro
  • Messaggi: : 398

Il principio è quello, ok, ma qui hai una tecnologia estremamente avanzata per farlo e DF stessa sta dicendo che è stata positivamente colpita dal DLSS.
Ci può stare che non ti convince, ma allo stesso tempo è un po' curioso come tu speri che 7nm possano fare chissà qualche balzo in avanti.
La corsa al rimpicciolimento dei transistor ormai è quasi terminata, i colossi di elettronica stanno puntando tutto sull'AI (NVIDIA, Huawei, Apple, Samsung, Google, etc). Imho se AMD continua sulla strada classica prenderà una bella cantonata, ma ribadisco che questo è solo un mio pensiero.

La corsa al rimpicciolimento non è affatto quasi terminata, TSMC si sta già preparando ai 5nm e il limite non è la dimensione dei transistor ma le proprietà del silicio che hanno raggiunto il limite e si deve cercare un altro materiale che possa portarci oltre.
Non è curioso che i 7nm possano fare un grande salto avanti nel mercato GPU se le gpu attuali sono ancora ai 12nm e già i 10nm sul mercato mobile è stato un balzo notevole, anche perché qui si parla di aumentare le potenzialità hardware, e non di trovare soluzioni software come possono essere le IA da te citate.
Se poi per te sono meglio le IA di un miglior processo produttivo siamo su due lunghezze d'onda completamente e mi sento di troncare direttamente la discussione e augurarti una buona serata, giusto perché imho sarebbe inutile discuterne, a maggior ragione se pensi che AMD sia l'unica a lavorare su migliori processi produttivi.

Modificata da Killua96, 23 September 2018 - 09:08 PM.


#50
Andrea Pisani

Andrea Pisani
  • Strong Eye Fan

  • StellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 1177

La corsa al rimpicciolimento non è affatto quasi terminata, TSMC si sta già preparando ai 5nm e il limite non è la dimensione dei transistor ma le proprietà del silicio che hanno raggiunto il limite e si deve cercare un altro materiale che possa portarci oltre.
Non è curioso che i 7nm possano fare un grande salto avanti nel mercato GPU se le gpu attuali sono ancora ai 12nm e già i 10nm sul mercato mobile è stato un balzo notevole, anche perché qui si parla di aumentare le potenzialità hardware, e non di trovare soluzioni software come possono essere le IA da te citate.
Se poi per te sono meglio le IA di un miglior processo produttivo ...


Generalmente quando parli di 7nm o 5nm ti riferisci alla dimensione del canale del transistor, quindi in linea di principio stai parlando della dimensione del transistor (anche se effettivamente bisogna capire qual è il processo produttivo e se abbassano il numero solo per marketing).
Non puoi rimpicciolire i transistor all'infinito, ad un certo punto devi fermarti per via di limiti fisici.
In ogni caso non credo che IA siano meglio di un processo produttivo, ma semplicemente che sono la naturale evoluzione della tecnologia odierna, che potrà spingere il rimpicciolimento ancora per poco.
Se NVIDIA è riuscita a portare il Ray Tracing in real-time è grazie all'AI, non al rimpicciolimento dei transistor ;)
Chiaramente qui rimaniamo sempre nell'ambito del "secondo me è questo è il futuro".

Se vuoi approfondire l'argomento ti consiglio questo link: https://en.wikichip....technology_node

Modificata da Andrea Pisani, 23 September 2018 - 09:23 PM.


#51
Killua96

Killua96
  • Normal Eye Fan

  • StellettaStelletta
  • Gruppo: Everyeye.it Pro
  • Messaggi: : 398

Generalmente quando parli di 7nm o 5nm ti riferisci alla dimensione del canale del transistor, quindi in linea di principio stai parlando della dimensione del transistor (anche se effettivamente bisogna capire qual è il processo produttivo e se abbassano il numero solo per marketing).
Non puoi rimpicciolire i transistor all'infinito, ad un certo punto devi fermarti per via di limiti fisici.
In ogni caso non credo che IA siano meglio di un processo produttivo, ma semplicemente che sono la naturale evoluzione della tecnologia odierna, che potrà spingere il rimpicciolimento ancora per poco.
Se NVIDIA è riuscita a portare il Ray Tracing in real-time è grazie all'AI, non al rimpicciolimento dei transistor ;)
Chiaramente qui rimaniamo sempre nell'ambito del "secondo me è questo è il futuro".

Se vuoi approfondire l'argomento ti consiglio questo link: https://en.wikichip....technology_node

Grazie per il link e scusa, credo di aver interpretato malissimo il tuo messaggio (e con questa risposta, calmissima tra l'altro, ti sei spiegato alla grande), sono infatti d'accordo sulla premessa che si debbano cercare soluzioni software (non necessariamente IA) per adempiere ai limiti HW. Grazie della chiacchierata, e nuovamente grazie per la pazienza.

#52
Andrea Pisani

Andrea Pisani
  • Strong Eye Fan

  • StellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 1177

Grazie per il link e scusa, credo di aver interpretato malissimo il tuo messaggio (e con questa risposta, calmissima tra l'altro, ti sei spiegato alla grande), sono infatti d'accordo sulla premessa che si debbano cercare soluzioni software (non necessariamente IA) per adempiere ai limiti HW. Grazie della chiacchierata, e nuovamente grazie per la pazienza.

Ma figurati! Grazie a te per lo scambio di messaggi :D

#53
corey91

corey91
  • Eye Bastard

  • StellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 6227
Sbaglio da quello che si sa dai rumor, sarà solo il Ray Tracing a mancare dalle GPU Nvidia di fascia media, come le 2060 ??
Ceh non vedo perchè Nvidia non debba inserire i Tensor core nella fascia media, visto che quelle schede potrebbero giovarne maggiormente.

Lo chiedo perchè non ho trovato notizie in giro




Leggono questa discussione 0 utenti

0 utenti, 0 ospiti, 0 utenti anonimi

Logo