Imho il dlss fa ulteriormente la differenza
Ma infatti dei video vista è una gran roba. Sostituire il TAA andando a migliorare la definizione con meno carico di prestazioni
Beh, oddio, poco sopra. Io direi che il salto è simile a quello della gen precedenti. La 2080 va in più della 1080 ti della stessa quantità in cui andava di più la 1080 della 980 ti. Anzi, a dire il vero fa un po' meglio. Poi, prezzi alti, ma le prestazioni ci sono tutte.
cos, ma la 1080 devastava la 980 Ti sotto ogni punto di vista ed era almeno il 25% più veloce in qualsiasi cosa
qui la 2080 è... il 5% più veloce della 1080 ti
Ho letto alcune review e posto le mie impressioni:
- generazione che credo di saltare del tutto in primis
- ray tracing non pervenuto ma non promette bene, inutili ad oggi vediamo in futuro
- DLSS, per me, inutile; visto che a 4K mi basta un FXAA a caso senza doverne usare altri tipi - quindi tensor core completamente disabilitati per il sottoscritto
- overclock decisamente basso, stile pascal - le memorie salgono uguale alle Micron più decenti
- prestazioni: penso peggior lancio di schede verdi di sempre, in TW3 sembra manchino i driver
- consumi: alzati
In generale qui vedo la STESSA situazione di maxwell. Dove si cercava un processo produttivo migliore (in quel caso 20nm, in questo i 10nm Samsung) ma non è stato possibile e all'ultimo hanno fatto uscire le schede tagliando per Maxwell e facendo invece dei chipponi per Turing.
Queste schede a 10nm sarebbero state delle belve, ad un costo decente in linea con le precedenti. Facilmente il clock sarebbe stato superiore ed i consumi in linea con Pascal.
Se il PP non era pronto bastava attendere ed invece hanno presentato TUTTA la linea ora, e lo scotto lo deve pagare il consumatore. Ma anche no sinceramente
Salto del tutto sta serie, per questi prezzi e per queste premesse/considerazioni sparse. Me ne resto con la 1070 in 4K togliendo varie robe inutili come ho sempre fatto.
Ho letto alcune review e posto le mie impressioni:
- generazione che credo di saltare del tutto in primis
- ray tracing non pervenuto ma non promette bene, inutili ad oggi vediamo in futuro
- DLSS, per me, inutile; visto che a 4K mi basta un FXAA a caso senza doverne usare altri tipi - quindi tensor core completamente disabilitati per il sottoscritto
- overclock decisamente basso, stile pascal - le memorie salgono uguale alle Micron più decenti
- prestazioni: penso peggior lancio di schede verdi di sempre, in TW3 sembra manchino i driver
- consumi: alzati
In generale qui vedo la STESSA situazione di maxwell. Dove si cercava un processo produttivo migliore (in quel caso 20nm, in questo i 10nm Samsung) ma non è stato possibile e all'ultimo hanno fatto uscire le schede tagliando per Maxwell e facendo invece dei chipponi per Turing.
Queste schede a 10nm sarebbero state delle belve, ad un costo decente in linea con le precedenti. Facilmente il clock sarebbe stato superiore ed i consumi in linea con Pascal.
Se il PP non era pronto bastava attendere ed invece hanno presentato TUTTA la linea ora, e lo scotto lo deve pagare il consumatore. Ma anche no sinceramente
Salto del tutto sta serie, per questi prezzi e per queste premesse/considerazioni sparse. Me ne resto con la 1070 in 4K togliendo varie robe inutili come ho sempre fatto.
D'accordo su tutta la linea.
Per me è una serie di mezzo, fatta uscire perché "in dovere".
Il salto generazionale si vedrà veramente con le prossime.
La 2080 avrebbe dovuto staccare in prestazioni la 1080ti come sta facendo la 2080ti e, quest'ultima, avrebbe dovuto ulteriormente aumentare il gap.
Invece hanno fatto uscire tutto subito e il gap ridimensionato, per altro quelle di fascia inferiore fanno cagare.
Imho il dlss fa ulteriormente la differenza
Considera questo Lamberto:
per far apparire magico ed incredibile il balzo con questa serie si sono inventati questo nuovo AA sfruttando i tensor core.
La parte migliore del tutto si ha quando capisci che provano ad azzoppare le vecchie usando un AA pesante in 4K (che io ritengo inutile).
DLSS invece di usare le unità classiche usa i tensor, a quel punto scarica la scheda ed è come se giocassi senza anti-aliasing.
Insomma, già oggi con FXAA non perdi prestazioni (praticamente)... quindi non hai un vero beneficio (immagine più pulita? sì ok ma sei in 4K dove non si nota o quasi).
Qui invece che togliere le parti PRO le hanno ridimensionate e si sono inventati modi per sfruttarle.
Per quel che mi riguarda rivorrei il marchio GTX (senza tensor e RT core)
Considera questo Lamberto:
per far apparire magico ed incredibile il balzo con questa serie si sono inventati questo nuovo AA sfruttando i tensor core.
La parte migliore del tutto si ha quando capisci che provano ad azzoppare le vecchie usando un AA pesante in 4K (che io ritengo inutile).
DLSS invece di usare le unità classiche usa i tensor, a quel punto scarica la scheda ed è come se giocassi senza anti-aliasing.
Insomma, già oggi con FXAA non perdi prestazioni (praticamente)... quindi non hai un vero beneficio (immagine più pulita? sì ok ma sei in 4K dove non si nota o quasi).
Qui invece che togliere le parti PRO le hanno ridimensionate e si sono inventati modi per sfruttarle.
Per quel che mi riguarda rivorrei il marchio GTX (senza tensor e RT core)
Tu non hai capito cosa sia il DLSS
Tu non hai capito cosa sia il DLSS
Invece l'ho capito... ma a logica non andrà di più di una scena senza AA.
O sbaglio io?
edit: a meno che non spostino ulteriori carichi ai tensor.
Infatti non trovo una prova che sia una senza AA
Finché non mi mostrano dei veri benefici rispetto a NON usarlo rimarrò di questo parere, perché attualmente la situazione è questa:
https://m.hardocp.co...rmance_review/6
https://www.hardocp....mance_preview/5
In 4K anche peggio ovviamente.
Quindi o mi mostrano effettivamente che la loro rete neurale + tensor core mi aumenta le performance, oppure è tutta aria fritta per me.
Loro devono vendermi la scheda, loro in primis dovrebbero darmi queste informazioni, ed invece pure i recensori sono dubbiosi (verrà adottata? che succederà dopo l'aggiornamento di ottobre di win10? avrà futuro oppure sarà come TXAA, MFAA, Physx e altro?)
Poi dipende tutto da come lo implementano: DLSS o DLSS2x (performance con upscaling oppure qualità)
Stavo guardando questi benchmark:
Qui è possibile farsi un'idea del DLSS e relative performance:
https://www.theverge...rmance-features
e qui la spiegazione:
https://www.eurogame...g-tech-analysis
https://www.eurogame...i-review?page=2
In questo caso viene renderizzata a 1440p e poi upscalata a 4K con i tensor cores
Oppure viene usata per dare un aspetto migliore ma alleggerendo solo il carico dell'AA.
Io ho capito questo e tutto sta allo sviluppatore (come al solito) implementarla o meno.
Attendiamo maggiori prove e soprattutto il nuovo windows di ottobre, solo all'ora in teoria sapremo come andrà; per ora io sono molto scettico.
Del resto cito EG:
One further note: because DLSS is based on machine learning, future driver updates will feature more refined versions of the technology, meaning that DLSS quality should improve generally over time.
Secondo voi quale è un buon prezzo per una 1060 / 580 usata ?
volevo farmi la 2060 verso fine anno ma a quanto pare nvidia è di altre opinioni ergo devo ripiegare su altro.
Domanda che può sembrare strana ma tra nvidia e amd chi ha i driver migliori su linux al momento?
Invece l'ho capito... ma a logica non andrà di più di una scena senza AA.
O sbaglio io?
edit: a meno che non spostino ulteriori carichi ai tensor.
Infatti non trovo una prova che sia una senza AA
Finché non mi mostrano dei veri benefici rispetto a NON usarlo rimarrò di questo parere, perché attualmente la situazione è questa:
https://m.hardocp.co...rmance_review/6
https://www.hardocp....mance_preview/5
In 4K anche peggio ovviamente.
Quindi o mi mostrano effettivamente che la loro rete neurale + tensor core mi aumenta le performance, oppure è tutta aria fritta per me.
Loro devono vendermi la scheda, loro in primis dovrebbero darmi queste informazioni, ed invece pure i recensori sono dubbiosi (verrà adottata? che succederà dopo l'aggiornamento di ottobre di win10? avrà futuro oppure sarà come TXAA, MFAA, Physx e altro?)
Poi dipende tutto da come lo implementano: DLSS o DLSS2x (performance con upscaling oppure qualità)
Eh usando DLSS il gioco viene renderizzato a 1440p, per questo il framerate è più alto del 4K con TAA, ma è più alto anche di 4K senza antialiasing cioè, per forza di cose
DLSS2x non si è ancora visto, vedremo, ma mi aspetto prestazioni da risoluzione scelta (non da risoluzione più bassa come 1440p per il 4K) perché semplicemente tutto il lavoro di antialiasing lo fanno i tensor cores e non i "cuda cores" per intenderci
Eh usando DLSS il gioco viene renderizzato a 1440p, per questo il framerate è più alto del 4K con TAA, ma è più alto anche di 4K senza antialiasing cioè, per forza di cose
DLSS2x non si è ancora visto, vedremo, ma mi aspetto prestazioni da risoluzione scelta (non da risoluzione più bassa come 1440p per il 4K) perché semplicemente tutto il lavoro di antialiasing lo fanno i tensor cores e non i "cuda cores" per intenderci
non è solo questo perché solo di una demo quella è la risoluzione, dell'altro non si sa.
Inoltre su uno dei due si vede peggio della nativa 4K (quella unreal) e l'apporto in performance è altalenante.
Per questo è una feature del piffero per ora. L'hanno spiegata male ad agosto, l'hanno presentata meglio una settimana fa, ma ad oggi la usi su due tech demo con risultati diversi.
Io sono scettico proprio per queste cose; i trucchetti "maggggici" ormai ho smesso di seguirli
https://www.computer...chneller_machen
0 utenti, 1 ospiti, 0 utenti anonimi