Vai al contenuto

Le nuove GPU/CPU/Monitor Stay Tuned :asd: | (• ◡•)| Schiavi del Giacchetta (❍ᴥ❍ʋ)Usate la zona tecnica per dubbi/consigli su upgrade!

- - - - - neo

  • Non puoi aprire una nuova discussione
  • Effettua l'accesso per rispondere
Questa discussione ha avuto 27559 risposte

Sondaggio: Red Vs Green. READYYYYY... FIGHT! (31 utenti che hanno votato)

3080 > 6800xt

  1. del 5% (11 voti [35.48%] - Visualizza)

    Percentuale di voti: 35.48%

  2. del 10% (8 voti [25.81%] - Visualizza)

    Percentuale di voti: 25.81%

  3. del 20% o più (2 voti [6.45%] - Visualizza)

    Percentuale di voti: 6.45%

  4. nope (10 voti [32.26%] - Visualizza)

    Percentuale di voti: 32.26%

6800xt > 3080

  1. del 5% (4 voti [12.90%] - Visualizza)

    Percentuale di voti: 12.90%

  2. del 10% (3 voti [9.68%] - Visualizza)

    Percentuale di voti: 9.68%

  3. del 20% o più (3 voti [9.68%] - Visualizza)

    Percentuale di voti: 9.68%

  4. nope (21 voti [67.74%] - Visualizza)

    Percentuale di voti: 67.74%

Voto Gli ospiti non possono votare

#15091
Zann

Zann
  • A wonderful day

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: [Mod]Moderatore
  • Messaggi: : 26597

sarebbe stato utile un grafico anche sui consumi e sulle temperature, ai tempi di Bulldozer non perdevano mai l'occasione di ricordare l'efficienzah di intelh

 

07e0eafa-62e0-4a5e-a3f7-e213087f775e.png

https://hexus.net/te...-3700x/?page=11

 

 

Vuoi ridere? Guarda qui e nota il primo. Ci sono più fattori per quello: sulle Z170/270 spesso i vcore erano ridicoli ed erano abilitati di default degli auto OC... basti pensare che il mio 6700k stock, con BIOS default, boosta a 4.2GHz all cores con 1.37v. Bisogna levare la furbata ASUS per farlo andare normale come Intel lo ha pensato.

In più a tutto questo un quad core è più usato di un octacore e anche qui potrebbero starci i consumi maggiori.



#15092
Zann

Zann
  • A wonderful day

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: [Mod]Moderatore
  • Messaggi: : 26597

Posto due bei grafici:

Spoiler


#15093
Marrow

Marrow
  • Pioggia di Ricordi

  • StellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 4997

Vuoi ridere? Guarda qui e nota il primo. Ci sono più fattori per quello: sulle Z170/270 spesso i vcore erano ridicoli ed erano abilitati di default degli auto OC... basti pensare che il mio 6700k stock, con BIOS default, boosta a 4.2GHz all cores con 1.37v. Bisogna levare la furbata ASUS per farlo andare normale come Intel lo ha pensato.

In più a tutto questo un quad core è più usato di un octacore e anche qui potrebbero starci i consumi maggiori.

Senza riferimento non capisco. Qual è il boost normale e con che tensione?



#15094
Zann

Zann
  • A wonderful day

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: [Mod]Moderatore
  • Messaggi: : 26597

Senza riferimento non capisco. Qual è il boost normale e con che tensione?

6700k
1core 4.2Hz
2/3/4 4GHz

Inviato dal mio MIX 2 utilizzando Tapatalk

#15095
Marrow

Marrow
  • Pioggia di Ricordi

  • StellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 4997

6700k
1core 4.2Hz
2/3/4 4GHz

Inviato dal mio MIX 2 utilizzando Tapatalk

E la tensione? E' tipo 1.3?



#15096
Zann

Zann
  • A wonderful day

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: [Mod]Moderatore
  • Messaggi: : 26597

E la tensione? E' tipo 1.3?

1.10v

per intenderci:

1.40 è il massimo sicuro da usare daily

 

1.30 raggiungo i 4.6GHz stabili

1.35 4.7GHz

1.42 4.8GHz

 

A stock con BIOS default andava a 80°C a soli 4.2GHz. Per questo mi lamentavo delle mobo con vcore ballerini, e capitava anche su 7700k.

Dalle Z370 invece la situazione è ben diversa

 

Edit: aggiungo un bel grafico per mostrarti come i consumi schizzano:

844838d1439887110-guide-intel-skylake-ov


Modificata da Zann, 18 July 2019 - 02:23 PM.


#15097
Marrow

Marrow
  • Pioggia di Ricordi

  • StellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 4997

Ok wow, magnifico. Mi ricorda un mio amico con 6600k che ha fatto anche lui fare l'OC automatico ad una mobo di (Censura) ASUS e gli ha impostato 1.4v (mi pare) a 4.4GHz :asd:



#15098
Zann

Zann
  • A wonderful day

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: [Mod]Moderatore
  • Messaggi: : 26597

Ok wow, magnifico. Mi ricorda un mio amico con 6600k che ha fatto anche lui fare l'OC automatico ad una mobo di (Censura) ASUS e gli ha impostato 1.4v (mi pare) a 4.4GHz :asd:

 

ASUS e oc automatico non vanno d'accordo :nono: in compenso sempre le asus per le memorie sono idilliache.

 

Altre mobo lo gestiscono meglio (Asrock) mentre ora finalmente sono decenti.

 

Però veramente rischi di rovinare tutto se non sai dove mettere le mani...



#15099
SpartanIXIV

SpartanIXIV
  • HardBlackEye

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 17087

Giò che ci siamo, ne approfitto: AI Suite mi tiene 0.0736v come cpu core voltage in modalità power saving; 1.184 a 4.2ghz in modalità Performance. Processore 7700k. Sono valori attendibili? Premesso che non ho mai avuto problemi e nemmeno mi sogno di metterci mano :D



#15100
Dech

Dech
  • Settimanalmente, ovvero, suino

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: [SMod]SuperMod
  • Messaggi: : 17301

https://wccftech.com...ed-in-the-wild/

 

Andando estremamente a naso, entry level Threadripper 16/32 a qualche decina di euro meno rispetto al 3950X (con grande surplus di linee pcie), 24/48 come listino medio-basso, 32/64 in due varianti di clock per il medio-alto, 64/128 per il "senti, se ne vuoi più di così nel case hai bisogno di uno psicologo".

 

Epyc in due modelli 64/128 e 128/256 con al massimo un intermedio.

 

Pacchetti di core di fianco a quelli delle patatine nei supermercati!

 

 

Per quanto riguarda il "flute" in odore di console, preferirei frequenza fissa a metà strada tra 1,6 e 3,2 e allin sulla GPU con unità RTX-style dedicate ai filtri e a luci/ombre. Ma non sono un ingegnere informatico quindi mi accontenterò di qualsiasi scelta.

 

 

Discorso PC, mano mano che arrivano i preventivi per la casa, valuto un ritorno alle tavolette di cera.



#15101
Zann

Zann
  • A wonderful day

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: [Mod]Moderatore
  • Messaggi: : 26597

https://www.youtube....FB3Z0RpLU&t=28s



#15102
Antonino89

Antonino89
  • HardBlackEye

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 12940
Si sa qualcosa delle RX 5700/XT custom? Perché ho intenzione di prenderne una...magari di Sapphire.

Modificata da Antonino89, 25 July 2019 - 12:39 PM.


#15103
Basty

Basty
  • Parla

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 12669

Una recensione per Basty:

https://babeltechrev...as-super-cards/

 

completa con tutto, anche la sua gpu

 

Oh interessante.

Quella tabella gigantesca l'avevo notata da qualche altra parte.

Strepitoso l'incremento che ha nei giochi DX11, soprattutto quelli di qualche anno fa come Fallout 4, in cui la ex top gamma GCN viene completamente distrutta a qualsiasi risoluzione.

Evidentemente ha un sacco di istruzioni in pipeline lineare, il che avvantaggia enormemente la nonata arichitettura RDNA in quanto pensata per parallelizzare al massimo in due pipeline principali anziché in quattro come GCN, che non venivano mai utilizzate se non nei benchmark DX12. Nemmeno dai titoli Vulkan sviluppati attorno a Radeon come Strange Brigade e World War Z.

Le Radeon serie 7000 fino a Radeon VII non sono mai state nativamente schede grafiche da gioco, ma schede per compute parallelo, e per renderle tali è sempre servito uno strenuo lavoro sui drivers, che in un sacco di casi non c'é mai stato.

Questa nuova generazione di Radeon darà performance in gioco più consistenti da subito, senza avere chissà quale evoluzione nel periodo successivo, come magari la prima top gamma di GCN, la Radeon 7970, che oggi è fino al 30% più veloce solo per un migliorato supporto software e driver.

Per quanto mi riguarda, non penso di pensare a rimpiazzare nula per quanto mi è costato passare alla VEGA LC: 550€ per comperare la scheda usata e 280 persi nel vendere la mia nuova Vega 64 ad aria tramite forum (era senza garanzia e forse ricondizionata, altrimenti a meno di 400€ non me ne separavo), rispetto al costo storico di € 600 grazie alle ladrate sul cambio di Paypal da GBP ad EUR; per un totale di € 830. Un salasso memorabile.

A parte tutto, questa serie 5700 non mi dice nulla di veramente scandaloso, e per quanto potrà magari essere più veloce una Radeon di classe superiore che potrebbe comparire in futuro, la mia Vega 64 mi dà già tutte le performance di cui ho bisogno (sono ancora e sarò ancora fermo su display 1080p), e con i miei profili non arriva certo ai consumi effettivi indicati sulle tante comparative, anche se sì, in quanto ad efficienza è davvero un cattivo esempio secondo a nessun prodotto moderno.

Spero solo che nel breve termine non inizino a dimenticarsi che la maggior parte delle schede che hanno in commercio oggi siano schede basate su GCN, e rilasciare drivers che di conseguenza non saranno ideali per le vecchie schede.

Proprio per questo già da svariati mesi sto conservando tutti i possibili driver certificati (quindi non i beta) per prepararmi all'epoca in cui l'obsolescenza della mia scheda potrebbe essere più evidente.

Ma realisticamente, non dovrebbe accadere tanto presto.



#15104
Marrow

Marrow
  • Pioggia di Ricordi

  • StellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 4997

Proprio per questo già da svariati mesi sto conservando tutti i possibili driver certificati (quindi non i beta) per prepararmi all'epoca in cui l'obsolescenza della mia scheda potrebbe essere più evidente.

Ma realisticamente, non dovrebbe accadere tanto presto.

E' inutile.

 

I driver funzionano a profili, quando fanno l'aggiornamento "ottimizzato" per un gioco generalmente è solo un profilo che non era presente prima e viene aggiunto o che esisteva e viene rimpiazzato.

Se i giochi vecchi non vengono toccati probabilmente non verranno toccati nemmeno i profili. Non c'è bisogno di fare sta tarantella. Se proprio vuoi, puoi tenerti l'installer della penultima versione, ma lol no sono solo megabyte sprecati



#15105
Basty

Basty
  • Parla

  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • Gruppo: Utente Pro
  • Messaggi: : 12669

E' inutile.

 

I driver funzionano a profili, quando fanno l'aggiornamento "ottimizzato" per un gioco generalmente è solo un profilo che non era presente prima e viene aggiunto o che esisteva e viene rimpiazzato.

Se i giochi vecchi non vengono toccati probabilmente non verranno toccati nemmeno i profili. Non c'è bisogno di fare sta tarantella. Se proprio vuoi, puoi tenerti l'installer della penultima versione, ma lol no sono solo megabyte sprecati

 

Sapevo anche io questa cosa, ma comunque ho notato che a volte, per qualche motivo magari non dipendentemente direttamente dai drivers, un driver vecchio non mostra problemi o li mostra molto di meno in un contesto specifico, ci sono alcuni esempi che potrei fare, specialmente con schede più vecchie, che non sono nemmeno operabili oltre i drivers di Ottobre scorso, anche se sulla carta lo sono.

Generalmente è come dici te, assolutamente.

Con il cambio architettura ci si potrà aspettare presto una breve successione di driver legacy che poi non verranno più toccati, e quello sarà un buon momento per levarsi certe fisse prevalentemente infondate di torno.

Per adesso tengo quelli di Maggio, dato che quelli beta di Luglio sono usciti prevalmentemente per dare un primo supporto alle schede serie 5700.

Non ti preoccupare, ho terabyte(s) di spazio in totale, su quello al momento non sono affatto carente.

 

---------------------------------------------------------------

 

 

Per spiegare meglio e più concretamente il problema di GCN che ho illustrato un po' semplicisticamente prima, metto giù un po' di dati:

 

Tutti sanno che l'architettura GCN + limitata ad un massimo totale di 4096 unità di streaming, suddivise in un massimo di 64 compute units (che di per sè non è rilevante per questo esempio) che vengono operate da non oltre 16 pipelines complete, ma tendenzialmente ne vengono usate solo 4, riducendo di fatto l'output delle operazioni più parallelizzabili fino ad un quarto di quanto teoreticamente possibile.

Questo intacca enormemente le prestazioni geometriche, che sono da sempre il tallone d'achille (anche riduttiva come espressione) delle GPU basate su GCN.

In altri tipi di operazioni tipiche da scheda grafica come texture mapping, rastering e shading è sempre stata molto forte, ma poi lì ad un certo punto c'è il discorso della banda passante a fare da tetto prematuro, ma sono comunque numeri eccellenti per il periodo attuale, anche con il collo di bottiglia di memoria che si portano dietro dal periodo post-Terascale.

Questo di base le rende schede non adatte per i videogiochi, che tendono a richiedere più operazioni su molte meno pipeline (idealmente, la metà o anche meno di quelle che GCN dovrebbe usare per dare il meglio) per questioni di consistenza (meno frametime ballerini causati da cicli di latenza poi difficilmente individuabili ed aggirabili), e sicuramente, da come fanno capire le spiegazioni degli esperti di API e renderer, di carico di lavoro del programmatore che deve adattare il renderer al modo di lavorare della scheda, se la deve supportare.

 

La soluzione? C'è, o almeno, ci doveva essere.

Un progetto abbastanza importante per la direzione dell'ex CTO di Radeon Technologies, Raja Koduri, era l'implementazione effettiva del "primitive discard" o geometria primitiva in sostituzione del metodo tradizionale, per portare le capacità di tutte le schede radeon supportate da:

- 4 triangoli per ciclo di clock.

a:

- 11 triangoli per ciclo di clock. Un icremento del 260% sul metodo di calcolo della geometria attualmente in uso.

 

Questo avrebbe portato probabilmente le prestazioni di buona parte delle schede GCN da Tonga in poi ad un livello di scaling geometrico pari all'attuale architettura Nvidia (composta da Maxwell, Pascal, Turing) e rendendo con tutta probabilità una Radeon Vega 56 veloce quanto una GTX 1080ti se i driver prevedevano un'implementazione globale di questi primitives.

 

Ma poi il tutto è stato cancellato.

 

EhBeh






Leggono questa discussione 0 utenti

0 utenti, 0 ospiti, 0 utenti anonimi

Logo