PASCAL NVIDIA "GTX1080" cose da sapere

E' ora di fare un po' di chiarezza sul mito Pascal che tutti aspettano come il messia delle GPU... molti articoli in internet specie quelli riguardandi il mondo dei videogiochi sono molto approssimativi e a volte girano la frittata in maniera colossale.

Pascal sara' una scheda ottima per lavoro in quanto e' il prototipo di Volta (il prossimo step) che e' stato commissionato a Nvidia per un supercomputer da consegnare nel 2017 quindi hanno creato uno step "pascal" che prima non esisteva nella loro road-map per testare a fondo un po' tutte le nuove tecnologie specie quelle legate alla memoria in quanto con Pascal-Volta la GPU fa il salto da 2-8gb a 8-32gb di memoria

Tutto questo fatto tenendo a mente piu' la parte "LAVORO" che la parte gioco della GPU

ma analizziamo come vengono girate le frittate in giro per la rete

QUOTE 1
Mixed-Precision Computing – for Greater Accuracy
Mixed-precision computing enables Pascal architecture-based GPUs to compute at 16-bit floating point accuracy at twice the rate of 32-bit floating point accuracy.
Increased floating point performance particularly benefits classification and convolution – two key activities in deep learning – while achieving needed accuracy.

http://blogs.nvidia....5/03/17/pascal/
il che si traduce nella pagina linkata sul titolo di Nvidia "10X speedup for deep learning application"
tenete conto che maxwell e' stato un enorme passo in dietro rispetto a kepler (altra GPU fatta per lavoro) in questo tipo di processi in quanto non orientati al videogioco

Ovviamente viene tradotto da molti siti di videogiochi come va 10 volte piu' veloce!
In verita' Maxwell usava 1/32 dei suoi megaflop per questo tipo di calcolo mentre Kepler 1/3 dei suoi megaflop e' vero che Maxwell aveva piu' megaflop ma diviso 32 era pure meno di kepler quindi da capire bene che questo non si riflettera' MAI in prestazioni sui videogiochi

QUOTE 2
[NVLink] allows data sharing at rates 5 to 12 times faster than the traditional PCIe Gen3 interconnect, resulting in dramatic speed-ups in application performance and creating a new breed of high-density, flexible servers for accelerated computing.

Designed to solve the challenges of exascale computing, NVLink is a fundamental ingredient of the U.S. Department of Energy's next-generation supercomputers. These new systems—"Summit" at Oak Ridge National Laboratory and "Sierra" at Lawrence Livermore National Laboratory—will be three times faster than today's fastest supercomputer.

http://www.nvidia.co...ect/nvlink.html
NVlink e' fatto per i supercomputer e probabilmente non sara' implementato sui nostri pc di casa o sui desktop normali quindi il fatto che sia da 5 a 12 volte piu' veloce di PCIe Gen 3 e' irrilevante visto che non vedremo l'Nvlink sui nostri pc

QUOTE 3
(8way-sli) The addition of NVLink to Pascal will let data move between GPUs and CPUs five to 12 times faster than they can with today’s current standard, PCI-Express. This is greatly [sic] benefits applications, such as deep learning, that have high inter-GPU communication needs.

NVLink allows for double the number of GPUs in a system to work together in deep learning computations. In addition, CPUs and GPUs can connect in new ways to enable more flexibility and energy efficiency in server design compared to PCI-E.

http://blogs.nvidia....5/03/17/pascal/
Io di mio gia' trovo inutile lo sli di 2 figuriamoci 3 e non parliamo di 8 GPU oltretutto solo tramite Nvlink che non sara' presente sui nostri pc quindi ancora fuffa molto interessante per supercomputer ma inutile per videogiochi

QUOTE 4
UP TO 32GiB of memory.
Sappiamo bene che 32bg saranno solo schede per lavoro questo comunque ci fa sperare in schede da gioco con almeno 6-8gb qui forse fara' un po' di differenza a risoluzioni 4K ma dubito che fara' molta difference a risoluzioni normali

QUOTE 5
HBM2 (3D Memory)!
Questa e' la nuova memoria che soppiantera la DDR5 per un verso e' decisamente piu' performante ma ne trarranno vantaggio quasi esclusivamente le funzioni di calcolo pesante sicuramente anche un po' i giochi ma sopratutto il consumo di elettricita' sara' piu' basso in entrambi i casi (che e' un notizia sicuramente buono) in quanto per il modo in cui sono fatte queste memorie consumano di meno


quindi per fare un recap tutto cio' che per ora ha pubblicizzato Nvidia del suo nuovo processore e' quasi tutto esclusivamente orientato al "LAVORO"

  • NVLink will be useful as a replacement for PCI Express in supercomputers, and will have 80GB/s of total bandwidth shared between the CPU and the number of GPUs in the system. (http://devblogs.nvid...-gpu-computing/)
  • NVLink can be used as a GPU-GPU interconnect without replacing PCIe as the system interconnect, which provides great benefit for HPC and multi-GPU accelerated computing algorithms. No word on what this means for regular desktop cards and multi-GPU gaming. (http://devblogs.nvid...-gpu-computing/)
  • 2x the power efficiency (performance per Watt) in SGEMM operations compared to Maxwell GM200; that’s a bit out of my depth so I don’t know how relevant that is to gaming applications, but I do think it’s important to notice that NVIDIA was very specific not to claim 2x power efficiency just as a general statement, so it probably won’t be, otherwise they would have just said that. (http://puu.sh/kAiiq/fb5534026b.jpg)
  • 4x FP16 performance in mixed precision mode compared to Maxwell GM200; not really relevant for gaming, though it could mean the FP32 performance of Pascal is 2x that of Maxwell, this is only speculation so I don't know why I'm even mentioning it in this section (http://puu.sh/kAhSU/0a5716bdf9.jpg)
  • Very roughly 10x the overall throughput for deep learning problems compared to Maxwell GM200 (http://puu.sh/kAfxA/59816b8ded.jpg)
  • Up to 32GiB of 3D memory (HBM) (http://puu.sh/kAhRK/2a4ff660a1.jpg)
  • Up to 3x the memory bandwidth of Maxwell GM200 (so, ~1TB/s) (http://puu.sh/kAikw/f848eb1f70.jpg)
  • 8 GPUs in a future Pascal-based deep learning devbox (end of: https://www.youtube....h?v=vdNRqZSRgfA)
Questo non per dire che fara' schifo come scheda grafica anzio io di mio ne sono contento visto che uso la GPU per fare renders sono sicuro che sara' ovviamente pure migliore dal punto di vista del gioco ma non sara' la rivoluzione che sembra essere leggendo i vari siti amatoriali di PC.

 

Commenti

#3
il salto di generazione questa volta è dato per lo più dall'uso delle nuove ram e del processo produttivo. a fronte di un avanzamento hardware più marcato che nelle transizioni tra le generazioni passate, quello che ne verrà fuori per noi, sarà sempre la solita minestra. una 970 non va più di una 780ti in molti casi, una 1070 non andrà più di una 980ti in molti casi. bisogna vedere quanta concorrenza farà amd e quindi che prezzi ci rifilano. oltretutto in ambito gaming la maggiore differenza la faranno directx12, vulkan, etc, più che la potenza bruta, vedremo chi la sfrutta.
 
#4
Penso comunque che quest'anno sarà un anno "X", forse non per Nvidia ma per AMD.
O AMD si riprende, soprattutto lato consumi, o per lei è finita.
Ieri è stato pubblicato un filmato introduttivo della nuova tecnologia Polaris (architettura alla base delle prossime schede AMD) che sembra mostrare, a pari prestazioni, un consumo inferiore alle attuali 9xx già nei sample. Tutto da verificare ovviamente...
Potrei farci una news, ma non mi pagano abbastanza per farlo :asd: comunque google aiuta.
 
#5
Personalmente tutta questa confusione non la vedo, ma un articolo che fa chiarezza è sempre utile.
Bel lavoro.
@Kyrie, i consumi sono l'ultimo dei problemi di AMD. Quel che manca è tutto ciò che ruota intorno alle vga: partnership, brevetti, marketing, ecc. Adesso sembra che si stia riprendendo, con novità che spuntano una dopo l'altra, ma dubito che basti. Per riprendersi non basta che metta sul mercato soluzioni migliori di nvidia/intel, deve proprio fare il BOTTO.
Per i consumi, già il doppio salto di pp di entrambe li farà abbassare di molto, il confronto con le attuali vga non ha molto senso.
 
#6
beh.. serigrafia a 14 nanometri e le HBM di seconda generazione.. il tutto sia da Nvidia sia da AMD.. a metà o fine 2016 vedremo di cosa saranno capaci queste nuove schede...e quanto costeranno..!!!!!!!!!
 
#7
Per i consumi, già il doppio salto di pp di entrambe li farà abbassare di molto, il confronto con le attuali vga non ha molto senso.
Il confronto non ha senso ma mostra che comunque qualcosa stanno facendo e i sample sono già funzionanti, e il salto sia di efficienza che performance effettivamente esiste. Poi ovviamente si vedranno a confronto le nuove architetture.
 
#8
i consumi sono una delle cose che di solito mi interessa di piu' un buon processore e fatto bene quando da risultati di un certo tipo consumando di meno piu' consumo = processore meno buono

quindi fino a che scendono i consumi sono sulla strada giusta (meno consumo vuol sempre dire meno calore disperso etcetc calore=energia)

per questo non sono molto contento di AMD in generale al giorno d'oggi CPU che consumano un sacco GPU che consumano un sacco speriamo nelle prossime generazioni
 
#9
Interesting, non mi prendo mai il tempo di guardare i componenti ma questo articolo sembrava una perla preziosa :p
 
Ultima modifica:
#12
io non so che faro' so solo che ho un vantaggio da poter sfruttare,se esce la 1080ti e sara' migliore di molto rispetto la mia attuale GTX980ti,potrei pensar di venderla e prendere questa..calcolando che ho comprato la GTX980ti windforce OC della Gigabyte al prezzo di produzione,quindi pagata meno di un tablet di fascia media.(270euro a settembre)
 
#13
io non so che faro' so solo che ho un vantaggio da poter sfruttare,se esce la 1080ti e sara' migliore di molto rispetto la mia attuale GTX980ti,potrei pensar di venderla e prendere questa..calcolando che ho comprato la GTX980ti windforce OC della Gigabyte al prezzo di produzione,quindi pagata meno di un tablet di fascia media.(270euro a settembre)
se ci spieghi come hai fatto, ti saremo grati penso per l'eternità XD scherzi a parte cmq se da come dici è vero, io se sarei al tuo posto non la cambierei affatto. oltre al fatto che per altri due anni farà il suo lavoro ( magari non giocherai più a 4K, ma in full HD con tutto set al al max sicuramente) se usciranno le 1080 e le 1080Ti al prezzo identico di quello di listino alle 980/ 980Ti nessuno comprerebbe il modello precedente, salvo se lo vendi ad un prezzo in sè molto vantaggioso
 
#14
Testudo dici bene ma se controlli i consumi in full load sia di processori cpu sia di gpu la cosa terrificante è che purtroppo consumano tutti più o meno uguale..
http://www.xtremehardware.com/news/...re-i7-6700k-in-nuovi-benchmark-2015073010890/
idle 66w di consumo e in game "presumibilmente" in full load 302w. cpu di ultima generazione intel con serigrafia a 14 nm..... d'altra parte far girare quele robe in bomba i calcoli da fare sono davvero tanti e finchè non cambieranno software temo che l'unico modo che hanno sia quello di spremere cpu e gpu

p.s. se poi ti vai a cercare le comparative delle schede video vedrai che pure la tra Nvidia o AMD le prestazioni-consumi sono analoghi (anche se dichiarano tdp inferiori..entrambe le case...)

p.s.2 aaah si, una cosa però va detta..sicuramente le schede video di adesso tra un anno ce le tireranno dietro..forse nelle confezioni famiglia delle patatine pai...idem per processori-schede madri.. mal che vada uno si può fare un ottimo pc da gaming spendendo relativamente poco. se vi fate un giro su amazon o simili vedrete che già i prezzi si stanno abbassando sul nuovo..se poi cercate roba usata davvero ci saranno affari d'oro avendo solo un po' di pazienza
 
Ultima modifica:
#15
Dubito consumino uguale se l ati consiglia minimo 550w per la gpu e amd 400w per cpu la 6700 e la serie meno Ben fatta e per questo si avvicina a amd ma se guardi la serie 4 o 5 consumavano Molto meno

http://us.msi.com/product/graphics-card/R9-380-2GD5T-OC.html#hero-specification
confermato anche dal sito ufficiale MSI CONSUMA 190W MAX
(consiglia alimentatore da 550W)


la gtx960 male che vada sui 120W MAX
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-960/specifications
Thermal and Power Specs:
120 WGraphics Card Power (W)
400 WMinimum Recommended
System Power (W)

e queste sono schede che vanno simile o comunque nella stessa categoria + del 50% di consumi in piu'

se saliamo di uno step la GTX970 vs la AMD R9 390 il divario si allarga di piu' la AMD consuma un botto di piu' e le prestazioni vanno a favorire Nvidia... a me sembra che dire che consumino uguale sia una castroneria.


Per quanto riguardi i processori e' vero che I7-6700k ha un TDP di 91W che e' alto ma la generazione 6 e' fatta per gli sciocchi che si benovo tutte le novita' e' fatta per testare un po' le nuove tecnologie

il vero processore quello fatto coi controcazzi e' I5-5775C ma ignorato dalla massa e da intel perche' non ci poteva vendere la scheda madre nuova altrimenti e tutti gli sciocchi a cambiare scheda madre pur di prendere la novita'

i5-5775C non solo va meglio nei giochi di un i7-6700K (a velocita' di stock quindi con 300mhz in meno va di piu') ma consuma un sacco in meno TDP 65W

quindi se paragoni un i5-5775C (65W) a un AMD FX-9590 che e' disegnato con un TDP da 220+watt

solo un idiota pensa che consumino uguale. Senza contare che i5-5775C a 65watt da la biada a un FX-9590 in qualsiasi gioco
 
Ultima modifica:
#16
dubita pure, è legittimo, ma cerca di essere superpartes e controlla i test su qualunque sito ti pare. test seri ovviamente, non di fanboy rossi o verdi. poi ne riparliamo
che poi mi dici che una consuma "effettivamente" 5 o 10 watts in più su questo non discuto.. ma per come la vedo io 250 w contro 260 w non fa grossa differenza
come ho scritto poco sopra "dichiarano" poi nella realtà è tutta un'altra storia.. se ti fermi a quello che dichiarano e ci credi a occhi chiusi non serve nemmeno continuare la discussione. io volevo solo spingervi a vedere da voi come sono messi, non era mia intenzione portare acqua al mulino di uno o dell'altro.
 
Ultima modifica:
#17
Test piu' seri dei dati ufficiali... ma fammi il piacere i test sono fatti da persone che non sono controllate per legge i dati ufficiali qui in america li puoi impugnare e andare in corte... smettiamola di sparar cazzate

So che in italia le ditte ti possono dire qualsiasi cazzata vogliono e non devono manco provarlo ma qui in America c'e' gente che vive soltanto per fare causa alle multinazionali. (mi sembra fossero americani i ricercatori che hanno scoperto la volkswagen che imbrogliava i test)

quindi credimi i test che ti fanno vedere sono di parte sempre e comunque pure io so falsificare un paio di benchmark per videogiochi basta studiarsi un poco il gioco e vedere dove e quando una scheda consuma di piu' e una di meno e testare solo la parte che ti interessa per dar acqua al tuo mulino

non e' il consumo a riposo che devi guardare ma quello sotto stress e ti assicuro potrei linkarti molti test ma l'ho gia' fatto nei thread appositi le schede video AMD praticamente raggiungono i 90-100 gradi (con consumi ridicoli)

http://www.tomshardware.com/reviews/amd-radeon-r9-390x-r9-380-r7-370,4178-11.html

l'nvidia manco raggiunge gli 80

http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-15.html



Radeon AMD R9 380X = 240W
Nvidia GTX960 = 119W (la meta')
okey forse la AMD va un pelo di piu' ma sicuramente va meno di
Nvidia GTX970 = 154W (100 watt in meno)

ora vuoi altre prove o continui a sparar cazzate?
 
Ultima modifica:
#18
io magari sparo cazzate, ma te sei così idiota da non controllare manco cosa posti....
e bella la tabella dove scrivono che la r9 380 stock ha 196 tdp e la gtx 970 stock ha 154 tdp. di cosa? dichiarati, raccolti per strada..ma de cheeee..? ha preso i test lui.. guardati questa e poi mi dici dove ca... vai a prendere i test...
371 - 379 watt a full load.... a me frega poco se sei un fanboy invidia o che, ma impara l'italiano perchè quello che ho scritto è chiaro e semplice da capire (se uno ha almeno un criceto che muove la rotellina nella testa)
te lo riassumo: dichiarano dati non veritieri. e ho usato il plurale senza bandiere

e poi la gente si chiede "ma come mai ho fuso la mobo..??!!"

e qua qualche cpu
 
Ultima modifica:
#19
la GTX970 va il doppio di una GTX380 che paragone del cazzo e'?

proprio il mio punto co sti cazzo di video puoi dimostrare quello che vuoi cio' che conta sono i dati di fabbrica se sei ignorante e non sai che vuol dire TDP non e' colpa del mondo che ti mente

dati di anandtech
http://www.anandtech.com/bench/GPU15/1240
GTX960 = 225W (computer incluso)
AMD R9 380 = 299W(computer incluso)

ora qui sembrano solo 75W (25%-30%) ma togli il computer 100W a entrambe costante indipendente dalla GPU

una consuma 125 l'altra 199 quindi PIU' DEL 50% in piu' e vanno praticamente uguale LA GTX960 va anzi pure meglio e consuma meno UN BOTTO IN MENO
http://www.anandtech.com/bench/product/1591?vs=1596
ANANDTECH NON IL PRIMO VIDEO A CASO IN INTERNET


continua a guardare video del pippero e credi di aver ragione i dati di fabbrica e' cio che conta le prestazione i dati di fabbrica non te le dice quindi devi fare test ma il consumo e' CHIARAMENTE indicato dal produttore che poi tu ti vuoi fare sege per aver ragione fa pure.

Ad AMD devono essere tutti stupidi visto che vedono la nuova scheda nvidia che consuma 120W TDP e loro son stupidi e scrivono 190W TDP perche' fa figo il numero piu' grande sanno benissimo che le loro schede consumano di piu' in fatti nel sito ufficiale AMD.COM non trovi da nessuna parte quel dato BEN NASCOSTO poi vai dai produttori reali ASUS GIGABYTE etcetc che vendono entrambi i modelli a cui frega un cazzo di mentire sui consumi e ti scrivono i TDP reali (fatti una ricerchina se non sai che e')

e vedi che NVIDIA consuma meno scalda meno (perche' appunto consuma meno calore = energia) ma che sto qui a parlare con gente che non ragione

continua pure a credere cio' che ti fa piacere ma non sparar cazzate e divulga le tue boiate a chi viene per cercare informazioni.

poi per non parlare del paragone tra R9 380 e GTX970 su che pianeta sono uguale la GTX970 va il doppio ovvio dovrebbe usare il doppio di energia invece ne usa di meno!! (anche se forse solo un 10% in meno... grazie al cazzo va il doppio se andasse uguale userebbe la meta dei Watt)

Solo un pazzo farebbe un paragone di due GPU di potenza cosi' diversa


o forse solo uno che non ne capisce assolutamente nulla e crede consumino uguale
continua a credere le tuo boiate ma non inquinare il forum con fantasie personali.
 
Ultima modifica:
#20
Strane cose si vedono su questo forum... Non posso crederci che per la seconda volta sto dando ragione a Testudo, ma devo concordare: per quanto riguarda la potenza a parità di fascia possiamo star a discuterne da qui fino a domani mattina, ma per quanto riguarda i consumi non c'è scusa che tenga. Nvidia ha fatto un lavoro "alieno" con maxwell, quei consumi amd li vede con il binocolo. Almeno per adesso, del futuro finché non usciranno i primi sample non si potrà parlare.
Per i processori, non ho visto il video, ma già che vedo un fx e un haswell-e non presagisce nulla di buono.
@Partigiano: sempre che tu non voglia passare al 4k, quella 980ti ti durerà anni. Tieni comunque conto che il cippone pascal uscirà forse nel 2017.
 
Alto