Vi bruger ikke pop-up reklamer, og de få reklamer der vises hjælper til at betale for sitets drift. Som medlem kan du desuden tjene points, og bruge dem på at fjerne reklamerne.
Forside » Hardware » NVidia annoncerer Quadro P6000 som verdens hurtigste GPU
NVidia annoncerer Quadro P6000 som verdens hurtigste GPU
NVidia har annonceret det nye Quadro P6000 grafikkort til workstations, med betegnelsen "verdens hurtigste GPU".
Grafikkortet er målrettet til designere der skaber komplekse simulationer - lige fra modeller til VR-spil.
Quadro P6000 er baseret på den nye Pascal-arkitektur, og GPU'en har 3.840 kerner samt en ydelse på 12 teraflops (FP32 performance) - hvilket er dobbelt så hurtigt som den sidste generation.
Kortet kommer med 24 GB GDDR5X RAM og kan forbruge op til 250 W.
Hvad vil fordelen være ved at køre så kraftigt et grafikkort, hvis det har et resolution cap på 4096 × 2160 pixels ?
Handler det om FPS, Rendering, Particles ect. ?
For mig svare det til at testkøre en Ferrai men at ende med at sælge en Skoda Octavia.
Men det er nok lige som kameraer som tager RAW fotos i ekstrem opløsning og så konverterer ned, fordi det kunne være man kom til at få brug for bedre opløsning?
Men så skulle man via firmware kunne opgradere til 8K eller 16K, når / hvis det udkommer.
Det handler nok mest om rå regnekraft ift. både rendering samt real-time rendering - hvor det er hårdt at trække ting som høj modelkompleksitet (antal polygoner), avancerede teksturer (eks. ægte procedural samt glas) og andre ting såsom global illumination, dynamic occlusion, volumetric lights, sub surface scattering osv.
Hvis der så dertil skal beregnes indplacering og belysning ift. det et kamera ser (som jo er nødvendigt for augmented reality) bliver det endnu hårdere.
Især for udviklere duer det ikke at have hardware der ikke er kraftigt nok. Jeg har sat med 3D-grafik, og i større mere komplekse scener, kunne svagere computere ikke engang rotere kameravisningen uden at hakke og spytte, selvom jeg havde slået shading fra og kun så på wireframes. Jeg endte faktisk med at få hele modeller til at blive vist som "bounding box" (en wireframe af en firkantet kasse) for at kunne arbejde videre med projektet - og kun når jeg udførte en render kunne jeg se hvordan tingene fungerede i kontekst. Det sutter seriøst røv...
Der var jeg studerende og havde ikke råd til eks. Quadro-serien. Nu om dage har jeg råd men ikke behovet - men sådan er det jo ofte :)
Tilføjelse: Den store drøm indenfor realistiske 3D-spil, er at få mulighed for real-time raytracing. Det er så komplekst og sindssygt hårdt at det først nu begynder at lade sig gøre... og det hakker og spytter som en gammel Lada der kører på snaps.
Bemærk at selvom der er tale om en beta rendering engine, så er det altså 2 stk. Geforce Titan X der trækker det.
Man kan sagtens se det kæmpe potentiale i realisme der er at hente her - men man kan også se alt det støj som Brigade tilføjer for at kunne køre det flydende (det er sådan den virker - den kompromitterer detaljegraden ved at tilføje random noise, fremfor at real-time performance dropper for meget).
Nu kom jeg til at læse på en side, jeg ikke vil nævne. At AMD er kommet med et grafikkort som kan få sat op til 1TB SSD i sig, hvilket ikke vil være lige så hurtigt som GDDR5, men som bygger lidt på samme teknologi, som jeg talte om i en anden artikel, omkring at tilknytte SSD med RAM.
Det kunne være interessant at se nogle test på det, specielt i crossfire.
Hvis nogen ofre pengene på det :D
I det 1 kort vil koste ca USD$ 10.000 indtil videre.
Det der imponerer mig, selvom det er 2.5 år siden. Uden nærmere efterforskning kan jeg ikke forestille mig hvor langt man er nået med nutidsteknologi / de seneste kort!
Ang. SSD-tilslutning på op til 1 TB; det er interessant, men jeg kan ikke umiddelbart se et kæmpestort performance gain, tværtimod faktisk. Kun i tilfælde som eks. hvor ekstremt store og detaljerige teksturer skal renderes, er det en fordel. Ellers ikke, medmindre jeg lige overser noget.
Ang. hvor vi er nu; I mellemtiden er Unreal Engine 4.x, Unity Engine 5.x og Frostbite 3.x udkommet - og de sparker røv, og giver os lidt en mellemting mellem det vi havde før, og ægte raytracing "all the way".
Eks. Unreal Engine har raytraced distance fields for skygger, og det hjælper en del - men vi er ikke helt i mål endnu.
De nye engines er også stadigvæk så nye, at kun meget få AAA-titler bruger dem og kun nogle af dem bruger dem nogenlunde ordenligt/optimalt.
Et godt eksempel på hvor godt det kan gøres med UE, er denne 1½ gamle demo:
Forestil dig denne grad af realisme i et spil, hvor du har Oculus Rift eller HTC Vive på hovedet. Og i samme realisme grad springer der en zombie frem :P