News Einstimmige Gerüchte: Spezifikationen der GeForce RTX 2080 (Ti) zeichnen sich ab

milliardo schrieb:
Könnte mir vorstellen, dass Nvidia relativ zeitnah noch Modelle mit mehr Speicher nachschiebt, vielleicht musst du da gar nicht lange warten. Wenn der Markt nach Speicher verlangt wird Nvidia (im Verlangen nach Geld) nicht lange nein sagen.
Von Nvidia aus sicher nicht, braucht man sich ja nur die Vergangenheit anschauen, wie lange es gedauert hat, bis man endlich 8GB VRam auf eine GTX 1070 und GTX 1080 verbaut hat. Und warum hat das Nvidia gemacht, weil AMD damit vorgelegt hat bei den 290er Grafikkarten und natürlich auch bei den Nachfolgern der RX Serie [570/580].

Ich denke man muss Nvidia dazu zwingen und das kann man nur, wenn AMD wieder vorlegt, zum Beispiel bei der nächsten High End GPU [Navi?], wenn diese dann 16GB HBM Speicher bekommt, dann wird auch Nvidia den Top Modellen mehr Speicher spendieren!
 
Serphiel schrieb:
Also Hairworks mit RT zu vergleichen kann man doch nicht ernst nehmen.
Die Demo rennt in 24 Bildern pro Sekunde auf VIER Titan V. (Poor Volta)
Hair Works als vergleich zu Ray Tracing auf der 2080ti klingt dann doch ziemlich gut. Besonders weil Nvidia Gameworks games garantiert wieder die Raytracing Quality Level so hoch drehen werden, wie sie es bisher mit Tessellation Effekten machen.

Ray Tracing als Technology selbst ist awesome, die Qualität des Videos spricht Bände wie viel besser Raytracing ist und die Tatsache das man 24 FPS das Zeug rendern kann, wenn auch auf 4 Karten ist fantastisch, in den frühen 90er hat man für solche Szenen ehr noch 24 Stunden pro Frame gebraucht. ;-)

Der Hair Works vergleich passt trotzdem, weil die nötige Performance um sowas in einem Spiel bei 100+ FPS zu nutzen ... nope, nicht mit Volta, nicht mit Turing und wahrscheinlich auch nicht mit der next Gen. Eventuell aber für Cutscenes zumindest mit der übernächsten Generation. Und 2030 dann auch tatsächlich für Spiele. ;-)

Kleine Dinge, Shadows zum Beispiel, etc da geht jetzt schon einiges, und Nvidia wird sicher hier wieder das gleiche Spiel treiben wie mit Tessellation. Leider.
 
Zuletzt bearbeitet:
Apocalypse schrieb:
Die Demo rennt in 24 Bildern pro Sekunde auf VIER Titan V. (Poor Volta)
Hair Works als vergleich zu Ray Tracing auf der 2080ti klingt dann doch ziemlich gut. Besonders weil Nvidia Gameworks games garantiert wieder die Raytracing Quality Level so hoch drehen werden, wie sie es bisher mit Tessellation Effekten machen.

Ray Tracing als Technology selbst ist awesome, die Qualität des Videos spricht Bände wie viel besser Raytracing ist und die Tatsache das man 24 FPS das Zeug rendern kann, wenn auch auf 4 Karten ist fantastisch, in den frühen 90er hat man für solche Szenen ehr noch 24 Stunden pro Frame gebraucht. ;-)

Der Hair Works vergleich passt trotzdem, weil die nötige Performance um sowas in einem Spiel bei 100+ FPS zu nutzen ... nope, nicht mit Volta, nicht mit Turing und wahrscheinlich auch nicht mit der next Gen. Eventuell aber für Cutscenes zumindest mit der übernächsten Generation. Und 2030 dann auch tatsächlich für Spiele. ;-)

Kleine Dinge, Shadows zum Beispiel, etc da geht jetzt schon einiges, und Nvidia wird sicher hier wieder das gleiche Spiel treiben wie mit Tessellation. Leider.
Falsch die Demo lief laut Jensen auf EINER Quadro Rtx 8000
 
  • Gefällt mir
Reaktionen: B.L. Swagger und yummycandy
So, und bevor alle merken das die neue gen nicht die leistungssprünge macht die, die NV fangirls gerne hätten, habe ich mir ne gb aorus 1080 ti für 440€ gezogen die erst 3 monate jung ist :P
 
  • Gefällt mir
Reaktionen: CBL
XTR³M³ schrieb:
So, und bevor alle merken das die neue gen nicht die leistungssprünge macht die, die NV fangirls gerne hätten, habe ich mir ne gb aorus 1080 ti für 440€ gezogen die erst 3 monate jung ist :p
Fail, ich habe mir vor 5 Monaten eine Asus Rog Strix 1080Ti für 400€ geschossen.
 
XTR³M³ schrieb:
So, und bevor alle merken das die neue gen nicht die leistungssprünge macht die, die NV fangirls gerne hätten, habe ich mir ne gb aorus 1080 ti für 440€ gezogen die erst 3 monate jung ist :p

Du Lucker! :D
Ich will auch eine. Wo soll ich hier drauf drücken? :)
 
Ist auch schon eine FTW3 (mit über 2 Jahren EVGA Garantie) für unter 500€ raus, das hat mich schwer geschultert weil ich 100€ zu wenig hatte.
 
Ich habe mir vor kurzem eine Gygabyte Auorus GTX 1080 Ti Extreme für 1000 Euro gekauft,
da waren noch wegen Mining sehr höhe Preise, jetzt bekommt man diese für 850 Euro.

Also seit froh, dass die Preise sinken werden.
 
owned139 schrieb:
Falsch die Demo lief laut Jensen auf EINER Quadro Rtx 8000

Getting a “cinematic” 24fps with real-time raytracing still requires some serious hardware: it’s currently running on Nvidia’s ultra-high-end, four-GPU DGX Station, which lists for $60,000
[Update: After publication, Epic reached out to clarify that the demo was running on a DGX Station, and not a DGX-1 as originally stated during the interview.] . Even with that, some elements of the scene, like the walls, need to be rasterized rather than made fully reflective, Libreri told Ars. And the Volta technology that is key to powering this kind of performance isn't even available in consumer-grade GPUs below the $3,000+ Titan V, so don't expect this kind of scene to run on your home gaming rig in the near-term.

https://arstechnica.com/gaming/2018...just-how-great-real-time-raytracing-can-look/

https://www.nvidia.com/content/dam/...print-explorer-datasheet-letter-final-web.pdf

Ok, ok, 4x Tesla V100 ;-)
 
Pat schrieb:
Haben die Dinger TPUs?

Keine Ahnung aber alle GTX 1080 Ti werden mit Luftkühlung sehr heiß 80°.

Bei Gygabyte 1080ti Extreme ist eine Kupfer Platte verbaut, welche auch VRam abdeckt,
aber Gygabyte hat bei Wärmeleitpads gespart, welche ständig bei Mining flüssig werden.

Gygabyte hat auch 12 Phasen, aber da werden Maximum 8 Phasen angesteuert, warum spart man immer 2 Euro bei Grafikkarten welche 800 und 1000 Euro kosten.
 
Zuletzt bearbeitet:
pclovely schrieb:
Was für eine Kosteneinsparung soll das sein?
So kann man auch teildefekte GPUs verkaufen.

Nur grob granulare Architekturen besitzen eine hohe Parallelität und damit erhöhtes message passing. Die Modelle sind dabei von Programmiersprachen abhängig, was klar auf dedizierte Implementieren hindeutet, wobei der Aufwand in Programmierung dafür höher ausfällt.
Soll das Sinn ergeben?
 
vedmak schrieb:
Keine Ahnung aber alle GTX 1080 Ti werden mit Luftkühlung sehr heiß 80°.

80°C ist bei GPUs nicht "sehr heiß", sondern völlig normal im grünen Bereich.

Die 1080Ti/TitanXP ist offiziell bis 91°C (die 1070 und 1080 bis 94°C) spezifiziert und man kann sicher davon ausgehen, dass nVidia da noch gut 10°C Toleranz gelassen haben, bevor es kritisch wird, also die Chips würden sicherlich auch um die 100°C - 105°C noch gut verkraften. Vorsichtshalber setzt aber bei 91°C/94°C das Auto-Throttling ein.
 
Moriendor schrieb:
80°C ist bei GPUs nicht "sehr heiß", sondern völlig normal im grünen Bereich.

Die 1080Ti/TitanXP ist offiziell bis 91°C (die 1070 und 1080 bis 94°C) spezifiziert und man kann sicher davon ausgehen, dass nVidia da noch gut 10°C Toleranz gelassen haben, bevor es kritisch wird, also die Chips würden sicherlich auch um die 100°C - 105°C noch gut verkraften. Vorsichtshalber setzt aber bei 91°C/94°C das Auto-Throttling ein.


80° werden dir nur bei GPU Temperaturen angezeigt, VRAM und andere Bauteile werden viel heißer und das bekommst man nicht angezeigt !!
 
Zuletzt bearbeitet:
SKu schrieb:
AMD sitzt genauso im RT-Boot wie NVIDIA und Microsoft auch. Da spricht nichts dagegen und wie wir alle wissen performen die älteren NVIDIA-Karten unter DX12 schlechter als unter DX11.
Natürlich sitzt MS mit in dem Boot, die Nummer wurde schließlich in Zusammenarbeit von Microsoft und Nvidia entwickelt ohne einen Standard für die Hardware zu liefern. Im Grunde genommen habe ich den Eindruck das MS lediglich einen Zugriffspunkt in DX12 zur Verfügung, der Rest dürfte eher auf nvidias Mist gewachsen sein.
 
@Wadenbeisser Ich tippe mal eher darauf, daß wir den fallback Modus MS verdanken zu haben und nVidia nur dedizierte Hardware verwenden wollte. Weiter glaub ich, daß AMD von Anfang an mit involviert wurde.
 
@yummycandy
Das glaube ich weniger denn wären sie von Anfang an dabei gewesen dann würde bei nvidia nicht auf eine hauseigene Schnittstelle weiter geleitet und es gäbe seitens AMD zumindest eine Ankündigung denn die Entwicklung einer entsprechenden GPU bzw. deren Architektur dauert Jahre.
Ich sehe keinerlei Anhaltspunkte das jemand anderes daran beteiligt war denn dann hätten auch andere Hersteller GPUs mit einem vergleichbaren Funktionsumfang und der Zwischenschritt beim Ansprechen der Hardware wäre überflüssig.
 
Naja, ich bezweifele, daß wir das jemals rausbekommen. Mich nervt die dedizierte Hardware schon, weil jeder wieder sein Süppchen kochen wird. Wozu da noch ne API als reiner Wrapper sein soll, ist mir schleierhaft.
 
  • Gefällt mir
Reaktionen: CBL
Moriendor schrieb:
80°C ist bei GPUs nicht "sehr heiß", sondern völlig normal im grünen Bereich.
Das kann man so nicht pauschal sagen! Schaue ich mir meine MSI GTX 1070 GamingX an, ist das sehr heiß, ich hatte mit meiner Grafikkarte noch nie mehr wie 65°C, wenn ich dann noch mit Vsync spiele, erreiche ich nicht mal 60° C!

Allerdings ist die GTX 1080Ti da nochmal ein anderes Kaliber, dort sollte man schon schauen, das unter Luft die Grafikkarte schon einen ordentlichen Kühler besitzt. Kann man ja schon bei der MSI GTX 1080Ti GamingX sehen, deren Kühler deutlich fetter ist, als der auf meiner 1070! Die GTX 1080Ti ist aber auch ein Kraftpacket und das will ordentlich gekühlt werden! Und das wird bei der RTX 2080Ti sicherlich nicht anders sein! :daumen:
 
Zurück
Oben