News Nvidia Turing: GeForce RTX 2080 laut Nvidia ~50 % schneller als GTX 1080

Ja die Ausreden von Pre Alpha's hört man immer wieder gerne. BF5 erscheint im Oktober, Tomb Raider in 3 Wochen. Und wie gut sich die Tomb Raider Entwickler mit dem nachgepatchten DX12 mit Ruhm bekleckert haben, wissen auch die meisten noch.

Und das BF5 eklatante Verbesserungen bei DX12 erhält, bezweifel ich auch. Denn die Problematik von DX12 und Frostbite gibt es schon seit mehreren Spielen. (Battlefront2, BF1) Die Mikroruckler unter dieser API wurden nie behoben und sind auch in BF5 vorhanden laut Gamestar.
 
Aldaric87 schrieb:
Ja die Ausreden von Pre Alpha's hört man immer wieder gerne. BF5 erscheint im Oktober, Tomb Raider in 3 Wochen. Und wie gut sich die Tomb Raider Entwickler mit dem nachgepatchten DX12 mit Ruhm bekleckert haben, wissen auch die meisten noch.

Und das BF5 eklatante Verbesserungen bei DX12 erhält, bezweifel ich auch. Denn die Problematik von DX12 und Frostbite gibt es schon seit mehreren Spielen. (Battlefront2, BF1) Die Mikroruckler unter dieser API wurden nie behoben und sind auch in BF5 vorhanden laut Gamestar.

Ist doch umso besser, oder? Dann wird man sehr früh sehen können, was Sache ist und keiner muss sich mehr aufregen. DX12 und die lt. nVidia deutlich gesteigerte Asynchrneous compute- Leistung stehen ja wieder auf einem komplett anderen Blatt und da weiss ja bis jetzt niemand so richtig, was dabei rumkommen soll.

Tests abwarten. Dann kann man bei Versagen immernoch Fackeln und Mistgabeln ausgraben und die Hexenverbrennung ausrufen.

Grüße
Zero
 
Also laut Dice soll die Raytracing Implementierung viele Stunden gekostet haben, eigentlich das Gegenteil von Huangs Behauptung, es würde einfach so funktionieren. Vielleicht liegts aber auch einfach an der Neuartigkeit des Konzepts (nicht Raytracing per se, sondern die jetzige Umsetzung), und vielleicht hat einfach nur der Umbau der Engine so viel Zeit verbraucht.

Wird auf alle Fälle eine sehr spannende Zukunft, bin mal gespannt wie lange es dauert, bis komplett auf Raytracing gesetzt wird und jedes Spiel so aussieht wie in der Demo
 
AYAlf schrieb:
Verzeihung aber das ist Unsinn, ich glaube das ist schon sehr optimiert was nVidia da raus gebracht hat.
Sie hatten überhaupt keinen Druck und konnten locker an Hardware und Software basteln. Es wäre was anderes gewesen, hätten sie einen Konkurrenten im Nacken.

Was Nvidia da herausgebraucht hat, mag halbwegs den Möglichkeiten entsprechen und die angeblichen 10 Jahre Entwicklungszeit dürften zumindest teilweise dort auch wirklich eingeflossen sein aber...….

Das was wir von den Spieleentwickler sehen, sind Vorentwürfe und erste Schritte mit einer komplett neuen Technik, die vieles bisher unmögliches machbar macht. Wie viele Spiele haben wir in der letzten Zeit überhaupt mit einer optimierten DirectX 12 Engine gesehen? Die meisten Entwickler haben gerade einmal ein Spiel mit DX12 auf den Markt gebracht - mal besser, mal weniger gut.

Nun kommt zu DX12 auch noch Raytracing hinzu und wegen den beschränkten Möglichkeiten muss das ganze auch noch so optimiert werden, dass die grafischen Vorteile und die Leistung im Endprodukt passt. Man braucht sich doch nur Konsolenspiele ansehen und diejenigen die beim Release erscheinen mit den welche ein paar Jahre später auf den Markt kommen vergleichen. Da liegen oft Welten zwischen und genau dies wird uns auch in den kommenden paar Jahren erwarten.

Eine RTX Grafikkarte ist nicht anders wie eine Xbox oder Playstation zum Release. Die Konsolen starteten auch nur mit ein paar Spielen und hatten trotzdem ihre Käufer. Später wurden Optimierungen an der Software durchgeführt, zig neue Features implementiert oder weggelassen, zusätzliche Ressourcen freigegeben usw. Was wir sehen ist der Anfang und wir sollten froh sein, dass viele Menschen bereit sind jetzt die Early Adopter Preise zu bezahlen, damit später alle davon profitieren können.

Am Ende profitiert sogar AMD indirekt davon, selbst wenn sie noch Jahre keine eigene RT fähige Karte hinkriegen sollten, alle RT Titel basieren nämlich auf DX12!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeusTheGod
xexex schrieb:
Am Ende profitiert sogar AMD indirekt davon, selbst wenn sie noch Jahre keine eigene RT fähige Karte hinkriegen sollten, alle RT Titel basieren nämlich auf DX12!

Das wird natürlich ein Vorteil sein. Jedenfalls zwingt es endlich (zumindest einen Teil der Studios) endlich mal auf DX12 zu setzen und dort Erfahrungen zu sammeln. Was wir bisher als DX12 Spiele zu sehen bekommen haben, war zumindest auf der Frostbite Engine basierend eher mäßig. Sie haben selbst bei BF5 immer noch nicht das Microstuttering beheben können, welches nun schon seit mehreren Titeln mitgeschliffen wird.
 
Für mich sieht das RTX-Konzept nach nem riesen Experiment aus. RT ja ok tolle Sache aber für Gaming noch zu früh, da wäre ich lieber Richtung 4k-Gaming gegangen (Leistung krass erhöhen 80% + ) und RT hätte ich erst ma im Pro-Bereich bei den Quadros gelassen. Aber durch die frühe RT-Einführung in Games, tut sich natürlich die Konkurenz welche jetzt ja schon Provbleme hat drann zu bleiben, um so schwerer mit ein zu steigen mit neuen Karten. NV hat anscheinend doch noch großen Respekt vor AMD, bekommen ja grad alle mit was da im CPU-Bereich so ab geht. Und NV möchte sich das sparen und führt Superfeatures ala RayTraycing so schnell wie möglich ein auch wenns uns verfi..t viel kostet und noch ned ausgereift ist von der Performance. Hauptsache AMD wird eingebremst, gekauft werden die Karten sowieso früher oder später ob 899€ oder 1500€ denn das Marketing von NV is natürlich auch sehr gut.
 
Um die Leistung um 80% zu erhöhen, würde man aber einen Shrink benötigen.

Eigentlich wird Turing ja auch in 16nm gefertigt, NVIDIA hat nur dne Prozess umbenannt, wie es auch andere Foundries getan haben.
 
Muxxer schrieb:
RT ja ok tolle Sache aber für Gaming noch zu früh

Nach dieser Argumentation dürfte die HoloLens, Vive oder Rift auch noch nicht auf dem Markt sein, 4K Monitore und Fernseher auch nicht und so ziemlich jede neue Technik sollte man doch gleich in der Schublade lassen.

Man könnte auch umgekehrt behaupten, dass es noch immer viel zu früh für 4K ist und der Schwenk von 2K zu 4K viel zu früh erfolgt ist ohne das Inhalte und Ressourcen dafür vorhanden waren.

Hill Ridge schrieb:
Eigentlich wird Turing ja auch in 16nm gefertigt, NVIDIA hat nur dne Prozess umbenannt, wie es auch andere Foundries getan haben.

Nvidia hat gar nichts umbenannt, sie produzieren selbst ja keine Chips. Grundsätzlich wäre es zwar "ehrlicher" vom TSMC 16nm+++ zu sprechen, aber wir sehen ja auch an dem 7nm Prozess, dass diese Namen nichts mehr mit den eigentlichen physikalischen Vorgängen zu tun haben.
 
Zuletzt bearbeitet:
Muxxer schrieb:
Für mich sieht das RTX-Konzept nach nem riesen Experiment aus.
Natürlich müssen sich neue Techniken irgendwo bewähren. Ist wie bei der T&L Einheit der 256.

Ich weiß nicht warum ihr alle so massiv heiß redet und disktuiert (geht schon den ganzen Tag so), was nVidia euch nicht sagt:

Microsoft hat in DXR einen Fallbackmudus für HyBrid Raytracing implementiert, der bereits jedem Entwickler bekannt sein dürfte und der als Catch_all für alle DX12 fähige Hardware gilt. Microsoft wird natürlich den Layer nicht auf die Hardware anpassen, das machen die Hersteller per Treiber und die Spieleentwickler per Engine.

Also eine Art Softwarestack der nur noch eure Hardware erkennen muss und unter DX12 Hardware dann Hybrid Ray Tracing auf Compute ausgeführt werden kann, wie schnell müssen die Entwickler sehen. GPUs sind heute so flexibel das sie einen Teil ihrer Einheiten dafür zu Verfügung stellen können.

Nvidia kann es dazu noch über ihr proprietäres Hardwarebackend beschleunigen und bringt Zusatztechniken mit die dann die Hardware noch entlasten (DLSS).

Ein Denoisefilterverfahren müssen sicher beide ausführen, wenn Hydrid RT ausgeführt und nicht ausreichend Rays im Bild gesetzt werden. Warum hier lesen:

https://www.computerbase.de/2018-03/directx-12-raytracing-dxr/

Mal ein Bild mit PIX (Microsoft) und einer GTX1070. Irgendwo wird es schon laufen, wer volle Beschleunigung will muss eben zur 2000 Serie greifen, Optimierungen der Entwickler natürlich inbegriffen, RT wird dann über Compute Shader ausgeführt.

Nun kommt wieder runter.

Originale Quelle: https://websetnet.net/expanding-directx-12-microsoft-announces-directx-raytracing/

Man konnte die Manuals auch unter GitHuB einsehen ich denke das wird jeder Entwickler gemacht haben wenn er etwas auf sich hält.
 

Anhänge

  • PIX.jpg
    PIX.jpg
    579,3 KB · Aufrufe: 476
Zuletzt bearbeitet von einem Moderator:
Gegen neue Technologien ist grundsätzlich erst einmal nichts zu sagen.
Wobei viele sich lieber mehr Shader gewünscht hätten, wenn die neuen Chips schon so groß werden, und weniger dass massive Pushen von Raytracing durch Nvidia.

Gerade bei höheren Auflösungen wird deutlich mehr Leistung benötigt. Und da ist Pascal und Turing noch weit von entfernt gute fps zu liefern.

Und die sehr hohen UVPs von Nvidia sind noch einmal ein anderes Thema. Die 2080ti ist jetzt da angekommen, wo einst die Titan gestartet ist. Das sind einfach nur noch abartige Preise. Eine GTX 580 hatte man einige Monate nach Release schon für 350€ bekommen, mit GF 110 im Vollausbau, und eine GTX 560ti im Bereich von 200€. Die UVP für die 2080 mit GT 104, also einem vergleichbaren Chip wie dem GF 104, ist jetzt 3 mal zu hoch.
 
cryoman schrieb:
Moin,
wenn ich die Kohle gehabt hätte, dann hätte ich mir gerne mal 1200 Stück-Aktien vonne NVidia Corp. "gegönnt". ;)

Hier der NVidia Kurs :
https://www.finanzen.net/chart/NVIDIA

Greetz & stay tuned. ^^
Selbst schuld, da hätte ich im April lieber AMD genommen und die Kohle verdoppelt. :cool_alt:
Ergänzung ()

Shrimpy schrieb:
Haben sie wirklich, ich bin seid der Lederjacken-vorführung nurnoch am feiern wie sie jetzt wegen der Preise Heulen. :D
Ich finde es eher belustigend wen sie für die Preise verantwortlich machen wollen. ;)

1cem4n schrieb:
Also das ist mit Abstand die beste Licht/Schattendarstellung die ich bisher in Spielen gesehen habe :o
Nicht schlecht, wobei z.B. Alan Wake damals auch gute Licht und Schatten Effekte zaubern konnte.
Was man leider auch an manchen Stellen sehr deutlich sieht ist die Detail Bugwelle die man wenige Meter vor sich her schiebt.

Hollomen schrieb:
Nein, dann wüdest du in der Fütze noch "messerscharf" erkenne was sich in der Scheibe des Autos spiegelt. Falls dort noch Jemand mit einer Sonnenbrille steht der auf deinen Panzer guckt könntest du dich evtl. noch selbst sehen wenn du genau hinsiehst.
dann wäre es erst recht unrealistisch denn dann dürfte auf dem Schlachtfeld kein Lüftchen wehen die kleine Wellen erzeugen, welche die Spiegelung auf dem Wasser verzerren und das durchscheinende Straßenpflaster beeinflusst die Spiegelung natürlich ebenfalls. Wie sehr die Wasseroberfläche spiegelt hängt dabei zudem extrem vom Winkel der Spiegelung ab. Ob sich in der Heckscheibe des Autos überhaupt allso viel spiegeln kann ist auch eine frage dessen ob und wie sehr sie verschmutzt ist, wovon man auf dem Schlachtfeld getrost ausgehen kann.
Das sind Fakten die leider in kaum einer der RTX Demos beachtet wurden, wodurch die Effekte nicht selten so überzogen wirkeln wie der 3D Effekt in den meisten 3D Demos.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: cryoman
Es ist klar, dass Raytracing nicht direkt perfekt implementiert werden kann und die Entwickler jedes noch so kleinste Detail beachten. Mit den RTX-GPUs scheint nun zunächst die technische Grundlage vorhanden zu sein, damit sich die Implementierung von Raytracing lohnt.

Oftmals ist es natürlich bei neuen Features auch erst einmal so, dass sie sehr übertrieben genutzt werden, nur um sie eben ausgiebig zu nutzen.
 
@Leli196
Das Problem dabei ist das es dadurch einfach nur auf eine andere Weise falsch wirkt weil z.B. die Oberflächen zu clean und eben wirken, wodurch der Effekt entsprechend überzogen wirkt. Gerade in anbetracht auf den Leistungshunger ist es einfach nichts für Spiele wie schnelle Shooter, weshalb ich es faszinierend finde für wie viele auf einmal die Framerate egal ist.
Das wirkt zum Teil so überzogen das mir so manches Spiel ohne dieses Feature vom Effekt her besser gefällt.

@pclovely
Der Vergleich mit T&L hat einen schweren Fehler.
T&L brachte Leistung (RTX kostet massiv Leistung) weil es die CPU von der Berechnung entlastete und letztendlich eine optische Aufwertung weil es dadurch stärker eingesetzt werden konnte. Siehe spätere vergleiche der Voodoo 5 6000 Karte mit der geforce 2/3 bei einem deutlich aktuelleren und stärkeren Prozessor.
Selbst wenn die Karte rausgekommen wäre dann wäre sie abseits vom z.B. hochgezüchteten AA an der verfügbaren CPU Leistung verhungert. An Rohleistung fehlte es ihr definitiv nicht. Hier konnten die Geforce Modelle dank Hardware T&L ihre Leistung deutlich besser entfalten.
 
Hat man ernsthaft erwartet, dass eine *fucking* 18.6 Mrd. Transistoren Karte für weniger als eine Titan über den Ladentisch geht?
 
"Die weltweite Nachfrage nach Kraftfahrzeugen wird eine Million nicht überschreiten - allein schon aus Mangel an verfügbaren Chauffeuren."
Gottlieb Daimler, Erfinder, 1901
 
Die Tabelle sagt nichts aus, außer das nvidia einigermaßen erfolgreich mit ihrem NDA fährt und CB nur positives im Sinne von nvidia zeigt und nichts hinterfragt.
Naja, mal sehen wie echte Benchmarks aussehen werden, außer nvidia wird wieder erwischt beim schummeln.
 
Die 2070 war nie lieferbar. Diese wurde lediglich angekündigt ohne Release-Datum. Der Status "Ausverkauft" war dort von anfang an zu sehen. Die Psychologie dahinter scheint ja zu funktionieren, jeden Tag kommen Leute und sagen "Heyyyyy, die 2070 ist ausverkauft".
 
In einem anderen Forum behauptet jemand, das mit den neuen Karten im SLI die tatsächliche Menge an gesamten RAM verwendet werden kann, sprich: 2 x 8 GB. Ist da was dran?
 
gerzerk schrieb:
Hat man ernsthaft erwartet, dass eine *fucking* 18.6 Mrd. Transistoren Karte für weniger als eine Titan über den Ladentisch geht?
Was hat das damit zu tuen?
Der Chip der GTX 1080 Ti hat exakt so viele Transistoren wie der der Titan X von 2016 und der Titan Xp.
Auch der Chip der GTX 980 Ti hat exakt so viele Transistoren wie der der Titan X von 2015 denn es kommt jeweils der gleiche Chip zum Einsatz und dennoch gab es große Preisunterschiede.
 
Zurück
Oben