News Nvidia Turing: GeForce RTX 2080 laut Nvidia ~50 % schneller als GTX 1080

Shakall schrieb:
...
Vega 56 oder Vega 64. Wer kauft sowas bitte?
Leute die bei einer neuen Grafik-Generation mit den ersten echten, richtig großen Innovationen seit vielen Jahren nichts anderes können als über Preise und den verhassten Hersteller herzuziehen...
Aber einem vorher, wenn ein Hersteller in anderer Farbe eine neue Speichertechnologie mit der Brechstange auf Karten wirft, die davon praktisch gar nicht profitieren, etwas davon erzählen, dass Innovationen doch super sind und Zeit brauchen (und wenn dann später nix bei rum kommt, allen Anderen die Schuld geben). Doppelmoralische, auf einem Auge blinde Moral-Apostel, die auf einer bestimmten Seite aktuell scheinbar erheblich an Anzahl gewonnen haben...

Es ist einfach nurnoch enttäuschend hier. Ein Unternehmen wird üblicherweise dafür beschimpft, wenn es sich angeblich nur für Prozente und Geld interessiert... und dann wird hier auch nur jedes Prozent gezählt und geguckt ob einem das dazugehörige Geld schmeckt. Sowas primitives...

Wir sind hier auf ComputerBase verdammtnochmal! Alle sind nurnoch über irgendwelche politischen, moralischen oder emotionalen Nebenkriegsschauplätze am rumheulen.
Sollte es nicht auch so etwas wie Begeisterung oder wenigstens Interesse für neue Technologien geben? Auch wenn die nicht vom Lieblingshersteller kommen? Gibt es noch Orte, wo es soetwas gibt? Das ist eine ernst gemeinte Frage! Ich würde da gern hin!

Mein erster Gedanke bezüglich der Off-Screen-Reflektionen war nicht "das bringt bestimmt meistens gar nichts" oder "ob das den Aufpreis wert ist?", sondern "wie zur Hölle machen die das?".
Mit ein Bisschen Erinnerung an Computer-Grafik an der Uni kann man es sich ganz gut zusammenreimen.
Genauso beim DLSS.
Aber ganz ehrlich? Geiler Scheiß! Das ist wirklich innovativ und vor dazu noch extrem mutig! Da geht so dermaßen viel sauteure Chipfläche für die neuen Einheiten drauf... Das ist ein "All-In"!
Das war bis vor ein paar Tagen alles noch Kategorie "Zukunftsmusik". Ganz ehrlich, wer hat denn bitte DAMIT gerechnet? Das eigentlich viel wahrscheinlichere Bild zu den Spekulationen um Turing und vielleicht Ampere war doch viel eher eine Teilung in Compute (mit Tensor-Kram von Volta) und Gaming (ohne Tensor). Jetzt ist der Tensor-Kram im Gaming-Bereich und macht Machine-Learning-Anti-Aliasing. Und es gibt noch mehr neue Kerne die plötzlich in einem hybriden Render-Modell Echtzeit-Ray-Tracing für Reflektionen, Beleuchtung und Schatten etc. machen. Wie geil?! Selten so gefreut so dermaßen daneben gelegen zu haben!
Im PC-Bereich ist das mMn nach SSDs die größte Innovation der letzten 10 Jahre. Im Gaming-Bereich die Größte seit 3D-Beschleunigung.

Und dem Urteil von Digital Foundry kann ich mich anschließen. Was sie da schon zeigen können, ist für den aktuellen Zeitpunkt schon vergleichsweise ziemlich viel. Spricht dafür, dass die Integration einfach ist und/oder die Zusammenarbeit mit den Spieleschmieden gut ist. Gerade gegenüber den Luftschlössern, die wir in letzter Zeit als "Innovationen" vorgesetzt bekommen haben, ist das viel.
 
  • Gefällt mir
Reaktionen: Merle, Hardware_Hoshi, Blueline56 und 19 andere
Die Benches von Nvidia inkludieren ja nicht nur DLSS, sondern auch HDR. Wenn man DLSS außen vorlässt und mal grob die Werte addiert und den Mittelwert bildet, komme ich so auf geschätzt 47% höhere Leistung. Allerdings inkludiert das erst einmal eine Demo (wertlos) und zweitens HDR. Wie man aber schon mitbekommen hat, bricht die Leistung bei Pascal mit HDR ein. Scheint so, als hätte da Nvidia etwas verbessert im Zusammenhang mit HDR. Das verfälscht aber das Ergebnis noch mehr, denn wenn ich bewusst eine Karte mit HDR laufen lasse und weiß, dass sie Leistung verliert und dann meine neue Karte gegenüberstelle, die nicht einbricht, dann hebe ich damit ja den Schnitt insgesamt. Nehme ich mal nur die Titel ohne HDR, komme ich da geschätzt auf 30% und damit hätte die 2080 1080Ti Leistung. Das würde auch erklären, warum direkt eine Ti zum Start kommt.
 
  • Gefällt mir
Reaktionen: MoinWoll
Also das mit dem neuen AA Modi DLSS klingt ja schon interessant, aber ein paar Fragen wären da noch zu klären:

Also wenn ich das jetzt mit dem DLSS richtig verstanden habe, dann werden bestimmte Spiele über die eigene Cloud-Hardware in Form des SATURN-V-Supercomputers trainiert und quasi 64 Lösungen Samples [Algorithmen] erstellt, die für eine RTX Turing als Basis für eine ideale Darstellung zum berechnen des DLSS in einem bestimmten Spiel die Grundlage bieten.

Die 64 Lösungen Samples [Algorithmen] werden dann über Geforce Experience an die Grafikkarte übermittelt, heißt das dann, das jedes Mal, wenn man ein Spiel mit DLSS spielen will, immer wieder diese 64 Lösungen Samples [Algorithmen] über Geforce Experience abrufen muss, damit diese dann an die RTX Grafikkarte überspielt werden können?

Das würde ja bedeuten, wenn man keine Internetverbindung zur Verfügung hat, dann können diese Daten nicht überspielt werden und die Grafikkarte muss dann selbst Lösungen Samples [Algorithmen] trainieren und erstellen. Wie muss man sich das denn dann vorstellen, wie lange die Grafikkarte für einen Algorithmus trainieren muss, bis DLSS ideal dargestellt werden kann?

Oder werden die 64 Lösungen Samples [Algorithmen] über Geforce Experience, dauerhaft gespeichert?
 
Kann man eigentlich mit der Quadro RX8000 genauso zocken, wie mit einer 2080 Ti?
 
duskstalker schrieb:
Ich will erst mal sehen wo die angeblichen 50% herkommen sollen.

Aus den bisher bekannten Daten kann das nämlich kaum kommen.

Sieh dir die Folie mal genauer an. Da sind Titel dabei, die samt HDR getestet wurden.
Dann erinnere dich mal an diesen Test: https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/2/

Da verliert die 1080 mit HDR je nach Spiel schon mehr als 10% (bei Shadow of War z.B. 13%). Nur bei Andromeda verliert sie keine Leistung.

Nvidia hebt den Schnitt an, indem sie die 1080 bewusst schlechter darstellen, indem sie HDR inkludieren.
Dann schätze mal nur das Leistungsplus von den Spielen ohne HDR.
Da landest du dann geschätzt bei 30% und nicht mehr 50%.

Und damit liegt eine 2080 auf 1080Ti Niveau. Damit bewegt man 1080Ti Besitzer aber nicht dazu umrüsten zu wollen. Deshalb noch die Ti hinterher.
 
  • Gefällt mir
Reaktionen: MoinWoll und duskstalker
...und die Werbe-Maschine läuft. Erst eine nichtsaussagende Vorstellung, dann "plötzlich" echte Benchmarks. Da stellt sich mir (wieder mal) die Frage, warum man diese nicht gleich im Stream vorgestellt hat.
Die DX12 Schwäche wird mit der neuen Iteration behoben, und mehr auch nicht.
Meine Vermutung (aus jahrelanger Verarscht worden sein Sicht): entweder kapitaler Rohrkrepierer aka. minimale Performancesteigerung, oder aber ein Monster vom Schlage einer 8800er Serie.

Wobei die 8800er Serie zwar die Leistungskrone hatte, aber in längeren Spielesessions (ab ca. 20 Minuten) der Speicher volllief und dann eine Ruckelorgie folgte. Abhilfe schaffte damals nur kurz aus dem Spiel zu tabben und wieder neu einzusteigen. Die 2900er und später die 3870 hatte trotz weniger Leistung das erheblich bessere Spielerlebnis bzw. war für Hardcoregamer (Neudeutsch: Hochleistungsfrequenzkernspieler) die erheblich bessere Wahl. Wers nicht glaubt: einfach mal nach "Nvidia RAM Bug" googlen/bingen /duckduckgoen.
 
Knappe 1000€ haben oder nicht, ja. Doch es lässt sich sparen. Hat man dieses Hobby, legt man sich vom Gehalt "einfach" was beiseite. Und süffelt nicht gleich Oettinger sondern halt einmal im Monat ein Helles. Irgendwie geht es immer :) EDIT: Jap, so habe ich es damals, auch, bei der 8800GT gemacht.
 
Mal abgesehen von viele x-mal faster than the previous Generation, die BlueOyster-Jensen im Livestream nannte..

Webseite
Turing Webseite 6 mal schneller.png

Ebenfalls im Livestream sprach er von "Twice the Performance of the previous Generation"

Nun sind wir bei 50% schneller... mal sehn' wie die Realität aussieht. Ich bin gespannt!
 
  • Gefällt mir
Reaktionen: fox40phil, Iscaran und duskstalker
Oneplusfan schrieb:
Ne, die 2080FE hat ne UVP von 799.

Warum hat bei den AMD benches eigentlich keiner so rumgeflamed und CB unterstellt sie sind ein Marketinginstrument? Interessante Doppelmoral....

Der aktuelle König ist meist der Feind der lauten Stimmen. Nvidia-Kunden sind größtenteils zufrieden (AMD-Wörterbuch Übersetzung: "Schaf"). Wozu dann schreiben wie toll man es findet? Schaf mag Gras. Unzufriedenheit führt zu Gegenkultur (kaum Nvidia Logos hier aber viel AMD/RYZEN) obwohl Nvidia mehr Anhänger hat und eigentlich alleine Produkte im High End anbieten.

Das gehört aber dazu, ist ab und zu wahr und irgendwann sind kritische Stimmen sowieso gefordert.

Der Wunsch nach Konkurrenz ist bei vielen der primäre Auslöser. Auf jeden Fall nachvollziehbar. Die Reaktionen ins Negative hinein sind übertrieben. Intel war dreister bis AMD aufgeholt hat. Ich will eigentlich nicht sagen dreister, weil Nvidia anscheinend einiges an Leistung drauf packt und die Vorbesteller Preise der neuen RTX 2080 nicht weit von der GTX 1080 zu Beginn entfernt sind. Nicht dreist, ohne Brille. (Danke für die Infos hier im Thread. Ich wusste, die 1080 war teuer aber ich hab mich nicht daran erinnert, dass sie soo teuer war, damals).
 
  • Gefällt mir
Reaktionen: Kolu, ZeusTheGod, fox40phil und eine weitere Person
arbu schrieb:
Hätten sie das bei der Gamescom schon durchblicken lassen, wäre das Publikum nicht so verhalten gewesen.
Gibt ja mittlerweile 2 Theorien dazu: Turing ist echt nur minimal schneller als Pascal oder Nvidia hat es mit absich verschwiegen, damit weiter die Restbestände der Pascal verkauft werden und wenn dann hinterher rauskommt, dass Turing ein Biest ist, dann greifen einige nochmal zu.
 
Mal unabhängig von irgendwelchen Benches oder Preisen: Bin ich der Einzige, der das Referenzdesign / Founders Edition ziemlich stylish findet? ^^
 
  • Gefällt mir
Reaktionen: Oceanhog
SKu schrieb:
Wenn die 2080 50% im Schnitt ohne RT und AI-AA auf den Bildschirm bringt im Gegensatz zur 1080, warum dann direkt zum Start eine 2080 Ti?
Vermutlich, weil in einem Jahr bereits der Nachfolger in 7 nm in den Startlöchern steht, um konkurrenzfähig gegen Vega in 7 nm zu bleiben :) Da hätte eine 2080 Ti keine Daseinsberechtigung mehr, jetzt hingegen schon.
 
Aldaric87 schrieb:
nVidia baut mal was neues ein und alle jubeln. Keiner hinterfragt das ganze erstmal. Es wird natürlich nVidia sponsored Titel geben, die diese Funktionen mal nutzen, es wird genauso aber dutzende Spiele geben die weder DLSS noch RT nutzen werden. Zuzüglich wissen wir bisher lediglich das die RT Performance unter aller Kanone ist. Die Leute wollen mehr FPS, höhere Auflösungen und nicht durch die neue Technik 5 Jahre zurück katapultiert werden, damit der Schatten und das Licht ein wenig besser sind.

Die Technik mag in 5-10 Jahren der neue Standard sein, aber er ist es eben jetzt noch nicht. PhysX wurde damals genauso gehyped, wo ist das denn jetzt hin? ;)

Wenn ich sehe, dass selbst kleine Entwicklungsstudios wie Piranha Bites beides unterstützt, dann wird mir nicht bange. Wenn RT von der Unreal 4 Engine unterstützt wird, dann wahrscheinlich auch von allen anderen, bekannten Engines.

Es bleibt abzuwarten, ob eine 2070 genügend Performance besitzt RT mit ausreichend FPS darzustellen, bei der 2080Ti mache ich mir hingegen keine Sorgen. Liegt halt auch immer an der Auflösung und der Umsetzung der Spielentwickler.
 
Vissi schrieb:
Kann man eigentlich mit der Quadro RX8000 genauso zocken, wie mit einer 2080 Ti?

Kann man, wenn du 10k locker in der Tasche sitzen hast!
https://hothardware.com/reviews/nvidia-quadro-p6000-and-p5000-workstation-gpu-reviews?page=6

Ist jetzt zwar die Vorgängergeneration, aber wird auch für die aktuelle gelten. Möglicherweise bekommst du aber diverse Treiberoptimierungen für Spiele erst später oder gar nicht. Der aktuelle Quadro Treiber ist zum Beispiel derzeit erst auf dieser Version.
1534975241866.png

Der Geforce ist da schon ein großes Stück weiter.
1534975294900.png

Macht eigentlich nur Sinn, wenn man aus beruflichen Gründen eh eine Quadro Karte im PC hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oceanhog
Simon schrieb:
Mal unabhängig von irgendwelchen Benches oder Preisen: Bin ich der Einzige, der das Referenzdesign / Founders Edition ziemlich stylish findet? ^^

Das Referenz-Design von NVIDIA ist bisher die einzige Karte, die ich als schön betiteln würde.
Vergleich ich mal nur von EVGA das Design bei der 1080Ti, dann sieht die Nachfolgerversion schon minderwertiger aus:

1080Ti:

1159717_0__69609.jpg


2080 Ti:

card_header.png

Bei der 1080Ti war der Frame für die Lüfter noch eine Aluminium-Magnesium Legierung, jetzt alles nur noch Plaste.
 
  • Gefällt mir
Reaktionen: Trimipramin und Simon
Vega in 7nm wird NVIDIA im Gamingmarkt wohl nciht so viel konkurrenz machen, Vega20 wird eine HPC-GPU.
Es ist fraglich ob mit der GPU überhaupt noch eine Gamingkarte kommt, weil HBM dafür einfach zu teuer ist.

Da muß man wohl auf Navi warten.
 
Alle kotzen rum, dabei sind die Preise für was was die Karten bieten voll in Ordnung.
 
  • Gefällt mir
Reaktionen: Linus35, Oceanhog und Moriendor
Zurück
Oben