News Nvidia Turing: Spiele-Benchmarks der RTX 2080 Ti mit Fragezeichen

Abwarten. Jede Spekulation ist verbrannte Zeit.
 
Viel logischer ist, dass Nvidia nicht die Mehrleistung erzielen konnte wie erhofft, dann sich kurzfristig dazu entschieden hat RT einzubauen und daher den Launch verschoben hat, jetzt mit NDA und Verschleppung rumrudert um alle mögliche Zeit für den Treiber noch rauszuschlagen.
......ich hoffe mal das das auch wieder ein Witz war, zu was anderen taugt es jedenfalls nicht!
Wenn Du schon nicht glaubst, was nVidia selbst gesagt haben, dass sie an RT seit 10 Jahren arbeiten, dann gebietet die Logik einem schon zu einer anderen Annahme.
Eine Graka-Generation wird über Jahre geplant - kann man ja auch immer gut daran sehen, das sie dennoch kommt, selbst wenn sie ein Flop ist wie z. B. AMD mit Fury oder 2900XT oder nVidias 5800/8600GTS.
Man kann nicht einfach irgendwas dazu packen, das passt nicht in den vorgesehen Chip, der schließlich schon Jahre vorher designt und wo die Menge an benötigten Wavern über Jahre vorher bestellt waren.
Davon ab schreibt sich auch die ganze Software nicht von allein oder in 14 Tagen.
Einfach nur absurd diese Vorstellung........

Ganz ehrlich hätten sie die Möglichkeit eine Karte 50%+ stärker als die 1080ti zu bringen, sie hätten es längst getan...
nochmal Unsinn, natürlich können sie es, es wäre aber wirtschaftlich idiotisch! Vermutlich müßte man die Grafikkarte noch teurer machen und hätte dann noch eine schlechtere Marge - warum in aller Welt sollte eine gewinnorientierte Firma so etwas machen!
Gerade bei nVidia sieht man doch sehr gut, dass sie den Markt gut im Griff haben. Wird die erzielte Leistung erreicht, dann schraubt man den Takt runter um effizienter zu sein.
Bester Vergleich Intel. Dadurch das AMD nun plötzlich leistungsstärker waren als erwartet, war Intel genötigt die CPUs leistungsstärker zu machen und haben dadurch die Effizienz verloren, die über Generationen hinweg besser wurde trotz kleiner Leistungssteigerungen.
 
  • Gefällt mir
Reaktionen: ZeusTheGod
Jetzt weiß ich wenigstens warum Nvidia zu 100% den Focus auf Raytracing legt, da der Performancesprung wie von der 980 TI zur 1080 TI anscheinend bei weitem nicht erreicht wird. Noch dazu unterstützen nicht alle Spiele Raytracing und laut News erreicht man bis jetzt gerade einmal ca. 60 FPS, nur in FULL HD wohlgemerkt, im neuen Battlefield. In anderen Spielen wie Tombraider sieht es noch schlechter aus.

Bin bis jetzt richtig enttäuscht und hoffte das wir wieder so einen Performancezuwachs wie bei Pascal erleben könnten. So muss wohl ein UHD Monitor mit 144 Hertz noch etwas länger warten bis wir endlich Karten haben die das auch halbwegs vernünftig stemmen können.

Ich hoffe das dieser voraussichtliche Spielebenchmark hier ein großer Scherz ist, denn die Leistungssteigerung ist nicht gerade berauschend, da ja noch dazu Pascal schon ziemlich lange auf dem Markt ist. Aber bei den Preisen waren sich wohl alle einig. Die explodieren in die falsche Richtung. So wie es jetzt im Moment aussieht wäre mir eine RTX 2080 TI nicht mehr Wert als 800 Euro bei der mageren Performancevorstellung mit Fragezeichen...

Sollten die Benchmarks tatsächlich authentisch sein, stellt sich nunmehr die Frage, mit welchen Spezifikationen die GeForce RTX 2080 Ti betrieben wurde. Zwar ist auch Nvidias Founders Edition in der neuen Generation bereits werksseitig übertaktet, dennoch dürften sich bei Anhebung des Power-Limits und manueller Übertaktung noch bessere FPS-Werte erreichen lassen. Auch zu den tatsächlichen Taktraten der verwendeten GeForce GTX 1080 Ti im Referenzdesign, dem verwendeten Prozessor (vermutet wird ein AMD Ryzen 5 2600X) und dem bereitgestellten Systemspeicher wurden keine verlässlichen Angaben gemacht, weswegen der prozentuale Leistungszuwachs je nach Konfiguration ordentlich schwanken könnte.

Der Meinung bin ich auch da jeder weiß das eine Referenz 1080 TI nicht gerade die Schnellste ist. Eine übertaktete Customkarte schmälert den Abstand nochmals deutlich...
 
Zuletzt bearbeitet:
GreitZ schrieb:
Der Logik nach müsste jeder vernünftig denkende Mensch diese 2080 Karten überspringen.
1. Mit Raytracing kommt eine sinnfreie Funktion die wohl niemand in einem Spiel zu seinem Vorteil einsetzen kann. Darüber hinaus frisst das Leckerli derart viel Leistung die uns wieder 5 Jahre zurück wirft in HD Auflösungen.

2. Würde man mit der Leistung endlich mal 4k auf 144 Hz mit Überfluss an fps befeuern können wäre das noch ein Kaufgrund, aber die beworbenen frames von Nvidia haBen viele 1080 ti und Vega Nutzer schon heute.
Und eben auch nur dann wäre der Preis gerechtfertigt

Nomal müsste das der Flop des Jahrzehnts werden und stellt für mich nur eine Verschwendung von besonderen Erden dar.

Das war mein Apell an die Vernunft

Dieser Beitrag ist Blödsinn.
Nur weil du keinen Sinn für RT siehst, heißt es nicht, dass es für alle gilt. Es gibt durchaus Leute, die sich an einer noch realistischeren Grafik erfreuen. Nicht jeder möchte alles auf Ultra-low spielen, weil er dann 300 fps, statt 100 hat. Und die Anzahl der Leute mit 4K Monitor ist noch immer recht gering.
Außerdem kann man zum jetzigen Zeitpunkt über die Leistungsfähigkeit nur spekulieren, genauso wie über die Umsetzungsmöglichkeiten der neuen Features.

Wem das Produkt nicht zusagt, der muss es ja nicht kaufen. Der Markt wird schon zeigen, ob das der "Flop des Jahrzehnts" ist.

Bei den ca. 1000 Seiten Kommentaren unter den ganzen RTX bezogenen CB Artikeln, werde ich das Gefühl nicht los, dass es einfach nur um Nvidia-Bashing geht. Bei doppelter Leistung und halben Preis, wären die Leute auch unzufrieden...
Stellt euch mal vor, die RTX GPUs kämen von AMD (bei gleichem UVP). Dann wäre der Tenor: "Friss das Nvidia!", "AMD gelingt nach Ryzen der zweite große Coup", "endlich wieder konkurrenzfähige Grafikkarten für Zocker von AMD" oder sonst wie.
Jetzt sind die Karten vermutlich nur 20-30 % schneller als die Vorgänger, welch unerhörte Frechheit mir so ein Elektroschrott aufzuzwängen...
Die Preisdiskussion lasse ich mal außen vor. Dazu wurde mehr als genug geschrieben. Und 6 Monate nach dem Release kann man sich ernsthaft darüber unterhalten. Bzw. kaufen oder halt nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: chris333 und poly123
Locuza schrieb:
Nvidia hat gar keine Flächenangaben gemacht.
Wer drei Textboxen als solche interpretiert sollte wirklich noch einmal darüber nachdenken.

Man kann auch grob nachrechnen, wie viel Turing ungefähr Zusatzfläche im Vergleich zu Pascal benötigt:
GP102 3840 ALUs = 471mm²
GT102 4608 ALUs (+20%) = 754mm² (+60%)

Der Turing ist 283mm² größer, dass sind 37,5% vom die-size, wenn man davon 20% wegen der erhöhten Shaderanzahl abzieht, landet man bei 30% "Overhead".
Diese 30% und natürlich schon von Anfang an bei der Vereinfachung beinhalten aber noch die größeren Caches von Turing (6MB L2$ vs. 3MB L2$ + mehr Cache pro Shader Core) und vermutlich auch das Register-File, dass kostet auch ordentlich Fläche.

Egal wie du vereinfachst, bei 50% Flächenverbrauch für RT+TC kommst du niemals heraus.
Die Rechnung ist ja noch schlimmer als der Bezug auf nvidias bildliche Aufteilung.
Ein anderes Fertigungsverfahren und andere Architektur mit unbekannten Auswirkungen auf den Platzbedarf der Komponenten und Strukturen werden mit dem Vorgänger gleich gesetzt.....
 
revocelot schrieb:
Leider völliger quatsch. Du versuchst nur den Preis gut zureden.
Wenn ich versuchen würde den Preis gutzureden, dann würde ich nicht ständig schreiben, dass der Preis sehr hoch bzw. für den Gamer zu hoch liegt.
Ich kann also nicht erkennen, worauf Du raus willst, außer, dass Du offenbar meine Beiträge nicht verfolgst.

Die RTX ist genauso ein Grafikkarte wie die Vorgänger auch.
Absolut und ganz großes - NEIN.
 
milliardo schrieb:
Die Leute wollen halt +50% Leistung (mindestens) bei -50% Preis (mindestens). Neue Features in Hardware müssen für den Gamerkunden völlig gratis kommen, selbst wenn sie zusammen hunderte Dollar R&D sowie Fertigung pro Chip kosten. Und die 100%ige Software-Unterstützung muss natürlich instant zum Launch gewährleistet sein.
Alles Teil des Produktpreises der auch schon beim Vorgänger enthalten war, womit sich die Argumentation in Rauch auflöst. Es sei denn natürlich die Umlage der Entwicklungskosten bezieht sich auf einen deutlich kürzeren Zeitraum weil dessen Ablösung bereits absehbar ist.
 
  • Gefällt mir
Reaktionen: stevefrogs
Erstaunlich das viele davon ausgehen das es keine Treiber gibt, alleine die ganzen Spielehersteller haben diesen schon seit Wochen und es ist bestimmt ein leichtes sich diesen mal unbemerkt auf einen USB Stick zu kopieren, ich finde das Video auch nicht so doll aber ich schätze die 2080TI so ein wie es dort zu sehen war.
 
  • Gefällt mir
Reaktionen: nciht
Vitec schrieb:
Auch ohne Raytracing bei der RTX 2070 könnte diese, je nachdem wie die ersten Test ausfallen, dank DLAA sehr gut gegen die 1080 und Vega 64 antreten können.

Für mich persönlich ist es interessanter endlich eine Technik zu bekommen die das Flimmer in Zukunft ohne unschärfe beseitigt zumal es keine Leistung kosten sollte, da es ja extra Kerne dafür gibt und somit unabhängig von den restlichen Shader genutzt werden kann.
Hier erhoffe ich mir eher einen Nutzen auch in Zukunft.
Durchaus ein Punkt den ich so groß noch garnicht so bedacht hatte:
Aktuell spiele ich viele Titel mit 4x MSAA oder einer anderen Form von leistungsfressendem AA.
Wenn das zukünftig über die extra Cores berechnet werden kann und man sich das MSAA, SSAA o.Ä. sparen kann, könnten die neuen Karten bei gleicher(?) Bildqualität vermutlich doch deutlich mehr Frames auf den Bildschirm zaubern als die älteren Karten mit klassischem AA.

Bleibt halt die Frage wie verbreitet das sein wird. Idealerweise könnte man es über den Treiber erzwingen.
Bin gespannt. Auch wenn die Preise meine Laune gesenkt haben und mein Kaufwille einen deutlichen Dämpfer bekommen hat finde ich die Karten sehr interessant und bin super gespannt auf die Tests. :)
 
  • Gefällt mir
Reaktionen: poly123
ZeroZerp schrieb:
Absolut und ganz großes - NEIN.
Interessant..., wenn RTX keine Grafikkarte ist, was ist es dann? Macht Raytracing die Grafikkarte wirklich so dermaßen sonderbar, dass man da plötzlich von was anderem als ner Grafikkarte sprechen kann?
Wenn die "geleakten Benchmarkes" mit Raytracing auch nur annährend stimmen, dann ist der Performanceeinsturz so dermaßen mies im Verhältnis zur schöneren Grafik, dass das mMn ein Flop wäre... und es lohnt sich dann auch kaum, wenn eine 2080Ti mit Raytracing in FHD schon in die Knie geht und unter 60 FPS landet... da hätte man doch lieber noch ein paar Generationen warten können, sich die Technik komplett sparen können und lieber ein größeres Leistungsplus raus geholt...

Zock schrieb:
Erstaunlich das viele davon ausgehen das es keine Treiber
Sowas wird i.d.R. recht parallel mit der Hardware entwickelt. Wie sollte man sonst Prototypen testen, oder bestimmte Funktionen wie eben das Raytracing. Natürlich haben die vernünftige Treiber für das Teil, oder glaubt wirklich jemand, dass die nach der bekanntgabe der Preise noch an den ersten vernünftigen Treibern herumwerkeln.
 
  • Gefällt mir
Reaktionen: Obvision
Phear schrieb:
Glaubst du irgendein Portal, welches nicht danach zumachen möchte, würde so etwas machen? Denkt doch mal weiter als von A nach B. Das ist alles so ein Schwachsinn.

Jetzt mal abgesehen davon ob das stimmt, das Vorgehen ist valide und wird am laufenden Band praktiziert.
Das ist im Prinzip die Existenzgrundlage von DRM bei Videospielen.
Es wird aber auch oft bei HW angewendet kannst du dich an die Auto-OC Funktion einiger Mainboards erinnern? Oder den kaputten Speicher der GTX970?
Auch gab es oft schon nachträglich implementierte Microtransactions.
Oder erst neulich den Kommentar von Toms Hardware: "Just buy it!" zur RTX-Serie.
Oder neulich der Bericht von Linus Tech Tips zu dem möchtegern-Massenspektrometer.

Solange der initiale Eindruck stimmt, kann man den Rest später nachschieben.
 
Wie man sich einfach immer an den verf*** % Werten an Performancesteigerung hochzieht ist schon einfach abartig.
Nur mal um diesen ach so super Vergleich von Maxwell zu Pascal (Super toll) zu Turing (scheisse) zu bringen:

Wenn du mit der 980TI oder welcher Karte auch immer in einem Spiel X 60 FPS hast und dann mit der 1080TI 90 FPS dann hast du eine Steigerung von 50% finden das alle super duper toll.
Wenn du aber im selben Spiel mit der 2080TI nur eine Steigerung von 33% hast ist das extrem scheisse.
Oder wenn es von 35 (980Ti) auf 61 FPS (1080Ti) mit 75% geht ist es mega geil aber wenn es "nur" ~50% mehr mit der 2080Ti sind dann ist das absolut enttaeuschend.
Das es am ende aber TROTZDEM eine IDENTISCHE Steigerung der FPS ist (von 90 auf 120 bzw. 61 auf 90) scheint die Masse hier nicht mal auch nur im Ansatz zu peilen.

Da muss ich mal echt sagen: Kommt mal klar.
 
  • Gefällt mir
Reaktionen: Toprallog, mr_capello und poly123
Wadenbeisser schrieb:
Alles Teil des Produktpreises der auch schon beim Vorgänger enthalten war, womit sich die Argumentation in Rauch auflöst. Es sei denn natürlich die Umlage der Entwicklungskosten bezieht sich auf einen deutlich kürzeren Zeitraum weil dessen Ablösung bereits absehbar ist.

Inwiefern waren RT-Cores und Tensorcores schon im Vorgänger enthalten?
 
ZeroZerp schrieb:
[...]Hat nVidia nur das Problem der Zielgruppe- Denn eigentlich richtet sich dadurch die RTX eher an Professionals als an den Gaming- Konsumenten. Angenommen man kann in den Modelern von 3DSMAX, Maya und Konsorten in Zukunft den viewport mit Realtime- Raytracing beschicken und sei es nur in 10FPS dann ist das ein Hammer...
[...]

Sieh an, dann sind wir ja mehr oder weniger auf einer Wellenlänge, was die Karten angeht. Raytracing und den spezialisierten Tensor Cores habe ich nie die Daseinsberechtigung abgesprochen, nur eben die aktuelle Implementation in den RTX Karten und den daraus resultierenden Preis.

In Spielen (und die sind nunmal das Haupteinsatzgebiet der Karten, darum auch die Präsentation auf der GAMEScom) ist das Feature in der bisher gezeigten Form eben mMn noch nicht marktreif. Da hätte man es mMn auch noch bis zum 7nm Shrink aus den Gamer Karten raus lassen sollen und hier erst mal einen optimierten 12nm Pascal Chip mit einer UVP von... 749€* und durch die Bank ~25-30% mehr Leistung bringen sollen.

Prognose meinerseits: Die Leute hätten NVidia die Bude eingerannt ob der neu hinzugewonnen Leistung zu einem fairen, nachvollziehbaren Preis. Der Profit wäre immens gewesen, denn man hätte 'nur' eine bekannte Architektur mit ein paar Shadern mehr und gegebenenfalls etwas höherem Takt in einem bekannten Fertigungsverfahren noch etwas weiter ausgequetscht.

Eine Win-Win-Situation für alle Beteiligten.

Die von dir angesprochenen Vorteile bei 3DSMAX, Maya, AutoCAD, etc. sehe ich dahingegen auch, bloß gibt es dafür schon das komplette Quadro und Tesla Line-Up; je nach Anwender und Anwendungsfall. Warum also die Features jetzt schon in den (Gaming) Massenmarkt drücken?

Vlt. doch eher um keine zusätzliche Maske anfertigen zu müssen und die "Quadro Abfälle" für teures Geld an die "dummen" Gamer zu verhökern?**

*oder irgendwas in der Region der 1080ti UVP
**bewusst etwas überspitzt formuliert.

@Titina "Congratulations, you played yourself" oder alternativ "You went full retard, man. Never go full retard."
Prozentwerte haben schon einen Sinn, sonst könnte man dein Beispiel mit absoluten Werten ja noch weiter ad absurdum führen.
Von 20 auf 30 fps sind es 50% mehr Frames, aber absolut nur 10 zusätzliche Bilder.
Von 144 auf 154 fps sind es ~7% mehr Frames, aber absolut ebenfalls nur 10 Zusätzliche Bilder
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dark Matter, stevefrogs, Xes und 2 andere
Titina schrieb:
Da muss ich mal echt sagen: Kommt mal klar.
Launchpreis GTX 980 ti: $ 649
Launchpreis GTX 1080 ti: $ 699
Launchpreis GTX 2080 ti: $ 1.199
(jeweils Founders Edition)

Noch Fragen?
 
  • Gefällt mir
Reaktionen: Dark Matter, IXI_HADES_IXI, dersuperpro1337 und eine weitere Person
@milliardo
Tensor Cores sind definitiv nichts neues mehr, womit deren Entwicklungskosten schon von anderen Produkten abbezahlt wurden und werden (einfach mal abseits des Dadeel Sektors umschauen...) aber das ist dafür auch herzlich egal denn JEDES Produkt das entwickelt wird erzeugt entsprechende Kosten, die Entwicklung von Architekturen werden eher über mehrere Produktgenerationen abbezahlt aber OK, werfe der Firma nur deine Kohle in den Rachen damit sie ihre Gewinne noch stärker und schneller maximieren können.
 
Aphelon schrieb:
Interessant..., wenn RTX keine Grafikkarte ist, was ist es dann?
Ähm - Mein Kommentar bezog sich darauf, dass es GENAUSO eine Grafikkarte wie die Vorgänger ist. Und das ist sie eben genau NICHT. Es gab die größten Änderungen seit X- Jahren.

@v_ossi
Wir liegen da mit den Ansichten auf einer Linie. Wir werden nach den "Tests" dann aber sehen können, welche Interpretation der dahinterliegenden "Gedanken" von nVidia tatsächlich zutreffen.

Wird die Karte nämlich ein Flop hat nVidia ordentlich viel Geld in den Sand gesetzt. Vielleicht stellt sich auch erst in 1-3 Jahren heraus, dass die Raytracing und Tensor Cores zu noch ganz anderen Sachen gut sind und eine Beschleunigung ermöglichen.
Das ist halt immer das Blöde an brandneuer Technologie. Keiner weiss so recht, was er damit anfangen soll. Alles wird rudimentär und ohne Erfahrung irgendwie implementiert.

Zudem noch die extrem schlechten und marketingtechnisch schädlichen low- Performance- Demos (bis auf Atomic Heart).

Irgendwann später merkt man, wozu das Zeug fähig ist. In der Tat ist es aber wohl dann schon so, dass wieder eine neue Generation an TI auf dem Markt ist, die deutlich stärker in RT ist. Allerdings wiederum nur, wenn sich die RTX Karten gut verkaufen.... Hach... Welch herrlicher Teufelskreis :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeusTheGod
Zurück
Oben