Bericht Turing TU102, -104, -106: Die Technik der Nvidia GeForce RTX 2080 Ti, 2080 & 2070

Taxxor schrieb:
Die 2080Ti soll im Schnitt 30-35% schneller sein als die 1080Ti, also sollte sie hier um die 120 min fps ohne Raytracing erreichen.

Wenn das so kommt, ist mir das leider zu wenig.
Da bleibe ich dann bei 1080ti SLI.
Das ist auf jeden Fall viel schneller und kostet fast gleich viel wie eine 2080ti.

Mit 20% Preisaufschlag könnte man bei Turing evtl. leben, wenn die Leistung passt.
Mit 100% zur 1080ti nicht.

Wenn jeder Hersteller sich bei einer neuen Hardwaregeneration die Mehrleistung in % bezahlen lassen würde, würden PC´s heute Millionen kosten.
Nvidia reicht das das aber nicht. Die wollen jedes Quäntchen Mehrleistung 5fach bezahlt haben.

Ich denke auch nicht, das die Preise schnell sinken werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DanHot und TheBear1517
Ich dachte, dass es mir egal ist, aber die Rufe von weiblichen Charakteren in einem Weltkriegszenario lassen mich dann doch zu dem Fazit kommen, dass es die Atmosphäre zerstört, weil es einfach historisch inakkurat ist.
Naja, abgesehen davon kommt so oder so keine richtige Weltkriegsatmosphäre auf, leider wurde das Setting schlecht umgesetzt.
 
  • Gefällt mir
Reaktionen: stevefrogs, Oneplusfan und Schatten123
Die Vorstellung oder der Wunsch, die 2080Ti sei so schnell wie 1080Ti SLI, ist ja auch absurd.

Auch sind das jetzt die Einstiegspreise. In wenigen Monaten werden die Preise fallen.

Wer jetzt vorbestellt zu Nvidias Preisen bzw. EA ist, weiß doch normalerweise, was er da macht. Und wenn man cool damit ist, pfeift man auf den Aufpreis, und wenn nicht, lässt man's eben.

Die 1080 wa doch auch sauteuer, als sie rausgekommen ist. Was ist denn daran jetzt neu?
Und die Ti ist eben dementsprechend noch ein Stück teurer, weil sie neuerdings parallel rauskommt.

Und SLI, naja. Hat halt Nachteile.
 
Zuletzt bearbeitet:
m.Kobold schrieb:
Doch die Liste sieht extrem viel schlechter aus und zwar: 89 games (dx11) vs 21 games (dx12)
http://www.pcgameshardware.de/Spiel...erstuetzen-DirectX-11-744126/galerie/1541153/

Siehe Gallerie (screenshots)

Die Giga Liste ist von September 2017, also etwas über 2 Jahre nach Release von DX12

Für einen guten Vergleich müsste man die DX11 Liste von Dezember 2011 sehen.

Und wenn ich so durch diese PCGH Gallerie gehe, sind da sehr viele Games von Ende 2012, sogar zwei aus 2013, die zum Zeitpunkt des Artikels noch gar nicht draußen waren.

Zudem hast du dir die Gallerie wohl selbst nicht angeschaut, sonst wäre dir aufgefallen, dass viele Spiele mit je 2 Screenshots vertreten sind, weiter hinten in der Gallerie sogar mit 3.
Die Anzahl der Screenshots ist also nicht die Anzahl der Games.

Also mal alle Screenshots durchgegangen. Es sind insgesamt nicht 89 sondern 40 Spiele, die sich wie folgt aufteilen:

2009 2
2010 11
2011 13
2012 12
2013 2

Dezember 2011, 2 Jahre und 2 Monate nach DX11 gab es insgesamt 26 Spiele mit DX11 Unterstützung.
September 2017, 2 Jahre und 2 Monate nach DX12 gab es insgesamt 21 Spiele mit DX12 Unterstützung.

Wie gesagt, so viel schlechter sieht es nicht aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu und Locuza
Schaby schrieb:
D.h. RT kostet mal eben ~75% Leistung. Ist schon krass, wie lange man schon bei FHD rumgurkt und mit RT wird die Etablierung einer höheren Auflösung noch weiter nach hinten verschoben. Bedenkt man, dass FHD nur mit dem Flagschiff möglich ist, sollte man dann die 720p Monitore aus den Keller hohlen.

Ich finde das so Krass, wir sind bei 200Hz+, WQHD, UWQHD, UHD Monitoren usw, mit RT wirft Nvidia alles über den Haufen. Mickrige 60Fps bei FHD und das mit dem Flagschiff.

Ich sag dazu nur RAYTRACING, Fuck You

Warum? Du kannst es doch abschalten. Versteh den Stress nicht, einfach nicht kaufen und fertig.

Wahrscheinlich gibt es bei RT in Zukunft hohes verbesserungspotenzial um Fortschritt zu generieren. Vielleicht ist die nächste Generation in RT schon doppelt so schnell.

Was weißt du schon was da für Potenzial noch allein im Treiber und der Spieleentwicklung möglich ist.

Wer weiß was eine 3080ti oder 4080ti leisten wird? Wenns dann in 4k bei 100Fps inkl. RT steht bist du auch froh dass die Technik mal eingeführt wurde.

Nvidia investiert da echt viel.

Und wenn man da aktuell keine Lust drauf hat(ich auch noch nicht) dann einfach nicht kaufen.

Ich habs verstanden, die meisten hier wünschen sich eine 2080ti ohne RT für 900euro mit +40% gegenüber der 1080ti... gibts aber nunmal nicht.

Bei CPU s ist der Progress auch grob bei 4,5-5ghz zu Ende. Da geht der Progress auch nur noch in die Breite mit mehr kernen.

Vielleicht ist stand heute einfach auch nicht mehr möglich. Wäre ja denkbar.

Mit möglich mein ich natürlich sinnvoll möglich damit das Produkt sich verkauft.
 
  • Gefällt mir
Reaktionen: chris333
Toni_himbeere schrieb:
Warum? Du kannst es doch abschalten. Versteh den
Und dann hat man 35% Mehrleistung für 100% Aufpreis, tolle Wurst.

Toni_himbeere schrieb:
Ich habs verstanden, die meisten hier wünschen sich eine 2080ti ohne RT für 900euro mit +40% gegenüber der 1080ti... gibts aber nunmal nicht.
Das ist noch zu niedrig gegriffen

980Ti gegen 1080Ti
Leistung +74%
UVP Preis +10%

Was hätten wir bei deinem Vorschlag zur 1080Ti gegen 2080Ti?
Leistung +40%
UVP Preis +10%

Toni_himbeere schrieb:
Wer weiß was eine 3080ti oder 4080ti leisten wird? Wenns dann in 4k bei 100Fps inkl. RT steht bist du auch froh dass die Technik mal eingeführt wurde.
Dann hätte Nvidia die Technik auch erst dann einführen können und sie bis dahin auf den Quadrokarten verfeinern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DanHot, TheBear1517 und Schaby
Leli196 schrieb:
Ich dachte, dass es mir egal ist, aber die Rufe von weiblichen Charakteren in einem Weltkriegszenario lassen mich dann doch zu dem Fazit kommen, dass es die Atmosphäre zerstört, weil es einfach historisch inakkurat ist.
Naja, abgesehen davon kommt so oder so keine richtige Weltkriegsatmosphäre auf, leider wurde das Setting schlecht umgesetzt.

Ich warte ja noch darauf, dass die political correctness bei Nazis auch farbige erzwingt... kann ja nicht sein dass da rassen oder Geschlechter ausgeschlossen werden...

Frag mich auch immer wo das *innen bei Schwarzfahrern oder Vergewaltigern hin ist.

Aber mal davon ab, BF V hat ja auch nicht den Anspruch historisch korrekt zu sein.
 
  • Gefällt mir
Reaktionen: stevefrogs und Schatten123
nebulus schrieb:
a würde ich mir wirlich mehr Kritik wünschen, wie ein Monopolist willkürlich die Preise anhebt.


Monopol? So wie ich das sehe, sind die Karten von AMD nach wie vor erhältlich. Damit kann man auch spielen.

Ich weiss nicht warum manche denken, das Nvidia uns jährlich Grafikkarten schuldet, die schulden uns rein garnix.
Kauf ne Karte von AMD oder eben ne Konsole. Wir haben alle eine Wahl.
 
  • Gefällt mir
Reaktionen: DanHot, .Sentinel. und lalelu
nebulus schrieb:
Es geht einzig alleine darum, das NVIDIA die Preise so derart hochgesetzt hat, das man annehmen muß, das mit steigender Leistung auch der Preis immer höher wird. 1300 EURO Kostet das Flagschiff... In der nächsten Generation villeicht schon 1600 Euro.... Da würde ich mir wirlich mehr Kritik wünschen, wie ein Monopolist willkürlich die Preise anhebt.
Willkürlich ist es auch nicht, die Tensor Cores und RT Cores sind eben etwas neues, ein Alleinstellungsmerkmal und dafür kann man eben auch was verlangen.
Und ein Monopolist ist Nvidia noch nicht, auch wenn viele das gerne glauben wollen. Es steht nach wie vor jedem frei eine AMD Karte zu kaufen, wenn es denn eine vergleichbare gibt.
Und da liegt der Punkt, es hätte heute auch eine vergleichbare Karte geben können, wenn in der Zeit wo beide noch annähernd gleich stark waren auch annähernd gleich gekauft worden wäre.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Ich bin ja am meisten gespannt auf die Lautstärke der Referenz Teile.

Aussehen tuen sie nämlich mega geil xD
 
  • Gefällt mir
Reaktionen: DanHot
USB-Kabeljau schrieb:
DLSS scheint absolut revolutionär zu sein.
Aber wieso muss Nvidia wieder Arschloch spielen, und einen zu GeForce Experience drängen?
Es wäre viel sinnvoller, wenn Spiele-Entwickler das entsprechende Profil direkt mit ihrem Game ausliefern würden.
darum ist es eben nicht wirklich revolutionär. Es mag neu sein, aber revolutionär? naja.. ne. Man lagert "einfach" einen teil der benötigten Rechenleistung aus und als Ausgleich wird eine Anmeldung bei geforce experience verlangt, sprich man muss sich in eine neue Abhängigkeit begeben, um ein teuer erkauftes Produkt vollständig genießen zu können. Das ist kritisch, denn du erhältst nicht die bezahlte leistung in vollem Umfang, solltest du dich dieser Anmeldung verweigern.
Dazu muss Nvidia einen aufwendigen Supercomputer betreiben, nur damit Kanten in Spielen besser geglättet werden. Irgendwie hab ich damit meine probleme, wenn ich das aus ökologischer Sicht sehe und dem Hintergedanken, dass resourcen endlich sind. Das mag erstmal übertriebenes Denken sein, doch lässt mich der Gedanke nicht los, dass es "übertrieben" ist.

Da verzichte ich persönlich lieber auf ein klitze klein wenig Bildqualität, bleibe aber dafür unabhängig und muss mich sowas nicht unterwerfen.
 
  • Gefällt mir
Reaktionen: Unnu
Ach, meine GTX780 tut noch einwandfrei. Bis ich wieder was neues brauche, muss schon noch einiges mehr geboten werden...
 
Egal wie viel es im Test genau wird, bei einer solchen Revolution im vergleich zum Maxwell/Pascal kann man die Leistungssteigerung nicht genau herausfinden, da auf derzeitige- und Vorgängermodelle optimiert wurde. Das volle Potenzial weiß man erst in etwa 1-2 Jahren (z.B. Radeon 7970, welche sich anfangs gar nicht so weit von der GTX580 absetzen konnte). Diese Karte schreit jedenfalls nach Potenzial, werden ganz finstere Zeiten für AMD im Grafiksektor (Selbst bei anfangs konservativen +30% zur 1080TI, sind es 60-70% zur VEGA 64)

Bitter für uns alle das NVIDIA absolut konkurrenzlos ist. Die nutzen natürlich ihre Hegemonie aus.... Navi muss ein RYZEN 2.0 werden, sonst ist es vllt. sogar aus (Der Konsolenmarkt wäre dann die Nische)

https://www.computerbase.de/artikel...kartenbenchmarks_in_1920__1080_und_3840__2160

https://www.computerbase.de/artikel...est.1667/seite-9#abschnitt_leistung_ohne_aaaf

Würde sogar 100€ wetten, dass in 2-3 Jahren das Verhältnis 2080TI zu 1080TI ähnlich ist (+66% hier bei der Radeon 7970 zur 580; anfangs waren es 19%, bei gleicher Auflösung d.h. full HD)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: .Sentinel.
Ich würde von den ganzen viel Nörglern gerne mal wissen wie ihr euch die gewünschten Leistungssteigerungen vorstellt wenn alle Produkte bei 7nm sind. Woher sollen sie generiert werden? Da sind wir ganz schnell auf CPU Niveau und bekommen bald nur 10-20%.
Klar.... wenn ich jetzt die Preise mit den zu erwartenden Steigerungen vergleiche wird es natürlich schlecht ausschauen für die neue Generation, zumindest dort wo die halbe Hardware schlafen geht. Hier wird massiv Mehraufwand betrieben der nicht überall abrufbar ist.
Nur kostet der Mehraufwand eben auch was durch die zusätzlichen Cores. Von dieser Seite betrachtet wäre sogar der Preisaufschlag berechtigt.
Ich bin kein Mensch der diese Preise gehen kann und eher dann kauft wenn das Ende der Generation in Sicht ist und ich ein Schnäppchen machen kann. Die Ansätze von NV finde ich allerdings durchaus interessant, ist alle mal besser als die zu erwartenden mini Schritte in baldiger Zukunft.
Das mit der Experience Anmeldung ist natürlich schon etwas wo sich viele dran aufgeigen können.
Wahrscheinlich sind aber mehr als die Hälfte eh bei Facebook angemeldet und in diesem Fall nicht wirklich ernst zu nehmen.
 
  • Gefällt mir
Reaktionen: .Sentinel. und chris333
floh667 schrieb:
darum ist es eben nicht wirklich revolutionär. Es mag neu sein, aber revolutionär? naja.. ne. Man lagert "einfach" einen teil der benötigten Rechenleistung aus ...
Da wird nichts "ausgelagert".
DLSS wird von der RTX Karte berechnet, aber zehrt aus einer Datenbank, die bei der Spiele-Entwicklung erstellt wurde.

Das ist vergleichbar mit vorgerenderter Belichtung und ähnlichem.

floh667 schrieb:
Dazu muss Nvidia einen aufwendigen Supercomputer betreiben, nur damit Kanten in Spielen besser geglättet werden.
Erzähl mir mehr. Du scheinst ja genau zu wissen, wie NVidia das macht.

Und was heißt bitte "nur damit Kanten in Spielen besser geglättet werden"?
Anti Aliasing ist einer der wichtigsten Aspekte für die Qualität von Spiele-Grafik.
Wenn DLSS so glatt und scharf wie 64faches Super-Sampling ist, braucht man nicht so eine hohe Auflösung zu fahren. Das spart massiv Leistung.
 
  • Gefällt mir
Reaktionen: TheBear1517 und Darkscream
USB-Kabeljau schrieb:
Da wird nichts "ausgelagert".
DLSS wird von der RTX Karte berechnet, aber zehrt aus einer Datenbank, die bei der Spiele-Entwicklung erstellt wurde.

Das ist vergleichbar mit vorgerenderter Belichtung und ähnlichem.

Erzähl mir mehr. Du scheinst ja genau zu wissen, wie NVidia das macht.

Und was heißt bitte "nur damit Kanten in Spielen besser geglättet werden"?
Anti Aliasing ist einer der wichtigsten Aspekte für die Qualität von Spiele-Grafik.
Wenn DLSS so glatt und scharf wie 64faches Super-Sampling ist, braucht man nicht so eine hohe Auflösung zu fahren. Das spart massiv Leistung.

Es entspricht aber nicht automatisch 64x supersampling. Und die Datenbank erstellt sich auch nicht einfach so von selbst.
Wie DLSS funktioniert kannst du hier nachlesen:
http://www.3dcenter.org/news/die-ne...vidias-turing-deep-learning-super-sample-dlss
 
Shader, Shader, Shader. Ist das heutzutage das einzige, was beim rendern zählt? Ok, die Speicherbandbreite ist auch verbessert worden - aber wie sieht es mal aus mit mehr Pixel/Texelfüllrate?
 
Toni_himbeere schrieb:
Warum? Du kannst es doch abschalten. Versteh den Stress nicht, einfach nicht kaufen und fertig.
Genau das ist es, du vertehst es nicht. Wenn eine 2080Ti gerade mal reicht um RT bei FHD auf 60Fps zu bringen, was ist dann mit RT auf der 2080 oder gar auf der 2070? Entweder RT und Ruckelorgie und, ach ja, einfach ausschalten, Yeah.

Und dürfen nur potentielle Käufer an dieser Diskussion teilnehmen? Ich kaufe sie nicht und bin dennoch nicht Fertig damit!
 
Banned schrieb:
Und SLI, naja. Hat halt Nachteile.
Wobei ich ehrlich sagen muss, bin ich mal gespannt, wie das bei der Turing mit dem SLI und Nvidia Link aussieht. Was natürlich wieder zum Kotzen ist, dass man bei der Turing SLI nur bei der RTX 2080 und 2080Ti geht und man die RTX 2070 davon ausgenommen hat!

Vermutlich würden zwei RTX 2070 deutlich Performanter sein in allen Bereichen mit SLI und Nvidia Link, als das eine einzelne RTX 2080Ti schafft, also hat Nvidia es so gedreht, das man erst aber einer RTX 2080 SLI kann, was dann wiederum teurer ist in der Anschaffung, als eine einzelne RTX 2080Ti!
 
  • Gefällt mir
Reaktionen: MeisterOek, Unnu, Banned und eine weitere Person
Zurück
Oben