Bericht Turing TU102, -104, -106: Die Technik der Nvidia GeForce RTX 2080 Ti, 2080 & 2070

Shrimpy schrieb:
Da ist soviel KI drin wie in meinem Toaster, die Verbindung zum Server brauchst wohl eh nur für diverse Profile/daten für eine Anwendung.
Es werden einfach die TC genutzt die sonst brach liegen wenn es kein RT gibt.

Falsch zitiert? Ich erkenne da keine Antwort auf meinen Beitrag.
 
@nebulus : Das mit den Kategorien versuche ich den Leuten dauernd schon zu erklären,
Elverado schrieb:
Prinzipiell ersteinmal ein großes Lob, dass man sich auch der Performance(etc.)-Vergleiche über die Jahre hin angenommen hat. Kritik gebührt allerdings der Aussagekraft dieses Tests, gerde wenn man sich Pascal anschaut.

Das Problem ist hiebei nämlich, dass Nvidia bei Pascal (wie es sich bei Turing auch ankündigt) einen Name/Kategorien-Shift gemacht hat. D.h. Preis- und Namenskategorie wurden gegeneinander verschoben. Eine x80 (von GTX 480 an) hat (zumindest laut geizhals) immer so um die 400€ +/- gekostet. Eine 1080 fällt da mit ihren Minimum (als Preiskategorie, d.h. ohne einzelne Ausreißer) 500-600€ deutlich raus. Der entsprechende Nachfolger wäre hier eigentlich eine 1070 gewesen. Da hätte man dann auch wieder ca. 30% Leistungssteigerung gehabt und nicht plötzlich 55%.
Wenn man sich fragt inwiefern das jetzt ein falsches Bild zeichnet bei dieser Art Test, kann man sich gerne das Extrem anschauen. Angenommen Nvidia "labelt" die Titan einfach als nächste GTX xx80 für einen entsprechenden Preis (der Titan) >1000€ um. In diesem Test würde dann einfach bei der Performance ein langer Balken stehen und der großartige Fortschritt gelobt werden bzgl. der vorigen Architektur (also selbst wenn hier (hypothetisch) die selbe Architektur der letzten Generation drin stecken würde und sich Performancemäßig (und Preismäßig) rein gar nichts getan hat).
Insofern hat der Test bezüglich Pascal kaum Aussagekraft. Der Rest (GTX 480-GTX980) kann aber ganz gut als Maßstab für die Performancesprünge/den Fortschritt im Verlauf der Zeit gesehen werden.

(Anmerkung: und ja, die Inflation kann hier außer Acht gelassen werden. ca. 2 Jahre zwischen Maxwell und Pascal geben keine 150-200€ Inflation. Und bei Fermi (GTX480) ist das schon dadurch abgegolten, dass die immer am unteren Ende der 400€ Kategorie mit (später) Dips in den 300er Bereich gelegen haben.)
Bei AMD ist auch sowas ähnliches passiert. R9/7 x70 war immer so im ca. 170€ Bereich. Polaris x70 eher im Anfang 200€ Bereich in dem sich vorwiegend früher die x80er befunden haben, wobei die Polaris x80 dann auch immer etwas stärker Richtung 300€ als 200€ tendieren (Ausnahme ist hier natürlich der Abverkauf der RX 4xxer Serie, da gingen die Preise deutlich runter).
Das scheint jetzt ein geringerer Shift zu sein, als bei Nvidia. Man muss hier aber bedenken, dass es die Mittelklasse ist. Da ist der Shift bei Nvidia genauso groß (bzw. klein). Mangels direkter Nachfolger der R9 x90er Reihe in der Oberklasse kann man den Vergleich Nvidia<->AMD bzgl. Kategorien-Shift nicht anstellen.
Und ja, man sollte nie die Katze im Sack kaufen. Gerade nicht bei den Preisen. Das liest sich natürlich alles erstmal ganz schön, aber einiges lässt sich ja erst bei künftigen Spielen umsetzen und gilt nicht für die, die schon auf dem Markt sind. Außerdem gilt für die Features, die sich dann wirklich durchsetzen, dass sie auf Turing wahrscheinlich noch fehlerbehaftet sind und erst mit späteren Generationen komplett reibungslos laufen (da Erstprodukt).
Was mir dann wiederum gar nicht gefällt: Der Zwang zu Geforce Experience für diverse Funktionen (hauptsächlich DLSS). Ich bin auch generell kein Fan von der Implementierung einer derartigen KI, die ja nicht nur für Grafikeffekte (aktuell) sondern in Zukunft auch das Spielverhalten des Nutzers analysieren soll, damit dann Endgegner o.ä. angepasst werden können. Und da, wie wir alle wissen, die Nutzer bedenkenlos und die Entwickler recht hemmungslos bzgl. Datenschutz sind, kann sich das schnell in eine falsche Richtung entwickeln , sodass das für mich schon ein wenig nach der nächsten Software/Hardware aussieht die nicht kaufbar ist.
 
  • Gefällt mir
Reaktionen: DanHot, Yar und dohderbert
Shririnovski schrieb:
Andererseits werde ich ganz klar keine NVidia Karte kaufen, nennt mich einen Fanboy, aber das grüne Lager bleibt für mich tabu.

Wird noch kommen, denn: Wer einen Hersteller aus guten Gründen ablehnt, ist (zumindest lt einigen CB Membern) automatisch "Fanboi" (nur echt mit i) vom anderen Hersteller.
 
  • Gefällt mir
Reaktionen: Yar
m.Kobold schrieb:
Korrekt Online+Account Pflicht ist immer ein Vorteil, vor allem wenn es Maintance vom Provider oder nur nvidia gibt.
/Ironie Off

Und das Experience pfleißig Daten abgreift sollte auch klar sein... aber wen Interressiert sowas heute noch.

Ist doch total super. Sobald sich alle dran gewöhnt haben gibt es das nächste Abo für die Lemminge ;)
 
  • Gefällt mir
Reaktionen: Unnu, stevefrogs, DanHot und 3 andere
SerErris schrieb:
Die 1070 ist nicht schneller als die 980 Ti. Die 1080 ist ca. 9% schneller als ne 980 TI. Ich weiß nicht wo immer diese Gerücht herkommen.
Darfst gerne mal einen Blick in meine Signatur werfen.
 
  • Gefällt mir
Reaktionen: dohderbert
@SerErris

nun sind wir doch mal ehrlich.....die gtx1070 ist bei 100watt verbrauch im notebook 5-7% langsamer als die 980ti im desktop und verbraucht weniger als die hälfte.

nur mal als denkanstoß. nicht jedem sind die max frames 100+ wichtig.

mfg
 
m.Kobold schrieb:
Spiele API nutzung:
99% DX11 vs 1% DX12
Und das nach 3 Jahren DX12 release... und warum? Weil kein Entwickler auf extra optimierungen für eine Low Level API verschwenden möchte... wieso sollten sie auch? DX11 skalliert super.
DX11 skaliert super? Sowie bei dem neusten Tomb Raider Spiel?
https://www.computerbase.de/2018-09..._leistungsabweichungen_mit_day1patch_update_2

DX11 ist super alt, es kommt von 2009 und es fehlen tausende Features.
Spiele befinden sich 2-5 Jahre in der Entwicklung, große Engine-Umstellungen dauern ebenso lange.
Deswegen siehst du auch nicht überall DX12-Implementierungen oder solche, wo DX12 gleich zu Beginn alles weggefegt hat.
Ebenso lag und liegt die Priorität bei mehreren Entwicklern nicht bei den neuen APIs, da man noch etliche Kunden mit W7/8 versorgen muss.

Aber ich habe schon ein passendes Beispiel genannt, Strange Brigade hat nur noch DX12 und Vulkan.
Sniper Elite 4 hat zuerst DX12 implementiert und hatte DX11 noch für W7/8 Kunden, dass haben sie völlig fallen gelassen für Vulkan.
Und die Performance bei DX12 gegenüber war DX11 war bei SE4 super, auch bei Nvidia:
http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/Tests/Direct-X-12-Benchmark-1220545/

Der Trend wird sich fortsetzen und spätestens wenn neuen Konsolen auftauchen verschwindet DX11 bei den meisten Triple-A-Produktionen.
 
  • Gefällt mir
Reaktionen: stevefrogs
Ich habe mich bei meinem Kauf gegen Nvidia entschieden. Aber ein Lob muss ich mal aussprechen: Das minimalistischere und hochwertig wirkende Design der Neuen Karten find ich super.
 
m.Kobold schrieb:
Spiele API nutzung:
99% DX11 vs 1% DX12
Und das nach 3 Jahren DX12 release...
DX11 gibt es seit 2008 und hatte auch erst breitere Verwendung in Spielen irgendwann um 2013/2014




Zu den RTX Karten: Wenn ich mir noch mal die 1080p@60fps von Battlefield V nehme, die DICE für die 2080Ti anpeilt, dann sieht es für die RTX2070 wie zu erwarten sehr schwarz aus mit Raytracing und selbst die RTX2080 dürfte hier abstinken.

Die 2080Ti hat 10Gigarays/s, die 2080 nur 8 und die 2070 nur noch 6.

Wenn man annimmt, dass die allgemeine Performance von Battlefield V nicht so viel schlechter ist als die von Battlefield 1, so müsste eine 1080Ti dort in 1080p min fps von 90 erreichen(in Battlefield 1 waren es 98)

Die 2080Ti soll im Schnitt 30-35% schneller sein als die 1080Ti, also sollte sie hier um die 120 min fps ohne Raytracing erreichen.

Dass man mit Raytracing nur noch auf 60 min fps kommen will, bedeutet bei der Karte mit 10 Gigarays/s fallen die FPS um 50%

Die 2070 dürfte in der Leistung irgendwo unter der 1080Ti liegen, das heißt irgendwo bei 90 min fps.
Jetzt verliert sie aber durch Raytracing mehr als die 50%, da sie auch nur 60% der RT Leistung besitzt, sie würde also ca 80% verlieren.
Damit käme sie mit Raytracing in 1080p Max nur noch auf um die 20fps

Die 2080 käme dann knapp auf die 30fps
 
Zuletzt bearbeitet:
[wege]mini schrieb:
der vollausbau ist nicht schneller als der volta und die rt´s interessieren in diesem segment keine sau :D

eine turing titan würde mMn aktuell keinen sinn ergeben. die neue wird 7nm bekommen und bei round about 5k euro starten. :D

mfg


Es fehlt aber nunmal der Vollausbau wie wir lesen können also wird defintiv noch irgendwas über der 2080 Ti kommen, was den platz einer Titan einnehmen wird auch wenn es anders heißen mag.
 
SerErris schrieb:
Die 1070 ist nicht schneller als die 980 Ti. Die 1080 ist ca. 9% schneller als ne 980 TI. Ich weiß nicht wo immer diese Gerücht herkommen.
Die GTX 1070 ist in den meisten Games schneller als die GTX 980Ti, wenn auch nur geringfügig. Das kann man in den Benchmarks zu den Games ja nachlesen und ist kein Gerücht! Für ein Gerücht halte ich dagegen, dass eine GTX 1080 nur 9% schneller sein soll, als eine GTX 980Ti. Im Schnitt ist eine GTX 1080 zwischen 15 und 25 FPS je nach Game schneller, als meine GTX 1070, somit dürfte die GTX 1080 schneller als 9% gegenüber einer GTX 980Ti sein.
 
Zotac2012 schrieb:
Ich würde da Vulkan deutlich Favorisieren, da diese API im Gegensatz zu DX12 Plattform übergreifend eingesetzt werden kann. Und würde sicherlich auch Linux pushen in der Verbreitung, wenn alle Spiele in der Zukunft für Windows auch 1 zu 1 auf Linux laufen würden!
Dein Enthusiasmus in allen ehren, aber der Markt ist sehr klein. Und es ist leider nicht damit getan einfach nur Vulkan auszutauschen. Es gibt noch viel Mehr in DirectX als Direct3D. Einfach nur OpenGL oder Vulkan transportiert das Spiel noch nicht auf Linux. Es muß eine doppelte Testmannschaft hingestellt werden und es muß auch einiges entwickelt werden. Das kostet Geld und dann stellt sich einfach nur die Frage, ob das wieder reinkommt.

Deswegen wird Linux nicht gepusht, sondern Linux könnte einen Demand haben. Hat es aber wohl nicht wirklich für die Game Industrie und ist im Verhältnis zu XBOX, PS4 und PC uninteressant. Hat halt doch jeder Windows. Ich weiß ja nicht ob Du irgendwas auf Linux spielst. Ich bin davon jedenfalls sehr geheilt. Zu viel gebastel und zwar ständig.
Ergänzung ()

Zotac2012 schrieb:
Die GTX 1070 ist in den meisten Games schneller als die GTX 980Ti, wenn auch nur geringfügig. Das kann man in den Benchmarks zu den Games ja nachlesen und ist kein Gerücht! Für ein Gerücht halte ich dagegen, dass eine GTX 1080 nur 9% schneller sein soll, als eine GTX 980Ti. Im Schnitt ist eine GTX 1080 zwischen 15 und 25 FPS je nach Game schneller, als meine GTX 1070, somit dürfte die GTX 1080 schneller als 9% gegenüber einer GTX 980Ti sein.
Also ich habe die beiden im direkten Vergleich gebenchmarkt und das sind Mondzahlen. Wenn man die 1080 übertaktet, dann kommt das hin. Und da die viel mehr Reserven hat als die 980TI ist sie bei weitem viel besser zu übertakten. Aber das können wir jetzt hier nicht weiter Berücksichtigen. Stock karten ist es wie oben beschrieben.

Leider gibt es auch fast keine Spielebenchmarks in Vergleichen wo eine 980ti im Vergleich gezeigt würde. Da werden dann 960 und was weiß ich noch was verglichen ... Und auch im letzten Vergleich hier auf Computerbase wurde die 980 mit der 1080 verglichen, aber keine 980ti mit ner 1080. ... Es sind massig karten im Vergleich enthalten von allen Herstellern, aber genau das - ist nicht drin.
 
Die einzige beste Neuerung ist USB-C. DP 1.4a, endlich kann man den 6943€ 4K 144Hz Monitor damit betreiben.
 
Ltcrusher schrieb:
Was ist eigentlich aus Mantle geworden? EA hatte doch damals großspurig erklärt, man wolle viele Spiele entwickeln, die diese API unterstützen.
EA hat das erklärt um sicherlich öffentlich Druck auszuüben und die Adaption von solch API-Standards zu forcieren.
Relativ zügig kam dann DX12 und somit ein Standard für alle Hersteller, somit hatte Mantle keine Zukunft mehr und AMD hat Mantle an die Khronos Group spendiert, welche daraus Vulkan gemacht haben.
 
  • Gefällt mir
Reaktionen: Unnu, yummycandy, Darkscream und 2 andere
SerErris schrieb:
Also ich habe die beiden im direkten Vergleich gebenchmarkt und das sind Mondzahlen. Wenn man die 1080 übertaktet, dann kommt das hin. Und da die viel mehr Reserven hat als die 980TI ist sie bei weitem viel besser zu übertakten. Aber das können wir jetzt hier nicht weiter Berücksichtigen. Stock karten ist es wie oben beschrieben.
Ich beziehe mich auf die Realität und Grafikkarten werden im Alltag nicht mit den Standardwerten gebencht, ich habe hier auch oft genug meine GTX 1070 mit der GTX 980Ti gemessen und da stimmt einfach Deine Aussage nicht,Sorry!
 
Zuletzt bearbeitet:
Minutourus schrieb:
Hmm DLSS nur über GE...
Welche Daten da wohl NV zu den zusätzlichen Telemetrie Daten abgreift? Mal abwarten...

es geht eher darum, dich jetzt schon mal an dieses "feature" zu gewöhnen. wenn du in ca. 3-5 jahren 2k+ für eine graka bezahlen sollst, sind die 30-50€ pro monat für "max ultra super duper streaming dienst" gar nicht mehr so teuer.

mfg
 
SerErris schrieb:
Also ich habe die beiden im direkten Vergleich gebenchmarkt und das sind Mondzahlen. Wenn man die 1080 übertaktet, dann kommt das hin. Und da die viel mehr Reserven hat als die 980TI ist sie bei weitem viel besser zu übertakten. Aber das können wir jetzt hier nicht weiter Berücksichtigen. Stock karten ist es wie oben beschrieben.
CB Test zur Vega64

1080 Gaming X+: 142%
1080 FE Stock : 129%
1070 Gaming : 114%
1070 FE Stock : 105%
980Ti Stock : 100%

Auch Stock ist eine 980Ti nicht mal in der Nähe der 1080
Pascal hat einfach einen großen Sprung gemacht.
 
  • Gefällt mir
Reaktionen: dohderbert
Artikel gelesen, die ersten Kommentare überflogen...

Meine Prognose:
Je "klassischer"* die Belastung der Karte ist, desto weniger wird sie sich von den Vorgängern absetzen können. In modernen Titeln und bei hardwarenahen Grafikschnittstellen, werden sich die Änderungen in der Architektur aber bemerkbar machen.
Damit sollte vor allem in den "AMD Spielen"** der Vorteil gegenüber Pascal überproportional groß sein.

Fazit:
Wahrscheinlich ein wichtiger und richtiger Schritt endlich an der Architektur etwas zu ändern. Die Vorteile werden wohl erst in 2 Jahren deutlicher zu sehen sein, weil dann eben mehr -bzw. alle modernen Titel- profitieren werden. Der nächste "Nvidia Grafikkarten im Vergleich" Test wird also evtl. interessant.

Persönliche Anmerkung:
NVidia fährt jetzt also die AMD-Vega-Strategie; viele neue Hardwarefeatures, die aber explizit angesprochen werden müssen. Im Vergleich zu AMD hat man aber die Marktmacht um das auch durchzudrücken.

*also bei Spielen in erster Linie DX11 Titel
**Doom, Wolfenstein, generell Titel mit guter DX12 Implementation
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben