Bericht Turing TU102, -104, -106: Die Technik der Nvidia GeForce RTX 2080 Ti, 2080 & 2070

TheOpenfield schrieb:
Liegt daran, dass du dir eine Custom 980 Ti ansiehst. Natürlich hat diese ein geringeres OC Potential verglichen mit der Referenz Karte ... :rolleyes:


ja stimmt wohl. wenn man die reinen prozent sieht, wie sie ab werk ausgeliefert wurden, dann hast du wohl recht. die 900er generation war halt das letzte richtige heizkraftwerk von nvidia, was direkt ab werk so geliefert wurde.

btw, ohne fury, wären die 900er deutlich geringer getaktet gewesen :D dann hätten wir dieses gespräch nie geführt.

mfg
 
m.Kobold schrieb:
Ich kenne genug DX12 beispiele wo DX11 besser performed. DX12 ist nur ein Papiertiger und dazu eine billige Kopie von Vulkan/Mantle.

Dein Beispiel passt hinten und vorne nicht, denn es gibt etliche Unreal Engine 4 spiele die kein DX12 supporten.

Die meisten Devs wollen keine zusätzliche Zeit in Low Level Optimierungen investieren und dein Beispiel passt dann wieder nicht mit Win7/8, weil dann hätte man auch Vulkan nehmen können anstatt DX12.

Fakt ist DX12 bleibt das fünfte Rad am Waagen... keiner braucht es und die devs die es Supporten sind Amateure oder wurden durch Lobbyisten gekauft.
Also offensichtlich liegt bei dir nur eine irrationale Haltung gegenüber DX12 vor.
Die Implementierung der API ist für die Performance und Stabilität entscheidend, die ersten Gehversuche waren bei vielen Studios nicht ausgereift, entsprechend gibt es auch mehrere Beispiele, wo DX12 schlechter läuft, als DX11.
Genauso wie es Beispiele mit Vulkan gibt, wo es nicht besser als DX11 oder gar OGL läuft.
Bei Strange Brigade war DX12 übrigens ein wenig schneller, als Vulkan:
https://www.techspot.com/article/1685-strange-brigade-benchmarks/

Übrigens machen sich die UE4-Entwickler Gedanken darüber OGL4.3 als Default-Einstellung für Linux mit Vulkan zu ersetzen, dann gibt es prompt mehr Vulkan-Support von kleineren Studios, wenn diese Linux unterstützen möchten.
Diese Entwickler haben nämlich allgemein keine Lust und Zeit sich mit APIs auseinander zu setzen, egal ob DX11, OGL, DX12 oder Vulkan, die verwenden das, was die Engine liefert.
Und die Engines entwickeln sich immer weiter, Unity und UE4 entwickeln und verbesseren ihre DX12 und Vulkan-Implementierungen.

Und der letzte Absatz bezüglich Amateure und Lobbyisten ist, du weißt es sicherlich selber, hauptsächlich unzutreffend.
 
usb2_2 schrieb:
Es zieht sich halt alles sehr. Ich hoffe, dass du es jetzt zumindest im Ansatz verstehst.

wobei du doch nicht wirklich denkst, dass grafikarten, die dann auch noch mehr leistung bringen, jemals noch günstiger werden.
 
[wege]mini schrieb:
ja stimmt wohl. wenn man die reinen prozent sieht, wie sie ab werk ausgeliefert wurden, dann hast du wohl recht. die 900er generation war halt das letzte richtige heizkraftwerk von nvidia, was direkt ab werk so geliefert wurde.

Pascal ist beim Verbrauch nicht zurückhaltender und ist den TDP Klassen von Maxwell treu geblieben. Im Gegenteil - eine entfesselte (offenes PT + maximale Werksspannung) 1080 Ti säuft im Alltag sogar mehr, als die entfesselte Maxwell Ti ;)

Und mit Turing sind wir beim Verbrauch vermutlich nochmal eine Ecke über Maxwell und Pascal.
 
nach oben hin ist the sky the limit.

da schaut und hofft man immer nur, dass die architektur gut skaliert. aktuell versucht man aber die 100watt für mxm (oder 75watt für pci slot) nicht zu sprengen und genau in diesem segment schnell zu sein. da wird geld verdient in den nächsten jahren und heute schon bei den sogenannten big7 :D

den hahn aufdrehen und 1k verbrauchen, was man nur noch unter stickstoff kühlen kann, kann jeder. da skaliert aber so gut wie keine architektur mehr gut. sweetspot ist hier das zauberwort.

*edit*

daher nicht die 1080ti mit der 980ti vergleichen....gleiche leistung und dann verbrauch anschauen :D

mfg
 
m.Kobold schrieb:
Und bereits 2012 gabs etliche DX11 Spiele ergo nach nur 2,5 Jahren wurde die API voll und ganz angenommen.
Voll und ganz angenommen bedeutet in dem Fall aber auch 2012 immer noch, dass DX11 oft als alternative Möglichkeit angeboten wurde, genau wie es bei DX12 bis jetzt auch oft der Fall ist.

DX12 ist 6 Jahre jünger als DX11, also passt es auch, dass wir 2018 so langsam einen Anstieg von DX12 Titeln feststellen müssten.
2017 sah es so aus
https://www.giga.de/downloads/direc...ele-fuer-steam-windows-und-co.-im-ueberblick/
Die Liste sieht nicht viel schlechter aus, als das was man 2012 an DX11 Titeln hatte.
 
  • Gefällt mir
Reaktionen: Locuza
cypeak schrieb:
warnungen halte ich nur dann angebracht wenn das abgelieferte in keinem vergleich zur preisgestaltung und der verfügbaren generation steht. .

Dann findest Du es also ok, das die Performance und der Preis im gleichen Maße steigen? 40% mehrl Leistung=40% höherer Preis?

Was wüde wohl heute eine CPU kosten, wenn wir nach dem Modell vor gehen würden? 150 Euro hatte ein Pentium 200MMX gekostet. Heutige CPUs sind 1000% schneller.... Sollte der Preis heute dann auch 1000% höher sein?
 
  • Gefällt mir
Reaktionen: DanHot
TheOpenfield schrieb:
Pascal ist beim Verbrauch nicht zurückhaltender und ist den TDP Klassen von Maxwell treu geblieben. Im Gegenteil - eine entfesselte (offenes PT + maximale Werksspannung) 1080 Ti säuft im Alltag sogar mehr, als die entfesselte Maxwell Ti ;)
Aber schau Dir mal den Leistungsunterschied einer GTX 980Ti zu einer GTX 1080Ti an, irgendwoher muss ja die Energie kommen. Klar kann man bis zu einem gewissen Grad Energieeffizienz optimieren, aber die 1080Ti ist schon ein Kaliber!
 
Taxxor schrieb:
DX12 ist 6 Jahre jünger als DX11, also passt es auch, dass wir 2018 so langsam einen Anstieg von DX12 Titeln feststellen müssten.

TR ist ein Sonderfall. Bei allen anderen Spielen ist DX11 bei Nv Titeln besser als die DX12 Variante. Da TR das Vorzeigespiel ist von NV, kann ich mir sehr gut vorstellen, das bei der DX11 Umsetzung sehr sehr sehr nachlässig gearbeitet wurde... Damit Nvidia bei DX12 endlich mal in einem besseren Licht steht.
 
Zotac2012 schrieb:
Aber schau Dir mal den Leistungsunterschied einer GTX 980Ti zu einer GTX 1080Ti an, irgendwoher muss ja die Energie kommen. Klar kann man bis zu einem gewissen Grad Energieeffizienz optimieren, aber die 1080Ti ist schon ein Kaliber!

Ich kenne den Leistungsunterschied (sowie den Effizienzunterschied) bestens, aber danke :rolleyes: Und ja, hier beeindruckt Pascal in der Tat.

Ging gerade lediglich darum, dass Maxwell als das letzte "Heizkraftwerk" betitelt wurde, obwohl Pascal hier nicht minder heizt.
 
@Andybmf

Wenn Nvidia in 2 Jahren die gleiche Leistung aus einem Chip zum halben Preis bekommt werden sie die günstiger verkaufen. Es wird zwar langsamer mit mehr Leistung für weniger geld, das sage ich ja auch immer, aber es passiert schon noch. Das kann man den jetzt nicht vorwerfen. Sonst würde die 1080 schon jetzt 1800€ bis 2000€ kosten (Titan 1). Vielelicht auch erst in 3 aber es wird irgendwann billiger.
 
nebulus schrieb:
TR ist ein Sonderfall. Bei allen anderen Spielen ist DX11 bei Nv Titeln besser als die DX12 Variante. Da TR das Vorzeigespiel ist von NV, kann ich mir sehr gut vorstellen, das bei der DX11 Umsetzung sehr sehr sehr nachlässig gearbeitet wurde... Damit Nvidia bei DX12 endlich mal in einem besseren Licht steht.

Die Leistung hat erstmal nichts damit zu tun, ob DX12 unterstützt wird oder nicht, und darum ging es.

Auch glaube ich kaum, dass man extra nachlässig bei DX11 gearbeitet hat, es wurde schlicht endlich mal vernünftig auf DX12 optimiert, denn eigentlich sollte es normal sein, dass DX12 besser läuft.
 
  • Gefällt mir
Reaktionen: Unnu und Locuza
Wolfgang schrieb:
So peilt Dice für Battlefield V zum Beispiel Full HD mit stabilen 60 FPS an – auf einer GeForce RTX 2080 Ti wohlgemerkt. Mit derselben Grafikkarte sind ohne Raytracing problemlos 3.840 × 2.160 bei der Framerate möglich.

D.h. RT kostet mal eben ~75% Leistung. Ist schon krass, wie lange man schon bei FHD rumgurkt und mit RT wird die Etablierung einer höheren Auflösung noch weiter nach hinten verschoben. Bedenkt man, dass FHD nur mit dem Flagschiff möglich ist, sollte man dann die 720p Monitore aus den Keller hohlen.

Ich finde das so Krass, wir sind bei 200Hz+, WQHD, UWQHD, UHD Monitoren usw, mit RT wirft Nvidia alles über den Haufen. Mickrige 60Fps bei FHD und das mit dem Flagschiff.

Ich sag dazu nur RAYTRACING, Fuck You
 
  • Gefällt mir
Reaktionen: CBL
Reflexionen, Lichtbrechungen, Schatten, Umgebungsverdeckung, dann kann ich ja die 1000 euro getrost für sinnvollleres ausgeben wie ne graka.
 
  • Gefällt mir
Reaktionen: DanHot
DLSS scheint absolut revolutionär zu sein.
Aber wieso muss Nvidia wieder Arschloch spielen, und einen zu GeForce Experience drängen?
Es wäre viel sinnvoller, wenn Spiele-Entwickler das entsprechende Profil direkt mit ihrem Game ausliefern würden.
 
TheOpenfield schrieb:
Ging gerade lediglich darum, dass Maxwell als das letzte "Heizkraftwerk" betitelt wurde, obwohl Pascal hier nicht minder heizt.
Hier geht es aber auch bei der GTX 980Ti wie auch der GTX 1080Ti um die Speerspitzen zu ihrer Zeit, was das Gaming betrifft. Da will man Leistung generieren und nicht Energieeffizienz Weltmeister werden, hier sind völlig andere Prioritäten gesetzt.

Bei den neuen RTX Grafikkarten wird das mit Sicherheit nochmals anders aussehen, da braucht man sich ja nur die fetten 2,75 bis 3 Slot Kühler anschauen!
 
Rein von den Daten her dürften bisherige Spiele im Schnitt ca. 30% flotter laufen.

Wenn die anderen Features nicht gebraucht werden, wird sehr viel Chipfläche verschwendet.
 
chipfläche kann niemals verschwendet werden.

die wärmeleitfähigkeit von silizium ist hammer und damit wird die maximale fläche erhöht, mit der man die wärme über den kühler abführen kann. wenn es nicht so teuer wäre, würde man um alle funktionierenden teile noch mal "deaktivierte" teile drum rum bauen. damit könnte man die funktionierenden höher takten.

wenn also keine "features" benutzt werden, wird der turbo deutlich höher gehen, als wenn alles "an" ist. so meine theorie.

mfg
 
Taxxor schrieb:
Voll und ganz angenommen bedeutet in dem Fall aber auch 2012 immer noch, dass DX11 oft als alternative Möglichkeit angeboten wurde, genau wie es bei DX12 bis jetzt auch oft der Fall ist.

DX12 ist 6 Jahre jünger als DX11, also passt es auch, dass wir 2018 so langsam einen Anstieg von DX12 Titeln feststellen müssten.
2017 sah es so aus
https://www.giga.de/downloads/direc...ele-fuer-steam-windows-und-co.-im-ueberblick/
Die Liste sieht nicht viel schlechter aus, als das was man 2012 an DX11 Titeln hatte.
Doch die Liste sieht extrem viel schlechter aus und zwar: 89 games (dx11) vs 21 games (dx12)
http://www.pcgameshardware.de/Spiel...erstuetzen-DirectX-11-744126/galerie/1541153/

Siehe Gallerie (screenshots)
 
Zurück
Oben