Bericht Turing TU102, -104, -106: Die Technik der Nvidia GeForce RTX 2080 Ti, 2080 & 2070

Mircosfot schrieb:
endlich kann man den 6943€ 4K 144Hz Monitor damit betreiben.

Wenn der mal auf 199€ ankommt nehm ich ihn mit :daumen:
 
nebulus schrieb:
Es geht einzig alleine darum, das NVIDIA die Preise so derart hochgesetzt hat, das man annehmen muß, das mit steigender Leistung auch der Preis immer höher wird. 1300 EURO Kostet das Flagschiff... In der nächsten Generation villeicht schon 1600 Euro.... Da würde ich mir wirlich mehr Kritik wünschen, wie ein Monopolist willkürlich die Preise anhebt.
Du kannst es auch so sehen, dass die Rechenleistung insgesamt von 14GFLOPS auf 120+x GFLOPS erhöht wurde. (RT Cores nicht eingerechnet). Dafür ist es geradezu günstig.

Es kann schlichtweg noch niemand bewerten, wie (ob) die Revolution dann tatsächlich genutzt wird und wie sich da auswirken wird. Die Möglichkeiten der RT und Tensor- Cores beschränken sich ja nicht nur auf die par Funktionen, die in Spiegelpfützen gezeigt wurden.

Also- Objektiv kann es sowas wie Preis-/Leistung bei dieser Generation nicht geben, da die Hauptaspekte nicht bewertbar sind.
 
Zuletzt bearbeitet:
Taxxor schrieb:
CB Test zur Vega64

1080 Gaming X+: 142%
1080 FE Stock : 129%
1070 Gaming : 114%
1070 FE Stock : 105%
980Ti Stock : 100%

Auch Stock ist eine 980Ti nicht mal in der Nähe der 1080
Pascal hat einfach einen großen Sprung gemacht.

Nimm halt noch eine 980 Ti OC mit rein, erreicht dann nahezu 1080 Stock Niveau. Die liegt damit vor der 1070 OC und die 1080 OC etwa 15% vor der 980 Ti OC. Und das ist die Staffelung, welche für den Hardwareversierten interessant ist. Maxwell hat eben ein gutes Stück mehr OC Potential, als es Pascal bietet.

Das hat auch CB getestet: https://www.computerbase.de/2016-05...tt_geforce_gtx_980_ti_mit_15_ghz_gegen_pascal
 
Locuza schrieb:
DX11 skaliert super? Sowie bei dem neusten Tomb Raider Spiel?
https://www.computerbase.de/2018-09..._leistungsabweichungen_mit_day1patch_update_2

DX11 ist super alt, es kommt von 2009 und es fehlen tausende Features.
Spiele befinden sich 2-5 Jahre in der Entwicklung, große Engine-Umstellungen dauern ebenso lange.
Deswegen siehst du auch nicht überall DX12-Implementierungen oder solche, wo DX12 gleich zu Beginn alles weggefegt hat.
Ebenso lag und liegt die Priorität bei mehreren Entwicklern nicht bei den neuen APIs, da man noch etliche Kunden mit W7/8 versorgen muss.
Ich kenne genug DX12 beispiele wo DX11 besser performed. DX12 ist nur ein Papiertiger und dazu eine billige Kopie von Vulkan/Mantle.

Dein Beispiel passt hinten und vorne nicht, denn es gibt etliche Unreal Engine 4 spiele die kein DX12 supporten.

Die meisten Devs wollen keine zusätzliche Zeit in Low Level Optimierungen investieren und dein Beispiel passt dann wieder nicht mit Win7/8, weil dann hätte man auch Vulkan nehmen können anstatt DX12.

Fakt ist DX12 bleibt das fünfte Rad am Waagen... keiner braucht es und die devs die es Supporten sind Amateure oder wurden durch Lobbyisten gekauft.
 
  • Gefällt mir
Reaktionen: russianinvasion
mrhanky01 schrieb:
Ich vermute einfach das Nvidia ganz genau weiss, dass die meisten auf Leistung in spielen schauen werden und entsprechend mit dem neuen Treiber künstlich die Geschwindigkeit bei alten Karten runterregelt.
Damit die neue Architektur besser angenommen wird.
(Wäre ja nichts neues)

Ja klar. und plötzlich liest du hier im forum, dass sämtliche 1000er karten einbrechen und nicht mehr die leistung bringen, wie vor dem neuen treiber. selten so einen quatsch gehört.

usb2_2 schrieb:
Eine für mich uninteressantere GPU und Architektur gab es die letzten Jahre echt nicht. In 7nm mit viel kleineren Chips in 1 bis 2 Jahren zum halben Preis wird es dann etwas interessanter.

wenn die leistung stimmt, ist mir dei architektur doch völlig babane. verstehe nicht, wie man sich an einem fertigungprozess aufgeilen kann.

StockholmSyndr. schrieb:
AHAHAHAHA!
Ich hab zwei Worte für Dich:
GTX 970
mit dem unterschied, dass eine verschlechterung durch einen treiber SOFORT auffallen würde und das geschrei auch SOFORT gross wäre.

zum thema:
bin auch auf die ersten test´s gespannt. bin schon länger am überlegen, ob ich mir einen andreren monitor mir besserer auflösung zulege.
da ich aber überwiegend shooter zocke, haben mich bis jetzt immer die "wenigen" fps abgeschreckt.
wäre echt toll, wenn es sich mit dieser generation deutlich verbessert.
 
Einhörnchen schrieb:
Falsch. Die Standard GTX 1070 ist im Performance-rating sowohl in 2560x1440 als auch 3840x2160 durchschnittlich 7 % schneller als eine Standard GTX 980 Ti.

Quelle: https://www.computerbase.de/2016-06/nvidia-geforce-gtx-1070-test/4/#diagramm-performancerating-256

Er bezieht sich wohl auf die Custom 980 Ti. Für diese stimmt das, im Vergleich zur 1080 FE:
Unbenannt.png


Maxwell liegt beim OC Potential eben etwas über Pascal, weshalb sich die Staffelung OC vs OC verändert gegenüber FE vs FE.
 
Zotac2012 schrieb:
vermutlich hat man genau auch aus diesem Grund so ein neues Feature kreiert, damit überhaupt ein deutlich Leistung Vorteil entsteht!
Aber nicht doch!
Das passiert alles ausschließlich zum Wohle der Spieler.
Die Fortschritte in der Darstellung und Realitätsnähe der Graphik müssen endlich auch den Spielern zugute kommen.
Wen interessieren schon flüssige 60FPS (oder gar mehr) in 4K?
Doch nur eine absolute Minderheit!
Also wirklich ...
 
  • Gefällt mir
Reaktionen: franeklevy und Zotac2012
TheOpenfield schrieb:
Er bezieht sich wohl auf die Custom 980 Ti. Für diese stimmt das, im Vergleich zur 1080 FE:
Er sagte zum OC aber auch ganz klar
SerErris schrieb:
Aber das können wir jetzt hier nicht weiter Berücksichtigen. Stock karten ist es wie oben beschrieben.
Und bei Stock Karten sind es eben +29% für die 1080 zur 980Ti
 
Geforce RTX, sonst nix!
 
Taxxor schrieb:
Er sagte zum OC aber auch ganz klar

Und bei Stock Karten sind es eben +29% für die 1080 zur 980Ti

Bestreite ich nicht, möchte nur klar stellen, welcher Vergleich hier gezogen wird.

To be fair: die Meisten hier im Forum interessiert lediglich OC vs OC. Denn das spiegelt die Mehrleistung in ihrem Alltag wieder.
 
Taxxor schrieb:
DX11 gibt es seit 2008 und hatte auch erst breitere Verwendung in Spielen irgendwann um 2013/2014
Stimmt nicht. copy+paste wiki: DirectX 11 ist als Teil von Windows 7 im vierten Quartal 2009 erschienen. Für Windows Vista startete Microsoft die Auslieferung von DirectX 11 am 28. Oktober 2009 zunächst per Windows Update.

Und bereits 2012 gabs etliche DX11 Spiele ergo nach nur 2,5 Jahren wurde die API voll und ganz angenommen.
 
TheOpenfield schrieb:
Er bezieht sich wohl auf die Custom 980 Ti. Für diese stimmt das, im Vergleich zur 1080 FE:
Anhang anzeigen 708569

Maxwell liegt beim OC Potential eben etwas über Pascal, weshalb sich die Staffelung OC vs OC verändert gegenüber FE vs FE.


wenn ich mir die tabelle anschaue, liegt die 980ti non oc und die gtx1080 non oc 9% auseinander.

wenn die 980ti an der kotzgrenze läuft und die 1080 auch, liegen sie 14% auseinander (einfach mal mit der maus drüber fahren).....für mich spricht das nicht für ein gutes oc potential von maxwell. aber ist ja nur meine meinung :D

mfg
 
TheOpenfield schrieb:
Maxwell liegt beim OC Potential eben etwas über Pascal, weshalb sich die Staffelung OC vs OC verändert gegenüber FE vs FE.
Vergleicht man die CB Benchmarks der GTX 1070 Partnerkarten liegt die Gigabyte 8 % vor der 1070 FE, während die Gigabyte GTX 980 Ti Gaming 12 % Vorsprung hat. Insofern trifft die Aussage auf die OC Karten zwar zu, so pauschal ("woher diese Aussage kommt") trifft aber eher das Gegenteil zu, nämlich dass die 1070 vor der 980 Ti liegt.
 
Andybmf schrieb:
wenn die leistung stimmt
Wenn der Preis stimmt. Das macht der Fertigungsprozess übrigens auch aus, da der Chip dadurch so groß ist, weil die Architektur viel Platz verbraucht. Die nächste Neuerung wird dann 7nm sein, aber frühestens in einem Jahr, wenn es günstiger wird. Dann ein deutlich kleinerer Chip, nicht vergessen "12nm" ist 16 nm, das ist 20nm mit finfet. 20nm wurde übersprungen, da der Prozess nicht klein und gut genug war für GPUs, daher 2*28nm.

7nm bei 300-330mm2 statt 12nm bei 545mm2 ist eindeutig günstiger in der Fertigung. Vielleicht ist der Chip dann sogar nur halb so groß, laut TSMC, also dem Fertiger, ist die Packdichte von 16nm zu 7nm mehr als verdoppelt. Jetzt ~25 dann 50 Transistoren, siehe CB Artikel.

Es zieht sich halt alles sehr. Ich hoffe, dass du es jetzt zumindest im Ansatz verstehst.
 
die 980ti hat locker 250+ gesaugt, stark übertaktete karten haben locker 300watt genommen.

eine 1070 läuft bei 100watt so krank schnell, das tut schon weh. wenn man jetzt turing nimmt und die gerüchte bei 75watt stimmen, kauf ich mir ein neues lappi, egal was es kostet (3k+) obwohl ich jetzt ein 1070er habe was erst 3monate bei mir ist :D

mfg
 
[wege]mini schrieb:
wenn ich mir die tabelle anschaue, liegt die 980ti non oc und die gtx1080 non oc 9% auseinander.

wenn die 980ti an der kotzgrenze läuft und die 1080 auch, liegen sie 14% auseinander (einfach mal mit der maus drüber fahren).....für mich spricht das nicht für ein gutes oc potential von maxwell. aber ist ja nur meine meinung :D

mfg
Liegt daran, dass du dir eine Custom 980 Ti ansiehst. Natürlich hat diese ein geringeres OC Potential verglichen mit der Referenz Karte ... :rolleyes:
 
m.Kobold schrieb:
Korrekt Online+Account Pflicht ist immer ein Vorteil, vor allem wenn es Maintance vom Provider oder nur nvidia gibt.
/Ironie Off

Und das Experience pfleißig Daten abgreift sollte auch klar sein... aber wen Interressiert sowas heute noch.

Im Gegensatz zum Mauspad sehe ich auf Dauer aber auch ein Mehrwert im Experience
 
Testergebnisse und damit auch Benchmarks gibt es heute hingegen noch nicht. Entgegen der Tradition hat sich Nvidia dafür entschieden, heute nur das Embargo über die Technik hinter Turing fallen zu lassen. Die Motivation scheint klar: Turing ist mit den Tensor- und RT-Cores für AI und Raytracing mehr als nur Pascal und damit Maxwell in schneller. Turing ist ein großer Bruch. Und diese Botschaft würde in einem Test ohne Spiele, die die neuen Funktionen unterstützen, untergehen, was der technischen und preislichen Positionierung von RTX über GTX nicht zugute käme.

Quelle CB

Übersetzung:

Orchestriertes Release, da der Preis so hoch ist wie nie hat sich Nvidia für eine neue Vermarktungsstrategie dazu entscheiden erstmals die Technik in den Vordergrund zu stellen. Die Motivation scheint klar, Turing soll mit den von Nvidia definierten Tensor und RT-Cores für AI und Raytracing augenscheinlich mehr bieten, als nur Pascal und damit Maxwell in schneller sein. Ein großer eingeläuteter Bruch um frischeren Wind in den Gaming-Market zu bekommen um zukünftig mehr Umsatz zu generieren. Diese, ohne hin schon schwer zu vermittelnde Botschaft eines höheren Preises, würde in einem Test ohne Spiele, welche die neuen Funktionen besonders unterstreichen untergehen. Was der preislichen Positionierung von RTX über GTX nicht zugute käme.


Die Technik dahinter ist definitiv ein Fortschritt keine Frage, aber die Vermarktung der ganzen RTX Serie ist grenzwertig. Im Endeffekt ist 1080p bei RTX zu wenig, genauso wie der allgemein zu erwartende Leistungssprung bei 1300 Euro für die TI.. Aber eine geschickte Kombination aus beiden Eigenschaften erwirtschaften doch mehr Reingewinn.

Technik hin, Technik her.. Lasst es euch nur mal so durch den Kopf gehen. ;)
 
  • Gefällt mir
Reaktionen: Unnu, Abtacha1982 und DanHot
Zurück
Oben