Test RTX 3080 und RX 6800 XT: Treiberentwicklung von AMD und Nvidia im Vergleich

R O G E R schrieb:
Irgendwie komisch.
Seit Jahren holt AMD immer mehr aus den Karten raus mit Treibern. Wäre nicht das erste mal.
Wäre ja mal interesant einen Vergleich zwischen ner Geforce 1060 und RX580 zu sehen.
Waren beim Marktstatt beide etwa gleich. Jetzt setzt sich die RX580 schon ab.
Und dass die RX580 sich jetzt "absetzt" weißt du woher, wenn du selber im gleichen Atemzug nach einen Vergleich der beiden Karten fragst? :freak:

R O G E R schrieb:
Und wenn beim Launch die P/L bei beiden Karten gleich ist, sind doch spätere Optimierungen doch nur zum Vorteil der Käufers.
"Zum Launch" -das war im Sommer 2016- trat die GTX 1060 gegen die RX 480 (nicht 580...) an und war zu diesem Zeitpunkt laut CB Review 6% schneller

Unbenannt.jpg

Mit der "späteren Optimierung" (die du zwar behauptest, für die im Duell RX 480/580 vs GTX 1060 aber faktisch kein Nachweis deinerseits erbracht wurde) mag AMD diese 6% über ein halbes Jahrzehnt vielleicht aufgeholt haben, was daran jetzt für den Käufer vorteilhafter gewesen sein soll, als diese 6% direkt zum Release/Kauf zu haben, versteht man aber wohl nur als Fanboy mit roter Brille.

R O G E R schrieb:
Es ist zu dein Zeitpunkt ja die maximale Leistung.
Nein, es ist nicht die maximale Leistung - und genau davon sprach die Person, die du zitierst hast!
 
  • Gefällt mir
Reaktionen: JackA
owned139 schrieb:
Nochmal: Wieso ist so vielen Usern bei AMD alles scheiß egal, aber bei Nvidia klammert man sich an jeden Grashalm?
Ohne mich in eure Diskussion einmischen zu wollen:

Mir kommt es exakt anders rum vor.
Gerade auch im Bezug auf Intel vs. amd.

Der Mehrverbrauch war früher, als AMD deutlich mehr brauchte für nicht mal die selbe Leistung, immer DAS Tod Argument gegen amd.

Im hier und jetzt ist amd so Konkurrenzfähig geworden, dass die Konkurrenz für die selbe Leistung zum Teil deutlich mehr Strom verbraten muss (Rendering / Volllast aktueller spitzen CPUs zb) und es juckt keinen.

Natürlich sind Intel und Nvidia dabei nicht so katastrophal schlecht wie amd damals aber sie sind teilweise schlechter bzw. Ineffizienter.
Und es ist völlig egal.
Die heilige Mehrverbrauchs Kuh spielt plötzlich keine Rolle mehr.
Das hat leider einfach den Geschmack von Doppelmoral.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: troopers, Fresh-D, AssembIer und 10 andere
Dass eine GTX 970 etwa ein Jahr später als 290/290X released wurde mag darauf hindeuten, dass der Vergleich womöglich nicht so richtig belastbar ist.
 
  • Gefällt mir
Reaktionen: Veitograf, iron_monkey und GERmaximus
Danke für den aufschlussreichen Test. Den kann man exemplarisch verlinken, wenn das "Fine Wine"-Thema einmal wieder aufkocht. Zukünftig braucht man dann nicht nur zu behaupten, dass es tendenziell Entwicklungen geben kann, sondern kann eine Messung abbilden. Sowie viele kontroverse Sichtweisen und Meinungen dazu. Ein Test zu Zeitpunkt X ist stets eine Momentaufnahme. Das ist wohl der deutlichste Hinweis.

Dieser ganze Diskurs à la "X wischt mit Y den Boden auf" könnte ohnehin nicht weniger jeglicher Ironie entbehren. Die Produkte sind seit Jahren exakt absatzwirtschaftlich aufeinander angepasst und abgestimmt. Nur in seltenen Fällen leistet sich eine Seite eine echte, deutlich sichtbare Schlappe. (Bulldozer etwa; aber auch Skylake +++++² war nicht ohne Beigeschmack)

Wirklich herausragende Produkte wie einen i7 2600k, eine 4200ti, eine HD7950 oder eine GTX8800, GTX1060 etc. sind rar und begleiten die Nutzer zurecht lange.
 
  • Gefällt mir
Reaktionen: MRclean und StylishChiller
Vielen Dank cb.
Die Aspekte die ihr hier beleuchtet sind teilweise wirklich interessant und werden bei mir auch in zukünftige Kaufentscheidungen einfließen.
 
Erkekjetter schrieb:
Der ewige Trugschluss. SIe holen nichts raus, sie können das Potential am anfang einfahc nicht ausnutzen. Da reift kein Fine Wine sondern man muss ewig warten, bis die Treiber endlich mal das sind, was sie hätten sein können/müssen beim kauf.

Ich mein, dein VErgleich zeigt das ja deutlich. Was interessiert heute ob eine 580 eine 1060 irgendwann nach Jahren abhängt...

Es ist aber genauso gut ein Trugschluss alleine zu glauben, Karten müssten nur zu Beginn superschnell sein.
Nein, am Ende kackt die Ente. ^^
Soll einfach nur heißen:
je länger man eine Karte nutzt, desto mehr freut man sich über jeden Fame mehr Grundleistung.
Es gibt imemr noch genug Nutzer einer 1060 (3/6GB) oder 580 (8GB).
Erstere Nutzer der 3GB Version dürften sich mitlerweile aber sowas von in den Hintern beißen.
Genau dieses Problem dürfte bald den 3070 Nutzern blühen.
Zu wenig Speicher und keine späten Treiberwunder mehr.
Die 970 geht übrigns auch seit Jahren unter, die R290 schlägt sie locker, was damals aber bis zu 10% lahmer.
Was kann man daraus an Lehren ziehen?
Kauft immer Karten mit genug Speicherreserven für kommende Jahre, das lohnt sich spätestens bei Zweitnutzung oder Weiterverkauf wieder.
Und seid beim Kauf nicht so pingelig bei den Hinterkommawerten.
Es ist pupsegal, welche Sorte Karte im Schnitt oder in bestimmten Lieblingsspielen um ein paar Prozent vorne liegt.
Es ist einzig und alleine entscheident, wieviel Zugewinne man grob im Vergleich zur derzeitig verbauten Karte erlangen kann.
Ob es dann AMD oder NVidia wird, sollte man an den ganzen Featuresets, den Vorlieben und natürlich den Preisen pro Frame(zugewinn) feststecken.
 
  • Gefällt mir
Reaktionen: LinuxTux
Dai6oro schrieb:
Du scherst alle AMD user über einen Kamm und Nvidia user ebenfalls und versucht daraus eine Diskussion zu entwickeln. Das führt zu nix. Mich stört der Verbrauch der Nvidias als Nvidia Nutzer z.B. und auch deren unsägliche Produktpolitik mit ihrem VRAM. Die 3090 ist unabhängig von Verbrauch und Preis die einzige ausgewogen Karte von Ampere.
Bei aller Liebe, aber wie kann man sich denn am (reinen) Verbrauch einer Karte stören?
Wenn eine 3090 zu viel verbraucht, kauft man halt eine 3080 oder 3070 oder eine 6700 oder sonstirgendwas, was weniger verbraucht... oder ändert alternativ das Powerlimit der vorhandenen Karte entsprechend, dass sie weniger verbraucht?!

Die relevante Kennziffer in diesem Bereich ist doch niemals der reine Verbrauch sondern immer die Effizienz, also Leistung geteilt durch Verbrauch - und da ist die aktuelle Generation von Karten deutlich besser als jeder vorhergehende!

Phobsen schrieb:
Effizienter ist mehr Leistung bei gleicher TDP, bzw mehr Leistung bei weniger Leistungsaufnahme.
Effizienter wird es wenn ich effektiv weniger/gleiche Stromkosten habe, bei mehr Leistung.
Was du da tust ist schönrechnen,mehr aber auch nicht.
Sagt der AMD Fanboy mit RTX 3070 im Rechner :D
Das ist schlicht und ergreifend Unsinn!
Effizienz ist der Quotient aus Leistung und Verbrauch - nicht mehr, nicht weniger.
1000 Leistung bei 250 Verbrauch ist effizienter als 100 Leistung bei 50 Verbrauch (doppelt so effizient um genau zu sein), auch wenn erstes fünfmal so viel Strom verbraucht!
 
  • Gefällt mir
Reaktionen: Schattenspender
Finde es krass... da werden die Treiber von AMD und nVidia vergleichen, aber kein einziges Wort über die Treibersituation unter Linux.
 
  • Gefällt mir
Reaktionen: CuMeC, cbmik, Himbeerdone und eine weitere Person
Und das waren nur die Fälle in Rasterizer-Spielen. Kommt Raytracing hinzu, fallen die Unterschiede gerne sogar noch größer aus. Battlefield 2042 legt dann gleich um 24 Prozent zu, Deathloop um 36 Prozent, F1 2021 um 12 Prozent, Far Cry 6 um 28 Prozent, Hellblade um 13 Prozent und Resident Evil Village um 12 Prozent.
Sehr gut AMD, hier weiterhin am Ball bleiben.
 
  • Gefällt mir
Reaktionen: hanjef und Czk666
Phobsen schrieb:
Mein Stromzähler Zuhause ist leider nicht bereit dieses theoretische Wissen auch zu berücksichtigen :D
Fakt bleibt das ich für das mehr an Leistung auch massiv mehr zahlen darf,
Auch wollen die Spiele immer dickere HW, sehen aber seit gefühlt 10 Jahren nicht besser aus.

Ich sehe da 0 Effizienzsteigerungen. Effizienz wäre :
x mal bessere Grafik bei gleichem Verbrauch
Oder
1/xtel Verbrauch bei gleichbleibender Grafik.
 
  • Gefällt mir
Reaktionen: troopers, Phobsen, Czk666 und 2 andere
Im Fazit kommt es ein wenig negativ rüber, das man bei AMD "besser einen aktuellen" Treiber haben sollte... Anstelle zu erwähnen, das die Treiberpflege hier tatsächlich Sinn macht?

Umgekehrt gilt auch, das es anscheinend bei nVidia von Beginn an die volle Leistung gibt - wobei das auch zum negativen ausgelegt werden kann. Bisschen schwammig das Fazit.
 
  • Gefällt mir
Reaktionen: iron_monkey
Ich weis nicht wie aussagekräftig dieser Vergleich ist, wenn man hier WIN 11 einsetzt, da musste AMD erstmal gewaltig am Treiber werkeln damit der rund gelaufen ist.

War der Sprung denn in WIN 10 ähnlich groß? Bezweifle ihr ehrlich gesagt :D
 
R O G E R schrieb:
Wäre ja mal interesant einen Vergleich zwischen ner Geforce 1060 und RX580 zu sehen.
Waren beim Marktstatt beide etwa gleich. Jetzt setzt sich die RX580 schon ab.
Ein Vergleich zwischen GTX 1060 und RX 480 wäre deutlich sinnvoller, da zwischen den beiden Veröffentlichungen nur 3 Wochen lagen, nicht 9 Monate wie bei deinem Vergleichsvorschlag.

Im Juli 2016 waren die Pascal- und Polaris-Treiber auch noch nicht so ausgereift wie im April 2017, somit auch ein besserer Startpunkt wenn man die Treiberentwicklungen vergleichen möchte.
 
Cohen schrieb:
Im Juli 2016 waren die Pascal- und Polaris-Treiber auch noch nicht so ausgereift wie im April 2017, somit auch ein besserer Startpunkt wenn man die Treiberentwicklungen vergleichen möchte.
Ja ich habe die beiden ausgewählt weil die noch in der aktuellen Rangliste vertreten sind. Und die RX480 ist fast gleich zur RX580. Mehr Takt weniger Idle verbrauch und das wars.
 
R O G E R schrieb:
Und die RX480 ist fast gleich zur RX580. Mehr Takt weniger Idle verbrauch und das wars.
Die RX580 war 2017 in 1080p gut 7% schneller. Also so ganz fair scheint der Vergleich nicht zu sein 😉
 
Dai6oro schrieb:
Und ja als Besitzer einer 3090 sage ich wäre schön wenn sie nicht so saufen würde. Aber das scheint bei künftigen Karten ja leider Standard zu werden. Völlig falsche Richtung.
Ach, man kann die 3090 durchaus einbremsen auf einen sehr soliden Verbrauch und trotzdem echt viel Leistung und VRAM aben.

Ich hab meine jetzt mal auf 250W TDP runter geregelt und die Karte bleibt kühl, bringt dennoch genug Dampf mit um fast alles bei 1440p in höchsten Details bei 60 - 120 FPS darzustellen und das schönste ist: Sie ist unschlagbar leise geworden.

Eigentlich die perfekte Karte: Ultrabreits Design, dass man nicht wirklich hoch takten müsste um die Leistung abzurufen.

Die RTX 3090 wird in ihrer Form wirklich mit 350 und bei den Hersteller mit ihren 400 - 450 Watt TDP weiter über der Grenze dessen Betrieben, was notwendig ist. Klar meine 3090 erreicht nicht mehr die Ergebnisse einer 6900 XT, aber liegt nicht soweit weg und ist deutlich effizienter, weil sie eher im Sweetspot bleibt.
Phobsen schrieb:
Ist halt ein klassischer Post von ihm.
Ganz ehrlich, ich würde ihn nicht all zu ernst nehmen. Er dreht und wendet sich die Argumente oft so zu recht, dass er über verschiedene Themen sich bei der selben Thematik teilweise sogar selbst widerspricht.

Er ist es auch, der jedes mal Themen um AMD dazu nutzt die angebliche Doppelmoral der Community aufzeigen, er will ja nur "Gerechtigkeit" und das beste ist auch immer seine Aussage, dass er ja kein Fanboy wäre, dabei macht er genau das, was Fanboys machen.

Man sieht es ja auch hier. Er lässt eine GeForce 970 vom 09.2014 gegen eine Grafikkarte von Oktober 2013 antreten. Klar, 2014 war die GeForce 970 deutlich effizienter als die R290, aber der direkte Konkurrent war die 780, 780 Ti und Titan und da bewegte man sich durchaus auf Augenhöhe.

Was die Effizient anging, war Kepler für NVIDIA der erste Schritt um zu AMD "aufzuholen" damals und Maxwell war dann der Gamechanger, das die Effizienz anging, denn was Effizient anging, hat Maxwell damals selbst mit Kepler quasi den Boden gewischt.

Nur war GCN damals nicht so krass abgeschlagen, wie man denkt. Tonga und Fiji zeigten ja durchaus, dass man zwar nicht ganz an die Effizient heran reicht, aber auch nicht meilenweit weg ist und selbst Polaris war zwar unterlegen, aber auch nicht so meilen weit weg. GCN hatte ein "Highend"-Problem als Maxwell und Pascal kamen, weil quasi oft mindestens der halbe Chip zwar "mitrechnete" aber nicht wirklich rechnete.

Für NVIDIA waren die "Probleme" bei GCN natürlich Gold wert, weil NVIDIA so sich auf wirklich effiziente Architekturen konzentrieren konnte, bis eben nun RDNA kam und AMD die strukturellen Probleme von GCN lösen konnte und auf einen Schlag sowohl bei der Leistung als auch der Effizient aufgeholt hatte und AMD hatte sogar noch etwas gelöst: Das Skalierungsproblem von GCN.

Man muss an der Stelle nämlich jetzt eine Sache festhalten: Turing hatte bereits pro SM 128 Shader - wie jetzt Ampere - nur das halt 64 Shader exkulsiv für INT reserviert war.

Ein Teil der Einheiten lag also brach. Es standen also schon Turing 5120 Shader gegen 2560 bei RDNA und beide kamen auf die gleich Leistung in Spielen und ähnlich sieht es auch jetzt aus. Ampere hat eine unglaubliche Anzahl an Rechenwerken, aber sie bekommt die Rechenleistung nicht auf die Straße und es zeigt sich nun, dass NVIDIA ein Auslastungsproblem hat, ähnlich wie damals eben AMD mit GCN.

Bierliebhaber schrieb:
Du pickst dir für Hawaii das absolute worst case raus, vergleichst das mit dem best case bei nVidia, dazu mit einer Karte, die man wegen des VRAM eh nicht vergleichen kann, und wunderst dich, dass du bei deinem Getrolle nicht ernst genommen wirst?
Er macht doch genau das, was er anderen immer vorwirft, er merkt es aber leider nicht mal. ;)

Deswegen ist da das beste: Lasst ihn schreiben.
GERmaximus schrieb:
Das hat leider einfach den Geschmack von Doppelmoral.
Hat es auch, merkt er als Fanboy aber nicht. Ihm geht es darum, dass NVIDIA ja ganz ganz unfair behandelt wird und ja alle anderen doppelmoralisch handeln. Das er dabei selbst so handelt, das merkt er nicht.
 
  • Gefällt mir
Reaktionen: Veitograf, iron_monkey, McFritte und 3 andere
So lange z.B. Fortnite mit D3D12 bei jedem Start mit AMD alle Shader neu kompilieren muss, weil sie keinen funktionierenden Treiber-Cache für D3D12 haben, oder der Vulkan-Treiber dahingehend ständig Alzheimer hat, kann mir der AMD-Kram gestohlen bleiben. Wirklich keine Lust mehr drauf. Wenn ausnahmslos alles unter Linux mit Mesa laufen würde, sähe es anders aus. Aber mit dem Windows-Treiber? Nein, danke.
 
Sieht für mich so aus, als wäre einfach nur der erste AMD Treiber ziemlich kacke gewesen, danach liegen AMD und Nvidia quasi gleichauf. Daher finde ich das Fazit des Tests nicht wirklich passend bzw. hat keine wirkliche Aussagekraft.
 
Zurück
Oben