Test RTX 3080 und RX 6800 XT: Treiberentwicklung von AMD und Nvidia im Vergleich

Da ich eher faul bin was Treiberaktualisierung angeht (evtl. 4x im Jahr) is es natürlich gut zu sehen, dass man dabei nicht viel verliert. Allerdings spiele ich zumeist eher nicht die neuesten Games die gerade auf dem Markt sind. Auf der anderen Seite mit dem Wissen, dass ich teils nochmal einen ordentlich Schub bekommen würde würde ich wohl mehr aktualisieren.
Positiv ist für beide: Im Laufe der Zeit wirds jedenfalls nicht schlechter und die Verhältnisse verschieben sich etwas aber beide auf Augenhöhe was prinzipiell in einem normalen Marktumfeld gut für den Kunden ist. So profitieren wir "nur" von technologischen Seite, weil beide alles aufbieten müssen.
Was ich in dem Test hier nicht sehe, ist ein Vorteil für die ein oder andere Seite.
 
  • Gefällt mir
Reaktionen: xRedF
DannyA4 schrieb:
Waaaas?
Bitte immer schön bei der Wahrheit bleiben..
Und wieder wird relativiert. Dann sind es eben 50W, aber was ändert das an meiner Aussage?
350W vs 300W ist ne andere Hausnummer als 148W (970) vs 290W (290X) und ersteres soll ein Gegenargument für letzteres sein.
Das kann doch nicht euer ernst sein? Wie hart verblendet muss man sein, um sowas gleichzusetzen?!
 
Ich fand es bei meiner letzten AMD (6900xt) schon schade das man bei AMD immer erst warten muss bis die Treiber „gereift“ sind. Die Ruckelorgien z.B. in WWZ und Dayz gone hätte ich mir gern erspart und Spiele erst später spielen, weil dann die Treiber gereift sind ist jetzt auch nicht so toll, wenn man schon auf das erscheinen der Titel gewartet hat. Von daher kann ich nur mäßige Freude empfinden das die Treiber später dann besser werden, aber wenigstens geht man die Probleme im Nachhinein noch an, wobei ich in dem Fall wohl dann schon fertig „gelitten“ hatte mit den jeweiligen Spielen…
Das Beispiel hier mit dem reifenden Wein war da schon ganz treffend^^
 
R O G E R schrieb:
Wäre ja mal interesant einen Vergleich zwischen ner Geforce 1060 und RX580 zu sehen.
Waren beim Marktstatt beide etwa gleich. Jetzt setzt sich die RX580 schon ab.
hab kürzlich aktuelle Vergleichsvideos gesehen, die RX580 hat sich ordentlich abgesetzt und das ist auch meiner Erfahrung nach fast immer so gewesen. Die AMD Karten waren länger zu gebrauchen.
 
  • Gefällt mir
Reaktionen: iron_monkey und StylishChiller
@Bruder_Joe
Am Beispiel AOE4 sieht man dass nicht immer der Hardwarehersteller was dafür kann.

@owned139
Die 970 ist kein positives Beispiel. War es nie und wir es nie sein. Ich würde jederzeit die 290 mit echten 4GB der 970 mit ihren 3,5GB +x vorziehen. Immer!

Und ja als Besitzer einer 3090 sage ich wäre schön wenn sie nicht so saufen würde. Aber das scheint bei künftigen Karten ja leider Standard zu werden. Völlig falsche Richtung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AssembIer, cbmik und StylishChiller
Meine Schlußfolgerung wäre:

Mit AMD Karten bekommt man beim Launch genau die Performance, die in allen einschlägigen Tests zu sehen ist. Die Performance von AMD Karten steigt im Laufe der Zeit, in der auch die Anforderungen durch Spiele wachsen. Zusammen mit den derzeit bei AMD größeren RAM Ausstattungen macht das die AMD Karten langlebiger.
 
  • Gefällt mir
Reaktionen: iron_monkey, hanjef, MehlstaubtheCat und 3 andere
hahaqp schrieb:
Finde ich durchaus relevant, ich hätte gerne die max. Leistung von Tag 1 an. Es ist jedenfalls nicht positiv zu bewerten wenn ein Unternehmen nicht von Tag 1 an die max. Leistung des Produktes anbieten kann.
Na, dann ist AMD halt nichts für dich. Mir ist eher wichtig, dass ich 10-20% weniger zahle und dann ist AMD für mich halt interessanter. Dass ich nach einem Jahr dann auch kaum langsamer als NVidia bin, freut mich umso mehr...
 
  • Gefällt mir
Reaktionen: hanjef und StylishChiller
Erkekjetter schrieb:
Was interessiert heute ob eine 580 eine 1060 irgendwann nach Jahren abhängt...
Schau dir mal die Kartenpreise an. Wer noch mit einer alten Karte herumgurkt, findet das sehr wohl interessant.
Ohne Interessenten gäbe es die Karten für deutlich weniger Geld
 
  • Gefällt mir
Reaktionen: jtgx4 und StylishChiller
owned139 schrieb:
Dann sind es eben 50W, aber was ändert das an meiner Aussage?
Ganz einfach, dass sie eben nicht mehr auf Fakten basiert und somit nicht der Wahrheit entspricht.

Und was du da mit deiner 970vs290 hast, ist mir völlig wurscht... wenn du mit Vergleichen kommst zur aktuellen Generation, dann bitte Faktenbasiert!
 
  • Gefällt mir
Reaktionen: McFritte, cbmik, eXe777 und 3 andere
Dai6oro schrieb:
@owned139
Die 970 ist kein positives Beispiel. War es nie und wir es nie sein. Ich würde jederzeit die 290 mit echten 4GB der 970 mit ihren 3,5GB +x vorziehen. Immer!
Das war nicht Thema meiner Diskussion mit @edenjung: https://www.computerbase.de/forum/t...und-nvidia-im-vergleich.2076395/post-26714666

DannyA4 schrieb:
Ganz einfach, dass sie eben nicht mehr auf Fakten basiert und somit nicht der Wahrheit entspricht.

Und was du da mit deiner 970vs290 hast, ist mir völlig wurscht... wenn du mit Vergleichen kommst zur aktuellen Generation, dann bitte Faktenbasiert!
Darum ging es nie, checkst du das nicht? Es ist für meine Aussage auch egal, ob es 30W oder 50W sind. Die 290X verbrät das doppelte einer gleichwertigen Nvidia Karte und das wurde hier als Rechtfertigung dafür genommen, dass man jetzt mit "Mimimi Nvidia verbraucht so viel mehr" kommt und AMD in Schutz nimmt. Es macht einen Unterschied, ob eine Karte etwas mehr verbraucht oder das doppelte!
Und ob es jetzt 30W oder 50W waren ist nur Erbsenzählerei die an dem Fakt nichts ändert.

Nochmal: Wieso ist so vielen Usern bei AMD alles scheiß egal, aber bei Nvidia klammert man sich an jeden Grashalm?
 
Zuletzt bearbeitet von einem Moderator:
Du scherst alle AMD user über einen Kamm und Nvidia user ebenfalls und versucht daraus eine Diskussion zu entwickeln. Das führt zu nix. Mich stört der Verbrauch der Nvidias als Nvidia Nutzer z.B. und auch deren unsägliche Produktpolitik mit ihrem VRAM. Die 3090 ist unabhängig von Verbrauch und Preis die einzige ausgewogen Karte von Ampere.
 
  • Gefällt mir
Reaktionen: AssembIer, .Snoopy., iron_monkey und 7 andere
DannyA4 schrieb:
Waaaas?
Bitte immer schön bei der Wahrheit bleiben..
Zumal die 290X nicht gegen GTX 970/980 angetreten ist, sondern gegen eine GTX780/Titan.
Wie hatte CB das im damaligen Test betitelt ?
"Konkurrenz für Titan. Für 500€"

Zumal ich eine Steigerung der TDP innerhalb von zwei Generationen von 180W TDP zu 320W TDP(1080 - 3080), nicht als effizienter betiteln würde.
Ist halt ein klassischer Post von ihm.
 
  • Gefällt mir
Reaktionen: iron_monkey, McFritte, cbmik und 6 andere
Erkekjetter schrieb:
Was interessiert heute ob eine 580 eine 1060 irgendwann nach Jahren abhängt...

Dich mag das nicht interessieren, schau doch im Steam Hardware Report mal rein mit was der "Rest der Welt" aktuell so zockt. Da landen genau diese Karten recht weit vorne und das recht stabil seit Monaten. Darum umso besser wenn die Leistung (der Treiber) nach Jahren eher zunimmt als abnimmt. Kann sich nicht jeder immer das neueste leisten...
 
  • Gefällt mir
Reaktionen: StylishChiller und Veitograf
R O G E R schrieb:
Irgendwie komisch.
Seit Jahren holt AMD immer mehr aus den Karten raus mit Treibern.
Ist nicht komisch. Das liegt auch an der Architektur der Karten. Die workload distribution funktioniert bei Nvidia einfach besser automatisiert in Hardware als bei AMD. Deswegen müssen die es nicht immer manuell im Treiber anpassen, sondern die Hardware optimiert das automatisch schon recht gut allein. Da kann und muss man im Treiber nicht mehr viel optimieren.
 
owned139 schrieb:
Darum ging es nie, checkst du das nicht? Es ist egal, ob es 30W oder 50W sind
Doch doch, ich "checke" das schon, nur du leider nicht. Ich möchte lediglich, dass du bei deinen Vergleichen auf dem Boden der Tatsachen bleibst.
Nochmal für dich:
Es geht mir NICHT um euern Vergleich von uralten Grafikkarten, es geht mir um deine Aussage des Stromverbrauchs der aktuellen Generation, und diese Aussage war nunmal falsch, da beisst auch deine Maus keinen Faden ab!
 
  • Gefällt mir
Reaktionen: AssembIer, iron_monkey, Onkel Föhn und eine weitere Person
owned139 schrieb:
Darum ging es nie, checkst du das nicht? Es ist für meine Aussage auch egal, ob es 30W oder 50W sind. Die 290X verbrät das doppelte einer gleichwertigen Nvidia Karte und das wurde hier als Rechtfertigung dafür genommen, dass man jetzt mit "Mimimi Nvidia verbraucht so viel mehr" kommt und AMD in Schutz nimmt. Es macht einen Unterschied, ob eine Karte etwas mehr verbraucht oder das doppelte!

Nochmal: Wieso ist so vielen Usern bei AMD alles scheiß egal, aber bei Nvidia klammert man sich an jeden Grashalm?
Die Konkurrenzkarte der 290X war bei erscheinen aber die GTX 780Ti/Titan und daher relativiert sich das mit dem Stromverbrauch wieder. Der Verbrauch lag unter normalen Umständen bei ~250 Watt AMD und gut 220 Watt Nvidia...

Edit: 290X vs 780Ti bedeutete sogar Gleichstand beim Stromverbrauch, die 220 Watt bezogen sich wohl auf die GTX 780 und die Titan Classic:

https://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/9/
 
  • Gefällt mir
Reaktionen: Veitograf, McFritte, Ben81 und 6 andere
Kein Mensch weiß wirklich, warum bei Nvidia die Treiber in den Versionen homogen bleiben, bei AMD aber die Leistung über die Zeit wenn auch meist nur messbar zulegt. Dass einige es aber gegen AMD auslegen, weil über den Zyklus sie diese Vorteile erhalten, ist schon etwas strange. Einen geschenkten Gaul schaut man nicht ins Maul sondern nimmt man mit und gut ist dachte ich eigentlich.
 
  • Gefällt mir
Reaktionen: troopers, cbmik und StylishChiller
owned139 schrieb:
Du knallst ein paar Wattzahlen hin und faselst dann was von Effizienz. Die Effzienz einer Karte lässt sich nicht nur am reinen Verbrauch erkennen. Da fehlt noch ein Faktor: die Leistung. ;)
Ist aber auch ein klassischer Post eines AMD Fanboys.
Effizienter ist mehr Leistung bei gleicher TDP, bzw mehr Leistung bei weniger Leistungsaufnahme.
Effizienter wird es wenn ich effektiv weniger/gleiche Stromkosten habe, bei mehr Leistung.
Was du da tust ist schönrechnen,mehr aber auch nicht.
Sagt der AMD Fanboy mit RTX 3070 im Rechner :D
 
  • Gefällt mir
Reaktionen: .Snoopy., Veitograf, iron_monkey und 3 andere
Wieder einmal danke für eure Artikel und eure Arbeit @Wolfgang
 
Zurück
Oben