Test RTX 3080 und RX 6800 XT: Treiberentwicklung von AMD und Nvidia im Vergleich

Phobsen schrieb:
Effizienter ist mehr Leistung bei gleicher TDP, bzw mehr Leistung bei weniger Leistungsaufnahme.
Effizienter wird es wenn ich effektiv weniger/gleiche Stromkosten habe, bei mehr Leistung.
Jaein, effzienter ist es, wenn die Leistung stärker ansteigt als der Verbrauch.
Wenn die 4090 beispielsweise 60% mehr Verbraucht, aber die Leistung um 150% steigt, dann ist die Effizienz ebenfalls gestiegen.
Effizienz ist immer die erbrachte Leistung im Verhältnis zum Verbrauch.
 
  • Gefällt mir
Reaktionen: Colindo und Kai85
JackA schrieb:
Versprochen wurde ja damals, dass eine 580er mit neuen Treiber auch eine 1070er versenken wird.
Hat doch funktioniert, die 580 hat deutlich mehr verbraucht, damit konnte man fast 2 1070 betreiben. Also den längeren Balken hatte man alle mal (nur halt nicht im Performance Graph :))
 
  • Gefällt mir
Reaktionen: JackA und KlaasKersting
Chesterfield schrieb:
Also der Treiber an sich passt schon mittlerweile, was eher mau ist, sind die Features wie super sampling usw …


Warum das denn? Ich kann doch problemlos im Treiber Supersampling auswählen, seit Ewigkeiten. Und seit Tahiti oder so gibts ja auch VSR, falls SSAA mal nicht gehen sollte, aus welchem Grund auch immer. Supersampling ist mit AMD doch überhaupt kein Problem.

Ich finde, dass die Treiber insgesamt schon ein guter Grund für AMD sind, ganz egal wie man die Leistungssteigerung mit der Zeit bewertet. Das GUI ist einfach so viel besser und dass man alle Features gleich übersichtlich in einem Programm hat finde ich auch wesentlich angenehmer.


owned139 schrieb:
Das war nicht Thema meiner Diskussion mit @edenjung: https://www.computerbase.de/forum/t...und-nvidia-im-vergleich.2076395/post-26714666


Darum ging es nie, checkst du das nicht? Es ist für meine Aussage auch egal, ob es 30W oder 50W sind. Die 290X verbrät das doppelte einer gleichwertigen Nvidia Karte und das wurde hier als Rechtfertigung dafür genommen, dass man jetzt mit "Mimimi Nvidia verbraucht so viel mehr" kommt und AMD in Schutz nimmt. Es macht einen Unterschied, ob eine Karte etwas mehr verbraucht oder das doppelte!
Und ob es jetzt 30W oder 50W waren ist nur Erbsenzählerei die an dem Fakt nichts ändert.

Nochmal: Wieso ist so vielen Usern bei AMD alles scheiß egal, aber bei Nvidia klammert man sich an jeden Grashalm?


Du pickst dir für Hawaii das absolute worst case raus, vergleichst das mit dem best case bei nVidia, dazu mit einer Karte, die man wegen des VRAM eh nicht vergleichen kann, und wunderst dich, dass du bei deinem Getrolle nicht ernst genommen wirst?
Zum einen hat Hawaii enorm von niedrigeren Temperaturen profitiert. Hatte selbst eine Referenz-290X mit einem Morpheus, die lag kaum über 200W. Dazu bisschen UV und man hatte ne Karte die absolut im Rahmen war. Das wie damals üblich miese Referenzdesign, das eh niemand so genutzt hat, oder hochgezüchtete OC-Karten kannst du ja nicht direkt vergleichen...
Zum anderen kam Hawaii zwischen GK110 und Maxwell raus. Und bot Titan-Leistung bei etwas mehr Stromverbrauch zum halben Preis. Mit vernünftiger Kühllösung damals ein No-brainer.

Oder man guckt noch ein paar Jahre weiter zurück und guckt sich Thermi an. Oder Geforce FX. Es scheint fast so zu sein, dass mal der eine, mal der andere eine effizientere Architektur hatte... und jetzt ist AMD eben wieder vorne. Bei den Gerüchten zu den 4000ern kann man davon ausgehen dass es fürs erste so bleibt, aber in 4-5 Jahren kann das schon wieder anders aussehen. Solche Kommentare wie deine sind doch absoluter Schwachsinn, beide "Seiten" können genug Generationen nennen, in denen "ihr" Hersteller besser war.
 
  • Gefällt mir
Reaktionen: AssembIer und cbmik
owned139 schrieb:
Falsch. Effzienter ist es, wenn die Leistung stärker ansteigt als der Verbrauch.
Wenn die 4090 beispielsweise 60% mehr Verbraucht, aber die Leistung um 150% steigt, dann ist die Effizienz ebenfalls gestiegen.
Effizienz ist immer die erbrachte Leistung im Verhältnis zum Verbrauch.
Ich weiß schon das du das TDP Korsett mit der Leistung in Relation setzt, das kann man auf technischer/theoretischer Ebene durchaus als Argument IN EINEM TEST akzeptieren.
Mein Stromzähler Zuhause ist leider nicht bereit dieses theoretische Wissen auch zu berücksichtigen :D
Fakt bleibt das ich für das mehr an Leistung auch massiv mehr zahlen darf, das ist KEINE "gelebte" Effizienz.
Mit Maxwell/Pascal bzw RDNA haben beide Hersteller bewiesen das Effizienz durchaus etwas reales sein kann, und nicht nur ein theoretischer Wert.
 
  • Gefällt mir
Reaktionen: StylishChiller
Erkekjetter schrieb:
Der ewige Trugschluss. SIe holen nichts raus, sie können das Potential am anfang einfahc nicht ausnutzen. Da reift kein Fine Wine sondern man muss ewig warten, bis die Treiber endlich mal das sind, was sie hätten sein können/müssen beim kauf.

Ich mein, dein VErgleich zeigt das ja deutlich. Was interessiert heute ob eine 580 eine 1060 irgendwann nach Jahren abhängt...
Der Witz ist nur das die AMD Karten immer in etwa mit ihren Nvidia Pendanten auf Augenhöhe sind, zb.
6800XT und 3080.
Nur das die AMD Karte nach 1 Jahre davon zieht.

Würde AMD nvidia einholen könnte ich deine Argumentation verstehen.

Aber so ist es ja gut für Nvidia das sie bei der Präsentation der Karten noch auf Augenhöhe sind.

Btw 14% Raytracing Zugewinn durch Treiber ist schon nice.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron_monkey
JackA schrieb:
. Versprochen wurde ja damals, dass eine 580er mit neuen Treiber auch eine 1070er versenken wird.
wo das denn?
Höre ich zum ersten Mal.
Oder meinst du fanatische fanboys die geschwurbelt haben?

Wobei man sagen muss, das Pascal (1000er Karten) in dx12 schon echt bescheiden gealtert ist.
 
  • Gefällt mir
Reaktionen: MehlstaubtheCat und Kai85
Das Problem ist, dass die Hardwarereviews immer zeitnah nach Release gemacht werden und da verschenkt AMD viel Potential beim Ersteindruck.

Langfristig ist schön, dass der Kunde mit den Updates immer mehr davon nutzen kann.
Dann haben sich die Fanlager aber schon verfestigt.

Insofern KUDOS an CB für diesen Nachtest. Gerne mehr in dieser Richtung!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron_monkey
@Bierliebhaber ich habe das Argument mit dem Verbrauch gar nicht gebracht. Das war edenjung.
Ich wollte lediglich wissen, warum bei AMD alles egal ist und bei Nvidia nicht und diskutiere jetzt über Effzienz und die TDP von uralten Karten.
Fakten interessieren immer nur, wenn sie positiv für AMD oder negativ für Nvidia sind, ansonsten wird subjektiv Argumentiert, wie du schön an dem Post von Phobsen erkennen kannst. Keiner von euch hat meine Frage auch nur im geringsten beantwortet.
 
projectneo schrieb:
Letztlich trifft doch jeder seine Kaufentscheidung anhand der Leistung zum Kaufzeitpunkt
Das wäre vermutlich ein guter Aufhänger für eine Sonntagsfrage, ich würde behaupten die NVIDIA Fanbase stabiler ist, und auch in der nächsten Anschaffung mit höherer Wahrscheinlichkeit wieder Grün gekauft wird. Zumindest kann ich dieses Verhalten in meinem Bekanntenkreis immer wieder feststellen, wo nur mein Schwager und ich noch halbwegs objektiv vergleichen, während der Rest nur überlegt ob er eine xx60 xx70 oder xx80 "braucht". Aber wie sich immer wieder zeigt "Fanatiker" gibts auf jeder Seite und wenn Intel noch mit einsteigt kommt noch eine Fraktion hinzu.
 
  • Gefällt mir
Reaktionen: Asgartal
der Unzensierte schrieb:
Das Ergebnis des Tests spiegelt nur eine schon relativ alte Weisheit wieder. Das war schon bei der R9 290X so - am Anfang knapp auf Augenhöhe mit der 780Ti, später in Front. Ausnahmen (wie die Vega56 und 64) bestätigen da eher die Regel. Die Frage ist jetzt nur - warum ist das so?

Ich glaube das hat viel mit nvidias dx12 Schwäche bis einschließlich der Pascal gen zu tuen.
Amd bekam ihre Karten nie so richtig unter dx11 ausgelastet, während Nvidia da königlich gut drin war.

Nun gibt es aber seit nun mehr 7? Jahren dx12.
Und die alten Nvidia Karten sind heute in dx12 neunmal bescheiden, während alte amd Karten sich endlich auslasten können.

Und wenn ich zb die 1080ti sehe, welche bis heute in dx11 Anwendungen noch erstaunlich gut performt (11gb vram 2017 Leute!) aber in dx12 gefühlt unbrauchbar ist.

Siehe 1080ti zur 5700xt in dx11 zu dx12 (red dead redemption2)
 
  • Gefällt mir
Reaktionen: Dai6oro
owned139 schrieb:
@Bierliebhaber ich habe das Argument mit dem Verbrauch gar nicht gebracht. Das war edenjung.
Ich wollte lediglich wissen, warum bei AMD alles egal ist und bei Nvidia nicht und diskutiere jetzt über Effzienz und die TDP von uralten Karten.
Fakten interessieren immer nur, wenn sie positiv für AMD oder negativ für Nvidia sind, ansonsten wird subjektiv Argumentiert, wie du schön an dem Post von Phobsen erkennen kannst. Keiner von euch hat meine Frage auch nur im geringsten beantwortet.

Für mich grenzen deine Posts an Verfogungswahn (oder du bist ein Troll).

Du hast in diesem Thread angefangen eine völlig harmlose Aussage in ein :
"Wieso ist bei AMD eigentlich immer alles scheiß egal und bei Nvidia klammert man sich an jedem Strohhalm?"
Und das sogar auf ein Zitat hin, das aus dem Kontext genommen wurde und das objektiv einfach nicht kritisierbar ist. Ob AMD nun die Treiber nicht zu Release gebacken bekommt oder ob sie einfach über die Zeit besser optimieren als Nvidia ist doch völlig belanglos für die Kaufentscheidung, genau wie HAse_One es sagte.

Darauf hin wurde dir dann noch sehr neutral geantwortet, dass es FAnboys eben auf beiden Seiten gibt (mit dem Beispiel der 290X Stromverbrauchdiskussion - ohne weitere Details), woraufhin du die Effizienzdebatte eingebracht hast, siehe hier:

"Ja, Nvidia schluckt, aber liefert dafür auch ordentlich ab. Die Effizienz steigt mit jeder Generation.
Kann man das von der 290X behaupten? Die Hat vor 9 Jahren schon fast 300W gelutscht und war langsamer als eine 970, welche die Hälfte benötigte.
So viel mehr verbrauchen Nvidias Karten auch nicht wirklich. Die 3090 genehmigt sich 350W und die 6900XT 320W. Das sind 30W Unterschied und für mich nicht der Rede wert daraus jetzt so ein Thema zu machen."

Und dieser Post ist voll von dem, was du den AMD Usern vorwirfst:
  • Nvidias Mehrverbrauch bei Ampere wird relativiert. Dabei ist die aktuell effizienteste Karte nunmal die RX6800
  • du behauptest bei Nvidia steigt die Effizienz mit jeder Generation. Geschenkt. Das tut sie doch bei AMD aber auch. Wo ist da dein Argument?
  • Zuletzt relativierst du nochmal die 30W Unterschied (wobei du ja selbst forderst Fakten nicht zu relativieren) und wirst daraufhin korrigiert, weil die 30W Unterschied nicht faktisch korrekt sind, sondern es etwas mehr sind (woraufhin du wieder "herumfanboyst").

TLDR; Mir scheint du willst einfach gern AMD vs Nvidia fighten, aber anfangen UND fortführen tust dabei in diesem Thread du selbst.
 
  • Gefällt mir
Reaktionen: NDschambar, AssembIer, Veitograf und 13 andere
Ich frage mich, wieso das eigentlich jetzt pauschal resizable BAR genannt wird, obwohl AMD die Technik als SMA zu erst vorgestellt hat.
 
Gerithos schrieb:
Ich frage mich, wieso das eigentlich jetzt pauschal resizable BAR genannt wird, obwohl AMD die Technik als SMA zu erst vorgestellt hat.

Weil SAM nur ein Marketingname von AMD ist. Dahinter steckt schlicht und ergreifend rBAR was keine Erfindung von AMD ist. Das gibts schon seit Jahren.

rBAR ist einfach die "allgemeine" Bezeichnung dafür. Da es jetzt beide können kann man auch einfach bei rBAR bleiben, macht die Sache einfacher. Als wenn man extra immer SAM und rBAR doppelt erwähnt.
 
  • Gefällt mir
Reaktionen: KlaasKersting, DannyA4 und Gerithos
Ich habe es noch mit keiner 3080 noch 3090 geschafft unter 250 Watt über 21000 Punkte im Timespy wie mit meiner 6900xt zu erreichen. So weit kommt man leider mit den NV nicht runter ohne massiv Leistung zu verlieren. Dass die Leistung ausser bei RT mindestens gleich gut ist versteht sich von selbst bei deutlich weniger Verbrauch mit Frame Caps unsw..Die Differenz im Gamingbetrieb wird eher noch grösser aber sicher keinesfalls geringer was ich beobachten konnte.
 
LGTT1 schrieb:
Oft kommt das Argument "g Sync monitor, sonst gerne rot"
Man hat sich ja freiwillig in diese Abhängigkeit begeben weil man nur grün wollte, dann sollte man es auch so sagen und nicht son halbseidenes Argument raushauen
Ergänzung ()

DisOrcus schrieb:
Danke, das wusste ich nicht und hab dazu auf die schnelle auch nichts gefunden 👍
 
  • Gefällt mir
Reaktionen: DannyA4 und StylishChiller
Gerithos schrieb:
Ich frage mich, wieso das eigentlich jetzt pauschal resizable BAR genannt wird, obwohl AMD die Technik als SMA zu erst vorgestellt hat.
Wenn nennen RT doch auch RT oder DXR und nicht RTX oder?
Direct Storage wird auch so genannt werden, auch wenn Nvidia es RTX-IO nennt.
Normal bleibt man beim Standard
 
@OldboyX
Danke, endlich wer der meine Aussage versteht.

Ich wollte keine Diskussion anzetteln.
Das war nur ein Beispiel für Argumente oder Diskussionen die wir hier schon hatten.
Mehr nicht.

Ansonsten stehe ich zu meiner Treiber aussage.
Kein Treiber ist perfekt. Weder der von der einen Firma noch von der anderen.
Die einzigen die jemaals perfekt waren, sind die von Matrox.
Besser gehts nicht ;)
 
  • Gefällt mir
Reaktionen: CuMeC
Ich kenne das von AMD eigentlich nur so was die Performance Zuwächse über die Zeit angeht. Wie ein Wein der langsam reift und immer besser schmeckt. :D
 
  • Gefällt mir
Reaktionen: hanjef, DannyA4 und StylishChiller
owned139 schrieb:
Ich wollte lediglich wissen, warum bei AMD alles egal ist und bei Nvidia nicht und diskutiere jetzt über Effzienz und die TDP von uralten Karten.
Fakten interessieren immer nur, wenn sie positiv für AMD oder negativ für Nvidia sind, ansonsten wird subjektiv Argumentiert, wie du schön an dem Post von Phobsen erkennen kannst. Keiner von euch hat meine Frage auch nur im geringsten beantwortet.
Weil deine Frage mit Verlaub....bescheuert ist ?
Wenn ein Hersteller Mist baut,wird das auch entsprechend kritisiert, dazu musst du nur in die entsprechenden Themen gehen.
Die von dir gestellte Frage ist doch das perfekte Beispiel für Lagerdenken.
Das Ding ist halt,du siehst jedwede Kritik an Nvidia als quasi persönliche Beleidigung.
Da kommen dann am Ende Fragen wie die von dir gestellte auf den Tisch.
Dann willst du Dinge mit hahnebüchenen Vergleichen untermauern, wie du mit dem 290X vs GTX970 Vergleich eindrucksvoll bewiesen hast.
Nicht nur das beide GPUs aus unterschiedlichen Generationen stammen, es sind nichtmal die gleichen Leistungsklassen.
Aber ein 290X vs 780ti/Titan Vergleich war dir halt nicht dramatisch genug.
Dann hast du selbstverständlich mir gegenüber direkt die Fanboykeule geschwungen, und dann erwartest du tatsächlich eine seriöse Antwort auf deine Frage ?
Reflektiere doch bitte erstmal deine eigene Argumentation, bevor du andere als etwas betitelst was eher auf dich selber als deinen Gesprächspartner zutrifft.
 
  • Gefällt mir
Reaktionen: Veitograf, iron_monkey, McFritte und 9 andere
Zurück
Oben