Test GPU-Testparcours 2020: Grafikkarten von AMD und Nvidia im Vergleich

Oneplusfan schrieb:
Nehmen die immer folgendes Setup?
CPU von denen:
Core i7 5960X (Haswell-E) 8c/16t @ 4.2 GHz
Puuh, keine Ahnung, ist nur eine der ersten Sites die man findet wenn man nach Spielen und Benchmarks googelt.

Oneplusfan schrieb:
Ah ja, daher weht der Wind. Das ist schon kein Äpfel mit Birnen Vergleich mehr, denn Obst ist sich ähnlicher als dein Vergleich.

Für dich!
Ja klar, natürlich ist das lediglich auf mich bezogen und die Situation um den Releasezeitpunkt der RTX Karten damals. Ich kann schlecht für andere Menschen und ihre Situation sprechen, was sie brauchen oder wollen. Das will ich auch gar nicht.

Ich kenne auch einen Kollegen der sich eine 1080 Ti damals für 650€ geholt hat, das hätte ich z.B. dann nicht. Dann lieber die 2080 neu für um die 8xx€. Bei meinen 480€ sahs aber anders aus. Nochmal 400€ drauflegen für eine vergleichbare Karte um jetzt ein Jahr später 8% Mehrleistung zu haben. No deal (für mich).


Oneplusfan schrieb:
Das stimmt. Aber da du ja auch in UHD mit einer langsameren Karte zockst, obowhl UHD knapp 1 Mio mehr Pixel hat als 5120x1440p, sollte die Leistung einer 2080ti generell ausreichend für dich sein.
Der Unterschied hierbei ist, dass ich kein RDR2 in UHD zocke sondern dann z.B. eben ein Pathfinder Kingmaker, Mass Effect 1-3, Mechwarrior 5 etc. alles Spiele wo es mir egal ist ob es mit 70fps mit meiner 1080 Ti läuft oder mit 90 fps und einer 2080 Ti. Mein TV zeigt sowieso nur 60Hz.

Wenn ich ein RDR2 in UHD oder eben 3,5K Superwide flüssig spielen will mit allem auf Ultra braucht es mehr als eine 2080 Ti und ich bin so oder so "am Arsch" was die Leistung angeht momentan.

Oneplusfan schrieb:
Deine subjektive Meinung ist auch vollkommen legitim - für dich persönlich, aus deiner Sicht. (Wann kommen denn die neuen Karten?) Deshalb sind solche Aussagen:

aber trotzdem vollkommener Schwachsinn. Mögen Sie spezifisch auf dich vlt. zutreffen, heißt das nicht, dass das für alle anderen gelten muss.
Natürlich ist das eine auf meine Situation bezogene Meinung. Die Ausgangsbasis der anderen User kenne ich gar nicht. Die neuen Karten sollen ja im Juni 2020 vorgestellt werden. Und mit eben dieser Ausgangsbasis und bezogen auf meine Sicht macht es wenig Sinn deshalb jetzt noch in eine 2080 Ti 14XX€ zu senken für eine gescheite Aorus WB.


Oneplusfan schrieb:
PS, abstruse Vergleiche anstellen kann ich genauso gut wie du:

  • Eine Gaming X 1080 ti hat damals um die ~800€ neu gekostet (mit dem schlechteren Kühler als heute!)
  • Meine 2080ti Trio X habe ich für ~1000€ (ebenfalls neu bei MediaMarkt) ähnlich zeitig nach Release wie der 1080ti VGP bekommen.

Für nur 200€ mehr habe ich also gekriegt:
  • In allen Belangen besserer Kühler
  • Eine Karte, die je nach Betriebsmodus entweder bis zu 60% schneller in ausgewählten Spielen ist oder fast doppelt so effizient bei gleicher Geschwindigkeit wie eine 1080ti ist (150W 2080ti entspricht grob 280W 1080ti Quelle:https://www.igorslab.de/nvidia-gefo...effizienz-test-von-140-bis-340-watt-igorslab/)
  • Raytracing Hardware, GDDR6 Speicher sowie alle anderen Turing exklusiven Features
Klar wenn man Neu zu Neu vergleicht aber ich vergleiche ja was bekomme ich zum Zeitpunkt X - hast du ja auch mit deinem super 1000€ Sonderangebot. Wobei ich das Angebot - falls es sich auf Neupreise bezieht - nicht mit Geizhals untermauern kann. 1049€ lag sie für einen Tag im Juni diesen Jahres. Nix mit zeitig nach Release. Bis März 2019 lag die Karte bei um die 1325€ im Mittel mit Fluktuationen zwischen 1449€ und 1221€.

Und zu diesem Zeitpunkt lag eine 2080 Aorus WB bei 1490€, meine 1080 Ti bei 480€ (drei Monate alt gewesen lediglich). Wenn ich eine ROG STRIX als Vergleich nehme weil du ja gleich mit gleich willst wäre das immer noch 1429€ teuer gewesen Herbst 2018 plus Waterblock drauf für 120€ plus Backplate 30€.

Dafür hätte ich dann RTX bekommen in einem nicht erschienenen Spiel. GEIL. Muss man haben. Die Gaming X ist übrigens nicht dasselbe wie die Trio. Soviel zum Eingangs benannten Obstvergleich. Dass der Kühler beim highendigeren Modell besser ist könnte man erwarten. ;)

Eine 1080 Ti Gaming X Trio hätte es die ersten Monate nach Release auch für 795€ gegeben. Kann nix dafür wenn du fürs gleiche Geld das miesere Produkt genommen hast mit der Gaming X Twin Frozr Lösung.
 
Ich kann nicht ganz nachvollziehen warum in den Tests keine 1080 Ti gelistet ist - gibts da ne Erklärung für?
 
incurable schrieb:
Das mag für Dich persönlich interessant sein, besitzt aber auf die Leserschaft von Computerbase gerechnet keine praktische Relevanz.
Gebe ich dir absolut Recht, ist aber meiner Meinung nach ähnlich wie ne "Super" Karte und könnte auch so behandelt werden. CB macht ja auch keine maßgeschneiderten Informationen die zu 100% gezielt ausschließlich auf die bestehende Leserschaft abzielen und deren Vorlieben, sondern informiert testet und misst hier ganz allgemein und relativ breit gefächert, da wäre das Dazunehmen der LC durchaus gerechtfertigt. Die RTX 2080ti oder die RTX Titan sind jetzt auch nicht gerade Mainstream Modelle in dem Sinne.
 
Zuletzt bearbeitet:
GerryB schrieb:
Würde mich net wundern. wenn in dem Test der Speichertakt zu hoch war.
Hätte ich auch vermutet, trifft aber nicht zu:

4k60.gif

Im Diagramm sind vorn, in der Mitte und hinten jeweils idle-Zustände, der erste, kleinere Hügel ist ein 4K30 Youtube-Video, der zweite, viel höhere Berg ist ein 4K60 Youtube-Video.

Die UVD Clocks gehen bei 4K60 von ca 100 MHz im idle auf teilweise fast 1,3 GHz hoch, gleichzeitig steigt der Verbrauch am Netzteil um +/- 25W im Vergleich zu 4K30.
Ergänzung ()

duskstalker schrieb:
die ryzen chiplets sind so billig, dass amd schon marge ohne ende hat bei den aktuellen preisen.
Nein, so etwas wie "marge ohne ende" gibt es nicht. Die Ergebnisse könnten besser ausfallen, wenn alle CPUs ihrer Leistung entsprechend erheblich teurer verkauft würden.

duskstalker schrieb:
Wer bekannte Lügner und Missinformanten zitiert disqualifiziert sich in meinen Augen selbst.
Ergänzung ()

Curiositea schrieb:
Die RTX 2080ti oder die RTX Titan sind jetzt auch nicht gerade Mainstream Modelle in dem Sinne.
Wenn ich die Steam Hardware Umfrage als Basis nehme gibt es für jede Vega (nicht 64, schon gar nicht 64 Liquid, sondern alle Vegas zusammen) mehr als zwei 2080 Ti. Und da letztere aktuell weiter verkauft wird während die 64 Liquid seit langem aus dem Markt verschwunden ist (und von den übrigen Vegas auch nur noch Abverkauf stattfindet) dürfte sich diese Verbreitung, und damit das Interesse an den Ergebnissen, in der Zukunft nur noch mehr zu Gunsten der 2080 Ti verschieben.
Ergänzung ()

6kbyte schrieb:
Ich kann nicht ganz nachvollziehen warum in den Tests keine 1080 Ti gelistet ist - gibts da ne Erklärung für?

"Die bis dato in den Benchmarks enthaltenen Grafikkarten sollen noch nicht den letzten Stand darstellen, mit dem der Parcours im kommenden Jahr auf die nächsten neuen Grafikkarten losgelassen wird – definitiv fehlt noch die GeForce GTX 1080 Ti."
https://www.computerbase.de/2019-12/grafikkarten-testparcours-2020/3/#abschnitt_fazit
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil, captain kirk und GerryB
incurable schrieb:
Wenn ich die Steam Hardware Umfrage als Basis nehme gibt es für jede Vega (nicht 64, schon gar nicht 64 Liquid, sondern alle Vegas zusammen) mehr als zwei 2080 Ti. Und da letztere aktuell weiter verkauft wird während die 64 Liquid seit langem aus dem Markt verschwunden ist (und von den übrigen Vegas auch nur noch Abverkauf stattfindet) dürfte sich diese Verbreitung, und damit das Interesse an den Ergebnissen, in der Zukunft nur noch mehr zu Gunsten der 2080 Ti verschieben.
Ergänzung ()

Gut, bin ich jetzt ehrlich zu faul selbst nachzugucken, glaube ich einfach Mal. Ich bin dennoch der Meinung dass die Karte interessant gewesen wäre, schließlich zeigt sie das Potenzial von Vega
 
Banned schrieb:
Du meinst die 3,5GB schnell angebundener VRAM? Ja, das war wirklich großes Kino von NVidia. :freak:
In den Benchmarks hat sie dennoch abgeräumt, mal lese mal den launchthread hier. Die fps trotz des Handicaps sind aus technischer und Treibersicht ein Meisterleistung (halb ironisch, das war auch eine specs Täuschung) gewesen, den niemand, weder CB oder irgendeine techseite hat es bemerkt! Derart geballert hat die 970 in der Performance.
Bemerkt wurde es erst beim künstlichen Penetrieren der 4 GB VRAM außerhalb des Treiberlimiters.
Faktisch hatte sie 4 GB VRAM. Egal was einige hier schreiben, die "die 970 hat nur 3,5 GB VRAM" waren schon immer Unsinn. Marketingmäßig war es ein GAU.
Da Nvidia aber innerhaalb des Großteils dieses Jahrzehnts mit jeder Iteration seit den 700er Karten afaik die Top End und max fps GPUs stellt, sind sie gesetzt im High End. Daher hoffen wir ja alle auf AMD Angebote für fps Junkies.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
@Jan @Wolfgang
Habt ihr mal in Betracht gezogen für das Benchmark-Ergebnis über den gesamten Parkour den Median statt dem arithmetischen Mittel zu bilden?

Ich bin mir da unsicher, was hier nun das geeignetere Mittel wäre, aber beim Median würden man den Einfluss
einzelner, stark ausreißender Titel deutlich entschärfen.
 
  • Gefällt mir
Reaktionen: schuetze27
Laphonso schrieb:
Bemerkt wurde es erst beim künstlichen Penetrieren der 4 GB VRAM außerhalb des Treiberlimiters.

Genau. Der Treiber setzt ein Limit, weil's sonst gnadenlos ruckelt.

Da gibt's nichts dran schön zu reden. Das war einfach brutale Verarschung.

Spiele von damals sind auch nicht Spiele von heute. 4GB VRAM sind heutzutage sehr oft problematisch. 3,5 umso mehr. Faktisch kommt man mit 4GB länger aus als mit 3,5GB und damit ist es Kundentäuschung, was da betrieben wurde. Ob das damals kaum relevant war, spielt aus heutiger Sicht keine Rolle mehr, außer man wechselt eh alle 1-2 Jahre die GPU.

Etliche Händler haben die Karten wegen Sachmangel zurückgenommen. Wäre da alles astrein gewesen, hätte das keiner gemacht. Letztendlich hat NVidia ein paar Cent pro Karte gespart und gehofft, es merkt keiner.
 
Chismon schrieb:
Das kommt auf die Perspektive an, in reiner Leistung (längste Benchmark-Balken) und Effizienz gemessen vermutlich nicht, aber in Sachen Preis-Leistung, Langlebigkeit/Speicherausbau und Kundenpflege ist AMD/RTG nVidia meist klar voraus ;) ... alles eine Frage der eigenen Präferenzen.

na auf jeden Fall, frag mal die R7 oder Fury Besitzer , oder den GCN "fine Wine", der sich gerade anschickt zu Essig zu werden :stacheln:

https://www.computerbase.de/2019-08/amd-radeon-vii-eol/

regelrechte Langlebigkeitskings diese AMD Karten, besonders die richtig teuren ,die dann nichtmal ein Jahr durchhalten

Komm mal lieber wieder aus dieser Traumwelt zurück in der du das aufschnapps;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mumusud
incurable schrieb:
Wer bekannte Lügner und Missinformanten zitiert disqualifiziert sich in meinen Augen selbst.

kannst du das mal ausführen? bisher kommst du bei mir mit der aussage nämlich nicht gut weg.
 
duskstalker schrieb:
kannst du das mal ausführen? bisher kommst du bei mir mit der aussage nämlich nicht gut weg.
Ach komm, Du weißt sicher selbst ganz genau, welchen Unfug Jim zum Thema Zen 2 verzapft hat und statt das zuzugeben haben er und seine Anhänger sich in irgendwelche schwabulierten Ausflüchte verstrickt.

Grundrechenarten kann ich auch, Zahlen aus dunklen Quellen ziehen ebenso. Dafür habe ich kein Problem, Fehler einzugestehen, z.B. ein paar Beiträge weiter oben beim Vega vs 2080 Ti Vergleich in der Steam Umfrage müsste es nach den aktuellen Zahlen (Stand Nov: 0,32% vs 0,62%) nicht "mehr als 2" sondern "fast 2" heißen. Muss ich vorhin falsch gelesen haben.
 
GerryB schrieb:
Ich bin eher der Meinung das Volta tatsächlich zu langsam war und deswegen die Cf/SLi-Konkurrenz per Gamesoftware aus dem Rennen gekickt wurde.(TS-Benchmark aus dem Launchreview)

Die Titan V ist keine Gaming-Karte. Schau' aber mal auf die Performance in Anwendungen, die die Tensor-Cores nutzen, zum Beispiel optimierte neuronale Netze, oder auch Rechnungen in doppelter Genauigkeit. Ich bin mit der Karte überaus glücklich, sie erfüllt ihren Zweck als Deep-Learning- und CUDA-Spielwiese mehr als zufriedenstellend.
 
Zuletzt bearbeitet von einem Moderator:
incurable schrieb:
Ach komm, Du weißt sicher selbst ganz genau, welchen Unfug Jim zum Thema Zen 2 verzapft hat und statt das zuzugeben haben er und seine Anhänger sich in irgendwelche schwabulierten Ausflüchte verstrickt.

dann hast du nicht verstanden, wie leaks in dieser branche funktionieren. das ist ein individuelles problem deinerseits, weil du die gegebenen informationen nicht angemessen einordnen und richtig interpretieren kannst. offenbar nimmst du an, dass jeder leak immer 100% korrekt und zeitlich unendlichen bestand hat. du unterschlägst, dass das informationen aus 3. hand sind, die ggf. nicht nah an der quelle sind und dass informationen einfach altern können, vorallem bei so einer dynamischen entwicklung wie bei zen. zudem sind das informationen, die niemals offiziell bestätigt werden, somit bleibts eben immer nur spekulation - die kann aber eben auch sehr präzise sein.

dein zweiter fehler ist, sämtliche teile eines leaks als "lüge" zu bezeichnen, obwohl nur ein teil der informationen unpräzise, veraltet oder falsch ist, der womöglich aus verschiedenen quellen stammt. das chiplet design hat sich bewahrheitet, die ipc gains wurden sogar übertroffen, die effizienz stimmt, die niedrigen herstellungskosten stimmen.

falsch waren die namen, die taktraten und die preise. die informationen sind teilweise wochen bis monate alt. sowas ändert sich halt. das lineup, die namen und die preise werden nur tage oder wenige wochen vor launch festgelegt. das sieht man sehr schön an der 5700 XT anniversary, auf deren kühler "RX 690" stand. problem? gibts nicht. du nimmst die leaks als etwas, das sie nicht sind. leaks sind puzzlestücke mit unbekanntem ablaufdatum, keine immerwährenden fakten.

dein nr.1 argument hier scheinen die taktraten bei zen2 zu sein, bei denen jim "mehr versprochen" hat, die zen 2 allerdings "nie" erreicht - oder ist das wirklich so? um die leaks zu verstehen, muss man eben viel mehr hintergrundwissen mitbringen. da reichts nicht die überschrift bei videocardz zu lesen. wer die internen zusammenhänge versteht, weiß auch, dass zen 2 für den desktop der mülleimer der epyc produktion ist. das was wir hier im 3700X usw. vorgesetzt bekommen, sind die schlechtesten 6/8 core dies, die für epyc untauglich sind. das selbe beim 3900X und beim aktuellen threadripper. der 3950X zeigt, wie viel besser eine höhere binning stufe der zen2 chiplets ist. und wir wissen nichteinmal, ob der 3950X überhaupt "top bin" ist - kann sein da kommen noch 2-3 binning stufen drüber für epyc.

also zurück zu den taktraten. der bodensatz der zen2 chiplets, die wir in ryzen 3000 bekommen, schafft die geleakten taktraten nicht - ist der leak deshalb eine lüge, oder gibts da draußen vielleicht einfach top bin zen2 silizium, das in der testphase die 4,7 bis 5 ghz max clock geschafft hat, aber dieses top bin silizium wird einfach nicht in ryzen 3000 sondern nur in epyc verbaut? der 3950X ist doch schon mit 4,7 ghz angegeben. würde jeder ryzen prozessor die selbe siliziumqualität bekommen wie der 3950X (oder besser), wären die 4,7 ghz bis runter zum 3600 kein problem.

der grund wieso ryzen prozessoren so einen niedrigen allcore takt haben, liegt einfach daran, dass in den chiplets, neben den guten kernen, die die single core boost taktraten schaffen, eben auch absolute gurken sind, die 200-400 mhz früher aussteigen. es wäre sicherlich möglich eine ryzen cpu aus den besten chiplets zu selektieren, die allcore 4,6 bis 4,7 ghz schafft.
 
incurable schrieb:
Würfelzahlen damit die Balkendiagramme nicht komisch aussehen sind in der Tat Quark.
Hier geht es um den Test von Grafikkarten, hohe Auflösungen verfälschen nichts, sondern zeigen die Leistung unter verschiedenen Szenarien. Hier ist also Deine Kritik Quark.
"Dabei seit: Juli 2019" :freak:

Oha, stimmt. Da habe ich auch einen Bock geschossen.
Wie habe ich das denn geschafft? Danke für den Hinweis.
Habe mich wohl so aufgeregt, dass ich am Ende die "falsche Abbiegung" genommen habe.
Der Text wurde entsprechend zurechtgekürzt.
An diese Stelle entschuldige ich mich dafür.
Das mit den hohen Auflösungen, die in keinen Testergebnissen einfließen dürfen, betrifft selbstverständlich nur die CPU-Tests. Mein Fehler!
Der zweite Vorwurf geht also an die CPU-Tester, der GPU-Tester ist in dieser Sache natürlich unschuldig.
Die Auswahl der getroffenen Spieletitel ist jedoch weiterhin strittig.
Das hätte man besser durchdenken und auch umgehen müssen.

PS: ich bin nicht erst seit Mitte 2019 dabei. Ich kenne sogar noch die Datasette (inkl. 5 Minuten Wartezeit für das Laden eines Spiels) :-))
 
  • Gefällt mir
Reaktionen: incurable
captain kirk schrieb:
na auf jeden Fall, frag mal die R7 oder Fury Besitzer , oder den GCN "fine Wine", der sich gerade anschickt zu Essig zu werden :stacheln:

https://www.computerbase.de/2019-08/amd-radeon-vii-eol/

regelrechte Langlebigkeitskings diese AMD Karten, besonders die richtig teuren ,die dann nichtmal ein Jahr durchhalten

Komm mal lieber wieder aus dieser Traumwelt zurück in der du das aufschnapps;)

Oh...Wusste garnicht, dass 16GB VRAM zu Essig werden.
Die Seven ist immer noch lieferbar und zu einem guten Preis.
https://geizhals.de/xfx-radeon-vii-rx-vegma3fd6-a1975592.html?hloc=at&hloc=de

Dieser Wein scheint manchen noch recht gut zu munden. :)
 
  • Gefällt mir
Reaktionen: Chismon
duskstalker schrieb:
dann hast du nicht verstanden, wie leaks in dieser branche funktionieren.
/\ - Hier habe ich aufgehört zu lesen. Ich hoffe, der Rest war nicht zu mühsam.
Ergänzung ()

DarkerThanBlack schrieb:
Das Ding ist 4-10% schneller als eine Referenz-5700XT kostet aber selbst im Abverkauf 200 Euro mehr als ein Herstellermodell. "Guter Preis" geht IMHO anders.
 
  • Gefällt mir
Reaktionen: Esenel, fox40phil und captain kirk
incurable schrieb:
Das Ding ist 4-10% schneller als eine Referenz-5700XT kostet aber selbst im Abverkauf 200 Euro mehr als ein Herstellermodell. "Guter Preis" geht IMHO anders.

Andererseits ist die Heizleistung der VII deutlich höher ... in Sachen Watt / Euro gibt es kaum etwas Besseres an aktueller Hardware.
 
  • Gefällt mir
Reaktionen: GERmaximus, Kalsarikännit, Jan und 2 andere
incurable schrieb:
/\ - Hier habe ich aufgehört zu lesen. Ich hoffe, der Rest war nicht zu mühsam.

ist schon ok, wärst mit dem text und den zusammenhängen wohl anscheinend überfordert gewesen. immer nur so viel, wie man sich zutraut.
 
DarkerThanBlack schrieb:
Oh...Wusste garnicht, dass 16GB VRAM zu Essig werden.
Die Seven ist immer noch lieferbar und zu einem guten Preis.
Ja natürlich ist sie noch sehr gut lieferbar,weil das Ding im Regal liegt wie ein Briefbeschwerer

Welcher Geisteskranke sollte sich jetzt auch noch so ne EOL Karte gönnen , zu dem Wucherpreis , wenn jedes Kleinkind mittlerweile am nachlassenden Treibersupport (fine Acid) sehen kann , das das Ding eine Totgeburt war.
Das Ding war ursprünglich mal als "2080 Killer" gehandelt, mittlerweile hampelt der Chip leistungstechnisch, irgendwo zwischen 2070Super u 2070 umher, zu Preisen u ner Energieeffizienz die schlicht indiskutabel sind

Aber hei wenigstens hat sie 16gb Vram 11elf :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex und incurable
KuestenNebel schrieb:
Andererseits ist die Heizleistung der VII deutlich höher ... in Sachen Watt / Euro gibt es kaum etwas Besseres an aktueller Hardware.

Das stimmt schon, in der Hinsicht ist ja die gleich viel brauchende 2080Ti FE viel zu teuer... nicht mal angemessen heizen zum kleinen Preis kann man mit der, absolutes NoGo! :freak:
 
  • Gefällt mir
Reaktionen: GERmaximus, incurable, duskstalker und eine weitere Person
Zurück
Oben