Test GPU-Testparcours 2020: Grafikkarten von AMD und Nvidia im Vergleich

Taxxor schrieb:
Gewünscht ist ja eine Anzeige in CX, die zeigt ob und wie lange die Karte im Power Limit lag.
Und bei AMD müsste man dazu erstmal das Limit des Chips kennen und es dann einstellen, damit das Tool das Anhand des Verbrauchs bestimmen könnte.

Der GPU-ASIC-Verbrauch sollte sich doch mit dem Powerlimit vom MPT vergleichen lassen.
Das MPT bekommt die Info ja auch bloss vom Bios.
(für Leute, die ein getuntes MPT nutzen, müsste der geä. Wert in der Registry stehen)
edit:
Zusätzlich muss natürlich der Faktor Leistungsgrenze vom Wattman eingerechnet werden,
für User mit >0 bei z.Bsp. den beliebten Userbenchmarks für die Games.
Powerlimit und Faktor Leistungsgrenze sollte man automatisch mit in die Graka-Info bei CX reinschreiben.
dito
bei geflashten NV-Grakas.
 

Anhänge

  • MPT.png
    MPT.png
    206,6 KB · Aufrufe: 335
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Esenel und ZeroStrat
Abwarten und Tee trinken, AMD muss ja auch Fläche für RT opfern.
Auf der anderen Seite können genauso gut einige Ampere-Chips noch in 12nm kommen.
Jensen meinte ja, das 12nm noch net am Ende wäre.

Dem Kunden kanns egal sein. Es zählt nur Fps/€.
Jeder kann zum Glück im Parcour seine Games an- und abwählen,
und erhält seinen persönlichen Score.
 
  • Gefällt mir
Reaktionen: GERmaximus und Laphonso
Jens911 schrieb:
Amd hat keine Chance gegen Nvidia bis 2021 ...

Das kommt auf die Perspektive an, in reiner Leistung (längste Benchmark-Balken) und Effizienz gemessen vermutlich nicht, aber in Sachen Preis-Leistung, Langlebigkeit/Speicherausbau und Kundenpflege ist AMD/RTG nVidia meist klar voraus ;) ... alles eine Frage der eigenen Präferenzen.
 
  • Gefällt mir
Reaktionen: GERmaximus
incurable schrieb:
"Zu Red Dead Redemption 2 (Test) gibt es eine Anmerkung zu machen: Die gewählten Details erfordern mehr als 4 GB Grafikspeicher und lassen sich auf einer GeForce GTX 1650 (Super) deshalb erst gar nicht einstellen – „RDR2“ ist hier streng. Der in diesem Spiel eingetragene Wert für diese Grafikkarte basiert deshalb nicht auf einem tatsächlich durchgeführten Lauf, sondern wurde von der Redaktion aus noch lauffähigen Einstellungen abgeleitet. Ohne einen Wert in diesem Spiel wäre eine Abbildung der Grafikkarte im Leistungs-Rating allerdings nicht möglich."

kann man sehen wie man will, aber das ist sehr inkonsistent zu den tests mit der r9 fury. die wurde nämlich mit einigen einstellungen extra ins vram limit getrieben, und diese performance wurde dann auch in den diagrammen dargestellt, obwohl die ergebnisse dadurch natürlich verzerrt wurden. siehe bspw doom 2016. hier war die fury schnell und wqhd + ultra lief ganz normal. das problem entstand erst, als man manuell zwei einstellungen über das maximale preset gehoben hat (nightmare), wo dann die 4gb vram nicht mehr gereicht haben und die fps für die fury enorm eingebrochen sind.

wenn man hier jetzt so eine sonderbehandlung für die 1650 fährt, hätte man damals die fury in doom auch einfach mit ultra preset statt manuellem nightmare benchen können mit dem hinweis "ultra statt nightmare" und fertig. man hätte fps gehabt, die tatsächlich das spielerlebnis wiederspiegeln. im falle der 1650 und RDR2 ist es ja so, dass die karte die benchmark settings nicht mal abspielen kann.

KlaasKersting schrieb:
Naja, wonach soll man denn die Spiele auswählen?

das ist genau die kernfrage, die sich recht umständlich aber präzise beantworten lässt. ich bin der meinung, dass man hier spiele wählen sollte, die ein möglichst breites spektrum in verschiedenen bereichen abbilden. dabei sollten gewisse kriterien berücksichtigt werden: releasezeitpunkt unter berücksichtung eventueller ports von konsole, beliebtheit/spielerzahlen, qualität der technischen umsetzung, engine, entwicklerstudio, sponsoring von amd/intel/nvidia, tauglichkeit und relevanz für benchmarks zur leistungseinschätzung von gpus aller hersteller unter berücksichtigung der fairness eines vergleichs.

man muss hier als journalistische instanz ganz klar auch miteinbeziehen, dass durch benchmarks eine meinungsbildung stattfindet, und die muss dem neutralitätsgrundsatz folgen. die presse hat eine moderierende funktion. hier sind missstände aufzuzeigen und gewisse praktiken anzuprangern.

spiele, die mit einseitigen performance-fressern daherkommen, müssen entsprechend erwähnt und bestenfalls entschärft werden. wie bspw. hairworks in the witcher 3.
und auch bei spieleengines sollte man genauer hinschauen, besonders wenns die UE4 ist.

dieser parcours soll gpus verschiedener hersteller miteinander vergleichen und letztendlich eine kaufempfehlung sein.

nun der punkt, den viele dabei außer acht lassen: ein durchschnitt ist immer nur die summe von einzelergebnissen - sind die einzelergebnisse nicht in ordnung, machts ein durchschnitt davon auch nur bedingt besser. 5 äpfel und 1 mandel sind eben kein multi-frühstückssaft, sondern apfelsaft mit allergiehinweis.

im 2020 parcours fallen direkt die vielen nvidia RTX und unreal engine spiele ins auge - und während einige davon ungewohnt fair sind, wie bspw. metro exodus, sottr oder BF V, gibts da ganz unangenehme ausreißer in form von anno, control und sw: fallen order, die auf der anderen seite keinen ausgleich haben.

die redaktion hat angemerkt, dass RDNA gegen GCN "altersbedingt" aufholt - aber bei genauer betrachtung lässt sich das recht deutlich entkräften, wenn man gewisse titel aus der auswahl herausnimmt, die GCN unheimlich nach unten ziehen, und zwar nicht deshalb, weil jetzt GCN alt ist, sondern weil die spiele oder serien auf GCN noch nie gut gelaufen sind, und hier eine ansammlung eben solcher spiele bzw. engines anzutreffen ist.

a plagues tale ist ein sehr schlechter titel für radeon, allerdings weniger schlecht auf rdna als auf gcn. von einem guten ergebnis für rdna kann hier keine rede sein, nur weniger schlecht. das selbe nur noch schlimmer in anno - hier rutscht die 5700 XT gar hinter die 1080 - das selbe spiel beim vorgänger. borderlands ist ein UE4 titel, ein schlechtes ergebnis für GCN mit tradition - hier zeigt sich quasi immer das selbe bild - UE4 ist die "hausengine" von nvidia - da dürfte das nicht groß wundern. deshalb sehen wir auch in gears 5 ein schlechtes ergebnis für GCN und auch in star wars fallen order - ebenfalls UE4. ein weiterer kandidat mit entsprechender tradition ist ghost recon breakpoint auf der anvil engine, die auch in assassins creed und GR wildlands einen bleibenden eindruck bei GCN gpus hinterlassen hat. daher auch hier: keine überraschungen. bleibt noch metro auf der 4A engine, die in den vorgängern auch schon nicht besonders gut auf radeon gpus gelaufen ist.

unterm strich ist das keine entwicklung der "zukunft", sondern eine anhäufung von titeln, die schon immer schlecht auf GCN gelaufen sind, für die RDNA aber nicht mehr so anfällig ist. mit genügend UE4 titeln hätte man auch 2014 solche ergebnisse produzieren können.

darum ist es wichtig spiele gezielt auszuwählen, und auch zu wissen, was man da misst und welche schlüsse man daraus zieht.
 
  • Gefällt mir
Reaktionen: schuetze27, graysson, Hardwarious und 3 andere
Aphelon schrieb:
Bin gespannt, was intel das Jahr dann bringen wird und AMD müsste auch mal was konkurrierendes im oberen Segment bringen... Erst in der "dritten bis vierten" Preisklasse von Consumer-Karten mit einzusteigen ist imho zu niedrig.
och hört doch mal auf mit diesem ständigen sinnlosen Gedröhne. Wenn du glaubst, du brauchst eine völlig lächerlich starke GPU für 1000eu dann kauf sie dir halt. ferrari macht auch schnellere Autos als Opel oder VW, ist aber trotzdem für fast alle Leute uninteressant. AMD "muss" gar nix.
 
  • Gefällt mir
Reaktionen: schuetze27 und DannyA4
AthlonXP schrieb:
also ich bin mit meiner titan rtx mehr als zufrieden :)
Alles andere wäre bei dem Preis auch mehr als traurig. ;)
 
Jens911 schrieb:
Amd hat keine Chance gegen Nvidia bis 2021 soviel ist denke ich klar?
nö. Was gibt es denn derzeit von NVIDIA im Bereich der 5700 um die 300€?
 
  • Gefällt mir
Reaktionen: GERmaximus
Ich finde es schade, dass der Treiber von Nvidia so extrem altbacken aussieht...

Wenn du trollen willst, geh ins Chip-Forum!

Irgendwie stimmt eure FPS-Liste nicht so wirklich wirklich..
Hake ich in der Übersicht alle Spiele ausser Anno 1800 aus, und vergleiche sie mit der darauffolgenden Liste für Anno in 1440p, sind die Werte unterschiedlich.
Kann mir das jemand erklären?
 
Zuletzt bearbeitet:
DarkerThanBlack schrieb:
Das heißt, niemand kann sagen wie schnell AMD wird. Laut Gerüchte soll RDNA2 ein NVIDIA-Killer sein. :D

Seit "poor Volta" bin ich da sehr skeptisch.
Wobei man sagen muss das die aktuellen 5700er Karten einen äußerst interessanten Vorgeschmack geben
Ergänzung ()

K3ks schrieb:
@Kalsarikännit: ? ?? 2060s als Gegenstück zur 5700, beide so ab 300€...
5700 ab 320€
2060s ab 380€
also nein
Ergänzung ()

Unmoeglich schrieb:
Ich finde es schade, dass der Stromverbrauch der AMD-Karten so extrem hoch ist.
Ist er nicht,
siehe Beitrag #195 @Freiheraus
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schuetze27, fox40phil, Kalsarikännit und eine weitere Person
GERmaximus schrieb:
Wobei man sagen muss das die aktuellen 5700er Karten einen äußerst interessanten Vorgeschmack geben
Hoffentlich nicht, denn 5700/XT.Effizienz sieht nur so lang konkurrenzfähig aus, wie man ausblendet, dass die Konkurrenz-GPUs 1 1/2 oder 2 Schritte in der Prozesstechnologie zurück sind.

Vielleicht beliebt sich AMD ja noch irgendwann auch in ihren GPUs tile-based rendering zu implementieren, bis dahin verbraten sie halt weiter unsinnig Energie für Berechnungen, deren Ergebnisse nie jemand zu Gesicht bekommen wird.
 
incurable schrieb:
Hoffentlich nicht, denn 5700/XT.Effizienz sieht nur so lang konkurrenzfähig aus, wie man ausblendet, dass die Konkurrenz-GPUs 1 1/2 oder 2 Schritte in der Prozesstechnologie zurück sind.

Da hast du Recht.
Jetzt könnte man anfangen und die Manpower seitens Nvidia zu vergleichen, oder dessen Kapital im Vergleich zu Amd. Wie war das, Nvidia macht mehr Gewinn als AMD an Umsatz?
oder zu sagen: Mir als Kunde egal, solange das was hinten rauskommt stimmt.

Je nach Standpunkt eine pro nv oder pro amd Diksussion in der man sich quasi im Kreis drehen wird
 
AthlonXP schrieb:
also ich bin mit meiner titan rtx mehr als zufrieden :)

:daumen:
Aber ich hoffe du hast nen Shunt Mod gemacht.
Sonst tritze ich dich so lange wie @HisN bis der gemacht ist :stacheln:

Ich muss eh noch HisNs TimeSpy Punkte knacken.
Dafür müsste es aber draussen mal weniger als 16°C haben :freak:
 
@DannyA4
Die Übersicht zeigt die Leistung in Relation zur schnellsten GPU (100 %), bei den einzelenen Spiele-Benchmarks sind die absolut erreichten FPS der verschiedenen GPUs aufgetragen. Wenn du also bei den einzelnen Spielen als Referenz die 2080 Ti auswählst, ist das Ergebnis auch wieder gleich (da wird dann aber scheinbar gerundet)
 
  • Gefällt mir
Reaktionen: DannyA4 und GERmaximus
Ich bin gespannt welcher Hersteller nächstes Jahr meine 1080Ti ablösen darf.
Bzw. welcher Hersteller als erstes brauchbare Karten auf den Markt schmeißt. (min. +30% Leistung)
Und das nicht für über 1000€! 800€ sind für mich gerade noch so okay.

Trotz G-Sync Monitor würde ich zu AMD greifen wenn Sie das schaffen.
 
  • Gefällt mir
Reaktionen: GERmaximus
@Esenel
hehe, das erinnert mich an die 980ti und 1080ti Zeit mit nem Kumpel.
Ker was haben wir uns um die wette gebencht (jeweils selbe GPU)
Einfach just for fun und um zu sehen was geht.

Der Dritte in der Runde hatte dann als erstes ne rtx 2080 (wir beiden noch eine 1080ti) und da sah man die Unterschiede zwischen dx12 und dx11 (timespy zu firestrike)
Das was die 1080ti in dx11 schneller ist, ist die 2080 unter dx12 entsprechend schneller.
War eine schöne Erkenntnis

War wie ein sportlicher Vergleich und kein mimimi ich bin besser.
Ergänzung ()

snickii schrieb:
Ich bin gespannt welcher Hersteller nächstes Jahr meine 1080Ti ablösen darf.
Bzw. welcher Hersteller als erstes brauchbare Karten auf den Markt schmeißt. (min. +30% Leistung)
Und das nicht für über 1000€! 800€ sind für mich gerade noch so okay.

Trotz G-Sync Monitor würde ich zu AMD greifen wenn Sie das schaffen.
Du sprichst mir zu 100% aus der Seele.
Exakt so sehe ich das auch.
Wobei ich die 30% als schnitt sehe und nicht in einzelnen cherry games

Jedoch würde ich dann meinen Monitor verkaufen müssen. :(
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso und Esenel
Zespire schrieb:
Sind eigentlich auch Vergleiche mit VR Games geplant oder gibt es dort keine großen Unterschiede zum Rating in UHD.

Nicht im Rahmen dieses Parcours, aber wie in der Vergangenheit werden wir uns das immer mal wieder separat ansehen.

+ Irgendwo weiter oben hatte wer zurecht angemerkt, dass die Leistungsaufnahme "Durchschnitt" der von Tomb Raider entspricht. Das ist jetzt korrigiert.
 
  • Gefällt mir
Reaktionen: schuetze27, fox40phil, duskstalker und 5 andere
Zurück
Oben