Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

Bei der Wahl der CPU muss man sich auch im Klaren sein, dass Zen3 vor der Tür steht und sicherlich relativ bald der 3900XT gegen sein Zen3 Pendant getauscht wird. Ist etwas Sinnfrei jetzt noch nen LGA1200 System mit einem 10900K aufzubauen, wenn die Chancen ganz gut stehen, dass wir in weniger als vier Wochen einen neuen König haben.
 
Was ist eigentlich aus Messungen zur Leistungsaufnahme im Multi Monitor Betrieb geworden?
Ich kann mich dunkel erinnern das AMD abseits von Vega da jetzt nicht gerade gut unterwegs war. Wäre nett zu wissen wie es da zukünftig/ momentan aussieht. Für Rot & Grün.

edit: hat sich erledigt, da ich es überlesen habe
 
Habe ich vielleicht überlesen. Aber werden die Benchmarks selbst jetzt mit aktivem HDR durchgeführt?
Früher gab es ja anscheinend durchaus Geschwindigkeitsunterschiede abhängig davon ob es aktiviert war.
 
H3llF15H schrieb:
Ganz schön überheblich für jemanden der erst sechs Tage hier ist...
Was hat das denn damit zu tun? Bist du "mehr wert" weil du länger dabei bist oder was?
 
  • Gefällt mir
Reaktionen: Maxxx800 und Shoryuken94
.Sentinel. schrieb:
Eine coole Technik in der Testmethodik zu etablieren ist also gefährlich?
Du weisst schon, dass sich solch coole Techniken oftmals auch durchsetzen?

DLSS soll ja getestet werden und einen eigenen Teil - ähnlich RT erhalten. Aber ich würde ungern die Ergebnisse vermischt sehen wollen.
Tatsächlich würde ich die Etablierung eines offenen Standards begrüßen und keine proprietären Alleingänge.

.Sentinel. schrieb:
Technologien kommen und gehen.... Manche etablieren sich (Software PhysX) und manche überholen sich aufgrund der Hardwareentwicklung zu unified shadern selbst (Hardware Physx).

Und je nachdem wie getestet wird, kann dieser Prozess zum einen oder anderen beeinflusst werden. Aber ist das dann noch objektiv?

.Sentinel. schrieb:
Wird sie auch nicht- Sondern durch ein neues Featureset auf einer dedizierten Einheit, die mal eben eine zusätzliche Rechen- Peak- Performance von 312 TFLOPs FP16 und Teilmengen zur Verfügung stellt.
Eine Peak-Performance, die sonst im normalen Renderpfad aber eigentlich nicht zur Verfügung steht, oder?

Ich finde die Kopplung an eine dedizierte Einheit von dir auch ziemlich willkürlich bei der Betrachtung ob es zur Rohleistung berücksicht werden soll oder nicht. Wäre es nicht sogar NOCH besser wenn für die selbe Technologie keine dediziert Einheit nötig wäre?

.Sentinel. schrieb:
Aha- Und jetzt? Muss man jetzt dann auch alle Rastereffekte der Grafikkarten deaktivieren, weil sie ja "nur" darauf basieren einfaches und schlechtes Ausgangsmaterial mit "Tricks" in irgendwas präsentables zu verwandeln?

Natürlich nicht - die Frage liegt nach wie vor in der Vergleichbarkeit. Wenn man Hardware vergleicht muss man halt einen kleinsten gemeinsamen Nenner haben. Wenn ein Stück Hardware Trick 17b nicht kann (der wie gesagt auch nicht immer zur Verfügung steht) muss man sich fragen ob man dann beim Vergleich der beiden Komponenten Trick17b überhaupt nutzt.

Die meisten Rastereffekte werden ja von beiden unterstützt und sind somit vergleichbar.

Ich finde deine Wortwahl etwas misslungen. Das "theoretische" unendlich auflösende digitale Ausgangsmaterial ist natürlich nicht schlecht sondern die rastarisierte Repräsentation ist einfach nur ein manchmal schlechter Kompromis.

.Sentinel. schrieb:
Nach all der Information, die im Netz verfügbar ist, in Sachen Rastertechnik und wie moderne Engines funktionieren, wundert mich dieser "aber das ist Nativ!" -Irrtum, der hier stoisch in Sachen Raster- Technik weitergetragen wird wiklich langsam. Beim Rastern ist nix nativ, deswegen rastert man ja auch und bekommt dazu noch einen Haufen Quantisierungsfehler (z.B. Aliasing) gratis!

Ich glaube die Frage ist immer wovon die Leute reden wenn sie von "nativ" reden. So finde ich zum Beispiel in Death stranding, nach allem was ich gesehen habe - ich besitze das Spiel leider nicht , die TAA Implementierung nicht gelungen. Viele sagen, wenn sie sagen DLSS > 4k nativ, eigentlich nur DLSS > schlecht implementiertes TAA. Aber das ist nur meine Meinung. Die meisten Leute benutzen nativ halt nur als 4k berechnetes Bild auf 4k Monitor.
 
  • Gefällt mir
Reaktionen: Sun-Berg, KlaraElfer und .Sentinel.
Andre Prime schrieb:
Zudem fehlt noch 31:10 und 4096x2160 von speziellen Produkten. Dual oder Triplemonitorsetups in 1080p, 1440p oder 2160p.
Die anderen Auflösungen, die du genannt hast, sind gute Argumente, aber echtes 4K ist extrem selten und was bitte ist 31:10? Meinst du 24:10 als Alternative zu 21:9, oder 32:9 für doppelt breite Monitore? Und der Hinweis auf mehrere Monitore ist bei einer Umfrage mit dem Titel "primärer Bildschirm" etwas fehl am Platze ;)
Gargamehl schrieb:
Habe ich vielleicht überlesen. Aber werden die Benchmarks selbst jetzt mit aktivem HDR durchgeführt?
Früher gab es ja anscheinend durchaus Geschwindigkeitsunterschiede abhängig davon ob es aktiviert war.
Zu HDR gibt es bestimmt beizeiten einen Extra-Artikel. Das ist nicht im Standard-Benchmark drin.
 
Wolfgang schrieb:
Da AMD-Karten eine maximale Lüfterdrehzahl haben, in das die zwei Modelle reinlaufen, können diese nicht lauter werden - die werden dann wärmer.

Jein. Kommt hier stark auf den kühler an, ob sie nur wärmer werden. Denn auch hier gibt es ein Temperaturlimit. Wird auch das angekratzt drosseln die AMD Karten. Nicht unerheblich bei den Refferenzmodellen, die hier eingesetzt werden. Dort gibt es bis zum Templimit wenig Spielraum und gerade der HBM Speicher der Vega 64 ist da etwas allergisch.

Es gibt Spiele die auch ganz gut den Speicher aufheizen. Witcher 3 ist so eins. Da taktet die vega 64 mit dem Refferenzkühler gerne mal kurzzeitig auf 800mhz runter. Bei Customs ist das aber kein Thema. Da hat der Kühler eigentlich immer genug Reserven.
 
Glyphus schrieb:
DLSS soll ja getestet werden und einen eigenen Teil - ähnlich RT erhalten. Aber ich würde ungern die Ergebnisse vermischt sehen wollen.
Tatsächlich würde ich die Etablierung eines offenen Standards begrüßen und keine proprietären Alleingänge.
Das liegt aber nicht an demjenigen, der die Technologie vorlegt....

Und je nachdem wie getestet wird, kann dieser Prozess zum einen oder anderen beeinflusst werden. Aber ist das dann noch objektiv?
Objektive Bewertungsgrundlagen liefern dann die entsprechenden Benchmarkbalken.

Eine Peak-Performance, die sonst im normalen Renderpfad aber eigentlich nicht zur Verfügung steht, oder?
Wieso sollten die nicht zur Verfügung stehen? Natürlich kannst Du die Leistung in Anspruch nehmen.

Wäre es nicht sogar NOCH besser wenn für die selbe Technologie keine dediziert Einheit nötig wäre?
Hehe- Natürlich wäre es das. Man hat aber dedizierte Einheiten, WEIL man die Leistung sonst nicht im Ansatz bringen könnte.

Natürlich nicht - die Frage liegt nach wie vor in der Vergleichbarkeit. Wenn man Hardware vergleicht muss man halt einen kleinsten gemeinsamen Nenner haben.
Ja- Das ist in der Tat eine riesen Problematik. Da wir uns aber im schnellebigen Tech- Sektor befinden, sollte es eine Selbstverständlichkeit sein, dass man neue Technologien berücksichtigt, wenn sie denn ein gewisses Potenzial auf Zukunftsträchtigkeit liefern.

Sonst wären früher Titel untesbar gewesen, die z.B. auf Glide bzw. einem dedizierten 3d- Berschleuniger liefen.
Du könntest so also NIE Dinge und Features testen, die eine andere Karte nicht beherrscht.

Wenn ein Stück Hardware Trick 17b nicht kann (der wie gesagt auch nicht immer zur Verfügung steht) muss man sich fragen ob man dann beim Vergleich der beiden Komponenten Trick17b überhaupt nutzt.
Es kann doch nicht das Problem einer Software und deren Beurteilung einer Leistungsfähigkeit sein, nur weil Hardware XY nicht in der Lage ist, diese ordentlich zu bedienen...
Nach dem Motto hätten wir seit Jahren technischen Stillstand.

Die meisten Rastereffekte werden ja von beiden unterstützt und sind somit vergleichbar.
Ja- Aber nur, weil wir seit der Einführung von DX9 so gut wie qualitativ technologischen Stillstand (nicht quantitativ) ertragen mussten.
Will man das wirklich?

Ich finde deine Wortwahl etwas misslungen. Das "theoretische" unendlich auflösende digitale Ausgangsmaterial ist natürlich nicht schlecht sondern die rastarisierte Repräsentation ist einfach nur ein manchmal schlechter Kompromis.
...zumal schon diese Präsentation wiederum nur durch einen Haufen anderer Kompromisse zustande kommt, die noch im Vorfeld passieren (virtuell niedrigerer Renderfaktor von Effekten, zur Framerate asynchron ablaufende Effekte).
Wenn ich jetzt also einen Kompromiss habe, der aufgrund der Performance und Bildqualität erheblich besser ist, als der vorhergehende Kompromiss, wieso sollte ich dann Kompromiss A als nativer bezeichnen als Kompromiss B, der seine Bildinformation intelligenter und deutlich effizienter errechnet?

Ich glaube die Frage ist immer wovon die Leute reden wenn sie von "nativ" reden.
EIn ganz wichtiger Punkt. Denn die Leute wissen oft garnicht, welche Voraussetzungen, die aber keineswegs selbstverständlich sind, sie in dem Ausdruck nativ schon reinverwursten. Und wie großzügig da über viele wichtige Punkte des Renderverhaltens hinweggesehen wird.

... die TAA Implementierung nicht gelungen. Viele sagen, wenn sie sagen DLSS > 4k nativ, eigentlich nur DLSS > schlecht implementiertes TAA
Kannst ja TAA ausschalten und dann gegen das nicht temporal gesamplete Bild stellen. Da ist DLSS in Summe immernoch deutlich überlegen (außer in Standbildern, die naturgemäß wenig Rückschlüsse auf Aliasing und Artefaktbildung zulassen).

Aber das ist nur meine Meinung. Die meisten Leute benutzen nativ halt nur als 4k berechnetes Bild auf 4k Monitor.
Und übersehen dabei, dass das "native" 4K Bild aus allerlei Unterauflösungen und Frameraten zusammengschummelt wird....

Schöner Beitrag. So macht das Spaß!

Letztenendes bleibt nur zu sagen, dass es die Tester da wirklich nicht einfach haben.
Ich finde es aber gut, wie sie es hier machen wollen, sprich dediziert die Fälle oder Features XY dazuzutesten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, Glyphus und KlaraElfer
CrustiCroc schrieb:
Was hat das denn damit zu tun? Bist du "mehr wert" weil du länger dabei bist oder was?
Nö, sicherlich nicht. Nur finde ich es anmaßend nach sechs Tagen hier die Klappe aufzureißen und der Redaktion Unfähigkeit in der Auswahl der CPU vorzuwerfen - in Anbetracht der Qualität der Tests die in der Vergangenheit abgeliefert wurden.

Hinzu kommt, dass die Redaktion immer offen für sachliche Kritik war und teils auch die Tests entsprechend ergänzt hat.

Aber das weißt du sicherlich.
 
  • Gefällt mir
Reaktionen: CableGuy82, Asghan und Kloin
w0mbat schrieb:
in weniger als vier Wochen einen neuen König haben.
Vorsicht. Da ist nur die Vorstellung.
Bis er kaufbar ist wirds wohl Januar, und bis die BIOSe stabil sind (ich erinnere mich nur zu gut an das 3000er Debakel) dauerts nochmal 2-3 Monate.
 
Esenel schrieb:
@Wolfgang
Könntest du mir bitte die gewählten Settings von Control bereitstellen?
Da ihr ja erwähnt die Settings wurden hochgeschraubt.
Danke!

So hoch es halt geht abseits von RT und DLSS:D
Ich glaube Hoch-Preset heißt es.

Gargamehl schrieb:
Habe ich vielleicht überlesen. Aber werden die Benchmarks selbst jetzt mit aktivem HDR durchgeführt?
Früher gab es ja anscheinend durchaus Geschwindigkeitsunterschiede abhängig davon ob es aktiviert war.
Die Benchmarks sind ohne HDR durchgeführt worden.
 
  • Gefällt mir
Reaktionen: Esenel
llax schrieb:
Objektiv getestet, würde man mit PCIE 4.0 testen, da kommender, neuer Standard. Stellen wir uns mal eine andere Situation vor:

1) Intel ist 15% langsamer, bietet aber PCIE 4.0 an. Neue Grakas kommen ebenfalls, mit zukünftigen standard PCIE 4.0 raus.
2) AMD bietet nur PCIE 3.0 an, ist aber 15% schneller.
Daraufhin, weil er schneller ist, entscheidet sich CB für PCIE 3.0 und für AMD.

Was hier dann los wäre, kannst du dir ausmalen? Du wärst garantiert in den ersten Reihen derer, die hier abgehen würden, dass es nicht sein kann, dass kommende Zukunft, mit veralteter Technologie getestet wird!
PCIE 4.0 ist die Zukunft, also muss es mit entsprechender HW getestet werden. Denn alles andere, ist ziemlich Sinnlos.
Die Foren hier, würden garantiert glühen.

Und da würde ich euch zu 100% zustimmen. Nur ist die Situation mit AMD und Intel gerade umgekehrt, und ihr besteht plötzlich hartnäcking darauf, Tests zukunftiger HW, mit alten standards durchzuführen?
Rückgratlösigkeit pur.

Ein Test mit PCIE 3 gegen PCIE 4 um zu vergleichen, würde ich auch gerne sehen. Nur wäre das objektiv gesehen, ein separater Test mit Intel. Nicht mit AMD.

Ist schon blöd, wenn Menschen darauf bestehen objektiv zu sein, die eine rosa rote Fanboy-Brille aufsitzen haben.

du erzählst so einen quatsch, genauso könnte ich argumentieren, dass hier veraltete AMD Technik genutzt wird die sich immer noch schwer tut einen gefühlt uralten 8700K in Spielen zu schlagen, es werden im GPU Test keine Anwendungen gebencht, hier nimmt man für objektive Vergleichbarkeit der Karten die schnellste CPU und fertig. Wenn ich es drauf anlege hab ich in einigen Spielen mit nem Intel 40-50% Vorsprung vor nem AMD, erst recht mit ner 3090, aber ja 1-2% durch PCI-E sind da wichtiger.
Ergänzung ()

BOBderBAGGER schrieb:
Ein GPU Benchmark sollte man möglichst fern eines CPU Limits durchführen da sind die paar Prozent Differenz beider Platformen doch ziemlich egal. Ohnehin sind die absolut erzielten Frames peng, der relative vergleich ist das interessante.

ja ein paar %...so 20-40...zt sogar 50% je nach RAM und Spiel.
 
  • Gefällt mir
Reaktionen: jk1895
Dachte eben auch schon "uii die 3000er tests sind da"
Ist gut geworden.
Ich kann zwar nur für mich sprechen, aber solange die CPUs 60FPS schaffen ist mir das eigentlich egal ob intel oder AMD. Weil 60FPS schaffen die alle, sofern der CPU entsprechende GPU vorgesetzt wird.
Die Intel dinger sind doch nur für leute interessant die unbedingt den längsten balken haben müssen, dazu kommt das ich bezweifel das man den unterschied zwischen 100 und 105FPS merkt.
60HZ/FPS wird mir auch noch lange in Zukunft reichen, da ist mir eine feine auflüsung wichtiger. :)
 
  • Gefällt mir
Reaktionen: Achim_Anders
Asghan schrieb:
Vorsicht. Da ist nur die Vorstellung.
Bis er kaufbar ist wirds wohl Januar, und bis die BIOSe stabil sind (ich erinnere mich nur zu gut an das 3000er Debakel) dauerts nochmal 2-3 Monate.
Sorry, aber das ist doch Blödsinn, merkst du doch selber, oder?

Kaufbar wird Zen3 wohl 1-2 Wochen nach Vorstellung, spätestens im November. Und die BIOS sind jetzt schon verfügbar und stabil.

Mach dich bitte nicht lächerlich :)
 
  • Gefällt mir
Reaktionen: Kodak
Wolfgang schrieb:
So hoch es halt geht abseits von RT und DLSS:D
Ich glaube Hoch-Preset heißt es.

Mach ich.
Leider habe ich nicht gefunden mit welchem Takt die 2080Ti FE in etwa durch Control lief.
Das wurde damals in dem Artikel noch nicht erfasst.

Um diesen Faktor würde ich die Karte dann runtertakten.
 
gunmarine schrieb:
du erzählst so einen quatsch, genauso könnte ich argumentieren, dass hier veraltete AMD Technik genutzt wird die sich immer noch schwer tut einen gefühlt uralten 8700K in Spielen zu schlagen, es werden im GPU Test keine Anwendungen gebencht, hier nimmt man für objektive Vergleichbarkeit der Karten die schnellste CPU und fertig. Wenn ich es drauf anlege hab ich in einigen Spielen mit nem Intel 40-50% Vorsprung vor nem AMD, erst recht mit ner 3090, aber ja 1-2% durch PCI-E sind da wichtiger.
Das darfst du gerne behaupten und als Argument, "es ist schneller bei ANNO, weil Hochfrequenzkerne!" benutzen.
Nur zu. Wer hier fortschritlicher ist, wissen wir alle. Aber ruhig mal weiter heilige 14+++++++nm anbeten.

In deinen Träumen nimmt man die schnellste CPU. Die CB nimmt die, die kommende Technologie unterstützt. Nur geht es nicht in euer Kopf. Wurde bereits mehrfach erklärt.

Klar kannst du darauf anlegen. Nur wollen wir aber keine CPU testen. Spare dir deine Auflösungen von 640x480.
Wenn du schon dabei bist, so dick aufzutragen: sei bitte so Nett und gib uns doch die Quelle, die das bereits getestet hat? Ich kenne keine.
Oder wie kommst du auf 1~2% von 3 auf 4 PCI-E?
 
  • Gefällt mir
Reaktionen: Maxxx800
Esenel schrieb:
Mach ich.
Leider habe ich nicht gefunden mit welchem Takt die 2080Ti FE in etwa durch Control lief.
Das wurde damals in dem Artikel noch nicht erfasst.

Um diesen Faktor würde ich die Karte dann runtertakten.
Im ersten Test war das so:
Bei dem Testsample der GeForce RTX 2080 Ti FE liegt dieser bei 1.935 MHz, auf der GeForce RTX 2080 Founders Edition sind es 1.965 MHz. Bei höherer Temperatur und GPU-Auslastung reduziert sich die Frequenz automatisch. Im Spielebetrieb arbeiten die 3D-Beschleuniger ohne anliegende Limits noch mit maximal 1.875 MHz (RTX 2080 Ti) beziehungsweise (1.890 MHz).
Quelle: https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-2080-ti-test.65039/
 
Zurück
Oben