Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

Also ich seh den 3900X ziemlich weit oben, vielleicht brauch ich eine Brille.
(selbe Klasse wie 10900k, 9900k)

Hast Du die Speicherlatenzen optimiert?
 
Ich habe erst 7 Seiten durch, habe mich aber köstlich amüsiert, wie einige vor Wut schäumen, weil keine Intel CPU für den Test verwendet wird, während andere aus der Hose springen, weil keine 3440x1440 Auflösung genommen wurde.😁
Danke, Jungs und Mädels! Das war höchstamüsant und unterhaltsam.🙃
 
  • Gefällt mir
Reaktionen: Kodak, SirDoe, CableGuy82 und 12 andere
Schön uns transparent.

Nur bei der CPU habe ich mir auch die Frage gestellt.
Ich hoffe mit dem nächsten AMD Release im CPU bereich werden dann auch die letzten Unklarheiten beseitigt und das Testsystem nocheinmal angepasst.
 
@ZeroStrat

Und was willste damit beweisen?
RAM-OC vs non-Ram-OC..... Vergleichbarkeit gleich Null.
 

Anhänge

  • Tabelle.jpg
    Tabelle.jpg
    117,2 KB · Aufrufe: 297
Jan schrieb:
Anwendungen kommen auch noch. Das sei dem jetzt enttäuschten Anwender an dieser Stelle verraten. :D
Ich würde mir zudem noch etwas zum Speicher(mangel) der 3080 wünschen, ggü. Karten mit mehr als 10 GB. Und noch ein Test, ob PCIe 3.0x16 statt 4.0x16 einen Unterschied macht.
 
  • Gefällt mir
Reaktionen: SirDoe und CableGuy82
Das ist ja echt lächerlich, dass Minecraft RTX auf 1440P nur lächerliche 35FPS schafft. Der Seus-PTGI-Fake-Raytracing-Shader schaffte auf meiner Karte mit aktiviertem Fake-Raytracing 45FPS und mit deaktiviertem Fake-Raytracing 55FPS. Ok, meine 2080S boostet auf 1965-1980MHz mit Werkseinstellung und das Referenzdesign* von CB auf 18xxMHz, dann halt 2FPS abziehen.

Und die RTX 2080TI im Test mit 88°C muss sich schön am Takt rumkastrieren. Mehr als 88°C lässt Nvidia ja eh nicht zu. Da kann Computerbase ja in paar Tagen mal gucken, wann die Ampere dicht macht! Die legendäre Thermi durfte noch 105°C warm werden und irgendwelche noch älteren Karten m.E. 130°C.

*Ja, ich nenne die Founders weiterhin Referenz.
 
Zuletzt bearbeitet:
incurable schrieb:
Selbst wenn Du aus irgendwelchen Gründen ein gutes Jahr an Tests von PCIe 3 vs 4 bei 5700ern ignorieren möchtest finden sich hier die gewünschten Kommentare zur neusten Generation:

Du ziehst hier echt eine 5700XT Karte als Referenz bei 3.0 vs 4.0 her? Wenn schon (wenn die Präsentation von Nvidia stimmt) wird wohl die 3070 über der 2080ti liegen. Und wie weit liegt eine 5700XT von einer 2080ti entfernt? Wie wird es wohl bei einer 3090 aussehen?

Im Übrigem sind Kommentare keine Benches. Reden kann man viel, wenn keine Tests zur Verfügung stehen. Erst die Nachprüfbarkeit bestimmt, was die Realität ist.
 
Ich lese überall nur von der 3080 und deren NDA, ab wann darf denn die 3090 getestet werden?
 
5700XT schon fast besser als ne VII und das mit einem 250mm² Chip :o

Ich bin echt gespannt auf 3070 vs 6800 oder 6700XT
Könnte spannend werden.

mtheis1987 schrieb:
Ich lese überall nur von der 3080 und deren NDA, ab wann darf denn die 3090 getestet werden?
Mit Fall des NDA ;)

Smartin schrieb:
warum das unnötige persönliche Bashing? Hast du irgendwas in der Sache beizutragen?
Würde der Kollege Geld für diesen Dienst zahlen, würde ich dir Recht geben.. So aber muss man sich mit Wolfgangs Entscheidung eben Abfinden. Und sie macht, Angesichts von Zen 3 auch sehr viel mehr Sinn.
 
Zuletzt bearbeitet:
@mtheis1987 da sowas in der NDA steht, darf man es nicht kommunizieren! Ca. 1 Woche vor Release der Karte.
 
Ist schon klar, ist das Datum dazu bekannt?
 
ZeroStrat schrieb:
Ich hoffe, die Redakteure der PCGH erschlagen mich nicht, aber ich habe mal das Einzelranking für SotTR aus dem aktuellen Heft kopiert.

Ah 720p in SotTR . So spiele ich alle meine Spiele...

Und ja, das ist der Erwaehnte Einzelfall. Schau in die Benchmarks, die viele Spiele beachten, da ist immer ein ordentlicher Abstand zum 3900X.
 
@Wolfgang

Die Lautstärkemesswerte unterscheiden sich deutlich von den alten Reviews, die RTX 2080Ti ist beispielsweise deutlich lauter geworden, die 1080Ti ist in Relation eher besser geworden.
Habt ihr die Testmethodik geändert oder verstauben die Karten einfach?^^

Die Lautstärkeergebnisse von den AMD Karten sind alle gleichgeblieben, Fehler?
 
Zuletzt bearbeitet von einem Moderator:
Heschel schrieb:
Und was willste damit beweisen?
RAM-OC vs non-Ram-OC..... Vergleichbarkeit gleich Null.
Mach doch mal bitte die Augen auf. Im Ranking ist ein 3900X OC und ein 10900K OC.

NJay schrieb:
Ah 720p in SotTR . So spiele ich alle meine Spiele...

Ja, so macht man halt richtige CPU Tests. Mit GPU-Limit geht das schlecht.

NJay schrieb:
Und ja, das ist der Erwaehnte Einzelfall. Schau in die Benchmarks, die viele Spiele beachten, da ist immer ein ordentlicher Abstand zum 3900X.

Nope, ich könnte jetzt immer so weitermachen. Es gibt zig Beispiele. Open your mind my friend. :D
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: thuNDa und Benj
"Die Radeon RX Vega 64 und die Radeon VII fehlen in dem Diagramm, was schlicht daran liegt, dass diese den von YouTube genutzten VP9-Codec nicht in Ultra HD mit HDR beschleunigen können. Das übernommt in dem Fall der Prozessor, doch selbst der Ryzen 9 3900XT genügt für die flüssige Wiedergabe nicht."

komisch, vor 3 jahren hat es noch geklappt? https://www.computerbase.de/artikel...ngsaufnahme-der-grafikkarte-youtube-video-neu

edit: 4k@60fps mit und ohne hdr gehen ohne probleme, extra windows dafür gebootet...

4k_hdr_vega.png 4k_vega.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sifusanders, McTheRipper, Colindo und 2 andere
Habe eben zufällig bei Gamers Nexus gesehen, dass meine ur-alte 8700k CPU schneller ist als die 3900X (keine Ahnung wieviel schneller die XT ist). Wäre ich jemand der Benchmarks macht, würde ich dann HEUTE Grafikkarten mit einer 8700k testen oder vielleicht doch zu einer schnelleren CPU greifen, vor allem wenn es diese auch gibt? 🤔
Kommt es bei einem Ergebnis nicht darauf an, ob ich nun 140 oder 160 FPS habe bei der 2080 Ti?
Jeder macht rum wegen den FPS, alle wollen möglichst viel davon und auf einmal sind 20 FPS zu vernachlässigen, weil PCIe Gen. 4 (welchen absolut keinen Vorteil bietet stand heute)?

Naja egal, bin kein Benchmark-Profi! 🤓

Edit: Bei Red Dead Redemption 2 sind es sogar 28,6 FPS Unterschied zwischen der 10900k und der 3900XT!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable
H3llF15H schrieb:
Die Ignore-Funktion ist bekannt? Glaub´s mir, die arbeitet tadellos
Das mache ich nur, wenn sich jemand konsequent als Troll zeigt.
@incurable ist ja kein Troll. Er ist nur uneinsichtig, dass es nichts bringt, immer und immer wieder ein- und dasselbe Argument wiederzukäuen. Mag ja sein, dass er sich als Don Quichotte sieht, der immer wieder gegen die Windmühlen anreitet, weil er sich im Recht fühlt. Aber irgendwann muss man doch merken, dass man nicht weiterkommt und hört dann einfach auf.
Dass er damit die Leute nervt, die nicht nur eine Seite der Diskussion durchlesen, merkt er vielleicht gar nicht. Ist jetzt aber kein Grund für die Ignoreliste.

Im großen und ganzen gibt es wenig Kritik an dem neuen Testsystem.
 
  • Gefällt mir
Reaktionen: IBISXI
Zurück
Oben