Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGrafikkarten 2023 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours
Bei CPUs können wir die Leistungsaufnahme der CPU leider nicht messen, das ist komplizierter als bei Grafikkarten. Es könnte aber sein, dass wir in absehbarer Zukunft da einen gute Kompromiss haben könnten
ich bin nach der 6000 serie auch wieder bei NV denk ich. Die Treiber Probleme sind extrem nervig. In der 7000Serie soll UV auch noch erschwert werden. Weile s durch das more Powertool sich nicht mehr so gut lenken lässt. GKarten die sich schlecht UV lassen, sind heute nur noch Elektroschrott meiner Meinung nach.
Es währe schön, wenn bei den Tests auch noch einige ältere Grafikkarten vertreten wären (z.B. GTX 1060 6GB, GTX 1080 8GB, GTX 1080 Ti 11GB) um einen Vergleich zur eigenen Grafikkarte zu haben.
Hm... keine Benchmarks zu Anwendungen? Schade~
Finde die Performance in Video/Bildbearbeitung/3D/AI-Tools sehr interessant.
CPUs werden ja auch immer noch in irgendwelchen Programmen zusätzlich getestet?
Und da ja scheinbar immer mehr framegeneration kommen wird fehlt mir das leider auch... wie viel besser würden FPS/Euro und FPS/Watt werden wenn man framegeneration nutzen kann?
Cool danke für den Test, ich Rätsel seit Monaten auf was ich Upgraden möchte.
Zuletzt habe ich mit einer 7900xtx geliebäugelt. Leider kannte ich da die Problematik mit Dual Monitor und 144hz nicht. Das geht gar nicht klar, über 100W im Desktop betrieb.
Damit bleibe ich wohl bei Team Grün.
Schön das ihr solche Intensiven Tests macht dafür vielen dank!
Wenn ich im Performancerating 2.560 × 1.440 die RX 6800 fixiere, ist der Abstand zur 4070 18%.
Wenn ich dann aber auf die 4070 fixiere, ist der Abstand zur 6800 16%.
Ist das so gewollt ?
Irgendwie hatte ich die 4080 schneller im Sinn als im Vergleich zur XTX.
Hat sich jetzt für mich persönlich geändert.
Aber der Stromverbrauch und teilweise Treiberbugs etc. gehen gar nicht klar. Lese davon einiges bei Mindfactory in den Artikelreviews.... und hier wurde es auch schon erwähnt. Habt ihr bei CB davon auch etwas gemerkt (@Wolfgang)? Evtl. wäre hier mal ein Langzeittest gut von einem Redakteur?
Und auch mal eine Kontaktaufnahme mit AMD, wann bestimmte Dinge endlich angegangen werden (144Hz UHD Verbrauch - die Karte(n) ist/sind jetzt 6 Monate alt!!)
Bzgl. der Spieleauswahl: Schade, dass hier wieder Anno 1800 rausgeflogen ist...nachdem es jetzt beim letzten CPU Test dabei war.
Die Entscheidung NVIDIA oder AMD wurde diesmal für mich bei der Leistungsaufnahme im selben Performancebereich entschieden. Die Desktopperformance der 7900XTX ist einfach inakzeptabel. So ein kaputtes Produkt wollte ich nicht kaufen. Da war selbst die nicht als Stromsparwunder bekannte Vega Serie weit besser.
Dieser Re-Test hat die Probleme noch einmal hervorgehoben und bestätigt. Danke dafür.
Ein wenig schade finde ich, dass man nur eine Generation zurückgehen kann. Ich denke es wäre für sehr viele super spannend wie sich die neue Hardware z.B gegen die 2000er oder gar 1000er Reihe von nVidia schlägt, oder die neuen CPUs mit sehr viel älteren bis evtl. gar Ryzen 1000 oder Skylake bei Intel und wenn CPUs mal nicht nur bei 720p und oder 1080p verglichen würde. Sehr viele nutzen deutlich höhere Auflösungen und es wäre interessant zu wissen, wie sich die Hardwarekombinationen dort verhalten. Just saying was mich interessieren würde und denke, dass es auch andere spannend fänden. Glaube nicht, dass selbst auf CB nur neueste Hardware aus max. 2 Jahre alten Komponenten verwendet wird.
Würde der Kostenfaktor sich zum Performancegewinn beim aufrüsten eines 7700K zu etwas Neuem lohnen, wenn ich eine 3080 habe? Was bringt das bei 3440x1440 in FPS an Mehrwert? Träumen wird man ja noch dürfen. Dass das Testen davon der „Horror“ wäre bzw. sehr viel Aufwand bedeutet, ist mir klar. Hoffe dass LTT mit seiner Automatisierung beim Testen schnell vorankommt, sodass auch die Community Ergebnisse sammeln kann.
Karte 2 ist 25 Prozent schneller als Karte 1 (25 FPS mehr sind 25 Prozent von 100).
Karte 1 ist 20 Prozent langsamer als Karte 2 (25 FPS weniger sind 20 Prozent von 125).
Wenn ich im Performancerating 2.560 × 1.440 die RX 6800 fixiere, ist der Abstand zur 4070 18%.
Wenn ich dann aber auf die 4070 fixiere, ist der Abstand zur 6800 16%.
Ist das so gewollt ?
In zahlreichen YouTube-Vergleichstests ist zu sehen, dass die meisten Games nicht über 12 GB VRAM hinausgehen, selbst in 4k nicht. Ist auch logisch: Die meisten Leute besitzen keine High-End-Karte, sondern meist nur ältere Mid-Range. Folglich werden die Spiele eben auch darauf optimiert. Bis mehr als 12 GB wirklich erforderlich werden, vergehen noch ein paar Jahre. Und selbst dann hat man ja eben die Möglichkeit, die Details eben etwas herunterzuschrauben. Für mich sind 12 GB auch der absolute Sweetspot. Weniger würde ich persönlich nicht mehr nehmen, aber mehr wäre für mich auch nicht erforderlich.