Test Grafikkarten 2023 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

Da mir im Text nichts aufgefallen ist.
@Wolfgang
Ihr solltet unbedingt den Stromverbrauch auch über die Steckdose messen. Der Software kann man nur bedingt vertrauen.

Wolfgang hat geantwortet, dass bei Grafikkarten extra gemessen wird und man nicht auf die Software vertraut.
Bei
den CPUs noch nicht so einfach möglich.

Beispiel bei mir mit dem 13700k und Asus BIOS. Von einer Version zur aktuellen hat sich der angezeigte Verbrauch der CPU um ca. 40 Watt verringert. Über alle Tools hinweg. Erst dachte ich geil die CPU braucht in Cyberpunk nur noch 90 statt 120 bis 130 Watt.
Aber ein Blick aufs Messgerät an der Steckdose hat gezeigt dass sich fast nix verändert hat.

Welchem Wert soll man da noch vertrauen, wenn sich der Verbrauch allein zwischen 2 BIOS Versionen so stark unterscheidet. War der vorherige näher an der Wahrheit oder der Neue?

Ähnliches gilt auch für die Grafikkarte, wenn auch deutlich unwahrscheinlicher.
Bitte parallel an der Steckdose checken ob das überhaupt hinkommen kann was die Software da anzeigt.

Danke für die riesen Testauswahl.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King, V_182, jusaca und 5 andere
SaschaHa schrieb:
Ist doch eigentlich selbsterklärend, oder nicht? Die maximalen FPS werden limitiert, damit der Grafikkarte nicht mehr Bilder rendern muss als nötig.
Nein, ist es nicht.

Liefern in diesem Test alle Grafikkarten die gleichen Bilder pro Sekunde aus oder sind die am höchsten gelisteten Grafikkarten einfach langsamer als solche weiter unten?
 
incurable schrieb:
@Wolfgang

Was hat es genau hat es mit den Energieeffizienswerten "mit FPS-Limiter" auf sich? Werden hier Karten bei unterschiedlicher Leistung verglichen?
Die Spiele werden auf eine bestimme FPS Zahl gedeckelt.
In den meisten Fällen verbrauchen die Karten dann nämlich deutlich weniger Strom als bei maximal möglichen FPS.
 
  • Gefällt mir
Reaktionen: Tzk und SaschaHa
Master Chief ! schrieb:
Da ja bei der 4080/4090 mehr VRAM verbaut ist solte allein das ja schon mehr Energie benötigen.
So habe ich es auch in bisherigen Tests auf anderen Webseiten gesehen. Das kleine 192 bit-Interface der 4070 Ti hat sich dort im Leerlauf als besonders effizient erwiesen. Ich schätze daher mal, dass es hier irgendein Problem mit dem Custom-Modell oder Treiber gab.
 
Finde ich nicht gut, wenn ältere Karten aus Turing oder aus Pascal Zeiten rausfallen, so bekommen potentielle Aufrüster aus dieser Zeit keine Vergleichswerte bzw. Leistungssteigerungen (in %) mehr angezeigt.
 
  • Gefällt mir
Reaktionen: Palimo, Seby007, henpara und 27 andere
Neodar schrieb:
Die Spiele werden auf eine bestimme FPS Zahl gedeckelt.
Wenn die Ergebnisse hier wirklich nur gedeckelt wurden wären die Werte ohne die erzielten Bilder pro Sekunde mindestens irreführend.
 
Die 7900XTX ist jetzt 10% vor der 3090Ti in RT. Nicht schlecht. Amd holt auf.
 
  • Gefällt mir
Reaktionen: Redundanz, Lonex88, Rockstar85 und 8 andere
@Wolfgang
"In Atomic Heart haben die GeForce RTX 3060 Ti und die GeForce RTX 3080 mit Rucklern zu kämpfen, die GeForce RTX 3080 mit deren 10 GB jedoch nicht."

Die erste 3080 soll wohl eine 3070 sein oder 😁
 
  • Gefällt mir
Reaktionen: Recharging und Wolfgang
RDNA3 ist und bleibt in der Generation ein Fail.
Das Problem mit dem Stromverbrauch bei 144 Mhz-Monitoren hatte ich auch.
Wird wahrscheinlich nie behoben werden.

Dazu Treiberprobleme bei einigen Spielen und der hohen Stromverbrauch insgesamt.

Division 2 (Beim Laufen durch die Abwasserkanäle ruckelt es wie die Seuche).
Nioh 2 (Teilweise extremes Stuttering)

Aus dem Grund bin ich nach 6900 XT, 6950 XT und 7900 XTX wieder bei NV.

Danke für den Test.
 
  • Gefällt mir
Reaktionen: AntiPriester, AI94, Pro_Bro und 5 andere
@Wolfgang
Erstmals vielen Dank für den tollen Test! Insbesondere der Stromverbrauch im Desktopbetrieb ist wirklich gut abgedeckt in den verschiedenen sehr relevanten Szenarien.
Intels Arc A750 und Arc A770 (16 GB) sind zwar mit dabei, ältere Modelle aus der GeForce-RTX-2000- und Radeon-RX-5000-Generation bleiben jedoch außen vor.
Besteht eine Chance auch ältere Generationen später noch in den Vergleich einfließen zu lassen? Gerade in der aktuellen Zeit sind noch viele Leute mit älteren Grafikkarten unterwegs. Zumindest 1-2 Referenzen aus älteren Generationen wäre für die grobe Abschätzung der zu erwarteten Leistungssteierung sehr hilfreich. Dann müsste man nicht über 2-3 andere Quervergleiche die Leistung ableiten 😉
 
  • Gefällt mir
Reaktionen: Bloodie24 und Recharging
incurable schrieb:
[...] wären die Werte ohne die erzielten Bilder pro Sekunde mindestens irreführend.
Das FPS-Limit ist doch mit 60 FPS angegeben. Folglich sind die erreichten FPS entweder 60 oder entsprechen dem (niedrigerem) Wert ohne Limit.
 
  • Gefällt mir
Reaktionen: AntiPriester, Tzk und Bulletchief
Die Angaben der Leistungsaufnahme der RX 7900XTX bei Idle 144Hz finde ich in dem Artikel sehr merkwürdig.
Ich kann es nicht direkt vergleichen, aber bei mir sieht es so aus:

Linux, KDE, Fedora 37, RX 7900XTX Sapphire Pulse

  • 3840x1600 Pixel @60Hz : 20W laut AMD-PPT-Sensor
  • 3840x1600 Pixel @120Hz : 40W laut AMD-PPT-Sensor

Ist zwar noch immer eine sehr unschöne Verdopplung, aber keine 100W. Ist das wirklich noch ein aktuelles Problem bei Windows?
 
  • Gefällt mir
Reaktionen: Roi-Danton, Sardok, eVolutionplayer und 4 andere
Die RDNA 3 karten haben ihren Charme, aber diese Energieversorgung beim fast nix tun ist wirklich absurd.
Tolle Zusammenfassung, das muss auch gesagt werden.
 
  • Gefällt mir
Reaktionen: AntiPriester
Cowpower schrieb:
Warum fehlen bei PL die die Intel Karten?
Das war wohl die Macht der Gewohnheit - sind nun eingefügt :)
SaschaHa schrieb:
Danke für den ausführlichen Test! :)
Etwas verwundert haben mich die Ergebnisse der 4070 Ti im Leerlauf. Dass sie dort teilweise mehr als die 4080 oder gar die 4090 frisst, während die 4070 (non-Ti) durchweg sehr effizient arbeitet, verwundert etwas. Möglicherweise ein Treiberproblem, oder liegt's am Custom-Modell?
Das liegt wohl denke ich schlicht am Custom-Design. Ich glaube nicht, dass sich die RTX 4070 Ti generell so verhält.

Pizza! schrieb:
Da mir im Text nichts aufgefallen ist.
@Wolfgang
Ihr solltet unbedingt den Stromverbrauch auch über die Steckdose messen. Der Software kann man nur bedingt vertrauen.
Darum MESSEN wir ja auch die Leistungsaufnahme der Grafikkarte und lesen diese nicht von der internen Telemetrie der Grafikkarte aus - noch genauer geht es nicht (bzw. nur mit noch besserem Messequipment).
Seppuku schrieb:
@Wolfgang

Besteht eine Chance auch ältere Generationen später noch in den Vergleich einfließen zu lassen? Gerade in der aktuellen Zeit sind noch viele Leute mit älteren Grafikkarten unterwegs. Zumindest 1-2 Referenzen aus älteren Generationen wäre für die grobe Abschätzung der zu erwarteten Leistungssteierung sehr hilfreich. Dann müsste man nicht über 2-3 andere Quervergleiche die Leistung ableiten 😉
Ich will jetzt nicht nein sagen, aber erstmal steht noch anderes auf der To Do. Vielleicht später. Vielleicht aber auch nicht. Ich verstehe, dass das nervt. Aber das ist einfach extrem viel Aufwand und da muss man schauen, wo man seine Ressourcen investiert.
 
  • Gefällt mir
Reaktionen: dev/random, henpara, TriceO und 23 andere
Das Märchen des angeblich hohen Idle und DualMonitor Verbrauchs der AMD Karten auch endlich vom Tisch.. :D

Whatever, müsste eine neue Karte her, dann die 4090, das Ding ist brutal gut.
 
Skotty schrieb:
Die Angaben der Leistungsaufnahme der RX 7900XTX bei Idle 144Hz finde ich in dem Artikel sehr merkwürdig.
Ich kann es nicht direkt vergleichen, aber bei mir sieht es so aus:

Linux, KDE, Fedora 37, RX 7900XTX Sapphire Pulse

  • 3840x1600 Pixel @60Hz : 20W laut AMD-PPT-Sensor
  • 3840x1600 Pixel @120Hz : 40W laut AMD-PPT-Sensor

Ist zwar noch immer eine sehr unschöne Verdopplung, aber keine 100W. Ist das wirklich noch ein aktuelles Problem bei Windows?
Du hast keinen Ultra-HD-Monitor, der Unterschied kann schon daher kommen. 3840x2160 bei 144 Hz sind schon deutlich mehr Pixel pro Sekunde als 3840x1600 bei 120 Hz.
 
  • Gefällt mir
Reaktionen: AntiPriester, PietVanOwl, Perdakles und 2 andere
@Wolfgang
1. bei den fps Limiter, sind die 177W bei der 4090 (@1440p), das Maximum (Spikes), Durchschnitt oder das Minimum (wenn im Spiel nichts los ist)?

2. 177W bei Metro scheint schon etwas Stromhungriger zu sein als Doom Eternal (lt. eurem 4090 FE Test). Bei Borderlands 3 erreicht die 4090 Gamerock OC, von mein Kumpel, 340W mit Frame Limiter (Max / Spikes, im BL3 Benchmark). Nur mit fps Limiter + UV sinkt der Verbrauch auf 239W Max Wert.
Ist BL3 einfach hungriger nach Strom oder liegt es daran weil es eine Palit ist (mit 20+3 VRM @50A) und keine FE (24+3 VRM @70A)?
 
Zuletzt bearbeitet:
Shadow86 schrieb:
Finde ich nicht gut, wenn ältere Karten aus Turing oder aus Pascal Zeiten rausfallen,
Kann man sich mit etwas Aufwand aber grob zusammenreimen. Einfach die alten Tests anschauen. Bei einer 2080 kalkuliere ich mit knapp unter 3060 TI Leistung. Dann kriegt man schon ein grobes Bild wie der Sprung so ist.
Natürlich gab es damals dann ein anderes System und auch andere Spiele, aber so ganz genau brauch man das ja auch nicht.

Aber grundsätzlich vermute ich, dass die 2080 bzw. 2070 noch relativ häufig vertreten sind. Das wären zumindest noch interessante Modelle für so ein Vergleich.
 
  • Gefällt mir
Reaktionen: Rockstar85
Ja ich denke man muss es von 2 Seiten betrachten, ich persönlich versuch grad ne billige Switch zu bekommen und dann wirds mindestens so lange dauern bis die Karten nur noch 50% von heute kosten bis ich was neues kaufe. Ich persönlich bin also weitgehend raus.

Aber ja wenn man so die Benches anschaut und nicht extrem auf neue Titel wie Hogwards Legacy das ja auch nur in UE4 programmiert wurde ist sich konzentriert, könnte man der Meinung sein die 4070 und 4070ti seien ja gar nicht so schlecht, wobei bei letzterem fällt es mir schwer, da die RX 7900 XT bei gh grad für 820 Euro vertickt wird und die RTX 4070 ti für 840, die RTX4070ti kriegt mir tendenziell viel zu wenig und die normale 4070 zu viel hate, bei 600 Euro finde ich 12gb akzeptabler (auf geringem Niveau) als bei 840 Euro. Denn die 7900 XT vernichtet schon heute die 4070ti und das wird mit neueren Titeln und mehr VRAM nur noch schlimmer.

Die einzige Überlegung oder Nachteil der 7900XT gegenüber der 4070ti ist wohl das man den Desktop auf 60hz halten muss, aber mit so ner Karte will man denke ich primär spielen (außer man Rendert irgendwelche Sachen in Spezialsoftware) und nicht browsen. (und selbst das kann sich noch verbessern, aber selbst wenn nicht waere das wohl verkraftbar)

Ansonsten vernichtet die 7900XT die 4070ti:
  • Speed raster
  • Speed raytracing
  • Preis
  • Zukunftssicherheit

Aber ja mein primärer Punkt ist die 4070 da ist es ein knapperer Call weil AMD auch noch einen Wucherpreis für die 6800XT abruft, wo da AMD gewinnt ist wenn man den Gebrauchtmarkt mit ein bezieht. Wobei natürlich auch da zukünftige UE5 Benchmarks interessant werden.

Und auch DLSS 3.0 finde ich ein schwaches Argument weil es aktuell immer mit FSR 2.x verglichen wird, FSR 3.0 wird aber sehr bald kommen, daher werden da die Karten neu gemischt.

Mein Punkt ist gerade auch bei unserer tollen Regierung die wenn sich die Grünen durchsetzen 1h Stromverbrauch von Spielen am besten 1000 Euro kosten würde, kann ich die 4070 in teilen schon verstehen, gerade auch wenn man nicht den Gebrauchtmarkt als Option sieht.

Hoffe einfach das Leute generell weiter einfach extrem zurueckhaltend sind mit Grafikkartenkaeufe und nicht sagen, "ohh die 6800 XT ist viel zu teuer, dagegen ist vielleicht die 4070 auch nicht so teuer" (oder umgekehrt) Logik raus kommen und einfach beide nicht komplett boykottieren aber einfach stur ausdauernd auf bessere Angebote warten, und sie auf ihren riesen Lagern sitzen bleiben und irgendwann fuer faire Preise versickern müssen.
 
  • Gefällt mir
Reaktionen: Redundanz, Lonex88 und eVolutionplayer
Zurück
Oben