Bericht Grafikkarten-Rangliste 2024: GPU-Vergleich mit GeForce RTX, Radeon RX & Arc (November)

Ich habe Fragen zum DLSS. Bsp eines GPU.
ohne DLSS: 150FPS
mit DLSS: über 150FPS

Ich gehe davon aus dass der Stromverbrauch bei beiden Szenarien identisch sind?! Wenn man zB einen FPS-cap von 60 aktiviert, geht der Stromverbrauch der beiden gleichviel runter oder die eine verbraucht noch weniger dank DLSS?!
 
Wenn die Karte mit Upscaling mehr FPS liefert, ist jeder einzelne Frame schneller berechnet. D.h. mit Framelimit verbringt die Karte mehr Idle Zeit was in der Regel den Stromverbrauch weiter verringert.
 
  • Gefällt mir
Reaktionen: Coeckchen
Ja wäre schön wenn CB einen GPU Test machen würde mit einem Einsteiger-, Mittel- und Highend Grafikkarten mit dem Fokus auf Stromverbrauch.
Stromverbrauch von DLSS Aus, DLSS Qualität, DLSS Balanced und DLSS Performance sowohl unlimitiert als auch mit einem fps-cap von 60 in 1080p (sowie in höheren Auflösungen).

Insbesondere die Umfrage zum Stromverbrauch zeigt, dass die User/Leser mehr über die GPUs/CPUs bezüglich Stromverbrauch wissen wollen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gannn
Ich würde nicht viel Wert legen auf die verschiedenen DLSS-Stufen. Bei so geringer Auflösung in fullhd -vermute ich-, dass in der Regel nur noch die höchste Qualitätsstufe optisch gut genug ist. Daher finde ich für solch einen Vergleich DLSS oder FSR oder XeSS der höchsten visuellen Qualität ausreichend.
 
Ich nutze die gtx1050, aber sie ist schon 5 Jahre alt. Mein Vorgänger hielt 7 Jahre (gtx460) und die Unterschiede zwischen den beiden sind Tag und Nacht (sowohl Leistung als auch der Stromverbrauch).
Ich wüsste nicht wer der nächste Nachfolger sein soll? Der Sprung zum gtx1650 ist viel zu schwach (für den Preis von 190€). Der Stromverbrauch im Idle-wert (sowohl 1 sowie 2 Monitore Betrieb) und youtube-Wiedergabe sind vom gtx1650 höher als vom gtx1050 -.-.
Intel scheint wohl keine Interesse zu haben einen neuen Nachfolger zu präsentieren wie zB RTX3400 oder RTX3300 sein könnte.

up.whatever schrieb:
Wenn die Karte mit Upscaling mehr FPS liefert, ist jeder einzelne Frame schneller berechnet. D.h. mit Framelimit verbringt die Karte mehr Idle Zeit was in der Regel den Stromverbrauch weiter verringert.
Das wäre super! Ich habe schon mit dem Strommessgerät letztes Jahr gemessen und geärgert wieso ~5fps unterschied schon ~15w ausmacht beim gtx1050.
25fps = 60w, 26fps 75w
55fps = 75w, 56fps 90w (alle werte als Gesamt-PC)

Der Stromverbrauch steigt nicht linear sondern stufenweise! Anhand meines Beispiels sieht man das der Stromverbrauch ab 26 und 56fps plötzlich steigt. Es gibt keinen Unterschied zwischen 28 und 53 fps zB.
In vielen Spielen getestet und alle verbrauchen stufenweise Strom.
 
@Jan Wann werden eigentlich die neuen Modelle 4080 und 4090 in die Rangliste aufgenommen? :)
 
  • Gefällt mir
Reaktionen: fl4v
@Jan ein Update hier mit der Preisliste wäre interessant.
 
Hey Leute, kleine Frage.

Welche GPU soll ich behalten ?
Hab einen Ryzen 7 5800x3D

Zocken tuhe ich in 1440p, am liebsten natürlich auf Ultra.
Würde aber in Zukunft auch gerne wieder mitm Streamen anfangen.

Soll ich die :
RX6800 XFX hier behalten, oder die GIGABYTE RTX 3070 Vision OC ?
3070 : 609€
RX6800 : 579€

Ding ist, bislang hab ich beide nur mit einem I7-7700k testen könne.
Neue CPU kommt Montag / Dienstag.
Auf dem I7-7700k lief nur leider z.B. Assassins Creed Origins mit nur 65 FPS (Dx11 Problem)
Auf sowas würde ich halt ungerne verzichten .
 
elberthelord schrieb:
Auf dem I7-7700k lief nur leider z.B. Assassins Creed Origins mit nur 65 FPS (Dx11 Problem)
Auf sowas würde ich halt ungerne verzichten .
Was ist da jetzt genau die Frage ? bei WQHD würde ich mir keine 8GB VRam Karte mehr holen, wenn du die Texturen immer auf Anschlag ziehen willst, komme jetzt schon teils in einigen Games über 10GB VRam Verbrauch raus und wird in Zukunft nicht besser. Bei FullHD wäre die 3070 noch in Ordnung aber nicht bei WQHD.
 
  • Gefällt mir
Reaktionen: MiroPoch und Chismon
@elberthelord

Du bestellst 2 GPUs um sie auszupacken und zu testen und fragst erst dann Welche du nehmen willst?

Kein feiner Move von dir.

Entweder du streamst über die CPU, dann wäre es knapp mit dem 5800X3D oder du holst dir eine Nvidia, würde hier Minimum eine Karte mit 10GB empfehlen und streamst dann mit ihr.

Für WQHD würde ich keine Grafikkarte mit weniger als 10GB VRam holen.

Also 2 Möglichkeiten würde ich empfehlen :

5900x (streamen) + 6800
5800x3D + 3080 (streamen)
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Ich finde es trotz Inflation überraschend, dass ein Hersteller ernsthaft hofft, im Consumer-Markt GraKas für 2000 Euro abzusetzen.
 
Nachdem das Urteil über den Preis der 4080 zunächst auch bei mir negativ ausfiel im Vergleich zur 4090 basierend auf der UVP, muss man jetzt schon wieder etwas relativieren. Bei der 4080 hat Nvidia offenbar den "Job" der Scalper gleich selbst übernommen, so dass man diese Karte jetzt immerhin auch zur UVP realistisch bekommen kann, während bei der 4090 fast 300€ draufgerechnet werden müssen.

Alles ziemlich bitter, aber es ist, wie es ist.
 
  • Gefällt mir
Reaktionen: Coeckchen
Man darf gespannt sein, ob die 4070 (Ti) von Nvidia am Ende tatsächlich so positioniert wird, wie die letzten Gerüchte sagen. Damit wäre sie quasi DOA und wird mit hoher Wahrscheinlichkeit noch weniger absetzen als die ohnehin nicht erfolgreiche 4080.

Aber gut, erst wenn die Lager für Monate voll bleiben und der Absatz weiter unter den Erwartungen bleibt, dann wird man vielleicht die Preise anpassen. Oder man macht einen auf 3070 Ti und verkauft die größeren Chips einfach teil-deaktiviert als kleinerer Chip um irgendwie noch das Ding an den Man zu bekommen ;)

Am Ende wird man sich aber so oder so auf nen ordentlichen Rückgang bei Nvidia gefasst sein müssen, wobei der zugegebenermaßen nur etwas dem Preis geschuldet sind: der Tod von Mining sowie Inflation sind hier wohl die größeren Gründe, erst auf Platz 3 gefolgt vom Preis.
 
@Wolfgang

Da hat sich ein Fehler eingeschlichen. Die 3060 12GB kostet deutlich mehr als 332 €, vielleicht wurde der Preis der 3060 8GB Variante genommen?

Edit: oder es war halt ein black friday Angebot, sehe gerade das die Preise nicht aktuell sind.
 
IHEA1234 schrieb:
Ich finde es trotz Inflation überraschend, dass ein Hersteller ernsthaft hofft, im Consumer-Markt GraKas für 2000 Euro abzusetzen.
Klappt problemlos in der Zielgruppe. Die 4090 löst alle "Probleme", die man hatte: UWQHD, 4K, Raytracing, Ultrasettings, gestörte fps. Die 4090 ist ein Monster.
Gibt ja auch keine Alternative, AMD hat sich verabschiedet aus dem 4090 Kampf.

Mein kleiner local PC Bauer vor Ort hat diesen Monat in beiden Filialen bereits 11 individuelle Komplettsysteme mit einer 4090 verkauft. Ich war einer von den Kunden.

Die nächsten 2 Systeme mit der 4090 bauen und verkaufen sie diese Woche. Das läuft easy, und nun kommt noch das Weihnachtsgeschäft. on top = noch mehr 4090 Nachfrage.

Interesse bzgl RDNA3 und 4080 = 0.

Gut gehen jetzt auch einzeln durch die Millimeterannäherung an den "UVP" die 3070er und 3080er.
 
Zurück
Oben