Leserartikel Preis-Leistungsverhältnis aktueller Grafikkarten

metoer schrieb:
Überall wo FSR2 implementiert ist kann man RT mit einer 6800 aufwärts ohne Probleme nutzen.
Upscalingtechnologien gehen auf die Bildqualität. Ich kann auch mit meiner ARC A770 in 4K und FSR (Es funktioniert auf Intel Arc) Mit hohen Settings spielen aber es sieht nicht gut aus (Trotz Raytraycing und hohen Settings). Man kann mit Upscaling viel höhere Settings wählen als es die Grafikkarte eigentlich zulässt, aber man kann auch die niedrigere Settings ohne Upscaling wählen. Wenn man hauptsächlich Spiele mit Raytraycing spielen will ist Nvidia immer noch die bessere Wahl. Und wenn du dem einen Upscaling gibst muss man es für die Vergleichbarkeit auch für den anderen zulassen und dann hat die RX 6800 wieder das Nachsehen.
 
@Sensei Jens
Gut 4k mit RT kann man auf rdna2 und Arc vergessen das ist klar, aber die Ampere Karten sind da ja auch nicht doppelt so schnell sondern meist zwischen 20-30% , ob ich statt 20fps jetzt 24-26 habe macht für die Spielbarkeit auch keinen Unterschied, DLSS/FSR ist bei RT quasi Pflicht.

Ja upscaling ist nicht perfekt, bei Witcher 3 erzeugt FSR2 eine deutliche unschärfe im Vergleich zu nativ, aber das kann man mit ein paar Tricks ausgleichen (radeon image sharpening im AMD Treiber). Dafür hat man auch ein nahezu flimmerfreies Bild und kann RT aktivieren was für mich insgesamt deutlich besser aussieht als nativ 1440p ohne RT. Ich benutze aber ausschließlich den quality mode von FSR2, alles darunter sieht mir auch zu schlecht aus.

Die Aussagen die man hier im Forum oft hört das RT auf AMD Karten "nicht geht" ist halt Blödsinn.
 
Oggy666 schrieb:
Gibts da auch Daten in 1080p?
Hi, nein, 1080p ist im aktuellen Test leider nicht enthalten. Sollte es im Test der (z.B.) 4070 Ti FHD-Daten geben, werde ich diese mit aufnehmen.
 
  • Gefällt mir
Reaktionen: Telechinese
Vielen Dank für deine Mühe!
Ich selber habe vor ein paar Tagen eine ähnliche Excel-Tabelle erstellt und die selben Schlussfolgerungen daraus gezogen.

Daher habe ich mich nun für die 4080 entschieden (ist die von KFA2) geworden.
Hatte zwischenzeitlich auch die 7900 XTX in Betracht gezogen, aber bei den aktuellen Preisen bietet die 4080 das bessere Gesamtpaket (wesentlich bessere RT-Leistung, DLSS>FSR und effizienterr Betrieb).

Eigentlich wollte ich noch warten wie die 4070ti und die 7800 XT performen werden.
Die 4070 Ti wird allerdings auch kein besseres P/L Verhältnis haben als die 4080 und die 7800 XT wäre mir in RT zu schwach.
 
  • Gefällt mir
Reaktionen: Maine
@Muskelbiber92 Also DLSS>FSR würde ich nicht sagen. Zitat CB Test:

FSR 2.0 und DLSS 2.0 liegen dicht beisammen​


Keine eindeutige Angelegenheit, sondern richtig spannend ist der Zweikampf gegen DLSS 2.0: Beide Methoden haben unterschiedliche Vor- und Nachteile, perfekt ist weder die eine noch die andere Technik.

Ansonsten hast du mit der 4080 die beste Wahl getroffen wenn du in 4k mit RT spielst.
Sonst sind eine 3070,3060Ti und 3080 die bessere Wahl laut Tabelle.
:)
 
Sicher, ein riesiger Unterschied zwischen den Techniken ist nicht vorhanden, dennoch ist DLSS 2 FRS 2 überlegen. Zumindest wenn man Digital Foundry oder IgorsLab Glauben schenken kann (https://www.igorslab.de/amd-fsr-2-0-und-nvidia-dlss-2-3-im-direkten-praxisvergleich/9/).
Aber selbst wenn nicht, mit der 4080 kann man auch FSR nutzen.

Ich sag mal für 1000 € hätte ich die 7900 XTX genommen. Aber bei gleichem preis von ca. 1350 € lohnt sich die 4080 einfach mehr.
 
Zumal man für ~1350 ja schon richtig gute (im Sinne kühl&leise) Custom-Designs der 4080 bekommt und nicht wie bei der 7900XTX meistens Referenzdesigns.
 
Genau, und das Referenzdesign der 7900 XTX hat wohl in vielen Fällen Probleme mit Temperaturspitzen.
Ich hoffen nur, dass ich von all zu starkem Spulenfiepen verschont bleibe.
Meine PS5 treibt mich diesbezüglich immer in den Wahnsinn
 
  • Gefällt mir
Reaktionen: Muskelbiber92
Simonsworld schrieb:
Ergänzend möchte ich für die Sparbewussten unter uns noch auf den Gebrauchtmarkt hinweisen
Gebrauchte Ersatzteile von privat ist völliger Irrsinn, macht man einfach nicht.
 
Das sehe ich anders. Ich mache das seit Jahren und bin damit gut gefahren. Klar gibt es immer ein Risiko, aber wenn man bereit ist das einzugehen, finde ich den Gebrauchtmarkt eine gute Alternative. Der Luxx Marktplatz ist dabei immer meine erste Adresse.

@Maine
Vielen Dank für den Artikel!
 
Hygge schrieb:
Das sehe ich anders. Ich mache das seit Jahren und bin damit gut gefahren. Klar gibt es immer ein Risiko
Das Risiko ist, sich mit einem Schrottersatzteil den kompletten PC zu schrotten.
 
Ja aber wenn man nach den Tabellen geht, sind die von mir o. g. Nvidia Karten weiterhin die bessere Wahl für WQHD im Gegensatz zur 4080 wenn man sich P/L anschaut.

Einzig in 4k mit RT scheint die 4080 das bessere P/L zu haben.
 
Ich sags mal so, ich werde in beiden Auflösungen spielen. Am Schreibtisch habe ich einen 144 HZ WQHD Monitor stehen. Darauf Spiel ichbdann Hauptsächlich Total War und PVP-Shooter wie HLL oder Battlefield (falls mal wider ein gutes kommt).

Für den wäre die 4080 tatsächlich überdimensioniert und nich die beste P/L.

Ich habe im Wohnzimmer allerdings auch einen 4k 65 Zoll OLED.
Da wird dann für Größe AAA Singleplayer spiele der PC angeschlossen.

Dafür ist die 4080 genau richtig.
 
  • Gefällt mir
Reaktionen: Windell
Einfach nie auf einen Bildschirm schauen, der mehr Auflösung als HD bietet.
Ganz ehrlich, ich kann mir nicht vorstellen, welchen Vorteil eine noch höhere Auflösung bieten soll.

Klar, bei Bildbearbeitung, Officekram usw. muss ich manchmal genau pixelweise irgendwas verschieben und ausrichten. Aber natürlich auch nicht mit der Maus, sondern per Wert-Eingabe.
Da wäre es manchmal (!) hilfreich, Unterschiede im Sub-Pixel-Bereich direkt sehen zu können.

Aber bei irgendwelchen Spielen, bei denen sowieso dauerhaft das ganze Bild in Bewegung ist und man bei den riesigen Bildschirmen auch nicht 30cm vor dem Bildschirm sitzt - da soll man noch Auflösungs-Unterschiede wahrnehmen können?

Also ich bin zufrieden mit HD... Schaue aber natürlich auch nur Serien von vor 50 Jahren und Wiederholungen von Wetten Dass an. :D
 
pOTmobil schrieb:
Aber bei irgendwelchen Spielen, bei denen sowieso dauerhaft das ganze Bild in Bewegung ist und man bei den riesigen Bildschirmen auch nicht 30cm vor dem Bildschirm sitzt - da soll man noch Auflösungs-Unterschiede wahrnehmen können?
Mehr Auflösung bedeutet auch mehr Schärfe, mehr Details, weniger Treppenbildung an Kanten.
Ich bin vor Jahren von FHD auf WQHD gewechselt und ja, den Unterschied sieht man enorm, oder besser gesagt - zumindest ich sehe ihn.
 
Zuletzt bearbeitet:
Stimmt schon, hängt aber auch vom Anwendungsfall ab. Mir reicht in der Arbeit die IT-Standardausstattung von 2x FHD 24" Monitoren um alle Fenster gut zu platzieren, ansonsten habe ich da kaum Ansprüche.

Zuhause hingegen habe ich keinen Bedarf für mehrere Bildschirme, da ich mich auf ein Game/Video/Programm konzentriere, da passt mir ein einzelner großer Monitor am besten, bei dem ich auch mehr Augenmerk auf Latenz und Qualität habe. Aktuell reicht mir hier ebenfalls WQHD.

Wobei ich im nachhinein doch gern ein Modell mit besserem Schwarzwert und mehr als 75Hz Freesync hätte.
Vielleicht upgrade ich 2023 auf ein Modell mit HDR und höherer Refreshrate, sollte es einen guten Deal geben.
 
Man sollte eher auf die Pixeldichte als auf die Auflösung schauen. Unter 70 dpi ist für Computermonitore schlecht. 80-120 dpi ist so der Sweetspot für 27-Zoll Monitore, vorausgesetzt man hält die vorgesehenen Abstände ein. Die Auflösung ist für mich kein echtes Argument, es kommt immer drauf an wo der Monitor genutzt wird und wie groß er ist. Mein FHD-Monitor, schon stolze 8 Jahre alt, wird erst ersetzt wenn er kaputtgeht.
 
  • Gefällt mir
Reaktionen: Telechinese, Maine und b|ank0r
Andy_K schrieb:
ch hätte gerne auch die '60er (3060/ti, 6600/6650) mit in diesem Vergleich gehabt, denn zu mehr wird es bei mir nicht reichen. :(
Also 3060 zu 3060TI nimmt sich Preis/Leistung nicht wirklich viel.

Würde bei Nvidia aber eher zur normalen 60 greifen wegen 12GB VRAM. Bei nur FHD dürfte die Karte ohnehin eine ganze Weile ausreichen.
Bekomme selber auf FHD rund 6GB VRAM der 3060 ausgelastet und die Core Load ist nur bei 30-40%. Bei der 60TI hätte ich es in den kommenden Jahren wahrscheinlich wieder geschafft die 8GB VRAM zum überlaufen zu bringen, als den Grafikprozessor bis Anschlag auszulasten.
Dachte mir bei meiner 670 mit 2G damals, "ja reicht doch dicke, das werden wir so schnell eh nicht ausgelastet bekommen. Wieso sollte ich denn die 4G Variante kaufen, total übertrieben". Paar Jahre später kam GTA V, GPU langweilt sich, VRAM platzt auf Min. bis Mittleren Einstellungen aus allen Nähten :D .


Überleg halt ab rund 350€ ob 6700 oder 3060.
Oder evtl. für bis zu 50/60€ weniger eine aus dem Gebrauchtmarkt, idr. dann ohne Herstellergarantie (geben einige Hersteller leider nur gegenüber dem Erstkäufer).
Oder Abwarten bis die kleineren Modelle der RTX40 und 7000er AMD kommen und hoffen, dass die etwas an den Preisen ändern. Bisher angekündigt, meine ich, irgendwann um die Sommerferien rum und preislich glaube ich rund 100$ über der 3060. Ob sich da überhaupt was an den Preisen ändert bleibt abzuwarten.

Vernünftige, neue, Einsteigerkarten um 1-200€ rum wird es auf absehbare Zeit wahrscheinlich nicht mehr geben. Der ehemals LowBudet Bereich ist quasi nicht mehr vorhanden. Das sollte man an der Preis/Leistung der viel zu teuren 3050 oder 6500 bereits gemerkt haben.

Bei Gebrauchtkarten in dem Bereich, idr. Geforce Gen. 10, bleibt abzuwarten wie lange der Treibersupport noch anhält. Die 600/700 sind ja schon vor gut einem Jahr rausgeflogen (Release 2013/14 und EOL 2021).
Die 900/1000 werden dann wohl die nächsten sein. Wenn man sich noch zusätzlich an den vorherigem EoL von Fermi (Release 2010/11 und EOL 2018) orientiert dürfte das wohl irgendwann Mitte 2024 eintreten.

Maine schrieb:
Ich bin vor Jahren von FHD auf WQHD gewechselt und ja, den Unterschied sieht man enorm, oder besser gesagt - zumindest ich sehe ihn.
Also ich habe das bei einem Bekannten vor Jahren mal getestet.
Bei 27" und rund 70cm Sitzabstand habe ich zwischen FHD und WQHD einen leichten unterschied gesehen. Hat mich aber nicht aus den Socken gehauen.
Der unterschied auf 4k war für mich dann nicht mehr wahrzunehmen. Hat man nur an der Auslastung der Grafikkarte gesehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andy_K
Ich werfe Intel Arc in den Ring. Die Limited Edition der A770 mit 16 GB VRAM gibt's für ca. 380€ Bei NBB. Ich habe nur mit einem einzigen Spiel, besser gesagt einem DLC, Inkompatibilitäten gefunden in Form von Abstürzen. Es muss jedoch nicht an der Grafikkarte liegen, XCOM Enemy Within ist ein sehr absturzgefährdetes DLC. Die Performance ist in modernen DX12-Spielen oberhalb der 3060, Manchmal sogar in Regionen der 3070. In DX9 ist die Performance mehr als ausreichend, Bildfehler habe ich auch noch keine entdeckt. Und Intel bringt spätestens alle 2 Wochen nen besseren Treiber, es wird fleißig nachgebessert. Sie ist besser als ihr Ruf.
 
  • Gefällt mir
Reaktionen: Gorasuhl
Zurück
Oben