News Leistung pro Euro: Welche Grafikkarte leistet wie viel zu welchem Preis?

Ich hab die 4080 seit nem halben jahr und spiele meist auf nem 4k beamer (benq tk700) oder manchmal auf nem 49Zoll samsung odyssey Neo G9.
Ich spiele auch ältere Titel (z.B. Assassins Creed Origins, Unity oder so) mit DLDSR in höherer Auflösung als 4K (mit DLDSR x 1.78 bzw. 2.25) und da ist die Bildqualität wirklich fantastisch (Selbst Hautporen auf einmal sichtbar). Selbst 10 Jahre alte Spiele sehen oft super aus (fast wie aktuelle Titel!), viel besser als bei Release mit dieser Kombi 4k und einer Nvidia Karte (klappt auch mit den 30xxer). Saubere Arbeit Nvidia, auch wenn ich die Preise als viel zu hoch empfinde habe ich den Kauf nicht bereut.... Meine Xbox bleibt auch nur noch aus, da die DLDSR nicht bietet...Schauts Euch an, falls noch nicht geschehen...Bild ist superruhig und mit Details, die man vorher nicht sehen konnte. Bin kein Nvidia Jünger....aber da haben sie echt was tolles gemacht. Poste hier nur, damit der ein oder andere das mal ausprobiert. Ich war echt mehr als begeistert und freue mich wirklich jedes Mal über diese Technik...DLSS wird so gehyped aber DLDSR geht irgendwie unter?! (in Nvidia Einstellungen muss man DLDSR anwählen und die Auflösung dann im Spiel hochsetzen, gibts genug Youtube Videos dazu...)
 
Die ganze vergleich dieses Artikel basiert auf FPS
leider fehlt ein wichtiges detail
CPu limit

Den das ist sicher aber der rtx3060ti rtx4060ti und rx6750xt der fall

Üblicherweise haben die meisten ne 200-300€ cpu im PC
Weniger eher 100-200€ cpu

Was gab es da 2020 an
r5 3600 +- 200€ ipc 210
ci3 10100 +- 130€ ipc 200
ci5 11400 +- 190€ ipc 200

viele werden noch ältere basis haben von 2016 bis 2018
Da wäre
core i 8th gen wie ci5 8600 ci5 8400 +-200€ und 180€ ipc 180
amd war da noch weniger beliebt mit r5 1600 bei 200€ ipc 170

Das ist deswegen von belang da diese Cpu die gpu ab 8-10tf bei 1080p limitieren
das verzerrt die Tabelle was P/L angeht.
Nehme ich die aktuellen cpu gen ci13th und amd ryzen 7000 egalisiert sich das
aber wer gibt min 800€ für ne neue Plattform aus im entry Bereich?

Maln Vergleich
Ein zen2 system von 2018 erreicht mit ner 9tf gpu rx6600 und rtx3060 etwa 94% gpu load bei etwa 60fps ion raster
Ein core i8th gen etwa dasselbe
Ein ryzen 1st gen aber nicht da wäre etwa 80% gpu load drin
Das ist stark spiel abhängig und kann bei manchen spielen auch deutlich mehr tf ausgelastet werden bsp dxr spielen ohne dlss fsr
anmerk ich habe deutlich mehr spiele gebencht (+- 300) das ist ne Auswahl.

Ein gutes bsp ist far cry 6 der intrigierte benchmark fasst es gut zusammen da die Auslastung im spiel ähnlich ist
1685056330393.png

Mit dxr ist nicht anders
1685056367129.png


andere bsp gefälligst
Das zuletzt erschiene boltgun
Erste lvl
1685056453000.png


Zwar ist da fps niveau hoch daher kein problem
aber die gpu load schwankt schon stark und bei einen so designten spiel auch angemessen
Die Optik ist gewollt pixelig

anderes bsp was auch viel kontroverse erzeugte
hogwarts mit dxr ohne dlss
1685056582008.png


mal ne andere engine
1685056744131.png

oder das
1685056781436.png


oder das
1685056871323.png


Oft gibt es aber mit dxr gpu limit wie das
1685056936061.png


und das was an maxed sehe
1685056975186.png


man siehe selbst da limitiert die cpu

Dagegen andere engines kaum besser laufen könnte
1685057094312.png


Einfach fps vs Euro ist also ziemlich Kurz gedacht
Erhöht man die Auflösung steigert sich das linear um 33% und 400%

1080p ist die basis

Entsprechend die gpu Reihenfolge

50er klasse +- 720p 100%
60er Klasse 1080p 178%
70er klasse 1440p 200%
80er klasse 1440p
90er klasse 2160p 600%
Plus an TeraFLOPS Erforderlich um dieselben fps zu erreichen

anhand der 2020 cpu ab FHD
+- 9tf cpu ipc 210
2160p =36tf
bedingt ausgelastet bei 2160 ne rtx4080 bzw rx7900xtx
Die Formeln der amd und nvidia fp32 Leistung ist angepasst.
Setze ich nvidia Formel ein kommt dasselbe heraus ist aber dann nicht mit amd vergleichbar bsp rtx3060 +-13,4tf mal 4 = 54tf
rtx4080= 54tf
amd Angabe 63tf aber dieselbe Leistung.
Setze ich dagegen ne rtx4090 ein real 63tf laut nvidia 91tf habe ich ein cpu limit bei 60%
Und das selbst in 2160p ein Austausch zum r7 7800x3d entschärft das auf +-90% load


Der nächste Sprung in Sachen cpu ipc sehe wir erst 2025 mit zen5 und arrow lake da rechnen wir mit +20-30% ipc
Darum wird es auch kein blackwell geben 2024 sowie amd rdna4 auch verzögert auf 2025

Die Lage ist wie 2015 sie war, Stilstand bei gpu wegen Fertigung und Stillstand bei cpu weil es nicht schneller geht
Ähnlich wird das mit n3p Zwar bereit aber teuer (27k$)

N2p wird einiges am markt umwerfen da damit die kosten für gpu deutlich sinken werden.
Bis dahin sehe ich keine chance das sich an P/L sich was tut eher wird man zähneknirschend leicht die chips auf kleinere sku bringen und anhand des cpu limits sehe ich da

low end 9-12tf (ad107) 50er
entry +-18-22tf (ad106 ad104 cut) 60er +ti
mid 30tf (ad104) 70er
high end 40tf (ad103 80er
Enthusiast 77tf (ad102) 90er
und das bis 2026

amd sieht düsterer aus da nicht bekannt ist wie amd das problem in rdna3 fixen kann. Per software zu lösen wird nicht funktionieren.
Das erinnert an dem gcn Debakel, Bis die Treiber schnell genug waren also man beim letzten stand 2018 endlich bei 70% load kam
Und nvidia bewegt sich nur soweit wie sie müssen.
 
Windell schrieb:
Die 6700XT,6800 und 6800XT Karten sind echt mit Abstand die besten Karten was P/L angeht und das schon seit Ende letzten Jahres.

Insgesamt war RDNA2 eine super Generation.
Was ich erschreckend finde, obwohl AMD abgeliefert hat, ist dies von der Masse absolut nicht honoriert worden.
https://store.steampowered.com/hwsurvey/videocard/
Jetzt kommt auch noch die misslungene AMD RDNA 3 Generation. Marktanteil dann unter 5 Prozent?
Zuvor lag er ja bei 10 Prozent. https://www.heise.de/news/Marktante...en-AMD-schneidet-katastrophal-ab-7365188.html

Machen wir uns nichts vor, AMD spielt keine Rolle mehr im PC GPU Markt und wird auch nicht mehr zu NV anschließen können. Jetzt werden einige sagen, dass AMD dies ja auch im CPU Sektor gegenüber Intel gelungen ist, aber dort griff TSMC AMD auch ordentlich unter die Arme."
 
  • Gefällt mir
Reaktionen: Windell und Coeckchen
So hab jetzt gollum geprüft
1685069287101.png

Spielstart bis zur ersten filmsequenz
1080p
Was länger als gedacht da ich die anzeige nicht gesehen hab fürs laufen
maus tasta etwa hakelig gamepad kein problem
Fazit das zigste ue4 spiel
Wichtig die 8gb vram werden gehalten sollte also bei 8gb gpu kein problem darstellen
Spiel ist OHNE dlss mit dxr was kaum bis gar nicht auffällt.

achja das Spiel wird verschleudert etwa 25€
 
Zuletzt bearbeitet:
Stimmt es, dass man Motion Blur nicht ausschalten kann? Das wird immer zuerst abgeschaltet, da es massiv Leistung kostet und (imho) schlechter aussieht.

Aber gut, ist bei dem schlechten Spiel auch egal.
 
so ist es motion blur bleibt an
Die konfig Datei ist in der exe versteckt
 
  • Gefällt mir
Reaktionen: Kommando
@CB
"die Tabellen zu dem Preis-Leistungs-Index aktualisiert."

Übersehen ich hier WQHD und 4k? Oder wird wirklich nur auf Full HD geschaut?!
 
es gibt gerade um die rtx4060ti rx7600 und dessen Wert vs andere gpu wie die rtx4070
Der Artilel ist was älter mit anderen sku Veröffentlichungen. Ursprung ein forum beitrag
 
@Gasmado und @simosh
Ich finde die Arc Karten immernoch bedenklich, wenn die so stark in der Leistung schwanken.

In Spielen wie z.B. COD M Warfare 2, Cyberpunk, Forspoken, Returnal, Spiderman fällt sie bis zu 22% hinter die 6650.

in F1 22 liegt sie 62% !!! hinter der 6650, in Resident Evil 39%.

Dadurch, dass die 6650 jetzt im Angebot, inkl. TLOU auch mal unter 240€ fällt, wäre ein Potentieller € Preis von ~ 230 € für die Arc 750 doch auch nichts, was einem vom Hocker reißt.
 
  • Gefällt mir
Reaktionen: danyundsahne
paganini schrieb:
@CB
"die Tabellen zu dem Preis-Leistungs-Index aktualisiert."

Übersehen ich hier WQHD und 4k? Oder wird wirklich nur auf Full HD geschaut?!
Du musst die News auch komplett lesen. Die News ist eine News über meinen Leserartikel, d.h. den vollständigen Artikel gibt es, wenn man dem entsprechenden Link ins Forum folgt (z.B. in meiner Signatur).

Das erkennt man auch daran, dass vor der News dick und fett "COMMUNITY" steht. ;-)
Ergänzung ()

conglom-o schrieb:
Wo bitte gibt es die (echte) 3060 für 269 EUR? Der Preis verzerrt doch das gesamte Ranking.
Hmja. Du hast in der Sache Recht, das ist mir durchgerutscht. Ich werde das entsprechend korrigieren und die 12 GB-Variante in der Preisliste auswählen. Denn so wie es scheint, hat CB im Test die 12 GB-Variante gehabt.

Trotzdem solltest du einmal an deiner Art arbeiten, Kritik vorzubringen. Das geht besser.
z.B. "Hey Leute, ist das bei der 3060 die 8 GB oder die 12 GB-Variante? Die unterscheiden sich ja doch merklich und man kann aufgrund der Bezeichnung leider nicht genau erkennen, welche Variante hier jetzt gemeint ist."

Der Ton macht die Musik. Von daher hier von mir auch kein Danke für deinen Hinweis.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Poati, paganini, conglom-o und eine weitere Person
Die arc Architektur basiert auf 64bit
Sämtliche dx11 und ältere api werde emuliert
Demzufolge läuft nur dx12 und vulkan nativ
Sehr gro0e probleme hat opengl und dx9 und älter
Teils startet es nicht mal dx10 und dx11 laufen sehr langsam.
Teils startet es nicht.
manche games können per wrapper auf ogl dennoch ans laufen gebracht werden.
Gleiches gilt für 3dfx spiele.
Siehe den dgVoodoo 2
 
Maine schrieb:
Trotzdem solltest du einmal an deiner Art arbeiten, Kritik vorzubringen. Das geht besser.
Sorry, war wirklich nicht persönlich gemeint. Wahrscheinlich hattest Du da bei mir einen wunden Punkt getroffen, da ich CB MEHRFACH auf diese Problematik hingewiesen hatte und passiert war: NICHTS!

Die hatten nämlich im Übersichtstext immer schön von der 3060 mit ihren 12 GB geschwärmt und im Preisvergleich dann (ebenfalls) die 8 GB Karte genommen. Ohne Hinweis auf irgendwelche Differenzen hinsichtlich Leistung und VRAM. Da dachte ich mir: bitte nicht schon wieder - auch bei mydealz muss man die Leute ja immer auf die Differenzen hinweise (nvidias "Trick" mit der gleichen Nummer ohne Zusatz zeigt da wohl Wirkung: die Leute fallen drauf rein). Dazu kommt, dass ich bei einer "echten" 3060 für 270 EUR sofort zugeschlagen hätte - warte da nämlich schon lange auf Preise unter 300 EUR ;).

Auch wenn Du mir nicht danken willst: von mir ein fettes Danke für Deine Arbeit und herrliche Pfingsttage :schluck: .
 
  • Gefällt mir
Reaktionen: Kommando und Maine
Alles klar, Ärger vergessen ;-)

Das Problem wirds ja in absehbarer Zeit schon wieder geben. nVidia ist in dieser Hinsicht echt ein Sauladen.
 
  • Gefällt mir
Reaktionen: conglom-o
coral81 schrieb:
Was ich erschreckend finde, obwohl AMD abgeliefert hat, ist dies von der Masse absolut nicht honoriert worden.
AMDs Marktanteil in dem Segment ist schon lange nicht mit dem von Nvidia vergleichbar. Dieser Markt ist auch extrem klein (geworden). Bei den Konsolen oder Servern sieht es ein wenig anders aus. Ich würde daraus nicht ableiten, dass RDNA2 nicht genügend verkauft worden wäre. Der Abverkauf läuft gerade und die Karten gehen gut weg. Eine Schwalbe macht halt keinen Frühling, wie wir bei RDNA3 gesehen haben.
 
  • Gefällt mir
Reaktionen: coral81
Es ist halt nur so:
RT braucht auch vram und wenn man bei Hardware Unboxed schaut, bringt RT nichts wenn es dann vor RT und nach RT erst recht nur stutter-party gibt.

Also ist RT auch kein Vorteil mehr für NVIDIA in diesen vram begrenzten Szenario.
Unspielbar wird es dann mit wie auch ohne.
Ganz witzig wird es wenn eine 12/16GB Radeon dann plötzlich besser in RT ist, weil Sie nicht herumstottert und auch in RT mehr FPS bringt.

Das Thema der aufpoppenden Texturen wegen überforderten Streaming mal ganz außer acht gelassen.

Daher ist eine reine P/L Tabelle auf avg. fps leider nur als einer von mehreren Anhaltspunkten nützlich.
Sie trifft keine Aussage über Mikro Stuttering, für das NVIDIA Karten oft anfälliger sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kommando und Windell
Windell schrieb:
Die 6700XT,6800 und 6800XT Karten sind echt mit Abstand die besten Karten was P/L angeht und das schon seit Ende letzten Jahres.
Ich weiß, dass sowas immer nur ein Blick in die eigene Glaskugel ist, aber das hatte ich mir im Herbst letzten Jahres auch schon gedacht. RX6800 für 499€ war ein super Kauf und ich war davon ausgegangen, dass vor Q2 23 eh gar nichts neues in dem Preisbereich kommt und die neuen Karten für das Geld zumindest anfangs nicht mehr (Raster Leistung) bieten würden. Mittlerweile hätte ich statt der 500€ vllt auch die 600€ für eine 4070 hingelegt, die ist zugegeben für mich nicht uninteressant. Aber naja was solls, mittlerweile hatte ich mit der 6800 schon über ein halbes Jahr Spaß und gerade die Wintermonate zocke ich mehr.

Ich vermute für die Karten 6700XT-6800XT bekommen wir wenig verlockende Nachfolger und die RDNA2 Karten wird man noch etwas abverkaufen und dann auslaufen lassen. Für den großen Wurf ist die 6950XT schon zu nahe einer 7900XT und noch deutlich günstiger. Für uns als Kunden braucht es in dem Bereich wohl keine neuen GPUs, aber damit AMD voran kommt, braucht es halt Verkäufe neuer Karten. Dann wird auch der Chiplet Ansatz weiter reifen in Zukunft.
 
Die 4070 läuft doch in das selbe Dilemma rein, in dem sich die 3070 und der Rest der 8 GB-Fraktion gerade befindet.
12 GB ist für eine 600 € Karte schlicht zu wenig. Insofern bleib lieber bei der 6800. ;)
 
  • Gefällt mir
Reaktionen: Windell
Draco Nobilis schrieb:
Ganz witzig wird es wenn eine 12/16GB Radeon dann plötzlich besser in RT ist, weil Sie nicht herumstottert und auch in RT mehr FPS bringt.
Das haben wir doch schon. Guck dir mal den Test der 4060Ti genau an in RT. Die 6800 ist in RT sogar leicht schneller als die 4060Ti.

Das muss man sich mal auf der Zunge zergehen lassen, dass eine Nvidia Karte in 3ter RT generation langsamer als eine AMD Karte in erster RT Generation ist und beide ähnlich kosten.

Da ist das RT Argument sowas von tot.
 
@Poati Sehe das so wie @Kommando. 600€ für ne 4070 mit "nur" 12GB VRAM für eine neue Karte im Jahr 2023 halte ich für zuviel. Dabei ist die 4070 ja ca. so schnell wie die 6800XT.
Pro 4070 sprechen definitiv die Effizienz als auch DLSS3.
Für die 6800XT spricht der 4GB größere VRAM. Und wenn FSR3 mal endlich rauskommt, wiegt der DLSS3 Vorteil dann auch nicht mehr so stark auf.
 
Zurück
Oben