News Radeon RX 7900 XTX: AMDs Topmodell fällt im MindStar auf 899 Euro

CadillacFan77 schrieb:
Dazu kommt, dass es deutlich mehr Raster Spiele gibt als RT Spiele. Entsprechend ist logischerweise die Raster Performance wichtiger.
Nein?! Ist ja ein Ding! RT gibt es so erst seit 4-5 Jahren. Wie lange wird Rasterization genutzt? Über 20 Jahre?
Logisch, dass es mehr Rasterspiele gibt. Erwartet ihr jetzt, dass von heute auf morgen alles auf RT umgestellt wird?
Was sind das hier für Kindergartenargumente? :D
 
MrHeisenberg schrieb:
Wobei nicht spielbar nicht stimmt. Die einzige Karte, die 30 FPS erreicht, ist die XTX, aber so spielt kein Mensch mehr.
Na ja, die Grafik zeigt aber auch, dass selbst die ehemalige "Spitzenkarte" RTX 3090 nicht wirklich reicht, wenn man danach geht und der Spaß eigentlich erst ab der RTX 4080 oder eben RTX 4090 anfängt.
TigerherzLXXXVI schrieb:
Das ist in der Hinsicht sehr interessant, wenn man das P/L-Verhältnis "Rasterisierung vs Raytracing" der beiden Grafikkarten vergleicht.
Zum aktuellen Zeitpunkt verwundert mich das nicht so sehr. Wir sind immer noch in einer Übergangsphase. Reine "RT"-Titel mittels Path Tracings kann man aktuell an einer Hand abzählen: Quake 2 RTX, Minecraft RTX, Cyperpunk 2077, Alan Wake 2 und Portal RTX.

RT-Titel, die bereits auf RT aufbauen, bieten oft noch einen Softwarefallback - siehe Avatar oder die Unreal 5 Engine. Es zeigt sich zumde, dass selbst die aktuellen RTX Karten mit "Path Tracing" und Co so ihre Probleme immer noch haben. Bis RT wirklich "bestimmend" ist, wird noch mindesten eine Generation benötigt.
Xenon2k schrieb:
Ray Tracing ist die ursprüngliche Art der Berechnung für 3D-Grafik, wurde aber durch das Rasterizer-Verfahren ersetzt. Im professionellen Bereich wurde RT aber relativ lange auch weiterhin genutzt.
MoinWoll schrieb:
Da stimme ich zu und hoffe auf starke Verbesserungen bei RDNA4 und 5.
Für RDNA 4 kommt wohl ein "deutlich" verbesserter RT-Kern, der nun auch den BVH übernimmt. Mein Vögleich zwitschert auch, dass AMD bei RDNA 4 "SER" vollständig implementieren wird. SER wird über kurz oder lang vermutlich auch bestandteil von DX 12 und Vulkan.
MoinWoll schrieb:
RT wird seit Jahrzehnten in fast jedem Film und jeder Serie verwendet, welche/r CGI-Effekte beinhaltet.
Ja und Nein, das stimmt so nicht wirklich. Es gibt Renderer, die auf RT zurückgreifen, aber auch viele Renderer, die eher einem Rasterizer entsprechen, nur mit wesentlich mehr Aufwand und nicht auf "Echtzeit" optimiert.
MrHeisenberg schrieb:
Ohne Ray Tracing wäre CGI heute so nicht möglich. Es ist der Weg zum Fotorealismus und Raster bei der Bildqualität meilenweit überlegen, auch in Spielen.
Ja und Nein, auch bei den professionellen Rendern hat sich mit der Zeit bei manchen Rasterizer durchgesetzt, weil sie "schneller" sind. Nur reden wir hier immer noch von wesentlich mehr Zeit als bei Spielen pro Frame.

Ray Tracing war nie weg im professionellen Bereich, aber es wurde auch da nicht durchgängig immer verwendet.
PhantomGamingYT schrieb:
Pathtracing ist noch in den Kinderschuhen unter einer 4080 brauchst du es gar nicht probieren und ohne FG ist es fast unmöglich außer man begibt sich auf 1080p/ WQHD.
Für Path Tracing gilt das gleiche wie für "klassische" Engines: Die Komplexität der Szene bestimmt die Rechenleistung. Spiele wie Quake 2 RTX - Path Tracer - laufen bereits ordentlich auch unterhalb einer 4080. Bei Cyberpunk 2077 oder Alan Wake kommt in dem Fall noch die Effekte der Geometrie, der deutlich höhere Polygon-Count und Co dazu.

Aus den Kinderschuhen ist PT eigentlich raus. Wir sind nur in der Übergangsphase, weil man natürlich noch möglichst viele Spieler mitnehmen will.
PhantomGamingYT schrieb:
RT und PT ist geil keine Frage aber ich kann an einer Hand abzählen wie viele Spiele es gibt in denen es tatsächlich etwas bringt und wirklich ein Optischer gegenwert gegeben ist.

MrHeisenberg schrieb:
FSR/DLSS und FG sind die Zukunft und damit müssen sich User wie du arrangieren oder ihr kauft Hardware nur noch um Lastgen Spiele zu spielen
DLSS/FSR/XeSS sind auf jeden Fall die Zukunft, da muss man auch nicht groß um den heißen Brei herumschreiben.

Bereits 4K stellt - und das begleitet uns bald auch 10 Jahre - eine große Herausforderung an die Grafikkarten da. Der Sprung auf 8K beim Fernseher als auch bei Monitoren wird ohne DLSS/FSR/XeSS nicht wirklich möglich sein. Seit 2013 ist 4K ein Thema.
Che-Tah schrieb:
Laut Moores Law Is Dead kommen die AMD Karten diesmal vor Nvidia (Holiday Season). Die Nvidia Karten kommen je nach Saleszahlen von ADA - und dem was AMD macht - noch Ende 2024 oder erst 2025.
Bei Nvidia würde ich mit den Karten eher 2025 rechnen und nicht mehr unbedingt in diesem Jahr. Vielleicht eine Vorstellung, alles darüber hinaus?

RDNA 4 wiederum ist - aktuelle Gerüchte - wie so schön angemerkt, ein Zwischenschritt und scheint erneut - wie damals RDNA - dazu gedacht zu sein, die großen Änderungen, gerade im Bereich RT - möglichst früh zu testen, damit man bei RDNA 5 kein Treiber Desaster erlebt.
PhantomGamingYT schrieb:
Ist RT von Nvidia in deren Engine engepflegt da laufen bestimmte sachen extrem optimiert ab um es extrem vereeinfacht zu sagen,
Ja und Nein. Wenn in RT aktuell auf einen Hersteller stark optimiert werden muss, dann auf AMD, weil diese in ihrer erstern RT-Iteration der Hardware bei den BVHs einen sehr eigenenwilligen Weg gehen, in dem der BVH mit einer Mischung aus TMU und Shader durchforstet wird und der RT-Kern nur die Schnittbestimmung macht.

AMD hängt bei bestimmten Punkten bei RT eine Generation hinter Nvidia und Intel, gleichzeitig haben sie bei anderen Punkten auch aufgeholt.

Die aktuell am weitesten fortgeschrittene RT Implementierung hat Nvidia. Intel und AMD hängen in unterschiedlichen Teilbereichen jeweils um eine halbe bis ganze Generation zurück.

Cyberpunk 2077 als auch Alan Wake machen explizit gebrauch von Nvidias SER. Hier ist AMD zum Teil auf dem gleichen Level wie Nvidia, hängt aber auch zurück. Bei der Sortierung der Shader, was die Memory-Zugriffe angeht, ist AMD mit Nvidia auf Augenhöhe und können wie Nvidia automatisiert die Shader so sortieren, dass die Memory-Zugriffe optimiert ablaufen können. Beim nicht automatisierten SER-Teil, der per NVAPI eingepflegt werden muss in die Shader, kann AMD noch nicht mithalten.

Hier bleibt abzuwarten, was MS in DirectX 12 anbietet.
MrHeisenberg schrieb:
Man verzichtet auf Effekte, damit AMD nicht abkackt und ihr tituliert das als "gut".
Na ja, das betrifft Nvidia in dem Fall aberr auch und du hast es mit der UE5-Demo auch selbst gezeigt.
MrHeisenberg schrieb:
Das ist Lumen mit Hardwarebeschleunigung und wurde nicht von Nvidia optimiert, es zeichnet aber das gleiche Bild wie Alan Wake 2 ab. Was ein Zufall aber auch
Also, sehe ich mir die Zahlen mal an, dann schneidet in diesem Test die RTX 3090 Ti auch nicht unbedingt wirklich besser als die 7900 XTX ab. Einmal 18 fps gegen 14 fps (29 %) und 14 fps gegen 12 fps (17 %).

Wirklich "spielbar" ist hier erst die RTX 4090, die 83 % bei den Avg. fps drauf legt und 71 % bei den P1 fps. Und das ist auch die Krux an dem ganzen. Es gibt bereits Spiele, die RT weitgehend benötigen - Avatar ist da so ein Beispiel - das sowohl auf auf AMD und Nvidia Hardware ordentlich laufen müssen. Die Spiele sehen gut aus, werden ordentlich optimiert und haben klar beim RT auch ihre Defizite, gleichzeitig sind die Rasterizer-Fallbacks alles andere "schön".

Spiele wie Cyberpunk 2077 mit PT, aber auch Alan Wake 2 mit PT stellen aktuell selbst für viele Nvidia-Karten immer noch eine Hürde da und selbst der Hybrid-Ansatz stellt noch sehr hohe Anforderungen an die Hardware. In WQHD erreicht gerade mal die 4070 30 fps. Ohne DLSS/FSR/XeSS ist also selbst Ada aktuell abseits der 4080 und 4090 auch noch nicht wirklich für RT vollständig geeignet.

PhantomGamingYT schrieb:
PT oder Rt ist das gleiche nur PT benutzt mehr bounces
Nein, weil Nein.

Das erste beantworte ich mal lapidar: Ray Tracing ist nicht Path Tracing, Path Tracing ist allerdings Ray Tracing.

Und damit zum zweiten: Falsch und zwar sowas von! Path Tracing nutzt nicht pauschal mehr Bounces, sondern geht die Ray Tracing Problematik ein Stückweit anders an.

Normales RayTracing arbeitet mit einem primär Strahl, trift er auf eine Oberfläche, wird der Farbwert ermittelt und zurück geben. Licht, Schatten und Co ist hier egal.

Für Schatten/Licht wird in der nächsten Stufe ein Licht- bzw. Schattenstrahl zur Lichtquelle ausgelöst und gibt wieder, ob das Objekt direkt von der Lichtquelle angestrahlt wird oder etwas im Weg ist: Schatten und ggf. verschiebung der Farbwerte durch das Licht.

Darauf aufbauend kann man dann mit den ersten Rekursionen - oder Bounces - erste Spiegelungen und Verfeinerungen der Schatten vornehmen. Rekursives RayTracing.

Um nun auch diffuse Schatten und Co umzusetzen, hier werden deutliuch mehr Licht-. bzw. Schattenstrahlen abgesendet und damit steigt der Bedarf an Rechenleistung. Hier kommt bereits die Monte-Carlo-Simulation zum Einsatz.

Um nun alles an Oberflächen zu erfassen, gibt es das Path Tracing, dass pauschal an allen Oberflächen mit Zufallswerten entsprechende Lichtstrahlen aussendet.

Das hat also nichts mit den Bounces zutun, sondern damit, wie die Strahlen grundlegend verarbeitet werden und darauf aufbauend, wie viele Effekte pauschal mitgenommen werden.
 
  • Gefällt mir
Reaktionen: SweetOhm, danyundsahne, Garrus und 6 andere
Ist ja schön dass die XTX preislich mal runter kommt, aber seien wir ehrlich, wer in 4k high FPS zockt, womöglich einen teuren Monitor/TV stehen hat wird doch i.d.R. auch einen höheren Anspruch an die BQ haben als das was FSR zu leisten imstande ist. In die selbe Kerbe schlägt auch AFMF ein, ich finds ja geil und sehe es sogar als Vorteil gegenüber NV, aber wer von den High End Enthusiasten will so zocken in dieser Form wenn es was Besseres in Form von DSLL und FG von NV gibt ?
Für diese Klientel sehe ich nur die 4080 und 4090 als brauchbare Karten an und keine einzige von AMD.

Ob man für 1440p nun unbedingt eine xtx braucht sei dahingestellt. Die Meisten würden wohl sagen, dass man mit einer 7800xt respektive einer 4070 (s) da schon gut bedient ist und wer von Allem mehr haben möchte greift dann eben zur xt(x) und ti (s). Um hier einen Stich zu landen müssten m.E. die AMD Karten aufgrund ihrer faktisch vorhandenen Nachteile noch deutlich günstiger sein als aktuell. Denn Rasterleistung bieten auch die NV genug in dieser Auflösung und somit m.E. die höhere RR bei AMD geschenkt. So würde ich für das obere Spektrum von 1440p doch lieber eine 4070ti(s) bei gleichem Preis vorziehen und die bessere Effizienz sowie die besseren Features und bessere RT Leistung mitnehmen und womöglich noch Geld sparen. Momentan käme mir eine 4070ti S rund einen Hunni günstiger als eine 7900xtx.
 
Finde ich gut, habe mich jedoch entschieden mindestens auf die nächste Generation zu warten. Alle Games die ich zurzeit spiele laufen mit 4K120 oder wenigsten 1080p120 was mir genügt. Zur not könnte ich auch mal die Settings runter drehen.
 
DevPandi schrieb:
Na ja, die Grafik zeigt aber auch, dass selbst die ehemalige "Spitzenkarte" RTX 3090 nicht wirklich reicht, wenn man danach geht und der Spaß eigentlich erst ab der RTX 4080 oder eben RTX 4090 anfängt.
Die 4070 und 4070 TI ist mit FG auch nutzbar. Möglicherweise nicht in 4K, aber die 4070 ist für mich auch keine 4K Karte, wenn man keine Abstriche machen will, aber ja, die 3090 ist auch zu schwach. Allerdings ging es um die ja auch nie.

DevPandi schrieb:
Ja und Nein, auch bei den professionellen Rendern hat sich mit der Zeit bei manchen Rasterizer durchgesetzt, weil sie "schneller" sind. Nur reden wir hier immer noch von wesentlich mehr Zeit als bei Spielen pro Frame.
Wir wird denn die Beleuchtung beim Rasterizer berechnet, wenn nicht mittels Strahlen?
Ist das nicht im Grunde auch "Ray Tracing"?

DevPandi schrieb:
Na ja, das betrifft Nvidia in dem Fall aberr auch und du hast es mit der UE5-Demo auch selbst gezeigt.
Naja, weil Softwarelumen. Die Hardware wird ja gar nicht genutzt?

DevPandi schrieb:
Also, sehe ich mir die Zahlen mal an, dann schneidet in diesem Test die RTX 3090 Ti auch nicht unbedingt wirklich besser als die 7900 XTX ab. Einmal 18 fps gegen 14 fps (29 %) und 14 fps gegen 12 fps (17 %).
Ist richtig, aber es ging nicht um die 3090 TI. Die 7900 XTX ist die aktuellste Generation, also muss sie sich auch mit der aktuellen Generation von Nvidia messen und das kann sie in RT nicht. Das wird hier von einigen aber vehement abgestritten.
 
  • Gefällt mir
Reaktionen: Stimpanse
MrHeisenberg schrieb:
Seitdem AMD dort in der letzten Gen. die Krone hat. Jetzt will man davon nichts mehr hören ;)
So wie man halt von dir nie hört, dass AMD eine gleichwertige Frame Generation Lösung hat, die zudem offen ist und bei Usern die aus Grund XY kein RT aktivieren, die höhere Rasterleistung und mehr V-ram fürs Geld bekommen. Zudem hat die 7900XTX aufs Rastern beschränkt mehr Reserven als die 4080.
Die Einseitigkeit in deinen Argumentationen ist ja auch nicht zu verkennen. Die AMD Karten sind dank FG jetzt auch in der Lage die meisten RT Titel problemlos zu spielen, dennoch entscheiden sich 80% für eine Nvidia GPU, da Nvidia einfach deutlich stärker mit RT und DLSS am Puls der Zeit zu sein scheint.
MrHeisenberg schrieb:
Bei CPUs ist das ja auch das Argument schlechthin. Wen interessierts, wenn der 14900K 2% schneller als der X3D ist, er aber 50-100W mehr verbraucht? ;)
Es interessiert meist nur das, was bei seiner favorisierten Marke momentan am besten funktioniert, davor bin weder ich und schon gar nicht du gefeit. Seit ich die 4080 habe, hat mich Nvidia eben mit deren Features überzeugt, das heißt aber nicht, hätte ich eine 7900XTX gekauft, das nicht auch so hätte passieren können (Treiberoberfläche nicht aus 2001, Rasterperformance), mit Ausnahme vielleicht von FSR, das ist wirklich teilweise eine Zumutung, manchmal ist es aber auch recht nah dran.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
DevPandi schrieb:
Doch aber wusste nicht das du die Dev Keule hier auspackst weil es den meisten eh zu Hoch ist.

Bei der Rasterisierung handelt es sich um das Aussenden eines Strahlensatzes von einem einzelnen Punkt, der beim ersten Objekt, auf das er trifft, stoppt. Raytracing geht noch einen Schritt weiter und wirft Strahlen von vielen Punkten in jede Richtung. Path Tracing simuliert die wahre Physik des Lichts, wobei Ray Tracing als eine Komponente eines größeren Lichtsimulationssystems verwendet wird.

Dies würde bedeuten, dass alle Lichter in einer Szene stochastisch abgetastet werden mithilfe von Monte-Carlo oder anderen Techniken sowohl für die direkte Beleuchtung, um Objekte oder Charaktere zu beleuchten, als auch für die globale Beleuchtung, um Räume oder Umgebungen mit indirekter Beleuchtung zu beleuchten.

Um dies zu erreichen, würde man die Strahlen nicht durch einen einzigen Aufprall zurückverfolgen, sondern über mehrere Aufprallvorgänge, vermutlich zurück zu ihrer Lichtquelle.

Raytracing allein erzeugt keine Farbe. Path Tracing hingegen ist eine Methode, die Raytracing nutzt, um das Lichttransportintegral zu lösen. Mithilfe von Raytracing werden Pfade zwischen der Kamera und dem Licht erstellt und anschließend der Beitrag dieses Pfads zum Bild berechnet.

Trotzdem ist das Pathtracing das stand heute in Spielen verwendet wird, extrem zahm und ich glaube kaum, dass es die Leute in einem öffentlichen Forum auch nur annähernd so viel interessiert als dass man so dermaßen ins Detail geht.

Aber man muss auch sagen hätte man 2018, wenn erzählt das man 2023 Spiele mit Pathtracing zocken kann, wenn auch mit massiv Upscaling/reconstruction und Framegeneration. Hätte das niemand geglaubt naja bis auf die Leute die daran gearbeitet haben.
 
nato44 schrieb:
Dem widerspreche ich mal: Nicht immer.
Bspw. mit Hinsicht auf die Smartphone Ladebuchsen...irgendwann 2013 haben sich die Hersteller mal darauf "geeinigt", eine einheitliche Lösung anzustreben, passiert ist seitdem nichts und die EU hat dem Zirkus nun endlich mal einen Riegel vorgeschoben und USB-C zur Pflicht gemacht.

So ganz funktioniert freie Marktwirtschaft nicht immer. Es braucht gewisse Regulierungen.

Ausnahmen bestätigen die Regel :)
 
Das ist halt ne Karte die nicht jeder braucht, die meisten sind mit ner 7900XT,7800XT oder ner RTX 4070/Super/TI mehr als zufrieden.
 
PhantomGamingYT schrieb:
Weist was mit der 7900XT(320 bit bus!) kann ich Cyberpunk in 4k Nativ zocken auf Hoch und bin immer über 60 Fps. Oder Raytracing/Pathtracing dafür mit DLSS Performance was tatsächlich einen guten Job macht aber von 4k Bild weit weg ist. Es ist beides ein Kompromiss.
Genau, und jetzt mach AMFM im ersten AMD Januar Treiber an! Auf meiner XFX 7800 XT auf WQHD auf Max. mit RT ohne PT lande ich hier auf 135fps. Das war ein Grund, warum ich mich gegen die 4070 oder S entschieden habe, neben der Grösse des VRAMs. Eine 7900 XTX schied für mich aus, da ich nur WQHD Gamer bin und weil ich meine o.g. Karte für 500€ inkl. Versand ergattern konnte. So habe ich dieses Jahr erstmal Ruhe.
 
  • Gefällt mir
Reaktionen: SweetOhm und PhantomGamingYT
PhantomGamingYT schrieb:
Witzige Rechnung. Das ginge aber nur auf wenn du Tatsächlich JEDEN Tag 2 Stunden zockst und pass auf jetzt kommt es die Gpu Tatsächlich zu 99% ausgelastet ist und ihr TBP voll ausschöpft in dieser besagten Zeit.
Denke, das ist ein wichtiger Punkt, den viele nicht sehen. Natürlich spielt man auch mal CP in 4k auf einer 7900xtx oder Metro mit 350W auf allet ohne Optimierung. Vielleicht.

Aber immer? Ich hatte z.B. zuletzt mal wieder richtig Freude an ein bisschen CIV 6. Trotz 4k "mit alles" und gelockten 60FPS (sehe den Unterschied zu 144 bei diesem Spiel nicht) - was immer das bei CIV heisst - braucht die GPU rund 70Watt.
Kaum mehr braucht z.B. Pagonia, SIMs oder andere "Dauerbrenner". Verglichen wird aber immer "volle Lotte". Ist so sinnvoll den "Strommehrverbrauch" damit zu rechnen wie bei Zock-CPUs auf die Vollast.
 
MrHeisenberg schrieb:
Nein?! Ist ja ein Ding! RT gibt es so erst seit 4-5 Jahren. Wie lange wird Rasterization genutzt? Über 20 Jahre?
Logisch, dass es mehr Rasterspiele gibt. Erwartet ihr jetzt, dass von heute auf morgen alles auf RT umgestellt wird?
Was sind das hier für Kindergartenargumente? :D
Nein, das erwarte ich nicht. Und genau das ist auch der Punkt, danke, dass Du den bestätigst ;)

Tornavida schrieb:
Ist ja schön dass die XTX preislich mal runter kommt, aber seien wir ehrlich, wer in 4k high FPS zockt, womöglich einen teuren Monitor/TV stehen hat wird doch i.d.R. auch einen höheren Anspruch an die BQ haben als das was FSR zu leisten imstande ist.
Vielleicht, vielleicht auch nicht. Die meisten werden den Unterschied im Betrieb von FSR3 auf DLSS3 nicht sehen.

Tornavida schrieb:
In die selbe Kerbe schlägt auch AFMF ein, ich finds ja geil und sehe es sogar als Vorteil gegenüber NV, aber wer von den High End Enthusiasten will so zocken in dieser Form wenn es was Besseres in Form von DSLL und FG von NV gibt ?
Gibt es halt nicht in jedem Game. AFMF eben schon. Bei nVidia bist Du darauf angewiesen, dass FG implementiert ist. Das gleiche bei FMF. AFMF kannst Du immer nutzen.

Tornavida schrieb:
Momentan käme mir eine 4070ti S rund einen Hunni günstiger als eine 7900xtx.
Du kriegst ne 4070TiS für 789€? Wo denn, das würde sicher einige interessieren.
 
  • Gefällt mir
Reaktionen: SweetOhm
CadillacFan77 schrieb:
Entsprechend sind die Karten gleichschnell. Ob jetzt 15% mehr oder weniger macht nix aus, insbesondere bei RT nicht: Da sind die Framerates sowieso schon so tief, dass 15% nix ausmachen (ob jetzt 30 fps oder 34fps spielt kaum ne Rolle). Selbst bei AW:2, DEM RT Benchmark sind beide Karten weit weg von den 60 fps. Rechnerisch ist die 4070TiS rund 27% vor der 7900XTX in den Percentile bei 4k RT (bei CB). Reell sind das 23 vs. 29fps. Beides Crap -> Ergo die RT Stärke von nVidia kommt in dem Kartensegment kaum zu tragen.
Hmmmmmmmmmmm. Selbst die 4070 super bekommt man doch auf was geprügelt? 40-45FPS mit optimierten Path Tracing Settings und balanced DLSS? FG drauf, 90 FPS. ausreichend für ein Controller Game. Der Spruch mit der Konsole Like experience bei 30 FPS kommt nicht ganz von ungefähr.



Da sieht es bei CP ja deutlich schlechter aus, weil das Genre und Steuerung halt eine andere sind.
 
  • Gefällt mir
Reaktionen: Quidproquo77
DerRico schrieb:
Denke, das ist ein wichtiger Punkt, den viele nicht sehen. Natürlich spielt man auch mal CP in 4k auf einer 7900xtx oder Metro mit 350W auf allet ohne Optimierung. Vielleicht.

Aber immer? Ich hatte z.B. zuletzt mal wieder richtig Freude an ein bisschen CIV 6. Trotz 4k "mit alles" und gelockten 60FPS (sehe den Unterschied zu 144 bei diesem Spiel nicht) - was immer das bei CIV heisst - braucht die GPU rund 70Watt.
Kaum mehr braucht z.B. Pagonia, SIMs oder andere "Dauerbrenner". Verglichen wird aber immer "volle Lotte". Ist so sinnvoll den "Strommehrverbrauch" damit zu rechnen wie bei Zock-CPUs auf die Vollast.
Die Leute denken halt nicht zu ende.

Ich bringe dir jede XTX auf 315Watt mit über Stock Geschwindigkeit. Bei der XT immerhin auf 275-285 Watt. Setzte das nun in relation zu der Performance und dann soll noch wer sagen die dinger sind nicht effizient.

Die raffen halt nicht das die 7900XT der 4080 dicht auf der Ferse ist, gleich kommts 10% Leistung sind 400€ mehr wert auch wenn sie sogar weniger Vram hat und kleineren bit bus:lol:. XTX jede 4080 hinter sich lässt. Nvidias marketing at full display here. RT und Scaling ist wichtiger als Leistung, aja seit wann? Aber gut ist ja nicht mein Geld. Unglaublich wie man die Leute mit gezielter Werbung lenken kann. Überhaupt reden die Leute von Amd Karten die sie selbsz nie da gehabt haben das ist etwas komplett anderes als balken im Netz zu schauen.

Klar nach oben gibt es keine Grenzen eine 600 Watt XTX ist was Feines. :evillol:




GOOFY71 schrieb:
Genau, und jetzt mach AMFM im ersten AMD Januar Treiber an! Auf meiner XFX 7800 XT auf WQHD auf Max. mit RT ohne PT lande ich hier auf 135fps. Das war ein Grund, warum ich mich gegen die 4070 oder S entschieden habe, neben der Grösse des VRAMs. Eine 7900 XTX schied für mich aus, da ich nur WQHD Gamer bin und weil ich meine o.g. Karte für 500€ inkl. Versand ergattern konnte. So habe ich dieses Jahr erstmal Ruhe.
Vor allem braucht auch RT und FG massiv an Vram brauchen,, 12GiB werden schon reichen genau bis die 5070 rauskommt mit wieder 12 GiB ;).

Eine 7800 ist für Wqhd ideal. Kann aber auck 4k hoch mit 60-80 fps schaffen, probier das mal mit der 4070 die bricht in 4k auf fast rx 6800 non xt performance ein. 192 bit bus ftw.
 
  • Gefällt mir
Reaktionen: SweetOhm
CadillacFan77 schrieb:
Entsprechend sind die Karten gleichschnell. Ob jetzt 15% mehr oder weniger macht nix aus, insbesondere bei RT nicht: Da sind die Framerates sowieso schon so tief, dass 15% nix ausmachen (ob jetzt 30 fps oder 34fps spielt kaum ne Rolle).
Und Nachts ist es kälter als draußen. Gerade bei niedrigeren FPS, also so im Bereich zwischen 60und 100 FPS, was meine 4080 ziemlich stabil in RT Titeln schafft, registriert man eine Mehrleistung deutlich eher, als wenn man 120 FPS mit 140 vergleicht. Dort ist der Unterschied nicht zu bemerken.

Dein FPS Wert von 30 oder 34 ist völlig beliebig und entspricht nicht den Messungen von Computerbase wo man weit drüber landet.
CadillacFan77 schrieb:
Selbst bei AW:2, DEM RT Benchmark sind beide Karten weit weg von den 60 fps.
Was heißt selbst? Das ist der einzige Titel im Benchparkour, der aber mit FG und DLSS grandios aussieht und sehr gut läuft. Ich hatte in QHD immer zwischen 60 und 80 FPS mit Pathtracing.
Das Game ist auch kein Shooter, daher langt das.

CadillacFan77 schrieb:
Rechnerisch ist die 4070TiS rund 27% vor der 7900XTX in den Percentile bei 4k RT (bei CB). Reell sind das 23 vs. 29fps.
Oder eben 45 auf 55 FPS zum Beispiel und die Spiele laufen ja nicht bei 20 FPS. Wer spielt schon in 4K ohne Upscaler? Das ist völlige Leistungsverschwendung und sieht auch noch schlechter aus.
CadillacFan77 schrieb:
Nein, ein realer Vorteil, den gewisse Bubbles einfach nicht zugestehen wollen.
CadillacFan77 schrieb:
Ergo die RT Stärke von nVidia kommt in dem Kartensegment kaum zu tragen.
Gerade im High End Bereich kommt das am Stärksten zu tragen.
CadillacFan77 schrieb:
Dazu kommt, dass es deutlich mehr Raster Spiele gibt als RT Spiele. Entsprechend ist logischerweise die Raster Performance wichtiger.
Ich sehe die Rasterperformance auch noch wichtiger, das bedeutet aber nicht, dass deine Argumentation oben irgendwie viel Sinn ergibt.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
DJMadMax schrieb:
Wenn ich z.B. sehe, dass eine RX 7900 XTX in DooM Eternal bei 144 FPS-Lock in egal welcher Auflösung zwischen 25% und 50% mehr Strom als eine RTX 4090 benötigt, dann biegen sich mir einfach die Fußnägel.
das dürftest du dann auch bei der Rtx 4080 die ja der eigentliche gegner der 7900xtx ist.

IMG_0028.jpeg

zumindest in wqhd ist es gleich.

due rtx4090 ist von Preis und der Leistung weit ausserhalb von konkurrenz. sie kostet nunmal fast das doppelte ein 7900xtx.
 
  • Gefällt mir
Reaktionen: SweetOhm
Das der Gute Herr nicht versteht das ein Top Dog Chip im Framelimit die effizienteste Karte auf dem Markt ist dann weiß ich es auch nicht. Deswegen XTX vs 4080 da ziemlich ähnlich Overall.

4090 ist konkurrenzlos.

Man vergleicht auch keine 4070 mit einer 4060 im framelimit. :freak: Weil die grössere je nach Last und Spiel immer effizienter sein wird und je nach limit wird die kleine sogar voll ausgefahren.

Denkt hier niemand nach bevor er was sagt?




Was Amd ist effizienter wie geht denn das? Laut diesem Thread ist das ein Ding der unmöglichkeit? Cb ist sicher von Amd gekauft in 3...2...1. :D sogar fast ganze 2% halleluja wieder 5 cent gespart im jahr.:lol:
 
  • Gefällt mir
Reaktionen: Xul, SweetOhm, eXe777 und 2 andere
Mr. Vega schrieb:
Wozu sollte ich die volle Leistung abrufen wollen, wenn ich mit weniger bereits ein technisch und/oder für mich persönlich gefühltes, flüssiges Spielerlebnis habe?
Es ging nicht darum, ob ein FPS-Cap einen Nutzen hat. Den gibt es. Die Ursprungsaussage war, ob man sich mit dem (absoluten) Stromverbrauch anfreunden kann.





Mein Argument ist, dass man vorsichtig sein sollte, mit Teillast zu argumentieren. Da entweder später, oder bei einem Spiel wie desletzt Cities:Skylines II, ohnehin die volle Leistung notwendig werden wird.

Darum ging es mir. Dort setzt meine Kritik an eine 350w Karte an. Viele machen sich darüber lustig, damit muss man in einer solchen Filterblase rechnen.

Es geht dabei nicht um 7,41€ Ersparnis pro Jahr. Es geht dabei nicht darum, welches Lager aktuell relational effizienter ist. Dieser Hate und Hohn entspringt dem Geist derjenigen, die sowieso nur eine Sicht gelten lassen, oder nicht an einer objektiven Diskussion interessiert zu sein scheinen.

Was ich ziemlich bedauerlich finde.
 
  • Gefällt mir
Reaktionen: coxon und Mr. Vega
PhantomGamingYT schrieb:
Laut diesem Thread ist das ein Ding der unmöglichkeit? Cb ist sicher von Amd gekauft in 3...2...1. :D sogar fast ganze 2% halleluja wieder 5 cent gespart im jahr.:lol:

5 Cent im Jahr kann man sich doch auch schenken.
 
Zurück
Oben