Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD

FreedomOfSpeech schrieb:
Wüsste nicht wieso. Die Deindustrialisierung Deutschlands schreitet voran, Pleitewelle rollt übers Land und die FED erhöht die Leitzinsen drastisch, was die EZB nicht kann weil dann die Südstaaten quasi sofort pleite wären.
Die Ursachen der Energiekrise wird nicht angegangen, sondern weiter Steuergeld für "Entlastungspakete" verbrannt, was den Schuldenstand und die Inflation weiter antreibt. Ich gehe eher von 1.10€ für 1.00$ aus.
Weil die EU ja auch nur aus Deutschland besteht^^ Davon ab ist ja auch der Ausblick mit entscheidend und nicht jeder sieht so schwarz wie du. Durch die Inflation nimmt ja auch der Staat deutlich mehr ein.
Die EZB wird den Leitzins auch anheben, abhängig davon wird sich der Euro auch stabilisieren.
 
  • Gefällt mir
Reaktionen: iron_monkey, MiroPoch und Markenbutter
Eidgenosse schrieb:
RT ist eine nette Spielerei zurzeit und mehr nicht. Ein paar Minuten im Spiel und du merkst den Unterschied doch nichtmal mehr.
Sehe ich genauso. Die Unterschiede sind maginal aber die Leistungseinbußen sehr hoch.
Bei Cyberpunk finde ich die herkömmliche Beleuchtung nicht so gut gelungen. Als würde man sich da nicht mehr so die Mühe geben.
RT macht das schon.
Schatten z.b. sehen ziemlich matschig aus,etc.
Zumindest ist das mein Eindruck.
 
  • Gefällt mir
Reaktionen: Eidgenosse
Schade hatte ein bisschen höhere Performance erwartet.
Die schwache RT Performance bereitet mir Magenschmerzen. Bin auf den Test, vor allem gegen die 4080, gespannt.
 
  • Gefällt mir
Reaktionen: bad_sign
Die 7900XT(X) könnte wohl schon an der Kotzgrenze laufen:
Screenshot 2022-11-04 144032.png


https://twitter.com/coreteks/status/1588329053530251265
 
Eidgenosse schrieb:
as passiert, wenn die Frames unter die 100 Hz fallen mit Adaptive Sync?
Bei Adaptive Sync (ist eine Variante von GSync, Freesync, VRR) wartet der Monitor bis er ein neues Bild von der Grafikkarte geliefert bekommt. Bei Vsync macht er stur 60Hz (z.B.) und wenn die Karte länger braucht als 1/60s dann wird das Bild erst beim nächsten Refresh ausgegeben (halbe Hertz).
 
  • Gefällt mir
Reaktionen: Eidgenosse und Apocalypse
FreedomOfSpeech schrieb:
Bei Adaptive Sync wartet der Monitor bis er ein neues Bild von der Grafikkarte geliefert bekommt. Bei Vsync macht er stur 60Hz (z.B.) und wenn die Karte länger braucht als 1/60s dann wird das Bild erst beim nächsten Refresh ausgegeben (halbe Hertz).
Ok dann muss ich mal schauen ob dies mein Monitor auch hat, denn ich hab den bereits zu Release gekauft, ist also ein altes Modell. Danke auf jedenfall für den Hinweis.
 
Malustra schrieb:
Du würdest die Unterschiede wahrscheinlich selbst kaum spüren, wenn man dich 30 Minuten vor ein Spiel setzt und zwei Tage später dann mit RT.
Ich habe mit einem C64 angefangen und vom Prinzip kann auch ein Spiel mit Pixelgrafik fesseln und realistisch (für damalige Zeit) aussehen. Das ändert aber nichts daran, dass der größte Sprung was Grafikqualität in den letzten 10 Jahren angeht durch RT kam und hier nicht mehr wegzudenken ist.

Erschreckend ist nur wie langsam diese Entwicklung voranschreitet, aber leider muss man durch die Konsolen damit leben und es wird noch viele Jahre dauern bis Spiele auf den Markt kommen, die gar nicht mehr auf Karten ohne Hardware RT laufen werden.

Bis dahin müssen die Entwickler zweigleisig fahren, was den Gedanken alles viel einfacher zu machen leider ad absurdum führt.
 
  • Gefällt mir
Reaktionen: Apocalypse
wtfNow schrieb:
Sehr wohl geht das, ich zocke mit einer RTX 3070 auf einem 4k144 mit HDMI 2.1 und habe auch dreistellige fps in AAA Games. Regler bedienen und DLSS sei Dank;)

Da die 8GB VRAM regelmäßig überlaufen und mehr Leistung trotzdem gerne gesehen ist muss nun eine 7900 XT(X) her, die wird aber locker einige Jahre 4k144hz bedienen können.
Es ging da aber um den DP2.1 und den braucht man selbst in 4k 144hz nicht. Das kann der DP1.4 selbst in 10bit noch locker bedienen.
Ergänzung ()

MrHeisenberg schrieb:
Die 7900XT(X) könnte wohl schon an der Kotzgrenze laufen:

https://twitter.com/coreteks/status/1588329053530251265

Puh, das wäre wirklich schwach. Selbst die 4090 schafft 10% mehr Boost Takt mit dem Afterburner, ohne groß an der Spannung drehen zu müssen. Das resultiert zusammen mit einem höheren Speichertakt in einer Mehrleistung von 6-7%.
 
  • Gefällt mir
Reaktionen: wtfNow
xexex schrieb:
. Für die Entwickler macht es die Sache vor allem komplizierter und sieht trotzdem schlechter aus. Berechnet müssen diese Effekte am Ende jedoch so oder so, wenn eine Engine das "in Software" berechnet, fehlt die Leistung an einer anderen Stelle.

Hier klemmt es an zwei Stellen:

1.
Ob klassisches Rendering irgendwas komplizierter macht, wissen wir nicht. Denn die Entwicklung von effizienten Engines die Raytracing handhaben können scheint nicht so easy zu sein. Die Technik gibt es mittlerweile seit fünf Jahren und ist immer noch kein Mainstream. Das suggeriert mit das RT für Programmierer nicht geschenkt zu haben ist.

2. Das Raytracing deutlich mehr Rechenpower als klassisches Rending mit Shading etc ist., sollte außer Frage stehen. Du stellst es genau anders herum dar.
 
  • Gefällt mir
Reaktionen: iron_monkey und Malustra
xexex schrieb:
Ich habe mit einem C64 angefangen und vom Prinzip kann auch ein Spiel mit Pixelgrafik fesseln und realistisch (für damalige Zeit) aussehen. Das ändert aber nichts daran, dass der größte Sprung was Grafikqualität in den letzten 10 Jahren angeht durch RT kam und hier nicht mehr wegzudenken ist.

Erschreckend ist nur wie langsam diese Entwicklung voranschreitet, aber leider muss man durch die Konsolen damit leben und es wird noch viele Jahre dauern bis Spiele auf den Markt kommen, die gar nicht mehr auf Karten ohne Hardware RT laufen werden.

Bis dahin müssen die Entwickler zweigleisig fahren, was den Gedanken alles viel einfacher zu machen leider ad absurdum führt.

RT ist definitiv nicht der größte Sprung der letzten 10 Jahre.
Das ist wirklich komplett übertrieben. Schau dir die Spiele vor 10 Jahren und heute an.
Und zwar ganz ohne RT. Schau dir doch die Vergleichsvideos mal an.
Du siehst doch selbst, dass man da kaum Unterschiede sieht. Das sind Nuancen.
Und spätestens jetzt mit der UE5 Engine erübrigt sich RT sowieso immer mehr.
Das was RT hier hardwareseitig leistet, wird immer mehr über die Engines seitens Software erledigt werden.
Noch mal RT ist nur so gut, wie es auch implementiert wird. RT ist keine Funktion von Nvidia die man anschaltet und boom sieht jedes Spiel 10 mal besser aus. Zum einen muss es implementiert werden, zum anderen sind es wie gesagt nur hier und dort Nuancen. Das belegen ja die Vergleichsvideos sehr deutlich. Von großem Sprüngen kann keine Rede sein, nur weil sich eine Pfütze oder ein Licht hier und dort mal etwas anders spiegelt. Das wird bald Standard über die Software sein, so wie sich alles über die Jahrzehnte entwickelt hat.
 
  • Gefällt mir
Reaktionen: iron_monkey, MiroPoch, Ghostfacekalle und 4 andere
Korben2206 schrieb:
Dann frage ich mich gerade warum es korrigiert wurde... ;)
jetzt beziehen sich beide auf den Front-End Takt, die XT hat ja nun auch ne höhere FP32 Leistung da stehen

Womit man auch nun weiß, dass der Front-End Takt der XT bei 2.4Ghz liegen sollte.
 
Zuletzt bearbeitet:
Grafik:
  • Stand 2023, 600mm², 400W, 4K/8K, RGB, 2500€
  • Kommentar: Boah Alter, was fürn Schirm, das Teil kloppt aber, sieht ja MEGA aus!

Akustik:
  • Stand 1990, 16mm², 5W, 25€
  • Kommentar: Alter, für was soll man ne Akustikkarte brauchen? Das gibts doch gar nicht und außerdem reicht der Onboard-Sound völlig!
 
  • Gefällt mir
Reaktionen: Beatmaster A.C. und Apocalypse
Magnifico schrieb:
Ob klassisches Rendering irgendwas komplizierter macht, wissen wir nicht. Denn die Entwicklung von effizienten Engines die Raytracing handhaben können scheint nicht so easy zu sein. Die Technik gibt es mittlerweile seit fünf Jahren und ist immer noch kein Mainstream. Das suggeriert mit das RT für Programmierer nicht geschenkt zu haben ist.
Nö, RT gibt es schon viel, viel, viel länger...

 
xexex schrieb:
und hier nicht mehr wegzudenken ist.
Ich habe eine 3090 und in keinem Spiel nutze ich RT weil es einfach zu viele FPS kostet. In Hellblade würde ich gerne aber dann muss ich DLSS anmachen und dann wirds unscharf. 4k@120 mit RT ist nicht drin, auch mit 4090 nicht. Von daher spielt RT nur als Marketing-Gag eine Rolle.
Ergänzung ()

Carsti80 schrieb:
Was sagt denn Eure Expertenmeinung? Wann kann man mit Tests rechnen? Anfang Dezember?
1 Tag vor Release evetuell aus China schon eine Woche vorher.
 
  • Gefällt mir
Reaktionen: MiroPoch, Devil, Cat Toaster und 2 andere
Ich befürchte, dass AMD über den Preis gehen muss, weil die Karten zu langsam sind...
 
naTmeg schrieb:
Akustik:
  • Stand 1990, 16mm², 5W, 25€
  • Kommentar: Alter, für was soll man ne Akustikkarte brauchen? Das gibts doch gar nicht und außerdem reicht der Onboard-Sound völlig!
Unsere Welt ist sehr laut geworden. Da achtet man mehr auf das Visuelle.
 
  • Gefällt mir
Reaktionen: Apocalypse und TKessel
Malustra schrieb:
Sprüngen kann keine Rede sein, nur weil sich eine Pfütze oder ein Licht hier und dort mal etwas anders spiegelt. Das wird bald Standard über die Software sein, so wie sich alles über die Jahrzehnte entwickelt hat.
Kann ich um ehrlich zu sein nicht bestätigen, selbst Cyberpunk oder Minecraft bei mir ihrer eigenen charmanten "Klötzchen" Geometry bekommt durch RT Photorealistic Qualitäten. Füge noch zur Rezeptur VR mit HDR hinzu und wir werden hier von einer ganz neuen Qualitätsstufe an Computer Grafik die etwas von einem Diorama statt einem Computerspiel hat.
Nur für den Spielspaß macht das jetzt halt imho keinen riesen Unterschied. Für die Entwickler, so sie nur noch einen RT Pfad brauchen und nicht 50 fake und versteckte Lichtquellen in der Szene platzieren müssen, sondern einfach nur noch die Sonne über den Himmel wandern lassen müssen … das ist schon massiv weniger Arbeit.
Aber halt erst wenn die Konsolen hier auch 4090 Leistung und mehr beim Raytracing haben. Woher bleibt es ein Schmerz im Popo dann jede Szene zweimal Designen zu müssen oder halt abstriche in der Qualität in kauf nehmen zu müssen.
 
  • Gefällt mir
Reaktionen: Sly123
c2ash schrieb:
dann wäre es doch nur logisch, den Preis ebenfalls exakt oder nur knapp unterhalb der 4080 anzusiedeln. Ich lasse mich gerne überraschen und bin da total uneingenommen. Ist nur meine persönliche Beurteilung der Sachlage.
Warum?

AMD produziert einen 300mm2 Grafikchip im normalen TSMC 5NM Prozess und 6x kleine IO Dies also Speicherinterface mit Cache im "alten" 6NM Prozess,
NV für die 4090 ein 608 mm2 Monster und für die 4080 einen 380 mm2 in einem 4N genannten 5NM
Custom Prozess.

Deutlicher bis gewaltiger Preisvorteil AMD


NV braucht eine aufwendiges PCB mit vielen Lagen, eine aufwendige Spannungsversorgung und teure Mosfet und extra teure PWM Controler welche die vielen Phasen handeln können, sollte ja bis 600W reichen.
AMD kommt mit einer ähnlichen PCB und Spannungsversorgung aus wie letzte Gen.

Deutlicher Preisvorteil AMD


NV kauft schnellen und seltenen, hungrigen GDDR6X von Micron
AMD GDDR6 Massenwahre in sparsam von Samsung

Deutlicher Preisvorteil AMD


NV verbaut aufwendige 3.5-4 Slot Kühlkörper mit vielen Heatpipes und grossen massigen
Wärmetauschern, sollte für 600W reichen.
AMD verbaut 2.5-3 Slot Kühler wie in der letzten Gen

Deutlicher Preisvorteil AMD


Und nun bitte erklär mir wieso AMD selbst wenn sie nahe dran wären ihre Ware so teuer anbieten muss wie NV? Die Marge von AMD kann trotz eines sehr viel niedrigeren Preises sehr gross sein.
Und durch den niedrigeren Preis kann man potentiell auch schlicht mehr davon verkaufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sly123, mazO!, znarfw und 9 andere
Zurück
Oben