Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD

Carsti80 schrieb:
Unsere Welt ist sehr laut geworden. Da achtet man mehr auf das Visuelle.
Mag sein, aber anderseits gibt es dieser Tage durchaus sehr gute Studio Monitore und Interfaces, Soundkarten, etc um sie zu betreiben für relativ wenig Geld.
Und gerade seit dem Streaming so beliebt geworden sind, sind XLR Mics und die passenden Interfaces ja durchaus am Vormarsch in den Mainstream.
Jetzt geben immer mehr Leute gerne 100€ für ihr Scarlett Solo oder 170€ für ihr Volt 2 aus.
 
Magnifico schrieb:
Denn die Entwicklung von effizienten Engines die Raytracing handhaben können scheint nicht so easy zu sein. Die Technik gibt es mittlerweile seit fünf Jahren und ist immer noch kein Mainstream. Das suggeriert mit das RT für Programmierer nicht geschenkt zu haben ist.
Die Engines unterstützen doch allesamt RT, das ist an dieser Stelle gar kein Thema. Was sollen die Entwickler aber machen?

Einfach Lichtquellen hinstellen und RT alles erledigen lassen? Ein Wunschdenken, weil man Konsolen und GPUs hat die kaum Leistung dafür haben. Die Entwickler dürfen also alles doppelt machen und optimieren, kein Wunder wenn es nicht zum "Mainstream" wird.

Das ist letztlich nicht anders wie früher T&L, da dauerte es auch viele Jahre bis 3DFX endlich starb und es überall implementiert wurde. Heute würde kaum noch einer auf die Idee kommen Lightmaps von Hand zu zeichnen.
 
  • Gefällt mir
Reaktionen: MiroPoch, captaincapri und Apocalypse
Linmoum schrieb:
Ich find's eher krass, wie sehr man RT immer noch belächelt.
Weil es ein Feature für Screenshots ist. Im Spiel und es gibt vielleicht gerade mal so 2-3 Stück. Wo es so geil ist, daß es beim Spielen überhaupt bemerkt wird. Ihr seit alle nv Marketing gebrainwasched! Genau wie dlss. Brauch ich auch bei AMD ned. Egal ob es noch gut aussieht oder nicht. Es ist ein feature was eigentlich für die schwache Hardware, fps entwickelt worden ist. Das bei Enthusiasten, high end Hardware als Argument zu bringen ist lächerlich. Sorry mm


Edit. Auch steht der leisugsverlust bei rt in keinem Verhältnis zum optik Gewinn. In ein paar Jahren mal schauen...

Mfg
 
  • Gefällt mir
Reaktionen: iron_monkey, Chismon und FreedomOfSpeech
modena.ch schrieb:
Und nun bitte erklär mir wieso AMD selbst wenn sie nahe dran wären ihre Ware so teuer anbieten muss wie NV?
Weil sie es könnten? Also wenn sie Marge und nicht Wachstum möchten.
 
Ich bin einfach nur Happy das AMD nicht auf den Zug der 4 Slot Grafikkarten aufspringt. Super Preis, gute Mehrleistung und Verbrauch, was also will man mehr?
 
  • Gefällt mir
Reaktionen: Eidgenosse
beckenrandschwi schrieb:
Ich befürchte, dass AMD über den Preis gehen muss, weil die Karten zu langsam sind...
Macht AMD ja auch und AMD kann es auch
Die Chip-fläche ist deutlich kleiner und das bei älteren Fertigungsprozessen als der von der 4090
 
derbe schrieb:
Das machen vielleicht 0.1% der Leute die sich die Karte kaufen. Die meisten stecken die rein und gut. Ich mach das mittlerweile auch so. Vergleich doch stock vs stock. Und da liefert AMD eine deutlich besser Watt/Performance falls die zahlen nicht total daneben waren von gestern.
Typisches Fanboy Argument.
Wenn die 7900XTX in Dying Light 2 mit RT und in 4k 72FPS mit 355W und FSR bekommt (laut AMD Slide).
Die 4090 bekommt dort 102 FPS in 4k mit DLSS Quality bei 450W. (Zahlen von CB)
Es sind 30FPS mehr mit 95W mehr.
Das wären (7900XTX) 0,215 FPS pro Watt vs (4090) 0,2266 FPS pro Watt.

Dabei weiß ich nicht welches FSR genutzt wurde, DLSS Performance gäbe noch mehr FPS.
Und nur weil eine Karte auf 355W bzw 450W ausgelegt ist, heißt es nicht, das sie auch es andauernd verbraucht. Gerade die 4090 ist oft weit unter den 450W...
 
  • Gefällt mir
Reaktionen: iron_monkey, FreedomOfSpeech, MrHeisenberg und eine weitere Person
Jemand bietet mir 3000 Euro für meine Strix RTX 4090 über Ebay Kleinanzeigen. Langsam wachen die Leute auf dass die RTX 4090 erstmal für lange Zeit permanent ausverkauft sein wird. Nvidia soll derzeit sogut wie keine RTX 4090 Chips produzieren, da die jetzt lieber die Dinger für 30k und mehr an China verkloppen. Die RTX 4090 wird im Preis noch steigen. Merkt euch meine Worte. Und nein ich werde nicht verkaufen. Wer weiss ob ich so schnell wieder an eine Strix 4090 rankomme. Ich glaube nämlich nicht daran.
 
modena.ch schrieb:
Warum?

AMD produziert einen 300mm2 Grafikchip im normalen TSMC 5NM Prozess und 6x kleine IO Dies also Speicherinterface mit Cache im "alten" 6NM Prozess,
NV für die 4090 ein 608 mm3 Monster und für die 4080 einen 380 mm2 in einem 4N genannten 5NM
Custom Prozess.

Deutlicher bis gewaltiger Preisvorteil AMD


NV braucht eine aufwendiges PCB mit vielen Lagen, eine aufwendige Spannungsversorgung und teure Mosfet und extra teure PWM Controler welche die vielen Phasen handeln können sollte ja bis 600W reichen.
AMD kommt mit einer ähnlichen PCB und Spannungsversorgung aus wie letzte Gen.

Deutlicher Preisvorteil AMD


NV kauft schnellen und seltenen hungrigen GDDR6X von Micron
AMD GDDR6 Massenwahre in sparsam von Samsung

Deutlicher Preisvorteil AMD


NV verbaut aufwendige 3.5-4 Slot Kühkörper mit vielen Heatpipes und grossen massigen
Wärmetauschern, sollte für 600W reichen.
AMD verbaut 2.5-3 Slot Kühler wie in der letzten Gen

Deutlicher Preisvorteil AMD


Und nun bitte erklär mir wieso AMD selbst wenn sie nahe dran wären ihre Ware so teuer anbieten muss wie NV?
AMD benötigt 522mm2 Vollaktive (!!!) Die Fläche für etwas über 4080 Raster und klar geringere RT Leistung. Die 4080 hat einen Teildeaktivierten 379mm2 Chip mit 256Bit SI. Und du glaubst ernsthaft das die AMD GPU günstiger ist? Neben der reine Die Flächen kommt bei AMD ja noch das zusammen setzten so wie 384Bit SI dazu.

Die 4080 hat eine 320Watt Angabe, die 4090 hat real gemessen etwas unter 400Watt, unterschied zu 355Watt ist genau wo?!?

Kühler exakt das gleich, die ersten Karten haben ja schon Abmessungen wie 4090.

AD102 ist völlig ausser Konkurrenz, dieser ist auf der 4090 relativ heftig beschnitten.
 
Apocalypse schrieb:
Also wenn sie Marge und nicht Wachstum möchten.
Ich geh mal davon aus sie wollen beides und das ist mit deutlich niedrigeren Kosten
und potentiell mehr Verkäufen wegen niedrigeren Preis drin.
 
  • Gefällt mir
Reaktionen: Apocalypse
xexex schrieb:
Blöd nur, das die Realität dann doch sehr weit entfernt ist, von dem was wir auf dem Bildschirm sehen.

xexex schrieb:
Erschreckend ist nur wie langsam diese Entwicklung voranschreitet, aber leider muss man durch die Konsolen damit leben und es wird noch viele Jahre dauern bis Spiele auf den Markt kommen, die gar nicht mehr auf Karten ohne Hardware RT laufen werden.

Bis dahin müssen die Entwickler zweigleisig fahren, was den Gedanken alles viel einfacher zu machen leider ad absurdum führt.

Naja, Computerspiele als Medium leben mMn aber davon, dass sie nicht krampfhaft versuchen der Realität hinterher zu laufen, sondern sich ihre künstlerische Freiheit nehmen.

Das trifft selbstverständlich nicht auf alle Genres zu und manche Spiele profitieren ganz automatisch wesentlich mehr von sauberem RT, trotzdem finde ich nicht, dass RT das transformative Feature ist, dass uns in den letzten 10 Jahren einen riesigen Sprung nach vorne gebracht hat.

Racing Sims z.B. zielen natürlich auf Realismus ab und profitieren stark von RT, aber selbst sowas wie RDR2 hat trotz seines realistischen Settings doch einen eindeutigen Artstyle und sieht ohne RT bisweilen wunderschön aus.
Und auch in AAA Titeln, wie Metro Exodus oder dem letzten Tomb Raider hat RT kein fundamental besseres Erlebnis aus dem Spiel gemacht.

Ist einfach eine Frage der Verhältnismäßigkeit. Beim 1080Ti Test, hat das Gesamtsystem unter Last 400 Watt aus der Dose gezogen. Beim 4090 Test sind es ~430 Watt nur für die GPU.

Der Wandel wird kommen, aber es ist doch nur natürlich, dass man ihn nicht übers Knie brechen kann, wenn dafür 2000€+ Hardware vorausgesetzt werden würde.

Freuen wir uns lieber, was auf PS5 und Series X mit cleveren Tricks möglich ist.
 
  • Gefällt mir
Reaktionen: Eidgenosse
Mr_Cenk schrieb:
Nvidia soll derzeit sogut wie keine RTX 4090 Chips produzieren, da die jetzt lieber die Dinger für 30k und mehr an China verkloppen.
Sympathisch ;)

Mir egal. Nvidia kann verknappen was sie wollen, gekauft wird sowieso nur immer was verfügbar ist, erst recht wenn es jetzt ein Konkurrenzprodukt gibt.
 
Grundgütiger schrieb:
Entweder ist Deutschland ein absolutes AMD Land, oder Radeon Nutzer nehmen an der Umfrage per se nicht Teil.
Oder diese Umfrage ist einfach kompletter Mist :-)

Ansonsten bedeckter Optimismus, bin sehr gespannt ob die Rohleistung dann auch in Frames auf dem Bildschirm ankommt und wie sich das ganze preislich einordnet.
 
Adzz schrieb:
Gewinnt man mit Masse. Die 4090 ist von allem 4000er nv Karten über die Zeit gesehen die am wenigsten gekaufte! Das war schon immer so. Nur färbt der Glanz nach unten hin ab...

Die Käufer der 3060 12g Krüppel Karte dachten ja auch oh geil nvidia! 12 GB! Aber puste Kuchen! Sinnlose 12gb auf so einem dulli Chip. Ne 3070 durfte mit 8gb versauern. Nv plant das von vorne bis hinten durch. Jeder der nicht aufpasst tritt in eine der fallen.

Mfg
 
  • Gefällt mir
Reaktionen: iron_monkey, FreedomOfSpeech, Devil und eine weitere Person
SVΞN schrieb:
Sonst bekomme ich immer einen auf den Deckel weil ich angeblich AMD-Sympathisant bin.
Das solltest du gewohnt sein, wenn du differenziert an ein Thema herangehst, bist du immer Fanboy der Gegenseite für die Fanboys. Schwarz-Weiß-Denken.
Malustra schrieb:
RT ist definitiv nicht der größte Sprung der letzten 10 Jahre.
Ja und Nein. Es kommt darauf an, aus welcher Richtung du an die Sache herangehst. Geht man stumpf von den Effekten heran, hast du recht, dann ist RT aktuell nicht der größte Sprung der letzten 10 Jahre, sondern der größte Sprung war damals DirectX 9.0c mit dem Shader-Modell 3.0, dass die meisten Limitierungen der Shader gelöst hat und Effekte ermöglichte, die bis dahin nicht möglich waren. Weder 4.0, 5.0 oder jetzt 6.0 haben solche Fesseln gelöst, wie 3.0, sondern waren dann wieder nur Verbesserungen, was die Effekte angeht.

Der große Sprung von RT liegt an einer anderen Stelle: Die Komplexität der Effekte und damit verbunden die Komplexität der Engines. Du kannst mit RT viele Effekte ohne Umwege und ohne Tricks in eine Engine implementieren, weil viele Effekte durch RT (in dem Fall Path-Tracer) "on-the-way" mit genommen werden. Bestes Beispiel ist SSAO, der Trick ist "relativ" einfach, muss aber pauschal auf das ganze Bild angewendet werden, weil es kein Bestandteil der Schattenberechnung heutiger Rasterenginens ist. In einem Path-Tracer kann man Schatten + SSAO in einem Schritt berechnen, eben weil SSAO Teil der Schattenberechnung ist.

Ähnlich verhält es sich mit "weichen" und "harten" Schatten, um eine korrekte Schattenberechnung zu erstellen, werden heute nicht nur die Schatten berechnet, sondern man muss am Ende noch mal entscheiden, ob man diffuse oder harte Schatten will und diese Einstellung wird heute oft pauschal auf alle Schatten angewendet, weil es unglaublich aufwendig ist die Schatten abhängig der Beleuchtung anzupassen. Auch hier bietet der Path-Tracer bereits in einem Schritt beide Funktionen und kann sowohl weiche als auch harte Schatten zur gleichen Zeit darstellen.

Es geht mit den Spiegelungen weiter. Screen-Space-Reflections sind heute eine gute Methode, relativ einfach Spiegelungen im Wasser und Co zu berechnen ohne hohen Aufwand, gleichzeitig muss hier stark getrickst werden und sie sind limitiert und je nachdem wie viele "Effekte" die Spiegelungen zeigen sollen, geht hier selbst bei SSR sehr viel Rechenzeit drauf. Sobald aber Spiegelungen nicht berechneter Bereiche notwendig wird - Spiegel - wird es noch aufwendiger, weil neue Render-Targets geöffnete werden müssen, die eine Textur berechnen müssen. Um hier Rechenleistung zu sparen, werden oft viele Abstriche gemacht, auch hier gilt wieder: Bei einem Path-Tracer benötige ich kein weiteres Render-Target und kann die Effekte in der Regel einfach mitnehmen.

Malustra schrieb:
Das ist wirklich komplett übertrieben. Schau dir die Spiele vor 10 Jahren und heute an.
Richtig, was aber daran liegt, dass die meisten Effekte damals bereits ersonnen wurden, die heute benutzt wurden und seit dem nur noch verfeinert werden. Der letzte große Sprung an Grafikqualität liegt wirklich bereits seit einiger Zeit zurück.
Malustra schrieb:
Du siehst doch selbst, dass man da kaum Unterschiede sieht. Das sind Nuancen.
Richtig, es sind Nuancen, gleichzeitig merkt man aber auch an Spielen wie Cyberpunk, Metro und Co, dass die dortigen RT-Umsetzungen oft für eine "Lebendigkeit" sorgen, die ohne RT nicht umgesetzt wird. Es ist auf Screenshots nicht wirklich greifbar, sondern wird oft erst bemerkbar, wenn man mehre Stunde mit RT spielte und dann wieder zurückwechselt. Das Bild sieht ähnlich aus und doch merkt man, dass etwas nicht ganz richtig ist.
Malustra schrieb:
Und spätestens jetzt mit der UE5 Engine erübrigt sich RT sowieso immer mehr.
Nein, das ist falsch. Lumen beruht auf Path-Tracer Techniken, die, wenn die Hardware vorhanden ist, durch RT-Einheiten beschleunigt wird, was dazu führt, dass der Effekt vollständig als RT berechnet wird. Wenn keine RT-Technik vorhanden ist, reduziert Lumen die Strahlen drastisch und auch die möglichen Sprünge, es wird dann viel interpoliert und das sieht man auch im Quelltext der UE5.
Malustra schrieb:
Von großem Sprüngen kann keine Rede sein, nur weil sich eine Pfütze oder ein Licht hier und dort mal etwas anders spiegelt.
Wenn du RT darauf reduzierst, ist das sicher eine valide Meinung, blendet aber alle wichtigen Aspekte aus. Es hat heute einen Grund, warum in vielen Spielen quasi weitgehend auf Spiegelungen verzichtet werden und man höchstens Screen-Space-Reflections in Pfützen oder in Gewässern umsetzt und da auch nicht so viele umsetzt und dass Spiegelung bei bestimmten Winkeln vollständig verschwinden.
 
  • Gefällt mir
Reaktionen: Sly123, MortyMcFly, Apocalypse und eine weitere Person
Dural schrieb:
AMD benötigt 522mm2 Vollaktive (!!!) Die Fläche für etwas über 4080 Raster und klar geringere RT Leistung. Die 4080 hat einen Teildeaktivierten 379mm2 Chip mit 256Bit SI. Und du glaubst ernsthaft das die AMD GPU günstiger ist? Neben der reine Die Flächen kommt bei AMD ja noch das zusammen setzten so wie 384Bit SI dazu.

AMD benötigt 300mm2 in einem teuren und 6x37mm2 in einem deutlich günstigen Prozess.
NV braucht 378mm2 in einem extrem teuren Custom Prozess.

Das SI ist bei AMD auf die 6x IO Dies verteilt, welche per Infinity Fabric am Grafikchip hängt.
Ja ich geh davon aus, dass AMD den Chip günstiger produziert als NV den ADA103.

Davon ab die Kühler, Platinen und Speichermodule scheinen bei der 4080 nur minimal weniger aufwendig als bei der 4090 zu sein. Also auch dort Preisvorteil.

Und die XTX wird sicher mehr als nur etwas schneller als die AD103 sein.
Der Unterschied zwischen AD102 und AD103 liegt irgendwo zwischen 40 und 60%.
Da geht die Radeon locker dazwischen.
 
Mr_Cenk schrieb:
Jemand bietet mir 3000 Euro für meine Strix RTX 4090 über Ebay Kleinanzeigen. Langsam wachen die Leute auf dass die RTX 4090 erstmal für lange Zeit permanent ausverkauft sein wird. Nvidia soll derzeit sogut wie keine RTX 4090 Chips produzieren, da die jetzt lieber die Dinger für 30k und mehr an China verkloppen. Die RTX 4090 wird im Preis noch steigen. Merkt euch meine Worte. Und nein ich werde nicht verkaufen. Wer weiss ob ich so schnell wieder an eine Strix 4090 rankomme. Ich glaube nämlich nicht daran.
Wie passt das mit den Handelsrestriktionen zusammen?
https://www.computerbase.de/2022-11...-erhoehen-druck-auf-asml-und-die-niederlande/

Hast du zu deiner Aussage auch irgendwelche Quellen?
 
  • Gefällt mir
Reaktionen: Eidgenosse
Dieses ständige Negieren der Wichtigkeit von "neuen" Technologien wie Raytracing oder DLSS(3) erinnert mich ein wenig an die Zeit der ersten 3D-Beschleuniger. Damals musste ich mir teilweise auch anhören was ich "mit dem teuren Hardwareschrott" denn möchte - schließlich laufen doch Tombraider und Quake 2 auch wunderbar ohne 3D Beschleunigung auf der superteuren 2D Grafikkarte. Bis ich dann einfach mal die .EXE mit Glide-Unterstütztung gestartet habe und das butterweiche Ergebnis präsentieren konnte.

Irgendwie wiederholt sich die Geschichte. Ich finds witzig. :D Wo ständen wir denn heute wenn es nicht Firmen wie Nvidia gäbe die den Technologie-Vorreiter spielen? Klar lassen die es sich auch gut bezahlen. Warum auch nicht...jeder der behauptet er würde als Firmenchef anders handeln bezeichne ich jetzt einfach mal als "Heuchler". Auch AMD möchte nicht die Welt retten oder den Welthunger besiegen.
 
  • Gefällt mir
Reaktionen: Sly123 und Laphonso
Carsti80 schrieb:
Unsere Welt ist sehr laut geworden. Da achtet man mehr auf das Visuelle.
Vielleicht ist das der Grund ja. Mich stört es jedenfalls gewaltig, wenn ein neues Game gute Grafik hat und der Sound so unterirdisch ist, dass die Immersion zunichte gemacht wird.

  • Keine dynamischen Hall- oder Echo-Effekte, schon gar nicht Raum bezogen. (EAX ist Schrott, bzw immer schlecht implementiert)
  • Keine Dezibel bezogene Lautstärke. Abstand zu Lautstärke hört sich immer falsch an.
  • Viel zu wenig Ambient-Sounds.
  • Nur 2-3 Samples pro Effekt, z.B. an Waffen.
  • Keine Sprachsynthese. Wenn 2 oder 3 gleichzeitig quatschen, versteht man nichts mehr.
  • Keine binauralen Effekte für Kopfhörer.
  • Kein support für Dobly-Atmos oder ähnliches.
  • usw
 
  • Gefällt mir
Reaktionen: iron_monkey, MeisterOek, Beatmaster A.C. und eine weitere Person
@modena.ch

Weil AMD, wenn sie doch ein gleichwertiges oder besseres Produkt haben sollten, dann auch entsprechend einpreisen sollten. AMD ist auch ein Unternehmen was Geld verdienen möchte. AMD senkt ja nicht die Produktionskosten um das Produkt für den Kunden günstiger produzieren zu können, sondern um die Gewinnmarge zu erhöhen. Sony, MS und Co machen das bei ihren Konsolen ja auch um die Produktionskosten zu senken und die Gewinnmargen zu erhöhen. Die machen das nicht für die Kunden. Das sind alles keine Wohlfahrtsunternehmen.

Würdest du dein eigenes Produkt günstiger verkaufen als die Konkurrenz, wenn es gleichwertig oder besser ist? Oder warum denkst du hat AMD die GPUs so eingepreist? Meine Vermutung ist ganz einfach...Performance. Genau deshalb kaufen sich die Leute doch eine GPU. Wenn die XTX die 4080 für $200 weniger versägen sollte, dann wäre die XTX ein Schnäppchen und Nvidia hätte von Tag 1 des Releases der XTX ein enorm großes Problem Allerdings für wie wahrscheinlich hältst du dieses Szenario?

Und das Argument "durch den niedrigeren Preis kann man potentiell auch schlicht mehr davon verkaufen" ist eines, welches hier eben überhaupt nicht greift. Als Unternehmen möchte man doch maximalen Gewinn mit so wenig möglichen Einheiten erwirtschaften. Das ist der feuchte Traum aller Unternehmen. Apple ist hier der Primus. Wie gesagt, die entsprechenden Tests im Dezember werden aufzeigen was Sache ist und dann kann man auch den Preis glasklar einordnen.

Und was eben noch gestern bei der Präsentation besonders aufgefallen ist, waren die ausweichenden Vergleiche mit Nvidia. AMD hat eben nur auf die Größe der Karte, die Slotbreite und den Stromstecker reagiert. Aber einen Performancevergleich hat AMD total gescheut, obwohl sie ja ohne Problem schon einen Vergleich mit einer 4090 hätten machen können. Das interessante an AMDs vergleichen waren die, die sie eben nicht erwähnt haben. Und das sind für die Gamer doch die relevanten....Performance im Vergleich zur Konkurrenz. Und exakt das hat AMD gemieden. Ich sage nur, dass spricht Bände.
Das du einer anderen Meinung bist, ist ja vollkommen OK.

Update: Und die neuen News zu Custom-Karten lassen die AMD-Vergleiche bei der Größe schon wieder als makulatur erscheinen -> LINK
 
Zuletzt bearbeitet:
Zurück
Oben