News AMD Radeon RX 7900 XTX & 7900 XT: RDNA-3-Grafikkarten sollen Anfang Dezember erscheinen

Ragnarök88 schrieb:
Vielleicht skaliert AMD auch noch mit über 400 Watt.Muss man alles sehen. AMD hat einen nicht unerheblichen Fertigungsnachteil und das Chiplet Design ist der erste! Versuch.
Und so wie die Leistung von Vorserienmodellen im Labor abschneidet, hat AMD insgesamt einige Nachteile, die sie mit Radeon Boost 2.0 nicht ausgleichen können.

-Schlechtere Effizienz des Topmodells in Raster wie RayTracing workloads
-Frametime Probleme durch den unstetigen Verwaltungsaufwand
-Schlechte Skalierung der Shader
-Treiberschwierigkeiten, Auslastungsprobleme und nur 17400 Punkte im Timespy

Woher hast du diese ganzen Informationen ?
 
  • Gefällt mir
Reaktionen: eXe777, Perdakles, elmex201 und eine weitere Person
@Blumentopf1989
Naja, wie schon hier häufig beschrieben, ich wüsste nicht dass "an die 4090 herankommen" überhaupt sehr erstrebenswert ist. Die 4090 ist die 4090, AMD hat halt seine eigene Identität, bisher sind die eher nicht dafür bekannt dass sie unbedingt die Performancekrone gejagt haben sondern bestenfalls "nahe" an NVIDIA herankommen während sie sowohl günstiger als auch energieeffizienter sind. Und das erwarte ich auch bei RDNA3.
 
Taxxor schrieb:
Naja, die 6950XT ist ja bereits bei 335W im Referenzdesign mit 2x8pin.
Auch meine 6800XT Red Devil hat mit ihrem Standard BIOS 340W und auch nur 2x8pin.

Also 350W sehe ich mindestens.
Meinst du wirklich, dass man so sehr ans Limit der Specs geht? Da wären ja nur noch 25 Watt als Puffer.
 
Blumentopf1989 schrieb:
Meinst du wirklich, dass man so sehr ans Limit der Specs geht? Da wären ja nur noch 25 Watt als Puffer.

Das sind die Limits der Specs und bei den Specs gibt es auch noch diversen Puffer. Wenn du 375 Watt darfst und mal 400 Watt ankommen, dann ist das auch egal. Nach den 375 Watt folgt also noch ein Puffer.

Bald sind wir alle schlauer. :)
 
th3o schrieb:
@Blumentopf1989
Naja, wie schon hier häufig beschrieben, ich wüsste nicht dass "an die 4090 herankommen" überhaupt sehr erstrebenswert ist. Die 4090 ist die 4090, AMD hat halt seine eigene Identität, bisher sind die eher nicht dafür bekannt dass sie unbedingt die Performancekrone gejagt haben sondern bestenfalls "nahe" an NVIDIA herankommen während sie sowohl günstiger als auch energieeffizienter sind. Und das erwarte ich auch bei RDNA3.
Am Ende geht es doch oftmals darum wer den Größten hat. Die 69xx er war/ist ja in diversen Spielen (ja das zählt insgesamt nicht alleine) am Ende doch vorne oder zumindest auf gleichem Niveau.
AMD wird Stock weniger verbrauchen und dennoch ca. da sein wo man mit der 4090 ist, außer halt in RT.
 
  • Gefällt mir
Reaktionen: th3o
iWeaPonZ schrieb:
Eine 7800 XT / 7800 mit einer 1A Effizienz würde ich sofort für 800 € nehmen 🙏🏼
Ich bin sehr gespannt was AMD am 03.11. so raushauen wird.
Das Ding werden sie dir eher für 1200 Euro andrehen wollen..
 
Ayo34 schrieb:
Das sind die Limits der Specs und bei den Specs gibt es auch noch diversen Puffer. Wenn du 375 Watt darfst und mal 400 Watt ankommen, dann ist das auch egal. Nach den 375 Watt folgt also noch ein Puffer.
Das ist schon klar, nur welcher Hersteller geht freiwillig ans absolute Limit (375 Watt mal angenommen) und fängt sich ggf. schlechte PR weil dann Stecker abkacken? Die Spikes darf man ja auch nicht vergessen, auch wenn die immer nur im ms Bereich sind, dafür ja x Mal innerhalb einer Sekunde. Irgendwelche ungeschickten Personen oder welche die es darauf anlegen, schaffen dann noch eine weitere Steigerung und Überlastung und schon haste den Shitstorm.
Ja Nvidia zeigt gerade das das geht, aber da ist ja die Konstruktion und die mangelhaften Fertigungstoleranzen das eigentliche Problem, dazu dann halt noch Menschen die es mit Gewalt reinzudrücken versuchen.
 
Bei DLSS bis 2.0, war ich durchaus zugeneigt das in meine Kaufentscheidung einfließen zu lassen, aber DLSS 3 ist so uninteressant und Raytracing interessiert mich auch nicht so extrem. Das sind inzwischen nur Spielereien, die immer nur auf die Hand voll Spiele zugeschnitten sind, welche dann damit im Laufe des Lebens der Karte erscheinen, von denen dann ggf. 1-2 Spiele was taugen und wenn dann die nächste Gen kommt, gibt's auch ne neue Gen für das Feature mit neuen Karten und wieder neuen Spielen. Wenn AMD liefert, wird es ggf. ne 7000er-Karte mit max 250 Watt (ggf. auch mit angepasstem Powertarget), das verkraftet dann mein NT noch... Ich fürchte nur, dass AMD mit nVidias Preispolitik einfach mitzieht - ergo GPUs sind jetzt halt einfach teuer.
 
  • Gefällt mir
Reaktionen: simosh, ShiftyBro und Chismon
th3o schrieb:
Wenn die Spielwelt um mich herum sich in 120fps bewegt aber die Inputbefehle von 70fps
Wenn ich DLSS3 nicht falsch verstanden habe, dann verschlechtert sich der Inputlag.
In deinem Beispiel werden die Bilder ohne DLSS alle 14.28ms(70fps) ausgegeben, aber DLSS3 braucht auch seine Zeit. Das heißt der gerenderte Frame wird für diese Zeit, nehmen wir mal 10ms, angehalten und am Ende werden aus den 14.28ms, 24.28ms. Dies soll ja Reflex wieder ausgleichen, aber eliminiert den enstandenen Inputlag nicht ganz.
Falls ich hier was falsches schreibe, kann man mich berichtigen.
 
Seko schrieb:
Wenn ich DLSS3 nicht falsch verstanden habe, dann verschlechtert sich der Inputlag.
In deinem Beispiel werden die Bilder ohne DLSS alle 14.28ms(70fps) ausgegeben, aber DLSS3 braucht auch seine Zeit. Das heißt der gerenderte Frame wird für diese Zeit, nehmen wir mal 10ms, angehalten und am Ende werden aus den 14.28ms, 24.28ms. Dies soll ja Reflex wieder ausgleichen, aber eliminiert den enstandenen Inputlag nicht ganz.
Falls ich hier was falsches schreibe, kann man mich berichtigen.
Genau so hab ich das auch verstanden. Reflex kann mit DLSS 3 Frame Generation den Inputlag wieder auf Vor-DLSS-Niveau drücken, aber kann natürlich auch unabhängig genutzt werden.

Bei purem DLSS (3 ist ja nur eine Featureset-Nummer) entsteht (fast) kein weiteres Lag als nativ.
 
Blumentopf1989 schrieb:
Das ist schon klar, nur welcher Hersteller geht freiwillig ans absolute Limit (375 Watt mal angenommen) und fängt sich ggf. schlechte PR weil dann Stecker abkacken?
Hat AMD bereits getan, damals mit der R9 295X2, die hatte 2x8pin und 500W TBP, durfte also bei 75W vom Slot noch ~212W pro 8pin ziehen.
 
  • Gefällt mir
Reaktionen: konkretor, Perdakles und .Sentinel.
Seko schrieb:
Wenn ich DLSS3 nicht falsch verstanden habe, dann verschlechtert sich der Inputlag.
In deinem Beispiel werden die Bilder ohne DLSS alle 14.28ms(70fps) ausgegeben, aber DLSS3 braucht auch seine Zeit. Das heißt der gerenderte Frame wird für diese Zeit, nehmen wir mal 10ms, angehalten und am Ende werden aus den 14.28ms, 24.28ms. Dies soll ja Reflex wieder ausgleichen, aber eliminiert den enstandenen Inputlag nicht ganz.
Falls ich hier was falsches schreibe, kann man mich berichtigen.

Bleiben wir bei diesem Beispiel: Selbst wenn Reflex absolut nichts ändern würde am Inputlag, dann hat sich die Verzögerung von 0.014 Sekunden auf 0.024 Sekunden erhöht. Also ich weiß nicht wie es bei dir ist aber ich persönlich bin nicht in der Lage 0.01 Sekunden zu fühlen.
Wir sollten uns auch fragen inwiefern die Kritik eher akademischer Natur ist.
 
  • Gefällt mir
Reaktionen: .Sentinel. und MortyMcFly
Ayo34 schrieb:
Bin auch sehr skeptisch bei DLSS3.
Da musst du gar nicht skeptisch sein und mal den Aussagen von den Leuten glauben ,dass das eine geile Sache ist und die Karte auch so bei sich nutzen. Bei mir bisher nur beim MSFS probiert, ist aber noch m.E. verbesserungswürdig,vermutlich da noch Beta.

Desweiteren glaube ich auch,dass DLSS 3 auf Ampere lauffähig ist, da ich beim Probieren auch mit der 3080 deutlich mehr FPS als sonst (ca.35-40%+) für eine kurze Zeit hatte und es sich mit neuen NV Treibern und Windows/FS Updates wieder auf Ursprungperformance resettet hat. Denke da wird noch was kommen.
 
th3o schrieb:
ob ich etwas mit 30fps oder 60fps spiele
Dafür besucht es aber kein dlss 3, dafür genügen ja schon fsr 2.0 und dlss 2.X. Zumindest in meinen Augen. Natürlich hsind 30 fps indiskutabel, aber eine 4090 macht mehr als 30 fps, sowohl in Requiem als auch FS, wie gesagt dlss2.X find euch auch richtig gut, aber DLSS3 überzeugt mich halt 0
 
JackTheRippchen schrieb:
Dann werden die Karten eher in Wirtschaften ohne Rezession verkauft, als dass hier der Preis gesenkt wird. Deutschland ist nicht der Nabel der Welt.
Die Rezession wird nur mit großer Wahrscheinlichkeit alle Länder treffen die so fortschrittlich sind dass sich die Mensch Gedanken um Grafikkartenpreise machen...
Ergänzung ()

naTmeg schrieb:
Ihr glaubt doch nicht im ernst dass RDNA3 günstig wird? Schaut doch mal was derzeit bei AM5 abgeht. Da wirds für viele ein böses Erwachen geben..
Glaube ich auch. AMD hat gezeigt daß sie genauso abmelken wie alle anderen auch wenn sie ähnlich gutes Produkt haben. Ich hoffe fast das sie nicht mithalten können damit man Mal eine brauchbare neue Karte unter 1000 Euro bekommt.... Das Hobby macht so keinen spaß mehr.
 
  • Gefällt mir
Reaktionen: naTmeg
Wenn man sich die aktuellen Listenpreise für RTX 4080 16GB Modelle anschaut, ist schon ersichtlich,daß AMD/RTG mit aggressiven Preisen für die RX 7900XT massiv in der High End Käufergruppe von nVidia Marktanteile gutmachen könnte.

Nur fehlt mir der Glaube, daß AMD/RTG das jetzt auch durchzieht.
So eine Gelegenheit mit übervollen nVidia GPU-Lagern nach einem Krypto-Boom und Technik auf Augenhöhe bei AMD/RTG wird man vermutlich nur noch selten bis nie mehr bekommen.

Wenn AMD/RTG clever sind, bringen Sie zudem ein noch abgespeckteres Navi31 Model (z.B. RX 7900 oder RX 7800XT), wie ursprünglich nVidia, nur stärker (praktisch ein deutlich stärkeres Gegenstück zur "unlaunchten "RTX 4080" 12GB"), preislich vergleichbar oder knapp oberhalb einer RX 6950XT (z.B. für 699US$ = ca. 949 Euro, darunter wäre wohl eher Wunschdenken).
 
Taxxor schrieb:
Hat AMD bereits getan, damals mit der R9 295X2, die hatte 2x8pin und 500W TBP, durfte also bei 75W vom Slot noch ~212W pro 8pin ziehen.
Okay, war mir nicht bekannt, wirklich gesund war das aber gewiss auch nicht.
 
Taxxor schrieb:
Beide nutzen einen speziell auf den Hersteller angepassten N5 Prozess, nur dass er bei Nvidia auch gleich andes benannt wurde(4N = "For Nvidia", Achtung, 4N ist nicht N4)
Ok, da habe ich mich wohl geirrt. Ich dachte Nvidia würde einen 4nm Prozess nutzen und AMD den 5nm Prozess. Hast du diesbezüglich eine Quelle?
 
Chismon schrieb:
Wenn AMD/RTG clever sind, bringen Sie zudem ein noch abgespeckteres Navi31 Model (z.B. RX 7900 oder RX 7800XT), wie ursprünglich nVidia, nur stärker (praktisch ein deutlich stärkeres Gegenstück zur "unlaunchten "RTX 4080" 12GB"), preislich vergleichbar oder knapp oberhalb einer RX 6950XT (z.B. für 699US$ = ca. 949 Euro, darunter wäre wohl eher Wunschdenken).
Ist ja auch immer die Frage wie hoch die eigenen Kosten am Ende wirklich sind und wie viel Wert einem die Marktanteile sind. Die 1500-1700€ für eine 4080 16GB sind an sich viel zu hoch, meine Hoffnung ist ja, dass Nvidia unter Druck gerät und die Preise nach unten korrigieren muss.
 
Tornavida schrieb:
Da musst du gar nicht skeptisch sein und mal den Aussagen von den Leuten glauben ,dass das eine geile Sache ist und die Karte auch so bei sich nutzen. Bei mir bisher nur beim MSFS probiert, ist aber noch m.E. verbesserungswürdig,vermutlich da noch Beta.

Nicht skeptisch? Einfach glauben? Ich habe bisher nur schlechtes über DLSS3 gesehen + eben die logische Einschränkung, dass es bei Multiplayerspielen oder gar im kompetitiven Bereich überhaupt keinen Sinn macht (erwiesen!).

Bei Singleplayer-Games kann es einen Vorteil geben. Gerade z.B. dieses Video gesehen und selbst da ist man weit weg von "gut".
 
Zurück
Oben