News Radeon RX 7900 XT(X): AMD legt sich die RTX 4080 als ersten RDNA-3-Gegner zurecht

Mal sehen , da dürfte eine Mögliche RX 7700xt auf Augenhöhe der 6950 liegen.
Bitte eine 7700 non xt mit 16GB vram und 500€ :daumen: .
 
Marcel55 schrieb:
In 4K bin ich damit immer noch bei 70-110fps bei den Games die ich so zocke. Sogar stumpf auf Ultra. Damit kann ich leben. Im UWQHD erreiche ich das 144Hz-Ziel zumindest annähernd. Aktuell brauche ich also gar nicht mehr Power wenn ich mal ehrlich bin.
So ähnlich is meine Situation auch.
Ich komme aktuell super klar mit der Leistung meine 6800..und bei den Games die ICH nutze,geht alles auf Max Settings.
Und FSR etc mag zwar im Moment noch Schwächen haben, aber diese Technik zur FPS Verbesserung wird ja auch ständig weiterentwickelt...
Grds dürften die aktuellen GPUs damit länger halten.
 
Tornavida schrieb:
Entweder ist das Produkt wirklich nicht konkurrenzfähig oder man kann eh nicht liefern. Anders kann ich das Verhalten momentan nicht deuten. Geheimniskrämerei ? Was soll das bringen... hey ihr Idioten die eine 4080 und 4090 gekauft habt...tja Pech gehabt...hättet ihr mal besser auf unsere Karten gewartet...? Ist dann doch sehr weit hergeholt und ziemlich gemein :D Wahrscheinlicher ist dann eher Ersteres und eine andere Zielgruppe.

1. Meine These ist, dass irgendwas bei AMD gehörig schief gegangen ist und man nun, das beste aus der Situation macht. Andersherum ist eher der Gigantismus von nVidia bei der 4090 nicht zu erklären. nVidia scheint richtig "Schiss" gehabt zu haben und hat anscheinend alles Over The Top designt um recht später "Entwarnung" zu bekommen. Die 4090 bringt die gleiche Leistung mit 360 Watt bei Games und die Kühler, Stecker etc. sind "over the top" und waren anscheinend für "mehr" gedacht.

Auch ist z. B. die Bandbreite der 7900 XTX im Verhältnis zu der Rechenleistung absolut over the top wenn man reale Speicherbandbreite + IF Cache zählt. Dagegen verhungert die 4090 anscheinend mal häufiger.

Faktisch scheint die 6900XT wesentlich näher an der 3090 dran gewesen zu sein, als die 7900XTX an der 4090. Das kann nicht das Ziel von AMD gewesen sein. Die High End Klasse spielt von den Stückzahlen keine Rolle generiert aber eine gute Marge und PR und zieht eben untere Karten mit wo das Geschäft gemacht wird.

2. Eine Anmerkung zu Raster, N31 und AD102:

- nVidia hat den Aufbau der Cores geändert zu haben um eine bessere Auslastung bzgl. der Datenformate hinzubekommen. Sieht man sehr schön an AC: Valhalla in 4k wo die 4090 mehr als die doppelte FPS der 3090 TI generiert

- AMD wiederum ist jetzt eher einen Schritt gegangen wie nVidia mit Turnig und dann Ampere (quasi kombiniert).

Deswegen glaube ich wird man die krassen Raster Aussetzer diesmal nicht merken.
 
basic123 schrieb:
RT ist wie damals 3D bei der Fernsehern. Jeder will es haben bis er es selbst probiert hat. Also der größte Unterschied sind die geringeren FPS.
Stimmt- Jeder der Metro Exodus Enhanced gespielt hat, hat nach der ersten Stunde abgebrochen und ist wieder zur Standardversion zurückgekehrt.
/Ironie
 
  • Gefällt mir
Reaktionen: Laphonso, Pisaro und MrHeisenberg
bondki schrieb:
Ehrlicherweise taugt AMD auch nicht zu mehr. Vor RDNA sowieso nicht und wenn man RT nutzen will auch seitdem nicht.

Und der Markt besteht zu 78% aus Nvidia, 13% AMD, Rest Intel iGPU.
Mich beeindrucken die beiden neuen Speerspitzen gar nicht. Alleine wenn ich schon die RT Performance in Dying Light 2 sehe...
Du weißt aber schon, dass AMD ab und an auch mal das bessere Produkt hat und Intel, NVidia und C. schon mal ordentlich in die Röhre geschaut haben?
Das zeigen dir die letzten 30 Jahre auf der Timeline.
Außerdem bist du nicht einmal in der Lage die realen Fakten zu belegen.
Der Markt besteht nicht zu 78% aus NVidia, 13% AMD - und dann bleiben noch 9% für Intel iGP's???
Rechnet man nur 1 Grafikeinheit pro PC, käme Intel also auch nur auf 9% Anteil an Prozessoren in Notebooks, Desktop, Server? AMD wäre Weltmacht mit 91%.
Logisch.
 
  • Gefällt mir
Reaktionen: khadgar
cunhell schrieb:
Deiner Argumentation folgend würde man dann die Karten irgendwann für umsonst bekommen, da ja der Abverkaufspreis immer billiger ist als der Release-Preis. Das dies Nonsens ist, sollte klar sein.

Cunhell

Ist dem so? Wenn ja, wie wäre es mit einer GeForce 8800 GTS? Ich hätte eine für 410€ UVP für dich im Sortiment! Die ganzen Jungs, die die jetzt bei Ebay für 10€ verkaufen werden staunen!

"Mit einem Preis von 410 Euro war die GeForce 8800 GTS zwar nicht günstig, aber trotzdem knapp 30 Prozent günstiger als eine GeForce 8800 GTX."

Natürlich hängt der Preis immer von der Leistung ab und wird niemals nur im Vakuum des eigenen Herstellers zu betrachten sein. Warum sind Intels GPU-Preise denn wie sie sind? Dürfen die eurer Meinung nach nicht rauf oder runtergehen wenn Battlemage/Celeste besser sein sollten?
 
.Sentinel. schrieb:
Nur muss man dort eben langfristig und über mehrere Generationen eine gute Leistungen bringen (siehe Ryzen Prozessoren), bis das Image aufpoliert ist und die Marktanteile steigen.
Das hier 👍

Viele hier sind von Intel auf Zen3 umgestiegen (ich auch!).
Obwohl die teuer waren.
Doch die Leistungskrone darf eben auch etwas kosten. Hat Intel ja auch so gemacht.
Nun macht Intel den Preisdruck. Witzig, wie sich das dreht :D

Solange AMD in den Featuresets hinterherhängt, kann Nvidia weiterhin diese Preise aufrufen und dennoch sales machen.

Ich versuche immer wieder, für die 6800XT zu werben, eine grandiose 1080p und 1440p, beste PReis/leistung mMn der letzten Generation.
"Kann die DLSS"? Nein.
"Ist die in dem Raytracing auch so schnell" Nein.
"Ja, dann will ich eine 3070Ti." 🙄

Es ist schwierig, dagegen anzukommen

AMD sollte vielleicht dochmal all in gehen. Und sei es mit einer Halo GPU, die aus dem Effizienzdogma ausbricht, alle Register zieht und als Testballon fungiert.

Gestörte wie ich kaufen auch eine AMD GPU für 2500 Euro, wenn sie die 5090 im Raytracing übergreifend umgrätscht und FSR zumindest qualitativ nahe dran ist an DLSS und ähnlich prävalent.

Sollen sie doch eine "Raytracing" GPU für genau diese Nische produzieren. Und wenn Du da erstmal etabliert bist, kaufen die Leute alles.

"Das klappt niemals!"

Doch: 2080Ti, 3090, 3080Ti, 3090Ti, und nun 4080 und 4090...
 
  • Gefällt mir
Reaktionen: .Sentinel. und Pisaro
.Sentinel. schrieb:
Schau Dir die Verteilung Ryzen/Intel in den Umfragen hier im Forum an.
Oder generell die stetig gestiegenen Marktanteile vor Allem im Selbstbau Segment von Ryzen.
Hat ein Hersteller ein gutes bzw. besseres Produkt, wird es sich über die Zeit durchsetzen.

Mag vielleicht für CB und speziell für den deutschsprachigen Raum gelten, aber hier in Italien ist AMD leider ein echter Ladenhüter. Bin dabei mir ein neues System zu basteln, der Ryzen 7 3800x3d hatte ich in der näheren Auswahl, aber die Mainbords für den sind nicht lieferbar, jedenfalls die, die ich bräuchte.

Hier kaufen alle Schafe Intel. Will man AMD, so wird man komisch angeschaut... ;)

Mir ist das natürlich Wumpe. Auch bei der Grafikkarte für das Upgrade meines PCs tendiere ich aktuell eher zu AMD.

LG aus Rom.

@Laphonso
Plane eine RX 6800 dieses Jahr noch zu kaufen. Argumente für den Aufpreis für eine XT-Variante (3x Full-HD-Monitor Setup). Wie viele geschrieben haben, sollen die Karten ein gutes P/L Verhältnis und einen moderaten Verbrauch haben. LG aus Rom.
 
  • Gefällt mir
Reaktionen: Laphonso und .Sentinel.
Hylou schrieb:
Also sorry Leute, das könnt ihr doch nicht ernst meinen. Natürlich können sie nicht die 4080 zeigen, jedoch aber vergleiche zur RTX3000 sowie deren eigene 6000 Serie.
Und was sind das da für Balken im Artikel?
 
TKessel schrieb:
AMEN! Das ist das Ding das ich immer noch nicht verstehe. Ja DLSS ist toll, FSR ist auch toll. Aber eigentlich dreh ich gern die Render Resoultion auf 120+% in einem Spiel anstatt mir mit Upscaling was vorgaukeln zu lassen.
Das Upscaling, wie Du es nennst nutzt Supersampling für die Datengewinnung. Also nichts anderes, als Du es auch machst mit der Render- Resolution auf 120%. Mit dem Unterschied, dass das Supersampling bei DLSS temporal funktioniert.
TKessel schrieb:
Ohne den RT Wahn wäre (wie andere auch schon bemerkt haben) DLSS gar nicht unbedingt nötig gewesen. Aber das Marketing funktioniert halt eben.
Jetzt ist doch jeder froh, dass es DLSS und FSR gibt. Endlich optionen, die ohne merkliche Qualitätseinbußen sehr viel mehr FPS auf den Karten generieren kann.
TKessel schrieb:
Ich mag es auch sehr alle Regler auf "Ultra" zu stellen, aber RT haut mich nach wie vor in den meisten Fällen nicht aus den Socken, auch nicht in CP2077, vielleicht brauche ich auch ne Brille?
Einfach ausschalten. Dann hast Du das große Glück zu denjenigen zu gehören die mit der aktuellen Qualität an Rasterspielen zufrieden ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg, juwa und Laphonso
DrFreaK666 schrieb:
RT bei der 3090 ist also auch unter aller Sau
Ehm ja dafür das das die nächsten Jahre das top Produkt sein wird ist das jetzt nicht so pralle.... Und ob die 3090 erreicht wird steht auch noch nicht fest
 
DerRico schrieb:
So kann man sich den hohen Kaufpreis ein bisschen schön reden, das ist wichtig für die Psyche :p
Andererseits ist es aber ein heftiges Downgrading der Produkte unterhalb von RTX 4090. Das finde ich so nicht in Ordnung. Erst der RTX 4090 fühlt sich nach einer Next-Gen Grafik an und der Rest ist nur noch Platzhalter. Diese Entwicklung forcieren gerade alle amerikanischen bzw. internationale Firmen und hier wurde bei einem Kommentar @MichaG mit dem Wort "Upselling" zu Recht kritisiert.

Somit wird ein Gefühl der Wertlosigkeit bzw. niedrigere Wert des Produkts an den Menschen vermittelt, was sie zu teueren Varianten bewegen soll, aber bei mir erzeugt es gegenüber der Firma eher Abneigung.
 
ben12345 schrieb:
Ehm ja dafür das das die nächsten Jahre das top Produkt sein wird ist das jetzt nicht so pralle.... Und ob die 3090 erreicht wird steht auch noch nicht fest
Aber nochmals, AMD hänge eine Generation hinterher und legt den Fokus auf Effizienz.
Ich bin mir sicher, sie hätten nochmal 20-30% mehr fps ballern können, inkl. Raytracing.

Aber dann ebenso mit einer 450 Watt GPU und dann ebenso eher bei 1500 Dollar, das ist ja der Punkt.

Nvidia hat den Rahmen viel weiter gefasst und geht all in mit Power: Größe, Vebrauch und Performance und Preis.
AMD hat sich mit Sicherheit 3 Limits gesetzt: 300-350 Watt max und Preis und Formfaktor.

Wenn RDNA3 die 3090 und 3090Ti im raw raytracing zumindest stellt oder leicht knackt, haben das sie Soll für mich erfüllt, 1 Generation Rückstand im RT auf Ampere mit RDNA2 aufzuholen.

Ich hätte bei AMD auch gerne mehr RT fps, aber man muss auch mal die Variablen bewerten so dass ich hier AMD ernsthaft verteidigen möchte. Zaubern können sie nicht. Kann Nvidia auch nicht, die knallen halt 450 Watt und haben eine große und teure(re) Architektur.
 
  • Gefällt mir
Reaktionen: khadgar
juwa schrieb:
.

LG aus Rom.

@Laphonso
Plane eine RX 6800 dieses Jahr noch zu kaufen. Argumente für den Aufpreis für eine XT-Variante (3x Full-HD-Monitor Setup). Wie viele geschrieben haben, sollen die Karten ein gutes P/L Verhältnis und einen moderaten Verbrauch haben. LG aus Rom.
Bin dieses Jahr von der 1080 auf die 6800 gewechselt. Ich bin sehr zufrieden (das custom Design von Gigabyte ist nicht so der Hit bzw. Die Lüftersteuerung, aber dat klappt jetzt).
Hatte seit Launch auf die 6800 gegeiert, weil sie p/l technisch das beste ist was es gab (mittlerweile ist sie nur noch auf Platz 2 hinter der 4090), in 1440p ist das alles gut und UV sollte auch gehen.
Meine habe ich zwar gebraucht gekauft und nicht neu, aber das macht keinen Unterschied 😅
 
  • Gefällt mir
Reaktionen: juwa
Uskok1530 schrieb:
1. Meine These ist, dass irgendwas bei AMD gehörig schief gegangen ist und man nun, das beste aus der Situation macht. Andersherum ist eher der Gigantismus von nVidia bei der 4090 nicht zu erklären. nVidia scheint richtig "Schiss" gehabt zu haben und hat anscheinend alles Over The Top designt um recht später "Entwarnung" zu bekommen.
Bei AMD ist nichts schief gelaufen.
Das Augenmerk lag eindeutig auf der Umstellung auf ein Chipletdesign.
Bei den CPU's kann man das mit der Veröffentlichung vom Ryzen sehen, dass da Anfangs noch so einiges an Leistung liegen bleibt, bis man sich so langsam der neuen Probleme entledigt und Falschenhälse zwischen den Chips minimiert.
NVidia hat das als nächstes vor sich - und die haben Null Erfahrung damit, also macht schon mal 3 Kreuzzeichen, dass das alles gut funktioniert.
Auch sieht man ja, dass AMD versucht hat die enorme Leistungsaufnahem irgendwie im Lot zu halten.
Auch alleine aus dem Grund, um da kein noch größeren Kühlkonzepte mit noch teureren Bauteilen auflegen zu müssen, es ging also auch um eine Kosten-Nutzen-Rechnung.
300 und 350 Watt sind schon mehr als genug, und auch nur so war es ja möglich, die Preise halbwegs stabil(er) zu halten als die geldgeil gewordene Konkurrenz. Ikarus lässt bei 450 Watt minimum und bis zu 2649 Euro Custom Karte grüßen.
Man muss es auch so sehen, die Karten werden ins gesamte PC Syste integriert und nicht jeder Rechner packt das.
Mit halbwegs vertretbaren Lösungen hat AMD also eine viel höhere Chance, dass die Karten eher gekauft werden.
Da braucht es dann auch nicht unbedingt die absolute Spitzenleistung, wenn man dafür kein neues Netzteil, kein neues Gehäuse oder zumindest neue Lüfter oder was auch immer benötigt.
Da die Karten zudem Jahre im Vorraus geplant und designt werden, kann man auch solche Dinge wie Raytracing nicht mal eben komplett umstellen.
Sicherlich ist AMD bewusst, dass man eigentlich noch mehr RT Leistung hätte draufpacken müssen, aber vielleicht war das einfach nicht mehr möglich so schnell abzuändern udn man kann erst mit RDNA4 dann stärkere Anpassungen diesbezüglich vornehmen, wo man ja langfristig sicherlich noch Möglichkeiten hat.
Vielleicht wird man den gesamten Aufbau der Kerne dafür umstrukturieren und neu entwickeln müssen, damit die mehr Durchsatz schaffen.
Das ist ja keine Entscheidung von "da nehm ich eben schnell 30% mehr RT Einheiten als gedacht und fertig ist der Killer-Chip".
Fakt ist, keiner wusste, was der andere genau plant, daher wäre es sehr verdächtig, wenn am Ende was Gleiches dabei heraus kommt.
Der, der nachzieht, kann immer nur noch an Leistung durch mehr Takt und Watt Boden gut machen, wenn er denn will oder muss.
Aber wenn das Produkt für sich betrachtet eigentlich gut ist, sollte man das lieber unverändert lassen.
 
Die Euro-Preise werden interessant.

1200 für die XTX?

Dann hat man gute 50% Aufschlag zur 6900 bei 50% mehr Leistung.

Keine Ahnung, ob das 2022 würdig ist.
Die 4080 sollte es ohnehin nicht werden!

Im Endeffekt zahlt man dann evtl. lieber 2k für das 4090er Monster und hat Ruhe..(WENN MAN DIE LEISTUNG BRAUCHT!)
 
ben12345 schrieb:
Ach komm, das ist schon sehr sehr mau was sie da gezeigt haben vor allem im Vergleich mit älteren AMD Präsentationen...
Dann schau Dir z.B. die Präentation von Nvidia zur 4090 an.
https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
Da siehst Du auch nur die Balken von 3090 und 4090 im Vergleich ohne konkrete Zahlen.
PHuV schrieb:
Wo es die meisten hier vermutlich das ganze Leben lang davon kaum was bemerkten.

Ich bin ja eher mal gespannt, was AMD an Liefermengen auffährt. Das was Nvidia bisher mit der 4090 liefert hat (100.000) ist schon eine Meßlatte, die AMD erst mal toppen muß. Zudem kommt die 4080 früher auf dem Markt. Daher, es wird spannend.
Du meinst also, wenn der Kunde den Beschiss nicht bemerkt ist es ok, oder wie?
Abgesehen davon weisst Du wieviele was bemerkt haben, aber das nicht auf die verkrüpelte Anbindung der letzten 0,5GB zurückgeführt haben, weil sie davon nichts wussten. Nicht jeder liest die Hardwareforen durch.

Cunhell
 
  • Gefällt mir
Reaktionen: khadgar
Tulol schrieb:
Und was sind das da für Balken im Artikel?
Geht eher um sowas. Hier würde man mit AVG Frames wohl eher glänzen in den Augen der Kundschaft. CB macht dann Diagramme "laut AMD" daraus.

Screenshot 2022-11-15 141727.png
 
  • Gefällt mir
Reaktionen: MrHeisenberg
edenjung schrieb:
Bin dieses Jahr von der 1080 auf die 6800 gewechselt. Ich bin sehr zufrieden (das custom Design von Gigabyte ist nicht so der Hit bzw. Die Lüftersteuerung, aber dat klappt jetzt).
Hatte seit Launch auf die 6800 gegeiert, weil sie p/l technisch das beste ist was es gab (mittlerweile ist sie nur noch auf Platz 2 hinter der 4090), in 1440p ist das alles gut und UV sollte auch gehen.
Meine habe ich zwar gebraucht gekauft und nicht neu, aber das macht keinen Unterschied 😅

Danke für Deinen Erfahrungsbericht, Du hast das gleiche Upgrade gemacht, welches ich plane. Bei mir würde es dann folgende Karte werden:

https://www.techberry.it/schede-video/28691-vga-asus-radeon-rx-6800-16gb-tuf-gaming-oc.html

Liegt aktuell im virtuellen Warenkorb, aber ich warte noch bis mindestens Mitte Dezember, da mir aktuell sowieso ein wenig die Zeit zum Zocken fehlt. Den Release der neuen 7xxxx Karten warte ich auch auf jeden Fall noch ab, die Zeit lasse ich mir. Mal sehen wie die auf den Markt einschlagen werden.

Die Pandemie ist ja hier offiziell vorbei, man darf wieder raus, die Preise für Energie, Lebensmittel usw. gehen aber aktuell auch leider durch die Decke. Wollen die Hersteller ihre Grafikkarten verkaufen und nicht ihre Lager mit unverkauften füllen, so müssen sie eindeutig die Preise senken. Klar gibt es auch Leute, die sich eine 2000€ Karte leisten, aber die Schmerzgrenze für 99% der anderen sind ~500€, eher sogar weniger.

Für Scalper sind zumindest hier in Italien sehr schlechte Zeiten angebrochen, gut so! 👍

LG aus Rom.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: edenjung
Zurück
Oben