News Gerücht zu AMD RDNA 4: „Launch Event“ für Radeon RX 9070 (XT) Ende Februar

wechseler schrieb:
@mr_andersson In in jedem Wettbewerb lässt man den Abstand nicht zu groß werden, sondern tut als Führender nur genau so viel, wie man muss. Auch Intel tat genau das, als AMD sich gerade gebulldozert hatte.
Jaja, das wurde damals oft behauptet, dass Intel angeblich die Wunder-CPU schon längst entwickelt hat und in der Schublade verstauben lässt, weil sie es ja nicht nötig haben, diese zu verkaufen.
Wie weit man da gefehlt hat, sieht man ja.

Weiterhin wusste Intel ja nicht, wie gut oder schlecht Bulldozer werden würde. So eine CPU entwickelt man nicht mal eben auf dem Reisbrett, sondern das braucht jahrelange Vorlaufszeit. Das hat man ja auch gesehen, als der K7 damals schneller war. Es hat einige Jahre gedauert, bis Intel den Pentium M (der nicht auf dem Pentium 4 sondern Pentium 3 basierte) zur Core-Architektur weiterentwickelt hat.
In der Zeit hat Intel die Händler bestochen, damit sie keine AMD-CPUs verkaufen. Das wirkt sich bis heute aus. Versuch doch mal einen Dell Pro oder Latitude mit AMD-CPU zu finden. Und sag mir nicht, dass die Intel und Snapdragon-CPUs einfach viel besser sind :D

Dabei vergisst man außerdem noch den marktwirtschaftlichen Aspekt, dass man mit besserem Angebot auch die Nachfrage wieder ankurbelt. Eine schnellere CPU erzeugt immer eine Nachfrage, denn irgendwann ist der Markt mit der aktuellen Technik gesättigt. Anders als bei Abomodellen müssen Chiphersteller aber laufend (neue) Produkte verkaufen, damit sie ihre Mitarbeiter bezahlen können.

Um zum Thema zurückzukommen:
Limonadenmann schrieb:
Naja, "Volume" und "Enthusiast" schließt sich ja ein bisschen aus und bedeutet dann wohl 5080 Performance. Außerdem sprach Su da von der Architektur, nicht von der 9070. Das heißt dann wohl, dass die Krone bei Nvidia bleibt, man aber über P/L konkurrieren wird (was auch zu erwarten war). Außerdem lässt "significantly better" noch einiges an Luft nach oben. Würde die Generation eine unschlagbare Performance bringen, hätte sie das auch so formuliert ;)
Ich nehme an, man wird (bei geringerem Preis, aber auch niedrigerer Effizienz) mit der 5080 mithalten können, aber eine 5080 Ti oder Super nicht erreichen. Ich glaube nämlich nicht, dass es eine 9090 geben wird. Höchstens ab Q3 als quasi doppelte 9070.
 
Zuletzt bearbeitet:
Ghostfacekalle schrieb:
Dann müssten ja die RT Titel besonders bittere Pillen sein bei so einer Vorraussetzung...mein Beileid. :D
Die 4080 schaukelt das schon in WQHD.
DLSS holt immer noch was raus. Und wenn man FG benötigt wird es dazugeschaltet.

So 80-100FPS reichen. Aber wenns 60 sind und es ab und zu runter auf 50 geht ist nicht cool.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle
Fighter1993 schrieb:
So 80-100FPS reichen. Aber wenns 60 sind und es ab und zu runter auf 50 geht ist nicht cool.
80-100 sind auch mein Sweetspot. Mehr ist natürlich immer besser.

Aber ich muss sagen, das bei CP2077/ RT nach kurzer Eingewöhnungszeit auch die ca 40 FPS gelangt haben.
Leider wurde ja FSR 3 in dem Spiel total vermasselt, sonst hätte ich es mal damit versucht. Vielleicht zieh ich mir mal die MOD.
 
@ savage natürlich ist SC meist CPU bound aber im Weltall und in den CZ habe ich 90-150 fps mit 2x SSAA , volumetric fog medium, sonst alles max. Mit der Eiswolf 2 läuft die XTX wirklich gut .Ich beziehe mich auf jene Situationen in SC , wo die GPU Last 100 % ist. Aber das ist ja eh klar....
Ich verwende zusätzlich Track IR in Sc.

In Call of Duty in der Wüstenmap Zone hatte ich 22 GB Vram Auslastung , alles auf Max und lief genauso schnell wie Kumpels 4090.
 
Zuletzt bearbeitet:
Ghostfacekalle schrieb:
Sie haben doch an der RT Performance geschraubt?
Ja Amd bewegt sich durchaus in die richtige Richtung aber sie waren halt so weit hinterher dass selbst eine starke Verbesserung von Raytracing und Nvidias buchstäblicher Stillstand in dieser Generation was RT angeht Amd näher aber nicht auf Augenhöhe mit Nvidia bringen wird. Amd bräuchte mindestens noch einmal eine Generation und Nvidias Stillstand um dann mit der 6000er Generation gleichziehen zu können.

Und FSR4 mag auch wesentlich besser sein als das alte FSR, aber das alte FSR war halt auch nicht wirklich gut. Da hattest du manchmal Spiele wo Blätter oder fliegende Insekten einfach einen kompletten Streifen durch den Bildschirm gezocken haben, weil FSR bei kleinen bewegten Details überall schlieren erzeugt hat oder starkes flimmern bei Texturen.

Ich habe das neue FSR4 gesehen, und sieht annähernd so gut aus wie das alte DLSS3 von Nvidia, aber Nvidia hat ja jetzt Dlss4 und Transformer. Und die Spieleunterstützung ist immer noch bei weitem größer mit DLSS und das ist das wichtigste. Ich hatte schon über ein dutzend Spiele, die nur DLSS aber kein FSR unterstützt haben. Da bringt mir die bessere FSR4 Qualität wenig, wenn die Spiele nur DLSS unterstützen.

Selbst wenn AMD also massiv die RT Performance erhöht hat sind sie immer noch hinter Nvidia.
Das verbesserte FSR4 wird immer noch leicht schlechter sein als das neue DLSS4 was Bildqualität angeht
und die Spieleunterstützung ist bei weitem geringer.

FG interessiert mich nicht weil ich das schlecht bei beiden finde, sowohl Nvidia als auch AMD. Bin gespannt ob Reflex 2 FG brauchbar macht, bisher sind mir die Latenzen aber zu hoch um das ganze als sinnvoll anzusehen.

Wenn AMD nochmal so eine Steigerung was RT, FSR und vor allem breiteren FSR Support betrifft abliefert und dazu endlich mal eine Renderalternative rausbringt welche mit Cuda auf Augenhöhe liegt und Nvidia bei der 6000er Generation das gleiche abzieht wie bei der 5000er, würde ich sogar AMD kaufen wenn sie teurer wären als Nvidia, denn dann wäre AMD in der nächsten Generation Nvidia sogar überlegen. Diese Generation sind sie aber immer noch in allem ein bisschen schlechter, außer evtl in Preis/Leistung was rein native Rasterleistung angeht.
 
SavageSkull schrieb:
"Nur" 4070Ti Raytracing Leistung wäre mir zu wenig um statt Nvidia AMD zu kaufen.
Die 9070XT muß mindestens bei Raytracing die Leistung einer RTX5070Ti bringen.
Das ist dann nämlich der Gegner, der zum Release auch schon verfügbar sein wird.
Dann wieder eine Generation zurück zu hängen ist genau das, was einer der Gründe ist, warum AMD vom Feature Set so unattraktiv ist.

Eine Generation zurück, auch in RT, wird sich dieses mal zwischen 10 und 15% abspielen.
Da geb ich rein gar nix drauf.
 
@Rockbreak

Das AMD hinter Nvidia liegt ist doch klar.
Deswegen würde ich, wenn ich eine Enthusiasten-GPU haben möchte,eher bei Nvidia kaufen.
Wenn ich aber auf P/L achte, ist AMD nicht zu verachten. Mal sehen was die neuen Karten kosten...

DLSS 4 ist in der Regel wieder etwas besser.
Wenn FSR 4 genauso gut wie DLSS 3 ist,dann ist das doch ein guter Vortschritt.
Man muss auch beachten das DLSS 3/4 auch ihre Schwächen (je nach Spiel) haben.
Da kann es auch sein das Blätter oder Vögel über den Bildschirm ghosten.

Ich kann mich noch gut an den Blindtest von PCGH erinnern wo DLSS/FSR/Nativ von erfahrenen Testern bei mehreren Spielen getestet wurden. Die mussten auch erstmal genauer hinschauen um herauszufinden was was ist.
Das zeigt mir das die Unterschiede unterm Strich nicht zwangsläufig so gravierend sind wie hier so manch einer darstellt.
Es kommt natürlich auch auf die Implementierung an.
 
DevPandi schrieb:
Das werden wir an der Stelle nicht wirklich
Eigentlich schade, aber ich habe nichts Anderes erwartet.
DevPandi schrieb:
Im Endeffekt bleibt einem jetzt nur eine Sache: Warten und Tee trinken.
Das kann ich gut. Mein aktueller Rechner ist von 2016, nachträglich mit einer RTX 2070 aufgerüstet. Egal was kommt, es wird besser sein :D
DevPandi schrieb:
ist weder FG noch MFG wirklich das Allheilmittel, für das es gehalten wird.
Sehe ich auch so. Künstlich "geratene" Bilder können "echte" Bilder nur ergänzen und nicht ersetzen.
DevPandi schrieb:
wird die RX 9070 XT knapp 10 - 15 % schneller als die RTX 5070
Das ist vermutlich recht realistisch. Auch wenn ich auf eine Konkurrenz zur RTX 5080 hoffe.
 
KodosDerHenker schrieb:
Es hat nie Ende März geheißen
Liegt wohl an Beiträgen in diesem Forum welche Dinge schreiben wie

Zitat: "Die offizielle Terminangabe „März“ bekommt nun durch den Handel erste Prognosen. Demnach wird, wie bereits erwartet, eher das Ende des Monats angepeilt, ab dem 23. März sollen die Bestellungen aufgenommen werden, heißt es in ersten Shop-Listungen. Der echte Marktstart könnte also wirklich erst in den letzten Tagen des ersten Quartals erfolgen. Einige der Shops könnten dann bereits fast drei Monate auf den Karten sitzen, denn der ursprüngliche Plan sah, wie Werbeanzeigen von AMD verdeutlichen, einen Start im Januar vor."

https://www.computerbase.de/news/gr...rx-9070-xt-und-rx-9070-kommen-im-maerz.91097/
 
Ja da steht sehr viel "könnte" im Artikel, AMD Sprach von März und Q1, und nachdem alle irgendwas von Problemen träumen und Gerüchte als Tatsache nehmen ging man davon as das es Ende März sein muss.

Während andere gesagt haben das AMD erst die Veröffentlichung der 5070er abwarten wird, und nachdem diese dann offiziell für den 20.2. angekündigt wurde für die FE Karten hat AMD dann anfang März in den Raum geworfen.
 
Glaub die Leute vergessen die Unterschiede in den Kapazitäten von AMD und Nvidia.

AMD muss für den Bruchteil des Budgets von Nvidia an 2 Fronten kämpfen.

Lasst uns hoffen das AMD auch bei den GPUs die Kurve kriegt, sonst droht uns mit Nvidia dasselbe wie mit Intel vor paar Jahren.

Immer höher werdende Preise bei fast gleichbleibender Innovation bzw. Leistung.

Und ein Monopol ist nie gut für die Kunden.
 
  • Gefällt mir
Reaktionen: TPD-Andy
Es gibt einen Grund warum man mit UDNA zurück zum einheitlichen Design für Konsumenten und Industrie möchte.
Genauso wie es einen Grund gab zu splitten (Mining Boom und andere Anforderungen).

Langfristig wird man daran arbeiten mit einem Basisdesign und kleinen Anpassungen alle Märkte zu bedienen und kosten zu sparen, so wie es bei der CPU auch funktioniert hat.

Interessant wird das dann aber erst mit der nächsten Generation, auch weil die Frage ist ob Nvidia mit der 60er dann weiter den Weg von mehr Strom für mehr Leistung geht und damit entgültige den Intel Weg beschreitet und AMD eine neue Architektur anbietet und/oder Chiplets zum laufen bringt.
Sollte Nvidia die neue Architektur bringen und AMD Leistung mit Strom lösen war es das dann eigentlich.
 
Zurück
Oben