News Radeon RX 9070 XT: Release-Termin und Preise aus der Gerüchteküche

Chismon schrieb:
Das erinnert schon ein wenig an RDNA1 (RX 5700XT) vs Turing (RTX 2070 (Super)) damals.

Wobei am Ende die 2070 (Super) im Vergleich ja nicht schlecht dasteht. DLSS hat sich zu einem echten Mehrwert entwickelt. Während die 2070 das neuste Transformer Model von DLSS nutzen kann, wird die die 5700xt niemals einen vernünftigen Upscaler haben. Was einem das als Aufpreis wert ist, muss jeder selbst wissen.

RDNA4 steht zu RTX 50 in meinen Augen deutlich besser, als es RDNA1 gegen Turing stand.

Die Unterschiede in Featureset sind deutlich kleiner, und man wird nicht wie damals ewig auf Custom Karten warten müssen. Und selbst die AMD Variante wird deutlich besser sein, als der nicht wirklich gute 5700xt kühler. Wenn es AMD nicht beim Treiber oder Preis versaut, könnten das sehr erfolgreiche Karten werden.
 
  • Gefällt mir
Reaktionen: Sherman789, Apocalypse und Chismon
Shoryuken94 schrieb:
Wenn es AMD nicht beim Treiber oder Preis versaut, könnten das sehr erfolgreiche Karten werden.
Naja, der Treiber war bei RDNA1 auch nicht selten bei RX 5700XT Nutzern problematisch, wenn ich mich richtig erinnere.

Für Leute die Karten länger halten/nutzen dürfte die RTX 2070 (Super) wegen DLSS4 Support da wohl mittlerweile sich besser entwickelt haben (wenn für RDNA1 kein FSR4 mehr kommen sollte), im Gegensatz zu den Ampere vs. RDNA2 Karten, wo (bis auf die RTX 3090 und RTX 3060 mit 12 GB) die meisten Ampere Karten mittlerweile zunehmend am zu knappen Speicher verhungern und RDNA2 zunehmend besser abschneidet.
 
Shoryuken94 schrieb:
Wobei am Ende die 2070 (Super) im Vergleich ja nicht schlecht dasteht. DLSS hat sich zu einem echten Mehrwert entwickelt. Während die 2070 das neuste Transformer Model von DLSS nutzen kann, wird die die 5700xt niemals einen vernünftigen Upscaler haben. Was einem das als Aufpreis wert ist, muss jeder selbst wissen.
Und die 2070 hat dann doch DX 12.2 support, die 5700xt kann leider keine Mesh-Shaders.
RDNA 1 war also eindeutig kein FineWine, auch wenn das jetzt ein paar Jahre gebraucht hat und wahrscheinlich für viele Irrelevant geworden ist. I

Selbst Problem übrigens bei Polaris mit 12.1 support, die RX580 ist eigentlich gerade noch schnell genug für den MSFS2024 mit Kartoffelgrafik, aber Starten kann sie ihn halt nicht. Eine GTX 960 hingegen, mag nicht mehr schnell genug sein ... aber selbst die hat iirc schon den 12.1 Support.

Ist aber echt am Randbereich des noch relevanten, weil generell sind die FPS von so alten Karten in modernen Titeln schon super grenzwertig.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Chismon schrieb:
Naja, der Treiber war bei RDNA1 auch nicht selten bei RX 5700XT Nutzern problematisch, wenn ich mich richtig erinnere.

Ja die haben bei vielen Probleme gemacht und es hat Ewigkeiten gedauert, bis sie das Blackscreen Problem gelöst hatten.

Chismon schrieb:
Für Leute die Karten länger halten/nutzen dürfte die RTX 2070 (Super) wegen DLSS4 Support da wohl mittlerweile sich besser entwickelt haben (wenn für RDNA1 kein FSR4 mehr kommen sollte)

Ich glaube man kann bezweifeln, dass RDNA1 FSR4 in der Form bekommt, wie man es jetzt in den Demos gesehen hat. Dafür fehlt es einfach an der Hardware. Ohne AI Beschleunigung wird ds wohl eher nichts. ich kann mir vorstellen, dass AMD einen XeSS Weg geht und ältere Karten auch FSR4 bekommen, dann aber ohne die AI geschichten. FSR wird sich sicherlich auch in der "freien" Version weiterentwickeln, einfach weil es auch die Konsolen ein Stück weit nutzen. Aber man wird da nicht die Verbesserungen bekommen, die mit dem Umstieg auf eine AI Lösung einzug halten
 
  • Gefällt mir
Reaktionen: Holgmann75
SKu schrieb:
NVIDIA hat RTX 4090 Performance für 549$ angekündigt und damit ist das Kind bereits in den Brunnen gefallen, weil NVIDIA Marketing kann, AMD hingegen nicht.
Ich weiß nicht wenn man arrogant "geht ihr 4090 Kunden alle zu euren 10.000 Euro Threadripper PCs zurück und dafür ist die Karte ja jetzt günstig" und irgend ein bezahlten Messe Heini erst mal vorschicken und sagen lassen das er mit seiner neuen hässlichen Jacke doch der tollste Tellerwäscher wäre...

Und dann eben eine Fette lüge die 5070 mit 12gb der Speicherkrüppel sei so schnell wie ne 4090... wenn jeder den Test machen kann was auch Benchmarkseiten machen werden, einfach mal Nativ 4k auf beiden Karten durchtesten... und dann wird man sehen das die deutlich schneller ist.

Und NEIN ein Fakeframe ist nicht identisch mit einem echten, selbst wenn er best case alles richtig erkennt ist die Latenz extrem hoch dann, und so höher um so mehr Fake frames man jetzt hat, auch dieses Reflex 2 kann das nicht komplett fixen.

Und natürlich ist DLSS besser als FSR aber immer noch Lichtjahre von perfekt. Es gibt gute und schlechte Spiele, da man JEDES Spiel extra trainieren muss, man muss der K.I. praktisch bei bringen die das Spiel aussehen soll, fängt das ganze immer mit jedem Spiel von vorne an und muss jedes Spiel extra optimiert werden und jeh nach Studio oder was auch immer und das wird immer unterschiedlich gut beim einen Studio gehen wie beim anderen.

Btw ist da sogar AMDs FSR (und transparent halber labber ich das grad nem Gast / Entwickler von Moore's Law is Dead nach, kann man sich da anhören) da überlegen deren lass mich nicht lügen Raytracing? Oder wars Upscaling erzeugt weniger "noise" und muss daher weniger mit K.I. den Noise versuchen zu finden und raus zu schneiden.

Aber ja ne 4090 wird mit nativen Frames in allen in schlechten DLSS implementierungen oder schlicht auch älteren Spielen die nur DLSS 2 und oder dann 3 haben voll perfekte 4k frames zeichnen DLSS mit hochgerechneten 1080p wird das nie können und das ganze ohne Latenz.

Er hat also seinen Kunden dreist offensichtlich mit 1 Benchmark beweisbar sobald jemand die Karte hat, aber auch schon mit reiner Logik, den Leuten ins Gesicht gelogen, und wenn das ein Werbefutzi im TV macht ist das eine Sache aber wenn es der Firmenchef macht, ich persönlich würde von so nem betrügerischen unseriösen Autoverkäufer nur in absoluter Not noch was kaufen, der mir basically ins Gesicht spuckt.

Und das Argument wäre Hinz und Kunz die nicht alles verfolgen checken das nicht, glaub ich nicht, wenn mit diesem Angebot die Enthusiasten ohne massive Preissenkungen von Nvidia im Selbstbaumarkt >90% Radeon kaufen was dann mit hecktischen Preissenkungen verhindert wird, checkt auch der Dulli das Nvidia die Preise dieser tollen 4090 Karte nicht auf 400-450 reduziert kurz vor oder nach release weil sie kurzfristig dachten wir sind Mutter Theresia, oder alternativ alle Entusiasten wenn Nvidia die Preise nicht senken sollte alle ihre freunde die Ahnung haben nur noch zu AMD greifen <1000 Euro dann checkt das auch der Letzte.

Das gab nen ganz kurzfrisigen Hype, die massive enttäuschung bei denen Spatzenhirnen die das für mehr als 2 Minuten geglaubet haben ist schon vorprogrammiert.
 
Alexander 65 schrieb:
Dieses Dingens braucht kein Gamer! :stock:
Ganz schön anmaßend hier für ALLE Gamer sprechen zu wollen.
 
blackiwid schrieb:
Und dann eben eine Fette lüge die 5070 mit 12gb der Speicherkrüppel sei so schnell wie ne 4090... wenn jeder den Test machen kann was auch Benchmarkseiten machen werden, einfach mal Nativ 4k auf beiden Karten durchtesten... und dann wird man sehen das die deutlich schneller ist.
Sehe nicht was daran eine Lüge ist, es wurde doch explizit betont, nur mit AI.
Ob das dann stimmt oder nicht, kann man erst überprüfen, wenn man weiß wie die RTX 5070 mit MFG abschneidet. Geht ihr der V-RAM aus, ist das natürlich essig.
blackiwid schrieb:
Und NEIN ein Fakeframe ist nicht identisch mit einem echten, selbst wenn er best case alles richtig erkennt ist die Latenz extrem hoch dann, und so höher um so mehr Fake frames man jetzt hat, auch dieses Reflex 2 kann das nicht komplett fixen.
Die Latenz ist eben nicht "extrem hoch", sondern soll zwischen FG und MFG nicht weiter ansteigen und mit Reflex 2 dann nochmal weiter gesenkt werden.
blackiwid schrieb:
Und natürlich ist DLSS besser als FSR aber immer noch Lichtjahre von perfekt.
Was wäre denn perfekt? Es ist doch bereits schon gut genug, wenn man mehr FPS und gleichzeitig mehr Qualität umsonst bekommt, ohne dafür mehr Rechenleistung reinzustecken.
blackiwid schrieb:
Es gibt gute und schlechte Spiele, da man JEDES Spiel extra trainieren muss, man muss der K.I. praktisch bei bringen die das Spiel aussehen soll, fängt das ganze immer mit jedem Spiel von vorne an und muss jedes Spiel extra optimiert werden und jeh nach Studio oder was auch immer und das wird immer unterschiedlich gut beim einen Studio gehen wie beim anderen.
Das AI Modell wird schon seit 5 Jahren für alle Spiele trainiert. Was du ansprichst war DLSS1.
Wurde dir glaube ich schon 10 mal erklärt, wenn man die Suchfunktion nutzt. Da scheinst du wohl festgefahren zu sein.
blackiwid schrieb:
...der mir basically ins Gesicht spuckt.
Als würde dich irgendjemand zum Kauf zwingen.
 
Abwarten und Tee trinken. Wenn die 9070XT in UHD bei nativer Auflösung mithalten kann, dann überle ich meine 6900XT in Rente zu schicken. So Upscalingmüll will ich nicht
 
Shoryuken94 schrieb:
Ohne AI Beschleunigung wird ds wohl eher nichts.
Ich denke auch das hier der Hardcut erfolgt, den NV mit der 4000er Gen gemacht hat. Irgendwann muss der bei AMD erfolgen. Wenn der Knoten platzt, sind die alten Gens einfach nicht stark genug um die benötigten Berechnungen schnell genug abzuarbeiten. Was ansonsten so noch für ältere Karten an Verbesserungen rumkommt wird man sehen, für RDNA3 bleibt bestimmt noch was hängen für 2 auch noch vielleicht aber RDNA 1 ist da raus.
Dafür ist die Entwicklung die letzten Jahre zu rasant vorangeschritten.

Ich bin auf jeden Fall schonmal sehr interessiert, das was mir bei AMD zuletzt gefehlt hat, die Bildstabilität, hat anscheinend stark zugenommen.
Das zeigen die Videos vom "Research Projekt" von AMD schon ganz gut.
 
  • Gefällt mir
Reaktionen: Shoryuken94
In einem Interview mit Frank Azor wurde erklärt, dass sich die 9070XT sowohl preislich als auch leistungstechnisch an die 7800XT und 7900GRE orientiert. Ich geh mal davon aus, dass hier die Rasterleistung gemeint ist und die RT Leistung auf 7900XTX Niveau sein dürfte. Was den Preis betrifft, wäre das dann 499€-599€ in Deutschland.

Auf die Frage warum zur Keynote keine Preise genannt wurden, antwortete er, dass man die finalen Preise von Nvidia abwarten wollte. (Was jetzt geschehen ist)
 
Zuletzt bearbeitet:
Ich prognostizieren :

Wenn die 9070 (alle Varianten) released ist und der Preis steht, kommt Intel mit der großen Battlemagen um die Ecke und kassiert ab, UVP 20% unterhalb der 9070 er und das Ding wird denen aus den Händen gerissen von den Leuten, die sich RTX50 nicht leisten können oder wollen.

Dafür hat die B580 zu positive Wellen geschlagen mit den anfangs unfassbar günstigen LE Modellen.
 
Chocobo schrieb:
Ich prognostizieren :
Wird man beim Kauf einer B580 obendrauf kostenfrei Hirngewaschen? :D
Intel muss die Teile bei TSMC fertigen lassen. Intel macht eh schon keine großen Gewinne, weil Arrow und auch die Kampfmade :) keine Umsätze in den eigenen Fabriken erzeugen. Trotzdem haben die Fabs laufende Kosten.
Intel hat es nicht geschafft, eine 4 Jahre alte 6700 XT klar zu schlagen bei gleicher Anzahl an Shader. Noch nicht einmal mit RT.
Kein Asus, kein Gigabyte, kein MSI usw.
 
  • Gefällt mir
Reaktionen: Apocalypse
Gigaherz schrieb:
Das wird nur bei 300, evtl 350 laufen. Mit 500 wird die nicht erfolgreich. Da bleibt der Marktanteil der gleiche.
Das glaube ich nicht! 16GB+? für 549€ gibt es ja nirgendwo und das ist der Trumpf von AMD der stechen kann…
 
Apocalypse schrieb:
Ja, natürlich. Exact Null im genau zu sein.
Dann pack da nochmal eine 0 an die FPS Zahl um eine Systemlatenz von 0 zu erreichen.
12ms ohne Reflex oder Antilag halte ich bei solch niedrigen FPS für ausgeschlossen, außer du bist irgendwie mega CPU limitiert.
 
@Alesis

Ja, hab's verstanden.
RDNA2 war/ist voll knorke und so.

Hat aber nichts mit Gehirnwäsche zu tun, vergleicht man UVP vom Release beider Karten her, ist nun mal die "Made" klar im Vorteil.

Das ist doch gut für den Markt, mit persönlich ist wurscht was du für gut oder schlecht befindest und was du verbaust.
Aber wenn die große Battlemage kommen sollte, wovon ich stark ausgehe, dann wird sie sich einen großen Teil von AMDs 🍰 Stück mopsen.

Nach dem positiven Start von Battlemage ist jetzt Celestial und Druid gesichert lt. Intel.

Da sollte man sich drüber freuen, anstatt hier von oben herab drüber zu reden.
Es gibt nunmal viele Menschen, die es NICHT einsehen, mehr als 4-500€ für einen Grafikbeschleuniger zu löhnen, der dann auch die nächsten Jahre erstmal reicht.
 
Darf man bei einem aktiven NDA eigentlich das Ende des NDA nennen?

Aber es fällt doch sicher nicht unter NDA, uns zu sagen, ob das Nennen des NDA-Endes unter NDA fällt, oder? :D
 
Chocobo schrieb:
Da sollte man sich drüber freuen, anstatt hier von oben herab drüber zu reden.
Es gibt nunmal viele Menschen, die es NICHT einsehen, mehr als 4-500€ für einen Grafikbeschleuniger zu löhnen, der dann auch die nächsten Jahre erstmal reicht.
Ich habe emotional deinen Level genommen und damit eine Gegendarstellung zu deinem Kommentar gebracht. Insofern haben wir also beide einen Minuspunkt?
Deswegen habe ich mir vor einem Jahr eine 6700 XT gekauft, weil mir die Leistungsentfaltung auch noch lange reichen wird für 330€.

Ich bin vollkommen davon überzeugt, dass ein weiterer Hersteller besser wäre, aber da es Intel ist, können wir froh sein, wenn der Markt wenigstens nicht schlechter wird. Denn Intel ist alles inkl. ohne jegliche Moral und Anstand.
Wenn deine Prophezeiung eintreffen sollte, eine Kampfmade die gleiche Leistungsentfaltung einer 9070 hat, wird Intel ganz sicher nicht 20% günstiger sein. Bei 550€ für eine 9070 wären das 110€. Wenn du also meinst, ich hätte irgendetwas von oben herab gelabert, dann ist deine Vorstellung eher eine Verblendung.
 
Zurück
Oben