Bericht RDNA 4 ab 549 USD: Das sind AMD Radeon RX 9070 XT & 9070 mit RDNA 4 & FSR 4

Wan900 schrieb:
Blöd für alle 7900XT(X) User, dass das neue FSR wohl nur für RDNA4 erscheint.
Gibt halt keinen Rechtsanspruch auf Abwärtskompatibilität.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Balikon schrieb:
RDNA 3 Karten nutzen auch nur GDDR5 während Nvidia bei den 40xx bereits auf GDDR 6 setzte.
Da solltest du aber nochmal Nachschauen. Gddr5 wurde das letzte mal bei der RX580/590 eingesetzt. Vega hatte HBM und seit rx5000er wird GDDR6 verbaut. Nvidia hat im gegensatz zu AMD bei den 4000er aber GDDR6X verbaut
 
  • Gefällt mir
Reaktionen: evilhunter, metoer, Icke-ffm und eine weitere Person
LuciusFerrum schrieb:
Kommt halt nicht an eine 5080 soweit heran wie man sich wohl im AMD Lager erhofft hatte.
Keiner, wirklich niemand hat das erhofft oder gar erwartet.
Ergänzung ()

@Northstar2710 Ok, dann hat der recherchierte Artikel Müll geschrieben, danke für die Korrektur.
 
  • Gefällt mir
Reaktionen: Orok91, Inxession, PegasusHunter und 3 andere
Edgeraze schrieb:
Alle reden nur von DLSS oder Raytracing, dabei finde ich den Treiber so wichtig. Nvidia hat einfach die stabileren Treiber!

Als ich die 7800 XT hatte, habe ich desöfteren mit Treiberproblemen zu kämpfen gehabt und musste auf rollback setzen. Das ging mir echt auf die Nüsse bei einigen Games wie Battlefield. Ständige Ruckelorgien und FPS Einbrüche. Nichts wurde unternommen seitens AMD bis die nächste Version kam. Auch dann lief nicht alles rund. Das eine wurde ausgemerzt, was anderes wiederum nicht. P/L hin oder her, sind tolle Raster Karten keine Frage. Von FSR halte ich absolut nichts, grausam wenn man DLSS kennt und RT sowieso.

Wie das jetzt mit der 9070 aussehen wird, muss man abwarten. Nvidia lässt sich gut bezahlen aber bietet einem halt auch die Features mit Qualität und reibungslose Treiber. Sind nicht umsonst die klare Nummer 1.

Ich würde es mir wünschen dass AMD denen etwas nahe kommt, Konkurrenz ist immer gut und wichtig. Sehe das aber noch nicht. Lasse mich gerne überraschen.

Sorry, aber von welchem Treiber redest du gerade. Insbesondere die letzten sind doch totaler Krempel und dass man noch auf die beknackte App zurückgreifen muss, schlägt dem Fass den Boden aus. Ich warte mal die Tests ab und werde evtl. meine 4090 gegen eine Nitro+ tauschen! Die NV-Treiber sind für mich ein Nogo!
 
  • Gefällt mir
Reaktionen: Inxession
whigga schrieb:
Bringt AMD denn auch noch was schnelleres, oder soll die 9070XT das Flaggschiff darstellen?
A) Nein, B) Ja
Ergänzung ()

gigabyte² schrieb:
Und wer sich wegen fehlendem CUDA beschwert: Ich konnte bereits mit einer 6900 XT (RDNA 2) problemlos KI-Anwendungen mit guter Leistung nutzen. Also wo genau ist das Problem?
Das Problem ist, dass die meisten denken, ohne CUDA ginge gar nichts.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Orok91 und gigabyte²
Cleric schrieb:
NVIDIAs Quartalszahlen gesehen? Den Earnings Call verfolgt?
ja klar, und da fällt eben auf, das sich Nvidias Wachstum im Jahr 2024 deutlich entschleunigt hat
Q1 waren es noch 18%Q/Q dann in den folgenden 15/17/12% und Q1/26 stellt man auch nur noch 10% in aussicht, die Marge ist ebenso Rückläufig seit dem Q4 und geht auch im Q1 zum vorjahr zurück.
TSMC hat 2024 schon das Packing massiv ausgebaut so das Nvidia eigentlich hätte schneller wachsen können müssen wie das noch 23 der Fall war, und da die Marge auch noch Rückläufig ist sieht das für mich danach aus das die Konkurenz stärker wird, seien es die Eigenentwiklungen der Global Player oder aber auch AMD, welche mit CDNA4 ab mitte 25 dann ebenso schneller wachsen werden, denn die sind auf KI und nicht mehr HPC getrimmt. welcher zudem noch in 3nm kommt.
Nvidia baut 2025 alles in 5/4nm welche ausgereift sind und auch von Jahr zu Jahr günstiger werden, Apple hingegen nutzt stehts state of the Art Fertigung welche entsprechent teurer ist und somit den Umsatz treibt.
metoer schrieb:
Das zeigt auch das die Preise mittlerweile völlig willkürlich festgelegt werden und nichts mehr mit den realen Kosten zu tun haben.
Das musst Du bitte erklären es ist der selbe Chip, Speicher usw. kostet in der Herstellung wenn je Wafer gezahlt wir also auch das selbe, nur das der eine einen defekt hat der andere nicht. wenn die defekte gering sind kann man wie Nvidia Geld verdienen indem man kastrierte chips mit 60% Marge und ganze mit 120% Marge verkaufen oder eben 50&70% Marge so kommst am ende auch auf die 60%, nur eben noch keine 70-80%
 
Experte18 schrieb:
Die Spiele wo 16gb vram nicht reichen kannst du an einer Hand abzählen.
Schon klar, aber 8 GB mehr GDDR6 hätten den Preis nun auch nicht so stark erhöht, das hätte man durchaus machen können. Ist sicher kein Beinbruch, aber schade finde ich es trotzdem.
 
  • Gefällt mir
Reaktionen: wertertzu
mdPlusPlus schrieb:
Wieder mal zu teuer um Marktanteile zu gewinnen. Ach, AMD.
Gewagte These: Vielleicht wollen die gar nicht mehr Marktanteile, sondern an den Chips tatsächlich was verdienen.
 
Capthowdy schrieb:
Schon klar, aber 8 GB mehr GDDR6 hätten den Preis nun auch nicht so stark erhöht, das hätte man durchaus machen können. Ist sicher kein Beinbruch, aber schade finde ich es trotzdem.
Eben nicht weil an dem Chip nur 8 oder 16 gehen, für 24GB hätte es eine andere Anbindung gebraucht und das kostet mehr als nur den Speicher zu erhöhen
 
  • Gefällt mir
Reaktionen: Obvision, Edelgamer und McFritte
An dieser Stelle mal ein Vergleich mit der 5700, 5700XT, 6700XT und deren UVP Preise:

5700: 369€
5700XT: 419€
6700XT: 479€

9070: 599€
9070XT: 649€


Fazit: ALLE Grafikkartenpreise, selbst zur UVP, sind mMn immer noch viel zu hoch!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm, wertertzu, eXe777 und 4 andere
Windell schrieb:
An dieser Stelle mal ein Vergleich mit ... und deren UVP Preise:
9070: 599€
9070XT: 649€
vs
6800: 579€
6800xt: 649€
Windell schrieb:
Fazit: ALLE Grafikkartenpreise, selbst zur UVP, sind mMn immer noch viel zu hoch!
oder
zu niedrig, wenn man die Inflation einrechnet

btw.
Nahrungsmittel sind in den letzten Jahren ca. 34% teuerer geworden
Das ist für mich die gefühlte Inflation, und nicht irgendwelche schön
gefärbten Warenkörbe.
Wenn dieses Jahr die Stützung bei Strom+Gas wegfällt, gibts evtl. auch
Nachzahlungen!
 
Icke-ffm schrieb:
Das musst Du bitte erklären es ist der selbe Chip, Speicher usw. kostet in der Herstellung wenn je Wafer gezahlt wir also auch das selbe, nur das der eine einen defekt hat der andere nicht. wenn die defekte gering sind kann man wie Nvidia Geld verdienen indem man kastrierte chips mit 60% Marge und ganze mit 120% Marge verkaufen oder eben 50&70% Marge so kommst am ende auch auf die 60%, nur eben noch keine 70-80%
Ganz einfach, als Kunde interessiert mich nur die Leistung und die 9070 hat einfach 18-21% weniger Leistung (laut den AMD Folien), ist aber nur 8% günstiger wie die XT.

Ich bin mir sicher das der Preis der 9070 in spätestens einem Monat gesenkt wird. Weil die Karte zu dem Preis absolut keinen Sinn macht und liegen bleiben wird.
 
metoer schrieb:
Ich bin mir sicher das der Preis der 9070 in spätestens einem Monat gesenkt wird. Weil die Karte zu dem Preis absolut keinen Sinn macht und liegen bleiben wird.
NEIN
siehe 7700xt-Preisentwicklung

Der Yield ist so gut, das man die meisten Chips als 9070XT verkaufen kann.
 
  • Gefällt mir
Reaktionen: Icke-ffm und DF86
@GerryB finde das P/L Verhältnis aber au net wirklich prall, auch wenn AMD da mit der 9070XT um einiges besser da steht als Nvidia, gerade mal 200€ weniger zur 7900XTX und dann 8GB weniger VRam

wenn man bedenkt dass es vor net mal einigen Jahren noch so aussah, 2080Ti=3070 und mit einer RX6800 für unter 600€ mit ebenso 16GB VRam, da sahen die Leistungssprünge noch so aus, wie wir es von den Generationen davor gewohnt waren
 
GerryB schrieb:
vs
6800: 579€
6800xt: 649€

Das ist aber eine ganze Klasse drüber und der Chip war 519 mm² groß dazu der damals üppige Speicherausbau.
9070 ist Mittelklasse und sollte auch damit verglichen werden.
 
  • Gefällt mir
Reaktionen: eXe777
Balikon schrieb:
Gibt halt keinen Rechtsanspruch auf Abwärtskompatibilität.

Bei NVIDIA gibt es das DLSS 4 Transformer Modell bis RTX 2000 runter.

Rechtsanspruch natürlich nicht - aber vielleicht sollte man mit 10% Marktanteil etwas mehr leisten...
 
Es ist schon etwas weltfremd wenn eine Firma meint, das die Mittelklasse Grafikkarten dem Käufer bis zu 700 USD wert sind.

Vor Jahren waren Mittelklasse Karten bei 300 USD gelegen, dann kam Corona und Mining und schwups verdoppelt man die Preise.

Was mich an den Karten interessieren würde, wären die neuen Video Codecs, denn da muss ich leider sagen, gibt es immer wieder die Erkenntnis das aufgenommene Videos nicht so aussehen, wie originale Szenen auf dem Desktop. Aber mir sind die Karten einfach zu teuer, dafür hast du dir früher einen komplett PC der Mittelklasse bauen können.
 
  • Gefällt mir
Reaktionen: metoer
@Icke-ffm

Richtig, es ist viel in Bewegung. Hatte auch schon irgendwo geschrieben, dass NVIDIA und Qualcomm beim Sprung auf den nächstbesseren Node Kapazitäten zu Samsung verlagern wollen. Und OpenAI dealt mit Broadcom um TSMCs 3nm-Kapazitäten für eigene Custom-Chips. Und auch andere wie MS wollen mit eigenen Custom-Designs die Abhängigkeit von NVIDIA reduzieren. Es werden also mehr Player, die um TSMC buhlen.

Laut den derzeitigen Prognosen wird NVIDIAs Bedeutung und Umsatzanteil bei TSMC aber vorerst weiter steigen. Und relativ wird AMD nicht nur gegenüber NVIDIA, sondern auch gegenüber anderen wie Broadcom etc. zurückfallen.

Aber so wie derzeit überall massiv Fertigungskapazitäten aus dem Boden gestampft werden, laufen die Fertiger früher oder später in einen Schweinezyklus. Ewig wird das nicht weitergehen, zumindest nicht in dem Tempo.

Und wenn dann hoffentlich das klassische Brot-und-Butter-Geschäft mit CPUs, (Gaming-)Grafikkarten etc. wieder an Bedeutung gewinnt, werden sich der Markt und die Preise hoffentlich wieder etwas positiver zu Gunsten der "normalen" PC-Nutzer und Gamer entwickeln.
 
metoer schrieb:
Das ist aber eine ganze Klasse drüber und der Chip war 519 mm² groß dazu der damals üppige Speicherausbau.
9070 ist Mittelklasse und sollte auch damit verglichen werden.
NEIN
AMD hat mit dieser Gen das Namensschema geändert.
(an NV angepasst)

Ich sehe immer noch 16GB, ... bei Anderen sinds nur 12, bzw. die 16GB-Modelle der Konkurrenz
sind dann tatsächlich ne Preisklasse höher.
 
  • Gefällt mir
Reaktionen: Apocalypse, Orok91 und Icke-ffm
Zurück
Oben