News Radeon-Grafikkarten: Fokus auf RDNA 4 (RX 8000) statt RX 7400 und RX 7300

Gespannt was AMD zaubert. Bin jedoch gut bedient mit der 7900xt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daknoll
Wenn man jedem Gerücht Glauben schenken will, soll RDNA3 wie auch RDNA4 misst sein, und (erst) mit RDNA5 soll AMD wieder der große Wurf gelingen.

Ich hoffe für mich natürlich, dass dies Quatsch war und schon RDNA4 der nächste große Wurf wird. Aber 7300/7400.... klingt für mich nach etwas, was keiner praktisch auserhalb von nem Office PC brauchen kann. Und da reicht dann oft ne APU oder Intel-HD.
Ergänzung ()

Shoryuken94 schrieb:
Der Erfolg hängt aber maßgeblich am Preis und am Marketing.

Und der Leistung und dem Verbrauch! rx480 war gut. Bin mir sogar sicher, dass das Marktanteile gab, kann aber auch irren. Und auch die RX6xxx sollen gut gewesen sein. RX7xxx säuft halt und muss sich übern Preis verkaufen und echte Schnäppchen gibts dennoch kaum. Und wen ich sehe das AMD beim gleichen Frame mehr aus der Dose zieht. Das ist schon nen Handcap, was mich auf die nächste Gen warten lässt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: M11E
KellyFornia schrieb:
Gerade bei den kleinen Karten wird aber immer wieder die Anbindung beschnitten und das äußert sich dann vor allem bei älteren PCs mit PCI-E 3.0 negativ.
Bei Videobeschleunigung stört das m.W. nicht. Man darf solche Karten halt nicht als Low-End-Gaming-Lösung kaufen wollen.
 
  • Gefällt mir
Reaktionen: KellyFornia
Deinorius schrieb:
AMD muss deutlich günstiger produzieren können, damit sich das lohnt.
Ob sichs lohnt oder nicht ist letztlich egal, deren Marktanteil ist so gering, und sie verdienen mit allen aderen Bereichen so viel, es geht auch irgendwann ums Überleben, wenn sie noch weniger Marktanteil haben werden die Fixkosten für Treiberentwicklung pro Karte immer teurer, alles hat ein Rattenschwanz wenn sie 10 Wafer noch holen für die 5 Karten die sie verkaufen kriegen sie da auch schlechte deals, die Spieleentwickler unterstützen sie noch schlechter etc.

Also wenn man jetzt Highend komplett auf gibt dann muss man wenigstens ein Kracher haben im neuen low highend (oder Midrange) also ne Art 4080.

Sicher die Preise werden im Wettbewerb pro FPS zwischen den 2 Herstellen nie zu extrem weit auseinander gehen, weil sonst der andere halt einfach stark die Preise reduziert.

Amd hat natürlich auch kein Interesse für 1/3 der Preise oder sowas zu verkaufen selbst wenn sie könnten dann hätten sie so viel Nachfrage das sie das gar nicht decken könnten... aber Nvidia kann sich höhere Preise leisten, man wird halt wahrscheinlich Nvidia wieder nötigen irgendwas billiges auch um die 500 euro an zu bieten was halbwegs gut ist aber mit irgend nem mangel, weiß nich ob sie nochmal die Frechheit sich trauen 12gb für 500-600 Euro an zu bieten, aber dann sinds halt 128bit irgendwas... kein plan irgendwas das in Benchmark Tabellen oft mit ner Art 4080 mit halten kann, aber dafür sorgt das die Kunden trotzdem so gefickt werden das sie teurere Karten kaufen, so wie es bei der 4070 war.

AMD wird halt den real deal für 500-600 aus packen ohne natürlich 5090 5080 oder 4090 gefährlich zu werden, aber halt kein prinzipieller Mangel wie z.B. beim Ram.
 
JackTheRippchen schrieb:
Bei Videobeschleunigung stört das m.W. nicht. Man darf solche Karten halt nicht als Low-End-Gaming-Lösung kaufen wollen.
Nur hat AMD bei den kleinen Karten einfach zu viel gespart, neben der verringerten Bandbreite und somit Verlusten beim Spielen in alten Systemen, können die kleinen Modelle auch kein Decoding von AV1, sowie kein Encoding von VP9, H.264 sowie H.265 Video.

Das was diese Karten an Videobeschleunigung mitbringen, liefert jede iGPU von Intel seit ca. 10 Jahren. Bleibt also nur noch der Einsatzzweck für Systeme älter als 2014. Die Nische ist einfach durch die vielen Beschränkungen sehr kein, die Karten somit weder Fisch noch Fleisch.

Gäbe es von AMD eine moderne halbwegs für Spiele taugliche (Casual Games in Full-HD, Medium Details) Karte, ohne Stromanschluss oder nur 6 Pin, mit voller Bandbreite auf PCI-E 3.0 und Unterstützung für aktuelle Video-Decoder/Encoder dann wäre das die perfekte Karte für jeden alten PC / OEM-PC / Office-PC.

Man hat die Dinger aber so beschnitten, da greifen viele lieber für weniger Geld bei Kleinanzeigen zu einer alten GTX 1050 Ti / 1060 / 1650 / RX 560 oder RX 570 wenn es das Netzteil schafft.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
Mir fehlt ein Nachfolger der RX6800, gekauft 2022 (oder 2021?)für 450€ gebraucht vom Händler.
Die 7900GRE wäre zwar von Leistung her ok, aber viel zu hoher Aufpreis.

Den Schritt zu Nvidia braucht man da nicht weiter erwähnen, da ist einfach alles zu teuer. Die 4070S ist ok, aber noch teurer und 12GB will ich mir bei UHD eh nicht antun.

Besser AMD bringt schnell was neues, da werden die 7000er dann wohl hoffentlich auf erträgliche Preise fallen
 
  • Gefällt mir
Reaktionen: M11E und JackTheRippchen
@KellyFornia Da stimme ich dir zu. Wenn die Einstiegskarten außer vielleicht einer beschleunigten Windows- und Office-GUI gar nichts mehr können, sind sie einfach komplett überflüssig. Da muss man sich schon fragen, von wem der Produktmanager seine Marktinformationen bekommen hat. Da auch für diesen Schrott Entwicklungskosten entstehen, dürften sich solche Designentscheidungen in der nächsten oder übernächsten Generation eigentlich nicht wiederholen. Oder man sagt sich: Die Low-End-Karten kauft eh niemand (ohne sich zu fragen warum), dann stellen wir sie halt ein.
 
  • Gefällt mir
Reaktionen: KellyFornia
blackiwid schrieb:
Also wenn man jetzt Highend komplett auf gibt dann muss man wenigstens ein Kracher haben im neuen low highend (oder Midrange) also ne Art 4080.
Ein Kracher muss einiges bieten. Leistung, Features, Effizienz und den richtigen Preis. Wenn die ersten drei Punkte stimmen, kann der Preis auch höher angesetzt werden. Ist hoffentlich jedem klar.
Ich gebe dir recht, dass es nicht zwingend High-End sein muss, aber oft strahlt High-End die Meinung auf untere Klassen ab. Wenn kein High-End nicht existiert, wirkt sich das negativ auf die unteren Modelle aus.
Bei AMD passt die Leistung ohne RT, Features sind aber so lala, wenn auch nicht schlecht; die Effizienz im Desktop sogar vergleichbar (30 W Unterschied zwischen RX 7900 XTX und RTX 4080 sind vernachlässigbar), aber in Laptops nicht gut genug. Das wirklich große Problem ist dennoch ein anderes. 👇

blackiwid schrieb:
Amd hat natürlich auch kein Interesse für 1/3 der Preise oder sowas zu verkaufen selbst wenn sie könnten
Immer diese Übertreibungen! Als die 7900 XTX vorgestellt wurde, lag der Preis nach dem Release (1000-1100 €) wesentlich niedriger als jener der RTX 4080 (+/- 1400 €). Ohne RT vergleichbare, knapp bessere Leistung. Das war sogar super angesetzt. Aber die RX 7900 XT war zu teuer in Relation zur Leistung. Das gibt weniger gute Aussagen, obwohl die Leistung ohne RT und Effizienz passen. Und der Preisabstand zur 4070 Ti war nicht groß genug. Wieso sollte man dann eine Radeon nehmen?
Der Preis der 7800 XT hat wieder gepasst, jener der 7700 XT wieder nicht. Und zu allem Übel ist der Preis so oder so gesunken, also wozu diese höheren Release-Preise? Das gibt negative Meinungen, die sich verbreiten und nicht jeder, eher kaum jemand, schaut auf Benchmarks detailliert.
AMD schafft es auch nicht, für sich zu begeistern. Schlechtes Marketing und zuletzt hat sich das besonders durch Falschaussagen gezeigt.
 
Deinorius schrieb:
Immer diese Übertreibungen! Als die 7900 XTX vorgestellt wurde, lag der Preis nach dem Release (1000-1100 €) wesentlich niedriger als jener der RTX 4080 (+/- 1400 €).
Mit Übertreibungen kann man aber gut einen Punkt verdeutlichen, mein Punkt ist das Nvidia nicht 200% für ne ähnliche Karte selbst wenn sie bisschen mehr RT hätte verlangen würde, sie würden irgendwie die karte dann um 25% senken, daher egal wie billig AMD wird, Nvidia wird das nicht einfach komplett ignorieren und zumindest die Preise so ansetzen das der Abstand nicht gigantisch ist.

Die Genauen % Werte sind ja nur Beispiele, viele würden die 4080 ja immer noch als bessere Karte sehen daher ist ein 1:1 Vergleich schlecht. (wegen RT und vielleicht auch DLSS). Auch wenn sie in Raster leicht hinten ist.

Ja diese Gen sähe AMD nicht schlecht aus wenn die Stormverbräuche TOP wären und das geht nunmal mit der Effektivität einher, und wegen der schlechten hat man weder extrem schnelle chips (in der nähe einer 4090) noch hat man sehr tolle Stromsparende Karten, wie viel Leute hier schon geschrieben haben das ein Hauptgrund für 4070 kauf der Stromverbrauch war.

Man kann halt nicht die vielen Nachteile wie RT, DLSS, Stromverbrauch alle Wett machen mit bisschen besseren Preisen. Dafür müsste man sehr aggressiv vor gehen.

Ich bin ja auch AMD Fan aber die Verkaufszahlen sind bekannt die sind scheiße, gut mag zum Teil auch an den Eingebrochenen Konsolen liegen, aber auch wenn vielleicht faktisch für viele die AMD Karten die bessere Wahl wären wegen mehr Speicher oder besseren Preisen und weil sie real vielleicht eh nie RT außer minimaleffekte einschalten werden bzw unterhalb der 4080 Super damit eh in vielen Games starke Probleme kriegen werden, wobei ja offenbar immer alle 500-800 Euro karten kaufen um dann auf 10 Jahre alten 1080p Monitoren zu spielen :D

Wie auch immer das Angebot war nicht gut genug es ist gut genug um noch irgendwie im Rennen zu bleiben, besser als Intel, primär wegen dem besseren Treiber btw, aber es reicht nicht mal um die Marktanteile wirklich zu halten geschweige denn mal zurück zu gewinnen, und bei 0,001% Marktanteil gefühlt (ja ich übertreib wieder zu faul die echten zahlen zu suchen sie sind man extrem gering), sollte eigentlich bei nem halbwegs guten Produkt und da Nvidia nun ihre Kunden auch nicht wie Könige behandelt eher das Gegenteil und schon fast als lästigen Backup plan ansehen sollte die AI Bubble platzen, sollte es eigentlich machbar sein zumindest in manchen Preissegmenten massiv dazu zu gewinnen.

Gut vielleicht gelingt das mal mit Strix Halo, aber will man dann wirklich Grafikkarten ganz aufgeben so langsam könnte man das glauben.

Wie man am 6xxx Abverkauf sehen konnte kann man es schon auch über die Preise machen, aber dafür war RDNA 3 einfach immer noch zu teuer. Allerdings ziehlt man bei AMD natürlich auch auf den AI Sektor...

Wie auch immer müssen uns nicht deren Gedanken machen, wir können nur Diskutieren was im Raum steht und da steht ne 4080 Artige CPU ganz grob irgendwo zwischen 500-600 Euro, und dann müssen wir mal sehen was damit passiert, sind das release preise dann würde man ja auch erwarten das die mit der Zeit auf 450 oder so oder noch tiefer gehen, das wäre dan für viele ende 2025 schon interessant, denk ich.

Die RX 480 wäre ein Gutes Beispiel die hat zum Release nur 230 Dollar gekostet, die GTX 1080 war deutlich besser, aber die war für viele zu teuer damit gehörte Highend weitgehend Nvidia aber die 480 wurden massenhaft verkauft und war ne extrem geiles Produkt, sicher in Ansätzen könnte man das auch über die RX 7800 XT sagen, aber A verbrät die trotzdem mehr Strom ist teuer und kam zu spät raus. Also man muss nicht das Highend gewinnen, auch ne 500-600 Euro Radeon wird das Problem haben das Leute trotzdem nur maximal 400 Euro ausgeben wollen die wirkliche masse und selbst das ist schon ein reach. Das heißt es wird erst wieder im 2. Leben entweder reduziert im Preis oder direkt Gebraucht eine Massenkompatible Karte... aber vielleicht gibts dann ja auch ne 4070 mit 16gb für 350 Euro oder so... das wäre dann mal ein echtes Angebot für Leute die nicht unsummen für Gaming bereit sind zu zahlen.

Ansonsten geht halt wirklich ein großer Teil an Kunden zu Handhelds und APUs über bzw Konsolen. (ein Stück weit wird das eh passieren, nur die Frage wie stark)

Vermutlich hatte man auch gehofft das die 7600 (xt) ein riesen Erfolg wird, da lässt die panische Preisreduktion kurz vor Release hin deuten, aber da ist sie einfach zu schwach, die 16gb kann sich wegen 128bin nicht stark genug absetzen, sind halt überall easy 50 Euro teils 100 teils vielelicht sogar noch mehr zu viel. Ne 7700 XT für 350 wäre nen brauchbares angebot, ne 16gb 7600 xt für 250 ja interessant, irgendwann werden wir da sicher ankommen, aber dann gibts schon wieder anderes ader die nächste Gen steht vor der Tür...
 
Zuletzt bearbeitet:
Ich glaube ja das wir eher froh sein können das uns die GPU Hersteller überhaupt noch bedienen...
AMDs nächster großer Wurf wird sein wenn sie das Chiplet Design komplett sauber überführt bekommen haben...
Einstieg 1 Chiple
Mittelklasse 2 Chiplets
Obere Mittelklasse 4 Chiplets
High End 6 8 oder gar 12 Chiplets z.B.

Den Ausschuss der Chiplets kann man dann niedrig halten. Chiplets die nur Takt X gehen kommen dann in die Einstieg oder Mittelklasse..

Aber anscheinend sind Probleme da noch nicht abschließend gelöst...
 
blackiwid schrieb:
Mit Übertreibungen kann man aber gut einen Punkt verdeutlichen
Kann man, in der Diplomatie immer, ich reagiere eher leidlich darauf. :P

blackiwid schrieb:
Ja diese Gen sähe AMD nicht schlecht aus wenn die Stormverbräuche TOP wären und das geht nunmal mit der Effektivität einher
Effizienz, nicht Effektivität. Das ist was anderes.
Ein 4090 Gegenprodukt von AMD wäre ein von der Effizienz betrachtet ja auch möglich gewesen, aber wahrscheinlich hatte AMD nicht genug Reserven und die haben festgestellt, dass sie nicht das nötige Gesamtpaket haben, als dass sie genug Grafikkarten für 2000 € verkauft hätten. Nvidia kann das eher, weil einfach alles passt ... außer dem Preis.

blackiwid schrieb:
Ich bin ja auch AMD Fan aber die Verkaufszahlen sind bekannt die sind scheiße, gut mag zum Teil auch an den Eingebrochenen Konsolen liegen
Die Daten haben nicht ergeben, dass die Radeon-Sparte eingebrochen ist. Es lag an den Konsolen. Die Radeon-Zahlen sind zwar weiterhin nicht bemerkenswert, aber nicht noch schlechter geworden.
 
NoNameNoHonor schrieb:
Die ist deutlich sparsamer und trotzdem leistungsfähiger, bei RT bis zu 50% schneller, bei Raster sind es immerhin 30-40% (je nach Spiel).
Bei der 4070 nicht Super lag der Unterschied zur 7800 XT bei Raytracing im Durchschnitt bei 10%. Nur Cyberpunk war ein riesiger Unterschied. Man muss es auch nicht dramatischer machen als es ist.
https://www.computerbase.de/2023-09...chmarks_mit_und_ohne_raytracing_in_1920__1080
Ergänzung ()

N0Thing schrieb:
Gerade mal nachgeschaut, die Radeon RX 580 ist die am häufigsten verbaute AMD-Karte in der Statistik bei Steam, die unter einem eindeutigen Namen aufgeführt ist.
Da sieht man aber auch, dass die Statistik von billigen Nvidia Karten dominiert wird und nur die wenigsten was für mehr als 400€ haben. Dass die rtx 2060 noch häufiger ist wie jede AMD Karte - echt schwach.
 
Zuletzt bearbeitet:
Clonedrone schrieb:
Bei der 4070 nicht Super lag der Unterschied zur 7800 XT bei Raytracing im Durchschnitt bei 10%. Nur Cyberpunk war ein riesiger Unterschied. Man muss es auch nicht dramatischer machen als es ist.
https://www.computerbase.de/2023-09...chmarks_mit_und_ohne_raytracing_in_1920__1080
[...]
Erstens habe ich die 4070 Super, nicht die "nicht Super", erwähnt (und die liegt viel näher an der 4070 TI), und zweitens gibt es inzwischen aktuellere Vergleiche (Dein Link ist von September '23).
Wenn Du die 7900GRE erwähnt hättest, würde das eher passen (das mit dem RT Vergleich), aber die 7800XT ist nun wirklich keine Überflieger-Karte.
 
NoNameNoHonor schrieb:
und zweitens gibt es inzwischen aktuellere Vergleiche (Dein Link ist von September '23).
Na dann zeig mal
 
Nagilum99 schrieb:
Was hat RAM mit "bringen" zu tun? Du verwechselst Rechenleistung mit Pufferspeicher.
Was redest du für einen Käse?
Wenn der VRAM voll ist dann wird die GPU langsamer da sie erstmal Daten in den VRAM laden muss. Es entsteht eine höhere Latenz was die Bildrate (FPS) stark begrenzt.

Das hat aber auch nichts damit zu tun. Karten wie die 6500 sind bereits schon extrem beschnitten.
Powl_0 schrieb:
Die blöden Dinger verkaufen sich seit über 10 Jahren besser als sie es jemals sollten. Die gibts heutzutage immer noch neu im Handel und bei manchen schamlosen Integratoren.
Erinnert mich an den Agando-PC hust Agua hiess der glaub ich. Ich glaube 600 euro wollten die dafür haben.
GT730 mit FX4300 und 16GB RAM. Der Rechner wurde als Gamingkiste beworben "Einstieg in die Gamingwelt" Das war im Jahre 2020.🤦‍♂️

Mit den Angeboten wundert mich das nicht das sie Pleite gegangen sind.
 
TheChris80 schrieb:
Was redest du für einen Käse?
Wenn der VRAM voll ist dann wird die GPU langsamer da sie erstmal Daten in den VRAM laden muss. Es entsteht eine höhere Latenz was die Bildrate (FPS) stark begrenzt.

Das hat aber auch nichts damit zu tun. Karten wie die 6500 sind bereits schon extrem beschnitten.
...was nichts mit "Leistung" zu tun hat. Der RAM ist lediglich ein Puffer. So lange er nicht zu klein ist, bietet mehr kleinerlei Vorteile.
 
Zurück
Oben