News AMD Radeon RX 8000: Hinweise auf Varianten mit 16 und 12 GB Speicher zum Start

Schade! Hatte eigentlich vor, mir Ende des Jahres oder Anfang 2025 ein neues System zu bauen mit den AMD X3D Prozessoren und einer neuen High End Grafikkarte.

Wenn die jetzt nur alte Brötchen aufwärmen und nix wirklich besseres bringen, wird NVIDIA halt meine Kohle kriegen und es wird eine 4090.
 
Vulvarine schrieb:
und einer neuen High End Grafikkarte.
Das "eine neue High End Grafikkarte" von AMD nicht kommt, wird quasi schon seit Release von RDNA3 gemunkelt bzw. war man sich da auch schon relativ sicher. Die aktuellen Leaks bestätigen diese Vermutung quasi. An eine Überraschung glaube ich nicht - btw. auch nicht an Leistung im Bereich einer 4080(S). Und wenn doch, dann wird die 8800 XT ein teures Stück Hardware :D
 
Ich habe eine 6900 XT, wollte eigentlich mal upgraden, aber der Leistungssprung von den 7000ern war mir zu gering. Hoffe eigentlich, dass sich die 8000er mehr lohnen oder ein besseren Preis haben.
 
  • Gefällt mir
Reaktionen: Simonte
paganini schrieb:
Nach wie vor schade das AMD (vermutlich) nur Mittelklasse kann. Wäre mal wieder schön gewesen einen echten Konkurrenzkampf gerade im absoluten High-End zu haben aber darauf dürfen wir sicherlich noch paar Generationen warten :-(
mit High-End Karten verdient man kein Geld :)
Hatsune_Miku schrieb:
Was gibts denn da am Treiber zu nörgeln ? Hatte mit der 6800XT/6900XT und nun der 7900XTX nicht wirklich was auszusetzen. FSR etc nutz ich eh nicht, das zeug soll einem nur darüber hinwegsehen lassen wie unfähig inzwischen viele entwickler von spielen geworden sind.
Das einzige was ich mir wünsche was die AMD software angeht, das den ihre karten mal in VR allen vorran in VRChat besser ausgelastet werden. Die Karten laufen wirklich gut, aber da ist noch potenzial, voralledem wenn ich sehe das meine XTX bei um die 60-70Prozent last ist aber für einige Latenzen sorgt. FPSVR sagt es mir zumindest und auch das spielgefühl zum teil. Das Game schafft es zum teil nicht die GPU voll auszureizen, und das obwohl die CPU"7950X3D" sich zum teil langweilt. Ich vermute das ist auch teilweise der RDNA3 Architektur geschuldet.
So oder so, bereue ich den Kauf bisher noch nicht. Leistungsmäßig hätte mir auch immer noch die 6900XT gelangt, aber 16GB sind und bleiben für VR sehr kritisch.
Der totale widerspruch bei AMD ist auch leider das auf den CPU verpackungen dick und fett mit VR geworben wird, aber bei den GPUs eiern die rum, unverständlich für mich
Ich habe nicht genörgelt. Ich Liebe Team Rot. Die Software wird besser und besser :)
 
Simonte schrieb:
mit High-End Karten verdient man kein Geld :)
Das sehe ich anders.

eine AMD karte die sagen wir mal 20% schneller als eine 5090 wäre und im RT und Featureset überlegen ist zu einem preis den Nvidia fast nicht halten kann würde über kurz oder lang dafür sorgen das in allen preisklassen mehr GPUs verkauft werden.
 
Solche Kracher wie die 6900 XT oder nahezu "perfekte" Karten wie die 7800 XT müssen her - die Ansätze der letzten Zeit waren gut!
 
Vulvarine schrieb:
Wenn die jetzt nur alte Brötchen aufwärmen und nix wirklich besseres bringen, wird NVIDIA halt meine Kohle kriegen und es wird eine 4090.
Brauchst du denn die Leistung ?
Und wäre es dann nicht Sinnvoller eine RTX 5080 mit gleicher Leistung aber weniger Verbrauch wie die RTX 4090 zu nehmen ?
Mit Frame Generation ist deine Karte eh schon schneller als die RTX 4090.

devanet schrieb:
Ich habe eine 6900 XT, wollte eigentlich mal upgraden
Ist die 6900 XT denn wirklich zu langsam ?
Schonmal RSR oder AFMF in Betracht gezogen falls ja ?
 
  • Gefällt mir
Reaktionen: mckobain und Shoryuken94
Sunjy Kamikaze schrieb:
eine AMD karte die sagen wir mal 20% schneller als eine 5090 wäre und im RT und Featureset überlegen ist zu einem preis den Nvidia fast nicht halten kann würde über kurz oder lang dafür sorgen das in allen preisklassen mehr GPUs verkauft werden.
Die Logik erschließt sich mir nicht. Warum sollte eine Firma eine Karte mit Verlust verkaufen nur in der Hoffnung, mehr "billigere" Karten abzusetzen?
 
  • Gefällt mir
Reaktionen: Rockstar85 und Shoryuken94
ETI1120 schrieb:
Und schürst damit Erwartungen.

Da wir eh auf keinen grünen Zweig kommen versuche ich mich kurz zu fassen und danach ist das Thema für mich auch durch.

Das Erwartungsmanagement muss jeder selbst für sich übernehmen. Welche Erwartungen jemand anhand von leaks hat, kann ich nicht bestimmen. Das ist nichts anderes als bei einem Trailer zu einem Spiel. Manche haben Erwartungen, obwohl sie nichts wissen und manche nehmen es in und schauen, wie das finale Produkt wird. Und viele diskutieren auf Basis von Leaks Möglichkeiten und nutzen es als Anlass zum Austausch.

ETI1120 schrieb:
Bei den Leaks von AllTheWatts hieß es

Die Kunst bei Leaks ist es nicht auf einzelne Quellen zu vertrauen, sondern versuchen ein halbwegs kongruentes Gesamtbild abzuleiten. Das kann mal mehr mal weniger gut klappen, die meisten Leaks stammen aus Teilbereichen eines projektes oder aus Zuliefererkreisen. Natürlich hat niemand eine fertige Karte rumliegen samt fertigen Treiber. Aber durch zusammensetzen der Einzelbilder kann man oftmals zumindest ein unscharfes Gesamtbild erahnen. Niemand behauptet auf den Prozentpunkt genau etwas zu wissen.

Über solche Leaks kann man diskutieren oder man kann sich raushalten. Muss jeder für sich entscheiden.

Und damit ist zumindest dieser Punkt für mich auch durch.
 
  • Gefällt mir
Reaktionen: Rock Lee
Nighteye schrieb:
Ist die 6900 XT denn wirklich zu langsam ?
Schonmal RSR oder AFMF in Betracht gezogen falls ja ?

Würde mir in 1440p mittlerweile auch etwas mehr Leistung wünschen in manchen Spielen, als meine übertaktete 6800XT liefert. Bin bei AMD aber auch kein Fan von RSR, FSR oder Framegen.

Qualitativ ist das Upscaling für mein Geschmack in 1440p zu schlecht in den meisten Spielen und Framegen nützt mir nichts. Mehr Frames ohne bessere Latenz reizt mich jetzt nicht so sehr. Ray Tracing ist ein anderer Punkt. Selbst mit Tricks ist da die Performance in einigen Titeln nicht sonderlich toll
 
  • Gefällt mir
Reaktionen: Nihil Baxxter und devanet
Shoryuken94 schrieb:
Mehr Frames ohne bessere Latenz reizt mich jetzt nicht so sehr.
Ich kann dass echt nicht verstehen. Ich Zock ja schon ewig mit Frame Gen, und bin in Battlefield tausende male in den Top 3. Also so heftig kann der Input Lag garnicht sein.
Und jetzt mit Frame Gen 2 soll der Input Lag laut PCGH Test für manche garnicht mehr spürbar sein.
Und der unterschied zwischen Frame Gen aus und an war kaum im Blindtest zu bemerken.
Du hast evtl 1-2% Bild Qualy Nachteil, aber 100% Leistungszuwachs.
Dadurch übertrumpft deine alte 429€ RX6800XT jede RTX 4090.
 
Puh, ich weiß ja nicht. Finds schon schade, dass AMD nun schon seit längerer Zeit im High-End Bereich Nvidia nichts mehr entgegenzusetzen hat...mehr Konkurrenz wäre schon nicht schlecht.
 
Nighteye schrieb:
Ich kann dass echt nicht verstehen. Ich Zock ja schon ewig mit Frame Gen, und bin in Battlefield tausende male in den Top 3. Also so heftig kann der Input Lag garnicht sein

Es geht weniger um den Input Lag, sondern das die Fake Frames keine Verbesserung in der Latenz bringen im Vergleich zu echten Frames. Mir nutzen in schnellen Spielen mehr FPS nichts, wenn Sie spielerisch im Besten Fall nichts bringen.

Zudem ist die FSR Framegen oft an die Nutzung von FSR gekoppelt, was in vielen Spielen für meinen Augen schrecklich aussieht und AFMF macht in Schnellen Spielen auch nicht wirklich Spaß
 
  • Gefällt mir
Reaktionen: devanet
Mickey Cohen schrieb:
schon witzig dass das Speicherinterface 2024 genauso breit ist wie 2004.
Die Breite des PCBs hat sich halt nicht wirklich erhöht und die Anforderungen an die Leitungen (Guard Rails, Abstände, maximale Anzahl an Durch Kontaktierungen) sind deutlich gestiegen. Da steigen Lagenanzahl und Anforderungen ans Material massiv.

Dazu haben die Caching Lösungen die es seit RDNA2/Ada gibt mehr Vorteile bei der Leistungsaufnahme (auch wenn sie vermutlich teurer sind).
 
Shoryuken94 schrieb:
Zudem ist die FSR Framegen oft an die Nutzung von FSR gekoppelt
FSR ? Also Upscaling ?
Ich nutze jedenfalls nur RSR und Framegen um meine FPS zu verdreifachen und hab dadurch 400fps average in BF2042 1440p high details mit einer um 500mhz runtergetakteten RX6800 nonXT 16GB (neupreis war um die 370 tacken damals)

Shoryuken94 schrieb:
Es geht weniger um den Input Lag, sondern das keine Verbesserung in der Latenz
Latenz ? Kenne nur Ping und ms Reaktionszeit vom Bildschirm. Was ist jetzt Latenz :D ?

Ich hab jedenfalls immer 2ms falls du dieses meinst.
SC 700 Hours average fps.jpg

Und ich nutze nur das alte Frame Generation und einen 3 Monate alten Treiber.
Also ich könnte noch bessere Leistung mit AFMF 2 haben aber bin schon zufrieden da ich doppelt so viele FPS habe wie alle RTX4090 Nutzer in dem Spiel. Und das bei nur 120W GPU Verbrauch bei 99% GPU auslastung.
Meine GPU Lüfter laufen sogar auf den niedrigst möglichen Einstellungen, und die Karte schwankt zwischen 69 und 70C° bei 99% GPU Load. Absolut unhörbar. (Und ich Wohne im Dachgeschoss und hab hier 30C°)
Lüfter Settings RX6800 XFX.png

RX6800 XFX.png

Ich würde allein aufgrund des Radeon Treibers der Frame Gen, Undervolting, Chip & Ram underclocking, Präzises Lüfter Tuning bei jeder Temperatur ermöglicht, nie zu einer Geforce greifen, sondern die neuen RDNA 4 RX 8000er bevorzugen. Bei Geforce brauchst du MSI Afterburner und diese Kostenpflichtige Steam App Lossless Scaling, und hast dennoch weniger Optionen und nachteile gegenüber dem Radeon Treiber.
Davon können die 500W RTX 4090 die eine Ausfallrate von 50% laut diversen Youtube Videos haben nur träumen.
Also Fazit:
Wer letztes Jahr für zb Star Citizen 2000€ eine RTX4090 gekauft hat, hat ein schlechtes Geschäft gemacht.
Eine RX6800nonXT gabs für 369€ (6800XT sogar 429€) und ist bis 300% schneller in dem Spiel.
Und das obwohl die RTX 4090 400% mehr verbraucht und 500% mehr kostet und eine Generation neuer ist.
Dazu noch die Hitze, und dass Massensterben von Netzteilen und RTX 4090 wovon man tausende Reddit Topics hat. Da verzichte ich lieber auf 1% Bildqualität und hab eine 800% Effizientere Karte. (300% Speed bei 1/5 Strom verbrauch)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Raidiri
Sunjy Kamikaze schrieb:
einem preis den Nvidia fast nicht halten kann würde über kurz oder lang dafür sorgen das in allen preisklassen mehr GPUs verkauft werden.
in welchem Leben wird das passieren. AMD hat es bisher noch nie so gehabt. Sie waren zwar mal besser gewesen aber nvidia hat die Preise dennoch nicht reduziert und es griffen die meisten leider noch immer zu nvidia also AMD hat keine Chance egal was sie machen, leider.
 
@Shoryuken94 schön die Gerüchte und Aussagen hier im Thread sachlich eingeordnet ohne überheblichen Unterton. Top! :daumen:

Bin mal gespannt wie groß der Infinity Cache bei Navi48 wirklich wird. An die 96MB L3 glaube ich aktuell nicht so wirklich. Ist einfach eine unrunde Zahl im Verhältnis zum Speicherinterface.

Schaut man sich die bisherigen Chips mit IC an, so hatten die beiden Chips , welche als erstes released wurden (Navi21 und 22) ein Verhältnis zu 1 (MB) zu 2 (bit). Also 128MB Infinity Cache stehen 256bit Speicherinterface gegenüber.
Alle Chips, die später released wurden. D.h. Navi23,24,31,32 und auch 33 hatten stehts ein Verhältnis von 1 zu 4. Also bei der 7800XT 64MB und 256bit. Das wäre auch die Kombination, die ich bei Navi 48 am realistischsten halte.
An 33 und auch 24 hat man gesehen, dass AMD grade bei den kleineren Chips lieber Einheiten (wie Registry, oder Encoder-Funktionalität) opfert und die Packdichte erhöht, um einen möglichst kleinen Chip zu generieren.
Wenn Navi48 ein gespiegelter (aber monolithischer, ähnlich wie 22 zu 21) Navi44 ist, dann könnte der Hang zur Sparsamkeit ebenso auf Navi48 zutreffen, so dass man eher nicht großzügig mit Infinity Cache umsich wirft.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Zurück
Oben