News AMD Radeon RX 8000: Hinweise auf Varianten mit 16 und 12 GB Speicher zum Start

Ich hab ein wenig hoffnung ds ich eine 8800XT zumindest auf 7900XTX leistung übertakten kann und dabei noch einiges an RT leistung bekomme.
 
tomgit schrieb:
Anhand des VRAMs würde ich auch davon ausgehen, dass diese Grakas nicht gerade mit der 7900XT(X) konkurrieren, zumal AMD in den letzten Jahren immer etwas spendabler beim VRAM war. Die langsamste 16GB VRAM Karte von AMD ist ne 6800.
Hier habe ich letztens etwas interessantes zu AMD gelesen, nämlich eine KI Lösung um die Si Bandbreite des Speichere besser auszulasten. Vllt werden wir noch überrascht.
 
  • Gefällt mir
Reaktionen: danyundsahne
Ok das erklärt wohl das die oberste wird dann wahrscheinlich 4070ti ungefähr gleich ziehen, aber eben auch nicht für 500, die kleine die dann um die 500 kostet wird wohl eher deutlich zurück liegen... gosh mit 12gb ich weiß gar nicht wie man das verkaufen will... da muss man ja schon an der 4070 zweifeln oder soll die dann 300-380 kosten? die 7800 hat doch schon mehr VRAM, egal wie schnell die ist mit 12gb kannst nicht mehr wie 400 verlangen, ja vielleicht die dann 400 und 600 mit der man 10% hinter 4070 ti super ist oder so... mit viel Glück.

Der Joker könnte noch der Stromverbrauch sein vielleicht kriegt das AMD eingeloggt dann ist die Enttäuschung über nicht deutlich bessere Preis/Leistung nicht so schlimm. Klar man wird wohl mit RT massiv zulegen, aber das juckt mich bei nem 12gb Modell dann auch kaum mehr.

Gut die 7800 kostet immer noch 480 Euro also 450 wenn sonst ne super Karte ist kann man vielleicht verlangen aber bei mir wirds nur ne riesen Enttäuschung, fürchte aber das die für die mehr als 500 verlangen... dann also beim Release wieder riesen gekotze :D

Die 7900XT mit 20gb kostet ja jetzt noch 700 bis zum release vielleicht noch weniger, auch mit mehr RT speed wird man kaum mehr rechtfertigen können also vielleicht 600-650 euro... das wäre dann halbwegs gut, wenn man damit der 4070 Ti Super einheitzt die es grad für 800 gibt, selbst wenn man 5% hinten läge wäre das immer noch sehr gutes Preis/Leistungsverhältnis aber ja viel mehr kann AMD auch nicht verlangen.
 
Offensichtlich kapieren einige Leute hier im Forum AMDs Vorhaben nicht...

1) AMD hat in der heutigen Zeit einen relativ schlechten Stand bei PC-Gamern. Das hat unterschiedliche Gründe. Der Hauptgrund ist aber höchstwahrscheinlich: völlige Verblödung. Also ein großes gesellschaftliches Problem, welches hauptsächlich durch Smartphones und Social Media befeuert wird. Dies äußert sich u.a. durch extrem einseitige Kaufentscheidungen bei Konsumenten, weil sie sich im Gegensatz zu früher viel einfacher von großflächiger Werbung manipulieren oder gehirnwaschen lassen. Der Begriff Smartphone-Zombie trifft es eigentlich perfekt!

2) AMD muss bei RX 8000 nicht unbedingt schnellere Karten als die RX 7800 XT bringen. Den größten Markt bilden mit Abstand immer noch Mittelklasse- und Einsteiger-Grafikkarten. Damals war die Radeon RX 480/580/590 doch eine beliebte Lösung bei sehr vielen (vernünftigen) PC-Gamern. Ob das heutzutage bei der besagten zunehmenden Zombiefizierung der Menschheit ebenfalls so gut funktioniert, wird sich zeigen. Voraussetzung hiefür sind natürlich erst einmal günstige Preise bei RX 8000.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, Rock Lee, Cyberpunk61 und eine weitere Person
Also wenn die 8000er Reihe Raytracing kann, dann würde mir das schon reichen 😁
 
  • Gefällt mir
Reaktionen: Shoryuken94
Shoryuken94 schrieb:
Kennst du denn die konkrete Leistung schon? In den aktuellsten Gerüchten wird von ca 4080 Non RT Performance und 4070Ti Super Leistung bei RT gesprochen, in AMD optimierten spielen eher Richtung 4080. +- ein wenig und ungewisses OC Potential.
Es hat noch nie geschadet bei den Erwartungen zurückhaltend zu sein.
Überzogene Erwartungen führen unweigerlich zur Enttäuschung.

Die Performance in synthetischen Benchmarks ist nur innerhalb derselben Architektur ein Hinweis auf die Gaming Performance. Deshalb wäre ich bei den Milchmädchen Rechnungen vorsichtig, wie sie im Forum von 3D Center gemacht wurden.

Shoryuken94 schrieb:
Der Vram sagt doch nichts über die Leistung aus. Bei einem gesunden und nicht zu teuren Speicherinterface für eine Mittelklasse GPU von 256 Bit ergeben sich eben nicht viele sinnvolle Speicherbestückungen. Da sind mit aktuellem Ram eben nur 8,16 oder 32GB möglich.
Das Speicherinterface, das man einer GPU gibt, sagt etwas über den Bedarf an Bandbreite aus.
Es kann natürlich sein, dass eine neue Architektur die Speicherbandbreite besser nutzt. Aber solche Verbesserungen wie bei RDNA2 gibt es nicht so oft.

LOLO_85 schrieb:
Zum Thema Ram: Gäbe es nicht eine Möglichkeit von z.B. 24GB Ram? Bei Ally X oder ryzen ai 9 365/370 bit es ja diese Bestückung wohl ohne Einschränkung oder wird diese nicht angesprochen?
GDDR Chips haben ein Speicherinterface von 32 Bit. GDDR6 Chips gibt es mit 1 und 2 GByte.

Wenn die GPU ein Speicherinterface von 256 bit hat kann man ohne zusätzliche Beschaltung 8 GDDR6 Chips anschließen. Das ergibt insgesamt 8 oder 16 GByte.

Durch zusätzliche Beschaltung kann man 16 Chips anschließen. Damit sind insgesamt 32 GByte möglich.

Bei einem Speicherinterface mit 256 bit sind 24 GByte nicht realisierbar. Für 24 GByte an einem 256 bit Speicherinterface sind GDDR Chips mit 3 GByte erforderlich. GDDR Chips mit 3 GByte wird es erst mit GDDR7 geben.

Philste schrieb:
Da musste ich schmunzeln, war Kepler doch einer der lautesten "ZEN5 hat 30+% IPC und wird alles andere zerstören"-Fraktion.
Kepler hatte dann brauchbare Infos, wenn sie direkt aus den Open Source Treibern stammten.

Bei allem anderen Dingen ist die Trefferquote von Kepler sehr durchwachsen.

Bei allem was die Performance angeht kann man Kepler schlicht und einfach vergessen. Hier diktiert alleine das Wunschdenken.

Shoryuken94 schrieb:
Aktuell ca. 4080 Raster Performance und je nach Spiel 4070Ti super bis 4080 leistung im Raytracing
Wenn wir noch ein bisschen warten kommt ganz sicher noch beinahe die Performance der 4090 raus.

Das einzige was zählt ist die Performance in den unabhängigen Spieletests. Und die hat bei AMD selten etwas mit den Gerüchten zu tun die zuvor kursierten.
Sunjy Kamikaze schrieb:
ihc kann einfach nicht glauben das AMD bei so einem kleinen Die keine größere Variante alias 8900XTX bringt.
Alle Navi Dies waren nach folgendem Schema benannt:
1. Ziffer: Generation
2. Ziffer: Chronologische Reihenfolge der Projekte. Üblicher weise kommen starten die großen Dies zuerst.

Es gibt nach übereinstimmenden Leaks nur 2 Dies, Navi 44 und Navi 48.

Wenn AMD keine Spielchen mit den Die Bezeichnungen betreibt, wurden Navi 41 ... 43 eingestellt und diese waren die größeren Chips. Es deutet einiges darauf hin dass Navi 48 ein verdoppelter Navi 44 ist.

Da aber Navi 44 mit 32 CUs ein sehr kleiner Chip war, ist eben auch die verdoppelte Variante Navi mit 64 CUs bestenfalls Mittelklasse. Das Verdoppeln eines Chips spart im Vergleich zu einen kompletten neuen Chip erheblich an Ressourcen und Entwicklungszeit. Für einen größeren Chip war es wohl zu spät.

fox40phil schrieb:
maximal 64CUs?! Wieso nicht 2x 64CUs zusammenbringen?! Was ist mit dem Chiplet Design geworden...vor Jahren prophezeit etc... jetzt fährt man nur noch im 3. Gang oder wie?
Das wurde bei der MI300 umgesetzt.

Einige Gerüchte behaupten, dass das Einstellen von Navi 41 ... 43 daher rührt, weil etwas mit dem Chipletansatz schief lief.
 
  • Gefällt mir
Reaktionen: fox40phil
Cabranium schrieb:
Zu dieser Aussage hätte ich gerne eine Erklärung.
Die Engine basiert quasi auf der Cry Engine und liegt von Natur aus eher Radeons.
Dazu kommt. CIG (Die Softwareschmiede von dem Spiel) benutzt zu 99% Radeon Karten.
Dies sorgt für den Umstand dass es noch besser für Radeon Optimiert ist.
Und die ganzen Geforce Nutzer hier meckern dann weil ihre Geforce von günstigen Radeons überholt wird.
Das ist quasi so ähnlich wie bei dem PCGH Call of Duty test, wo eine 300€ Radeon auf RTX 3080 niveau läuft.
RDNA 2 war hammer.jpg

Bei dem Test war eine RX6700XT (gabs mal für 300€ bevor sie vom Markt verschwand) so schnell wie eine RTX3080.
Und die RX6800XT (426€ laut Geizhals, aber lag letztes Jahr bei ca 480€) war sogar deutlich schneller als die 2000€ Teure Geforce 3090ti.
450€ Radeon schneller als 2000€ Geforce.jpg

Und das alles schon ohne Frame Generation.
Heutzutage wäre AMD nochmal 2x schneller mit der ganzen Software überlegenheit durch AFMF 2 + RSR etc.
Nvidia supportet die RTX 3000 Serie eh nicht mehr, bei Radeon dagegen gibts rückwirkend bis RDNA 1 noch Updates was Software Features wie Frame Generation etc angeht.
Bei Radeon funktioniert dass auch für alle Spiele, weil es auf Treiber Basis läuft.
Nvidia hat Frame gen nur wenn die Entwickler es für Nvidia einbauen, und nicht von sich aus.
Und Star Citizen ist halt auch so ein Spiel wo Geforce total abschmiert, und eine RX6700XT mal eben 200fps in Hauptstädten bringt, wo RTX4090 user gerade mal 100fps max schaffen, aber average eher nur 50-70fps.
conglom-o schrieb:
Thread auch mal gelesen?
Ja, warum ? Geben alle RTX4090 User da auch zu dass sie so wenig fps haben und nicht an die 200fps in area 18 ran kommen. Sagen halt das Spiel ist nicht Optimiert.

Herzaaa schrieb:
Star Citizen ist auch Datenmüll, weiß nicht wieso man da Benchmarks als relevant darstellen will..
Wenn es so schlecht wäre, hätte ich Garantiert nicht so viele Spielstunden. Und ich besitze das Spiel erst 2 Jahre.
Und es sieht von der Grafik besser aus als ein Battlefield 2042, und läuft bei mir auch besser als ein BF2042.
 

Anhänge

  • SC 700 Hours average fps.jpg
    SC 700 Hours average fps.jpg
    64,2 KB · Aufrufe: 37
  • BF2042 400h 400fps.jpg
    BF2042 400h 400fps.jpg
    6,8 KB · Aufrufe: 38
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cabranium
ETI1120 schrieb:
Es hat noch nie geschadet bei den Erwartungen zurückhaltend zu sein.
Überzogene Erwartungen führen unweigerlich zur Enttäuschung.
Ich habe keinerlei Erwartungen, ich gebe lediglich wieder, was Leaker berichten. Da es zumindest lauffähige Chips gibt, was aus Benchmarkergebnissen hervorgeht, sind hier Leaks meistens schon ein guter Indiz. Und nicht so aus der Luftgegriffen wie bei Architekturen, die ur auf dem Papier existieren

ETI1120 schrieb:
Das Speicherinterface, das man einer GPU gibt, sagt etwas über den Bedarf an Bandbreite aus.

Das ist immer sehr mit vorsicht zu genießen, besonders bei heutigen recht komplexen Architekturen, da z.B. der Einsatz von großen Caches hier das Bild verzerren können. Da wir bisher nicht viel zum Aufbau der Chips wissen, kann man da relativ wenig draus abliten. Das gilt auch füür die Anzahl der CUs. Auch wenn sehr unwahrscheinlich, kann die Anzahl der recheneinheiten pro CU theoretisch variieren.
ETI1120 schrieb:
Aber solche Verbesserungen wie bei RDNA2 gibt es nicht so oft.

Das ist aber eher die Regel, als die Ausnahme, da die Speicherbandbreite in Relation zur Rechenleistung in den letzten jahren deutlich weniger gestiegen ist.

ETI1120 schrieb:
Wenn wir noch ein bisschen warten kommt ganz sicher noch beinahe die Performance der 4090 raus.

Die angenommene Leistung von navi 48 hat sich über die Zeit kaum verändert. Schon vor längerer Zeit wurde eine Leistung im Bereich der großen RDNA Chips angenommen, was sich jetzt mehr und mehr abtzeichnet. Die 7900 XTX ist schneller als die 4080 in normalen Spielen, die 7900Xt etwas geringer. Niemad hat bisher je angenommen, dasss die RDNA4 mittelklassechips darüber hinausgehen.

Durch die Kooperation mit Sony wo in der PS5 Pro ebenfalls eine RDNA GPU einer neuerer Generation zum Einsatz kommt, gibt es zudem ein paar Hinweise, wie AMD die deutliche Steigerung bei der RT Leistung erreichen könnte.
ETI1120 schrieb:
Das einzige was zählt ist die Performance in den unabhängigen Spieletests.

Ob sich das ganze am Ende auch in Spielen so niederschlagen wird, muss sich zeigen. Aber die gerüchte klingen bisher nicht völlig aus der Luft ggriffen oder daherfantasiert, sondern passen zumindest zu früheren Leaks und der angenommenen Die Größe. Und das AMD mit der neuen mittelklasse die alte Oberklasse erreicht, ist nun nichts außergewöhnliches, sondern eher die Regel, als die Ausnahme. Wie es am Ende wird, wird sich zeigen.

ETI1120 schrieb:
Und die hat bei AMD selten etwas mit den Gerüchten zu tun die zuvor kursierten.

Da kann AMD in beide Richtungen überraschen. Wobei die Gerüchte zu RDNA3 auch nicht soweit weg waren, zumindest von dem, was AMD bei der Ankündigung gesagt hat. Da sagte AMD noch etwas von 50-70% Mehrleistung gegenüber der 6950XT. Ja das wurde nicht erreicht, über die Gründe mag man streiten. Aber die Leaker, teils die gleichen wie bei RDNA 4, hatten recht gut vorausgesehen, was AMD geplant hat. Warum man die Leistung die angekündigt wurde nicht auf die Straße bringen kann, ist eine andere Frage.

Das die aktuellen Leaks also in etwa das wiederspiegeln was AMD selbst plant, kann durchaus möglich sein. Was davon in spielen ankommt, werden unabhängige Tests zeigen müssen.
 
  • Gefällt mir
Reaktionen: Rock Lee
TigerherzLXXXVI schrieb:
Offensichtlich kapieren einige Leute hier im Forum AMDs Vorhaben nicht...
Offensichtlich verstehst Du nicht wie die Welt tickt.

Wenn Kunden mit einem Produkt einer Marke zufrieden sind, schauen sie sich bei einer Neuanschaffung zuerst die neuen Produkte der Marke an. Nur wenige zufriedene Kunden schauen sich wirklich nach Konkurrenzprodukten. Und dann bleibt immer die Hürde, dass man mit der alten Marke gute Erfahrungen gemacht hat und die neue eben nicht kennt.

Das ist schon lange so, und ist bei den Grafikkarten grundsätzlich nicht anders.
Das besondere bei den Grafikkarten ist, dass Nvidia nur sehr wenig gepatzt hat, während bei AMD über die Jahre einiges schief ging. Damit hat Nvidia sich bei den dGPUs eine überragende Marktstellung erarbeitet.

TigerherzLXXXVI schrieb:
1) AMD hat in der heutigen Zeit einen relativ schlechten Stand bei PC-Gamern.
Nvidia hat einen sehr guten Stand bei den PC Gamern. Nvidia hat über die letzten Jahre massiv an der Performance-Schraube gedreht und einige neue Features kreiert. Diese Features wurden für viele Gamer zu wichtigen Produktmerkmalen. Und sei es nur weil man die Features für in der Zukunft wichtig erachtet.

AMD konnte bei der Performance der Hardware so leidlich mithalten. Aber AMD kann einigen Features wenig entgegen setzen. Die Versuche, sich mit mehr Speicher zu profilieren, fruchten nicht. Kosten AMD aber indirekt viel Geld. Eigene Features zu kreieren und durchzusetzen ist für AMD als den deutlich kleineren Marktteilnehmer nicht möglich.

TigerherzLXXXVI schrieb:
Das hat unterschiedliche Gründe. Der Hauptgrund ist aber höchstwahrscheinlich: völlige Verblödung.
Schau bitte Mal in den Spiegel.

TigerherzLXXXVI schrieb:
2) AMD muss bei RX 8000 nicht unbedingt schnellere Karten als die RX 7800 XT bringen. Den größten Markt bilden mit Abstand immer noch Mittelklasse- und Einsteiger-Grafikkarten.
Und? Auch hier verkauft Nvidia viel mehr Grafikkarten als AMD. Und wenn AMD keine Oberklasse anbietet, fällt es Nvidia noch leichter Grafikkarten der Einsteiger und Mittelklasse zu verkaufen.

Es gibt genügend Hinweise, dass AMD es nicht geplant hatte, nur in diesem Marktsegment anzubieten.
 
  • Gefällt mir
Reaktionen: Innocience, DaHell63 und conglom-o
Ihr sprecht hier von mickrigen 12-16GB, dabei will ich 32GB oder am besten noch 48GB!
 
  • Gefällt mir
Reaktionen: Hatsune_Miku und hans_meiser
Shoryuken94 schrieb:
als 4K Nutzer schaut man bei AMD ziemlich in die Röhre
Also meine Fury X wurde als 4K Karte vermarktet xD

Zudem besteht noch die Möglichkeit von modernen FSR 3.x wenn das Spiel es unterstützt.

Viele Games klappen auch auf meiner aktuellen 7800 XT in 4K nur nicht immer in allen Details oder 199 FPS.
Zudem empfinde ich mit Freesync niedrige FPS nicht mehr als so störend wie früher.
Wenn ich dann noch OLED hätte… auch ein Traum mit AMD und 4K.

aber wie alles… das sind meine Eindrücke und Empfindungen.
 
  • Gefällt mir
Reaktionen: danyundsahne
Mal so rausgelabert, mir erscheint es, als macht AMD das richtige auf hardware-Ebene: erneuern, gut sein, nicht die Brachstange versuchen wo NVIDIA eh gewinnt. Nicht zu viel investieren, aber genug um eine neue Plattform zu bauen. Alles mal sacken lassen.

Ergibt für mich Sinn. Vielleicht kann dann halt mal auf software-Ebene mehr investiert werden. AMD Ingenieure sind nicht dumm, es sind halt nicht genug. Ich hoffe, da fließt mal was Kohle rein.

Weiß ich was? Näh. Hoffe ich? Ja.
 
  • Gefällt mir
Reaktionen: danyundsahne
Shoryuken94 schrieb:
Ich habe keinerlei Erwartungen, ich gebe lediglich wieder, was Leaker berichten.
Und schürst damit Erwartungen.

Navi 48 hat 64 CUs. Die 7900XTX hat 96 CUs. RDNA3 skaliert gut bis 96 CUs, aber natürlich nicht perfekt.
Um einen Gleichstand zu erzielen muss Navi 48 je CU ca. 42 % mehr leisten als die 7900XTX.

Shoryuken94 schrieb:
Da es zumindest lauffähige Chips gibt, was aus Benchmarkergebnissen hervorgeht, sind hier Leaks meistens schon ein guter Indiz.
Leaks waren weder bei RDNA2 noch bei RDNA3 ein brauchbares Indiz. Und lauffägige Chips gab es damals auch.

AMD hat sehr effektive Methoden die Performance zu verschleiern. Weder bei RDNA2 noch bei RDNA3 gab es vor dem Release Leaks mit relevanten Benchmarks.

Shoryuken94 schrieb:
Die angenommene Leistung von navi 48 hat sich über die Zeit kaum verändert. Schon vor längerer Zeit wurde eine Leistung im Bereich der großen RDNA Chips angenommen, was sich jetzt mehr und mehr abtzeichnet.
Das stimmt nicht.

Bei den Leaks von AllTheWatts hieß es Navi 48 ist schneller als 7900GRE und langsamer als 7900XTX. Das wurde im Frühjahr akzeptiert und es wurde diskutiert, ob Navi 48 an die 7900XT rankommt.

Also dass die Navi 48 an die 7900XTX rankommt ist eine neue Entwicklung des Wunschdenkens. Zwischen der 7900XT und der 790XTX liegen bei 2560x1440 15% und bei 3840x2160 18%

Es zeichnet sich auch rein gar nichts ab. Man kann mit den Engineering Samples keine brauchbaren Ergebnisse aus Benchmarks bekommen.

Shoryuken94 schrieb:
Wobei die Gerüchte zu RDNA3 auch nicht soweit weg waren, zumindest von dem, was AMD bei der Ankündigung gesagt hat.
Laut einigen Leaks sollte Navi 33 schneller als die 6900XT sein. Und von den "Allmost 4 GHz" fangen wir gar nicht erst an.

Die Frage vor der offiziellen Vorstellung war, ob der Vollausbau der Navi 31 an die 4090 rankommt oder nicht. Wenn man die genannten Shaderzahlen heranzog, war dies nicht unrealitisch. In dieses Horn stieß der Hypetrain. Es gab auch warnende Stimmen und einige Hinweise (Die Size, Preise von Nvidia), dass es nicht reichen wird.

Nach der offiziellen Vorstellung war klar, dass es zur 4090 nicht reicht. AMD hat auch nur die halben Shaderzahlen aus den Leaks genannt. Ich kenne kein Leak zu RDNA3 das verstanden hat, was es mit Dual Vector bzw. Dual Issue auf sich hat. So war die halbe Anzahl der Shader eine unliebsame Überraschung.

Und ein klarer Hinweis dafür, dass kein Leaker Zugriff auf die GPUs hatte. Warum sollte dies bei RDNA4 anders sein?

Die Benchmarks von AMD bei der offiziellen Vorstellung suggerierten, dass die 7900XTX so etwa in der Mitte zwischen 4080 und 4090 liegt. Und die 7900XT sollte im Bereich der 4080 liegen.

Als die unabhängigen Tests veröffentlicht wurden, war klar, dass AMD bei der offiziellen Vorstellung die Performance falsch dargestellt hat. Anstatt 15 % lag die 7900XTX 30 % hinter der 4090.
Die 7900XTX lag somit im Schnitt nur ein bisschen vor der 4080. Die 50 % Effzienzsteigerung die AMD reklamiert hat, wurden bis heute nicht gefunden.

Ach ja und AMD musste den Vollausbau der Navi 33 als RX7600 vermarkten. RX7600XT wäre zu peinlich geworden. Nix mit 6900XT Performance.
 
LOLO_85 schrieb:
Zum Thema Ram: Gäbe es nicht eine Möglichkeit von z.B. 24GB Ram? Bei Ally X oder ryzen ai 9 365/370 bit es ja diese Bestückung wohl ohne Einschränkung oder wird diese nicht angesprochen?
Die 24 GB für Spitzenkarten, aber auch 18 GB statt 12 GB bei Mittelklasse 192 Bit?

Es bewegt sich zuwenig bei der DRAM Größe.
 
@Shoryuken94 und @ETI1120 hört auf euch wegen Gerüchten die Köpfe einzuschlagen. Niemand außer den Jungs und Mädels bei AMD weiß was die RDNA4 kann und was nicht.
Aus den Leaks der letzten beiden Generationen sollte man mitnehmen das erst unmittelbar vor Release brauchbare Infos kommen. Die 4090 sollte doch 900w schlucken die anderen Karten auch an die 450-600w. Gut die Kühlkörper dieser Generation bei AMD und Nvidia sehen auch so aus.
Was für mich ein Indiz ist das bei AMD irgendwas richtig schief gelaufen ist bei RDNA3 und man es erst merkte als es zu spät war. Deswegen diese Brocken von GPUs die wir haben.
Für mich bleibt es spannend mehr aber auch nicht. In 2-3 Monaten wissen wir dann schon mehr, die PS5 PRO könnte ja ein Vorgeschmack auf die RT Leistung von RDNA4 bieten. Da bin ich sehr gespannt ob die Gerüchte stimmen und die Shader jetzt bei AMD mehr RT Berechnungen übernehmen und somit ein großer Bremsklotz bei AMD in RT verschwindet.
 
  • Gefällt mir
Reaktionen: Rockstar85
Hatsune_Miku schrieb:
Ich würde mich wirklich freuen wenn AMD wieder so einen überraschungkracher wie die 6900XT bringt, die hatte ja so damals niemanad erwartet, also von der leistung her.
Ich freue mich wenn sie das greifen nach der Krone lassen. Die neuen Modelle erschwinglich machen. und weiter an Adrenalin werkeln damit das Argument "Aber DLSS" bald ganz verschwindet ^^
Dann kann meine 6900xt auch gut altern wenn die Software immer besser wird :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und Brrr
ThePlayer schrieb:
Alleine die 30-50% bessere RT Performance würde mich als 7900XT User zu dieser Karte greifen lassen wenn der Preis stimmt. Mehr RT Performance ist das einzige was ich bei meiner 7900XT vermisse.
Warum hast du dann eine 7900XT gekauft?
 
Simonte schrieb:
Ich freue mich wenn sie das greifne nach der Krone lassen. Die neuen Modelle erschwinglich machen. und weiter an...
Was gibts denn da am Treiber zu nörgeln ? Hatte mit der 6800XT/6900XT und nun der 7900XTX nicht wirklich was auszusetzen. FSR etc nutz ich eh nicht, das zeug soll einem nur darüber hinwegsehen lassen wie unfähig inzwischen viele entwickler von spielen geworden sind.
Das einzige was ich mir wünsche was die AMD software angeht, das den ihre karten mal in VR allen vorran in VRChat besser ausgelastet werden. Die Karten laufen wirklich gut, aber da ist noch potenzial, voralledem wenn ich sehe das meine XTX bei um die 60-70Prozent last ist aber für einige Latenzen sorgt. FPSVR sagt es mir zumindest und auch das spielgefühl zum teil. Das Game schafft es zum teil nicht die GPU voll auszureizen, und das obwohl die CPU"7950X3D" sich zum teil langweilt. Ich vermute das ist auch teilweise der RDNA3 Architektur geschuldet.
So oder so, bereue ich den Kauf bisher noch nicht. Leistungsmäßig hätte mir auch immer noch die 6900XT gelangt, aber 16GB sind und bleiben für VR sehr kritisch.
Der totale widerspruch bei AMD ist auch leider das auf den CPU verpackungen dick und fett mit VR geworben wird, aber bei den GPUs eiern die rum, unverständlich für mich
 
Zurück
Oben