News AMD-Gerüchte: Rückkehr zu High-End-GPUs und X3D-Cache für die PlayStation 6

Bitcoon schrieb:
Und wenn X3D doch so gute Performance in Games bringt, ist es ja nur logisch es auch in Konsolen zu brbringe
Wenn AMD extra Chiplet 12-Core für Desktop bringt, dann wäre Zweitnutzung für die PS/6 zweite Begründung.
Tippe mal auf 8x Zen 6 plus 4x Zen 6c als weiteren Boost.

Dazu in N4C ein I/O-Chip mit ebenfalls 3D-Cache für 256 Bit GDDR7 RAMs

Das mit großen N3P Chip der WPs verbunden.
 
  • Gefällt mir
Reaktionen: Bitcoon
Naja, macht Sinn aus zwei Gründen:

1. Sind die optischen Fortschritte sonst sehr überschaubar und regen kaum zum Neukauf an
2. Sind die Kunden bereit nahezu jeden Preis zu zahlen für Hardware wie man sieht

Also kann man sich als Sony schon fragen: why not ?
 
also so ein Highend Konsole bbei Sony kann ich mir echt gut vorstellen.Vorallem weil die Menschen für die PS5 auch bis zu 800€ bereit waren zu zahlen.Das heißt es gibt nen guten Markt für sowas.Und der kann auch gut mit einem Pc dann mithalten,wenn man sehr gut Optimiert.Und würde 4k voran bringen.Sehe ich auch so und werden dann auch ne kleinere Klasse wie immer dennoch bedinen für solche User wie mich die nur in Full HD agieren.
Bei Zen 6 wird es spannend sein,ob es wirklich Native 16 Kerner gibt und was das so bringen wird,wenn es auf einen Chiplet anstatt auf 2 so ist.Deutlich mehr kerne ala 24 Kerner,bin ich mir allerdings nicht sicher,wird es wohl nicht mit Zen 6 geben,aber bei Zen 7 durchaus.
 
@latiose88 Die frage ist da nur, wieviele von den 65mio PS5 wurden denn wirklich für diese 800Euro verkauft ?
Ja sicher wird Sony 10-20mio (vlt, vlt auch nicht) für 800-1000Euro Verkaufen (können).

Die PS4 wurde aber noch fast doppelt soviel verkauft und wird am Ende der PS5 sicher immer noch gut 20-30mio vorne liegen dürfen.
(vlt auch mehr, wenn der Absatz dank GTA6 nicht nochmal deutlich ansteigt)

Was sicher nicht nur aber auch am Preis gelegen haben wird.

Aber wenn sie auch nur ansatzweise an die Zahlen von der Ps5 kommen wollen, geschweige denn von den der alten Konsolen, "müssen" sie ganz sicher auch was für unter 600 anbieten (was selbst für mich immer noch zu teuer wäre, für 1-2 Spiele pro Jahr, die es nur für die PS5 gibt)
 
Naja, worauf wir uns leider alle einstellen müssen und vor dem Problem stehen alle 3 Hersteller gleichermaßen ist, dass es einfach immer schwerer wird große Leistungssprünge allein in Hardware zu realisieren, mal abgesehen von immer mehr Aufwand und Kosten dafür.

Man könnte auch sagen, die fetten Jahre sind vorbei. 🤷😂 Auch die Zeiträume zwischen den Generationen werden länger werden und +60 oder+70% in Zukunft eher seltener.

Die Zukunft ist Software und ja das bedeutet leider auch AI Frames. Übrigens hat sich AMD in einem super interessanten Interview direkt nach der CES mit PC Gamer genau in die Richtung geäußert und eigentlich gesagt, dass Nvidia's Weg mit MFG richtig ist. Da Nvidia, AMD und auch Intel wie gesagt alle vor dem selben Problemen stehen, werden die auch alle in die grundsätzlich selbe Richtung denken. Ich bin mir sehr sicher, dass ein MFG Derivat bei AMD schon in Entwicklung ist.

Wenn die Hardware keine großen Performance Steigerungen mehr möglich macht bzw. immer seltener zu immer höheren Preisen, muss man sich halt was einfallen lassen und die Antwort momentan heißt Software.
 
blackiwid schrieb:
Ja und das wäre ne katasthrophe da würde man weiter Marktanteile verlieren... das kann AMD sich nicht leisten.
Taxxor schrieb:
Also genau so wie sie es die letzten Releases auch immer gemacht haben
Ich kannst nicht nachvollziehen. @blackiwid wo kommt dieses Wunschdenken her, wenn es in der Vergangenheit auch schon nicht anders war?
Wieso glaubt man bei AMD immer an irgendwelche Wunder (fine wine z.B.), die nicht eintreten?

whyme schrieb:
Wären sie so überlegen würden sie nicht seit zwei Generationen mit Fake frames die Balken in den Benchmarks künstlich verlängern.
Die Karten sind auch ohne DLSS und FG schneller. Du vergisst, dass AMD das auch macht/kann und trotzdem nicht rankommt.
Sie machen es, um weiterhin mehr Leistung liefern zu können, weil wir uns vermutlich langsam dem Limit des Siliziums annähern.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Microsoft wird zu 100% ebenfalls X3D Cache für ihre nächste Konsole nutzen. Außer es gibt überhaupt keine neue Xbox oder es wird Intel oder Nvidia als Partner. Bin gespannt ob es AMD 2026 auf das Leistungsniveau einer RTX 4090 schafft. Darüber hinaus glaube ich einfach nicht. Dann hinken Sie ca. 3-4 Jahre hinterher und Nvidia bringt dann schon fast wieder die nächste Gen.
 
ElliotAlderson schrieb:
Ich kannst nicht nachvollziehen. @blackiwid wo kommt dieses Wunschdenken her, wenn es in der Vergangenheit auch schon nicht anders war?
Wunschdenken hat eben nichts mit der Realität zu tun. Aber das Wunschdenken gibt es durchaus in beiden Varianten.


ElliotAlderson schrieb:
Wieso glaubt man bei AMD immer an irgendwelche Wunder (fine wine z.B.), die nicht eintreten?
Fine Wine ist kein Wunder und tritt durchaus auf. Aber eben nicht immer, manchmal erst mit längerer Verzögerung (Vega) und meist nur mit moderaten Verschiebungen.

Fine Wine ist jein Wunder weil Nvidia mit ziemlich optimalen Treibern an den Start geht, während bei AMD in der Regel noch Optimierungsbedarf besteht.
 
  • Gefällt mir
Reaktionen: Deinorius und Sherman789
ElliotAlderson schrieb:
Die Karten sind auch ohne DLSS und FG schneller. Du vergisst, dass AMD das auch macht/kann und trotzdem nicht rankommt.
Sie machen es, um weiterhin mehr Leistung liefern zu können, weil wir uns vermutlich langsam dem Limit des Siliziums annähern.
Brauchen dafür aber auch einen größeren Die und mehr Energie. Wie gesagt. Nvidia kocht auch nur mit Wasser und ist genauso an die Physik gebunden wie alle anderen auch.

Schau dir doch 4090 vs 7900XTX an. Die Nvidia ist deutlich größer und verbraucht mehr. Klar sollte sie dann auch schneller sein.
 
whyme schrieb:
Brauchen dafür aber auch einen größeren Die und mehr Energie.
Nö. Nvidias Karten sind effizienter.
Der DIE der 7900 XTX ist 529 mm² groß und die 4080 Super liegt bei 379 mm².
Verbrauch liegt bei 355 W (7900 XTX) vs 320 W.

Es hält AMD auch niemand davon ab einen größeren Chip zu produzieren. Was ist das für ein Argument? :D

whyme schrieb:
Schau dir doch 4090 vs 7900XTX an. Die Nvidia ist deutlich größer und verbraucht mehr. Klar sollte sie dann auch schneller sein.
Die 7900 XTX konkurriert mit der 4080 Super. Wieso soll ich mir die 90 angucken, wenn man die 80er schon nicht knackt?
Aber auch dort stimmt es nicht. Die 4090 ist ~33% schneller in Raster und 106% schneller in RT.
Der Chip ist aber nicht 33% größer, sondern nur 80 mm². Der Verbrauch liegt bei 450W, welcher aber oft nicht voll ausgeschöpft wird. Selbst die 90er ist in Größe und Verbrauch also effizienter.
 
Zuletzt bearbeitet:
Dr.Death schrieb:
Das ist, warum Monopole funktionieren. Der Wettbewerber lässt nach, also investiert der Primus auch weniger in die Entwicklung. Das kann man bei der aktuellen 5000er Generation doch bestens beobachten. Gleichzeitig hat AMD dadurch die Chance, noch aufzuholen. 😉
Klingt eher nach nem Wunschszenario als Realität.
Wäre trotzdem ne schöne Vorstellung😉
 
Ich denke, AMD hat da tatsächlich Potenzial und wird absolut unterbewertet. Ich erinnere mich noch immer daran, wie Intel AMD vorgeführt hat, und auf einmal hat sich das Blatt deutlich gewendet. Ich hoffe es sehr für AMD. Ich habe aktuell zwar selbst eine RTX 4090, davor eine Radeon 6900 XT, die war keineswegs verkehrt, v. a. die Software ist klasse, jedoch zu schwach.
 
seyfhor schrieb:
Achso, das war eine bewußte Entscheidung, dass AMD kein High End gemacht hat!? Scherz beiseite, toll wär es. Aber an den Endpreisen äändert sich da sowieso nix mehr. Dann gibt es eben neben der 6090 auch eine RX1090 (wie auch immer die dann heißt) für 2600,-
Wahrscheinlich hast du Recht. Vielleicht fallen aber auch die Preise.
Aber wer hat schuld an diesen Preisen?
Jeder von uns der diese Preisspirale mitmacht. Würde keine diese überteuerten Grafikkarten kaufen. Würden diese auch günstiger werden.
Wir sind ja noch mitten in der KI Blase. Sobald sich da die Investition abkühlen. Werden die Preise auch fallen.
Habe vor paar Wochen gelesen, das die KI Modele ab einem gewissen Grad nicht mehr von noch mehr Rechenleistung profitieren.
 
  • Gefällt mir
Reaktionen: mydayyy
bensen schrieb:
Wünschenswert wäre es wenn AMD nächstes Jahr mit high-end in N3E kommen würde. Damit würden sie wohl sicherlich vor Nvidia kommen.
Hier ist auch die Frage was mit in HVM gemeint ist. Boards oder GPU. Wenn es die Boards betrifft habe ich extreme Zweifel.

bensen schrieb:
Allein der Glaube fehlt mir. Sie haben die letzten Jahre so wenig Ressourcen in die GPUs gesteckt und nicht mal komplette line-ups gebracht.
So wenig Ressourcen waren das nicht. Es waren 2 Linien RDNA und CDNA. Hinzu kommen auch noch die APUs

Bei den Gaming GPUs wurden in der Tendenz größere Dies und mehr unabhängige Designs. Bis eben RDNA 4 kam.
bensen schrieb:
Und jetzt auf einmal so kurze Abstände zwischen den Generationen.
Schauen wir Mal wann AMD die MI 350 released, und was AMD nach dem Release der MI 350 zur MI 400 sagt. Dass die Gaming Variante von UDNA vor der MI400 kommt halte ich für unrealistisch.

Wenn das Gerücht stimmt, würde es bedeuten zurück zu Wave64, was ich ziemlich überraschend fände.

Meine ausführlichen Anmerkungen zu Kepler und die Replik von David Huang habe ich auch deshalb reingehängt, weil bei jeder News die auf einer Anmerkung von Kepler beruht, so was steht wie zuverlässig.

Kepler ist dann zuverlässig wenn Kepler etwas in Open Source Treibern gefunden hat. Alles andere ist Geschwätz.
bensen schrieb:
Fand ich ziemlich enttäuschend. Kaum Details und ziemlich oberflächlich. Im Grunde dann nur Gerüchte bestätigt.
Ich als Laie war durchaus eine Weile damit beschäftigt herauszufinden was genau gemeint war und was es nun bedeutet. Sie haben im Grunde über 3 Punkte geredet, Interconnect, FPU und Mall. Dass die Fragen vorher verabredet waren ist logisch. Das war ein Geschenk für alte Bekannte, aber etwas Neues wird AMD auch noch beim Deep Dive erzählen wollen.
 
Aslo schrieb:
Ne Playstation mit 32gb HBM4 und 256md 3d cache wäre mal was^^ Gerne auch als APU.
Was soll so viel 3D-Cache bringen? AMD hat den Sweetspot bei 64MB selbst benannt damals beim 5800X3D. Bei 128MB kriegst du schon kaum Mehrleistung, aber die Effizienz bricht ein. Da würde AMD keinen Chip an Sony verkauft bekommen.
 
Taxxor schrieb:
Ich denke mit UDNA wird’s ne weitere Umbenennung geben, kann mir nicht vorstellen, dass man auf 10070 geht.

Das ganze wird dann, analog zu den CPUs auch was mit „Radeon AI“ oder so enthalten.
Rage Fury AI Maxx bitte 😁
 
Quidproquo77 schrieb:
Mehr oder weniger. Wobei das Warten eher damit zu tun hat, dass man einfach die Margen mitnimmt.
Den Druck der Kartellämter gibt es sicherlich auch, somit ist es auch für Nvidia besser wenn es etwas Konkurrenz gibt.
Da bin ich mit nicht so sicher. Klar die Argumentation macht Sinn. Aber wozu war dann der Versuch mit dem GPP vor paar Jahren gut?
Ich finde Nvidia ist doch jetzt schon Monopolist mit einem Marktanteil von über 75% ist man es. Wenn ich die letzten Zahlen noch richtig im Kopf habe war Nvidia doch bei über 80%.
 
MC´s schrieb:
@Pisaro
Ganz einfach, eine für die normalen User die mit 4K 60/120Fps laufen und eine für die Poweruser wo alle Games in 8K 60/120 Fps laufen, nativ natürlich.
8k hat 4x so viele Pixel, also muss die Rechenleistung entsprechend höher sein. Da mehr Recheneinheiten etc. nicht perfekt skalieren, müsste die GPU ca 5x so schnell sein, als in der Standardvariante.
Nicht mal eine 5090 dürfte in die Nähe von 60FPS bei 8k kommen, und die ist für zwei Jahre das absolute maximum.
Konsolen haben üblicherweise ne deutlich kleinere GPU als das Topmodell.
 
Zuletzt bearbeitet:
Warum macht man die Trennung der Architektuten nach Vega jetzt wieder rückgängig? Damals hatte man doch eingesehen, dass eine für Spieleleistung optimierte Architektur sowohl kosten- als auch energieeffizienter ist.
 
ElliotAlderson schrieb:
Ich kannst nicht nachvollziehen. @blackiwid wo kommt dieses Wunschdenken her, wenn es in der Vergangenheit auch schon nicht anders war?
Wieso glaubt man bei AMD immer an irgendwelche Wunder (fine wine z.B.), die nicht eintreten?
Erstens stimmt fine wine ja mal wieder wenn man fast 1:1 gleich viel RT Leistung in realen Spielen sieht mit 7800xt vs 4700 und in Raster klar davon zieht, weil mehr UE5 spiele kommen und da eben 12gb oft zu wenig sind.

Wunschdenken wäre es wenn ich keine Informationen hätte außer vielleicht die erste Aussage von dem AMD Mitarbeiter / Manager das man keine Highend mehr machen will und sich auf die 80% statt 20% konzentrieren würde, wäre das die Basis für meine Preiseinschätzung und und wo ich die Karte einschätzen würde, dann wäre es wunschdenken.

Da es aber ja geleakte Infos gibt verlasse ich mich auf diese, zumal diese sich eben Decken mit anderen Leaks die schon sehr alt sind. Kann das dann trotzdem nicht stimmen sicher, die stärksten Infos sind btw über die 9070xt der Rest ist eben Spekulation über preis wenn wir die xt für 575 / 650 Euro verkaufen und das sind ja die geleakten Preise wobei da Dollar/Euro immer bisschen nen Fragezeichen ist, und deutlich unter 300 Euro wahrscheinlich zum Release nix kommen wird, und wenn man mit ner 9070 xt eben laut Leaks bei ner 5070 ti oder so oder 4070ti die ja nur wenige % langsamer ist als ne 5070 ti ist dann wird ne 9060 xt nicht plötzlich für vielleicht 400 Euro so lahm wie ne 7600 sein, sondern auch so wie ne 4070 und da die 5070 ja auch nur wenige % vor der 4070 ist, ist man damit auch fast gleich auf.

Das basiert zu 100% auf leaks und Logik, und auch in der Wissenschaft nimmt man bei ner schlechten Beweislage immer die besten Beweise her, also im Zweifel eine schlechte Studie oder Anekdotic evidence oder irgendwas, man merkt dann halt nur an das die Infos noch nicht gesichert sind.

Es mag am Ende falsch sein, aber bloses Wunschdenken ist es nicht. Das einzige was man als Gegenargument bringen könnte wären die 1 zahlen die Geleakt wurden die extrem schlecht waren.

Aber 1. sind die schlechten Benchmarks älter, gab es überhaupt ein schlechten Benchamrk? oder gab es nur ne Behauptung das sie so sein soll wie ne 7900 GRE und < 7900 XT? Diese komische Zahlenliste und diese idiotische Folie? Inzwischen wurde ja z.B. auch der Takt zum Release deutlich erhöht. Die schlechten Werte sind alle von letztem Jahr.

Ichglaub das ist wirklich alles jemand hat auf Twitter gepostet:
RX 9070 XT < RX 7900 XT
RX 9070 XT ≥ RX 7900 GRE

Das und die komische Folie wo irgendwas rein interpretiert wird was meiner Ansicht nach nicht so gemeint sein muss. Eine Folie die nur grob erklärt wie das neue Namensschema ist, die extrem Dumm ist, weil eine Karte die deutlich stärker in RT ist nicht gleich schnell wie ne 7900xt in RT und in Raster sein kann, daher sich da eine 1:1 linie schon widerspricht.
Und das es um stufen gehen wird und nicht um Leistung und Steigerungen einer Generation sehr wohl impliziert sein können.

Die 2 sehr schlechten Daten stehen 2 geleakte Benches, 1 Info das der Chip größer ist als gedacht (deutet auf mehr Leistung logischerweise), das der Chip höher getaktet werden soll und die auch neuer sind wie die 2 "leaks" die schlecht waren.

Dann gab es gute Benchmarks in Cyberpunk und Wukong und dann seperat nochmal gute von 3dMark.

Auch die "guten Preise" wurden mindestens 2x geleakt, einmal wurden konkrete Preise geleakt, und einmal versprach der Marketingdirektor:
Azor bekräftigt, dass es AMDs Ziel sei, mit RDNA 4 in erster Linie Produkte anzubieten, die über das Preis-Leistungs-Verhältnis überzeugen können.
Auch die Aussage und das sie strategisch auf Nvidias ankündigungen erwarten um absolut sicher zu stellen das sie die bessere Preis/Leistung haben, wie sie es schon bisschen panischer und peinlicher mit der 7600 getan haben, wo sie eben die Preise nochmal reduzieren mussten, das will man wohl verhindern und direkt der erste Preis den man nennt deutlich besser sein soll. Alles deutet auf gute Preise hin nichts auf schlechte.

Das alles soll ich weg wischen weil AMD in der Vergangenheit vorallem die 7er Gen sehr durchwachsen war? Das man bei AMD nie von der Vergangenheit auf die Zukunft schließen sollte ist doch auch klar. Es ist nunmal auch die Firma die von Bulldozer auf Ryzen X3d den kompletten Markt umgekrempelt hat, nun sicher es wird kein Ryzen im Sinne das man diese Gen die Leistungskrone in Angriff nimmt, aber deshalb kann durchaus die Preisleistung sehr gut sein.
ElliotAlderson schrieb:
Sie machen es, um weiterhin mehr Leistung liefern zu können, weil wir uns vermutlich langsam dem Limit des Siliziums annähern.
"Leistung" so kann man das auch nennen, wenn ich dir erzähle das du ein Millionär bist und dann bei einer Bank ein paar Millionen schulden mache auf deinen Namen und das Geld auf ein anderes Konto von dir gebe, hab ich dich dann reich gemacht?

Nein man nähert sich keinem Limit, sie bauen nur schlicht Grafikkarten die für K.I. berechtnungen zu 100% hin optimiert werden, und da sie an sich extrem schlechte Grafikkarten sind (pro fläche und pro Euro) versucht man eben irgendwie die K.I. fähigkeiten nutzbar für Gaming zu machen, um zu verschleiern das es Nativ eine sehr schlechte Karte ist.

Das ist ein weiterer hinweis das es logisch ist das AMD da ran kommen kann, weil als Grafikkarte die Nvidia Karten keine guten sind, nur gute Fakeframe berechner das sind sie, daher macht es sinn das man außerhalb der Fake frames gut sein kann. Auch macht eine gute Preisleistung sinn wenn man billigeren Speicher der für Gaming weitgehend eh nichts bringt der schnellere (mehr aber schon), wenn man weniger chips designen muss und ne billigere Fertigung benutzt.

Eins würde ich auch noch sagen, ich weiß nicht wie man das von Nvidia nennen soll es ist aber keine grundsätzlich neue Architektur, es ist eher ein evoltionärer schritt wegen mir ne halbe Generation... so wie bei AMD ein RDNA 3.5, aber AMD bringt hier ne komplett neue Architektur ne neue Generation.

Heißt eine neue Architektur zwingend das man riesen Fortschritte macht? Nein RDNA3 war auch ne neue Gen soweit ich das seh, trotzdem hat es versagt, aber es hat das potenziell während Nvidia mit ihren 7% mehr Speed unterhalb der 5090 eben das nicht hat.

Auch hat Nvidia mit der 40er Gen weitgehend bewiesen das 1chip besser ist als Chiplet in Grafikkarten man schnellere und bessere Chips herstellen kann, und auch nicht teurer zwingend weil zwar Nvidia teurer war aber auch höhere Margen machte.

Nun hat AMD ne neuere Gen und sie setzen auf das offenbar deutlich überlegene 1chip Design, wieso soll ich dann bei all diesen positiven Vorzeichen und Benchmarks schlechte Leistung erwarten?

Ich geh so weit zu sagen das diese Gen für Nvidia schon fast deren 7000 gen ist, enttäuschend nur mit 600 Watt Brechstange irgend ein Minderwertigen Chip künstlich sehr hoch gepuscht hat. Ja ist wohl nicht die Taktbrechstange aber eben die gigantische Monsterchip Brechstange.

Klar könnte AMD auch Grafikkarten für 2000 Dollar verkaufen könnten sie auch irgend einen Gigantochip bauen, technisch sind sie in der Lage nur würde wegen DLSS oder irgend anderen Softtware features niemand so ein Ding auch bei gleicher Raster und selbst gleicher RT Leistung niemand so ein Chip von AMD kaufen zu dem Preis.

Also es erinnert mich sehr an RDNA3 was Nvidia da ab zieht, nur noch weniger neuer RDNA 3 hatte ja wenigstens nen guten RT uplift, aber man war auch kaum schneller als der Vorgänger wie hier halt auch. Und AMDs erinnert mich an RTX 40 gen komplett neue Architektur die nen ordentlichen Sprung (pro Chipfläche) und Preis/Leistung hin legt und bei RT auch pure Leistung.

Wenn wir die 4090 mal ausklammern geh ich so weit und sag diese Gen an Karten ist AMDs Ada Lovelace, nur mit dem Unterschied das danach eben wieder was relativ stark anderes kommt mit UDMA.

===UPDATE===

Und hier noch mehr Benchmarks in Raster irgendwo zwischen 7900xt und xtx und näher an XTX 2 von 9 Games zieht man mit der 7900xtx gleich in 3 ist man näher an der XTX und 3 näher an der XT also wohl ziemlich genau dazwischen.


Bin kein RT Experte aber die Titel sehen mir bis auf Cyberpunk alle sehr Rasterfokusiert oder gar ganz ohne RT zu sein und im einzigen Game wo ich weiß das RT benutzt Cyberpunkt ist man recht nahe an XTX level dran.

Das deckt sich mit allen anderen Leaks, ist Internes Dokument und schon 1 Monat alt, bisschen mehr kann man noch hoffen, vermute aber das es nicht deutlich mehr Speed durch Treiber gibt... ich denk die sind weitgehend fertig, da erwarte ich mir keine zusätzlichen großen Wunder.

Was mir noch sorgen macht ist, ob AMD genug Supply liefern kann, wenn nicht hat man entweder Scalpter oder man hat eben ne X3D Situation und es wird schwer zum UVP was zu finden.

So wie wir AMD kennen gehen die nie all in, das heißt sie bestellen erst mal zu wenig und brauchen dann Monate bis sie die Kunden beliefern können, weil sie sehr Risiko-avers oder auch feige sind.

Wow hätte noch auf "Slide 2" warten sollen da vernichtet der teils sogar die XTX, wtf... in höheren Details / Raytracing Ultra in Cyberpunkt, Hitman 3 "high" und Black Myth RT zersägt die Karte die XTX. Also RT Leistung ist wohl eher so auf 4080 Niveau, gut an sich auch keine große Überraschung mehr.
 
Zuletzt bearbeitet:
Zurück
Oben