News AMD-Gerüchte: Rückkehr zu High-End-GPUs und X3D-Cache für die PlayStation 6

megaapfel schrieb:
Davon abgesehen hätte ich auch gern mehr VRAM, aber eine 5080 wird trotzdem bis zur nächsten Grafikkartengeneration die zweitschnellste Grafikkarte in allen Spielen sein und zwar auch schneller als alle AMD Grafikkarten, unabhängig davon, ob die 16GB oder 32GB VRAM haben werden.
Das ist doch die Falsche Frage, wenn sie nur 10 20% wegen mir auch 30% schneller ist als ne 9070xt aber doppelt so viel kostet ist sie doch trotzdem schlechter, und nun mag kommen die wird dann real auch 700 kosten, mag sein, aber das gilt auch für die 5080 oder vielleicht auch 5070ti (weil ich vermute das die deutlich beliebter sein wird), wird wohl auch nicht gut lieferbar sein also kannst auf die Preise dann auch paar hundert Euro oben drauf packen wenn nicht in der Anfangszeit eine ergatterst in ersten paar Stunden.
Moore's law hat schon mit einigen Händlern gesprochen das die extrem wenige geliefert bekommen haben.

Ja es mag sein das real wegen Scalptern oder so die Preise bei AMD auch enttäuschen das kann ich noch nicht sagen, bzw um das zu verhindern eben doch höhere UVPs aber der Abstand wird wohl sehr hoch bleiben...

Was die Nachfrage bisschen managen könnte wäre wenn die gleichzeitig Abverkauf von 7xxx gen karten mal starten würden und da kräftig die Preise senken würden... das wäre vermutlich das best case Szenario dann kämen sie wohl damit hin nicht alle rx 9070er Karten aus den Händen gerissen zu bekommen.

Ich mein die erreichen fast 4080 in Raster sogar mehr als 4080 teilweise, das ist dann auch nicht so weit von 5080 mehr entfernt.
 
ReactivateMe347 schrieb:
Das stimmt schon. Aber mir wäre neu, dass seriöse Händler Karten deswegen fürs Doppelte anbieten - und auch ohne Scalper gilt: Wenn keiner teuer kauft, wird es günstiger. Ich verstehe nicht, wie man sich sehenden Auges über den Tisch ziehen lassen kann, nur damit die Pixel etwas schöner sind.
Und ich verstehe nicht, wie jemand, im schlimmsten Fall jahrelang auf ein GPU Upgrade wartet, nur weil der Markt gerade nicht so läuft, wie er es gerne hätte.
Wozu steht der rest der ganzen Hardware dann rum, wenn kaum noch Spiele auf der Kiste kaufen?

Seriöse Händler haben Karten in den ganzen Blasen der letzten Jahre die Karten auch gerne mal fürs Vierfache verkauft oder halt keine gehabt.

Hab damals 693€ beim größten Laden in Österreich für die Karte bezahlt, extra nochmal nachgeschaut und war noch froh das es nimmer so arg teuer war. Mindfactory wäre nur unwesentlich günstiger gewesen. Hätte ich für das Geld so später im Abverkauf von RDNA2 dann gleich zwei Leistungsklassen mehr für Mein Geld bekommen? Ja.
Aber nachdem ein halbes Jahrzehnt auf eine Normalisierung gewartet wurde, fand ich den Aufpreis zur UVP jetzt echt nicht dramatisch. Besonders weil zu dem Zeitpunkt nicht klar war wann die nächste Blase kommt.
 
blackiwid schrieb:
Ich mein die erreichen fast 4080 in Raster sogar mehr als 4080 teilweise, das ist dann auch nicht so weit von 5080 mehr entfernt.
Jetzt sind wir schon bei fast 5080 Performance. Der Hypetrain ist bei dir echt schon abgehoben, ich hoffe er landet ohne Unfall.
 
  • Gefällt mir
Reaktionen: Cohen, DannyA4, Quidproquo77 und 3 andere
:D Was soll man den auch mit den derzeitigen RX 90X0 Karten spielen?
Schach?:schaf:
Braucht kein Mensch, warte auf die RX 10090XTX mit 28 GB VRAM!
:verwandlung:
 
Zuletzt bearbeitet:
Taxxor schrieb:
Da der nachfolgende echte Frame bekannt ist, weis er natürlich ob zwischen realframe 1 und realframe 2, die ja beide nur ein paar ms auseinander liegen, eine Bewegung stattgefunden haben muss.
Hmmm, hab ich was falsch verstanden? Ich dachte bei MFG macht er das jetzt ohne den nachfolge Frame vollständig zu kennen?
Beim alten FG war das ja tatsächlich noch so...

Anyway, die Halos in Cyberpunk waren auf jeden Fall nicht was ich mir wünschen würde, bringt ja nichts, wenn ich mehr Bewegungsschärfe möchte und dabei dann die Bildqualität leidet.

Mal schauen wie es dann im Finalen Produkt dann bei Release wirklich ausschaut.
 
Taxxor schrieb:
Jetzt sind wir schon bei fast 5080 Performance. Der Hypetrain ist bei dir echt schon abgehoben, ich hoffe er landet ohne Unfall.
Da 5080 ja kaum schneller als ne 4080 ist ist die aussage fast so schnell wie 4080 und fast so schnell wie 5080 ja schon fast ein synonym.

Ich mein "fast" ist auch ein dehnbarer Begriff. Und wenn in 4 von 8 Games der 9070xt die 4080 schlägt und anderen leicht hinten ist ist es ungefähr gleich schnell:


Außerdem halte ich meine aussage "nicht mehr so weit weg" nicht gleich bedeutend mit "fast so schnell wie" also bitte nicht straw mannen. würde meine Formulierung schon noch nen größeren Abstand sehen wie bei fast gleich schnell...

Ich hätte auch kein Problem zu sagen das die 4070 ti nicht so weit weg von der 4080 ist... (also jeweils super). Und da die 9070xt wohl mit der 5070 ti konkurriert und die 5080 wieder nur 16gb hat finde ich die Aussage nicht so wild.
 
blackiwid schrieb:
Ich hätte auch kein Problem zu sagen das die 4070 ti nicht so weit weg von der 4080 ist... (also jeweils super).
Sind im Ranking ja auch nur 15% voneinander entfernt.

Ich erwarte die 5080 ~35-40% vor der 9070XT
 
sehr spannendes Thema... lässt für mich aber RDNA4 dann völlig uninteressant zurück...
Klingt auf jeden Fall alles sehr logisch, da AMD für Sony und Microsoft etwas abliefern muss.
Sollte die PS6 mit diesen Specs kommen, fände ich diese sehr interessant, allerdings dürften wir da über locker 1k Einführungspreis reden... in dem Bereich interessiert mich dann doch eher ein PC, aber mal abwarten.
 
bensen schrieb:
N33 in N6 war halt enttäuschend. In N5 hätte der richtig gut sein können.
Es wäre auf alle Fälle einfacher gewesen einzuschätzen was schief lief, wenn die N33 auch in N5 gewesen wäre.

Für mich ist es eine der Kernfragen zu RDNA 3:
Warum hat AMD die N33 mit praktisch derselben Spezifikation wie N23 nochmal in N6 aufgelegt?
Hat AMD mit einer höheren Frequenz dank RDNA3 gerechnet oder mit einer höheren IP?

Neben den unabhängigen Tests bin ich auf die Doku zur RDNA4 ISA gespannt.
 
  • Gefällt mir
Reaktionen: bensen
Was mich stutzig macht ist die Kombination von Gaming und Server in einem Chip. Ging das nicht schon bei Vega schon schief, zumindest für die gamer?
 
alex 89 schrieb:
Was mich stutzig macht ist die Kombination von Gaming und Server in einem Chip. Ging das nicht schon bei Vega schon schief, zumindest für die gamer?
Ich stelle es mir mehr vor wie bei Nvidia. Die wollen eher eine CU wo du mehr flexibel mit Funktion zu erweitern oder reduzieren kannst und die Pipeline bis zu einem gewissen Grad anpassen kannst ohne das die Software davor große Anpassungen benötigt... wie eine Art Plug-and-Play Aufbau. Gerade sind die beiden aktuellen Architekturen nicht gerade flexibel.
 
@Rockbreak

HD6800 October 23, 2010
HD7970 December 22nd, 2011.

Rx480 June 29th, 2016
rx vega 64 7.Aug 2017


5700xt July 7th, 2019
6900xt December 8, 2020
 
Mal hoffen das es wieder so wird wie mit den 5000er und 6000er Serien, die 7000er war ja nicht so der Kracher
 
Taxxor schrieb:
Sind im Ranking ja auch nur 15% voneinander entfernt.

Ich erwarte die 5080 ~35-40% vor der 9070XT
Ich hab benchmarks gezeigt in meinem letzten Kommentar Interne von AMD wo sie keinen Grund haben sich selbst an zu lügen wenn da ein Fehler ist dann wird sie in der Realität noch schneller sein, weil Treiber besser sind, würde ich nicht drauf wetten aber WENN es einen Fehler gibt dann sind die werte zu niedrig.
Und das sie intern Games Cherry picken seh ich auch nicht, dann wäre z.B. Cyberpunk nicht dabei der Titel der am härtesten auf Nividia hin optimiert wurde. Wenn ich also die 15% mal glaube und den Rasterspeed ziemlich genau auf 4080 hier sehe in dem Leak dann ergibt sich Rechnerisch auch nur 15% Abstand zur 5080.

Aber du erwartest sicher genauer weil du es im Urin ist und Urin schlägt Benchmark. Oder irgend ne komische Folie zur Namensumbenennung in der ihr rein interpretiert AMD hätte gesagt das die 9070ti absolut identisch zu ner 7900 XT ist...

Es mag dann Raster bisschen mehr Abstand sein aber dafür müsste sie schon wie ne 9700xt Raster haben um das im Schnitt raus zu kriegen mit den 35-40% Abstand, da ja die meisten Games entweder eh 0 RT oder nur leichtes RT haben, ist logisch das Raster >50% in die Wertung eingehen muss und newsflash man mag nicht 100% gleich viel dort aufgeholt haben aber der Abstand wurde dort auch nen gutes Stück kleiner (bezogen auf die 4080).

Finds lustig das mir hier Wunschdenken vorgeworfen wird und Fanboyblase, dabei basiere ich hier meine Vorstellungen auf harte Zahlen in 2-3 geleakten Benchmarks die alle in dier gleiche Richtung zeigen, wärend man mir dann entgegnet das man nur reine Vermutungen mir entgegen hält.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Und das sie intern Games Cherry picken seh ich auch nicht, dann wäre z.B. Cyberpunk nicht dabei der Titel der am härtesten auf Nividia hin optimiert wurde.
Ohne RT Unsinn, wo siehst du hier eine harte Nvidia Optimierung?
1737238734560.png

1737238865004.png
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Quidproquo77
Taxxor schrieb:
Ohne RT Unsinn, wo siehst du hier eine harte Nvidia Optimierung?
Die haben literaly Unterstützung von Nvidia bekommen...

CD Projekt launched a new division in Wrocław, Poland, and partnered with Digital Scapes, Nvidia, QLOC, and Jali Research to aid the production.

Starfield wurde auch auf AMD hin optimiert und finde sicher auch nen Benchmark oder Settings wo Nvidia nicht total schlecht aus sieht...
 
blackiwid schrieb:
Die haben literaly Unterstützung von Nvidia bekommen...
Und siehst du in den obigen Performancewerten der GPUs etwas davon, dass die Nvidia Karten hier besonders gut ggü AMD performen oder nicht?

Sie performen gut bei RT und vor allem PT, aber das war nicht der Benchmark.
Cyberpunk ohne RT ist sogar eher ein besseres Spiel für AMD
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Quidproquo77
Taxxor schrieb:
Cyberpunk ohne RT ist sogar eher ein besseres Spiel für AMD
Auf Folie 1 haben sie es aber auch mit RT getestet und das ist klassisch das schlimmste Game für Nvidia da ja 99% der Games weniger RT benutzen und damit automatisch besser abschneiden bei AMD sicher nicht das einzige aber eines der wenigen.

Das ein Spiel so extreme RT Effekte einbaut ist schon in itself Nvidia optimierung, und das geben sie ja auch offen zie Nvidia musste da joinen um RT ein zu bauen in anderen worten ohne Nvidia wäre nie zumindest in dem Ausmaß das darin gelandet.

Und alle Benchmarks der letzten Jahre hätten so ausgesehen wie jetzt der neue auf CB aussieht ohne Cyberpunk deutlich besser für AMD.
 
blackiwid schrieb:
Auf Folie 1 haben sie es aber auch mit RT getestet
und nur mit den eigenen GPUs verglichen, nicht mit Nvidias.

Und auch nur RT, nicht PT. Da war man 20% vor ner 7900XTX, also ca auf dem Level einer 3080Ti
 
Zurück
Oben