News AMD-Gerüchte: Rückkehr zu High-End-GPUs und X3D-Cache für die PlayStation 6

@Taxxor Keine Ahnung wie gut die 3080 Ti war, er sagt mal das auf den Folien die er aus Quellenschutz nicht zeigt, die Karte zwischen 4070 und 4070Ti war in RT, kann man sicher als Enttäuschung sehen wenn die anderen Werte Stimmen und man bei Raster auf 4080 kommt, aber nochmal es gibt mehr spiele ohne RT als mit RT... und wenn sie so viel wie ne 5070 ungefähr kosten wird und da gut mit halten kann in RT und Raster komplett davon zieht... dann ist das verkraftbar.

Ja RT wird man immer noch Kompromisse machen müssen, aber welche die die Klientel die die kaufen will davor auch schon machen musste weil sie weniger als ne 4070 haben. Maximal wird man wohl ne 7800xt haben eher 7700xt und selbe bei 6er gen und bei Nvidia kenn ich mich nicht so gut aus, die menge an Leuten haben vielleicht 3060 oder gar noch 1080 oder 2080 oder irgend sowas, für die sowas, weitgehend die Leute die die letzten 2 Jahre nichts gekauft haben...

Für mich persönlich ist RT auch weiterhin nur ne Spielerei bzw das übliche Leichte Raster reicht ja, dafür ist sie schnell genug, heck ich hoffe btw eh nur das die Preise sich verschieben durch die gute Karten so das ich mir ne 6800er kaufen kann gebraucht für 250 Euro oder so... da mich RT nicht mal so sehr juckt das ich das brauche. Will nur 16gb und >128bit Anbindung der Rest ist fast egal, aber ich schließe ne 9070 ohne xt nicht völlig aus wenn die Preise gut sind und die Gebrauchtverkäufer nicht mal vernünftigere Preise verlangen dann zahl ich halt auch 100-150 euro mehr für ne Neue, oder ich find ne billige 7800xt im Abverkauf.

Andererseits macht die mittelmäßige RT Performance Hoffnung das die Preise stimmen an sonst wäre die Preisleistung insane wäre die auch noch auf 4080 niveau in RT und irgendwas würde passieren Ausverkauf skalpter oder sie würden die UVP doch höher setzen.

Da niemand mehr all in in nen Krieg geht und unendlich Teile liefern kann da alles von mehr oder weniger einer Firma hintenrum hergestellt wird, gibt es grenzen was an Wettbewerb noch passieren kann ;D
 
Zuletzt bearbeitet:
PS6 wird ja frühstens 2027 kommen, vorher macht das nicht wirklich sinn.
Die PS6 muss dann aber auch einen Leistungssprung machen um sich von der PS5 und der Pro besser abzusetzen, ansonsten sucht man mal wieder nach Details.
32GB Ram sehe ich auch bei der PS6 als gesetzt, dazu eine X3D CPU, das dürfte einiges bringen.
Bei den Konsolen wird die Grafikleistung ja oft an den TFLOPs bemessen und da muss die PS6, die 30 TFLOPs auch knacken.
Die PS5 Pro hat auch mit 16,7 den Maßstab gelegt.
Aber in 2 Jahren sollte das durchaus machbar sein, die Entwicklung geht ja auch weiter.
 
  • Gefällt mir
Reaktionen: Mcr-King
blackiwid schrieb:
Nvidia Karten sind längst kein Angebot mehr an reine Gamer, außer in Bereichen wo Preis/Leistung irrelevant wird, es sind Kunden die damit auch arbeiten.
In deinen Beiträgen holst du weit aus, aber im Endeffekt kommen außer Verschwörungstheorien und haltlosen Vorwürfen keine stichhaltigen Argumente zu Stande, um deine Sichtweise auch nur ansatzweise zu begründen.

Was das Gaming P/L betrifft gibt es ganz stupide Euro/FPS Vergleiche die AMD nur knapp für sIch entscheiden kann und dann in der B Note Bildqualität, Effizienz, Reflex RT, PT, RR und den ganzen KI Klimbimpf einfach momentan schwächer ist.

Wichtig ist nicht nur die Hardware, sondern auch die Software und das fließt genauso in die Preis-Leistung mit ein.

Wenn ich es wertschätze mit DLSS Performance von der Optik so gut spielen zu können wie mit FSR Qualität (häufig der Fall) aber 50% mehr Leistung habe, dann zählt das für dich nicht.

Du ignorierst es schlicht und einfach.
Und wenn man sämtliche Nachteile eines IHV ignoriert und nur die Vorteile überbetont, dann versteht man auch die Welt nicht mehr.
blackiwid schrieb:
Aber die Reviewer und Kunden sind ja auch weitgehend so verblendet das in keinem Benchmark nennenswert Matchtexuren bei den Speicherkrüppelkarten in die Wertung / Kaufentscheidung einfließen.
Dein Märchen von dem hohen Speicherverbrauch der UE 5 Spiele wieder? Informierst du dich überhaupt darüber? Alle UE5 Spiele bis auf ein einziges kommen im CB Parcours mit sogar 10 GB noch gut klar.

Vor 8GB wird stark gewarnt, auch 12GB als Nachteil ausgewiesen. Aber bestimmt sind die Tester befangen. Das macht Sinn...
Ergänzung ()

blackiwid schrieb:
Nein Framegen ratet frames, daher gibts auch Artifakte die in der Realität nicht da wären.
Es gibt kaum sichtbare Artefakte, schon lange nicht mehr. Man kann es in manchen Szenarien provozieren, aber die Vorteile überwiegen bei weitem die Nachteile.
blackiwid schrieb:
besonders in Multiplayer games will er dir ne Bewegung des Gegners oder das Stehenbleiben des Gegners zeigen die es gar nicht wissen kann.
Nö. Frame 1 A1 B1 C1 Frame 2. Es wird auf Frame 2 gewartet und danach werden drei eingeschoben.
blackiwid schrieb:
Daher hat man Artifakte und extremen Lag.
Den hat man eben nicht, da Latenz reduzierende Techniken eingesetzt werden.
blackiwid schrieb:
Ja es fantasiert sachen die gar nicht da sind, wie oft darüber köennen wir streiten oder werden es in Tests sehen, aber es passiert definitiv.
Der einzige der etwas herbeiphantasiert bist du. Du redest wie ein Heilpraktiker von der so schlechten Schulmedizin.
blackiwid schrieb:
... wo selbst neueste DLSS Fehler im Bild produzieren, jeh nach game mehr teils extrem beschissen oder besser aber immer noch nicht voll.
Warum Elektrizität benutzen, wenn es auch die Öllampe tut?
blackiwid schrieb:
Irgendwo ne hohe Zahl stehen zu haben macht ein Spiel nicht automatisch reaktiver oder flüssiger.
Reaktiver nicht, aber flüssiger fürs Auge und bei dennoch etwas weniger Inputlag als üblich wesentlich schöner spielbar.
blackiwid schrieb:
was bei UE5 nicht immer gegeben ist.
Die UE5 hat zig Mechanismen um den Speicherbrauch im Zaum zu halten, eine der am effektivsten ist Nanite.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cohen und ElliotAlderson
Neue angeblich sehr detailierte Performance Benchmark Leaks zur 9070 und 9070xt
9070xt benchmark.png



https://www.3dcenter.org/news/gerue...eigen-gute-raster-und-starke-raytracing-perfo

9070xt benchmark.png

Wobei man sagen muss die RT Benchmarks sehen komisch aus. +50% lead in einem Spiel, dann 5% hinterher in einem anderen? Das sieht abnormal aus und wenn das wirklich die Raytracing Performance wäre, wäre das RT der 9070XT immer noch nicht brauchbar und weit weit hinter der mutmaßlichen 4070TI Super RT Performance. So ernst kann man das also wohl nicht nehmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ArrakisSand und Mcr-King
ETI1120 schrieb:
Kepler behauptet nun, das AMD mitbekommen hätte, dass GB202 über 800mm² Die-Fläche hat. AMD hätte befürchtet die 4090 nicht zu packen und deshalb die Dies eingestellt. Also er erzählt nun, alles hätte funktioniert, nur befürchtete AMD die 4090 wäre schneller als das Topmodell. Und deshalb stellt AMD 3 Dies ein,
Das ist doch wohl ein Witz ... o_O

ETI1120 schrieb:
Auf Strix Point 2 und 3 warte ich noch immer
Meinst du eigene Dies, oder weitere Produkte basierend auf dem existierenden Die?

ETI1120 schrieb:
Wenn man mit High End die RTX6090 angreifen meint, bin ich sehr skeptisch.
Wenn man es so definieren will, ist Skepsis gerechtfertigt. Aber die 90er Reihe ist ein Halo Produkt. Für mich ist das kein "klassisches" High-End mehr, ansonsten müsste man die 80er aus High-End abschieben.
AMD überlässt Nvidia auch den Bereich, wo die 5080 wildern wird, vielleicht z.T. sogar auch die 5070 Ti, je nachdem, wie sich der Release ergibt.

ETI1120 schrieb:
Wenn die tatsächlich erst 2027 kommt, könnte es durchaus klappen.
2027 ist der früheste Termin. Ich gehe eher von 2028 aus. Die Leute dürften mit der Grafik der PS5 zufrieden sein und wenn nicht, kann man die Zeit mit der Pro überbrücken. Der größte Vorteil der PS6 wird stark CPU-intensiven Spielen (z.B. W40k:SI2) Vorteile bringen und diese sind die absolute Minderheit. GTA6 wird die meisten auch in 30 fps zufriedenstellen, wenn es 60 fps nicht erreicht. Und RT als anderer Vorteil muss auch besser an den Gamer gebracht werden.
Zusammen mit den jetzigen inflationären Preisen und der geopolitischen Lage sieht es mit einer neuen Konsole auch nicht ganz so rosig aus, zumindest nicht rosig genug, als dass Sony nicht eher etwas mehr Zeit nimmt. Eine Switch 2 wird hingegen einen Unterschied zeigen können.

ETI1120 schrieb:
Bei der GPU hat der 3D-Cache auch einiges zu den 50 % Effizienzsteigerunh von RDNA 2 beigetragen
Es war ja einfach ein L3 Cache, hat aber nichts mit 3D zu tun.

cruse schrieb:
Halo Nachfolger?

Haben die den ersten schon released?
Wenn ein Chip-Produkt veröffentlicht wird, bedeutet das, dass der Nachfolger schon längst in der Entwicklung ist. Selbst am Nachfolger der PS5 wurde nicht lange nach dem Release schon an den ersten Designs gearbeitet.

Fighter1993 schrieb:
2026 soll eine neue XBOX kommen mit 95 TFlops.
Und wo sollen diese 95 TFlops herkommen, wenn selbst die 7900 XTX nur 61 von diesen hat? Und das auch noch kommendes Jahr? Im TSMS N2 Verfahren dann und die Konsole kostet dann über €1000 ... Wird sicher ein Brüller.
 
  • Gefällt mir
Reaktionen: Mcr-King
jonderson schrieb:

Sein Account ist fast 20 Jahre alt, er sollte eigentlich die ein odere andere High End GPU von AMD mitbekommen haben 😅
Ergänzung ()

Rockbreak schrieb:
Ja klar, ne Xbox mit weit mehr Teraflops als ne 4090 und das schon 2026
;)

Warum nicht? Die 4090 ist aus 2022, also zu dem Zeitpunkt des Releases ist die Karte schon 4 Jahre alt. Zudem bekommen Konsolenhersteller immer Vorabzugriff auf die neuesten Architekturen und Fertigungsprozesse, einfach weil sie Hardwarenachfrage in enormen Stückzahlen garantieren.
 
  • Gefällt mir
Reaktionen: Mcr-King
Apocalypse schrieb:
Und ich verstehe nicht, wie jemand, im schlimmsten Fall jahrelang auf ein GPU Upgrade wartet, nur weil der Markt gerade nicht so läuft, wie er es gerne hätte.
Die Sprünge sind - solange man nicht von z.B. 3080 auf 4090 springt zu schon bei UVP absurdem Aufpreis - nicht so wirklich riesig.
Apocalypse schrieb:
Wozu steht der rest der ganzen Hardware dann rum, wenn kaum noch Spiele auf der Kiste kaufen?
Kaum noch Spiele? Millionen Spiele laufen auf der Kiste. 1.000e Spiele laufen alleine schon auf einem SNES.
Wer natürlich alles 4K 200Hz HDR mit vollen Details braucht ....
Apocalypse schrieb:
Hab damals 693€ beim größten Laden in Österreich für die Karte bezahlt, extra nochmal nachgeschaut und war noch froh das es nimmer so arg teuer war.
17% Aufpreis sind für mich schon was ganz anderes als 100%, aber das kann ja jeder sehen, wie er mag. Nur den Abzockpreis bezahlen und dann jammern, das kotzt mich immer an.
Apocalypse schrieb:
Aber nachdem ein halbes Jahrzehnt auf eine Normalisierung gewartet wurde, fand ich den Aufpreis zur UVP jetzt echt nicht dramatisch. Besonders weil zu dem Zeitpunkt nicht klar war wann die nächste Blase kommt.
Wie gesagt: Jeder kann sein Geld ausgeben, wie er mag. Nur macht er damit 1. die Marktpreise auch für alle anderen kaputt und soll 2. gefälligst nicht danach rumjammern, wenn er schon daran beiteiligt ist, das Abzock-System zu finanzieren.

Ich spiele lieber nur Game-Klassiker, als mich verarschen zu lassen. Aber das muss jeder selber wissen.
 
  • Gefällt mir
Reaktionen: ETI1120, Deinorius und Mcr-King
blackiwid schrieb:
Finds lustig das mir hier Wunschdenken vorgeworfen wird und Fanboyblase, dabei basiere ich hier meine Vorstellungen auf harte Zahlen in 2-3 geleakten Benchmarks die alle in dier gleiche Richtung zeigen, wärend man mir dann entgegnet das man nur reine Vermutungen mir entgegen hält.
Äh, also bei mir zählen "geleakte" "Benchmarkergebnisse" ungefähr so viel wie das Bauchgefühl von Foristen, wenn die es gut begründen können. Vorallem wenn es nur zwei bis drei sind. Da weiß man manchmal ja nicht mal, ob die voneinander abschreiben oder auf dem selben Leak fußen.

Daher: warum überhaupt in dem Ausmaß darüber diskutieren? Ist doch Zeit- und Energieverschwendung. Abwarten, und dann kann man sich immernoch den Kopf einkloppen.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und ElliotAlderson
michelthemaster schrieb:
Ich freue mich darauf in ~ 1,5 Jahren dann meine Radeon RX 7900Xt wechseln zu können (kommt dann in den Zweit-PC). Die neuen RX9000er hören sich nett an und werden wohl auch gut, aber der Hauptgrund, nämlich Rechenleistung, erfüllen sie für Besitzer stärkerer (noch) aktueller Karten leider nicht. Aber man muss ja auch nicht alle 2 Jahre was kaufen, dafür sind die Dinger sowieso schon viel zu teuer.
Ich habe mir vor kurzem erst die RX 7900XT zugelegt, weil nach der Präsentation auf der CES von AMD zu RDNA 4 so gut wie nichts rüber kam.

Ich hatte vor kurzem eine immer noch sehr gute RX 6800 im Rechner, doch ich wollte eine klare P/L Steigerung gegenüber der RDNA 2 Karte. Da haben die 709€ für die RDNA 3 Karte gerade gut in mein Budget gepasst.

Einige haben mir davon abgeraten jetzt noch eine RDNA 3 Karte zu kaufen, aber da es die einzigste Möglichkeit war für mich vom Budget her passt das schon.

Wäre RDNA 4 besser ausgefallen, dann hatte ich natürlich zu der neuen Generation gegriffen. Wird da eventuell im Sommer noch eine Karte von AMD kommen oder bleibt es bei RX 9070 und RX 9070 XT ?

Man weis es nicht so recht, aber ich denke die Leistungsklasse darunter wird noch eine Marktveröffentlichung erfahren.

Vielleicht überrascht AMD uns auch noch mit einer High End Karte ?

Fragen über Fragen, die mir wohl noch nicht einmal meine Glaskugel beantworten kann. 🤔🤔🤔
 
Der abstand zwischen einer rtx4070 super und rtx4080 ist klein nach benchmarks sind es nur 20% real müssten es +35% sein
Das warum wird schnell klar CPU limit
Davon ist nvidia stärker betroffen als amd das macht vergleiche relativ schwer und weil genau dazwischen die rx9070 /xt liegen soll ist die Preiseinordnung so schwer

Positiv überrascht wäre ich wenn amd in dxr auf level der rtx4070ti super wäre und bei raster knapp an der rtx4080 das aber ist sehr unwahrscheinlich.
Aktuell komme ich auf grob 64cu vs 56sm was in etwa der rtx4070 super entspricht in dxr und in raster knapp über die rx7900xt
zum vergleich ne rx7900xtx kommt mit 96cu auf nur 46sm
nvidia rtx50 Serie ist ne fette Wundertüte und hängt stark davon ab welche api läuft legacy (dx9) ist man sogar langsamer als der Vorgänger.
in zahlen wird das so ablaufen
raster 100fps rx9070xt vs 91fps rx7900xtx = -9%
dxr 100fps rx9070 xt vs 76fps rx7900xtx = +30% mit etx4070 super vergleich was in etwa -6% resultiert
Das zwingt amd auf den 549$ preispunkt also hier 649€ womit die cut mit nur 2,6ghz der 56cu Modell dann auf level der rtx4070 bringt da muss amd auf die 499$ marke hier 579€
Und puff weg die Euphorie mit P/L in dxr exakt das gleiche P/L wie nvidia und in raster leicht schneller wo es nicht notwendig ist.
Dagegen ist nvidia rtx5070 die kaum schneller als ne rtx4070 ist bei gleichem preis.
Hier sind 100fps rtx4070 super 56sm vs 93fps rtx5070 = -7%
also exakt gleichstand vs amd rx9070xt
wegen des größeren vram geht klar die Empfehlung an amd diese gen

Daher erwarte ich von nvidia 2026 ein refresh mit 24gbit auf 18gb
Der abstand vs rtx4070 ist klein +14% im maximum und das minimum bei -12% und im Mittel +5%
Das ist stagnation da ist amd Angebot mit rx9070 besser trotz der 230w tbp
Nur eben mit dxr eher meh

Denke ich weiter in die Zukunft mit n3 gefertigten gpu wird es da keine mehr geben
Amd dürfte komplett auf apu gehen abseits dem high end
Nvidia geht klar Richtung high end only mit dann einen chip gr203 4gpc a18sm a256alu Heute wären das 144sm aktiv 136sm 120sm
sku dann
rtx6090 136sm/68sm 3,0ghz rtx5090 +5%
rtx6080 120sm/60sm 3,0ghz +- rtx4090
Darunter offen gut möglich das ne rtx6070ti gibt mit 48sm 2,6ghz 290w tbp +42%
Und das ist ein großes ?
Den amd wird bis zu dieser perf. in apu was haben mit dann 60cu a128alu 3,0ghz
allerdings ist das wann offen den das sehe ich bei amd erst mit n2 node kommen und das dürfte noch bis Mitte 2027 auf sich warten lassen
Sicher ist nur das mit blackwell und rdna4 erstmal stilstand herrscht bis 2029 wenn dann a16 bereit ist.
Doppelte alu und doppelter Takt.
gestapelte gpu kommen erst danach da erst dann Kapazität frei wird.

Folglich ist ein aufrüsten aktuell schwierig man kann nur mit mehr tbp mehr perf. bis 2029 bekommen

Womit der ideale sweetspot nur die rx9070 (230w) und die rtx4070 super (220w) wäre. Will man weniger bleibt die perf. bei grob ps5 pro level mit 180w (+- 16-18tf) und das bis zur ps6 2028 dann muss man zu ner apu greifen mangels alternativen.

Was uns zu den preisen bringt
rtx5070 649€ (wie erwähnt nicht wirklich schneller als ne rtx4070)
rx9070xt 649€ (klare Kaufempfehlung)
rx9070 579€ (beste option die es geben wird auf dem Markt)
rtx5070ti 869€ (ein Witz in sich)
rtx5060 grob 15tf rtx4060 +0%-+27% vermutlich 379€ 8gb (gb206 28sm)
rtx5060ti grob rtx4060ti -6% - +20% vermutlich 469€ 12gb (gb205 38sm)
rx9060xt 16gb grob rtx4060ti lvl dxr auf rtx4060 289€ (ps5 pro lvl)
rx9050xt 12gb (28cu) grob rx6700xt lvl in dxr rtx3060 lvl 229€ (ps5 lvl)

Amd gewinnt bis zur ps6 und dann ist offen ob nvidia überhaupt irgendwas bringt unter der 80 class gpu

Die benchmarks werden sehr fehlleitend werden da nvidia klar auf in hardware verbautes dlss setzen wird 88% renderscale ab den rop 1080p =950p 1440p =1267p 2160p =1908p
Das bringt je sm etwa +12%
 
ReactivateMe347 schrieb:
17% Aufpreis sind für mich schon was ganz anderes als 100%, aber das kann ja jeder sehen, wie er mag. Nur den Abzockpreis bezahlen und dann jammern, das kotzt mich immer an.
Sind trotzdem 100€ Aufpreis und vor allem, gabs die 6950xt so ca ein Jahr später dann schon vor 100€ weniger. Aber irgendwo, will man halt spielen, was man spielen will.

SNES Klassiker spielen kann ich mir eh nicht leisten, alte original SNES und passende CRTs sind dieser Tage gar nimmer so leicht zu bekommen. Und meine Frau war da adamant das kein CRT Fernseher mehr im Wohnzimmer stehen soll ... leider nicht praktikabel. Ist irgendwie witzig, ein Cockpit geht, aber beim 150kg CRT hat sie die Linie gezogen, der musste raus. ;-)

Und beim Warten auf eine Normalisierung der Preise reden wir ja auch nicht davon, das jemand von einer 3080 auf ne 4090 upgraded, die 3080 hatte ja die meiste Zeit auch komplett absurde Preise wegen der ETH Blase+Pandemie, gerade als man dachte die Preise in der Generation sein endlich normal, das Spiel geht ja schon seit etwa 2015. Selbst die RX580 die hier drin war und ersetzt werden musste war absurd teuer gewesen, und die hat auch nur eine kaputte Pre-Mining R9 290 ersetzt.

Irgendwann hat man halt die Schnauze voll. Und eine Menge Geld gespart ;-)
Davon ab ist der Schritt selbst von einer 3080 auf eine 4090 Brachial. Von einer 2080ti wäre es noch mal viel extremer. Selbst von einer 3090ti warens im CB Parkour in 4k ja schon 65% bzw 69% mehr FPS. Ganz ohne Frame Gen. Und

Dazu kommt das die 4090 dann die erste Karte war, die dann bequem Path tracing Games auf die Reihe bekommen hatte. Und Ampere hatte ja ne tolle UVP, zu der aber die meiste Zeit die Karten halt auch bei Händlern nicht verfügbar waren. Also waren viele auf Turing.

Anyway, was ich eigentlich sagen will, es gibt weniger Unterhaltsame Arten sein Geld loszuwerden als eine 4090 oder 5090. Kennst du die Eso-Welle? Kostet das gleiche wie eine 4090… einfach auf der Zunge zergehen lassen.
 
syfsyn
Ein lustiges Szenario wäre, wenn AMD mit einem FSR4 daher tanzt, welches ein ähnliches KI Modell verwendet wie DLS4, FG auch MultiFrame hat, eine GPU im Bereich der 5070TI und günstiger ist. (Die 5080 ist schon sehr teuer und die 5090 werden neben Firmen eher hardcoregsmer kaufen.)
Wäre ja nicht so, als AMD mit FSR und FG nicht dieselben Grundlagen hätte, außer dass sie bisher am Ende ein Algorithmus statt KI Unterstützung verwendet haben.

Dann können sich die Karten plötzlich schnell drehen und alle FakeFrames Befürworter müssen plötzlich mit eigener Argumentationsbasis auseinandersetzen.

AMD per se kann aktuell sowieso nur mehr "Gewinnen" weil sie hier im Forum schon vor irgendwelchen offiziellen Tests / Treiber ect abgeschrieben sind.

PS: Nur weil es in den Consumer Karten bisher keine KI und RT Cores gab, heißt das nicht, dass AMD intern keine Modelle hat, mit denen sie das simulieren können und seit Jahren an FSR4 arbeiten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DannyA4
Das Problem von AMD ist halt, dass FSR4 noch so toll sein kann, es aber nichts bringt wenns am Ende kaum einer unterstützt. Oder erst viel später. Gibt ja heute noch genug Spiele, die nichtmal FSR3 können.
 
Bin gespannt, welche Leistung die PS 6 bekommt. Ich hoffe AMD kann hier Gas geben und die Performance für die Konsole merklich verbessern ggü. heute. Bei Crossplay Spielen PS/XBOX und PC merkt man doch, dass die Konsolen hinterherlaufen. Früher war das einmal anders.

aid0nex schrieb:
Warum nicht? Die 4090 ist aus 2022, also zu dem Zeitpunkt des Releases ist die Karte schon 4 Jahre alt. Zudem bekommen Konsolenhersteller immer Vorabzugriff auf die neuesten Architekturen und Fertigungsprozesse, einfach weil sie Hardwarenachfrage in enormen Stückzahlen garantieren.
Glaubst du wirklich das nächste Jahr eine XBOX mit einer Leistung zwischen RTX5080 und RTX5090, eher Richtung RTX5090 für $499,- kommen wird? Ich definitiv nicht. Selbst wenn es der 31.12.2026 sein wird.
 
Cr4y schrieb:
Da weiß man manchmal ja nicht mal, ob die voneinander abschreiben oder auf dem selben Leak fußen.
Wenn die einen Spiel A B C leaken und ide andern 16 andere games... teils mit anderen settings dann ist abschreiben schwer möglich.
 
syfsyn schrieb:
Der abstand zwischen einer rtx4070 super und rtx4080
Der Abstand zwischen einer 4070 super und 4080 sind 36% im Durchschnitt in Spielen, das ist nicht wirklich klein. Alles unter 10% is klein aber 36% mehr Leistung? Das ist ein weit größerer Abstand als von der 4080 zur 4090 was nur 26% sind.

Das ist das dreifache als wie der Abstand der 5080 gegenüber der 4080 super was ja laut Gerüchten nur 12% sein soll 😉
 
Nightmar17 schrieb:
.
Bei den Konsolen wird die Grafikleistung ja oft an den TFLOPs bemessen und da muss die PS6, die 30 TFLOPs auch knacken.
Die PS5 Pro hat auch mit 16,7 den Maßstab gelegt.
Aber in 2 Jahren sollte das durchaus machbar sein, die Entwicklung geht ja auch weiter.
Konsolen sind durch ihre Anbindung von RAM und HD auch etwas im Vorteil, der auch weiter ausgebaut werden kann.

So etwa Faktor 4 bis 6 ist nötig um sich gut von der alten Generation abzusetzen, wenn die Technik in etwa gleich bleibt.
Von 15 auf 30Tflop liest sich in Computer Foren Sensationell, in Wirklichkeit ist das optisch nur etwas besser oder flüssigeres Gameplay.

Rein nur TFLOPs würde eine PS6 65 - 90 benötigen.
Das wird allerdings auch 2027/28 in günstigen Konsolen nur schwer finanzierbar sein.

Upscaling wird sicher der Knackpunkt werden, wie auch die CPU Anbindung.
Direkt danach eine sehr hohe RT Leistung um auch ein Zugpferd für Werbung zu haben, damit auch möglichst viele auf die neue PS umsteigen.

Mit den 3nm Produkten in 2026 von AMD/Nvidia werden wir dann eher Wissen wohin die Reise bei der PS6 in 27/28 geht.
 
Zurück
Oben