News GPU-Gerüchte: Radeon RX 8800 XT soll der RTX 4080 die Stirn bieten

theGucky schrieb:
Keine Frage, aber diese Preise gibt es nicht mehr und sind HEUTE irrelevant.
Ich schrieb dass weil hier so viele mit RX7800XT Performance Karten (Zb Rx6800XT) auf eine RX8800XT schielen.
Ich wollte betonen, es ist kein Sinnvolles upgrade. Preis Leistung sollten wir keine Wunder erwarten.
RNDA 2 war in 7nm. RNDA 3 in 6nm. RNDA 4 wird in 4nm sein ? Also die Wafer werden Teuer für AMD.
 
D3xo schrieb:
Ich zocke zur Zeit Enshrouded und ich bin gezwungen Upscalling zu benutzen um auf 60 FPS in 1440P zu kommen. Und die Grafik im Spiel ist bestenfalls als zweckmäßig zu bezeichnen. Da kann ich mir auch gleich ein 1080P Monitor kaufen. Die Anforderungen von aktuellen spielen sind einfach nur lächerlich.
Da steckt einiges im Detail, man kann diese Details aber oft abstellen und dann läuft es flüssiger.
Gerade in UE5 saugen diese Details viel Leistung.
 
theGucky schrieb:
Bisher sind nur alles Gerüchte. Es ist nicht garantiert das die 5070 nur 12GB VRAM haben wird. Die könnte auch mit 18GB kommen, 3Gb chips z.b.
Die 12 GB der 5070 gelten bereits als gesetzt.
Die 16/18 GB einer möglichen 5070 Super / Ti / Ti Super sind noch Gerüchte.
 
SweetOhm schrieb:
Die 12 GB der 5070 gelten bereits als gesetzt.
Und weil wir vor 2026 eher 2027 keine neuen Konsolen sehen werden, wird das mit den 12 GB auch kein riesengroßes Problem in der Zielauflösung WQHD. Die 12 GB reichen in 98% aller Fälle heute sogar für UHD.

Aber irgendwas muss man sich als AMD-Fan einfach schönreden. Vielleicht überrascht uns AMD aber tatsächlich hinsichtlich der Leistung und Preisgestaltung.
Ich gehe allerdings davon aus, dass AMD für ähnliche Leistung auch ähnliche Preise aufrufen wird. Sind ja nicht (mehr) die Wohlfahrt. Das Preiskämpfe eher keine (ausreichenden) Mehr-Marktanteile bringen, konnte AMD jetzt jahrelang feststellen.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Cool Master
DevPandi schrieb:
Der VRAM-Bedarf wird in der Regel alleine durch die komplexität der Meshes sowie der Auflösung der Texturen bestimmt. An dieser Stelle kann man heute nicht mehr sehr viel "optimieren".

Ja das stimmt wobei man durch Texturen und vor allem neue Formate und Kompression da durchaus noch viel rausholen kann/könnte.

DevPandi schrieb:
Und die Alternativen die es gibt - DirectStorage mit DX12-Sampler-Feedback - können zwar den VRAM-Bedarf senken, könnten am Ende aber sich negativ auf die Energiebilanz auswirken,

Was im Prinzip bei Grafikkarten bzw. System von 300+ Watt den Kuchen nicht wirklich fett macht.
 
Mal schauen was von den Gerüchten im Januar übrig bleibt, meine 5700XT wartet auf Erlösung.
 
  • Gefällt mir
Reaktionen: SweetOhm
@Knobi Wahn RX6800XT/7800XT sowie die schnelleren RX6900XT lohnen sich nicht so für die 8800XT aufzugeben.
Bei deiner RX5700XT lohnt es sich allerdings auf jeden fall.
 
  • Gefällt mir
Reaktionen: SweetOhm
Abwarten und Tee trinken, ich bin aufjedenfall Happy das ich nicht auf die neuen AMD und Nvidia Karten gewartet habe und mit eine 7900xt für 600€ vor 5 Monaten geholt habe - neu online bestellt - die neuen Karten sind immer noch nicht da und die 7900xt gabs bisher auch nur selten nochmal so günstig.

Mal sehn ob die Karten spannend werden, da könnte die 7900xt ersetzt werden und dafür in den Rechner meine Freundin wandern.
 
  • Gefällt mir
Reaktionen: SweetOhm
theGucky schrieb:
Da steckt einiges im Detail, man kann diese Details aber oft abstellen und dann läuft es flüssiger.
Gerade in UE5 saugen diese Details viel Leistung.
Glaub mir, ich habe schon alles versucht. Das Spiel reagiert auf fast nichts, nur mit der Beleuchtung kann man ein paar zusätzliche FPS gewinnen. Alles Andere zeigt keine Wirkung, du kannst auch fast alles komplett deaktivieren. Das sind die sogenannten „ Pseudo-Slider“ die nicht bringen. Das Spiel reagiert nur wenn man FSR3 aktiviert.
 
"...now I see fire, inside the mountain..."
wird das der Start einer neuen AMD-Erfolgsgeschichte?
 
Quidproquo77 schrieb:
RT ist der Goldstandard, wenn da etwas nicht positiv aufgenommen wird, dann liegt es entweder an mangelndem Verständnis oder an Grabenkämpfen. In 1-2 Jahren wird diese Debatte niemand mehr führen.
Das ist doch ignorant. Gibt dazu etliche Videos (gerade auch kürzlich von HU) die viele Titel hinsichtlich ihrer RT und besserer Optik untersucht haben.. Das Fazit ist mehr oder weniger, das nur eine Handvoll Titel überhaupt einen sichtbaren Unterschied bieten (und von denen kann man noch einige abziehen, wo RT teilweise schlechter aussieht). Lediglich weniger als 5 Spiele lohnen sich mit RT.. Und bei denen ist RT so hoch eingestellt, daß selbst 4070 und darunter damit Probleme haben. HU kam zu dem Schluß, daß ein high Refresh/high FPS Erlebnis wesentlich eindrucksvoller ist als korrekte Schatten und GI. Und das Argument, daß RT den Entwicklern Arbeit abnimmt ist nur die halbe Wahrheit, denn solange die Mid und Low Level Karten RT nicht gut beherrschen, muessen die Devs beides machen.. Fake Schatten und Illu und RT.
RT Frist mehr Leistung als es hergibt. Deswegen ist die Entwicklung in dem Bereich auch so schleichend und muss von NV weiter finanziell gefördert werden, damit die Devs den Extraaufwand betreiben
 
  • Gefällt mir
Reaktionen: ruthi91 und SweetOhm
DevPandi schrieb:
Ich habe an keiner Stelle geschrieben, dass AMD hier die bessere Produkte abliefert und dass die Leute dennoch zu Nvidia greifen.

Dann hast du mich und meinen ersten Beitrag an dich an dieser Stelle falsch aufgefasst

Ich habe auf deine ursprüngliche Aussage nach der Feststellung von DLSS und RT ganz bewusst "Ja und Nein" geschrieben.

Habe ich das geschrieben? Nein.

Ich habe hier an keiner Stelle geschrieben, dass AMD das bessere P/L-Verhältnis hat.
Egal wie oder was Du sagst/schreibst, wird immer fehl interpretiert und dann die "falschen" Worte Dir in den Mund gelegt und Be- Nachweise gefordert. Wenn diese nicht lieferst (für die Unterstellung) bist eh ein Cherry Fanboy ... :freaky:
Ergänzung ()

kachiri schrieb:
Aber irgendwas muss man sich als AMD-Fan einfach schönreden. Vielleicht überrascht uns AMD aber tatsächlich hinsichtlich der Leistung und Preisgestaltung.
Das haben/tun sie schon seit mind. einer Dekade (bzgl. besseres PL Verhältnis).
Aber irgendwie muss man das als NV Fan verdrängen ... :daumen:
 
Zuletzt bearbeitet:
jonderson schrieb:
Immer weniger Spieler für die Hardware und auch immer weniger Käufer für Computerspiele, was ebenfalls den Markt schwächt und die Rentabilität von aufwendigen Spielen in Frage stellt...
Ist das ein diffuses Gefühl basiert dieser Annahme aufgrund Fakten?

AMD und Nvidia verkaufen 10 Millionen Gaming GPU pro Quartal.

Dieser Absatz ist seit vielen Jahren stabil und wurde nur durch die beiden Mining Hype in 2018 und 2021-22 etwas verzerrt

Der Markt für Games ist wieder kräftig gewachsen und 200 Milliarden schwer.

Zum Vergleich, die Filmbranche setzt nur 70 Millionen pro Jahr um
 
F4711 schrieb:
RT Frist mehr Leistung als es hergibt. Deswegen ist die Entwicklung in dem Bereich auch so schleichend und muss von NV weiter finanziell gefördert werden, damit die Devs den Extraaufwand betreiben
Aller Anfang ist schwer. Aber wenn ich mir alleine Warthunder anschaue, mit der echt alten Engine und dem neuen Update bei dem RT reingepatcht wurde, ist der optische Unterschied gewaltig zum positiven. RT wird Standard, da geht kein Weg daran vorbei.
Da können sich Youtuber noch so sehr im Kreis drehen, ändert nichts, dass es ein technischer Fortschritt ist und Fortschritte brauchen Zeit. Dazu muss man sich nur die technische Entwicklung der 3D Grafik in den letzten 20 Jahren mal anschauen. Vieles hat gedauert und wurde Standard.
 
wechseler schrieb:
Meine PS4 und PC-GPU brauchen jeweils 75 W, und meine Zen-APU braucht 25 W.

250-300 W gab es bei mir nie, und wird auch nie kommen.
Äpfel und Birnen, würde ich sagen. Da hätte ich auch mein Smartphone anführen können und das kann mehr als die PS4. Ich hab mich auch für eine APU entschieden und bin damit sehr zufrieden. Es gibt aber nun mal Anwendungen auch abseits von Spielen, wo eine dGPU unumgänglich ist. Da sind 260W stock durchaus effizient.
 
  • Gefällt mir
Reaktionen: SweetOhm
Boimler schrieb:
Da hätte ich auch mein Smartphone anführen können und das kann mehr als die PS4.
Nana, das mit dem Power-Budget aber noch nicht drin.

Boimler schrieb:
Es gibt aber nun mal Anwendungen auch abseits von Spielen, wo eine dGPU unumgänglich ist. Da sind 260W stock durchaus effizient.
Die Anwendungen habe ich nicht. Der PC hat in seinem ganzen Leben 2x 75 W PCIe PWR (so gegen 2011) nie überschritten. Das war bei 40 nm. Ich muss da jetzt nicht 600 W reinjagen, nur weil der neue Stecker das kann.
 
Hat ja auch niemand behauptet ;)
 
  • Gefällt mir
Reaktionen: SweetOhm
DrFreaK666 schrieb:
Weil sich die 4090 sehr gut für ML eignet.
Ein Kollege hat sich die 4090 bestimmt nicht für Stellaris gekauft. Er hätte aber gerne 48GB
Und aus dem gleichen Grund wird Nvidia wahrscheinlich weiter so knausrig beim vram der Spielekarten bleiben.
 
  • Gefällt mir
Reaktionen: SweetOhm
DevPandi schrieb:
Genau, und leider verschläft AMD das im Notebook und Desktop-Markt.
Das glaube ich nicht mal sie waren mit RDNA2 ja schon drin, RDNA3 ist/war für NB viel zu ineffizient gegen Nvidia, im Desktop scheinbar zu teuer in der Herstellung als das es sich für AMD lohnen würde.
Navi48 soll ~270mm2 haben und 256Bit GDDR6, GB205 schätze ich mal auf 220-250mm2 dafür aber eben das teurer GDDR7 und nur 192bit wenn die effizienz ähnlich ist hat AMD den Preisvorteil beim Vram selbst wenn sie die GPU an die OEMs für den selben Preis verkaufen und somit weniger Marge haben, könnte der OEM am Vram spaaren, gegen den GB206 der wohl grössen und Faetcher Mässig gleich Ada bleibt sollte Navi48 haus hoch vorne liegen. wird spannend.

die Kapazitäten bei TSMC sehe ich nicht mehr wirklich als Problem wie es noch zu RDNA3/7nm war.
die haben im Q3 mal eben 200k mehr Wafer belichtet wie im Q2, AMD und Nvidia sind Bestandskunden, Intel ein extra Kunde der aber auch die teurer N3 Fertigung nutzt. TSMC macht inzwischen 69% des Umsatzes mit 7nm oder kleiner im Q3/22 haben sie zwar nur 54% aber dafür nochmals 500k Wafer mehr je Quatal.
Nvidia konnte Hopper auch recht kurzfristig erhöhen, und ich kann mir nicht vorstellen das Intel bevorzugt wird, dann verbleiben eben die 5/4nm länger bis sie Umgestellt werden und 3nm wird eben beschleunigt ausgebaut auf Intel kosten. TSMC wird alles tun um jeden Kunden zu bedienen wenn alle mehr wollen wird mehr Kapazität geschaffen, aber kann mir nicht vorstellen das TSMC AMD oder Nvidia Kapazitäten bei 5/4nm wegnimmt um Intel mehr 3nm zur verfügung zu stellen, dann wird das um/hochrüsten einfach verschoben und für Intel was neues gekauft
 
Zurück
Oben