News GPU-Gerüchte: Radeon RX 8800 XT soll der RTX 4080 die Stirn bieten

@Nighteye
Schau dir mal die höheren Auflösungen an. Da verhält es sich dennoch ähnlich außer bei 4k. Allerdings schätze ich bei 4k reicht die grundsätzliche Leistung der GPU bei vielen Karten einfach gar nicht mehr. Wenn du nur 10GB hast, das Spiel sich aber auf einer 20GB auch mal 16GB gönnt, heißt es noch nicht, dass 10GB zu wenig sind. Das ist ein bisschen ein Irrglaube. Spiele halten im VRam auch einfach mal Daten vor, die gar nicht benötigt werden.
Soll nicht heißen, dass 10GB heute noch reichen. Bzw. geht es mir grade nicht darum, wieviel VRam man haben sollte.
 
DrFreaK666 schrieb:
Man kann 2025 natürlich weiterhin eine 70er mit 12GB empfehlen, aber bitte nur jemandem, den man nicht leiden kann
Ich sag ja nicht was ich empfehlen würde, nur was performance mäßig der Gegner sein wird.
Und nur mit 4GB mehr VRAM wird man keinen höheren Preis verlangen können, solange man eine 5070 nicht schlägt
 
DiePalme schrieb:
@Nighteye
Schau dir mal die höheren Auflösungen an. Da verhält es sich dennoch ähnlich außer bei 4k.
Bedenke was ich vorher schrieb :) PCGH hat ein ich glaub 25 min Video zu Stalker 2 nach dem Test gemacht. Dass kam ca 1 Woche später.
Da haben sie erklärt dass sie für diese Tests nur Saveloads genommen haben, die den Best Case darstellen, und sich im verlauf des Spiels der Vram Bedarf erhöht hat, dies aber nicht im Test gezeigt wird.
Vorallem je nach Ort.
Was ja auch zu meinem Star Citizen beispiel passt.
Im ersten Sonnensystem wo wir momentan unterwegs sind, hab ich auch nur 13-15GB Vram Bedarf.
1733324614624.png

Und in diesem neuen System welches 4x Größer ist, haben die Leute halt bis 19GB Vram bei 1440p.
Also je nach Ort, schwankend.
Will damit sagen, nur weil es bei manchen Stellen im Spiel aussreicht, muss es dass nicht immer.
Man sollte nie auf Kante nähen. Besonders heutzutage wo immer mehr Spiele dem Vram bedarf erhöht haben.

Hier irgend ein Random Spiel.
8GB Card dont use 8GB even if needed.jpg


Hier noch Callisto Protocol
The Callisto Protocol 1440p.png


Hier noch Star Wars
RTX 4060ti 16GB vs 8 GB Star Wars.png


Ich würde jedenfalls keine 12GB Vram Karte mehr Kaufen im Jahr 2025. Eindeutig zu wenig für meine Spiele in 1440p.
Ich gehe sogar so weit und würde mir keine 16GB Vram Karte mehr anschaffen, weil meine Karte bereits 16GB Vram hat, und ich wenn dann schon einen Sprung nach Oben machen wollen würde.
Geplant ist bei mir als nächstes eine UDNA 2 mit 24GB Vram in 2028.
(Denke RDNA 4 kommt 2025 mit 16GB, 2026 kommt UDNA 1, und 2028 UDNA 2)
 
Nighteye schrieb:
Bedenke was ich vorher schrieb :) PCGH hat ein ich glaub 25 min Video zu Stalker 2 nach dem Test gemacht. Dass kam ca 1 Woche später.
Stalker finde ich eher kein gutes Beispiel, da es optisch die Hardwareanforderungen meiner Meinung nach gar nicht widerspiegelt.
Ich würde mich auch keine 8 oder 12GB Karte mehr kaufen. Ich widerspreche dir auch in keinem Punkt. Für mich stellt sich immer nur die Frage, wo genau ist der Punkt, an dem sich zu wenig VRam wirklich massiv bemerkbar macht. Reine Messungen wie voll der VRam laufen kann, helfen da nicht. Man müsste direkt so benchen, dass man den Einbruch direkt sehen/messen kann. Die Beispiele die du hier zeigst, sind ja deutlich wie das aussehen kann.
Die Frage, rein aus Neugierde, die ich mir stelle bei deinen Beispielen. Wie sieht es bei einer 10 oder 12GB Karte aus. Wären da derartige Einbrüche auch vorhanden, oder würde es doch noch gut laufen?

Grundlegend würde ich aktuell nichts mehr unter 16GB nehmen.
 
  • Gefällt mir
Reaktionen: Nighteye
Taxxor schrieb:
Ich sag ja nicht was ich empfehlen würde, nur was performance mäßig der Gegner sein wird.
Und nur mit 4GB mehr VRAM wird man keinen höheren Preis verlangen können, solange man eine 5070 nicht schlägt
Sollten die beiden Karten am Ende, allerdings gleich schnell werden.
Dürften die zusätzlichen 4GB, wohl wie nach einem Feuersturm, am Ende, nur noch eine verbrannte Schneise der Verwüstung in Nvidia Portfolio hinterlassen.
 
Zuletzt bearbeitet:
ElliotAlderson schrieb:
Haben andere auch, was bringt mir das effektiv als Kunde? Gar nichts. Es spielt für den Kunden keine Rolle.


Hat einen Marktanteil von 3%. Ist also ebenfalls irrelevant.
Wie viel es dir bringt wirst du wohl erst verstehen, wenn es keine offenen Standards mehr geben sollte.
 
  • Gefällt mir
Reaktionen: jonderson
Aber beim Preis muss man sich nichts vormachen. AMD wird den Preis aufrufen, den sie bekommen können. Wenn er Anfangs zu hoch ausfällt, wird nachreguliert. Die Käufer bestimmen hier, wie immer den Preis. Die Grundlagen der Marktwirtschaft...
 
ElliotAlderson schrieb:
Was für eine nichtssagende Aussage.
Nee, er hat dich aufgefordert, über das Problem der nicht-offenen Standards nachzudenken.
Ich denke, die Aussage sagt schon was, wenn man dafür die denkfähigkeit mitbringt.
 
@Supermax2004 War das denn Früher anders?

Ich habe erst vor knapp 2 Jahren angefangen mich intensiver mit Hardware zu beschäftigen anstelle ALDI-Fertig-PCs zu kaufen - aber NVIDIAS 4000er "SUPER"-Karten vor einem Jahr kamen doch ganz genauso...
 
ElliotAlderson schrieb:
Aus Anwendersicht? Gibts keine. Mir ist es sowas von egal, ob FSR offen oder closed ist. Das macht für uns null Unterschied.
Was wäre anders jetzt, wenn FSR closed wäre? Nichts ;)
Ich weiß jetzt nicht ob ich lachen oder weinen soll, aber ich will ja nicht so sein und deinen Horizont etwas erweitern:
  • Eine Grafikkarte deiner Wahl in das Mainboard reinstecken? Nicht möglich ohne offenem PCIe Standard.
  • Ein Netzteil deiner Wahl nutzen? Nicht möglich ohne offenen Standard.
  • Eine Nvme/Festplatte deiner Wahl nutzen? Nicht möglich ohne offenen Standard.
  • Ein Gehäuse deiner Wahl nutzen? Nicht möglich ohne offenen Standard.
  • Die Hardware deine Wahl fürs Betriebssystem nutzen? Nicht möglich ohne offene Standards.
  • eMails mit dem eMail-Programm abholen? nicht möglich ohne offenen Standard.
  • eMails versenden und empfangen an jeden anderen eMail Provider? nicht möglich ohne offenen Standard.
  • Webseite mit einem Browser deiner Wahl öffnen? Nicht möglich ohne offenen Standard.
  • Telefonieren mit dem Smartphone/Telefon deiner Wahl? Nicht möglich ohne offenen Standard.

Und witzigerweise ist zeigen sich die Vorteile bei ausgerechnet bei FSR und DLSS sehr deutlich.
  • Ich kann unter Linux (keine Ahnung wie es unter Windows ist) mit JEDEM Spiel FSR nutzen, eben weil es offen ist.
  • FSR ist, wenn technisch möglich, für JEDE Grafikkarte verfügbar und JEDE Generation möglich.
    Kein: Ich will ja ein Verkaufsargument haben, also mache ich Version X nur für die neueste Generation verfügbar.
  • FSR ist sogar für die Spielekonsolen verfügbar
  • Erhöht die Gesundheit des Grafikkarten-Marktes, weil es eben kein Quasi-Monopol bildet/festigen lässt.
Und das sind jetzt nur die für DAUs am sichtbarsten Vorteile.
Dazu kommt noch so Dinge wie, dass es jeder weiterentwickeln kann, selbst wenn AMD Tod ist, "Amok" läuft und scheiß Entscheidungen bei FSR trifft oder kein Bock mehr hat FSR weiter zu entwickeln usw.

Kannst ja mal versuche GSync wieder zum leben zu erwecken ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Enyo79
jonderson schrieb:
iIch kann unter Linux (keine Ahnung wie es unter Windows ist) mit JEDEM Spiel FSR nutzen, eben weil es offen ist.
Ja, weil AMD es für Linux portiert hat. DLSS läuft auch unter Linux und ist nicht offen. Ist also kein Argument.
jonderson schrieb:
FSR ist, wenn technisch möglich, für JEDE Grafikkarte verfügbar und JEDE Generation möglich.
Kein: Ich will ja ein Verkaufsargument haben, also mache ich Version X nur für die neueste Generation verfügbar.
Wenn technisch möglich ist es DLSS auch, musst halt nur dafür zahlen bzw. es lizensieren, aber das ist mir als Endanwender egal. Es muss für mich laufen, wenn ich es benötige/möchte. Ob es auf Gerät xy läuft bringt mir dann was? Richtig, nichts!

jonderson schrieb:
FSR ist sogar für die Spielekonsolen verfügbar
hahahaha, ab diesem Punkt weiß ich nicht mehr, ob ich dich noch ernstnehmen soll.
AMDs FSR läuft auch auf AMDs Konsolenhardware? Nein, das gibts nicht!
DLSS läuft auch auf Konsolen (Switch 2), also was ist dein Argument?

jonderson schrieb:
Erhöht die Gesundheit des Grafikkarten-Marktes, weil es eben kein Quasi-Monopol bildet/festigen lässt.
Das hat mit offen nichts zutun, sondern ist der Tatsache geschuldet, dass es mehr als einen Mitbewerber gibt. DirectX ist auch kein offener Standard, aber heute der Standard für Spiele. Widerspricht sämtlichen deiner Argumente.

Und bezüglich PC und Hardware: Display Port ist OS, HDMI nicht, trotzdem bringt mir das als Endkunde einen scheiss. Mehr Geräte supporten HDMI als DP.

Das mit den Netzteilen ist auch Unfug. Ich kann die Kabel vom BeQuiet nicht beim Corsair nutzen. Ich kann sie nicht mal bei einer anderen Baureihe von BQ nutzen. Was du hier meinst sind Normierungen und keine offenen Standards.
Von Standards, auf die sich die Industrie einigt, profitieren wir, aber dafür müssen sie nicht offen sein. FSR ist auch kein Standard, da er nur von AMD entwickelt und genutzt wird. Alle anderen kochen ihr eigenes Süppchen (PSSR, XeSS, DLSS).

Funfact: Um an die Spezifikationen von PCIe zu kommen, musst du member der PCI SIG sein, was $4000 kostet, oder eine Gebühr bezahlen. Wo ist das offen?!

Witzigerweise will AMD mit FSR 4 die KI Einheiten ihrer Karten nutzen. Das war es dann auch mit "läuft auf jeder HW" und du verwechselst hier offen, also open source, mit proprietär.

Etwas kann open source sein, aber trotzdem spezielle HW voraussetzen (ROCm), genau so wie etwas proprietär sein kann und von verschiedenen Geräten unterstützt wird (HDMI).
 
Zuletzt bearbeitet:
Zurück
Oben