News Next-Gen-Grafikkarten: Was erwartet ihr von GeForce RTX 50 und Radeon RX 8000?

Pisaro schrieb:
Das ergibt wie genau Sinn?
Weil ich mehr Leistung überhaupt nicht brauche sondern mehr Effizienz! Spiele fast nur noch Tekken 8 online alles andere bleibt liegen oder wird nur viel zu selten gespielt. Hab noch spiele von 2016 nachzuholen, da reicht eine viel kleinere Karte aus. Die 4090 kann man noch gut los werden also weg damit, wenn ich es nicht brauche.
 
  • Gefällt mir
Reaktionen: Chocobo
Chismon schrieb:
Ansonsten, schauen wir 'mal, für mich sind RTX 5000 oder RDNA4 nur bei einem Laptopkauf bzw. in mobiler Ausgabe evt. Interessant (Arc Battlemage soll dafür leider nicht kommen).
Wurde doch aber schon mal davon berichtet dass es ein mobile Version gibt (siehe Link)

https://www.pcgameshardware.de/CPU-...a-200V-Lunar-Lake-mit-Xe2-Battlemage-1455080/

p.s. auf einer anderen Seite wird allerdings von Verschiebung oder evtl. sogar Streichung geschrieben ...
Ergänzung ()

Bullgard schrieb:
Wenn die neue AMD 8000 nicht wirklich schneller als die 7900XT sein soll, aber trotzdem 699€ kosten soll, braucht man die nicht wirklich.
Nur für Gamer jene sich einen Sidegrade vorstellen können, da weniger Verbrauch und mehr RT Leistung, und auf dies besonders Wert legen ...
Ergänzung ()

RogueSix schrieb:
Übrigens passend zur Diskussion und auch meine zuvor geäußerte Mutmaßung:

RTX 5090 GPU Won’t Have A Significant Price Increase Over RTX 4090​

https://wccftech.com/nvidia-geforce-rtx-5090-gpu-wont-have-significant-price-increase-over-4090/
Und Du glaubst nicht, dass sich NV die 32 GB RAM (an 512 Bit) vergolden lässt ?!?
Pauschal wäre die "Milchmädchenrechnung" das Doppelte der 4080 UVP naheliegend.
Also ca. 2649 €
Ergänzung ()

MoinWoll schrieb:
Bitte bei der Wahrheit bleiben. Sie hat 50% (999€ vs. 1499€) mehr gekostet
Ja, BITTE !!
Als die 3090 2000 € gekostet hat, kostete die 6900XT 1000 €, beim Preis von 2200 waren es 1100, bei 1700 waren es 850 und bei 1500 waren es 750 €.
999 vs. 1499 war lediglich die UVP zu Release. Die Realpreise zu denen 90% + gekauft haben sahen anders aus.
Hab ich anno Dazumal mit Screenshots gepostet. Wenn drauf bestehst, mach ich mir die Tage die Mühe und kruschtel diese raus und sende sie Dir via PN.

p.s. "tolle" Benches hab ich auch (von CB u. PCGH) ...
 

Anhänge

  • 4K RT.jpg
    4K RT.jpg
    208,1 KB · Aufrufe: 37
  • a.jpg
    a.jpg
    246,3 KB · Aufrufe: 40
  • b.jpg
    b.jpg
    228,5 KB · Aufrufe: 30
  • c.jpg
    c.jpg
    238,2 KB · Aufrufe: 31
  • d.jpg
    d.jpg
    235,3 KB · Aufrufe: 32
  • e.jpg
    e.jpg
    232,3 KB · Aufrufe: 32
  • f.jpg
    f.jpg
    238,5 KB · Aufrufe: 33
  • g.jpg
    g.jpg
    236,5 KB · Aufrufe: 31
  • GPU CP 2077.jpg
    GPU CP 2077.jpg
    229,6 KB · Aufrufe: 25
  • h.jpg
    h.jpg
    187,8 KB · Aufrufe: 31
  • i.jpg
    i.jpg
    254,5 KB · Aufrufe: 25
  • j.jpg
    j.jpg
    159,7 KB · Aufrufe: 28
  • k.jpg
    k.jpg
    163,5 KB · Aufrufe: 24
  • l.jpg
    l.jpg
    161,7 KB · Aufrufe: 27
  • NEUE Games.jpg
    NEUE Games.jpg
    275,9 KB · Aufrufe: 37
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: belive
SweetOhm schrieb:
Ja, BITTE !!
Als die 3090 2000 € gekostet hat, kostete die 6900XT 1000 €, beim Preis von 2200 waren es 1100, bei 1700 waren es 850 und bei 1500 waren es 750 €.
999 vs. 1499 war lediglich die UVP zu Release. Die Realpreise zu denen 90% + gekauft haben sahen anders aus.
Sorry, aber bei so einem krampfhaften Verbiegen der Fakten und Argumentieren anhand irgendwelcher Kaufpreise während des Mining-Booms bin ich raus. Entweder man vergleicht die UVPs oder gar nichts. Im Mining-Boom waren die Preise aller Karten sowieso jenseits von Gut und Böse und man hätte als Gamer am besten gar nichts davon kaufen sollen. Wenn die NV-Karten beim Ethereum-Mining halt effizienter waren, waren natürlich auch die Preise entsprechend dadurch beeinflusst. Nach dem Abflachen des Mining-Booms hatte AMD im Gegensatz zu Nvidia viel zu viel überproduziert. Da ist ebenfalls klar, dass die Preise schneller und stärker in den Keller gingen, als bei Nvidia. Da brauchst Du mir auch keine Screenshots zu schicken.

Auf den Rest von dem was ich geschrieben habe bist Du nichtmal eingegangen. Es ist einfach nur ermüdend auf jeden unsinnigen Punkt einzugehen und diesen zu wiederlegen, nur damit das dann ignoriert wird, um direkt den nächsten Unsinn zu posten. Du hast einen offensichtlichen Hang zu einem bestimmten Hersteller, daher ist eine sachliche Diskussion mit Dir über dieses Thema für mich leider unmöglich.

Edit: Na vielen Dank für die Cherry-Picking-Screenshots einzelner Spiele und 1080p-0,2%-Lows-Benchmarks (effektiv CPU-Benchmarks bei diesen Karten) sowie das komplette Ignorieren von RT. Ich habe die aktuellsten Benchmarks, mit einem großen Spieleparkour, in der sinnvollsten Zielauflösung für solche Karten (4K), sowohl in Raster, als auch RT, gepostet. Soll ich jetzt anfangen Einzel-Benchmark-Screenshots von Alan Wake 2, Cyberpunk, Black Myth Wukong, Star Wars Outlaws usw., jeweils mit Pathtracing/Full RT, zu posten? Ich bin damit raus aus der Diskussion.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cinquedea
wieso sollte man die UVPs vergleichen? Seit wann kann ich als Kunde für die unverbindliche Preisempfehlung die Karten kaufen?
Das einzige was zählt, sind Realpreise.
 
  • Gefällt mir
Reaktionen: SweetOhm
Obvision schrieb:
wieso sollte man die UVPs vergleichen?
Weil wir hier von einer Generation (RDNA2/Ampere) sprechen, in der die Kaufpreise fast durchgehend durch das bestimmt waren, was Krypto-Miner für die jeweilige Karte bereit waren zu zahlen, auf Grund der jeweiligen Effizienz beim Ethereum-Mining. Das macht einen sinnvollen Vergleich des P/L-Verhältnisses anhand der Kaufpreise während des Mining-Booms unmöglich. In der aktuellen oder der vorletzten Generation wäre es legitimer, aber auch nicht unbedingt sinnvoll, da sich die Kaufpreise ständig ändern und dann noch je nach Custom-Modell variieren können. Es ging ja nicht um eine tagesaktuelle Kaufberatung, wo man halt schauen muss was gerade Sinn macht, sondern um das, was einem die Hersteller ursprünglich jeweils angeboten haben.

Zur Erinnerung, das hier war der Post, der die Diskussion gestartet hat:
K3ks schrieb:
6000 vs 3000 war AMD imo überall besser bis auf RT und hatte halt nicht die Krone weil 3090ti 5%-10% schneller in Raster war, die Leute haben garantiert trotzdem alle NV gekauft. ^^
 
Zuletzt bearbeitet:
Was ich von den 50xx Karten vor allem erwarte? Daß sie ziemlich - unverschämt teuer sein werden!
Braucht man kein Hellseher für zu sein, Nvidia ist Nvidia und zumindest bis auf weiteres ohne ernsthafte Konkurrenz. Und Jensen Huang & Co sorgen ja bereits dafür, daß mögliche Alternativen (zB die 4090 am oberen Ende) bereits jetzt sehr knapp und teuer werden. Das erwarte ich auch für die 4080 Super und 4070Ti Super, schließlich könnten die sonst der 5070 und 5080 zu eng auf der Pelle liegen.
Nachdem AMD erst mal keine mit größeren RDNA 4 Karten bringen will, liegt jetzt die Hoffnung wohl (ausgerechnet) auf Intel, hier mit Battlemage etwas gegenzuhalten. Ob Intel dazu im Moment sowohl die Nerven und das Geld dafür haben bzw ausgeben wollen, darf aber auch bezweifelt werden.
 
SweetOhm schrieb:
p.s. auf einer anderen Seite wird allerdings von Verschiebung oder evtl. sogar Streichung geschrieben ...
Ja, leider war das m.W. das letzte Update, welches ich mitbekommen habe (noch bevor Intels Krise medial noch mehr aufbereitet wurde und von einigen schon der Unternehmensuntergang geunkt wurde).

Deswegen denke ich angesichts strapazierter, finanzieller Lage bei Intel wird man leider den Fehler machen dort (beim Einsteig in mobile dGPUs und Einsteiger- bis Mittelklasse-Gaming/Content Creator Laptops) zu streichen, wo man durchaus gut Marktanteile gewinnen könnte, weil AMD dort wenig/schlecht stattfindet bisher und nVidia bisher viel zu wenig Speicher (max. 8GB bis zu einer ziemlich teuren mobilen RTX 4080) bietet, falls denn Arc Battlemage effizient genug sein sollte (was aber Lunar Lake schon irgendwie andeutet).

Allerdings könnte der lahmende Absatz bei Gaming und Content Creator Laptops mit mobilen RTX 5000 dGPUs und evt. mehr Speicher (zumindest kolportiert ab der RTX 5070 dann mit 12 GB und darüber 16 GB (RTX 5080) oder gar 24 GB (RTX 5090)) für natürlich noch mehr Geld (wenn man schon bedenkt, dass alleine der Aufpreis für eine mit nur 8GB Speicher unzureichend bestückte mobile RTX 4070 auf eine 12 GB bestückte mobile RTX 4080 (also untertaktete Desktop RTX 4070) fast abartige 700 Euro (siehe bspw. XMG Neo 16 (E24) Konfigurierung) bedeutet aktuell) etwas aufgebessert werden.
 
Zuletzt bearbeitet:
Chismon schrieb:
Das verkaufst Du als beispiellos günstige PC Gaming Hardware für junge Gamer heutzutage (?) ... ziemlich hanebüchen m.E. und wirklich ernst nehmen kann ich das zumindest nicht.

<100€ sind konkurrenzlos günstig. Dafür gab es früher gar nichts brauchbares.

Und was Du komplett unterschlägst, ist die immer größer werdende Auswahl an genügsamen Spielen. Eigentlich bräuchte ich meine 4070 gar nicht, weil ich fast nur Overwatch, Genshin Impact, und Wuthering Waves spiele.

Dass diese genügsamen Spiele den versammelten AAA-Konsoleneinheitsbrei gameplaymäßig alt aussehen lassen, damit hätte ich früher auch nie gerechnet. Ist aber so. Bei welchem AAA-Game kann man wirklich frei klettern, wie bei Genshin Impact ? Gibt's nicht - immer nur langweilige gelb markierte Kanten.

Mit Half-Life 2 bekam man noch AAA-Gameplay zur AAA-Grafik, aber das ist schon lange vorbei.
 
  • Gefällt mir
Reaktionen: bad_sign
JMP $FCE2 schrieb:
<100€ sind konkurrenzlos günstig. Dafür gab es früher gar nichts brauchbares.

Da ich in den letzten zwanzig Jahren bis neulich mehrmals in diesem Preisbereich unterwegs war: Das stimmt so tatsächlich eher nicht. Aber wie gesagt: Die Lebenszyklen sind länger. Liegt auch an den (Grafikblockbuster)-Spielen, die immer länger brauchen. Selbst Baldur's Gate 3 war 7 Jahre aktiv in Entwicklung, obwohl es auf bestehender Engine+Technologie und auch Mechanik aufsetzte. Und obwohl Larian das Team auf Hundertschaften vervielfacht hatte. Den Hauptgrund hatten sie auch hier klar kommuniziert: Cinematics, sprich Pixelperfektion und Eyecandy für alles -- außer Tiernahrung.

Das Spieleangebot insgesamt ist natürlich so breit wie nie, da ist für jede Hardware und für fast jeden Geschmack was bei -- eine der besten Entwicklungen der letzten Jahre. Denn damals hatten wenige Publisher und auch der Handel noch den Markt im Griff -- und bestimmten entscheidend, was gemacht wird. Ein Kingdom Come Deliverance hätte es z.B. nicht bloß schwer gehabt, finanziert zu werden. Sondern auch ohne digitalen Vertrieb, ein Millionenpublikum zu erreichen. :)
 
Zuletzt bearbeitet:
Was ich erwarte? Ziemlich wenig
da klar ist das kein node sprung gibt und die mehr perf. durch die arch kommen muss gab es von mir mehrere Theorien wie man das wirtschaftlich umsetzen kann

Aktuell ist die Idee das man die sfu wieder aktiv setzt und unter den sm setzt 8 per sm
Das kostet grob 5% chipfläche (von den alu)
Da diese mit den alu den cache teilen. das wird durch den leicht größeren L2 +10% aufgefangen
Der node bringt grob 6% packdichte das gilt aber nicht für samsung sf4

Da sind es 60% packdichte vs 8n das si ist dichter als bei tsmc warum ist offen sicher ist das 192bit inklusive Si 138mm² sind
Dadurch wird der gb205 als einzige option für mich mit der rtx5060ti +- 40sm ich gehe von 38sm aus.
Dann etwa 272mm² sein chip ab 45$ vram 10gb sku ab 449€
perf grob 20tf -12% rtx4070 lvl 180w tbp
Diese sku wäre ideal aber wäre zum Zeitpunkt blöd da nvidia diese ab 499€ verkaufen wird spätestens feb 2025

Die andere Idee ist das nvidia die alu per sm verdoppelt also dann 345mm² chip alles beim alten bleibt und dann 57$ chip sku ab 499€ aber mit 140w tbp perf bei 26tf grob rtx4070 super
Das wird nicht passieren da nvidia lieber mehr Takt als mehr alu hat. zumal die yield sehr schlecht ist 40%
Daher ist erstere mit knapp 50% yield wahrscheinlicher.

Die nächste Idee ist ein hybrid mit 192alu per sm dann 20 rop per gpc diese Idee würde aber mehrere Probleme beim Treiber verursachen und seine zeit brauchen bis alles rund läuft
chip etwa 201mm² messen und etwa 23tf erreichen bei 230w tbp

letzte option ist simple den Takt mitzunehmen das geht aber nur in tsmc n4 node grob 3,1ghz
Das wäre dann mit 40sm 185w tbp grob 21,8tf also gleich schnell wie die rtx4070 bei 2,7ghz

Vom aufwand her ist das ändern der sfu am sinnigsten da die n4 Kapazität komplett für die gb202 gebraucht werden daraus wird der gb203 gewonnen.
Daher muss es samsung sf4 node sein und da taktet der node einfach zu wenig hoch 2,53ghz ist das maximum was zu erwarten ist.
Das problem bei samsung ist die yield je nachdem wie sehr das SI davon betroffen ist muss man 160bit oder 144bit nehmen was aber nur mit 5 oder 9 chips zu lösen ist
Daher nehme ich an das es 160bit sind mit 10gb, 128bit 8gb und da kommen wir zum problem
Die reichen schon jetzt nicht aus in größeren Auflösungen als 1080p
144bit mit 18gb wären angemessener wird aber nicht passieren eher sehe ich nenn refresh mit 15gb mit 24gbit chips und diese kommen frühestens q4 2025
Die sinnvollste Lösung ist das man gddr6 nimmt 18gbps und 144bit (18gb) aktiv lässt und 160bit (20gb) bei der rtx5070 50sm
Da aber nvidia ein vertrag mit samsung hat für gddr7 wird das nix

Wenn man will kann man kompetitive sku planen aber aktuell gibt es keine Konkurrenz amd wird sich nvidia Preisgefüge anpassen
rx8800xtx 559€ (rtx4070 super dxr perf) 250w
rx8800xt 499€ (rtx4070 dxr perf) ps5 pro lvl 220w
Dazwischen ist nix
rx8700xt (n44) 379€ (rtx4060ti dxr perf.) 170w
rx8600xt 299€ (rtx4060 dxr perf rx7600xt lvl) 120w

Intel ist ganz raus da man battlemage auf die low end sku zurück gestutzt hat mit 6xe cores 3072 alu 2,7ghz +- rtx4060 perf. 180w

P/L gewinn für uns Kunden Null und das trotz bessere Fertigung und günstigeren vram preisen.
Amd steigert ihre marge auf 130% aktuell 70% und nvidia hält die marge von 130%
Wird Zeit das die ai blase platzt.

Jetzt passen die preise für die perf. von 2021 aber die Anforderungen sind stärker gestiegen als ich dachte. nahezu verdoppelt in games seit 2020
 
Serandi schrieb:
Weil ich mehr Leistung überhaupt nicht brauche sondern mehr Effizienz!
Und du hast aktuell eine der effizientesten Karten verbaut, wenn du sie entsprechend betreibst.
Auf jeden Fall effizienter als ne 4080
 
  • Gefällt mir
Reaktionen: Serandi
[X] Ehrlich gesagt glaube ich gar nicht daran, dass AMD oder Nvidia dieses Jahr noch neue GPU-Generationen auf den Markt bringen werden.
[X] In der nächsten Generation Ende 2024 bzw. Anfang 2025 wird es Gaming-Grafikkarten mit mehr als 24 GB VRAM geben.
[X] In der nächsten Generation wird es noch immer mindestens eine neue 8-GB-Grafikkarte von Nvidia oder AMD geben.
[X] Die GeForce RTX 5070 wird weniger als 16 GB Grafikspeicher haben. [Die Antwort hätte ich nochmal geändert...]
[X] Die GeForce RTX 5090 wird ein 512-Bit-Interface bieten.
[X] Ja, die GeForce RTX 5090 wird 32 GB VRAM bieten.
[X] Nein, die GeForce RTX 5070 wird einen anderen Speicherausbau erhalten.
[X] Na ja, die GeForce RTX 5080 wird es (zu einem späteren Zeitpunkt) als Ti oder Super-Modell geben, der Grafikspeicher wird aber nicht größer ausfallen.
[X] Ja, die GeForce RTX 5070 wird es (zu einem späteren Zeitpunkt) als Ti oder Super-Modell mit mehr Grafikspeicher geben, also bspw. mit 16 GB GDDR7.
[X] Wann wird die erste GeForce-RTX-50-GPU auf den Markt kommen? Januar 2025
[X] Die RTX 5090 wird im RT-Performancerating auf CB ca. 60 Prozent über der RTX 4090 landen.
[X] Glaubst du daran, dass Nvidia die GeForce RTX 5090 mit 600 Watt spezifiziert? Nein, da glaube ich nicht dran; das Power Target wird wieder bei 450 Watt liegen.
[X] Was schätzt du, wie teuer wird die GeForce RTX 5090 werden? 2.251 bis 2.500 Euro UVP
[X] Wo wird AMDs stärkste Next-Gen-Grafikkarte („Radeon RX 8000“) landen? In etwa auf dem Niveau einer Radeon RX 7900 XTX / GeForce RTX 4080 (Super) (BUUUH!!!)
[X] Die GeForce RTX 4090 ist tatsächlich am Ende ihres Lebenszyklus angekommen und in den nächsten Monaten vom Markt verschwinden.Die GeForce RTX 5090 wird bei der nächsten GPU-Umfrage auf ComputerBase im April 2025 die meistgekaufte Next-Gen-GPU in der Community sein.
 
was für ein langweiliges Umfrage Thema. Fragestellung mit Glaube anzufangen....
hätte man nicht andere Objektiv bewertbare Themen nehmen können?
 
  • Gefällt mir
Reaktionen: Dandelion
Ich erwarte 2500€ für die 5090.
Die offizielle Verkaufsplattform in Deutschland wird eh wieder eBay und Kleinanzeigen sein. Heißt also mehr als 3000€, ganz einfach.
 
Die 5090 läuft außer Konkurrenz somit, denke ich 40 % schneller als die 4090 im besten Fall. Für 60 % mehr Geld als eine 4090.

Sonst werden alle Karten einfach soviel teurer, wie Sie schneller werden. Wie beim letzten Mal. Denke es wird keine Überraschungen geben.

5060 --> 500 €
5060 TI --> 600 €
5070 --> 750 €
5070 TI --> 950 €
5080 --> 1300 €
5090 --> >2200

8800 XT --> 650 €

+15 /-10 % als Unsicherheit

Was die Preise Hauptsächlich beeinflusst wäre AMD mit der 8800 XT, aber AMD wird auch das Maximum an Geld aus der Karte raus-pressen wollen.
Vielleicht das INTEL eine gute Xe2 Karte raus bringt welche vielleicht auf 4070 Super rauskommt, für einen ordentlichen Preis --> Software sollte ja halbwegs gehen Xe2 ist ja dann zumindest im Notebook schon aktiv.
Ergänzung ()

Hitomi schrieb:
Ich währe schon mit einer 5060 mit 24GB VRAM für Stable Diffusion zufrieden.

Ja ne schöne kleine KI-Karte --> wird vermutlich nicht kommen, man soll sich dann schon die 5090 holen wenn man ein paar Bilder erstellen will, geht ja dann auch schneller :D
Warum soll das mit 500 € gehen, wenn man auch 2500 € für die Karte bekommen kann ^_^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und Wanderwisser
Ich erwarte Preise für die 5090 jenseits der 2200€ xD

Mich zwingt zwar keiner ne Grafikkarte dafür zu kaufen, werde ich auch nicht :D
 
  • Gefällt mir
Reaktionen: Chaosbreed
Ich erwarte Stagnation in der Spielebranche, zumindest was die Entwicklung von AAA Spielen angeht, inklusive Auswirkung auf das Angebot neuer Grafikkarten. Mit etwas Abstand betrachtet vom Wunsch nach "höher, schneller, weiter" drängt sich mir immer mehr der Verdacht auf, dass wir an einem Punkt angekommen sind, der für einen Großteil der Spieler nur noch als absurd zu bezeichnen ist. Bis auf wenige Enthusiasten und Wohlhabende, kummuliert auf z.B. Foren wie Computerbase, sind doch die allermeisten Leute längst nicht mehr dazu bereit, bei dieser enormen Preisspirale irgendwie mitzuhalten. Das war vor 10 Jahren noch deutlich anders.

Klar, Computerbase lebt von jeder Entwicklung und verfügt auch über entsprechend viele interessierte Nutzer. Das muss auch so sein. Nur wird die Blase derer mit entsprechendem Geldbeutel und Interesse für PC Highend immer kleiner. Auch zu sehen an der Verschiebung der Berichterstattung mit weniger Gewicht auf PC Hardware.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Raptor85
In einer für mich idealen Welt gäbe es Anfang nächsten Jahres eine GPU von AMD, die merklich zulegt, so ungefähr in die Region einer 4090 vorstößt (mit etwas weniger RT-Leistung) und weiterhin ordentlich VRAM (24 GB). :love:
Die würde ich mir dann kaufen, weil ich für meine 7900 XTX noch ordentlich was bekomme und am Ende max. 200-250 € für den Neukauf zahlen muss.

Wird leider alles so nicht passieren. Also bleibe ich weiterhin bei meiner 7900 XTX.
 
  • Gefällt mir
Reaktionen: SweetOhm
Ich erwarte das sich jedwede Mehrleistung im selben Ausmaß auch auf den Kaufpreis addiert.
Das System hatte sich bisher auch bewährt :D
 
  • Gefällt mir
Reaktionen: Corpus Delicti
Zurück
Oben