Test Nvidia GeForce RTX 5070 im Test: Stillstand mit MFG bei bestenfalls 649 Euro

@Jagdwurst Man muss die Leute kaufen lassen was sie wollen. Es hat überhaupt keinen Zweck diese Diskussion zu führen. Die ganze Branche ist schon seit Langem (aus Gamersicht) aus den Fugen geraten und ob jetzt jemand 200€ mehr oder weniger für eine GPU bezahlt die gefühlt mehr als das Doppelte von dem kostet was sie in dem Markt noch vor 6 Jahren gekostet hätte ist dann doch ziemlich egal. Die Gaming-Chips sind für die Hersteller einfach nicht mehr relevant. Unser Hobby ist teurer geworden. Ist halt so.
 
  • Gefällt mir
Reaktionen: shaboo und ApeZilla
Jagdwurst schrieb:
Wie kann man sich eine Grafikkarte für 1500€+ kaufen, welche nicht mal schneller als die 4090 ist, und dann auch nur 16GB hat...
Man brauchte unbedingt jetzt eine Grafikkarte.

Man brauchte keine Grafikkarte als die 4090 1500€ gekostet hat.

Weil Isso.

Weil superdupermegageiles Feature Set.

Das werden die Argumente sein, die kommen werden.
 
  • Gefällt mir
Reaktionen: eXe777, SweetOhm, Apocalypse und eine weitere Person
Inxession schrieb:
@Quidproquo77 ... definitiv nicht.

Auf Dauer ist aber Marktanteile gewinnen, lukrativer als die Marge einer Generation hoch zu halten.

Das weiß auch AMD.
Grafikkarten sind keine dauerhafte Einnahmequelle wie zB. ein Abonnement.
Upscaling ist bei beiden demnächst identisch.

Mehr Marktanteil bedeutet auch mehr Support, bedeutet höhere Kosten. Aktuell übernimmt das fast alles NVIDIA und AMD kann sich da zurücklehnen.

Die Gaming Sparte von NVIDIA ist auch rückläufig.

@Jagdwurst, NVIDIA würde es raus posaunen wenn sich die RTX5000 sehr gut verkaufen würde, stattdessen ist es doch eher ruhig.
 
ja das macht es deutlich
aber nvidia weis das sie aus dem markt gedrängt werden und alles was denen einfällt ist die Preise anzuziehen bis man aus dem entry und mid class aussteigt.
Hier merkt man das die gaming sparte quasi dem chef völlig egal ist der sieht nur die hohen Margen bei ai fabrics.
Das dies aber sehr bald Geschichte ist merkt der Nicht.
Diese fomo der Wirtschaft wird sehr bald auf harte fakten stoßen wenn man merkt das mit ai kaum bis kein geld erzeugt wird und schwubbs weg der Absatzmarkt.
Der einzige nutzen von ai ist upscaling und trainieren von Statistik Auswertung mehr nicht
es wäre technisch problemlos gute sku möglich wenn man die arch wieder auf gaming bauen würde.
Der große teure Sram auf dem chip ist unnötig maxed wären 40% des L1 Größe das wären beim gb202 8mb etwa 2% chipfläche statt den 31% derzeit
je kleiner der Ausbau desto besser mein Rat wenn das mit dem sram nicht anders geht in die höhe damit und mit tsv den cache stapeln das Si zweiteilen und mit ddr5 und gddr7 kombinieren etwa 512bit 256 an gddr7 8gb und 16gb 32gb ddr5 camm2 an 256bit das spart platz da dram dichter gepackt ist und schon 3d Speicher hat.
Dafür deutlich langsamer.
Gddr ist noch single layer darum die große Fläche der chips
ich denke das man gddr7 bis 36gbit aufbohren wird dafür aber nur mit 28gbps und das die Zukunft wird womit dann 8 chips 32gb bzw 6 24gb sind
Das wäre noch ne Möglichkeit das entry und mid class geben kann aber dafür muss der preis der chips auf unter 10$ per 36gbit chip kommen das aber sehe ich derzeit nicht kommen zumal 24gbit erst kommt und vermutlich den Anfang mit 15$ per chip sein wird.
Zum vergleich gddr6 kostet 4$ per 16gbit man siehe man könnte sku mit deutlich mehr Speicher bauen etwa 16gb als entry bis 32gb und das si per chip verdoppeln wenn man den cache verkleinert
512bit sind grob 15% chipfläche (114mm²) pcie/display engines etwa 10% (77mm²) sram 31% (235mm²)
alu grob 44% =334mm² (192sm a128alu 24,5mb L1 cache)
Statt den 96mb dann 8mb und der chip wäre um 210mm² kleiner.

Gpu sind lineare Prozesse und hängen zu 90% vom singlethread der ipc der cpu ab
Das dies irgendwann zu Skalierungsproblemen führt ist logisch aber man kann nie genug fp32 perf. haben für pathtracing das aber mit software auf Holzhammer Methode mit ai mittels out of order zu erzwingen ist illusorisch.
Im Gegensatz zu cpu die den L2 als Auslagerung verwendet um Prozesse zwischenzuspeichern bevor man auf den ram zugreift wird bei gpu die daten aus dem vram in den L2 geladen darum profitiert man quasi nicht von größeren L2 cache. Der dient lediglich bei post Prozess Angelegenheiten wie FG.
Die ganze arch ist quasi am markt vorbei entwickelt.
Um beides haben zu wollen also hpc und gaming gpu muss nvidia auf mcm und gestapelte chips gehen da führt kein Weg herum die alternative ist die waferpreise sinken und die Kapazität explodiert
Etwa n2 node 12000$ (aktuell 23500$) das aber wird nicht passieren.
Die Zukunft sieht 30000$ fürn a16 node vor der aber gaa und cowos hat
beides lassen sich sehr kleine chips bauen die bei gleicher wärmedichte bis zu 5,0ghz gpu clock machbar wären.
Warum dann nvidia nicht den Weg geht kann nur daran liegen das sie aus dem consumer Geschäft gehen. Der Grund, nvidia fehlt die Plattform für ihre dgpu ab 2028
Abwenden kann das nur intel oder eine politische intervention.

heute gibt es erst mal rdna4 Test das wird schon alleine ein Ausrufezeichen werden
 
  • Gefällt mir
Reaktionen: Gönndalf
So ein schlechtes Gefühl habe ich bei der RX 9070 nicht mehr währe bloss toll wenn die sehr kompakte Designs von der RX 9070 bauen die nicht so ausladend sind.

Allein wenn die verfügbar bleibt bei moderaten UVP Preisaufschlag.
 
kachiri schrieb:
Die Spiele landen ohnehin auf der Konsole und die Konsolen haben aktuell 16 GB shared Memory. Effektiv haben sie je nach Spiel wohl zwischen 8-12 GB als VRAM zur Verfügung.
ich würde mal tippen das es eher 10-12GB bei den Konsolen sind, diese bieten aber auch nur RT light und haben in der regel weniger texturen wie PC Games. die PS5Pro hat nun aber 18GB wodurch sie bei optimaler Nutzung auch mehr wie 12GB Grafikspeicher zur Verfügung hat. und bei Indi mit PT zeigt sich schon jetzt das wenn Grafik auf Max stehen soll, 12GB nur noch für FHD reichen. PT ist das nächste RT mit der next gen GPUs wird es langsam verpflichtend, die Next Gen Konsolen werden es aber wohl auch haben und die setzten bekantlich auf AMD.
bin gespannt wann erste Games mit der UE5.5 kommen, bzw ein upgrate auf diese erhalten.
Was schade bei CB ist das in den 2025 GPU tests Ampere und RDNA2 garnicht mit getestet werden
zumindest eine 3080FE und 6800xt sollten auch mit dabei sein, das man mal sehen kann wie sich die Mittelklasse von vor 5Jahren heute schlägt
 
  • Gefällt mir
Reaktionen: SweetOhm und kachiri
lächerlich, neue Generation mit neuen Features, schnellerem RAM, mehr Recheneinheiten und ohne Leistungsgewinn zur letzten Generation!
So Viel zu dieser schwachen Leistung von nVidia.
Mal sehen was AMD morgen alles falsch macht........
 
Icke-ffm schrieb:
die PS5Pro hat nun aber 18GB wodurch sie bei optimaler Nutzung auch mehr wie 12GB Grafikspeicher zur Verfügung hat.
16+2. Es sind weiterhin 16 GB GDDR6 shared plus 2 GB DDR5 (nur für das System).
Aber ja, auf der Pro dürfte etwas mehr Grafikspeicher zur Verfügung stehen.

Ich will die 12 GB gar nicht so sehr verteidigen. "Sauberer" wäre es gewesen, wenn die 5070 auch 16 GB bekommt (und die 12 GB an die 4060 (Ti) vererbt werden)...
Noch toller wäre es gewesen, wenn NV flächendeckend die 3 GB Steine ab 5080 abwärts genutzt hätte. 24 GB für 5080 und 5070 Ti, 18 GB für 5070 (und 5060 Ti) und 12 GB für 5060 (und 5050? ;)))

Aber AMD macht es eigentlich auch nicht wirklich besser. Ja, 9070 (XT) haben beide 16 GB (aber eben beide auch denselben Chip), anders als bei 5070 TI und 5070. Aber bei der 9060 (XT) wird es wohl wieder eine 8 GB Variante geben - und wohl auch wieder ein 128er SI.
 
  • Gefällt mir
Reaktionen: Icke-ffm
MiroPoch schrieb:
Die Frage ist, wieso in allen anderen Benchmarks die AMD Karten besser abschneiden, nur auf CB nicht. 🤔
Liegt an der Game Auswahl für den Bench Parcours (zu sehr NV/RT lastig) !
Da sind Spiele dabei, von denen hab ich weder gehört noch gelesen ...
 
  • Gefällt mir
Reaktionen: MiroPoch und Alphanerd
Ich sehe das mit Stillstand nicht so negativ wie die meisten hier. Für mich bedeutet das nur, dass ich meine aktuelle Grafikkarte länger behalten kann. Alles gut !

@Jagdwurst
Die paar User, die sich eine 5080 gekauft haben, sind nicht wirklich relevant. Problematisch wird es erst, wenn eine 5080 mit 5-10 % in den Steam-Charts auftaucht. Davon sind wir noch sehr weit entfernt.
 

Anhänge

  • 9050.jpg
    9050.jpg
    274,2 KB · Aufrufe: 23
  • Gefällt mir
Reaktionen: Pisaro
wenn man es also etwas schärfer formuliert, ist das im hinblick auf das vram eigentlich eine designierte fhd karte.
aber aktuell angesichts der preisentwicklung der rtx50 generation nicht wirklich empfehlenswert...
 
  • Gefällt mir
Reaktionen: SweetOhm
Windell schrieb:
Ganz einfach, du unterstützt Nvidia weiter zu machen wie bisher mit deinem Kauf.

Speziell was die 5080 angeht:

Genauso überteuert ist wie die anderen Nvidia Karten.
Genauso lächerliche 16GB V-Ram für den Preis.
Teilweise auch PCIe5.0 Probleme, siehe Video von derBauer.
Teilweise auch Probleme mit dem schmelzenden Stromanschluss.

Ich "unterstütze" Nvidia nicht, ich habe mir einfach eine Grafikkarte gekauft, die zu meinen Anforderungen passt. Ich "unterstütze" auch nicht die Deutsche Bahn, weil ich mit dem ICE fahre, es gibt halt einfach keine ernstzunehmende Alternative. So wenig, wie ich von Hamburg nach Frankfurt das Flugzeug nehmen will, will ich eine AMD-Karte kaufen.

AMD ist ja leider nicht willens, schnelle Karten mit vernünftiger Technologie zu produzieren. Eine 7900XTX ist im Rasterizing gerade mal auf dem Level einer 4080 Super (RT natürlich deutlich schlechter) und damit deutlich langsamer als eine 5080. FSR3 sieht aus wie eine Karre Mist und bei Nvidia gibt es sogar noch MFG dazu. Da helfen mir 24GB (langsamerer) VRAM auch nicht weiter. Und richtig gute Customs kosten bei der Karte trotzdem etwa 1k.

Zu den anderen Punkten:

Genauso überteuert ist wie die anderen Nvidia Karten.

- Das ist die Schuld von AMD, weil die keine leistungsstarken Karten produzieren. Die 7900XFX ist mit Ausnahme des VRAM überall deutlich schlechter als eine 5080 und kostet vielleicht EUR 300 bis EUR 400 weniger. Danke nein.

Genauso lächerliche 16GB V-Ram für den Preis.

- Point taken, das ärgert mich auch

Teilweise auch PCIe5.0 Probleme, siehe Video von derBauer.

-der Bauer sieht überall Probleme, damit er Klicks bekommt (no offense, ist halt sein Job). Ich habe eh nur ein 4.0 Board, deswegen interessiert mich das nicht.

Teilweise auch Probleme mit dem schmelzenden Stromanschluss.

- Es gibt m.E. einen dokumentierten Fall einer 5080 bei Reddit. Die 5080 ist ungefähr 50 mal besser verfügbar als die 5090, es kann daher wohl von einem völlig irrelevanten Einzelfall gesprochen werden.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Tr8or, Pisaro und eine weitere Person
syfsyn schrieb:
Hier merkt man das die gaming sparte quasi dem chef völlig egal ist der sieht nur die hohen Margen bei ai fabrics.
Das dies aber sehr bald Geschichte ist merkt der Nicht.
Bestimmt weiß er das. Hat aber bis dahin mehr als genug verdient um für die nächsten 100 Generationen Lederjacken zu sorgen.

Der verkauft seine Anteile schon zeitig.
Ergänzung ()

FoXz schrieb:
Zu den anderen Punkten:

Genauso überteuert ist wie die anderen Nvidia Karten.

- Das ist die Schuld von AMD, weil die keine leistungsstarken Karten produzieren.

Nein. Das ist deine Schuld. Und die jedes anderen Käufers einer zu teuer angebotenen Grafikkarte.

Die 7900XFX ist mit Ausnahme des VRAM überall deutlich schlechter als eine 5080 und kostet vielleicht EUR 300 bis EUR 400 weniger. Danke nein.

Die 7900 xtx ist ja auch 2-3 Tage älter?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777, Inxession, SweetOhm und eine weitere Person
Alphanerd schrieb:
Bestimmt weiß er das.
Er muss sich ja auch keine Sorgen machen. Die Marktanteile am Consumer Markt sind ja trotzdem rosig. Also für NV geht es auch weiter, wenn der AI Absatz wegbricht oder einbricht. Dann wird halt bisschen hier und da gespart und die Kapazitäten eben wie in die Märkte verschoben, wo die Nachfrage da ist.
Vielleicht wird es dann auch wieder etwas billiger - oder zumindest fallen die Leistungszuwächse wieder besser aus.
Wobei das bei Blackwell halt auch nie zu erwarten war, dass es weit nach vorne geht.
 
  • Gefällt mir
Reaktionen: Alphanerd
Icke-ffm schrieb:
und bei Indi mit PT zeigt sich schon jetzt das wenn Grafik auf Max stehen soll, 12GB nur noch für FHD reichen. P

Tatsächlich nicht. :) Mit 12GB gibts eine Warnung. Selbst ohne Pathtracing und in FHD. Und spätestens im weiteren Spielverlauf dann ggf. sofort zu Spielstart einen Crash. Hauptursache ist der Textur-Cache, der auf der höchsten Einstellung ("Giga") nicht zwingend für 12GB Videospeicher gemacht ist. Deshalb gibts ja die Warnung. Also dieses Zeug, das die meisten Benchmarkseiten ignorieren. :D Man kann das ein bisschen jonglieren, indem man etwa die ebenfalls VRAM-lastigen Schatten auf niedrig stellt. Aber prinzipiell...

PS: Selbst das optimierte KCD2 reserviert zumindest ab Kuttenberg bis zu über 11GB, auch in FHD sowie ohne jegliches Hardware-Raytracing. Und das in Settings, die locker auch eine 3060er packt...
 
  • Gefällt mir
Reaktionen: SweetOhm
Alphanerd schrieb:
Nein. Das ist deine Schuld. Und die jedes anderen Käufers einer zu teuer angebotenen Grafikkarte.


Die 7900 xtx ist ja auch 2-3 Tage älter?

Wenn die Leute die Karten kaufen, sind sie anscheinend nicht zu teuer. Spoiler: Sie werden auch nicht billiger, wenn man sie nicht kauft, sondern im Zweifel einfach nicht mehr produziert.

Die 7900 XTX ist die einzige AMD-Karte die noch irgendwie in die Nähe kommt. Dass sie 2-3 Tage älter ist und es keinen Nachfolger gibt, ist ja genau das Problem.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz
Wirklich schade, hatte mit der 5070 geliebäugelt. Jetzt ärgere ich mich, dass ich nicht Ende letzten Jahres schon /noch eine 4070 Super gekauft habe. Aber dass die 50er wirklich so ein Schuss in den Ofen sind, hab ich nicht für möglich gehalten.

Kaum Leistungsplus bei mehr Verbrauch abseits von MFG/FG und dann auch noch so laut, trotz potentem neuen Kühlersystem. Hätten Sie mal einfach den dicken Kühler von der 5080 auf die 5070 geklatscht, dann wäre die Karte vermutlich wirklich leise und hätte in dieser Kategorie vielleicht wenigstens nen Kaufargument gehabt.
 
FoXz schrieb:
Wenn die Leute die Karten kaufen, sind sie anscheinend nicht zu teuer
Dann Gib doch nicht AMD die Schuld für Nvidias Preise?
FoXz schrieb:
Spoiler: Sie werden auch nicht billiger, wenn man sie nicht kauft,
Doch, genau so funktioniert Marktwirtschaft außerhalb von Monopolen.
 
  • Gefällt mir
Reaktionen: eXe777, Inxession, SweetOhm und 9 andere
Zurück
Oben