News GB202 für RTX 5090: Nvidias größte GPU für Gamer wächst um 22 Prozent

Icke-ffm schrieb:
ja das ist schon klar, nur läuft die 4090 ja schon mit Handbremse, wenn die bei der 5090 gelöst wird, und auch noch das SI weiter aufgebort wird ist das schon ordentlich Potential die 4090 hat nur 74MB L2 von 96MB freigeschaltet.
Auch wenn der Cache den Speicher stützt - dir ist schon klar, dass ein größerer Cache nicht identisch ist mit höherer Speicherbandbreite, oder?
Mir wäre keine Messung bekannt, die belegt, dass die RTX 4090 durch ihre Speicherbandbreite limitiert wird. Eher habe ich grade das Gegenteil gemessen - ein ein core clock OC bringt höhere Mehrleistung als ein vergleichbarer mom clock OC.

Icke-ffm schrieb:
ich denke doch, denn die 4090 ist eben gerade beim L2 ordentlich kastriert 50% mehr shader aber nur 15% mehr L2 sieht für mich eindeutig nach einem Flaschenhals aus.
Da die Messungen anderer Meinung sind, bleibt es bei 'für dich aussehen'

syfsyn schrieb:
Eher ist es die Cpu oder die rop. Was ich aber weis das die rtx4090 massiv power limitiert ist die 450w sind gerade mal 1,07v dann folgt die tdp Limitierung von 84°c/hotspot 100°c
Meine weigert sich sogar, über 1,05V zu gehen, wobei die da immernoch den 3GHz nahe kommt, was mir reicht. Nochmal 2% mehr Leistung für 20% mehr Leistungsaufnahme brauche ich nicht. Die Zahl 3000MHz sieht natürlich echt befriedigend aus, aber hat wenig praktischen Wert.
Im Sommer werde ich auch wieder auf das Undervolt Profil wechseln, dann wird bei 2550Mhz @0,875V gedeckelt. Sonst wird der Raum viel zu schnell viel zu warm.

Jetzt im Winter sehe ich ein paar Watt mehr weniger kritisch, dann hat halt die Heizung weniger zu tun.
 
Hm, habe kurz überlegt von der 4080 auf die 5090 zu wechseln, um cs2 auf low Settings zu spielen :D macht aber keinen Sinn.. die 7800x3d wird limitieren.
 
dernettehans schrieb:
Schon sehr dreist, dass der Abstand zwischen der RTX5080 und RTX5090 wieder mal viel zu groß sein wird. 16GB VRAM für die RTX5080 ist auch eine bodenlose Frechheit.
Die 5080 wird dann für schlanke 1599€ als Schnapper kommen und die 4090 knapp nicht schlagen.
Ich bete echt, dass die RX8800 auf UDNA Basis an eine 5070 rankommt. Sonst sind die Preise echt nur noch krank für 2025..
Intel wird kaum mit einer B780 an eine 5070 herankommen. Und schade, dass wohl wieder mal der Speicher stagniert.

Eine 5060Ti mit 12GB wäre auch nice, aber ich glaub da nicht dran. Vllt kommt sowas ja und es heisst wieder 8700XT vw 5060Ti..
 
  • Gefällt mir
Reaktionen: dernettehans
Ähm grade bei YouTube gefunden :)

 
  • Gefällt mir
Reaktionen: Rickmer
scootiewolff22 schrieb:
Hier wird mir zu sehr die schlechte Optimierung der Spiele auf den VRAM Bedarf gemünzt. Es verhält sich ja ähnlich mit DLSS, man hatte ja gehofft, es wäre ein Zusatz aber heute ist es ein Muss es zu aktivieren um annehmbare Performance zu erreichen. Wer sagt mir, wenn ich 32 GB VRAM habe, dass die Spiele dann der Optimierung des Speicherbedarfs nicht zum Opfer fallen. Begrenze den Vram und die Entwickler müssen um diese Begrenzung hin optimieren, man gebe ihn viel VRAM, dann gibt es kein Optimierungsbedarf.

Vergleichbar mit Filmen, geringes Budget und die Anstrengung einen guten Film daraus zu machen sind größer. Schmeiße ihnen Geld in den Rachen und die Filmemacher werden faul

FG, rr, ordentlich Texturen benötigen eben vram.
Das hat dann nur zweitrangig was Optimierung zu tun.
 
Wie gesagt diese Generation würde ich Komplett auslassen außer man brauch dringend so Ding.
 
  • Gefällt mir
Reaktionen: Fyrex und dernettehans
dernettehans schrieb:
Schon sehr dreist, dass der Abstand zwischen der RTX5080 und RTX5090 wieder mal viel zu groß sein wird. 16GB VRAM für die RTX5080 ist auch eine bodenlose Frechheit.
Ja, wir werden uns wohl die 5090 kaufen müssen!
 
OpenSystemFan schrieb:
Die Kritik in der jüngeren Vergangenheit war ja, das mit einem Generationswechsel für 20% Mehrleistung auch 20% Aufpreis und teilweise mehr zu bezahlen war.

Hmmn. Ich gehe bei deiner Darstellung nicht ganz mit.

Die UVP der 3060 war 360 Euro. Die UVP der 4060 beträgt 360 Euro. Die 4060 hat 20 Prozent mehr Leistung.

Die 4070 ist mit der 3080 vergleichbar. UVP 3080 war 750. UVP der 4070 war 680 Euro.

Die 3080 wurde durch die 4070ti ersetzt. Die UVP der 4070ti liegt tatsächlich 100 Euro über der UVP der 3080. Die Leistung der 4070ti liegt 25 bis 30 Prozent über der 3080. 100 Euro sind aber nur ca 12 Prozent Preisaufschlag

Die 4080 hat ne UVP von 1199 Euro und ihr Vorgänger, die 3080ti kostete 1199 Euro.

Die 4090 hat für 1699 Euro die 3090 ersetzt die 1599 UVP hatte.
 
Simanova schrieb:
Was viele offenbar nicht wissen, aber von Nvidia schon seit längerem kommunziert wird:
Eine RTX 5090 ist eine Enthusiasten GPU, die nicht primär für Gamer gedacht ist.
Sie deckt Anwendungen ab, in denen man die Leistung oder den Grafikspeicher braucht.
Nein, die 4090 sowie auch die 5090 sind GPUs für Gamer.

Nvidia "kommuniziert" es evtl. nur anders, um den exorbitant hohen Preis zu rechtfertigen. Wobei ich mich nicht erinnere das jemals irgendwo gelesen zu haben, dass die 5090 kein Produkt für Gamer sein soll.

Die Quadro Karten sind die Workstation/Content Creator GPUs - GeForce ist Gaming, und wird es auch immer bleiben.
 
  • Gefällt mir
Reaktionen: B.L. Swagger
pacifico schrieb:
Hmmn. Ich gehe bei deiner Darstellung nicht ganz mit.
Na gut, dann mal die Timemachine gestartet.
Vorweg: Eine 4090 kostet aktuell knapp 2k€.
pacifico schrieb:
Die 3080 wurde durch die 4070ti ersetzt. Die UVP der 4070ti liegt tatsächlich 100 Euro über der UVP der 3080. Die Leistung der 4070ti liegt 25 bis 30 Prozent über der 3080. 100 Euro sind aber nur ca 12 Prozent Preisaufschlag
Naja, zum einen sind es 200€ (699 UVP zum Marktstart der 3080 und 899 UVP der 4070Ti) und zum anderen sollte diese eigentlich als 4080 für 1099 UVP kommen. Das musste ja aufgrund des Shitstorms abgeblasen werden. Also 28% Preisaufschlag für 24% mehr Leistung.

Quellen: UVP 3080 & 4070Ti; Performancerating

Zuvor waren halt andere Verhältnisse die Norm:

ModellUVP zur VorstellungLeistungsgewinn* gegenüber Vorgänger
Die None-Ti im Zeitverlauf
GeForce GTX 780641 Euron.a.
GeForce GTX 980540 Euro (-16 % )+26 %
GeForce GTX 1080789 Euro (+46 %)+64 %
GeForce RTX 2080849 Euro (+8 %)+40 %
GeForce RTX 3080699 Euro (-18 %)+65 %*

Quelle: 80er Reihe im Zeitverlauf
 
  • Gefällt mir
Reaktionen: Fyrex und Rickmer
pacifico schrieb:
UVP der 3060 war 360
Wenn man nur die Preise seit den stärksten Preissteigerungen betrachtet, siehts natürlich nicht so schlimm aus...
 
OpenSystemFan schrieb:
GeForce GTX 1080 | 789 Euro (+46 %)
Ich musste grade nachschauen warum ich mich nicht an den Preis erinnere...

2017 war die 1080 schon bei ~550€ und die 1080Ti teilweise auch für unter 800€ zu haben.
Ich hatte 2018 hier am Marktplatz eine gebrauchte 1080Ti für 600€ gekauft.

Die UVP war eher kurzlebig anders als aktuell die GPUs die kaum unter ihre UVP fallen wollen und gerne mal deutlich drüber waren.
 
  • Gefällt mir
Reaktionen: OpenSystemFan
Gefühlt spuckt nVidia seit Jahren den Kunden ins Gesicht und die lieben das auch noch, verrückt. Anders sind diese absolut kaputten Portfolios und Abzockpreise nicht zu erklären.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: legenddiaz
@XD-User Wieso Abzocke? Es wird nunmal alles teurer. Und 32 GB GDDR7 Speicher mit 512 Bit bei solch einem Chip ist teuer. Ihr verdreht wieder Tatsachen und verschweigt, dass eine RTX 5090 inzwischen Pixar-Qualität Grafik in Echtzeit berechnen kann. Wie kannst du dann ernsthaft erwarten, eine RTX 5090 für 500 Euro kaufen zu können?
Ich habe für meine Strix RTX 4090 am Releasetag 2400 Euro bezahlt. Wenn ich die Strix RTX 5090 für 2400 bekäme, würde ich mich wie ein Schneekönig freuen. Aber ich weiss genau, dass die diesmal eher Richtung 3000 Euro gehen wird (2750-3000). Und ich werde sie trotzdem sofort kaufen. Day One!
 
Nighteye schrieb:
Dein Bench ist alt.
Der Artikel ist zwei Monate alt, jünger als deine Bildchen.
Nighteye schrieb:
Seit diesem Jahr stieg der Vram Bedarf massiv.
Der Artikel ist von mitte September 2024.
Nighteye schrieb:
Gestern hatte ein Kumpel von mir seine Polaris in die Garage gerufen, er hatte sofort 11,5GB Vram voll in seiner Geforce 3060 12GB.
Und der Kumpel versteht wie du nicht, dass die Belegung des Speichers nicht mit dem was wirklich gebraucht ist, gleichzusetzen ist.
Nighteye schrieb:
Hätte ich gewusst dass du mit so einem alten Schinken ankommst, hätte ich mir einen Screenshot von meinem Kumpel geben lassen.
Ich glaube dir kein Wort von dem was du sagst.
Nighteye schrieb:
Doch, genau dass ist der Punkt.
Nein, das ist die Antwort auf Taxxor, in der Diskussion mit dir ging es um was anderes.
Nighteye schrieb:
Wer kauft sich ne RTX 5070 12GB für 800€ um dann auf Low Details 1080p rumzugurken?
Wo sind denn die Messungen mit Low Details oder überhaupt mal Messungen von dir?
Du schaust dir die Belegung deiner RX 6800 an und behauptest daraus, die 5070 muss auf Low Details gehen und die 5080 kann nur Full HD, weil 16GB nicht reichen. Das sind rein aus der Luft gegriffene Behauptungen ohne jeden Beleg und das verstehst du einfach nicht.
Screenshot 2024-11-24 225049.jpg


In 4K geht es bei den GeForces nicht mal auf 11GB rauf, wieso sollte die 5070 oder 5080 dann Probleme bekommen?

Und ich habe nie bestritten, dass 8GB nicht Probleme machen, ich habe in der ersten Antwort an dich genau das geschrieben, mit eben der Einschränkung maximale Settings, kein FSR/DLSS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson
Quidproquo77 schrieb:
In 4K geht es bei den GeForces nicht mal auf 11GB rauf, wieso sollte die 5070 oder 5080 dann Probleme bekommen?
Weil ich dir ein Bild zeigte, wo eine Geforce 4090 bei eine Polaris auf knapp 15Gb geht ?
Warum Ignorierst du dass Bild ?
Noch ein schönes Beispiel. Bild hab ich heute geschossen.
13GB Vram belegung bei meiner RX6800 bei nur 6% GPU Load (wegen CPU Limit)
Also mit dem Bruchteil der Rechenleistung einer RTX 5070 auf 100%, werden dennoch 13GB Vram auf 1080p Medium Details bei mir verbraucht.
41GB 13GB Vram 6% GPU Load.png
 
Nighteye schrieb:
Weil ich dir ein Bild zeigte, wo eine Geforce 4090 bei eine Polaris auf knapp 15Gb geht ?
Ich verweise auf diesen Beitrag, da wurde dir bereits geantwortet. :rolleyes:
Du zeigst irgendwelche Bilder ohne jede Verifizierung und Vergleichbarkeit. (Softwarebuild, System, Settings, Szene, GPU). Eine 4090 mit 24GB V-ram lässt sich nicht mit einer RTX 5070 vergleichen.
Und genau so, wie du auf dem hohen V-ram Bedarf in einer Beta herumreitest, vergleichst du gewipte Server mit Servern die schon länger laufen und sagst dann deine RX6800 sei schneller als ne 6090.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson
Also hast du keine Argumente, und versuchst billig abzulenken weil du nichts dagegen sagen kannst.
Auch gut :)
 
Zurück
Oben