News GB202 für RTX 5090: Nvidias größte GPU für Gamer wächst um 22 Prozent

Nighteye schrieb:
Zustimm
Dennoch nutzen für 3D design, Unreal Engine usw, viel mehr leute eine Geforce, als eine Radeon.
Weil die Geforce Karten halt die Cuda cores usw haben. Also es sind im Prinzip Karten die beides können.
So wie AMD früher vor RDNA bei GCN. AMD wird mit UDNA dann auch wieder beides können.
Also RDNA waren die puren Gaming Karten auf dem Markt so gesehen.

Ich weiss garnicht mehr wie es heute im Workstation Bereich aussieht. Damals hatte die OG Titan mehr FP16 oder FP32 als die GeForce Produkte, aber ob es sich heute irgendwie immernoch lohnt GeForce Karten zu kaufen statt Quattro oder sonstiges (bin wirklich nicht mehr im Thema) ?

Für mich zählt nur die Gaming Seite (Selbst die Headline von dieser News is "größte gpu für gamer"). Wie viele Leute andersweitig mit einer 4090 oder 5090 dann zusätzlich Geld verdienen im Work Bereich kann ich unmöglich sagen.

Wenn man beides kombinieren kann -> Geld machen und gut zocken dann ist es natürlich eine Win Win Situation.
 
  • Gefällt mir
Reaktionen: Laphonso und Cinquedea
scootiewolff22 schrieb:
Wird der Ram da nicht nur reserviert? Es kommt ja nicht zu Performance Problemen wenn du 16 GB Vram hast
Moderne engines passen das Textur LoD dementsprechend an. Wenn weniger Speicher zur Verfügung steht, als die Engine reservieren will geht die Texturquallität erst einmal runter (gerade in der Ferne). Damit die Performance einbricht, muss der Speicher schon deutlich unter dem liegen was die Engine gerne hätte.

@Zealord
Genau andersrum. Die Ur Titan hatte mehr FP64 Leistung. Dazu konnte man noch teilweise die Professional Treiber aus dem Quadro Bereich nutzen (wenn auch nicht alle Funktionen). Die RTX 3090 und 4090 können letzteres wieder, jedoch ist die FP64 Leistung stärker beschnitten.

Allerdings misst NVIDIA FP64 auch immer weniger Bedeutung bei. Selbst Hopper hat nicht volle FP64 Leistung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SH4DOWtheFOX
Quidproquo77 schrieb:
Es sind ja nicht 18%, sondern von 16384 zu 21760 runde 33%
Ist denn schon absehbar, dass die 5090 überhaupt den Vollausbau des GB202 bekommt?
Riesiger Die, riesiger Abstand zum nächsten Die, keine Konkurrenz in dem Bereich. Auch eine 4090ti erschien nie.
Ich sehe kaum einen Grund, warum uns Nvidia mit dem Vollausbau beglücken sollte.
 
  • Gefällt mir
Reaktionen: SweetOhm und Haldi
wenn man sich ansieht, wie gpus die letzten 10+ Jahre gewachsen sind, sowohl in physischer größe als auch in verbrauch frag ich mich schon, wie viel von der mehr leistung bloß durch diesen "trick" erzwungen wurde...
 
  • Gefällt mir
Reaktionen: SweetOhm
Gibt's hier jemanden mit Wafer-Expertise? Soweit ich das verstanden habe, bezahlt man ja je Wafer entsprechend der Fertigungsstufe.
Wenn die Chips immer größer werden, fällt doch der Chip-Yield je Wafer. Macht das die Teile nicht übelst teuer? Damit können die Karten doch nur teurer werden als ihre Vorgänger ...

Was ich wirtschaftlich nicht so ganz verstehe:
Der AD102 (4090, 609mm²) ist mehr als drei mal so groß wie der AD107 (4060, 159mm²).
Wenn man mit einem kleinen Chip - sagen wir mal also - ca. 3x mehr* so viel auf den Wafer kommt, dann könnte man doch auch bei geringerer Marge der Karten über den erhöhten Absatz auf ähnliche Gewinne kommen, oder?
Zudem ließen sich so mehr Karten bei gleicher Wafer-Produktionskapazität fertigen.

Mir ist schon klar, dass nVidia, Intel und AMD das wohl vorher durchrechnen und prognostizieren.
Mir geht nur nicht ganz auf, warum man für etwas niedrigere Gewinne den Mainstream-Markt fallen lässt, der ja langfristig für Marktanteile und Verträge sorgt ...
Laptops, Einsteiger-PCs, Konsolen, Handhelds ... bleibt doch alles liegen?

*Mathe-Genie hat wieder zugeschlagen. :freak:

@Nighteye,
du hast ja nicht Unrecht mit dem VRAM. Du siehst aber auch, dass die 4060 Ti auch mit 16GB VRAM in Stalker 2 zu langsam für max settings ist. Man müsste also sehen ob beim nächst niedrigerem settings level wieder herkömmliche Performance-Unterschiede zu Ampere zu sehen sind.
 
Zuletzt bearbeitet:
scootiewolff22 schrieb:
du brauchst mehr als 16 GB?
Nvidias eigene Technik benötigt bereits jetzt über 16 GB in Star Wars Outlaws! Ja, da ist das eine Frechheit in der Leistungsklasse, ist es auch schon jetzt bei den 80er-Karten. Logischerweise wird das bei noch mehr Leistung nicht besser. Der VRAM-Bedarf wird sich nicht mehr verringern. Dazu kommt, dass wir jetzt langsam in Leistungsregionen angekommen sind, dass man echtes, RTXDI, Raytracing wirklich mal benutzen kann.

Aber eben nur, wenn der Grafikspeicher ausreicht – was er mit 16 GB vmtl. nicht wird, wie man an oben genanntem Beispiel sieht.
 
  • Gefällt mir
Reaktionen: Michael vdMaas, legenddiaz, fox40phil und 4 andere
Zornica schrieb:
wenn man sich ansieht, wie gpus die letzten 10+ Jahre gewachsen sind, sowohl in physischer größe als auch in verbrauch frag ich mich schon, wie viel von der mehr leistung bloß durch diesen "trick" erzwungen wurde...
Schau halt was die Karten real in Games verbrauchen. Ich zocke grad AC Odyssey, da liegt die Karte wenn ich sie maximal prügel mit 1,1V @ 3015Mhz + 1000 auf dem VRAM bei 290-320W statt 600W. Mit Stock Settings wird sie sparsamer, da lieg ich bei 1,05V und 2940 Mhz bei rund 250-260W.

Die einzige Load die bei mir an die 600W ranreicht sind AI Workloads. Da hab ich schonmal Peak 580W gesehen - es wird dabei halt auch jedes Rechenwerk nahezu perfekt ausgelastet.

Kann das TDP-Geflenne echt nicht nachvollziehen. Beschäftigt euch mal nur zu 3% mit der Materie und dann reden wir weiter. :rolleyes:


@Topic: ich seh das größte Problem bei dem Mörder-Chip wieder bei der Auslastung der SMs. Das klappt schon jetzt nur sehr begrenzt und es liegt eine ganze Menge Leistung brach. Frag mich wie viel mehr N4P bringt und ob da N3P nicht deutlich sinnvoller gewesen wäre (wenn auch teurer - aber so könnte man den Preis wenigstens sinnvoll rechtfertigen).

Ich hätte kein Problem damit nochmal 2-300 draufzulegen wenn ich dafür nochmals 15-20% mehr Takt bekomme. Bleibt abzuwarten wie gut N4P performt über N4.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lubi7, erzieler, FreedomOfSpeech und eine weitere Person
dernettehans schrieb:
Schon sehr dreist, dass der Abstand zwischen der RTX5080 und RTX5090 wieder mal viel zu groß sein wird. 16GB VRAM für die RTX5080 ist auch eine bodenlose Frechheit.

"The more you buy, the more you safe"

Ist bei Apple auch nicht anders ;) aber es funktioniert scheinbar, nur dass man bei Apple oft noch den Vorgänger kaufen kann. Die 4000 top Liga ist glaub ich kaum noch verfügbar.
 
  • Gefällt mir
Reaktionen: Snoop7676, [SM]Valen und Haldi
Nighteye schrieb:
eine Titan, also eigentlich nicht für Spieler.
Die Titan ist schon seit Maxwell eigentlich doch für Spieler. Aber eben immer als gute Ausrede, den Preis hoch zu setzen.

Nur die Kepler Titanen hatten tatsächlich nennenswerte Features für Profi Nutzer.
 
Nighteye schrieb:
Ich würde mal sagen, dass deine V-ram Belegung kein Gradmesser für die wirkliche Nutzung ist.
Star Wars Outlaws läuft auf der Arbeits-Workstation mit Core Ultra 285K und RTX 4070 inkl. RTXDI in 4K + DLSS Performance und Frame Generation relativ sauber durch, trotz nur 12GB V-ram.

Außerdem kannst du keine Radeon V-ram Belegung mit Nvidia vergleichen.
Nighteye schrieb:
Wenn meine R6800 nonXT 16GB schon 15GB in 1080p voll hat, wird eine 3-4x schnellere RTX5080 100% mehr als 16GB Vram gebrauchen können.
Nein, eben nicht, das ist ein Fehlschluss.
Nighteye schrieb:
RTX 5070 mit 12GB wird ein riesen Fail.
Die ist ein "Speicherkrüppel" ähnlich wie die 3080 10G vor 2 Jahren aber sie wird in den allermeisten Spielen gut performen und damit trotzdem kein Fail sein, sondern halt eine Karte die einen größeren Nachteil hat.
Die Karte wird sich wie geschnitten Brot verkaufen, wenn der Preis stimmt. Und was noch dazu kommt ist PCIe 5.0. Selbst wenn der Speicher limitiert, sollte da einiges noch gehen.
Nighteye schrieb:
In Stalker hat die RTX 3080 10GB in 1080p gerade mal 3fps mehr als die RTX4060ti, welche selber nicht wirklich schneller als eine RTX 3060ti war.
Die Tests sind ja immer mit maximalen Settings entstanden, das sollte man auch bedenken.
PCGH nutzt bei diesen Tests auch kein DLSS/FSR.
Ein Bekannter spielt bis heute noch mit einer 6GB RTX 2060 und bei dem läuft alles noch rund, eben in Full HD mit DLSS Balanced auf Medium-High. Und DLSS ist mittlerweile so gut, dass selbst in Full HD die BQ noch stimmt. Den Anspruch eine Karte muss immer mit dem V-ram @Ultra auskommen, sehe ich nicht so ganz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ErbarmeHesse und ThirdLife
pipip schrieb:
Die 4000 top Liga ist glaub ich kaum noch verfügbar.
Die brauchen vermutlich analog AMD jedes freie Band um überhaupt im Ansatz mit der Nachfrage nach AI-Accelerators mitzuhalten, da wird man sicher nicht noch parallel im "alten" Verfahren noch "alte" GPUs produzieren wollen.

Ich bezweifel eh, dass nach dem Launch-Debakel von Blackwell mit den Fehlern und der Zeitspanne bis Behebung und Release der Gaming-Karten genug auf dem Markt sein werden im ersten Quartal. Wird wieder eine verdammte Schinderei die dämlichen Karten im Ansatz zu UVP zu finden.
 
Karl S. schrieb:
@Zealord In Zeiten wo Unternehmen ihre eigenen Atomkraftwerke bauen ist Stromsparen kein Ding mehr.
Naja
Aktuell sieht es für diese Projekte nicht allzu gut aus und wirklich günstiger als die Kohle- und Gaswekskraftwerke die es vielerorts schon lange gibt ist man damit auch nicht (wobei CO2 Zertifikate und Steuern das gerade aufmischen).

Zumal man immernoch Lastspitzen und Senken über das jeweilige Netz abfedern muss. Und genau das Netzt ist nunmal in der Regel das teure (gerade in DE mit privatwirtschaftlichen monopolen).
 
Die Spiele, die ich jetzt durch hatte, bei denen hat 12gb vram der rtx 3080 bei 2k Auflösung stets gereicht.

Daher denke ich wird es wohl oder übel eine 5080 wenn die 5070 ti nicht auch mind. 12 gb vram besitzt. Brauche eigentlich nur ein performantes Upgrade für meine aktuelle die die nächsten 2 Jahre leistungsstark bleibt :/
Bei der 5080 werd ich mich wohl nach 1 Jahr in hintern beißen wenn eine Super oder vllt. sogar TI variante erscheint aber was solls.
 
coxon schrieb:
Ich bin ziemlich überrascht, dass die 5090 überhaupt PCIe 5 braucht! Das ist doch total verrückt!
Bekommen und brauchen sind nicht das Gleiche.
DenizcanCB schrieb:
Naja, solange es die Lemminge kaufen, wird sich auch nichts ändern.
Wenn der Computer der einzige Luxus im leben ist darfs auch was kosten. Aber die meisten Zocker die ich kenne sind auf 7–10 Jahre alter Hardware unterwegs, da wird das Geld dann in die Frau bzw deren wünsche investiert.
Finds ja immer wieder lustig dass die Leute bei dem gerät das sie jeden tag nutzen um spaß zu haben total knausern und auf der anderen Seite schmeissen sie das Geld für Wochenendtripps zum Fenster raus.
Jeder bekommt was er verdient 🤣.
In War Thunder heulen jetzt nach dem grafikupdate auch die ganzen Potato PC junkies rum dass die Performance auf ner 10 jahre alten intel IGP unspielbar ist.
Und vor allem im Pc Bereich ist das Knausern bei vielen einfach ziemlich extrem, jeder will maximale Performance und das am besten gratis selbst wenn die leute das geld haben.
Und selbst mit High End PC ist es immer noch ein verhältnismäßig günstiges Hobby das man jeden tag bei jedem Wetter betreiben kann.
Zumal man mit High–End Hardware auch mal easy eine Generation überspringen kann und immer noch weit oben mit spielt. Und da eine Generation mittlerweile 2–3 Jahre dauert zur nächsten ist das ein Halbes Jahrzehnt. Ob du 1x in 5 Jahren 2000€ ausgibst oder Jedes Jahr 400€ wie früher macht da kein großen unterschied.
 
  • Gefällt mir
Reaktionen: SonaN, freezer255, Beatmaster A.C. und 4 andere
floTTes schrieb:
@Nighteye,
du hast ja nicht Unrecht mit dem VRAM. Du siehst aber auch, dass die 4060 Ti auch mit 16GB VRAM in Stalker 2 zu langsam für max settings ist. Man müsste also sehen ob beim nächst niedrigerem settings level wieder herkömmliche Performance-Unterschiede zu Ampere zu sehen sind.
Ich erwähnte dies um zu zeigen, hey schaut mal, in 1080p bricht eine RTX 3080 10GB auf RTX 4060 16GB niveau ein, und eine RTX 4060 8GB läuft 1500% langsamer.

Sogar eine 8 Jahre alte GTX 1080 11GB läuft über 700% schneller als eine RTX 4060ti 8GB, obwohl die RTX 4060ti bei Release 35% schneller als eine GTX 1080ti war.

Also eine 10GB RTX 3080 hat selbst bei 720p mit Vram Problemen zu Kämpfen auf Max Details, obwohl sie von der Rohleistung schnell genug ist.
Und eine RTX 4060 war von der DIE fläche und Shader Einheiten quasi eine RTX 3050.
Daher war sie auch nicht wirklich ein Upgrade von einer RTX 3060. Und diese quasi entry level mini GPU kommt durch mehr Vram mal eben auf RTX 3080 level. Das zeigt einfach wie wenig 10GB sind, selbst für 1080p.

Und dass hat PCGH und Computerbase damals auch bei RTX 3080 release gesagt.
1732364499978.png

Fazit:
Selbst eine RTX 3060ti wird durch ihren Vram limitiert und profitiert extremst von mehr als 12GB Vram bei 1080p laut den Tests diverser Spiele.
Und dann schau dir mal die Rohleistung einer RTX5080 an.
Dass ist über 3x mehr Leistung als meine RX6800. Und ich Zock mit meiner RX6800 alle Spiele in 1440p.

RX 6800 16 Terraflops (Profitiert von 16 GB)
RTX 5080 54 Terraflops (Hat nur 16 GB)
Dass passt vorne und hinten nicht. Von der RTX 5070 12GB brauchen wir gar nicht erst anzufangen.
Die reicht gerade mal für 720p in Stalker.
Die RTX 5080 könnte locker von der Power 4K, wird aber durch den Speicher Probleme bekommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und coral81
Bin mal gespannt, welche neuen "Alleinstellungsmerkmale" die 5000erSerie haben wird. Von der Performance her reicht meine Ur-4070ti noch dicke (in WQHD)
 
  • Gefällt mir
Reaktionen: Headyus und simosh
Der Preis ist sicher auch 22 % höher. Kann Nvidia behalten haben für die nächste Zeit noch eine RTX 4080 und die neue PS5 Pro.
 
  • Gefällt mir
Reaktionen: SweetOhm
floTTes schrieb:
Mir geht nur nicht ganz auf, warum man für etwas niedrigere Gewinne den Mainstream-Markt fallen lässt, der ja langfristig für Marktanteile und Verträge sorgt ...
Irgendwie ist unklar auf was du hinaus willst. Beide Hersteller haben doch nicht nur high-end im Angebot. Bei Nvidia sind es 5 verschiedene Dies mit jeweils mehreren Modellen. Deckt doch ne riesigen Bereich ab.
 
Zurück
Oben