News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070

stefan92x schrieb:
Nein, Nvidia hat aber schon eine Demo gezeigt. Aber bis das wirklich rauskommt werden sicher noch ein, zwei Jahre vergehen.
Echt, dann gibts endlich RDR2 und GTA mit deutscher Sprachausgabe, oder wie ist das zu verstehen?
 
belive schrieb:
die xtx hat viel merh cpus als die letzte high end karte von amd. gar nicht vergleichbar aber du weißt das eh . defense force.
Du verstehst es nicht. Wenn AMD nicht mehr mit dem Top Chip von Nvidia mithalten kann, dann fallen auch die darunter liegenden SKUs eine Klasse ab. Nvidia wie AMD sind gleichermaßen für die Preisbildung verantwortlich und wenn eine billige RTX 5070 12GB ausreichend ist um AMD´s RX 8800XT Paroli zu bieten, dann ist das so. Es steht auch AMD frei diese GPU dann für 400 Euro zu verkaufen, damit Nvidia wieder die eigentliche "5060" dann für 350 verkauft.

Auch die 4080 hat mehr Transistoren als die 3090Ti, interessiert das wen?
 
  • Gefällt mir
Reaktionen: heroesgaming und ElliotAlderson
Ich glaube, in einem anderen Forum gibt es sogar für Nvidia Fanboys wie @Quidproquo77 ein eigenes Thema.

Und selber liken geht hier nicht ;)
 
  • Gefällt mir
Reaktionen: Quidproquo77
Sehr spät zur Party, 2 Cents:

Die Entwicklung ist keine Neue. Großes Aufheben, welches mutmaßlich ohne Konsequenz bleibt:
Desktop-Grafikkarten Nvidias weltweiter Marktanteil klettert auf fast 90 Prozent


Bislang sind es Gerüchte: Diese Gerüchte, bezogen auf den Verbrauch der Karten, hatten sich zuletzt bei der Generation der RTX4000 nicht bewahrheitet. Die grotesk großen Kühler jedoch sprachen ihre eigene Sprache. Während eines beträchtlichen Zeitraums pro Jahr wäre ich nicht bereit, 400 Watt zusätzlich im Wohnraum zu akzeptieren; da mag die berechnete Effizienz noch so gut sein.

Selbst falls ich mir die Summe für die Anschaffung eines (fast) Vollausbaus einer RTX5000 gefallen lassen würde, so sollte es nicht sein, dass neue AAA-Titel diese Karte als quasi Referenz verwenden. Es war eher die Regel, denn die Ausnahme, dass UHD und knapp über 60 Frames mit Mühe und Not von einer RTX4090 erreicht worden sind.
Leider gehe ich davon aus, dass sich dieser Trend fortsetzen wird. Wohl wissend, dass man unterhalb UHD seinen Spaß haben kann, was jedoch nicht der Punkt ist.

Irgendwann ist die Zeit der dedizierten Karten ohnehin vorüber.
Mal schauen, wann.
 
DrFreaK666 schrieb:
Dein Ernst? In deiner Sig steht auch nur eine RTX2070. Sie war schon damals kein High End. Wieso hast keine Konsole gekauft?
Es tut zwar nichts zur Sache, aber: mir reicht die 2070 bis heute. Warum sollte ich mir dann eine neue kaufen? Da stecke ich das Geld lieber in einen neuen Grill o.ä. und btw. ein Haus habe ich seit dem Kauf der 2070 auch noch gebaut...

Ich spiele wenig grafiklastige PC-Spiele und das bisschen Herumspielen mit Stable Diffusion macht die 2070 auch noch mit. Als Nicht-Pro-Gamer bin ich offensichtlich hier schon Teil einer marginalisierten Randgruppe :watt:

Und ja klar, hier stehen auch eine PS3 und eine PS5 im Wohnzimmer.
 
  • Gefällt mir
Reaktionen: Herr-A, heroesgaming und JMP $FCE2
Das ist ne werbe Broschüre die suggerieren soll was ai kann da ist nix mit ai gerendert worden sondern manuell die Texturen bearbeitet und dann pathtracing laufen lassen mit eine sehr guten denoiser, videos quasi.
Das ist kein gameplay die Latenz ist extrem min 5 frames braucht man um den denoiser in Echtzeit darzustellen.
Da kann die Eingabe mal eine Sekunde dauern pathtraycing mit denoising geht schon lange auch performant aber es ist in Echtzeit derzeit nicht möglich.
Die einzige engines die einen guten Ansatz hat ist die ue5 mit nanite und lumen was ein Kompromiss darstellt hier scheiterts am vram der aktuellen gpu selbst ne rtx4090 hat nicht genug.
Auf lange Sicht führt kein Weg herum apu mit lokalen hbm 4gb für ein frame und einen 256bit si und ab 48gb ddr6 13gt/s das wird kommen. erweiterbar bis 192gb und wenn 36gbit kommen sogar 256gb mit ddr6 15gt/s (480gb/s+ 512gb/s hbm 1tb/s in der apu) effektiv bis zu 260gb vram
Ob das Sinn macht ist ne andere frage den mehr als 48gb sind vermutlich nicht notwendig am gaming PC
Das aber dgpu ab 2028 an der Vergangenheit angehören dürfte stimmen man kann noch ne dedizierte gpu kaufen aber wird keine neue cpu Plattform mehr bekommen ohne apu mit hbm
ich hoffe das nvidia mit intel ne apu entwickelt ansonsten wird das ein Monopol von amd am PC
 
Zealord schrieb:
Mit dem Real Life meinte ich eher, dass egal wie viel Geld man ausgibt für einen Computer am Ende des Tages macht es mehr Spaß mit einem Peugeot 208 von 1980 über Landstraßen zu düsen als einen Porsche 911 RSR in einem Rennspiel zu simulieren. Oder eine Runde Fußball, Darts, Billard, etc. ist spaßiger als Cyberpunk 2077 auf einer 4090 in 4K DLSS RTX zu spielen.
Ich finde das schließt sich nicht aus? Mir macht CP 2077 manchmal viel mehr Spaß als alles andere, weil ich eben keine Lust auf "real life" und rausgehen habe. Dann ists draußen kalt und ich chill auf der warmen Couch. Dass echte Dinge machen am Ende oft besser ist und nachhaltiger wirkt als digitale Erlebnisse, da stimme ich zu. Allerdings nicht "Immer". An dieser Absolutät stoße ich mich. 2-3h zocken und dabei die Gedanken schweifen zu lassen hat bei mir schon, stimuliert von Dingen die die Spielfiguren tun und sagen, so manche Reflexion ausgelöst zB, für die ich heute dankbar bin. Klar geht das auch "anders", aber da haben wir nix davon. Ist wie wenn ich dir sage "nee, der Peugeot ist langweilig auf der Landstraße, nimm lieber ne alte Duke. Klar, macht auch Spaß, halt anders.

Das letzte Hemd für eine 5090 ausgeben ist jedoch wahrscheinlich in 99% aller Fälle nicht die beste Idee. Weiß denke ich wie gesagt schon was du meinst, nur sehe ich es weniger binär. :)
 
  • Gefällt mir
Reaktionen: Nihil Baxxter und Zealord
Kann man machen wenn man den Markt kontrolliert und die Konkurrenz resigniert. ¯\(ツ)
 
wenn die 1080ti irgendwann den Geist aufgibt hol ich mir ne apu , ich bin nicht gewillt solche Preise zu zahlen
 
Eli0t schrieb:
Tun sie, siehe PS5 Pro oder glaubst die lassen das in ihren Chips weg? 🤦‍♂️
Und das auf 4000er Niveau? 😂 vlt schaffen die ja mal das 3000er Niveau zu erreichen 😏
 
Wintermute schrieb:
Ich finde das schließt sich nicht aus? Mir macht CP 2077 manchmal viel mehr Spaß als alles andere, weil ich eben keine Lust auf "real life" und rausgehen habe. Dann ists draußen kalt und ich chill auf der warmen Couch. Dass echte Dinge machen am Ende oft besser ist und nachhaltiger wirkt als digitale Erlebnisse, da stimme ich zu. Allerdings nicht "Immer". An dieser Absolutät stoße ich mich. 2-3h zocken und dabei die Gedanken schweifen zu lassen hat bei mir schon, stimuliert von Dingen die die Spielfiguren tun und sagen, so manche Reflexion ausgelöst zB, für die ich heute dankbar bin. Klar geht das auch "anders", aber da haben wir nix davon. Ist wie wenn ich dir sage "nee, der Peugeot ist langweilig auf der Landstraße, nimm lieber ne alte Duke. Klar, macht auch Spaß, halt anders.

Das letzte Hemd für eine 5090 ausgeben ist jedoch wahrscheinlich in 99% aller Fälle nicht die beste Idee. Weiß denke ich wie gesagt schon was du meinst, nur sehe ich es weniger binär. :)

Natürlich nicht. Ich habe mir auch eine RTX 3080 für 699€ gekauft und spiele in 4K. Das ist extrem viel Geld damit meine Pixel hübscher sind.

Aber für mich ist das mehr so ein psychologisches Ding.
Ich will ja auch. Schneller, besser, höher, weiter.

Es geht sich ja insgesamt mehr um das Verhältnis von wie Nvidia den Markt ausnimmt durch eine fast Monopolstellung (der CEO von Nvidia hat inzwischen ein höheres Net Worth als der komplette Market Cap von Intel. Absolut verrückt) und damit stark Preise bestimmen kann. Klar ich verstehe survival of the fittest und Machtstellung, aber bei der 40er Serie liefen die Preise schon so stark aus dem Ruder.

Ich versuche das ein bisschen mehr von der Spielen aus zu sehen. Je besser und anspruchsvoller die Spiele sind desto mehr wäre es wert in gute Hardware zu investieren.
Aber dann doch irgendwie mehr als 400 Stunden Zelda auf der Nintendo gespielt mit 0.4 Tflops als auf meiner RTX 3080 mit 30 Tflops.

Will wirklich niemandem vorschreiben was er zu tun hat. Jedem das seine, aber für mich war es wichtig mal klaren Kopf zu fassen in der ganzen 600W Grafikkartenkraftaufwandspirale.
 
Krik schrieb:
Es liegt in eurer Hand, ob ihr die 5090 kauft oder eben auch nicht. Den Konzern bekommt man nur über den Geldbeutel umgestimmt.
Das Geld wird sowieso nicht mehr mit Gaming-GPUs verdient. Eine H100 kostet ca. 30.000€. H200 knapp drüber. Davon werden abertausende verkauft, ohne Ende in Sicht.

Solang sich da nix ändert, wird sich nVidia keine Gedanken um den Gaming-Markt machen, denke ich.
 
drago-museweni schrieb:
ürde mich mal interessieren warum die immer so knausern mit Speicher als würde der soviel kosten

man kann halt billige Chips nutzen, ggf teildefekte und den man braucht kann ggf auch Speichermodule sparen oder billige Kombinationen finden, so das die Marge maximiert wird. Der Kunde interessiert nicht, der ist bei Nvidia nur "Melkvieh" meiner Meinung nach. Und die Vorherrschafft wird auch interessanterweise nicht durch die Rohleistung entschieden. Mich würde mal interessieren, warum das so ist und ob da nicht im Hintergrund gewisse Dinge nicht so laufen wie Sie sollten.

Leider akzeptieren das soviele und lassen sich verarschen, das Nvidia nicht den Kurs ändern muss.
 
Luxmanl525 schrieb:
Hieraus resultiert das Verhalten von Nvidia in Bezug auf die Speichergröße, als auch ganz sicher auch in Bezug auf den Preis, den sie aufrufen werden. Der wird noch gesalzener als seinerzeit bei der 4000er Reihe zu Beginn werden.
Leider nicht nur das, die Leistung wird bis auf das Flaggschiff RTX 5090 wohl überall eine Klasse niedriger ausfallen (eine RTX 5080 quasi eine RTX 5070, eine RTX 5070 quasi eine RTX 5060 usw.).

Das hat Hardware Unboxed schön eingefangen, wie massiv seitens nVidia abgespeckt wird, nicht nur beim Speicher stagniert wird, aber besonders bei Shadern/Leistung relativ abgespeckt wird unter dem Flaggschiff für mindestens gleiches Geld wie vorher (eher noch mehr Geld, weil AMD nicht konkurrieren wird können ab RTX 5080).


Der Trend zeigt schon ganz klar, dass bei der jetzigen Ada Lovelace Generation das mit relativ schwacher prozentualer Shaderausstattung unterhalb der RTX 4090 der Fall ist, bei Blackwell wird es größtenteils wohl noch schlimmer.

Also versucht man bei nVidia durch die Bank einen RTX 4080 12 GB Moment (der in einer leicht günstigeren RTX 4070Ti geendet ist nach Protesten von einflussreichen Reviewern) für die ganze Blackwell/RTX 5000er Generation durch zu drücken, um die Kundschaft größtenteils (mit Ausnahme von RTX 5090 Käufern) für blöd zu verkaufen.

Neben Speichergeiz wird relativer Leistungsgeiz wohl ein neues nVidia Merkmal bei Blackwell werden, was ich persönlich eher boykottwürdig finde, aber die meisten nVidia Käufer sind ja gewohnt sich durch den Kakao ziehen zu lassen und verteidigen sowas oft bizarrer Weise noch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: butchooka
Simonsworld schrieb:
Die 4090 ist derzeit die Spitze im Consumer Bereich was Machine Learning Performance angeht, allerdings sind auch 24GB VRAM schnell aufgezehrt. Daher wird mitunter dazu übergegangen, LLMs im langsameren RAM auszulagern.



Das Problem ist du hast jede Generation eine neue Upscaling Technologie. Und Raytracing wird meines Wissens nach auch updated.
Je nachdem, wie groß die Forschritte in diesem Bereich sind, wird die 4090 in ein paar Jahern nicht mehr so gut darstehen.
Aber sie wird definitiv besser altern als bspw. eine 4070 das stimmt. Allerdings hat man für die 4070 auch nur rund 500-600 Euro gezahlt, also etwa ein Drittel von der 4090.


Ich hoffe, dass AMD im AI Bereich in den nächsten Jahren ordentlich zulegt. Kombiniert mit genügend VRAM könnten sie im Endkundensegment attraktiv für derartige Anwendungen werden.
Aber auch die haben nichts zu verschenken und werden den Preis entsprechend nach oben korrigieren.


Die günstigeren Modelle der 4070 waren schon kurz nach Release auf etwa 600 Euro runter. Die Karte war neben der 4090 das beliebteste Modell.
Ich hoffe, dass die Käufer bei der 5070 etwas zurückhaltender sind, um ihren Unmut gegenüber dem geringen Speicherausbau zu zeigen. Aber das wird eine Wunschvorstellung bleiben. Wir in unserer techaffinen Bubble machen nur einen unbedeutenden Teil der Käuferschaft aus und bei uns ist es eh wurscht, weil wir viele Enthusiasten haben, die bereit sind das Geld für das Topmodell hinzulegen.
Lies meinen Beitrag noch mal. Danke
 
paganini schrieb:
Und das auf 4000er Niveau? 😂 vlt schaffen die ja mal das 3000er Niveau zu erreichen 😏
Das ist bereits mit RDNA3 nachweisbar geschehen. Man ist eine Generation hinten, bisher ist es nicht mehr.
Quidproquo77 schrieb:
Du verstehst es nicht. Wenn AMD nicht mehr mit dem Top Chip von Nvidia mithalten kann, dann fallen auch die darunter liegenden SKUs eine Klasse ab. Nvidia wie AMD sind gleichermaßen für die Preisbildung verantwortlich und wenn eine billige RTX 5070 12GB ausreichend ist um AMD´s RX 8800XT Paroli zu bieten, dann ist das so. Es steht auch AMD frei diese GPU dann für 400 Euro zu verkaufen, damit Nvidia wieder die eigentliche "5060" dann für 350 verkauft.

Auch die 4080 hat mehr Transistoren als die 3090Ti, interessiert das wen?
Don't feed the troll ... mittlerweile durften sicher ein Dutzend von uns hier feststellen, dass man mit ihm nicht sinnvoll diskutieren kann. Du wirst nie gehaltvolles Feedback bekommen, im Höchstfall läuft es auf fehlerbehaftete, schlecht formulierte Beleidigungen hinaus.
 
@heroesgaming
Und genau das habe ich doch auch gesagt 🤦‍♂️ mit der 4000er Gen ist ein großer Leistungssprumg mit RT passiert, das muss AMD erstmal aufholen und ich glaube nicht daran aber warten wir es ab was für Mitteklasse Karte AMD bringen wird
 
@stefan92x : Danke für die Info. Das klingt ja interessant, denke aber das wird noch mindestens 5 jahre dauern bis das auf die Kritiker, äh die Spieler losgelassen werden kann.
 
paganini schrieb:
@heroesgaming
Und genau das habe ich doch auch gesagt 🤦‍♂️ mit der 4000er Gen ist ein großer Leistungssprumg mit RT passiert, das muss AMD erstmal aufholen und ich glaube nicht daran aber warten wir es ab was für Mitteklasse Karte AMD bringen wird
Du sagtest, AMD solle erst einmal das Ampere-Niveau für RT knacken. Ich sagte darauf hin, dass das bereits geschehen sei.
 
  • Gefällt mir
Reaktionen: Wichelmanni
Zurück
Oben