Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Blackwell: RTX 5000 mit bis zu 512 Bit zwischen Fantasie und Wirklichkeit
Nein, denn die Spezifikation der 5090 steht längst fest (bis auf Dinge die man im bios festlegt wie Taktraten, TDP usw.), nur weiß die halt niemand außerhalb von Nvidia.
Und sofern es keinen Nvidia Hack gibt wird das auch so bleiben bis zur Ankündiung durch Nvidia selbst wenn es so läuft wie bei den 4000ern.
Da hatten selbst die Boardpartner kaum Infos bis kurz vor dem Reveal.
Ach vor ein paar Jahren hat man noch Platz für 4 Dual-Slot Grafikkarten benötigt - heute eine mit Triple-Slot … das ist doch überhaupt nichts das Thema
Das ganze mag zwar alles gut und nett sein. Aber was bringt die ganze Realistische Darstellung und ultra hochauflösende Texturen wenn es meiner Meinung nach extrem störende Clippingfehler nicht in den griff bekommen wird?
Wasser fließt durch Steine, Waffen durchdringen mühelos die eigene Rüstung oder verschwindet zur hälfte in der Wand, Rüstung durchdringt sich selbst, Nebel durchdringt Steine und anderes Zeug.
Irgendwie erwarte ich nur 15-20% die eine 5090 drauf legt und die 5080 wird ca. die 4090 erreichen, dafür nicht so hohe TDP angaben da die Highend Karten ja wohl Konkurenzlos los sein werden.
Das wäre ein riesiger sprung von 4080 auf 5080, ich glaube nicht das NV uns das gönnt. Vlt die 5080 ultra super TI im zweiten refresh in 2,5 Jahren irgendwann.
Im Umlauf befindet er sich und wer quatscht, ist beim nächsten mal nicht mehr dabei. Theoretisch, kann man ihn auch noch ändern. Es gibt nicht nur den "einen" Chip.
Der Tag wird kommen, ab dem ist der Chip in der Fließbandproduktion. Der ist aber noch nicht gewesen. Danach, dürfen die ersten "leaker" erzählen, was sie gesehen haben.
Der GB 00 wird ziemlich sicher, 512Bit mit HBM bekommen. Was das über den 02er aussagt, muss jeder selber wissen.
Die Art Spekulation ist doch nun mal wirklich absolut sinnfrei. Die Bandbreite alleine sagt mal so überhaupt gar nichts aus, wartet doch einfach mal die Ankündigungen ab.
ComputerBase wird versuchen nicht jedem Informationshappen nachzujagen, aber nichtdestoweniger über die Geschehnisse in der Gerüchteküche zu berichten.
Ein Problem, niemand sagt das der GB202 auch eine RTX 5090 sein muss.
Ebenso wenig wie eine AD107 eine RTX 4050 sein musste, man hat Sie halt real als 4060 verkauft.
Daraus kann eben folgen das eine 5090 ein Restposten sein wird von 10k$ Quadro etc. Karten.
Ist ja aktuell eigentlich auch schon so.
Es gibt aber auch Leute, die jedes einzelne Bit aus einem MP3-Stream heraushören können. Die müssen auch zwangsläufig bei Spielen die Regler alle nach rechts haben. Diese "massiven Hochfrequenz Gamer" brauchen nunmal die aktuellste Hochleistungshardware.
Das ganze mag zwar alles gut und nett sein. Aber was bringt die ganze Realistische Darstellung und ultra hochauflösende Texturen wenn es meiner Meinung nach extrem störende Clippingfehler nicht in den griff bekommen wird?
Wasser fließt durch Steine, Waffen durchdringen mühelos die eigene Rüstung oder verschwindet zur hälfte in der Wand, Rüstung durchdringt sich selbst, Nebel durchdringt Steine und anderes Zeug.
Persönlich störe ich mich meist an was anderem: Was bringt die realistische Darstellung, wenn einen das Spiel an jeder Ecke daran erinnert, nur ein Spiel zu sein? In der Übung verliert sich der ein guter Teil der Blockbuster, weil sie ihre Zielgruppe nicht verlieren wollen. Das dürfen sie mit steigenden Budgets natürlich auch nicht.
Sowohl in Sachen HUD/UI, Stichwort Zugänglichkeit/Händchenhalten (in Horizon Forbidden West torpediert der Hauptcharakter gar regelmäßig die vierte Wand, indem er ständig ausplappert, was ich als nächstes tun muss und wie ich das tun muss, löst gar Rätsel für mich). Als auch in Sachen Spieldesign selbst. Je hübscher alles wird, desto mehr Aufwand brauchts, das nicht zur reinen Staffage, Theaterkulisse zu machen. Physix und Co. waren mal nett beworbene Features, die in diese Richtung zielten. Heute redet alles von Raytracing, das bislang überwiegend die Bildqualität betrifft, weniger die Spielumgebung an sich. Da muss ich das hier gelobte Red Dead Redemption aber mit einschließen, insbesondere seine Missionen. Denn die sind mehr hübsch animierte Filmchen zum Halbwegs-Mitspielen denn Spiel. Schon mit der kleinsten Abweichung vom Skript kommt das Spiel nicht klar, sondern präsentiert sofort ein "Mission gescheitert". Next-Gen sieht anders aus.
Naja, was heißt keinen Mehrwert....man bietet die wohl schnellste Gaming GPU an und erfreut sich an den Käufern. Ob die Karte schlussendlich 2,5k Kosten wird, wird man abwarten müssen. Aber die Preisspirale geht eher Richtung Norden als gen Süden....
Ich meine es so, ich habe seit über einem Jahr die 4080FE und die reicht für meine Ansprüche für jedes Spiel und alles auf Ultra. Spiele welche eben auch auf Spielkonsolen mit deren "schwacher" Hardware laufen müssen. Aktuell sehe ich gar kein Grund auf eine 5080/5090 upzugraden, denn kein Spiel wird deren Leistung fordern., Vielleicht fallen die Preise mit dem Erscheinen der nächsten Generation Karten die für die 40x0er? Davon würden dann die Leute profitieren, die nicht bereit sind mal eben so 500€ und mehr für eine Grafikkarte auszugeben, was auch sehr gut nachvollziehbar ist. Wobei Nvidia und fallende Preise ist wohl eher ein Oxymoron.
Das wäre ein riesiger sprung von 4080 auf 5080, ich glaube nicht das NV uns das gönnt. Vlt die 5080 ultra super TI im zweiten refresh in 2,5 Jahren irgendwann.
Normalerweise waren es mehr % von xx80 auf xx80 (zB rtx 2080 auf 3080 auf 4080..)
Aber ohne Konkurrenz am Markt könntest du Recht haben und man pusht 15-20% je Klasse und wird stromsparender und evtl. dann "DLSS4", welches nur auf RTX 50xx funktioniert obendrauf als Verarsche, weil man eben kann ^^
Da nochmal 30% Richtung 1000 Euro für eine 70er GPU zu gehen wäre nicht so gut für den Ertrag.
Erog denke ich, dass NV das bleiben lässt.
Aber alle steht und fällt mit dem Ego von Jensen^^. Wenn er meint er muss hier jetzt die Preise noch weiter anziehen bis ans absoluteste Maxmium, dann ist die Frage ob er sich damit einen Gefallen tun.
Der K.I. Boom mit ausreichend K.I.-fähigen Gaming-Karten läuft vermutlich schon an mit sehr schlechten Nachrichten für Gamer, die den vordergründig maximalprofit- und machtorientierten nVidia CEO Jen Hsun Huang nur als Zielgruppe interessieren dürften, falls alle anderen (protitableren) Felle davon schwimmen.
Ich bezweifle, dass der VRAM bei Consumer-GPUs massiv ansteigen wird. Wenn überhaupt sind Consumer-Produkte mit mehr VRAM für Selbstständige o.ä. Interessant, um hier mehr Leistung pro Euro erhalten zu können. Das dürfte aber NVIDIA weniger gefallen, denn schließlich gibt es ja auch Profilösungen, die dann halt wesentlich teurer sind.
Und das im Privatfeld jetzt auch das Thema AI breitflächig einen Durchbruch erlebt, bezweifle ich stark - das ist natürlich stark vom Nutzer abhängig. Der Ottonormal-User kauft keine PC-Systeme für mehrere tausend Euros, sondern nimmt ein OEM System (meistens wahrscheinlich als Laptop) und zahlt nur wenige hundert Euro dafür. Da ist es wahrscheinlicher, dass VRAM starke Karten eher in den Profibereich wandern und die Berechnung dann in der „Cloud“ für den Privatnutzer durchgeführt wird.
NVIDIA wird einen Teufel tun und irgendwelche Consumer-GPUs mit massig VRAM ausstatten, wenn sie die GPU im Profisegment für wesentlich mehr Geld verkaufen können.
Vlt. kommt mit Blackwell ja wieder eine TITAN, die dann für Prosumer eine Option darstellt und mehr VRAM bietet als eine 5090 - mit entsprechendem Prosumer-Aufschlag natürlich.
Aktuell deuten die Gerüchte an, dass es bei 144 SM bleiben wird. Vermutlich bleibt es sogar bei 128 Shader pro SM.
nvidia fällt es seit Ampere schwer die GPU auszulasten. Die 4090 - und ich mag meine - zeigt das aktuell die Rohleistung nicht ankommt.
Die 50er werden entsprechend wohl wieder stärker umgebaut werden. Man kann gespannt sein, was kommt.
Ansonsten, für mehr als die 24 GB bei 384 Bit reicht es bereits, wenn die 3 GB Chips kommen, dann wäre man bei 36 GB. Das 256er kann damit auf 24 GB gebracht werden und für 192 Bit wären 18 machbar.