News Gerüchte zu Nvidia Blackwell: GeForce RTX 5070 Ti mit 16 GB, RTX 5090 nicht ganz mit 600 W

grundsätzlich juckt es mir langsam in den Fingern, eine RTX 5090 die neue Maßstäbe setzt wäre schon lecker.
Bei mir lief es dieses Jahr wieder sehr gut und ich habe einiges an Gewinnen realisiert, daher wäre bei mir der Preis auch zweitrangig. Ich kaufe trotz allem seit einigen Jahren sehr konservativ, mein aktuelles Setup sollte mir noch locker 2-3 Jahre halten. Von daher kann es genauso gut sein, dass ich die Gen nochmal komplett überspringe. Bin in jedem Fall sehr gespannt, ob Nvidia den Erfolg fortschreiben kann. Meine Aktien erfreuts.
 
Icke-ffm schrieb:
und DLSS mag ja in hohen auflösungen was aussehen, ich zocke aktuell nur FHD und für mich ist es da eben keine option man sieht einen deutlichen unterschied.
Den Unterschied sehe ich weder bei QHD noch bei Full HD, zumindest meistens bei Full HD nicht, häufig siehts sogar besser aus.
Und da du keine Nvidia Karte hast, wie willst du wissen, wie DLSS aussieht?
Icke-ffm schrieb:
für mich eine glaubens Frage, will ich UHD zocken dann kaufe ich keine Karte die nur soviel Speicher hat wie die Vorgänger version, geschweige denn weniger wie eine High end Karte die +4Jahre alt ist.
Dann fällt AMD ja flach, denn sie senken den Speicher um ganze 8GB.
Icke-ffm schrieb:
Das man mit jeder Karte irgendwann Regler schubsen muss ist klar aber nur wegen zuwenig Vram sehe ich einfach nicht ein.
Für deine Auflösung reichen selbst 12GB noch in jedem Fall.
 
Mal ne Frage bitte. Ist es den custem Hersteller prinzipiell verboten den Vram zu erweitern?
 
  • Gefällt mir
Reaktionen: floTTes
Ja NVIDIA schreibt immer mehr vor, deswegen sind die Custom Karten auch nicht mehr besonders wie damals, wo die Partner rumbasteln konnten.
EVGA war einer der letzten die noch viel versucht haben.
 
  • Gefällt mir
Reaktionen: DeVIce und floTTes
Freue mich auf Januar!
 
  • Gefällt mir
Reaktionen: Grundgütiger
Nach wie vor, tue ich mich schwer damit, dass die Lücke zwischen 5080 und 5090 so eklatant groß sein soll. Wir werden bald mehr wissen. 🙂
 
D3xo schrieb:
. Ist das die Zukunft ? Gaming mit 600 Watt und UE ? Das reicht dann bestimmt für 60 FPS in 4K, natürlich mit Upscalling.
andersrum, mit ca. 20x5090 unter vollast (sofern die Daten stimmen) könnte ich warm duschen.

Hallenbäder sollten immer in der Nähe von Rechenzentren sein.
 
Icke-ffm schrieb:
Du würdest tatsächlich 1k ausgeben und schon zum Kaufzeitpunkt regler schubsen müssen ?
würde mir im traum nicht einfallen, dann lieber weniger Auflösung oder fps ohne schubsen und nur 500€ oder eben noch 1k drauflegen.

und DLSS mag ja in hohen auflösungen was aussehen, ich zocke aktuell nur FHD und für mich ist es da eben keine option man sieht einen deutlichen unterschied. wäre somit nur ein nice to have in UHD, wenn die fps nicht mehr reichen dann eben einschalten

wieviel Watt eine Karte oder das System zieht ist mir schnuppe, dann hole ich halt noch nen stärkeres Netzteil dazu und gut ist, da wäre mir die Lautstärke weit mehr wert.

für mich eine glaubens Frage, will ich UHD zocken dann kaufe ich keine Karte die nur soviel Speicher hat wie die Vorgänger version, geschweige denn weniger wie eine High end Karte die +4Jahre alt ist.
Das man mit jeder Karte irgendwann Regler schubsen muss ist klar aber nur wegen zuwenig Vram sehe ich einfach nicht ein.
Ich habe nicht gesagt das ich 1k oder mehr ausgeben würde und dann Regler schubsen möchte. Ich sagte nur das ich prinzipiell, wenn die Zeit mal gekommen ist, damit dann auch kein Problem habe ;) Das Problem ist doch das man quasi in jeder Preisklasse erwartet am besten alles auf Rechts zu stellen und das hat gefälligst zu laufen ansonsten ist es angeblich schlecht Programmiert.

Und ja, DLSS sieht in höheren Auflösungen nach was aus. Das ist aber kein Geheimnis das DLSS oder auch FSR umso besser funktionieren umso höher die Ausgangsauflösung ist.

Ich stelle mir eher die Frage wieso ich 1k oder mehr ausgeben sollte wenn ich nur ein FHD Monitor betreibe. Aber gut, jeder hat seine Prios anders. Was man auch an deiner Verbrauchsaussage merkt. Abseits der mehrkosten eines höheren Verbrauchs kommen da auch andere Dinge zum tragen wie höherer Kühlaufwand und ggf. neue Investments in der Richtung da ich es prinzipiell sehr Silent bevorzuge oder auch schlicht die pure Abwärme die ich insbesondere im Sommer nicht haben will. Aber wie schon gesagt, jeder setzt seine Prios anders. :)
 
  • Gefällt mir
Reaktionen: floTTes
Also ganz versteh ich den Hype hier dennoch nicht. Wenn Intel die TDP durch Brutforce hochballert,dann ist das absolut no-Go. Aber bei NVIDIA wollen es die Leute tolerieren.
Als Nutzer einer 4090FE weiß ich wo von hier gesprochen wird.
Nochmal 90 W oben drauf,das geht gar nicht.Fortschritt wäre eine Senkung gewesen ohne die Leistung groß zu reduzieren.
Über den 🤮 Preis gar nicht zu reden.
Die 5080 hätte denn auch wenigstens 24 GiB VRam verdient.
Also diese Gen. geht mir am A….. vorbei. Danke Herr Huang
 
  • Gefällt mir
Reaktionen: Iarn und LDNV
krucki1 schrieb:
Schon lustig. 32" OLED Monitor kommen nur in UHD, für die sind aber die mickrigen VRAMs mit 16 GB und weniger zu knapp. Wen will man mit was nun jetzt wirklich zum Kauf locken?
UHD wird wohl auch niemand mit einer 4080/5080 betreiben wollen. Darüber gibt es ja 24GB/32GB VRAM.

Oder halt 34" mit UWQHD. Die gibt's auch mit OLED. Die haben nur ca. 60% der Pixel von UHD. Passen vom Preis sogar.

Den GB202 (5090) werden wir wohl mit diverser Speicherbestückung später ganz sicher noch zu Gesicht bekommen.
Der GB203 (5080/5070 Ti) könnte auch anders bestückt werden, ohne dass man am Speicher-Interface was ändern müsste. Der GB203 könnte uns auch als 5070 (Ti) Super noch mit 18GB VRAM verzücken!
Wer den Speicher "braucht", muss halt auf Super-Karten warten.
 
Zuletzt bearbeitet:
floTTes schrieb:
UHD wird wohl auch niemand mit einer 4080/5080 betreiben wollen. Darüber gibt es ja 24GB/32GB VRAM.

Oder halt 34" mit UWQHD. Die gibt's auch mit OLED. Die haben nur ca. 60% der Pixel von UHD. Passen vom Preis sogar

Mir reicht noch meine 3090 für 4K oled. Ich habe aber auch nicht den Anspruch, mit DlSS über 50 FPS zu kommen. 60 wären nice. Wie auch mit der jetzigen 70ti wird auch mit der 50ti 4K gut möglich sein. Man kann halt nicht verallgemeinern, dass es nicht taugt. Ich bin mir inmoment sehr sicher, dass 16 GB für 4K fine sind die nächsten 2 Jahre und das entscheidet es dann für mich. Für alles Andere gibts DlSS und FG.
 
@nurfbold,
du hast ja auch 24 GB VRAM. Am Textur-Regler musst du wohl nicht rumspielen.
3090 gibt's gewerblich und neu für 1K auf eBay. Wem VRAM wichtiger ist als Leistung(-saufnahme) , kann da zuschlagen.

16GB VRAM dürften für (W)QHD noch einzige Jahre reichen. +4 Jahre für Leute, die Regler bedienen können/wollen. So ganz komme ich da nicht mit. Aber jedem halt das Seine.

5060 Ti soll ja laut Zotac mit 16GB VRAM kommen, passt doch ideal. FHD-Leistung mit massig VRAM.

Bedient werden wir schon gut, nur halt nicht zu unseren "Wunschpreisen". :evillol:
 
Das Lineup ist irgendwie unharmonisch.
Der Abstand von der 5070 zur 5070 Ti ist größer als der Abstand zwischen der 5070 Ti und der 5080. Entweder ist die 5080 zu schwach oder die 5070 Ti zu stark oder die 5070 ist eigentlich eine 5060...oder da kommt einfach wieder eine 5070 Super. Keine Ahnung, aber irgendwie passt es nicht.
 
@riOrizOr
Die 5070Ti und die 5080 setzen eigentlich auf den gleichen Chip. Die müssen relativ nahe beieinander sein, sonst muss man einen teuren Chip zu sehr beschneiden, um eine schwächere Variante zu erzeugen. Die 5070 (ohne Ti) ist hingegen von Anfang an ein kleinerer Chip. Von der gibt es möglicherweise noch eine schwächere Version in der Form der 5060. Aber das ist unbestätigt.
 
Restart001 schrieb:
mal einen Weltkrieg auslösen wird?
Ein Absurder Gedanke.
Leiden Sie unter Depressionen? Falls ja, gehen Sie zum Psychiater. Solche Fragen sind nicht normal und auch nicht witzig
 
Hm wie war das ? Der Konsument hat die Macht
?
NVIDIA wird mir zu unsympathisch und gierig
Ich muss wieder die „schwachen“ unterstützen sorry
 
Zurück
Oben