News Gerüchte zu Nvidia Blackwell: GeForce RTX 5070 Ti mit 16 GB, RTX 5090 nicht ganz mit 600 W

Tendenziell hört sich das nach einer passenden Karte für mich an, jetzt ist noch der Preis interessant 👍
 
DevPandi schrieb:
256 Bit sind 8 RAM-Chips, damit sind es entweder 16 oder 24 GB (2 GB und 3 GB-Chips).
Und, soweit ich weiß, sind 3GB-Chips noch nicht im Markt angekommen - das soll erst im Lauf von 25 passieren und stünde damit erst für einen Refresh zur Verfügung.
 
  • Gefällt mir
Reaktionen: lzon
Cronos83 schrieb:
Oder hast du "brauchen" hier etwas inflationär benutzt?...
Ja, ersetzt es durch haben wollen. Bzw die allg. eine Grafikkarte benötigen.
 
  • Gefällt mir
Reaktionen: floTTes, Cronos83 und Mcr-King
A.Xander schrieb:
Also auch wenn ich mit den 12GB der 4070 auskomme, finde ich so langsam könnte man mal auch für eine 70er ohne Ti 16GB springen lassen, denn noch 250W Verbrauch, das riecht schwer nach einem Wechsel zurück zu AMD, ausser die versauen es mit der RT Leistung oder dem Verbrauch total, vielleicht gibt es eine Ti ja für 650€ ;)

250W verbrät eine NV aber auch nur ohne FPA Limit mit 99% Auslastung.

Sobald du ein FPA limit setzt kann daraus auch schnell die Hälfte werden, und je älter bzw anspruchsloser ein Spiel umso weniger brauchen die.

Bei Indie Titeln auch gerne mal nur 30W, während AMD Karten gefühlt erst ab 100W beginnen sobald Last anliegt, egal wie wenig Leistung das Spiel eigentlich erzeugt.

Hab ich selber feststellen dürfen als ich von 7900XT > 4060 Ti > 7800XT > 4070 Super gewechselt hab...
 
Holodan schrieb:
Ich bin schon ein paar Jahre raus aus dem Thema PC-Gaming. Aber 600W TDP (!) für eine Grafikkarte finde ich absolut krank.
Ist halt keine Consumerkarte, was viele einfach nicht kapieren wollen. Wenn wir in unserer Renderfarm statt 2 300 Watt Karten nur eine 600 Watt Karte benötigen, ist das ne tolle Sache.
 
  • Gefällt mir
Reaktionen: lzon, Innocience, Nekkepenn und eine weitere Person
Nordwind2000 schrieb:
Ja... Weil kaum einer seine 5090 im Gaming mit 600W rödeln lassen wird. Das wird dann aufs Jahr gesehen ein teurer Spaß.

Problematischer werden dann eher die Lastspitzen. Die sollte aber ein gutes Netzteil abfangen können.
In Syrien kostet eine KWh 0,52 Cent
Im Iran kostet eine KWh 0,32 Cent
 
  • Gefällt mir
Reaktionen: Mcr-King
dohderbert schrieb:
warum gibt man der 5080 nicht 24GB? :confused_alt:
Weil's mit dem Speicherinterface technisch nicht möglich ist...
DevPandi schrieb:
256 Bit sind 8 RAM-Chips, damit sind es entweder 16 oder 24 GB (2 GB und 3 GB-Chips).
... und die hier erwähnten 3GB Chips erst irgendwann nächstes Jahr in Massenproduktion gehen, wenn's für die 5080 zu spät ist.

Mit etwas Glück kommen die wenigstens bei der 5060 zum Einsatz damit die 12GB statt 8GB erhält. Dann wäre es auch egal wenn die Karte sehr spät auf den Markt kommt.

Krik schrieb:
Ich bin nicht sicher, ob die Umfrage representativ ist.
Für Computerbase sicherlich halbwegs. Für Gamer weltweit auf keinen Fall, siehe den Steam Hardware Survey. Da ist immer nvidia's 60er Klasse ganz oben.

Nordwind2000 schrieb:
Problematischer werden dann eher die Lastspitzen. Die sollte aber ein gutes Netzteil abfangen können.
Dafür haben wir ja ATX 3.x Netzteile :)
 
  • Gefällt mir
Reaktionen: floTTes
imperialvicar schrieb:
In Syrien kostet eine KWh 0,52 Cent
Im Iran kostet eine KWh 0,32 Cent
Joa bringt nur nix wenn dieser ab und zu mal ganz weg bleibt..
 
  • Gefällt mir
Reaktionen: 1776 und LDNV
Meine RTX 3070 macht immer noch alles mit was wir spielen
Civ 6 / WOWS
Auch in 5760x1080
Also wird nichts gekauft
 
  • Gefällt mir
Reaktionen: legenddiaz
SirSilent schrieb:
Ist halt keine Consumerkarte, was viele einfach nicht kapieren wollen.
Sorry, aber das ist doch Quatsch. Natürlich ist das eine Consumer Karte, dafür gibt es schließlich die verschiedenen Serien bei Nvidia.
Nur weil die jetzt nicht mehr so wie früher so stark in der Computeleistung beschnitten werden, sind das noch lange keine Profikarten.
 
  • Gefällt mir
Reaktionen: Pisaro
aklaa schrieb:
nicht vergessen die Strompreise steigen nächstes Jahr auf +1€/KW+ wirds nochmal teurer.
? Hab ich was verpasst…
 
SirSilent schrieb:
Ist halt keine Consumerkarte, was viele einfach nicht kapieren wollen. Wenn wir in unserer Renderfarm statt 2 300 Watt Karten nur eine 600 Watt Karte benötigen, ist das ne tolle Sache.
Die 5090 ist sehr wohl eine Consumer-Karte und keine dezidierte Server- oder Workstation-Karte.

Fighter1993 schrieb:
? Hab ich was verpasst…

Den Aluhut aufzusetzen, vermutlich.
 
  • Gefällt mir
Reaktionen: Fighter1993
Wie man damals noch Karten mit >100W als stromfressende Monster bezeichnet hat....;D
600W möchte ich im Sommer nicht in meinem kleinen Kabuff wegkühlen. Die 4090 wird im Sommer wegen 450W schon kaum genutzt. Mit Prozessor ist man jetzt ja schon bei bis zu 850W und mit 30-40% Sicherheitspuffer braucht man dann schon ein 1200W-Netzteil.
 
Holodan schrieb:
Die 5090 ist sehr wohl eine Consumer-Karte und keine dezidierte Server- oder Workstation-Karte.
99,9% der Karten landen in Server- und Renderfarmen. Nur weil 0,1% der Karten an Gamer gehen, macht es sie nicht zu einer Consumerkarte.
 
  • Gefällt mir
Reaktionen: Innocience, Krik, Mcr-King und 2 andere
32 GB zu 16 GB.
Selbe Schere wie bei Ampere. 3080 10 GB zu 3090 24 GB.
Nvidia weiß schon, warum man keiner 5080 24 GB gönnt.
 
  • Gefällt mir
Reaktionen: lzon und dohderbert
Rickmer schrieb:
Falls bei der 5080 wirklich alle CUs aktiv sind, wird nvidia definitiv eine kleinere Karte brauchen, um teildefekte Dies absetzen zu können... macht also Sinn.
Weiss man wie die Yieldrate@N4P so ist?
Da hätte man vllt. tatsächlich von Anfang an genug Salvagechips übrig.
Rickmer schrieb:
Bezüglich TDP: Wenn die 5080 wirklich 400W verbrät, können die bei der 5090 unter 600W gehen ohne den Takt tief zu senken?...
Und die 5070Ti kann mit 350W ordentlich hochgebrezelt werden, solange man Glück in der Chiplotterie hat.
Viel Spass beim OCen!
Rickmer schrieb:
Warum sollte man eine 4080S kaufen wenn es die 4070 Ti S gibt?...
die Kleine ist nach m.E. erstaunlich schwach in manchen Games
Das wird dann hoffentlich mit der 5070Ti besser.
 

Anhänge

  • SpaceMarine@WQHD+FG.JPG
    SpaceMarine@WQHD+FG.JPG
    82,9 KB · Aufrufe: 79
@imperialvicar

Und was bringt mir jetzt deine Aussage? In Deutschland ist Strom auch teuer genug. In den Niederlanden kostet der Strom knappe 5 ct/kWh… So mal zur Info……
 
  • Gefällt mir
Reaktionen: Cyberpunk61
die 5070ti ist uninteressant, was fehlt ist die 5080ti-16GB am 512Bit Si das wäre eine brauchbare Hardware für 1k, die 5070ti eher so 5-600€ wird aber wohl eher 900-1k werden
aber schon lustig das immer noch alle Nvidia haben wollen obwohl die Ihre Kunden nur verarschen weniger Hardware für mehr geld und das mit jeder Gen
 
  • Gefällt mir
Reaktionen: legenddiaz
Nvidia könnte ja wieder ne 5080 16GB + 5080 12GB bringen. Es ist einfach nur schade das AMD dieses Mal den Highendmarkt ignoriert, weil NV karte schön und gut, aber nur die 90er modelle sind von denen wirklich brauchbar, alle anderen sind zu kompromissbehaftet.
Wenn man die 5090 mit 32GB bringt, hätte man die 5080 wenigstens mit 20GB bringen können wenn schon nicht mit 24GB. Aber passt ja gut in das bisherige schema mit dem Gegeize beim Vram...
 
  • Gefällt mir
Reaktionen: Icke-ffm
Zurück
Oben