News RTX 5090 & 5080: Gerücht nennt 600 Watt und 32 GB GDDR7 für das Topmodell

Und was die Kostet? Beim Einkauf und Energiekosten.
 
Ich denke ich werde diesmal echt erst upgraden wenn ich ein Spiel nicht so genießen kann wie jetzt und so viel zocke ich auch nicht mehr um eine solche Investition mir gegenüber zu rechtfertigen.

Irgendwie ist die Luft da raus, auch geschuldet von den teilweise miesen Games die mich zwar ein paar Stunden fesseln aber danach fad sind.
 
OldZocKerGuy schrieb:
Willst du mehr, dann zahle mehr. Irgendwie ekelhaft aber so ist das halt. 😅
Teuer sind die Top Modelle alle... Aber das es dann immer noch ewig dauert bis vernünftige Modelle rauskommen, das nervt. Aber steht ja noch nichts fest.

Ich finde ne 5080 mit 20 GB könnten sie ruhig machen, dann hat die 4090 ja immer noch 4GB mehr 😅
 
  • Gefällt mir
Reaktionen: schneeland und OldZocKerGuy
Nachdem die EU hier den zulässigen Stromverbrauch für Elektro-Öfen, Staubsauger und andere Geräte begrenzt hat, wären vielleicht mal die Grafikkarten an der Reihe.:)
 
Basti__1990 schrieb:
Nur 16GB RAM für ne RTX 5080 ist schon echt mager. Besonders wenn von einer UVP > 1.000 € ausgegangen werden kann.
Naja, die Konsolen haben auch nur 16 GB also sollte es zumindest solange reichen, bis dann die PS6 bzw. Xbox 2 rauskommt. Also vermutlich 4 Jahre.
 
Persönlich glaube ich ja nicht an diese Gerüchte und wenn es doch so kommt sehe ich dem Ganzen recht gelassen entgegen. Die letzten 2 Gen. 3x/4x/6x/7x Karten sind auf einem hohen Level, und da ist für jeden etwas dabei, auch preislich, dass man getrost so eine Stillstandphase, denn nichts Anderes wäre eine 600W Karte, aussitzen kann wenn man kein Bock auf Sowas hat. Für (Semi)Pros ist mehr Vram natürlich immer willkommen und im Vergleich zu Prokarten wird so eine Karte sicher auch immer noch gut aussehen wie eben die 4090 auch. Wir werden die richtigen Specs ja bald erfahren.
 
Diesen Gedanken hatte ich auch schon das eventuell mal die EU den Strom Verbrauch im speziellen der GPUs begrenzt, nur kann sich das negativ auf uns auswirken, werden vom Hersteller gedrosselt, für'n selben Preis. Da verlieren wir nur in der EU irgendwie. 😅

Öhmm Konsolen Spiele sind angepasst und optimiert auf die HW, das Spiel funktioniert bei PCs nicht, dafür ist die Defragmentierung zu hoch.
 
600 W?
Falls das stimmen sollte, wären wir dann demnächst bereits schon wieder am Limit des neuen Steckers - der mal eingeführt wurde, damit man nur noch einen Stecker für seine Karte braucht.

Tja - selbst, wenn das nicht stimmt und es noch ein bisschen braucht, bis die 600 W geknackt werden - besonders lange wird sich das mit dem nur einen Stecker dann wohl nicht halten...
 
Bei der TDP und dem Anschaffungspreis bin ich mit meinen Anwendungen schon lange raus. Das brauch ich so dringend wie ein Loch im Kopf.

Nix für mich.
 
OldZocKerGuy schrieb:
die EU den Strom Verbrauch im speziellen der GPUs begrenzt
Das ist eine Idee, die kann nur grandios nach hinten losgehen. Und sinnvoll ist es auch überhaupt nicht.

Verbrauch != Effizienz - wenn letztere gut ist, sehe ich in ersterem kein Problem - ich könnte mir ja auch zwei kleine Karten statt einer großen einbauen, dann hab ich auch wieder den doppelten Verbrauch und die Regulierung schön umgangen - nur mit zusätzlichen Unannehmlichkeiten für mich und etwas mehr Ressourcenverschwendung.
Und warum sollte die EU das überhaupt regulieren, wenn der Konsument oder die Firma auch einfach ein kleineres Modell kaufen kann? Zwingt irgendwer die Leute sich das Topmodell zu kaufen?
Und wenn die EU bei Grafikkarten dann anfangen würde Effizienz-Kriterien vorzuschreiben, dann würde das auch nach hinten losgehen, da es da viele verschiedene Metriken gibt, die in unterschiedlichen Anwendungen relevant sind und die EU-Bürokraten da mit dem Regulieren gar nicht hinterherkommen würden oder komplett falsch regulieren würden.
Davon abgesehen reguliert der Strompreis allein das schon völlig ausreichend. Ist die Hardware zu ineffizient, wird das Rechenzentrum unwirtschaftlich - fertig. Viel einfachere und effektivere Regulierung, als wieder Wasserköpfe aufzustellen. Und im privaten Bereich für ein bisschen Zocken ist es jedem selbst überlassen, was für einen Rechner er sich da hinstellt und ob er 'ne kleinere Karte nimmt oder ein Topmodell und das vielleicht undervoltet oder ob er sagt gib ihm.

Aber diese Forderung hab ich hier im Forum schon öfters gelesen. Wenn wirklich ernst gemeint, dann hoffe ich, dass diejenigen, die das vorschlagen, sich nicht an anderer Stelle über zu viel Bürokratie beschweren.
 
  • Gefällt mir
Reaktionen: Ryzen 14900KS, schneeland und Cinquedea
Die kolportierten 16GiB VRAM für die 5080 sind ein miserabler Witz. nVidia will ihre Kunden scheinbar direkt verarschen. :rolleyes:

Preise werden sicherlich auch absurd. 5090 für 2999€, 5080 für 1499€. Da gehe ich jede Wette ein.
 
  • Gefällt mir
Reaktionen: whocares0101
Wär interessant wenn's so käme; allerdings hab ich immer noch Zweifel, nicht an der TdP Zahl, sondern an den 32 GB VRAM. Nvidia ist sehr vorsichtig damit, großen dGPUs nicht soviel Memory zu geben, daß sie ernsthafte Alternativen zu ihren Pro Modellen werden, zB für Videobearbeitung oder auch um LLMs laufen zu lassen. Für Design und Engineering Software ist es eher so, daß die Software erst gar nicht installiert oder läuft, wenn die GraKa nicht als Pro Modell ausliest.
Und dann bleibt noch diese Hürde: der Preis.
@Jan: wie wäre es mit einem Nvidia gesponserten Gewinnspiel - wer die Specs und den Preis genau richtig vorhersagt, darf an der Verlosung teilnehmen😀.
 
  • Gefällt mir
Reaktionen: CruellaDE
Wurde bei der 4090 nicht auch was von 600w erzählt?
Am Ende kam sie mit 400w oder so.
Mal abwarten bis zum release ok?
 
  • Gefällt mir
Reaktionen: schneeland
Nur 16GB auf der 5080 wäre aber schon wieder mal schwach von Nvidia. 20, besser 24 hätten es schon sein dürfen. Oder dann halt auch 32, wenn nichts anderes als 256 Bit Speicherschnittstelle geht. Und für den 12VPWR-was-auch-immer-Stecker dann bitte wieder mit Adaptern. Muss nicht sein, dass man wieder neue Netzteile kaufen muss.
 
gartenriese schrieb:
Naja, die Konsolen haben auch nur 16 GB also sollte es zumindest solange reichen, bis dann die PS6 bzw. Xbox 2 rauskommt. Also vermutlich 4 Jahre.
Nur, wenn du Konsolen-settings anpeilst.

Will man unbedingt alles auf Ultra, ist man schon ganz ganz weit über den Konsolen hinaus.
 
  • Gefällt mir
Reaktionen: CruellaDE
Endlich mal etwas mit 512bit Speicherinterface, und dann GDDR7 noch dazu. Ach, da erinnere ich mich gleich wieder an die R9 290 - das waren noch Zeiten; das Topmodell in leicht beschnitten für 400€…

Es überrascht mich, dass es hiervon kein Cutdown-Chip mit 384bit Interface genannt wird, der sich zw. der 5080 und 5090 ansiedelt - naja vielleicht dann mal 5080 als "Ti" oder "Super" mit 24GB VRAM…

Die 5090 wird sowas von pervers in allen Metriken: Performance, Stromverbrauch und v.A. der Preis. Die CPUs, welche hierfür das Scheduling übermehmen müssen, um die GPU auszulasten, tun mir jetzt schon Leid xD.

Technisch geil, aber kaufen würde ich mir eine Graka in der Preisklasse niemals.
 
Cool Master schrieb:
Ich freu mich drauf :) Wird ein kranker Sprung von 2070 zu 5090.
Ich springe noch weiter. Von einer GTX 980 Ti zur 5090. :-) Das wird gewaltig.
 
eastcoast_pete schrieb:
@Jan: wie wäre es mit einem Nvidia gesponserten Gewinnspiel - wer die Specs und den Preis genau richtig vorhersagt, darf an der Verlosung teilnehmen😀.
Das Schlimmste ist eigentlich, dass die Karten erst nach Nikolaus kommen 😩
 
edenjung schrieb:
Wurde bei der 4090 nicht auch was von 600w erzählt?
Ja, dachte auch ich bin schon wieder im falschen Film, wie wieder irgendwelche Werte für Bare Münze genommen werden :D

https://www.computerbase.de/2022-02/nvidia-geforce-rtx-4080-4080-ti-4090/

Sogar "850 Watt TGP" wurden genannt, derweilen läuft meine 4090 nie über 250 Watt.

Well, man wirds sehen. Mehr Stromverbrauch ist nie gut und hoffe Nvidia schafft es wieder ein Effizienzmonster zu kreieren.
 
  • Gefällt mir
Reaktionen: edenjung
Zurück
Oben