News Gerüchte zu GeForce RTX 50: RTX 5090 mit 600 Watt und RTX 5080 50 Prozent schneller

Laphonso schrieb:
Und so wie ich werden hier und anderswo vieeeele viele andere die 5090 "trotzdem" kaufen 🤷‍♂️
Sofern die Performance stimmt :D
Die hat für mich persönlich Prio 1 bei einer GPU.
Ja schon aber wenn das jetzt mit jeder neuen Gen so weiter geht und es immer 100-150w mehr werden. Wird es irgendwann ziemlich unangenehm neben dem Rechner werden. Wenn der Raum keine Klima hat. Wenn ich bei dem Wetter wie jetzt in meinen 10m² Arbeitzimmer sitze werden mir die 300w meiner 7900xt etwas sehr viel. Wenn ich mit jetzt vorstelle ich würde neben einer 600w Karte sitzen müssen, wow. Und was wenn es in 4 Jahren dann 900w sind? Bisher blieben Single GPUs bei 150-400. Und es kann doch nicht sein das wir jetzt nur noch mit der Brechstange mehr Leistung bekommen.
Aber vielleicht stimmen die Gerüchte einfach nicht. Vor zwei Jahren hieß es auch schon das die 4090 600w zieht.
 
n0g3l schrieb:
Bei RTX40 gab es doch vor Marktstart auch schon Gerüchte über 500w und mehr.
"Gerüchte"? Wenn ich mir die Kühler der Karten anschaue, waren das wohl eigentlich mal mehr als Gerüchte. Am Ende wäre es MIR beim "Flaggschiff" egal, solange die "für die Masse relevanten" Karten sich weiterhin in "seriösen" Gefilden bewegen.
Mehr Leistung durch mehr Stromverbrauch ist eher so semi-geil. Aus verschiedensten Gründen. Ja. Der Ökologische Fußabdruck ist auch einer.
 
Die Diskussion über die Stromkosten ist doch Makulatur. Jedes andere Hobby kostet auch Geld, wenn man nicht gerade Spazierengehen für sich entdeckt hat.

Außerdem habe ich mir sagen lassen, dass wir ganz bald extrem günstigen Strom bekommen werden, weil die Sonne keine Rechnung schickt und so. Dann ist die Diskussion ja eh hinfällig.
 
FTPFreezer schrieb:
Außerdem habe ich mir sagen lassen, dass wir ganz bald extrem günstigen Strom bekommen werden, weil die Sonne keine Rechnung schickt und so. Dann ist die Diskussion ja eh hinfällig.
Da denkst du etwa 45 Jahre zu weit Voraus.
Wir benötigen noch sehr viele Energiespeicher für die Winter Monate.
Und die Verkehrswende steht uns auch noch bevor. Der Stromverbrauch der BRD wird sich in den nächsten 20 Jahren verzehnfachen.
 
Erhöhte Anzahl an Transistoren braucht nun mal mehr Ladungen zum Umladen dieser Transistoren und Ladung x Zeit = Strom
Strom = Verlustleistung
 
mckobain schrieb:
Und die Schere zwischen AMD und Nvidia geht weiter auseinander...
Ja das ist das eigentlich Schwierige. Nv ist in der Lage, so einen Performanceschub drauf zu packen und bei AMD ist eher mit Stillstand zu rechnen bzw. allenfalls leichte Steigerung. Klar wird AMD auch interessant bleiben, weil die Karten in einem interessanten Preissegment kommen ohne große Entwicklungskosten, für die Marge ist das aber schlecht und Nv kann konkurrenzlos an der Spitze seine Runden drehen. Echt schlecht für den Wettbewerb und für uns Kunden. Man fragt sich, wo AMD so krass den Anschluss verloren hat. Mit der 6er Radeon war man ja noch pari. Und ob AMD die Lücke wieder schließen kann. Die Ankündigungen zur RDNA 5 sind ja erstmal groß, hoffentlich werden sie auch mit Tatsachen hinterlegt. Aber da müssen wir uns wohl noch gut 3 Jahre gedulden.
 
Capthowdy schrieb:
2300 kWh im Jahr? Das ist ja niedlich, wir liegen mit zwei Personen so ca. beim Doppelten. :D
Dringend mal mit einem Strommessgerät an allen Geräten messen.
Wir hatten zu zweit 5000-6000 kwh im Jahr für viele Jahre. Als wir einen Kühlschrank und einen Gefrierschrank ausgetauscht haben, ging der Verbrauch runter auf 4000 kwh bereits im nächsten Jahr. Da sind schon mal 500€ Ersparnis pro Jahr (wäre 800€ bei 0,40€/kw). Die Amortisation für die beiden neuen Geräte zusammen dauerte nur 2 Jahre :D

Noch ein paar sehr günstige/kostenlose Änderungen (u.a. Bildeinstellungen ändern eines 50" TV, führte von 144w zu 45w runter und die Bildqualität ist sogar besser geworden!). Ich zocke hauptsächlich mit 60fps-cap, damit spart man 100w (pro Stunde).
Mittlerweile haben wir 1900-2000 kwh seit ein paar Jahren ohne irgendwelche Einschränkungen. Fernseher und PC laufen heutzutage genauso lange wie vorher.

Edit: An der Gastherme und an dem Backofen wurde noch nicht gemessen. Mich stört dass ich nicht identifizieren kann wo die ~30w noch herkommen. Diese ~30w läuft dauerhaft. Laut Bedienungsanleitung läuft die Gastherme bei 0,5w im Idle... das müsste dann bedeuten dass der Backofen (fest angeschlossen) mit ~30w im Idle läuft...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Brati23 und Capthowdy
Hauptsache NVIDIA bringt später auch noch eine 75W Karte, also eine ohne Stecker, raus. Ich brauche nicht so viel GPU Leistung. Im 30W Korsett gibt es so ja nur die T400. Da würde ich mir auch mal einen Nachfolger wünschen.
 
  • Gefällt mir
Reaktionen: Brati23
Mir ist es ja egal was die Karten verbrauchen und was sie kosten werden. Es soll jeder das kaufen, was er für richtig hält und mit seinem Geldbeutel und (vor allem) mit seinem ökologischen Gewissen vereinbaren kann. BItte nicht schlagen, aber mir persönlich wäre das zu viel Energie(verschwendung), nur um meinen inneren Grafikfetischisten zu befriedigen. Denn sind wir doch mal ehrlich, auch diese Grafikgeneration wird wieder zu wenig Leistung haben (klingt komisch, ist aber so) um die absoluten Highendgrafikfeatures ausreizen zu können. Im Endeffekt läuft es doch darauf hinaus:

es gibt Entwicklern auch mehr Möglichkeiten, z.B. Lumen, Pathtraycing bei der UE. Und generell Realistischere Grafik.

Da werden dann wieder neue Features aktiviert oder überhaupt genutzt, welche die sowieso schon gute Bildqualität um vielleicht 5% verbessern, welche man dann oft nur auf Screenshots im direkten Bildvergleich erkennt und während dem Spielen einfach im Hintergrundrauschen untergehen.

Der Aufwand bei Energie und Kosten steht (für mich) seit einiger Zeit in keinerlei Relation mehr zum Ergebnis. 🤷‍♂️

Aber jeder wie er will, es gibt auch sinnlosere Hobbies, die noch mehr Geld kosten. 😉
 
  • Gefällt mir
Reaktionen: Brati23
Smartin schrieb:
Man fragt sich, wo AMD so krass den Anschluss verloren hat
Leider an allen Ecken und Enden, hier einige Beispiele:
  • Schlechtere Speicherkompression und Speicherfragmentierung (Spiele brauchen mehr VRAM im Vergleich zu Nvidia Karten bei gleichen Grafikeinstellungen), hier soll ja der Infinity Cache Abhilfe schaffen, leider ist der noch zu klein bemessen
  • Zu hohe Speicherbandbreite frisst Strom (GDDR6 Chips mit geringer Speicherdichte brauchen mehr Lanes für gleiche Performance / Vergleich zu GDDR6X)
  • Scheitern des Chiplet Designs, Rückfall auf monolithische Chips
  • Scheitern des HBM Speichers (Vega Karten)
  • Scheitern der Software-Entwicklung (AMD's Statement von 2024 sich mehr auf Softwareprodukte zu konzentrieren)
  • Völlige Überraschung damals als Raytracing und DLSS plötzlich populär wurde
In Summe werden die RX 8000 Karten mehr Raytracing und mehr Effizienz bieten, aber vermutlich keine RTX 5080 schlagen können, vielleicht so 10-15% Mehrleistung zur RX 7900XTX
 
  • Gefällt mir
Reaktionen: Smartin, Maxminator und paganini
"Veröffentlichung noch 2024 unwahrscheinlich" > ja logisch! nvidia hat praktisch keine konkurenz! macht überhaupt keinen sinn die karte 2024 noch zu bringen. die können sich EWIG zeit lassen damit. von AMD kommt ja sowieso kein highend. und wenn wird das trum mal schaun müssen, obs überhaupt in 4090er spähren kommt.
 
Dr. MaRV schrieb:
Gleich geht das Geheule über Stromverbrauch, Leistungsaufnahme und Effizienz wieder los und natürlich über den zu erwartenden Wucherpreis oder Preiswucher.
Sagen wir mal so, mein Stromanbieter schlug mir letztens vor, ab 2025 4 Cent mehr pro kWh zu zahlen. Günstiger wird der Strom nicht mehr so schnell und da sollte es erlaubt sein, sich über 600 Watt Stromverbrauch nur durch die GraKa Gedanken zu machen.
 
  • Gefällt mir
Reaktionen: Orcon
Puh, dann brauche ich schon wieder ein neues Netzteil...man man man.
Ich hoffe, dass die Gerüchte nicht stimmen. Mein Gehäuse ist jetzt schon grenzwertig was Wärmeabfuhr angeht und ich hab eigentlich keinen Bock den ganzen PC neu bauen zu müssen.
 
Shadow86 schrieb:
Richtige Gamer werden hoffentlich erkennen, dass man Hochleistungskerne und Hochleistungsgrafikkarten für echten Spielspaß am PC dringend braucht!
Was bin ich dann als Konsolero? Kein "richtiger Gamer"? :heul:
 
IBMlover schrieb:
Puh, dann brauche ich schon wieder ein neues Netzteil...man man man.
Mein Gehäuse ist jetzt schon grenzwertig was Wärmeabfuhr angeht
Wie viel % Mehrleistung brauchst du denn wirklich ?
 
  • Gefällt mir
Reaktionen: PegasusHunter
Smartin schrieb:
Und ob AMD die Lücke wieder schließen kann. Die Ankündigungen zur RDNA 5 sind ja erstmal groß, hoffentlich werden sie auch mit Tatsachen hinterlegt. Aber da müssen wir uns wohl noch gut 3 Jahre gedulden.
Die RX 7900 XT(X) Karten tun ihren Dienst, sind nicht so Stromhungrig und kosten auch nicht so viel und bringen aber die Leistung, um Optimal zu Spielen. Ob ich jetzt mit 144 FPS Zocke oder mit 160 FPS, ist doch wurscht. Soll NVidia die Technik immer schön weiter voranbringen, denn das können sie schon sehr lange und dies wiederum freut uns alle.

Aktuell habe ich die Asrock RX 6900 XT OC Formula und wüsste nicht, warum ich mir eine neue Karte holen sollte. Für Raytracing... ne... und dieses Upscaling bringt auch noch mal mehr Power...

Wie dem auch sei: Dass muss und soll jeder für sich selbst entscheiden.
 
Die selbe Story von den Twitter Gerüchteverwurstern hat man schon zur RTX4000 gehört, sogar bis hinauf zur 800W Titan Class GPU.
Was ist passiert? Die 4090 lässt sich sogar ganz bequem von ihren 450W auf ~350W optimieren ohne Leistungsverlust.

Glaube ich erst wenn ichs sehe!

Simanova schrieb:
Zu hohe Speicherbandbreite frisst Strom (GDDR6 Chips mit geringer Speicherdichte brauchen mehr Lanes für gleiche Performance / Vergleich zu GDDR6X)
Wenn man sich das Marketing Material oder Specs von damals anschaut was G6X bringen sollte:
  • der Energieverbrauch pro Bit soll 15 Prozent unter dem des Vorgängers liegen - bei 50 Prozent höherer Bandbreite
  • PAM4 Dieses Verfahren überträgt zwei Bits pro Takt. Bei gleicher Frequenz verdoppelt sich damit die Bandbreite gegenüber GDDR6 beziehungsweise dem bisher gängigen PAM2-Verfahren

Also bei RTX3000 hat G6X gesoffen wie ein Loch.
Die 3070 war die effizienteste Karte des Lineups und die 3070Ti mit G6X in allen Punkten massiv schlechter.

Ich hab mich damals auch gefragt wo der Performanceunterschied ist. Die 6800XT mit "popeligem" 256bit Interface ist ja gleichauf mit der 320bit 3080 und effizienter gewesen. 18Gbps G6 vs. 19-20Gbps G6X ... das soll jetzt der große Wurf gewesen sein? (ja ich weiß infinity cache)

Je nach Workload hat man bei den RTX3000 auch gesehen, dass G6X sauheiß wird (ich sag nur Mining), aber auch im Gaming seh ich ja wie sich die Board Power bei meiner 3090 verteilt und da sind 50-80W allein für den Speicher normal. Ich kann mich an keine G6 Karte erinnern die unter glühendem Ram gelitten hat.

Wenn man nun auch GPU-Z Glauben schenkt bezüglich der Angabe der Speicherbandbreite (3080 760GB/s, 3090 ~1000GB/s und 6800XT / 6950XT 512-576GB/s) frage ich mich wo überhaupt der "2bit pro Takt" Vorteil hin ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: paganini
Simanova schrieb:
In Summe werden die RX 8000 Karten mehr Raytracing und mehr Effizienz bieten, aber vermutlich keine RTX 5080 schlagen können, vielleicht so 10-15% Mehrleistung zur RX 7900XTX
Ja das ist zu erwarten. Deswegen ja die Hoffnung auf die RDNA 5. Die soll ja wieder von Grund auf neu sein und AMD spricht von Zen Moment für die Grafikkarten. Hoffentlich haben sie recht.
 
Simanova schrieb:
  • Scheitern des Chiplet Designs, Rückfall auf monolithische Chips
Wird AMD bei GPU,s jetzt endgültig davon Abstand nehmen ? Also nicht nur bei RDNA 4 sondern auch darüber hinaus ?
 
Zurück
Oben