Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGerüchte zu GeForce RTX 50: RTX 5090 mit 600 Watt und RTX 5080 50 Prozent schneller
Ich bezweifle die Leistungsaufnahme. Alleine durch den Fakt, daß dies nur Abfälle aus dem HPC-Computing sind und es dort mittlerweile sehr stark um Effizienz geht. Ja, sie wird mehr verbrauchen, aber nicht in diesem Ausmass.
Abwarten, die gleichen Gerüchte kamen auch bei der 40er Serie mit dem Stromverbraucht. Ansonsten Powert Target Limit auf 80% setzen und man hat kaum Einbußen und spielt extrem effizient.
Bin gespannt. Falls die Leistung kommen sollte, dann wäre die Mittelklasse sogar besser als die jetzige High-End Klasse von AMD.
leider haben die Grünen wie jede andere Firma nichts zu verschenken, wenn es sich bewahrheitet, das AMD bei der nächsten Generation keine High End Modelle auf den Markt wirft, hat nvidia quasi Narrenfreiheit beim Preis
Ich spiele zum Glück nur alte Spiele. So reicht mir meine 1070ti noch immer aus. Auch in Zukunft werde ich nur kleine Karten kaufen. Für mich lohnen sich die teuren großen nicht. Auch möchte ich gerne mein DAN A4 weiter nutzen. Aber wenn man gamen als Hobby betreibt, wäre mir der Stromverbrauch und der Preis völlig egal. Ein Hobby darf kosten. Klar wäre günstiger für uns besser, aber so funktioniert der Kapitalismus eben.
Bisher habe ich immer nur einen i5 und eine GTX/RTX 70er Serie verwendet, und das war stets ausreichend. Der CPU erreichte am Ende des Nutzungszyklus nie auch nur annähernd 100% Auslastung. Mein i5 8400 von 2018 läuft bei meiner Frau in WoW noch mit 60% Auslastung. Für 4K und 120Hz sind die meisten heutigen Systeme kaum geeignet, und wenn doch, dann sind sie überteuert und laufen am Limit. Ich vermute, dass ein angemessener Preisstandard für diese Leistung erst in der übernächsten Generation erreicht wird, bis dahin werden RTX80 oder 90 mit dem Argument der 4K-Fähigkeit verkauft.
Im Wohnzimmer genieße ich 4K und 120 Hz für die Hälfte des Preises, den ein Desktop mit Monitor kosten würde.
Mehr Leistung bedeutet in der Regel einen höheren Stromverbrauch. Ich denke, wir haben bei der Energieeffizienz von Grafikkarten bereits das Limit erreicht; es gibt kaum noch Einsparpotenzial.
Hört sich erstmal viel an, aber wie viel Stunden pro Jahr läuft die denn am Limit?
Wahrscheinlich weniger als 1% der Betriebszeit.
Hauptsache sie ist deutlich effizienter als die 4090 im 60 oder 144 FPS Limit ist,
sonst hat sie tatsächlich keine Existenzberechtigung.
Ich brauche das nicht, für das was ich so am Compi mache.
Fürs Spielen reicht mir mein Steam Deck, und für alles andere mein jetziger Desktop.
Irgendwann Ende 2025 oder Anfang 2026 wird der Desktop dann halt gegen einen leistungstechnisch ordentlichen Mini-PC ausgetauscht, und das Steam Deck 2 gekauft und gut ist.
Ich spiele zum Glück nur alte Spiele. So reicht mir meine 1070ti noch immer aus. Auch in Zukunft werde ich nur kleine Karten kaufen. Für mich lohnen sich die teuren großen nicht. Auch möchte ich gerne mein DAN A4 weiter nutzen. Aber wenn man gamen als Hobby betreibt, wäre mir der Stromverbrauch und der Preis völlig egal. Ein Hobby darf kosten. Klar wäre günstiger für uns besser, aber so funktioniert der Kapitalismus eben.
Ja, meine 1080 funktioniert auch noch bei meiner Frau, aber inzwischen kann man für 399€ bereits eine gute 4060 bekommen, und der Qualitätssprung ist den Preis definitiv wert.
Kaufe ich glatt, wenn mir Jensen aus seiner eigenen Tasche, bis an mein Lebensende, alle PC-Upgrades bezahlt, die gesamte Stromrechnung und auch die Treiber selbst pflegt.
Bei der 40er Generation gabs die Gerüchte ebenfalls, was am Ende dann aber dank dem Wechsel von Samsung zu TSMC doch anders ausgefallen ist. Diesmal bleibt man bei TSMC und im Node dürfte es auch keine riesigen Verbesserungen geben, so dass diesmal ein ordentlicher Anstieg der Leistung eher denkbar wäre.
Wer damals ne 4090 oder 4080 zu den Mond-Preisen gekauft hat, der hat sich aber ohnehin oft nix mit Power-Consumption am Hut und von daher dürften am Ende selbst OC 700W oder mehr noch relativ egal sein. "Muss halt nur aus dem Gehäuse raus".
Mir persönlich wäre das selbst wenn die 5080 nicht wie die 4080 massiv zu teuer wird immer noch zu viel, aber ich betreibe meine 1080Ti mittlerweile auch mit nur etwas OC + Undervolting was stabil läuft und die Temps selbst im Sommer unter Kontrolle hält. Sollte ich bei den 50er Karten oder bei AMD nächstes ein Upgrade kaufen, würde ich es wohl ähnlich handhaben. Mag leise und stabil heute lieber als max. Performance.
Bei der 4090 standen doch auch 600W im Raum und am Ende sind es 450 geworden. Denke mal nicht, dass Nvidia das macht, wer will denn das im Sommer wegkühlen ohne daneben zu schmelzen? Mit der 4090 ist das ja schon nicht angenehm.