Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGerüchte zu GeForce RTX 50: RTX 5090 mit 600 Watt und RTX 5080 50 Prozent schneller
Diese Diskussion über den Stromverbrauch ist ohnehin lächerlich, offensichtlich vergessen die meisten wie wenige RTX 4090 selbst mit Standardeinstellungen über 400 Watt saufen und dass man bei 300W Powerlimit wenn überhaupt ungefähr 10% an Leistung verliert.
Regt euch doch nicht so über die angeblichen 600 W auf. Die 4090 verballert auch selten mal die 450 W und verliert bei 80 % PT nur ca. 3% Leistung, was dann maximal 360 W sind. Schauen wir erstmal ob die Karte überhaupt mit so einer hohen Leistungsaufnahme kommt, ich habe Zweifel.
ich vermisse in der News, dass es exakt dasselbe Gerücht bereits über die 4090 gab, ja auch Prototypen. Das heißt noch lange nicht, dass es so kommt und hängt eigentlich sehr von AMD ab
Ergänzung ()
Capthowdy schrieb:
2300 kWh im Jahr? Das ist ja niedlich, wir liegen mit zwei Personen so ca. beim Doppelten.
Ich bin fürwahr kein Fan vom Lager-denken. Ich verstehe aber absolut nicht warum hier so ein Aufriss gemacht wird. XX90er Karten haben die Titans ersetzt und sind absolute Halo Produkte. Da zeigt man was technisch möglich ist. Es beschwert sich ja auch niemand über den Spritverbrauch bei Supersportwagen.
Wenn meinem der Verbrauch missfällt, greift man einfach eine Stufe tiefer ins Regal.
Schön wäre es, aber ich bin mir sicher dass das erstmal nur ein Traum bleibt.
Der Preis wird bestimmt zwischen 1400€ und 1600€ liegen.
Vielleicht in 2 - 3 Jahren gibts die dann für 1000€ 😂
Dieses ganze Kaffeesudlesen und irgendwelche widersprüchlichen Infohappen die aus den Fingern gesaugt werden gehen mir mittlerweile echt am Sack. Einzig interessante wäre ob die Dinger nun Ende 2024 erscheinen oder nicht, damit man planen kann. Aber gerade auf die Frage haben die ganzen ach so top informierten Leaker keine Antwort.
Sehr gut möglich, dass GTA 6 erst Ende 2025/Anfang 2026 auf Konsole erscheint und dann erst zwei Jahre später auf PC, also Anfang 2028.
Da ist dann eher die 6080/6090 in den Startlöchern und eine drei Jahre alte gebrauchte 5080 kostet dann hoffentlich nicht mehr die Welt.
Falls die 5080 die neue x090 ersetzen soll und die 5090 einfach nun eine Liga darüber (Titan ohne sie Titan zu nennen) spielen soll.
Sich jedes mal +50% Leistung durch einen höheren Stromverbrauch erkaufen geht halt nicht unendlich. Am ehesten stört mich die Abwärme.
Prinzipiell bin ich ja froh, dass sich das Porfolio der Grafikkarten nach oben hin entwickelt hat. SLI/CF war einfach ein graus... und 2 Wasserkühler kosteten vergleichsweise viel zu viel. Aber es gab einfach keine Produkte für mehr Leistung selbst wenn man bereit war es zu bezahlen. An 2.000€+ hatte ich damals aber auch nicht gedacht ^^
Nvidia sieht im Markt aber offenbar noch Luft nach oben. Es muss ja niemand eine x090er Karte kaufen dem eine x080er Karte reicht. Ist halt mehr eine "ich will aber das beste verfügbare haben" sache.
Ist ok, solange du halt nicht erwartest dann in 4k flüssig zocken zu können.
Ich verstehe nicht, wo das Problem ist, wenn die Karte dann beispielsweise 400W schluckt.
Sagen wir mal, du spielst ca. 30h pro Monat im Durchschnitt.
Oh nein, jetzt hast du ganze 3 kWh im Monat mehr verbraucht, das sind ca. 0.80€.
Nvidia wird diesmal die RTX 5080 als erstes releasen und diese massiv als Gamer Choice bewerben. Die RTX 5090 wird erst später kommen und seperat beworben werden. Außerdem sind 600W nur eine Klassifizierung - die Karte kann genauso 550W unter Volllast und 470W beim Gaming ohne FPS Limiter verbrauchen - war bei der RTX 4090 ja ähnlich.
Richtig interessant wird wieder die RTX 5070 als guter Kompromiss zwischen Effizienz und Leistung.
Hoffentlich diesmal mit 16GB VRAM. Die RTX 5080 könnte mit 20-24GB VRAM kommen.
Heftig sind da vor allem die Spielstunden, Du spielts 10h pro Woche mehr als Vollzeiterwerbstätige arbeiten.
Sei Dir gegönnt, aber sind da 50€ pro Monat wirklich so viel?
Nicht vergessen, das ist ein technisches High-End Hobby, andere Hobbys im technischen High-End Bereich kosten gerne mal das 10-20 fache.
Das gleiche Gerücht gabs damals bei der 4090 auch. Dass sie 800W verbraucht und alle neue NT brauchen würden. Am Ende waren es tatsächlich dann nicht mal die Hälfte.
Wenn die 5080 "nur" knapp über einer 4090 liegt, dann ist das gemessen an der Vergangenheit eher enttäuschend. In der Vergangenheit lag die xx70 eigentlich schon nahe dem Niveau der alten Topkarte (4070 / 3090, 3070, 2080(ti)). Liegt halt aber auch daran, weil die 4090 so eine Bangerkarte ist, bei der der Abstand zwischen xx80 und 90 deutlich höher war, als in der Vergangenheit. So gesehen, habe ich eigentlich gar nicht damit gerechnet, dass die so 5080 schnell sein kann/wird. Bin gespannt, ob zur 5090 wieder ein ähnlich großer Abstand ist oder ob dieser wieder kleiner wird.
Darum gehts nicht nur, es gibt Entwicklern auch mehr Möglichkeiten, z.B. Lumen, Pathtraycing bei der UE. Und generell Realistischere Grafik. Ich kann mich noch zurück erinnern, zu Geforce2 Zeiten war eine GF2 Ultra auch nicht bezahlbar für mich, dennoch habe ich solche Karten immer bewundert. Jetzt habe ich die Möglichkeiten mir solche Karten zu leisten und tue es nicht, ist aber eine bewusste Entscheidung.
nebukadnezar.ll schrieb:
Vielleicht sollte jemand NVIGAGA mal stecken, dass wir effizientere Karten wollen
Die Karten sind eigentlich effizient, man muss sie ja nicht mit 100% oder mehr Powertarget fahren. bei der 40X0 hat sich ja gezeigt das die selbst mit 70-80% kaum an Leistung einbüssen.
Manche müssen zurückgelassen werden, Spass beiseite ich kann dich verstehen.
Meine 4070 Ti läuft bei nicht ganz 200W, wenn man sieht was damit dennoch machbar ist ...
Das ist ja nur für die RTX 5090 allein.
Unsere Stromrechnung (2 Personen Haushalt) beträgt 75€ im Monat.
Also durch die Karte würde sich der Stromverbrauch im Haushalt um fast 80% steigern.
Außerdem sind 600W nur eine Klassifizierung - die Karte kann genauso 550W unter Volllast und 470W beim Gaming ohne FPS Limiter verbrauchen - war bei der RTX 4090 ja ähnlich.
...aber bitte gleich mit einem Dual Bios Schalter für einem "UV" Modus und einen "Standard (Kotzgrenze)" Modus.
In der Software stell ich nur ungern wars um... bei jedem Game was mal abstürzt denkt man dann immer als erstes an die Non-Stock Einstellungen.