LamaMitHut schrieb:Nvidia lässt anscheinend nichts anbrennen, sondern stürmt weiter nach vorne.
Bei der 4090 und dem 12V HPWR Stecker haben sie aber einiges anbrennen lassen
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
LamaMitHut schrieb:Nvidia lässt anscheinend nichts anbrennen, sondern stürmt weiter nach vorne.
Das denke ich auch, zumindest sollte man sich dann nicht beschweren, naja SLI ist nun doch schon ne weile vorbei und die Strompreise waren damals anders, das Bewusstsein hat sich da schon über die Jahre etwas verschoben, mehr Richtung Effizienz, die neue Challenge sollte sein soviel wie möglich mit sowenig wie möglich, mir wäre es auch lieber wenn noch mehr die Unnötigkeit solcher Grafikmonster ins Bewusstsein rutscht und man ehr geneigt ist die 250Watt Grenze nicht zu überschreiten.Cleaner57 schrieb:Naja, wer voraussichtlich 2500€ für eine 5090 ausgibt, dem werden die Stromkosten wohl nicht unbedingt stören.
Es gab ja auch Zeiten mit SLI wo manche gleich 2 starke Grakas hatte,
Kompletter Irrsinn, aufbauend auf den Versäumnissen der Vergangenheit.Slayn schrieb:Ich denke er bezieht sich auf diese Meldung:
https://www.suedkurier.de/baden-wue...-in-bw-das-steckt-dahinter;art417930,12275424
Cleaner57 schrieb:Ich denke aber auch dass PC-Komponenten Stromsparfunktionen haben und sogar ausgeschaltet werden können wenn sie nicht in Gebrauch sind. Ich lasse meine 4090 auf jeden Fall nicht 24/24 laufen, mein Gaming Pc ist höchstens 2 Stunden am Tag an.
Cleaner57 schrieb:Naja, wer voraussichtlich 2500€ für eine 5090 ausgibt, dem werden die Stromkosten wohl nicht unbedingt stören.
Es gab ja auch Zeiten mit SLI wo manche gleich 2 starke Grakas hatte, ob das nun viel weniger Strom gezogen hat?
Es gibt ja 1000+W Netzteile, dann kann wer will diese ja auch ausreizen.
Für mich das Indiz, dass locker 15-20% des Performancezwuches (den ich bei 35-40% sehe 5090 vs 4090) alleine über die "Drehzahl" kommen bzw mehr Taktfrequenz = mehr Verbrauch.Jan schrieb:Noch bleibt es ein Gerücht, aber nach Meldungen, die RTX 5090 könnte ab Werk ohne OC bereits 600 Watt TDP aufweisen, nennt ein neuer Leak jetzt 575 Watt für das neue GeForce-RTX-Topmodell. Das wären 125 Watt mehr als bei der RTX 4090. Die RTX 5080 soll auf 360 Watt kommen – 40 Watt mehr als die RTX 4080 (Super).
Wegen der hab ich sorgen um die Effizienz der Karten. Wenn die nennenswert effizienter werden, müsste die 5090 mehr als doppelt so schnell wie eine 4090 werden und dazwischen gibt es dann einfach nix.guggi4 schrieb:und selbst das nur bei der 90er Karte.
wodurch die beim Rasterizing wohl weit von einer 4090 entfernt sein sollte. Ich schätze mal, dass die nur unter Ray-Tracing-Last irgendwie mit der 4090 schritt halten kann und nVidia wird genau die Folien am 21. zeigen und dann allen erklären wollen, dass man jetzt "quasi" ne 4090 für ~$1000 bekommt.guggi4 schrieb:5080: 76 -> 84 SM
4000er? 🤔 Die 4080 verbraucht genau so viel wie die 3080.Rotznase6270 schrieb:Die Diskussionen über den TDP der Nvidia-Karten erinnert mich an gleiche Threads zum Release der 3000er und 4000er...
Ich denke man kann da auch mal gut reinschauen um zu sehen wie es ausgeht.
Sie werden trotz des Verbrauchs gekauft...
drago-museweni schrieb:Es bleibt nur die Frage, wird das jetzt mit jeder Generation mehr, da es anscheinend anders nicht mehr möglich ist solche Leistungssteigerungen zu erreichen die vermutet werden.