Die Kostenerhöhung kannst du getrost mit dem Faktor 3 bis 4 multiplizieren. Das wäre dann ca. der Aufschlah auf den Verkaufspreis.Lors schrieb:Gott sei Dank wurden die auf 600W konzipiert. Also wird es schön leise oder vielleicht sogar unhörbar, vor allem mit Undervolting. Laut Igor "hätten die Hersteller 10,15$ oder mehr sparen können, wenn sie auf 450W konzipiert hätten". LOL? Mit Kusshand nehme ich diesen Aufpreis nun an.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia GeForce RTX 4090: 3 GHz und sehr hohe Power Limits von 600 Watt und mehr
Lors
Lieutenant
- Registriert
- Okt. 2014
- Beiträge
- 767
kizi81 schrieb:Die Kostenerhöhung kannst du getrost mit dem Faktor 3 bis 4 multiplizieren. Das wäre dann ca. der Aufschlah auf den Verkaufspreis.
Das habe ich mir gedacht. Aber wer würde dazu nein sagen?
Meinetwegen kann Nvidia solche Heizlüfter anbieten, was ich aber schade finde ist, dass mit der selben Technologie keine sparsamen und kleinen Graka angeboten werden, die ohne Stromstecker auskommen und für FHD ausreichen.
Amd bietetet immerhin die GTX 6400 an, von Nvidia gibt es kein passendes Gegenstück und wird es vermutlich auch lange nicht geben.
Amd bietetet immerhin die GTX 6400 an, von Nvidia gibt es kein passendes Gegenstück und wird es vermutlich auch lange nicht geben.
Ne, ich lehne die EU zwar ab, aber so einen Blödsinn machen die nun auch nicht. Da wird schon nach Aufwand/Nutzen/Kosten geschaut.Novasun schrieb:Der Trend wird sein, dass das die EU durch Regularien verbieten wird in Zukunft... Wenn das über 1-2 oder mehr Generationen so anhält... Und das wäre dann auch gut so....
...
3v0lut!0n
Lt. Junior Grade
- Registriert
- Apr. 2008
- Beiträge
- 452
Klasse, ein hoch auf die Bevormundung.Novasun schrieb:Der Trend wird sein, dass das die EU durch Regularien verbieten wird in Zukunft... Wenn das über 1-2 oder mehr Generationen so anhält... Und das wäre dann auch gut so....
Denn sorry, das ist krank.
Im Endeffekt werden die wirklichen HighEnd Karten doch eh nur von wenigen gekauft, der Großteil greift auf günstige Mittelklasse oder Auslaufmodelle der letzten Generation zurück. Der Stromverbrauch ist vollkommen irrelevant, die paar Euro im Jahr machen keinen Unterschied, der Kasten muss ja nicht 24/7 unter Volllast laufen. Und die Abwärme, wird sich schon regeln lassen, ggf. sollte man dann eher in eine gescheite Wasserkühlung (kein AiO Klimbim) investieren statt den Eimer an jeder Ecke mit Kirmesbeleuchtung auszustatten.
M
M1ximili1n
Gast
Oder eine Warmwasserwärmepumpe mit der PC-Abluft betreiben. Damit wären beispiellos gute COPs möglich 😆... Mal ehrlich. Dieser Trend geht am Nutzungszweck vorbei. Ein Heim-PC wofür man die Umgebung benötig, welche in Richtung Rechenzentrum geht ist meiner Ansicht am Kunden vorbei entwickelt.Taxxor schrieb:Weil die FPS in Doom nicht auffällig waren, sondern so wie erwartet, mit der 3070 20% vor der 6800.
Es ging doch nur darum, zu zeigen, warum die 3070 aber dann im geposteten Raytracing Gesamtrating schlechter als die 6800 ist und das war eben der Grund dafür.
Ergänzung ()
Bei einem Neubau kann man dann direkt vorher planen wo man sein PC Zimmer haben möchte und entsprechend durch die Wand einen Luftschacht nach außen legen, durch den man dann im Sommer die Wärme bläst^^
Und für den Winter direkt noch einen zweiten parallel dazu durch den man die Außenluft ansaugen kann^^
crustenscharbap
Commodore
- Registriert
- Jan. 2008
- Beiträge
- 5.029
Ich finde das auch furchtbar.
Aber wir sind nicht gezwungen diese Karte zu kaufen. Wem das zu viel ist, kann gerne eine kleine Karte kaufen. Spart sogar Geld.
Eher schlimm finde ich, dass es kaum Karten für unter 80W gibt. Würde mir gerne mal so ein Mini ITX basteln mit einer RX 6400/6500. Die hat aber keine Hardware Encoder. So schade.
Mit APU zocken wird wohl nichts, weil die Hersteller dann davon ausgehen, dass du ein Laptop oder Mini PC kaufst. Hier sind die Grafikchips in den APUs potenter. Das Bedürfnis ist zu klein dass Desktop Pcs ohne Grafikkarte gebraucht werden.
Aber wir sind nicht gezwungen diese Karte zu kaufen. Wem das zu viel ist, kann gerne eine kleine Karte kaufen. Spart sogar Geld.
Eher schlimm finde ich, dass es kaum Karten für unter 80W gibt. Würde mir gerne mal so ein Mini ITX basteln mit einer RX 6400/6500. Die hat aber keine Hardware Encoder. So schade.
Mit APU zocken wird wohl nichts, weil die Hersteller dann davon ausgehen, dass du ein Laptop oder Mini PC kaufst. Hier sind die Grafikchips in den APUs potenter. Das Bedürfnis ist zu klein dass Desktop Pcs ohne Grafikkarte gebraucht werden.
PHuV
Banned
- Registriert
- März 2005
- Beiträge
- 14.219
Das wurde schnell warm im Raum, aber ich habe leider keine Zahlen mehr, das ist ja schon wieder ein paar Jahre her.M1ximili1n schrieb:Ok. Wie warm wurde es in dem PC Raum?
Northstar2710
Admiral
- Registriert
- Aug. 2019
- Beiträge
- 7.505
@crustenscharbap und wofür brauchst du einen Encoder? Ist der Rechner in deiner sig immer noch aktuell?
Syrato
Rear Admiral
- Registriert
- Juni 2012
- Beiträge
- 5.921
Ich hege die Befürchtung, dass Nvidia die Schlachterei betreibt und AMD das Vieh ist.Laphonso schrieb:Bin so gespannt auf Eure Tests der 4090 Monster , liebe CB Redaktion. 🤩
RDNA 3 vs. Ada Lovelace wird ein Gemetzel an mehreren Fronten (Preis, Effizienz, Leistung oldschool Raster, Leistung RT + Featuresets etc). Händereib
Ardadamarda schrieb:Hä?
Ist das nicht verkehrt herum?
- 3.000 MHz bei 425 Watt TBP / 362 Watt TGP
- 2.640 MHz bei 616 Watt TBP / 498 Watt TGP
man sieht das das teil nicht so lange läuft bei den 3000mhz, vermutlich ein part wo die karte zwar ausgelastet ist, aber nicht in allen bereichen, und später mehr power benötigt wird um den takt zu halten und evtl auch runtergedrosselt wird aufgrund von temp
Ergänzung ()
KnolleJupp schrieb:Nun, ich packe mal die Glaskugel aus:
Die 4000er nVidia werden trotz der offiziellen Daten im normalen Spielalltag ziemlich effizient sein und nicht diese riesige Strommenge verschlingen.
die dinger werden 100% mega.
das weiß ich jetzt schon.
ist halt die frage wers braucht. so billigheimer wie ich werden wohl in 2 jahren zuschlagen, wenn die gebrauchten 4000er auf dem markt sind - und die entsprechenden Monitore auch bezahlbar geworden sind. 😄
mal sehen ...
Zuletzt bearbeitet:
DagdaMor schrieb:Juchhu.
Überall soll gespart werden bei den Energiepreisen.
Tatsache wird sein:
um mit einer 4090 dieselbe Leistung wie z.b. eine 3090 ti zu bekommen, wirst du DEUTLICH WENIGER Energie benötigen, du wirst die karte massiv undervolten können und dennoch mehr leistung haben als eine 3080.
natürlich werden hier nach unten grenzen gesetzt sein, ab einem bestimmten punkt wird der effizienzzuwachs nachlassen, und man ist bei 100w total vermutlich nicht besser dran als mit einer 3070 (sag ich jetzt mal so, DLSS 3 aside). aber pack mal 100w drauf, sprich 200w total und das teil geht durch die decke.
diese 600 watt klamotten sind nur gimmicks, und keiner wird es wirklich brauchen weil man die frames einfach mit DLSS dazuinterpoliert, anstatt sie brute-force-mäßig mit teurem strom zu rendern. keiner bei verstand wird mit 600w die nacht durchzocken - aber dennoch leben wir in einem freien land und man kann es tun, wenn man es will.
die neuen karten sind einfach viel effizienter, und eignen sich daher für den, der sie sich leisten und ausnutzen kann natürlich deutlich besser um strom zu sparen.
Zuletzt bearbeitet:
R
RogueSix
Gast
@Melu76
Genau so sieht es aus. Analog zu den Prime-Vergleichen bei CPUs: Kein Mensch spielt 24/7 Furmark mit unlimited fps, wo man vermutlich die 600W die ganze Zeit am Anschlag fahren würde.
Wer sich eine RTX 4090 kauft, der wird mit hoher Wahrscheinlichkeit auch ein entsprechendes Display mit G-Sync haben, also 4K@120Hz oder 4K@144Hz.
Um innerhalb der G-Sync Range von ca. 120 bis 140 fps zu bleiben, wird man mit der RTX 4090 dank deren höherer Leistung erheblich weniger Watt abrufen müssen als mit einer RTX 3090(Ti). Das wird die RTX 4090 deutlich effizienter hinbekommen. Demzufolge auch kühler und leiser.
Es bleibt abzuwarten, ob sich solche Traumwerte wie kürzlich vermeldet, tatsächlich so scheinbar leicht erreichen lassen, aber auszuschließen ist das in Anbetracht der massiven Kühldesigns nicht.
Über ihre Lebenszeit wird die RTX 4090 sicherlich noch mehr gefordert werden, wenn nächstes Jahr die ersten "echten" next gen Spiele basierend auf Unreal 5 Engine erscheinen, aber so wie es derzeit aussieht, sollte es mit der RTX 4090 möglich sein, die ganz überwiegende Zahl aktueller und demnächst kommender Titel unter sehr effizienten Rahmenbedingungen in 4K@120Hz/144Hz betreiben zu können.
Da wird man niemals auch nur in die Nähe der 600W kommen und vermutlich bei sehr vielen Spielen auch nicht mal in die Nähe von 450W.
Nur die wenigsten User werden die Karte mit unlimited fps laufen lassen. Die sind dann aber auch selbst schuld und haben alle Nebenerscheinungen selbst zu verantworten (Spulenfiepen, hohe Dauerlast, hoher Stromverbrauch, Abwärme, Krach usw.).
Genau so sieht es aus. Analog zu den Prime-Vergleichen bei CPUs: Kein Mensch spielt 24/7 Furmark mit unlimited fps, wo man vermutlich die 600W die ganze Zeit am Anschlag fahren würde.
Wer sich eine RTX 4090 kauft, der wird mit hoher Wahrscheinlichkeit auch ein entsprechendes Display mit G-Sync haben, also 4K@120Hz oder 4K@144Hz.
Um innerhalb der G-Sync Range von ca. 120 bis 140 fps zu bleiben, wird man mit der RTX 4090 dank deren höherer Leistung erheblich weniger Watt abrufen müssen als mit einer RTX 3090(Ti). Das wird die RTX 4090 deutlich effizienter hinbekommen. Demzufolge auch kühler und leiser.
Es bleibt abzuwarten, ob sich solche Traumwerte wie kürzlich vermeldet, tatsächlich so scheinbar leicht erreichen lassen, aber auszuschließen ist das in Anbetracht der massiven Kühldesigns nicht.
Über ihre Lebenszeit wird die RTX 4090 sicherlich noch mehr gefordert werden, wenn nächstes Jahr die ersten "echten" next gen Spiele basierend auf Unreal 5 Engine erscheinen, aber so wie es derzeit aussieht, sollte es mit der RTX 4090 möglich sein, die ganz überwiegende Zahl aktueller und demnächst kommender Titel unter sehr effizienten Rahmenbedingungen in 4K@120Hz/144Hz betreiben zu können.
Da wird man niemals auch nur in die Nähe der 600W kommen und vermutlich bei sehr vielen Spielen auch nicht mal in die Nähe von 450W.
Nur die wenigsten User werden die Karte mit unlimited fps laufen lassen. Die sind dann aber auch selbst schuld und haben alle Nebenerscheinungen selbst zu verantworten (Spulenfiepen, hohe Dauerlast, hoher Stromverbrauch, Abwärme, Krach usw.).
RogueSix schrieb:Nur die wenigsten User werden die Karte mit unlimited fps laufen lassen.
bin ich auch kürzlich von weggekommen - reichlich spät - aber immerhin.
das ding ist einfach, das eine unlimitierte karte in den Spielmenues abgeht als wäre sie im stresstest, mit 3-4 stelligen FPS und max. verbrauch.
da braucht wrklich niemand, deswegen immer die FPS begrenzen, wo es nur geht.
wir wollen ja den strom nach möglichkeit nur verbrauchen wenn die karte irgendwas leistet, und nicht, wenn sie im menue idle ist.
Ich nutze eine Vega 56 und bin immer noch zufrieden damit. Ok kein 4k bei mega Details aber das interessiert mich wenig. Ich sehe es nicht ein, mehr als 500€ für eine Grafikkarte auszugeben. Was das Ding verbraucht interessiert mich eigentlich wenig, läuft ja nicht 24/7.
Der Rechner wird nur angemacht wenn ich mal Lust habe am PC zu zocken. Ansonsten wird der Mac Mini und mein Macbook Pro benutzt für das meiste (Bild und Videobearbeitung). Zocken vermehrt auf PS5 und ne Xbox folgt auch bald
Der Rechner wird nur angemacht wenn ich mal Lust habe am PC zu zocken. Ansonsten wird der Mac Mini und mein Macbook Pro benutzt für das meiste (Bild und Videobearbeitung). Zocken vermehrt auf PS5 und ne Xbox folgt auch bald
McLovin14
Lt. Commander
- Registriert
- Aug. 2013
- Beiträge
- 1.199
Mittlerweile beunruhigt mich die Ruhe um RDNA3 ein wenig. Am 3.11. ist Launch (oder Ankündigung) laut AMD, sollten da nicht langsam Infos durchsickern?Laphonso schrieb:RDNA 3 vs. Ada Lovelace wird ein Gemetzel
Oder hat AMD seine Leute so gut im Griff?
don.redhorse schrieb:Hat mal jemand ein „Energiekostenmessgerät“… was kostet ne Stunde Gaming?
Ja, hab ich am PC!
Der Rechner braucht mit ner 3090 undervolted im Gaming-Betrieb im Mittel rund 480 Watt/h, das sind weniger als 20 Cent Stromkosten in der Stunde (ich zahle glaub‘ ich 34 Ct pro KW).
Monitore sind da allerdings noch nicht mitgemessen, die restlichen Komponenten im Gerät aber schon (5900x / 5 SSDs / 8 Lüfter / einige weitere Verbraucher / USB-Geräte).
Der Verbrauch hängt aber tatsächlich auch vom konkreten Spiel ab (!), da kann’s schon mal um +/- 100 Watt differieren!
Wenn man -theoretisch- 8h jeden Tag zocken würde ist das kostenmäßig vielleicht ein Thema (das wären dann pessimistisch gerechnet in 7 Tagen 12 Euro). Dann spart man sich im Gegenzug aber alles andere.
Aber ich komm vielleicht auf einen Abend (5 Stunden) in 2 Wochen… da ist es kostenmäßig absolut irrelevant was da im Rechner ist und wir reden hier von Centbeträgen.
Wer also jammert, dass er sich eine stromhungrige Grafikkarte wegen der Stromkosten nicht leisten kann, der ist entweder ein Heuchler oder hat die Karte auf Kredit gekauft ;-)
Oder wo liegen Eure Stromtarife denn so pro KW?
Aus ökologischen Gesichtspunkten heraus ist natürlich völlig anders zu diskutieren - aber das ist ein anderes Thema.