hallo!
wie der Titel oben schon sagt habe ich mal einen kleinen Test unternommen um mal dieses Mysterium man brauch ja immer "1000watt" für eine 3090(ti) und auch die neue "4090" mir ihren angeblichen 600 watt verbrauch ist zwingend ein 1000 watt NT zu verbauen
Folgende Hardware besitze ich
12900k@Max OC allcore 5,1ghz bei 1,35vCore (ca 270-275watt in cinebench test)
Asus Z690 Strix F
DDR5 Gskill 6000 CL40@6200 34-36-36-50 inkl kompletter second und third timings angepasst
Gainward 3090 Phantom GS (470watt Powerlimit)@ Wakü
Corsair Obsidian 1000D inkl custom wakü für Cpu und GPU 2x480x30 Front radiator / 420x45 Oben
Enermax 850watt Gold NT
Dank meines Dual Bios habe ich mir das Kingpin XOC 1000watt bios aufgespielt um die besagten 600 watt mal zu simulieren (hierbei sei ganz klar gesagt mit diesem Bios ist zwingend eine Wakü voraussetzung weil sämtliche schutz mechanismen deaktiviert sind und man sehr genau wissen muss was man macht)
Als Test habe ich meine alltäglichen Spiele und paar Extra Spiele Getestet (45-60min) und paar Benchmarks gemacht (Es stand für mich nur im vordergrund der verbrauch und weder was and FPS oder punkten raus kam)
Angefangen habe ich mit den Spielen wobei ich immer in UWQHD mit 165hz inkl Max einstellungen und wenn RT verfügbar war auch auf Max gestellt habe um soviel wie möglich an verbrauch zu haben
Wenn DLSS verfügbar war wurde Qualität verwendet um möglichst auf 165 FPS zu kommen
Ghostwire Tokio inkl DLSS : 480-510Watt (Peak 532 watt) FPS 120-165
Overwatch 200% Renderauflösung : 490-510 Watt (Peak 522) FPS 110-135
Warzone : 330-350 (Peak 362Watt) FPS 140-165
The Division 2 (Benchmark) : 490-540 Watt (Peak 552) FPS 110-152
Dann habe ich noch etwas mit 3D Mark getestet
Port Royal: 450-490 Watt (Peak 498 Watt) 14900+-30 Punkte
Time Spy Extreme: 480-540watt (Peak 568 Watt) 11150+-25 Punkte
Time Spy : 440-490 Watt ( Peak 522 Watt) 21900+-50 Punkte
Der Takt der 3090 war immer bei 2040MHz bei 1,025Vcore und +1000 Ram und die CPU hatte immer so 80-110 watt Verbrauch in den Spielen
Temps waren in Bereich von 60-62°C in den Spielen und beim Benchen ca 65-66°C
Fazit:
Meine 850watt NT hat nicht 1 mal abgeschaltet oder es gab einbrüche weil zu wenig leistung vorhanden war noch gab es Bluescreens etc
Also der Mythos man brauch "1000watt" absoluter Schwachsinn
Ich habe es probiert ohne probleme mit einem halbwegs guten 850watt NT und es funktioniert und das selbst wenn alles Komplett Übertaktet ist
Und man darf nicht vergessen eine 3090 hat noch viel Heftigere Spikes als eine 3090ti
Bei der 3090ti ist das schon um einiges besser und bei der neuen RTX 4000 serie wird nvidia sicherlich auch nochmal hier und da etwas machen auch wenn das bisher nur reine spekulation ist
wie der Titel oben schon sagt habe ich mal einen kleinen Test unternommen um mal dieses Mysterium man brauch ja immer "1000watt" für eine 3090(ti) und auch die neue "4090" mir ihren angeblichen 600 watt verbrauch ist zwingend ein 1000 watt NT zu verbauen
Folgende Hardware besitze ich
12900k@Max OC allcore 5,1ghz bei 1,35vCore (ca 270-275watt in cinebench test)
Asus Z690 Strix F
DDR5 Gskill 6000 CL40@6200 34-36-36-50 inkl kompletter second und third timings angepasst
Gainward 3090 Phantom GS (470watt Powerlimit)@ Wakü
Corsair Obsidian 1000D inkl custom wakü für Cpu und GPU 2x480x30 Front radiator / 420x45 Oben
Enermax 850watt Gold NT
Dank meines Dual Bios habe ich mir das Kingpin XOC 1000watt bios aufgespielt um die besagten 600 watt mal zu simulieren (hierbei sei ganz klar gesagt mit diesem Bios ist zwingend eine Wakü voraussetzung weil sämtliche schutz mechanismen deaktiviert sind und man sehr genau wissen muss was man macht)
Als Test habe ich meine alltäglichen Spiele und paar Extra Spiele Getestet (45-60min) und paar Benchmarks gemacht (Es stand für mich nur im vordergrund der verbrauch und weder was and FPS oder punkten raus kam)
Angefangen habe ich mit den Spielen wobei ich immer in UWQHD mit 165hz inkl Max einstellungen und wenn RT verfügbar war auch auf Max gestellt habe um soviel wie möglich an verbrauch zu haben
Wenn DLSS verfügbar war wurde Qualität verwendet um möglichst auf 165 FPS zu kommen
Ghostwire Tokio inkl DLSS : 480-510Watt (Peak 532 watt) FPS 120-165
Overwatch 200% Renderauflösung : 490-510 Watt (Peak 522) FPS 110-135
Warzone : 330-350 (Peak 362Watt) FPS 140-165
The Division 2 (Benchmark) : 490-540 Watt (Peak 552) FPS 110-152
Dann habe ich noch etwas mit 3D Mark getestet
Port Royal: 450-490 Watt (Peak 498 Watt) 14900+-30 Punkte
Time Spy Extreme: 480-540watt (Peak 568 Watt) 11150+-25 Punkte
Time Spy : 440-490 Watt ( Peak 522 Watt) 21900+-50 Punkte
Der Takt der 3090 war immer bei 2040MHz bei 1,025Vcore und +1000 Ram und die CPU hatte immer so 80-110 watt Verbrauch in den Spielen
Temps waren in Bereich von 60-62°C in den Spielen und beim Benchen ca 65-66°C
Fazit:
Meine 850watt NT hat nicht 1 mal abgeschaltet oder es gab einbrüche weil zu wenig leistung vorhanden war noch gab es Bluescreens etc
Also der Mythos man brauch "1000watt" absoluter Schwachsinn
Ich habe es probiert ohne probleme mit einem halbwegs guten 850watt NT und es funktioniert und das selbst wenn alles Komplett Übertaktet ist
Und man darf nicht vergessen eine 3090 hat noch viel Heftigere Spikes als eine 3090ti
Bei der 3090ti ist das schon um einiges besser und bei der neuen RTX 4000 serie wird nvidia sicherlich auch nochmal hier und da etwas machen auch wenn das bisher nur reine spekulation ist
Zuletzt bearbeitet: