Leistungsaufnahme vs. erbrachte fps - 4090

@Geisterwolf
Gerne auch auf die 1% Lows bzw. Frametimes achten, denn mit konstanten 60FPS bei niedrigen Frametimes lässt es sich deutlich besser zocken als mit 80FPS und ständigen Einbrüchen.

DJMadMax schrieb:
Aber ich find's echt toll, wie du deine Behauptung, der PCIe-Slot zieht keinen Strom mehr, jetzt vollkommen selbst ignorierst, nachdem ich dir gerade meinen Screenshot gepostet habe :)
Nein, tue ich nicht. Aber auch hier wieder, meine Aussage galt nicht für alle Grafikkarten und inwiefern ~50W bei einer RTX 3060 Ti hier eine Rolle spielen, darüber lässt sich auch streiten.

DJMadMax schrieb:
Wenn eine RTX 4090 mit nur zwei angeschlossenen PCIe 8 Pin-Steckern startet, dann ist genau das die offiziell zulässige Gesamtstromaufnahme.
Dazu hätte ich gerne eine Quelle. Und zwar wo auch die 375W stehen. Danke. Oder eine Quelle, in der steht, dass das Powerlimit, welches im BIOS niedergeschrieben ist, auf den Stromfluss beim PCIe Slot komplett pfeift. Dann kämen wir zwar auf die 350W von OP (wobei, dafür müssten wir deine 50W bei der 3060 Ti als Bemessungsgrundlage nehmen), aber mir wäre es zusätzlich neu, dass der 8-Pin PCIe bei 150W abriegelt. Ja, er ist auf 150W spezifiziert, aber das heißt noch lange nichts.

DJMadMax schrieb:
Ob dir das passt oder nicht ist mir vollkommen egal und du darfst dich gern im Dreck wälzen und winden wie ein kleines bockiges Kind, das ändert aber nichts.
Und wieder wird man persönlich, schade.
 
Performancevergleich hab ich gemacht, weiß auch das es in keinem verhältniss zum leistungsplus steht...

ABER: because i can, weißt :)

Meine karte bekommt bei vollgas (besagt 580W) Maximal 68°C am hotspot (der rest hovert so bei 58-60C°)
Daher mach ich mir da keinen kopf, zumal meine eh schon bei 1,07V beschnitten ist, die ersten samples der 4090 durften noch 1,1V nuckeln.
 
DJMadMax schrieb:
Echt? Damnit, dann muss ich wirklich noch einmal in die Schule :D
Ach sei nicht so ;)
Wir reden ja auch an der Frage des TE vorbei.

Ich bleib bei meiner Aussage, auch innerhalb einer GPU gibts unterschiedliche limitierende Faktoren, die die GPU Auslastung auf 100% bringen.
Takt, Auslastung einzelner "Kerne" oder Bereiche, Spannung, VRAM, etc.

EDIT:
Und wieviel Watt die GPU max zieht, kann man ja mit Furmark in einer kleineren Auflösung mal testen. Vielleicht liegen dan ja auch fast 400 Watt an, dann war die ganze Diskussion für die Katz :)
 
Azghul0815 schrieb:
Ich bleib bei meiner Aussage, auch innerhalb einer GPU gibts unterschiedliche limitierende Faktoren, die die GPU Auslastung auf 100% bringen.
Takt, Auslastung einzelner "Kerne" oder Bereiche, Spannung, VRAM, etc.
Korrekt, da spielen shader etc. auch noch eine rolle.

Hab meine 4090 mal auf 100% Kernlast gebracht bei nem Verbrauch von knappen 200W irgendwo hab ich hier im forum auch noch ein bild dazu...
Hab ich mit meinem Liebling "Moh:AA" mal mit AA und SSx8 getestet :D
 
  • Gefällt mir
Reaktionen: Azghul0815
1. Die 4090 braucht bei quasi keinem Spiel wirklich über 350 Watt. Daher könnte es auch einfach normal sein.

2. Lasst doch einfach mal einen 3D Benchmark laufen. Dann seht ihr zu 100%, ob es ein Watt Limit gibt, weil dort sollten dann auch ca. 450 Watt gezogen werden.

3. Wüsste jetzt auch nicht wie gerade auf 350 Watt limitiert werden soll.

Somit meine zweite Vermutung, da das separat gekaufte "be Quiet! 12VHPWR Adapter Calbe" am Netzteil nur mit 2 Kabeln angeschlossen ist, und beim orginalen 8-Pin Kabel da nur 2 Anschlüsse sind, sprich 2x150W, gibt das Netzteil für die GPU vielleicht gar nicht mehr her?

Das ist ein 600 Watt Adapter-Kabel. Da ist nichts mit 150 Watt Limitierung pro Anschluss. Du schließt es an zwei Anschlüsse am Netzteil an (bei Multiray an zwei verschiedene Rails) und dann fließen da bis zu 600 Watt durch, also insgesamt wären 675 Watt möglich.

Das Problem bei 150 Watt pro Anschluss ist nicht die Netzteilseite, sondern die GPU Seite. Hier gibt es aber nicht die 150 Watt Anschlüsse. Das Netzteil kann easy da 300 Watt raushauen pro Anschluss und die andere Seite vom Kabel ist für 600 Watt wie bei 12HWPR ausgelegt.

Wäre ja auch lustig, wenn das groß 600 Watt drauf steht, aber in WIrklichkeit max. 300 Watt durchlaufen kann. PS: Habe das selbe Kabel. 👍
 
  • Gefällt mir
Reaktionen: Drewkev
Drewkev schrieb:
Aber auch hier wieder, meine Aussage galt nicht für alle Grafikkarten und inwiefern ~50W bei einer RTX 3060 Ti hier eine Rolle spielen, darüber lässt sich auch streiten.
50 Watt sind nicht zu bestreiten, es sind 50 Watt. Was willst du darüber streiten? Komm vorbei, ich leg dir per Stromkabel die 50 Watt aus dem PCIe-Slot mitsamt ablesbarem Display heraus, dann darfst du da gerne mal die Zunge dazwischenhalten und darüber streiten.

Drewkev schrieb:
Dazu hätte ich gerne eine Quelle.
PCI-SIG, die Seite habe ich dir schon verlinkt.

Drewkev schrieb:
Und zwar wo auch die 375W stehen.
Du rechnest 2x die spezifizierte Leistung eines PCIe 8-Pin-Steckers plus die spezifizierte Leistung des PCIe 16x-Slots zusammen. Das bekommst du hin, ich glaube an dich.

Drewkev schrieb:
Bitte :)

Drewkev schrieb:
Und wieder wird man persönlich, schade.
Wenn du dich dabei angesprochen fühlst, dann muss ich tatsächlich davon ausgehen, dass du dich genau so verhältst - und das ist nicht nur in diesem Thread bei dir wieder einmal sehr deutlich zu erkennen. Aufgrund deiner permanenten Besserwisserei bist du hier auch schon unzählige Male angeeckt. Schieb das nicht wieder auf die "persönliche" Schiene, denn es ist ein indiskutabler Fakt, der sich hier im Forum in unzähligen Threads, in denen du beteiligt bist, darlegen lässt.

So, nun mach du mal schön weiter mit deiner Besserwisserei, ich warte gespannt, was @Geisterwolf später zu berichten hat.
 
DJMadMax schrieb:
PCI-SIG, die Seite habe ich dir schon verlinkt.
Es entscheidet aber schon noch NVIDIA wie viel Strom ihre Grafikkarten ziehen dürfen, und die sagen bei der RTX 4090 glasklar 300W oder 450W (oder von mir aus die 600W) ;)

DJMadMax schrieb:
Komm vorbei, ich leg dir per Stromkabel die 50 Watt aus dem PCIe-Slot mitsamt ablesbarem Display heraus, dann darfst du da gerne mal die Zunge dazwischenhalten und darüber streiten.
Fällt es dir echt so schwer sachlich zu bleiben? Meine Güte.
 
  • Gefällt mir
Reaktionen: DJMadMax
DJMadMax schrieb:
Du rechnest 2x die spezifizierte Leistung eines PCIe 8-Pin-Steckers plus die spezifizierte Leistung des PCIe 16x-Slots zusammen. Das bekommst du hin, ich glaube an dich.

Und wo siehst du 2x PCIe 8-Pin-Steckers in diesem Fall hier? Wir haben einen 12VHPWR Stecker wo 600 Watt drauf steht. Am Netzteil selbst 2x 12-Pin-PCIe Stecker und da gibt es überhaupt keine Limitierung von 150 Watt. Wir haben ein normales 600 Watt Kabel.

Das Kabel kann definitiv 600 Watt und ist NICHT die Limitierung.

Hier anschauen: https://www.bequiet.com/de/accessories/3959
 
  • Gefällt mir
Reaktionen: d3nso und Asghan
coxon schrieb:
Die 350 kommen dann noch über den PCIe Slot.
Geht rein elektrisch nicht.
Die Versorgung von VRAM und GPU Chip ist auf den 12VHPWR Stecker verdrahtet, vom PCIe Slot kommt nur Kleinscheiss wie Strom für die Lüfter etc. (~10Watt).
Igor hat das alles mal sauber aufgedröselt was genau wo dranhängt.
 
  • Gefällt mir
Reaktionen: coxon
@Ayo34
Nochmal zu den Sense Pins: wenn diese richtig vom angeschlossenen Gerät (in dem Fall: die Grafikkarte) ausgelesen werden, dann gibt es pro Strang genau den Stromfluss, der zulässig ist. Wenn demnach entweder auf Grafikkarten- oder auf Netzteilseite ein Strang keinen Sense schickt, dann ist das gleichzusetzen mit "nicht angeschlossen".

Wie die Grafikkarte damit umgeht, ist Herstellersache. Es gibt genügend Karten, die gar nicht erst starten, wenn nicht alle drei Kabel einer Kabelpeitsche angeschlossen sind und so könnte es bei diesem be quiet!-Adapter ebenfalls sein, dass, wenn einer der Sense-Pins keinen Durchgang hat, bei der Grafikkarte dadurch aufkommt: "Achtung, nicht alle Stromkabel angeschlossen, wir fahren mal runter und begrenzen auf [150W je Sense] + PCIe-Slot".

Asghan schrieb:
Kleinscheiss wie Strom für die Lüfter etc. (~10Watt).
Ich wage zu bezweifeln, dass die Lüfter (und nicht vorhandene RGB-Beleuchtung) meiner Grafikkarte vorhin im gezeigten Screenshot für die 50 Watt Stromaufnahme über den PCIe-Slot verantwortlich sind.

Aber ja, dass dieser 350 Watt liefert, ist ebenfalls anzuzweifeln.
 
  • Gefällt mir
Reaktionen: Asghan
Ich muss mich konkretisieren:
Igor bezog sich auf die 4090 FE.
Evtl. klemmt der VRAM in dem Fall noch mit aufm PCIe Slot.
Der GPU Chip selbst eher nicht, das wäre in der Tat etwas zu viel
 
DJMadMax schrieb:
@Ayo34
Nochmal zu den Sense Pins: wenn diese richtig vom angeschlossenen Gerät (in dem Fall: die Grafikkarte) ausgelesen werden, dann gibt es pro Strang genau den Stromfluss, der zulässig ist. Wenn demnach entweder auf Grafikkarten- oder auf Netzteilseite ein Strang keinen Sense schickt, dann ist das gleichzusetzen mit "nicht angeschlossen".

Wie die Grafikkarte damit umgeht, ist Herstellersache. Es gibt genügend Karten, die gar nicht erst starten, wenn nicht alle drei Kabel einer Kabelpeitsche angeschlossen sind und so könnte es bei diesem be quiet!-Adapter ebenfalls sein, dass, wenn einer der Sense-Pins keinen Durchgang hat, bei der Grafikkarte dadurch aufkommt: "Achtung, nicht alle Stromkabel angeschlossen, wir fahren mal runter und begrenzen auf [150W je Sense] + PCIe-Slot".

Für die GPU ist das Adapterkabel aber nur 1 Kabel und das eine Kabel sagt "du darfst 600 Watt". Das ist nicht zu vergleichen mit den Adapterkabeln, die da beiliegen. Diese haben in der Tat häufig 3x 150 Watt und teilen das dann auch entsprechend mit bzw. da haben wir dann die Limitierung mit 150 Watt pro Adapter Strang.

Würde das Kabel tatsächlich 2x 150 Watt ansagen, dann gäbe es damit deutlich mehr Probleme und das hätten wir hier im Forum sicherlich schon mitbekommen. Das ist mein Kenntnissstand zu dem Kabel.

Aber noch mal, einfach ein 3D Benchmark laufen lassen...
 
Eine kleine Anmerkung an alle Teilnehmer:

Wollt ihr nicht einen seperaten Thread aufmachen zum diskutieren und diesen hier nutzen dem Threadersteller zu helfen, der muss sich hier echt durch sehr viel Palaver durchlesen was ihn nicht wirklich tangiert ...
 
Ich hab das jetzt mal im höchsten Maße professionell aufgezeichnet :D
1728305759412.png


Ich hoffe, jetzt ist verständlich, was ich meine. So zumindest in der grauen Theorie sollte ein allen Vorgaben nach gemäßes GPU BIOS einer RTX 4090 funktionieren. Wenn demnach nur zwei Sense pins erkannt werden, dann wäre mein GPU BIOS jedenfalls so programmiert, dass es entweder a) gar nicht bootet oder b) um größere Kompatibilität zu allen möglichen Netzteilen zuzulassen, nur die besagten 150 Watt pro 8 Pin-Strang ermöglicht.

Das würde sogar funktionieren, wenn beispielsweise ein Netzteil mit nur zwei nativen PCIe 8 Pin-Anschlüssen vorhanden ist, man diese aber aufsplitten würde. Bei nur zwei originalen Strängen gibt es auch nur zwei Senses, egal, wie oft man diese per Y-Kabel aufsplittet. Folglich wird der Strom zwar gleichmäßig auf den 12VHPWR der Grafikkarte verteilt, diese "dürfte" aber dennoch nicht den vollen Strom ziehen - so in der Theorie.

In der Praxis, wie gesagt, kann ja jeder Grafikkartenhersteller tun und lassen was er möchte. Ein MSI, Zotac, ASUS etcpp. weiß aber sehr wohl, dass ein PCIe 8-Pin-Strang offiziell nur mit 150 Watt belastet werden darf.
Ergänzung ()

derin schrieb:
der muss sich hier echt durch sehr viel Palaver durchlesen was ihn nicht wirklich tangiert
Sofern es sich beim TE tatsächlich um ein PSU-Problem (also darum, dass nicht alle Senses erkannt werden) handelt, ist alles, was ich bisher geschrieben habe, äußerst relevant.
 
DJMadMax schrieb:
In der Praxis, wie gesagt, kann ja jeder Grafikkartenhersteller tun und lassen was er möchte. Ein MSI, Zotac, ASUS etcpp. weiß aber sehr wohl, dass ein PCIe 8-Pin-Strang offiziell nur mit 150 Watt belastet werden darf.
Seit wann betrachtet die Grafikkarte den Slot und 8-Pin PCIe differenziert (bitte Quelle) und wieso spielt letzteres überhaupt eine Rolle, wenn OP doch den 12VHPWR verwendet? Da sind jegliche Spezifikationen für den 8-Pin PCIe doch total latte
 
  • Gefällt mir
Reaktionen: Ayo34 und d3nso
@Sandro_Suchti
Wieso sollten Grafikkarten die einzelnen Stränge nicht entsprechend getrennt betrachten? Sie sind stromseitig zwar hinter der Primärseite auf eine gemeinsame Schiene aufgelegt, es gibt aber dennoch getrennte Sense-Leitungen. Außerden - wie bereits ebenfalls mehrfach erwähnt - gibt es genug Grafikkarten (auch schon in der Vergangenheit), die gar nicht erst starten, wenn nicht alle Stromstecker angeschlossen sind, was ebenfalls nur dann funktioniert, wenn die Sense Pins sauber ausgelesen werden.

Der TE verwendet zudem ein Adapterkabel, da sein Netzteil keine native 12VHPWR 12+4-Schnittstelle besitzt. Obendrein ist das auch vollkommen irrelevant, wenn einer der Sense Pins nicht richtig erkannt wird, wie ich es nun schon unzählige Male geschrieben habe. Wenn ein Stecker nicht richtig aufgesteckt ist, dann ist es belanglos, welcher Steckertyp verwendet wird.
 
Sandro_Suchti schrieb:
Seit wann betrachtet die Grafikkarte den Slot und 8-Pin PCIe differenziert
Nur um zu messen worüber wieviel reinkommt. Letztendlich läuft alles zusammen ins 12V Powerbudget und wird dann von unterschiedlichen Spannungswandlern für die einzelnen Bereiche (GPU, VRAM, etc) bereitgestellt.
Betrifft aber nur moderne Karten aus den letzten ~2 Generationen. Früher war das ganze Thema Powerlimit noch wesentlich simpler.
 
  • Gefällt mir
Reaktionen: DJMadMax
DJMadMax schrieb:
Wieso sollten Grafikkarten die einzelnen Stränge nicht entsprechend getrennt betrachten?
Von den einzelnen Strängen war nicht die Rede sondern 8-Pin PCIe und den PCIe Slot.

DJMadMax schrieb:
Der TE verwendet zudem ein Adapterkabel, da sein Netzteil keine native 12VHPWR 12+4-Schnittstelle besitzt.
Ja, also wieso spielen da die Spezifikationen von den 8-Pin PCie Kabeln eine Rolle? Die sind hier doch gar nicht in Verwendung
 
  • Gefällt mir
Reaktionen: d3nso
ruthi91 schrieb:
Betrifft aber nur moderne Karten aus den letzten ~2 Generationen. Früher war das ganze Thema Powerlimit noch wesentlich simpler.
Das war früher vielleicht simpler, dennoch hat aber schon selbst eine GTX 580 das Booten verweigert, wenn nur ein PCIe 6-Pin-Stecker statt zwei angeschlossen war. Die Grafikkarten sind nicht erst seit gestern dazu in der Lage, die Sense-Pins entsprechend zu nutzen. Faktisch sollten sie es sein, seit dem es den PCIe Stromstecker gibt, was schon ne ganze Weile her ist. Ich meine, dass meine ältesten Grafikkarten mit 6 Pin PCIe Stromstecker ein paar X800 XL, XT, X850 XT PE sind, also gute 19-20 Jahre.
Ergänzung ()

Sandro_Suchti schrieb:
Von den Strängen war nicht die Rede sondern 8-Pin PCIe und den PCIe Slot.
Ach so... ja, keine Ahnung - vermutlich auch, seit dem es sowohl Stecker, als auch PCIe-Slot gibt. Schau selbst mal in GPU-Z in die Sensorleiste, da wirst du bei deiner Grafikkarte ebenfalls separat aufgelistet sehen, über welchen Strang (PCIe Slot, PCIe-Stecker 1, 2, 3) wie viel Strom reinkommt.
 
DJMadMax schrieb:
Ach so... ja, keine Ahnung - vermutlich auch, seit dem es sowohl Stecker, als auch PCIe-Slot gibt. Schau selbst mal in GPU-Z in die Sensorleiste, da wirst du bei deiner Grafikkarte ebenfalls separat aufgelistet sehen, über welchen Strang (PCIe Slot, PCIe-Stecker 1, 2, 3) wie viel Strom reinkommt.
Ja schon, das erklärt aber nicht wieso deiner Meinung nach das Powerlimit nicht den Stromverbrauch über den Slot beeinflusst und vor allem wieso dann überhaupt der Strom darüber gemessen wird wenn der für das Powerlimit doch eh keine Rolle spielt. Und ich wiederhole dass die 8-Pin PCIe Stecker hier gar nicht in Verwendung sind !
 
Zurück
Oben