Test (GPU-)Leistungsaufnahme: Ab sofort misst die Redaktion 1.000 statt 10 Mal pro Sekunde

@Wolfgang Grandios, so geht Weiterentwicklung.
Die große Ironie besteht hier doch darin, dass PCAT womöglich zu Teilen auf der Arbeit von Aris Mpitziopoulos basieren könnte(?), (Nvidia hat eine erste Version des Powenetics gekauft), Aris auf Anfrage umgekehrt aber keinen Zugang zu PCAT gewährt, obwohl es ihn doch interessiert hätte wie Nvidia es umgesetzt hat.
Aris Und Stephen über Powenetics V2 auf der Computex

Und nun wird hier PCAT durch Powenetics V2 abgelöst. Das fühlt sich einfach gut an :)
Dort wird auch kurz die "Transiente" erwähnt die ihr ebenfalls als großen Vorteil der 1000Hz Messung hervorhebt.
Ich hoffe wirklich, dass sich diese Messungsart weitläufig durchsetzt damit sich Werte sinnvoll vergleichen lassen und durch Diskrepanzen womöglich auf vorher unentdeckte Probleme stoßen könnte.
(PCAT hat glaube ich nicht jeder von NVIDIA zur Verfügung gestellt bekommen)


Wenn ich darf würde ich bei der Gelegenheit noch zur Handhabung der Zahlen im Artikel einen Vorschlag machen:
Bei 100 statt 10 Messungen zeigt sich bei der GeForce RTX 3080 Ti FE bereits, dass die maximale Leistungsaufnahme der Grafikkarte nicht bei 378 Watt, sondern bei klar höheren 410 Watt liegt – das ist ein Unterschied von rund 8,5 Prozent. Der größte Sprung kommt bei 100 Messungen pro Sekunde, doch eine noch höhere Geschwindigkeit macht ebenfalls nochmal einen Unterschied aus, wenn auch einen kleineren. Bei der maximalen Geschwindigkeit von Powenetics V2 lassen sich dann 433 Watt messen. Im Vergleich zu 378 Watt ist das schon eine Differenz von 15 Prozent.

Es erscheint mir ebenfalls sehr sinnvoll den Unterschied zwischen angegebener und gemessener Maximalaufnahme darzustellen ( 350W TBP/TGP vs 378W PCAT).
Diese Lastspitzen im Millisekundenbereich sind ja das was uns zum großen Teil interessiert.
Das wäre mit PCAT gemessen also ein Erhöhung um 8% bzw. 108% des angegeben Verbrauchs (350W->378W)

Wenn im Artikel nun von 8,5% und 15% Differenzen zu lesen sind, beziehen sich diese aber auf den bereits erhöhten Maximalverbrauch ( 108%) anstatt auf die davor als Basis genommenen 100%.
Beim Lesen kommt der gedankliche Bezug dann, für mich zumindest, durcheinander.
Z.B. "Aha! mit Powenetics V2 gemessen verbraucht die 3080 TI nun 8,5%/15% mehr Watt als ...ähm.. die TDP der 3080 TI? Nein stimmt nicht, es sind 8,5%/15% mehr als die 378W, welche sich wiederum um "unbekannt-%" über der TDP befinden. Ok, win+R, calc, enter..)
Das war hier so mein Gedankengang wenn ich ehrlich bin, und ich habe gemerkt, dass ich die komplette Steigerung zum "normalen" Verbrauch viel eher nachvollziehen könnte, anstatt die prozentuale Steigerung zur prozentualen Steigerung zum offiziellen Verbrauch.
Vor allem auch, wenn man noch das erhöhte Powertarget mit reinnimmt, womit noch mehr Prozentzahlen mit unterschiedlichen Bezügen hinzukommen. Denn 15% mehr zu 378W (+0% PT) wären schließlich auch nicht vergleichbar mit 14,9% mehr zu 430W (+14%PT), die Prozentangabe verliert so nur an Bedeutung und gedanklich fallen dann alle Jonglierkegel auf die Füße.


Mit festem Bezug auf die 100% Auslastung (jeweils mit/ohne TDP Erhöhung) könnte man die Prozentzahlen etwas einfacher gegenüberstellen:
350W TDP/TGP
PCAT@10Hz = 378W = +8% In der Lastspitze
PN-V2@100Hz = 410W = +17%
PN-V2@1000Hz = 433W = +24%

Dann könnten sich daraus Aussagen ergeben wie z.B.:
Die wirkliche, erst jetzt messbare Steigerung der Maximalaufnahme liegt unter Powenetics V2 bis zu 3 mal so hoch wie zuvor von PCAT angegeben.

Nur als möglicher Gedankenanstoß falls ihr/du in Zukunft nochmal PCAT mit Powenetics V2 vergleichen wollt :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
lamda schrieb:
Die reelle Abtastung muss also Sehr viel höher sein um in Software filtern zu können.
(Typisch für audio 64-256 mal so hoch)

Also alles in der nähe der Nyqest frequnz ist kaffeesatz lesen.
Das sehe ich ein, wenn man den Anspruch hat das Signal komplett zu sehen...
Da die Oszilloskop Messungen die ich gesehen habe, zeigen dass pro berechnetem frame die GPU -Spannung und demnach vermutlich auch die Stromstärke, mehrfach hoch und runter geht, sollte man bei niedrigen FPS an der Grenze sein, wo man den wahren Verlauf gerade so messen kann.

Ist aus meiner Sicht aber auch nicht unbedingt nötig.
Sofern die Peak Werte regelmäßig auftreten und die Messedauer ausreichend lang ist, trifft man auch mit unzureichender Abtastrate die min und max Werte mit ausreichender Reproduzierbarkeit.

Und das Ziel wurde ja formuliert...besser als vorher messen können welche Lastspitzen sich ergeben...das wird aus meiner Sicht erreicht.
 
Abgefahren was in den Computern abgeht innerhalb so weniger Augenblicke.

Von wegen Augenblick: Ein Augenblinzeln dauert in der Regel zwischen 100 und 400 Millisekunden, abhängig von der Person und den Umständen.
 
lamda schrieb:
"Zur Rekonstruktion wird dieses Signal durch einen idealen Tiefpass mit Grenzfrequenz f max gefiltert."

"Mathematisch ausgedrückt hat ein idealer Tiefpassfilter als Übertragungsfunktion eine Rechteckfunktion.Diese Übertragungsfunktion schneidet das Spektrum im Frequenzraum perfekt ab und das gefilterte Signal kann perfekt aus den Abtastpunkten rekonstruiert werden. Allerdings lässt sich ein ideales Tiefpassfilter nicht praktisch realisieren, da es nicht kausal und unendlich lang ist."

Aka. mit einem idealen filter könnte man bei 1000hz sampling MAXIMAL 500hz rekonstruieren.
Ideale filter existieren aber nicht und vor allem nicht in Hardware sondern in Software.
Die reelle Abtastung muss also Sehr viel höher sein um in Software filtern zu können.
(Typisch für audio 64-256 mal so hoch)

Also alles in der nähe der Nyqest frequnz ist kaffeesatz lesen.

Schneller sampeln mit schlechteren analogen Filter plus digitalen Filter hinterher kostet einfach nur weniger Kohle als langsamer sampeln mit besseren analogen Filter.
 
Oberst08 schrieb:
Ok, interessant [...]
Aus der 5. Seite des von dir verlinkten Artikels:
Der Aufbau mit zwei 4-Kanal-Oszillographen im Master/Slave im Labor löst zwar noch deutlich höher auf als der PMD von Powenetics, aber ich brauche diese Datenflut auch nicht immer, im Gegenteil.
Wenn ich mich richtig erinnere, gibt es von Igor auch einen extra Artikel zu seinem Messaufbau mit den Oszis, der dürfte allerdings auch bereits ein paar Jahre alt sein
 
Was ist eigentlich die Messauflösung des verwendeten ADCs und Full Scale der Wandlung? 8 Bit oder 12 Bit oder gar 32 Bit? Was sind die ENOBs? Was kommen für Messergebnisse raus wenn man die zwei Messungen pro Sekunde 500 Sekunden laufen lässt und den Mittelwert mit einem Wert von 1000 Samples/Sekunde vergleicht (statistisches Mittel/Normalverteilung, eigentlich sollten die Fehler immer kleiner werden, desto länger man misst)? 1kS/s gibt eigentlich eine Nyquistfrequenz von 500 Hz was für StepUp, BuckBoost oder andere DC/DC Wandler Prinzipien sehr wenig ist. Kann das Gerät Oversampling um die Messgenauigkeit weiter zu erhöhen? Soll eigentlich der Durschnittswert der aufgenommen Leistung gemessen werden oder die Lastaufnahme sogar zeitlich präzise aufgelöst (da würde ich ja eher Richtung GS/s gehen)? Falls jemand interessiert wie das ungefähr in den Oszis läuft: Link (muss man aber mit Vorsicht lesen, da sie ihre Produkte bewerben). Ein paar mehr präzise technische Infos hätte ich mir noch gewünscht. Dennoch ein sehr schöner Artikel :schluck:.
 
  • Gefällt mir
Reaktionen: _roman_
Geil ich freue mich drauf! Schön zu sehen wir ihr es schafft, eure schon extrem gute Arbeit, noch besser zu machen!
 
Nettes Spielzeug, der wirklich riesige Vorteil liegt natürlich gar nicht so in der höheren Geschwindigkeit, sondern in der Zeitersparnis durch die Zusammenarbeit mit CapframeX. Das ist schon echt ein richtiger Vorteil den Verbrauch quasi bei jedem Benchmarklauf einfach mit messen zu können.
Die 1000 € hat man an Arbeitszeit ruck zuck wieder drin.

Was die Lastspitzen angeht, die sind eigentlich seit der PCie 5 und ATX3 uninteressant geworden und ja nun nach oben beschränkt. 10ms 200% 1ms 250% 100 uS 300%.
Igor hat die ja mit seinen Oszis schon wesentlich genauer bestimmt und da eigentlich alles zu gesagt. Früher machten die ja durchaus mal Probleme, aber die Zeiten werden mit ATX3 wohl vorbei sein.

Eine 300% Lastspitze darf maximal 100 uS auftreten und der Gesamtverbrauch darf nie über die 600W gehen. Das kann man ganz einfach zurück rechnen. Wenn z.b so ein 300% 1800W 100uS Peak zu 5% Duty auftritt, (die man mit dem powernetics auch nicht sehen könnte, weil nur 1ms Intervalle) dann liegt der Basisverbrauch der Karte bei etwa 450W und wird durch die 1800W Peaks dann auf 600W RMS gehoben. Bei einer 450W Karte wären es ein maximaler Peak von 1350 W und dann 342 W.

Die Aussage wie hoch jetzt also dann wirklich die Peaks gehen bringt einem jetzt eigentlich nichts mehr weil die ATX3 Netzteile das sowieso abfangen. Der Gesamtverbrauch ist das was am Ende zählt.

Selbst in diesen gerade mal 100 ms zeigt die GeForce RTX 3080 Ti mehrere „Schwankungs-Intervalle“, stellenweise arbeitet die Grafikkarte in dem Zeitraum mit 433 Watt, teils auch nur mit 296 Watt. Darüber hinaus ist zu sehen, dass das Powermanagement und die Hardware offenbar so konfiguriert sind, dass die Grafikkarte immer für einige wenige Millisekunden klar mehr Energie als die TDP aufnehmen kann, um dann schrittweise den Verbrauch wieder zu reduzieren und mal mehr, mal weniger unter die TDP zu drücken.
Ist das so? also ich bin da echt nicht so tief drin was die Grafikkarten angeht, aber mir sieht das eher so aus, als ob das jeweils ein gerenderter Frame ist. Wenn die Karte beginnt den Frame zu rendern schießt der Verbrauch hoch und wird dann ggf abgeregelt, sobald der Frame gerändert ist, gibt es eine kurze Pause und das Spiel geht von vorne los.

Die Intervalle sind immer etwa 25ms lang was etwa 40 FPS entsprechen würde. bei 100 FPS hätte man immer genau 10 ms Intervalle. Müsste man mal schauen wie dieses Verhalten sich bei unterschiedlichen FPS zahlen darstellt. Könnte man einfach testen indem man furmark in einem Fenster laufen lässt und dann das Fenster einfach größer oder kleiner zieht, und so die FPS erhöht oder reduziert. Und dann den Verbrauch beobachten.

Ich dachte immer genau das sollte eigentlich auch die Intention hinter den ganzen Peaks gewesen sein, dass man kurzfristig den Verbrauch hochziehen kann um dann in "Pausen" den Schnitt wieder zu senken.
 
Zuletzt bearbeitet:
Es tut weh, solche Artikel zu lesen als Technik und Physik interessierte Person.


ms .... millisekunde = (1*Sekunde / 1000 )
mm ... millimeter

Wenn man der Kundschaft "Unwissenheit" unterstellt - keine Schulbildung - dann sollte man wenigsten versuchen den Standard anzuheben.

Ich denke die übliche und gebräuchliche Angabe von ms, vermutlich bekannt von Bildschirme, Sport Zeitmessungen im Fernsehen usw. sollten bekanntsein. War da nicht etwas mit ms Reaktionszeit bei Bildschirmen usw?

--

Das ms Diagramm ist ja eine Katastrophe. Wieso haben diese Grafikkarten nicht genug Stützkondensatoren - Spulen um dies auszugleichen? Kein Wunder, dass der neue Netzteilstandard, vermutlich von NVIDIA initisiert so ein Käse ist mit der "kurzfristigen" Überleistung.

Wurden diese Angaben auch mit einem Oszilloskop überprüft, welches ausreichend Bandbreite hat?



Das pöse Wort Dummheit habe ich mal bewusst nicht geschrieben.
 
_roman_ schrieb:
Das ms Diagramm ist ja eine Katastrophe. Wieso haben diese Grafikkarten nicht genug Stützkondensatoren - Spulen um dies auszugleichen? Kein Wunder, dass der neue Netzteilstandard, vermutlich von NVIDIA initisiert so ein Käse ist mit der "kurzfristigen" Überleistung.

Wurden diese Angaben auch mit einem Oszilloskop überprüft, welches ausreichend Bandbreite hat?
Igor hat das vor Jahren zu seinen Zeiten bei THG alles schon mal durch exerziert und vermessen. Hier an dem Screenshot kann man das super sehen, dass die 1ms Auflösung die echten Peaks/Drops wohl eben doch nicht genau erfassen wird (10 uS Auflösung, 1 Kasten = 1ms, der Drop vielleicht 200 uS?) .

Aber das hat wie gesagt auf den Gesamtverbrauch ja sowieso wenig Auswirkungen. Die für Messung der Leistungsaufnahme wird das Ding aber schon mehr als ausreichen. Die letzten Details sind halt einfach auch praktisch nicht wirklich von Relevanz.

1690401995401.png

Ergänzung ()

Baal Netbeck schrieb:
Da die Oszilloskop Messungen die ich gesehen habe, zeigen dass pro berechnetem frame die GPU -Spannung und demnach vermutlich auch die Stromstärke, mehrfach hoch und runter geht, sollte man bei niedrigen FPS an der Grenze sein, wo man den wahren Verlauf gerade so messen kann.
Ah, das trifft genau meine Frage. weißt du noch wo du das gesehen hast? Das würd ich gerne auch mal sehen, ob dem wirklich so ist, dass innerhalb eines berechneten Frames Peaks auftreten oder nur 1x in jedem berechneten Frame.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und Baal Netbeck
Robot schrieb:
Ah, das trifft genau meine Frage. weißt du noch wo du das gesehen hast? Das würd ich gerne auch mal sehen, ob dem wirklich so ist, dass innerhalb eines berechneten Frames Peaks auftreten oder nur 1x in jedem berechneten Frame.
War irgendwo bei buildzoid... Leider finde ich bei dem selten die videos wieder...zu viel verschiedenes in jedem Video...super lange Videos und oft nicht eindeutig beschriftet.

Ich meine er hatte das mit den verschiedenen Arbeitsschritten der pipeline erklärt...unterschiedliche Schritte sind unterschiedlich Energiehungrig und beim Wechsel kann es zu einem Einbruch des Stroms kommen....und zwischen den frames sowieso.

Das spielte glaube ich auf das Spulenfiepen an, wo die Spulen in Abhängigkeit von den FPS fiepen, aber die Frequenz der FPS nicht im "als fiepen wahrzunehmenden Bereich" liegt ....und dadurch dass es innerhalb jedes frames auch starke Wechsel gibt, kommt die Schwingung in den kritischen Bereich....meine ich mich zu erinnern:freak:
 
  • Gefällt mir
Reaktionen: Robot
Baal Netbeck schrieb:
Ich meine er hatte das mit den verschiedenen Arbeitsschritten der pipeline erklärt...unterschiedliche Schritte sind unterschiedlich Energiehungrig und beim Wechsel kann es zu einem Einbruch des Stroms kommen....und zwischen den frames sowieso.
Vielen Dank!

Das reicht mir eigentlich schon weil es meine Vermutung bestätig, der unterschiedliche Verbrauch kommt eben nicht dadurch zu Stande, dass die Karte da irgendwie groß was am Verbrauch "Managed", sondern das in aktiven Phasen immer Peaks entstehen und in passiven dann Einbrüche. Und genau darauf zielt auch die PCIe5 und ATX3 ab, das eben in den aktiven Phasen extreme Peaks entstehen dürfen. Und je höher die FPS, desto höher werden natürlich diese Peaks, weil nach jedem Frame eh ein fetter Drop kommt.

Wenn man es nämlich anders machen wollte, müsste man die Karte in den aktiven Phasen dann abregeln und das macht sie natürlich dann langsamer. Das will man natürlich nicht.
Baal Netbeck schrieb:
Das spielte glaube ich auf das Spulenfiepen an, wo die Spulen in Abhängigkeit von den FPS fiepen, aber die Frequenz der FPS nicht im "als fiepen wahrzunehmenden Bereich" liegt ....und dadurch dass es innerhalb jedes frames auch starke Wechsel gibt, kommt die Schwingung in den kritischen Bereich....meine ich mich zu erinnern:freak:
Das macht Sinn. Das kann man auch auf der Gegenseite bei den ATX3 Netzteilen schön sehen, dass sie bei den Tests ab bestimmten Frequenzen dann anfangen zu fiepen wie verrückt. Das ASUS Loki z.b. ist da ein ganz heißer Kandidat, wenn's zur Sache geht trilltert das ganze Opern :)
 
Robot schrieb:
der unterschiedliche Verbrauch kommt eben nicht dadurch zu Stande, dass die Karte da irgendwie groß was am Verbrauch "Managed", sondern das in aktiven Phasen immer Peaks entstehen und in passiven dann Einbrüche.
Nicht so voreilig.... Dass es innerhalb jedes Frames Schwankungen über und unter den Durchschnitt gibt, schließt nicht aus, dass die Karte nachregelt und von Zeit zu Zeit auch ungewöhnlich extreme Peaks erzeugt!

Das war ja mal das Thema von Igor, dass da ab und zu im Oszilloskop extreme Peaks auftauchen und die dann auch mal mit einem peak von der CPU zusammenfallen können...und dann schaltet ein Netzteil theoretisch doch mal ab...ich will das bestimmt nicht überbewerten, aber die Hochpunkte je frame und die, bei manchen Grafikkarten, ab und zu auftretenden extremen Peaks sind zwei verschiedene Dinge.

Und natürlich regelt die Karte auch innerhalb eines frames nach...der könnte ja extrem lange dauern weil du in 8K nur 1FPS hast, und dann kann die Karte nicht 500ms lang 700W ziehen, nur weil es danach für 200ms nur 100W braucht.

Aber natürlich wird das Regeln eine PID Steuerung oder ähnliches nutzen und nicht auf jeden Messwert mit extremen Anpassungen reagieren.
Robot schrieb:
Wenn man es nämlich anders machen wollte, müsste man die Karte in den aktiven Phasen dann abregeln und das macht sie natürlich dann langsamer. Das will man natürlich nicht.
Ich denke schon, dass auch in aktiven Phasen abgeregelt wird wenn die Phase zu lange zu viel Strom zieht... Ist ja auch nicht alles Spiele...kann auch eine andere kontinuierliche Last sein, die irgendwas beschleunigt.
 
  • Gefällt mir
Reaktionen: CyrionX und Robot
Baal Netbeck schrieb:
Ich denke schon, dass auch in aktiven Phasen abgeregelt wird wenn die Phase zu lange zu viel Strom zieht... Ist ja auch nicht alles Spiele...kann auch eine andere kontinuierliche Last sein, die irgendwas beschleunigt.
Ja klar die Karte wird sozusagen "Notabregeln" wenn zu viel Strom gezogen wird. Aber das wollen die bestimmt nicht gerne, weil abregeln heißt weniger Takt und das heißt langsamer. Es wird also erst mal immer so viel gezogen wie geht in den verschiedenen Phasen, und erst wenn man über das "Limit" geht, dann wird mal für ne gewisse Zeit runter getaktet. In erster Linie wird das auf und ab also durch die verschiedenen Phasen beim Rendern bestimmt und nicht durch das rauf und runter regeln der Karte. So meinte ich das.

Das runter regeln ist ja genau das was die PCIe 5 jetzt festgelegt hat. Bei ner 600W Karte wenn 100uS 300% anliegen, dann muss die Karte abregeln und dann für 1900uS auf etwa 450 W bleiben, so dass man im schnitt wieder auf 600W kommt. Wenn die Peaks kleiner oder kürzer sind, dann dürfen sie entsprechend öfter auf tauchen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
Robot schrieb:
Es wird also erst mal immer so viel gezogen wie geht in den verschiedenen Phasen, und erst wenn man über das "Limit" geht, dann wird mal für ne gewisse Zeit runter getaktet. In erster Linie wird das auf und ab also durch die verschiedenen Phasen beim Rendern bestimmt und nicht durch das rauf und runter regeln der Karte. So meinte ich das.
Ja genau...das rauf und runter kommt maßgeblich von den verschiedenen Phasen und Belastungen.

Da viele der heutigen Karten eigentlich voll im Powerlimit hängen, wird aber pausenlos der Takt nachgeregelt, da sie eben das Limit anpeilen...
 
  • Gefällt mir
Reaktionen: Robot
Baal Netbeck schrieb:
Da viele der heutigen Karten eigentlich voll im Powerlimit hängen, wird aber pausenlos der Takt nachgeregelt, da sie eben das Limit anpeilen...
Ja und daher vielleicht auch auf einmal die extremen 200-300% Peaks bei PCIe5, dann kann ich nämlich in einer schlimmen Phase einfach ziehen und brauch im günstigen Fall nicht mehr so viel Nachregeln. Das wird ja interessant, wenn dann die PCIe 5 Karten mal kommen, ob die den Takt weniger nachregeln als die alten Karten. Und wenn sie das so machen, dann wird's mit den ATX2 Netzteilen wohl dann doch recht eng ...

Das ergibt alles schon irgendwie Sinn.

Vielen Dank!
 
Robot schrieb:
ob die den Takt weniger nachregeln als die alten Karten. Und wenn sie das so machen, dann wird's mit den ATX2 Netzteilen wohl dann doch recht eng ...
Wird man alles sehen, aber ich würde erwarten, dass die Regelung ausgefeilter wird und sie sich nicht so leicht dazu verleiten lässt extreme Peaks zuzulassen.
Schon die 4090 hat ja wohl weniger extreme Peaks als die 3090...da hat Nvidia also schon nachgearbeitet.

Denn egal ob das ATX3 Netzteil extreme Peaks besser abfangen kann... es ist für die GPU-Spannungswandler(und die GPU) sicherlich nicht gut, wenn die ab und zu 1000 A durchlassen müssen....das erhöht die RMA Quote und so hoffe ich, dass es im Interesse der Grafikarten Hersteller liegt, dass solche Peaks eher weniger als mehr werden.
 
  • Gefällt mir
Reaktionen: CyrionX
Es wäre zu hoffen, dass sie das so machen, aber ich bin da skeptisch irgendwie, weil sie die extremen Peaks ja quasi selbst erst vorgeschlagen haben. Naja man wird sehen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Um den neuen Tiefgang für alle getesteten Grafikkarten bieten zu können, werden sämtliche Messungen, sowohl für Idle- als auch für Lastszenarien, derzeit überarbeitet. Wie die neuen Ergebnisse ausfallen, wird ComputerBase in Kürze in zwei verschiedenen Artikeln aufzeigen.
auch wenn ich da eine richtig bittere Pille für meine 6900xt erwarte... ich freu mich drauf :D
 
deswegen lässt man auch immer ein wenig spielraum bei auswahl seiner komponenten und der wahl des zu verbauenden netzteils. ich denke das macht jeder erfahrende selbstbauer seines computer.
 
Zurück
Oben