GroMag schrieb:
Ja, der Grund ist, dass Nvidia keine andere Steckergröße bei ihrem eigenartigen PCB unterbekommen hat. Und nein, einen anderen Grund gibt es nicht. Der Stecker verbessert bei vernünftiger Verkablung strom-technisch nix.
Ich habe irgendwo gelesen (bei Igor im Forum oder so?), das die 8-Pin ja eigentlich nur Fake 6+2 sind, sprich nur
6 Pin richtig Saft haben. Insofern ist wohl 12 Pin konsequenter. Wie es dann im NT selbst ausschaut mit der Anbindung = k.A. Wird man erst wissen, wenn es mal echte 12-Pin NT´s gibt.
Irgendwelche Adapter dazwischen sind bei ner 3090@550W+ nach m.E. sehr murksig, bin mal gespannt, wie warm die werden.(k.A. obs dann Übergangswiderstände gibt und damit nen höheren Stromverbrauch)
btw.
Nach meiner Erfahrung ist ein NT-Abschalten net per se was Schlechtes. Es zeigt halt, das die Schutzmechanismen arbeiten. Man hat die Probs ja meist nur bei extrem schlechter Software, wie PCGH bei Crysis Remastered.
Da würde Jeder mit gesundem Menschenverstand erstmal einen Regler nach links schieben und net gleich das NT tauschen.
Bei Neuanschaffung ist natürlich ein Puffer von 100W sinnvoll. Gerade mit den 2080Ti´s@330W+ gabs doch User, die mit nem besseren NT weniger Spulenfiepen hatten. Ist halt ein Unterschied, ob auf der 12V-Schiene 12,1 oder 11,7V anliegen und ne Art Restwelligkeit die Qualität vom Strom versaut.
(denk ich mir als Laie mit nem übergroßen Billig-NT, nach meinen Erfahrungen mit 2x RX56)
Bei den PCB´s wird ja oft an der billigen Trinity rumgekrittelt in den Reviews, aber gabs denn da Spulenfiepen?
Normal hätte die bessere Spannungsversorgung der FE@Stock ja Spulenfiepen verhindern/minimieren sollen.
Da würde ich sagen besser das PL net anfassen und nur UVen und auf Erfahrungen von Usern warten.
(die Reviewer hatten bestimmt z.T. auch bessere Chips als der Normalo kaufen kann in dem Segment, sonst wäre ne TUF-OC net so überraschend stark ggü. ner 400W-Strix, sprich sehr nah dran. Wird sicher interessant wenn die User mal den Chip auslesen, bei PCGH im Forum meist 01 bei TUF nonOC.. siehe Bild. Die 00 soll schlechter sein!?)
btw.
Im Review von der Trinity wurden die Frametime-Graphen ergänzt. Spikes, wo PL oder CPU oder PCi-E net passt !?
AC:O war ja wohl das Game wo PCi-E 4.0 am Besten vs. 3.0 lief.
(nach m.E. tendentiell etwas zu unruhig, sprich könnte in Game XYZ an nem ollen 4k-60Hz-TV ohne Gsync schon stören, wo dann nur Regler links hilft; sah bei Turing ruhiger aus)
Zotac GeForce RTX 3080 Trinity Review | TechPowerUp