Warum liefert der 8 Polige PCI-E Stecker mehr Strom als der 6 Polige ?

@cruse: Meinst du die beiden Ausführungen des 8 Pin Steckers? Der 8 Pin Stecker bei den CPUs (4x 12V+ 4x Masse) war früher nur bei Dualsockel und Serversystem in Verwendung. Wurde aber mit Einführung von Dual und Quadcore Systemen zwecks Systemstabilität auch im Consumer Bereich eingeführt. In den meisten Motherboard Anleitungen steht sogar heute noch, dass man nur den 4 Pin anschließen muss und der 8 Pin optional ist. Da aber die meisten aktuellen NT sowieso schon den 8 Pin CPU haben wird dieser auch verwendet.

Die zweite Variante ist die hier diskutierte GPU Lösung hat 3x 12V + 5x Masse

Ist auf dem Bild aber auch gut zu erkennen was genau gemeint ist. Wenn du den CPU 8 Pin gewaltsam in den GPU Anschluss drückst und umgekehrt, wird dies unweigerlich zur Zerstörung der Hardware führen.
 
Den Unterschied zwischen den Steckern lässt sich also auf Poka Yoke zurückführen.
 
cruse schrieb:
Aber interessant zu wissen das auch ein 6pol Kabel in allen fällen ausreicht(falls mal kein 8pol zur hand).

Anhang anzeigen 499554

Nach dem Bild sieht es aber so aus, daß der 6er 2 Adernpaare nutzt und der 8er 3 Adernpaare.

Warum bei 50% mehr Leitungen 100% mehr Leistung zulässig sind, ist natürlich die nächste Frage. Womöglich gibt es da Vorschriften bzgl. der Kabel.
Ob die Kabel heiß werden ist der GPU sicherlich egal. Eher ob es zu einem Spannungsabfall kommt. Kann mir also vorstellen, daß bei 8poligem Anschluß engere Toleranzen gelten, die der NT-Hersteller mit Elektronik und eben auch dickeren Kabeln erfüllen muß.
 
Bei der Spezifikation ist man immer vom schlechtesten möglichen Fall ausgegangen, also Schrott wie z.B. AWG20 oder schlechter, der seinerzeit eher die Regel als die Ausnahme war. Es ist wirklich bedauerlich, dass es dafür eben keine Regelung bzw. Empfehlung gibt.

Eigene, interne Labortests mit 8-pin und 6-pin Steckern und einem Grafikkarten-Dummy haben bei mir aber ergeben, dass bis zu 400 Watt (nur bei echter ohmscher Last und Gleichstrom) pro 6- oder 8-pin bei durchgängiger Beschaltung durchaus machbar sind, weil selbst ein längeres AWG18-Kabel eher warm wird, als diese Steckverbinder, solange sie nicht oxidiert sind.

Bei echten, dynamischen Lasten, wie sie Grafikkarten erzeugen, liegen wir bereits bei ca. 120 KHz und darüber und es ist eben kein wirklicher Gleichstrom mehr. Dann werden vor allem Steckverbindungen schneller heiß, wobei auch hier noch 300 Watt pro Stecker machbar wären, weil selbst dann noch die Platinen der Grafikkarten die Pins der Buchsen eher aufheizen. Immer vorausgesetzt, Stecker und Buchse sind nicht verkeimt. :)

Man geht also bei diesen Vorgaben keinerlei Risiko ein, solange man nicht gerade einen 8-pin mittels Adapter an einen spillerigen und 1m-langen Molex-Anschluss bammelt. :D
 
Ich habe meiner Titan X im VGA-BIOS insgesamt 450 W zugewiesen. Davon kommen 75 W über den PCIE - SLOT des Boards und den Rest teilen sich der 6- und 8-PIN-Anschluss über die PCIe-Schienen des NTs. Bisher ist das NT nur einmal ausgestiegen.
 
Was Du Dir als Power Target reinhackst, ist eher marginal. Ich habs bei einer TitanX getestet - egal, was man im BIOS auch hinterlegt, bei ca. 320 Watt (mit Oszi direkt an der Karte gemessen) ist Ende. Nvidia hat noch andere Bremsen eingebaut und wenn man die Telemetrie nicht komplett aushebelt, kommt eh einer der Limiter. Das Power Target ist nur ein Teil der Geschichte ;)

Bei der TitanX gehen keine 50 Watt über den PEG und Aux geht gegen Null. Liegt an der so konzipierten Spannungsversorgung auf Nvidias Referenzdesign, das auf der Quadro M6000 basiert. Bei echten 450 Watt würden Dir die VRM um die Ohren fliegen. :)
 
Zuletzt bearbeitet:
Hmm, jedenfalls zeigt mir das Strommessgerät bis zu 600 W unter Last an. Wenn ich ca. 200 W allein für CPU und den Rest außer der Grafka ansehe, bleiben noch ca. 400 W -nach meiner Schätzung- für die Grafka übrig. Das OSD des Rivatuners zeigt mir bei entsprechender Belastung der Grafka ca. 88 % an. Dann käme das auch ungefähr hin mit den 400 W.
Vielleicht irre ich mich auch...
 
Du bedenkst bei deiner Rechnung nicht das das Netzteil nur eine Effizienz von 85 bis 90% hat. Bei deinen 600Watt Lastverbrauch gemessen an der Steckdose gehen schon 60 bis 90 Watt an Leistung durch die Spannungswandlung im Netzteil verloren. Das heißt beim System selber kommen nur etwa 510 bis 540 Watt an Leistung an. Jetzt hast du deine CPU ziemlich stark übertaktet womit ich mal ca. 180 Watt für die CPU einplane. Dann noch die restlichen Komponenten. Eine WaKü hast du auch noch, da wird die Pumpe auch am Netzteil hängen, schätze ich mal. Dann kommt man schon auf ca. 200 bis 220 Watt Verbrauch ohne GPU. Ergo sollte das mit den 320 Watt max. Leistungsaufnahme der TitanX schon hinkommen.
 
Zuletzt bearbeitet:
Okay. Das will ich akzeptieren. Ich hatte mich schon gefragt, wie 450 W -soweit sie in der Grafka ankommen - gekühlt werden können.
Sogar die Kabel des PCIE-ANSCHLUSSES hatte ich mit einem Thermo-Scanner gemessen und über 40 ° C abgelesen. Letzteres veranlasste mich zur Frage, ob nicht andere (gesleevte Kabel) geeigneter seien.
 
ok da hier einige frölich sicherheits relevante und nicht sicherheits relevante Spezifikationen durch den Raum werfen, versuch ich hier mal eine erklärung.

Elektrotechnsich gesehen ist der 8pin stecker nicht besser als der 6pin stecker.
Meine vermutung für die "neue" 3 + und 5 MAsse anschlüße ist einfach die kompatibilität. Somit konnte bereits Hardwaremäßig die Überlastung ausgeschlossen werden. Denn NTs mit 6oin konnten somit nur mit 75(?)W belastet werden, da ein gerät dass 150W leistugn benötigt nicht startet.

Sicherheitstechnisch betrachtet ist der zugewinn durch zusätzliche masse-leitungen vernachlässigbar bis nicht existent. Wenn etwas durchbrennt, dann wären dass die +Leitungen . Denn diese müssen mehr Strom ab als die rückleitungen. Und der max Strom ist wieder von Normen (damit Verbindlich) geregelt.
 
Unabhängig von Deiner mangelhaften Rechtschreibung finde ich eine Erläuterung, die sich auf Vermutungen stützen will, nicht gerade überzeugend. Es wäre besser, wenn Du die "elektrotechnische" und die "sicherheitstechnische" Frage getrennt von einander darstellst und dann daraus etwas folgerst.
 
Jetzt hol ich mir hier Popcorn. HeinzNeu.
Willst du ernsthaft mit einem Tomshardware Redakteur und ausgewiesenen Fachmann diskutieren? Ich glaube es gibt in deutschen IT webseiten oder newsblogs keinen der mehr von Messtechnik bei Grafikkarten versteht als Format C. Wobei THG ja international ist. Seinen Ausführungen als Ingenieur vertraue ich mehr als alles was ich hier sonst so lesen darf. Er hat es getestet, er hat den wissenschaftlichen background und das equipment es zu testen. Glaub ihm einfach. Und eine träge Steckdosenmessung ist wahrlich ungeeignet und die Leistungsaufnahme einer Grafikkarte aufzuzeigen.
 
Zuletzt bearbeitet:
Ich möchte den Urschleim nicht noch einmal komplett wiederkäuen, wie Boost 2.0 bei Nvidia funktioniert - so etwas steht in jedem besseren Launchartikel. Deshalb mal etwas vereinfacht das Ganze in Kurzform:

Das Power Target ist nur eines der vielen Limits, mit dessen Hilfe die Telemetrie die Maxwell-GPU vor dem Exitus schützt. Nvidia Rules, so etwas gibt es wirklich, sind da knallhart, so dass auch Firmen wie EVGA nicht einfach sinnlos die Spannungsvorgabewerte (VDDC) anheben können, um mehr Leistung bieten zu können. Das heißt am Ende, dass irgend etwas anderes limitiert und sei es der aktuelle Stromfluss. Der Arbitrator wertet in Sekundenbruchteilen die Daten des VR-Chips aus, kontrolliert den Stromfluss (Überlast) und kalkuliert anhand der sogenannten Power-Estimation-Engine, was als nächstes an Aufgaben anliegen könnte und wie viel elektrische Leistung dafür benötigt wird, was wiederum natürlich die Spannung beeinflusst. Die Kunst ist nun, Spannung, Strom und Temperaturen im Limit zu bewegen. Dazu kommen dann noch Dinge wie eben die Temperatursensoren und die PWM-Steuerung. Da die Spannung limitiert ist, kann man am Ende mit dem Power Target nur den Maximalstrom erhöhen. Das wiederum geht ja nicht endlos, da dem bereits physikalische Grenzen gesetzt sind.

Die TitanX hat ein PT von 250 Watt. Selbst mit einem unlocked-BIOS kommt man nicht auf solch hohe Werte (die nur mit deutlich höheren Spannungen zu erreichen wären), weil die dann fließenden Ströme bzw. die Verlustleitung ohne LN2 einfach nicht in den Griff zu bekommen sind. Unter Wasser halte ich 320 Watt für maximal realistisch, meinetwegen noch 350 Watt. Dann wird es echt nur noch Schaulaufen auf dem Friedhof.

Ich habe hier eine handselektierte Gigabyte GTX 980 Ti Gaming G1, deren PT man auch ohne BIOS-Hack auf 400 Watt setzen kann. Selbst bei 1.7 GHz schaffe ich keine 350 Watt Leistungsaufnahme, trotz angehobener VDDC. Mehr geht mit der Karte einfach nicht, dann wird es sofort instabil.

Edit:
Noch mal etwas versimplifiziert :)
 
Zuletzt bearbeitet:
Nur zum Verständnis und zum Popcorn. Mein vorheriger Beitrag bezog sich auf den von M1ch1 und nicht auf den von FormatC
 
Das habe auch ich verstanden. :)

Ich wollte nur noch einmal erklären, warum das Power Target allgemein beim Übertakten überschätzt wird. Im umgekehrten Fall ist es jedoch extrem hilfreich, um eine GPU sparsamer zu machen. Ich habe damit bei einer GTX 960 fast 25% Leistungsaufnahme eingespart - bei läppischen 7% weniger Gaming-Performance. DAS ist der wahre Mehrwert solcher Spielereien ;)
 
Das Thema ist zwar abgedriftet (wie so oft), aber danke für die Lehrstunde @Format C. Jetzt passen nur die Smileys nicht zum Profilbild :P
 
Ja, so ungefähr. Und es ist gerade dabei, sich noch weiter anzunähern ;)

@firexs
Mein Profilbild ist Abschreckung. Da flüchten sogar die Zeugen des Sofas aus unserem Treppenhaus, wenn ich den Avatarblick aktiviere.
 
Mit dem neuen Hotfix 353.38 hat NVidia ein paar Fesseln gelöst. Ich bekomme nun 1,243 V auf die GPU. Damit sind 1.501 MHz bislang stabil. Die Temps. der GPU beträgt 45° C, die der SpaWas 67° C. Mehr Spannung wollte ich ohnehin nicht geben. Das im VGA-BIOS veränderte PT hat sich ebenfalls um ca. 10 % nach oben geschoben.
Ich denke, die X kann das zwei Jahre lang aushalten.
 
Sorry fürs wieder aufwärmen, aber ich habe da noch eine andere Verständnisfrage:

Um es ins Jahr 2018 zu heben--- Eine GTX 1080 hat 180 Watt Leistungsaufnahme (TDP). Nun wird an der Graka 1x 6pin und 1x 8 Pin angelegt. (z.b. Gainward Phoenix GS)

Die Frage nun - wozu? Wenn der PEG Slot 75 Watt liefert und der 8 Pin weitere 150 Watt. Sind wir da schon lange mit bedient. Würde die Graka nun auch mit einem einzelnen 8 Pin laufen? Zumal andere 1080er z.B. Gigabyte G1 Gaming mit höherem Boost auch nur mit einem 8 Pin auskommen.
 
Zuletzt bearbeitet:
Zurück
Oben