- Registriert
- Okt. 2023
- Beiträge
- 2.159
Du hast behauptet der Stecker wäre weit weg vom Sweetspot, das ergibt hinsichtlich der Stromaufnahme keinen Sinn, da der "Sweetspot" aus Strombedarf und Produktionskosten schon lange nicht mehr im Bereich von 250W liegt, schon gar nicht im Profi Umfeld und zweitens auch bei 250W 2x 8Pin benötigt werden, die mehr kosten als ein 12V2x6 und damit auch kein "sweetspot" sind.Nighteye schrieb:Willst du mich absichtlich Falsch verstehen ? Ich habe Extra die Watt aufgelistet.
Im Grunde genommen ist der Stecker elektrotechnisch nichts anderes als 2x8Pin die optisch und mechanisch etwas anders funktionieren. Kleiner, genauere Abmessungen, höhere Qualität.
Nach der Spezifikation der Kabel kannst du über 2x8Pin auch 600W sorgenfrei übertragen, da hast du auch nicht mehr Pins.
6 bei dem 12V2x6 und 6 bei dem alten Standard. Wo Problem? Nur in den Köpfen einiger, hervorgerufen durch Qualitätsmängel, die nun eben mal vorkommen können.
Ihr kauft ja nach wie vor Grafikkarten, die Fehlerquoten bis zu 10% haben, kauft aber GPUs nicht mit einem Stecker, der eine Promille-Fehlerquote besaß, die es gar nicht mehr gibt. Logik quo vadis?
Tun sie nicht. Es wäre viel aufwändiger eine GPU zu produzieren, die ein noch größeres Die hätte.Nighteye schrieb:Ich wollte damit sagen. Die Grafikkarten Verbrauchen zu viel.
Da ist es ökonomisch viel besser den Chip auch auszureizen.
Du ignorierst halt die Effizienz komplett, die bei deiner Berechnung die Hauptrolle spielen sollte.Nighteye schrieb:Daher schrieb ich wenig Innovativ. Quasi Prinzip Brechstange.
Und das gilt auch für den neuen Steckerstandard. Du übernimmst völlig undifferenziert irgendwelche Narrative, die keinen Sinn ergeben.
Ich muss die beiden Stecker aber oft erst zusammenstecken, dass sie ordentlich halten und dann reinpfriemeln.floTTes schrieb:Ich alter Fingerkünstler stecke die 6+2 immer zusammen rein.
Wenn ein Mitarbeiter bei uns einen PC zusammenbaut, dann benötigt er bei 3x 8Pin effektiv die dreifache Zeit, als mit ner ordentlichen Lösung.
Letztendlich ungefähr so, wie wenn man sich gegen modulare Netzteile wehrt.
Da gibt es nur überhaupt keinen Grund dafür, auch wenn dir x Hater etwas anderes erzählen.Discovery_1 schrieb:Der beschissene Stromanschluss bei den Nvidia-Karten ist einer der Gründe, weswegen ich schon seit längeren mit dem Grafikkarten-Upgrade zögere.
Ich sträube mich wirklich hart gegen solche Zuschreibungen, aber ich kanns mir auch nicht mehr verkneifen und stimme dir zu 100% zu. Was ein Zirkus.ElliotAlderson schrieb:Das Thema wird immer nur von Nvidiahatern bzw. AMD Fanboys hochgekocht.
Die Problematik ist jetzt schon seit 1,5 Jahren totanalysiert und behoben und noch immer kommen sie aus den Löchern gekrochen.
Kommt auf die Definition und Berechnung an. Messungen haben gezeigt, dass der Stecker auch deutlich mehr als 600W verträgt, insofern kann ich dir hier nicht zustimmen.floTTes schrieb:Der Sicherheitsfaktor ist schon übelst klein.
Der Sicherheitsfaktor hängt maßgeblich von der Qualität eines solchen Steckers ab.
Gamers Nexus hat extra 6 Litzen von 8 entnommen um einen Extremfall zu simulieren.
Die Probleme liegen nicht am prinzipiellen Steckerdesign, sondern ganz woanders, das weiß man seit 1,5 Jahren.
Zuletzt bearbeitet: