News ASRock WS-Serie: Die ersten AMD Radeon RX 7900 XT(X) mit 12V-2×6-Stecker

Donnidonis schrieb:
Das würde bedeuten er würde bei nahezu jedem (>99%) nicht richtig sitzen

Ja. Selbst wenn es nur deutlich weniger sind, gibt es trotzdem mindestens ein Problem mit der Qualitätssicherung in der Produktion oder in der Spezifikation.

Vergleich dass doch einfach mal mit den normalen 8Pin PCIe Steckern. Die sitzen so bombenfest, dass man da schon ordentlich dran ziehen muss, um den Stecker zu lösen.

Donnidonis schrieb:
und Probleme machen.

Davon war nie die Rede.
 
SavageSkull schrieb:
Der Stecker kam deutlich mehr als die 150W der alten 8Pin Stecker, aber eben keine 600W, wie man anfangs geglaubt hatte.
Wenn der Stecker/Header sauber produziert ist, was in 99,9 % der Fälle der Fall ist, kannst auch 900W drüber laufen lassen und es passiert nichts. Wie kommt ihr immer auf solche Behauptungen? Wer hat so etwas je nachgewiesen? Quelle?
Discovery_1 schrieb:
Wie aktuell das Ganze noch ist, weiß ich allerdings nicht.
Das war als es herauskam schon lange nicht mehr aktuell und beruht auf falschen Annahmen.

Fallout667 schrieb:
Selbst bei Stresstests ist das Kabel und der Stecker nicht warm geworden.
Ja.Die Dinger werden im Betrieb überhaupt nicht warm und der eigentliche Widerstand bzw. die Erwärmung durch den Stromfluss ist minimal ca 2 Grad Celsius . Wenn etwas warm wird dann das PCB. Die Kabel und der Stecker waren bisher noch in jedem Build kühl.

Abrexxes schrieb:
@NEO83 , frei nach dem Motto: " Hat es nicht geklickt, bist du bald gef..... 👍
Dann wären unsere Builds schon lange abgeraucht, denn es hat bei x Steckern kein klares Klick gegeben. Ist lediglich wieder eine Urban Legend von Igors Lab. Wenn ich mir zudem anschaue, wie viel "Klick" die alten 8 Pin Stecker gemacht haben und man quasi fast immer eine Sichtprüfung hat durchführen müssen, bzw. die reine Fehleranfälligkeit 3 Stecker richtig einstecken zu müssen statt einem, werden sich die Ausfallraten günstig entwickeln. Sprich es wird weniger Ausfälle geben als vorher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667
@computerbase...

Ihr bringt einen Artikel über eine Grafikkarte mit speziellem Anschluss und seid nicht in der Lage, eine Detailabbildung dieses Anschlusses in den Bericht zu integrieren? Stattdessen irgendwelche Marketingbilder der ganzen Karten?

Low...
 
Donnidonis schrieb:
Das würde bedeuten er würde bei nahezu jedem (>99%) nicht richtig sitzen und Probleme machen.
Der Punkt ist, dass du bei solchen Leistungen eine Verbindung brauchst, die idiotensicher funktioniert. Das ist nicht realisierbar, wenn du für jeden neuen Leistungsschritt mehr Kabel verlegst, weil jede Leitung nur 75/150W verträgt. Dann landet man am Ende bei 8/12/16 Pins, wo jeder einzelne eine Fehlerquelle darstellt, sei es durch unsachgemäße Verwendung oder durch Fehler bei der Herstellung. Dieses System gehört reformiert, damit man mit einem Stecker und zwei/drei Adern eine sichere Verbindung herstellen kann.

Das Netzteil regelt doch jetzt schon, wie viel Leistung bereitgestellt werden muss. Das muss der Anwender doch nicht über die Anzahl der Kabel "abzählen". Es ist absurd, dass du einen 6-Pin in 8-Pin stecken kannst und im schlimmsten Fall stürzt dir der Rechner ab, im allerschlimmsten wird das Kabel zu heiß. Wenn sowas passiert, dürfte die Kiste meiner Meinung nach nicht einmal anspringen.
 
major_tom111 schrieb:

Muss man jetzt in jedem Artikel alles von vorne wiederkauen, weil Nutzer nicht gewillt sind, mal selbst die Suche zu verwenden? Der Stecker ist seit vielen Monaten im Dauer-Gespräch. Wir sind hier nicht bei der Bild. Es ist ein Fachmagazin, da kann man durchaus erwarten, dass erstens eine gewisse Wissensbasis vorhanden ist und zweitens die Fähigkeit, selbstständig zu recherchieren, gegeben sein sollte.
 
Quidproquo77 schrieb:
Wenn der Stecker/Header sauber produziert ist, was in 99,9 % der Fälle der Fall ist, kannst auch 900W drüber laufen lassen und es passiert nichts. Wie kommt ihr immer auf solche Behauptungen? Wer hat so etwas je nachgewiesen? Quelle?
Quelle habe ich leider nicht, aber findest du irgendwo in den Untiefen der vielen Threads über den Stecker.
Klar ist, dass die PCI SIG den Stecker auf 600W spezifiziert hat und irgendwo hat mal jemand bei so einer Diskussion auch mal das Datenblatt von Molex für diese Steckerbaureihe gefunden gehabt. Der dort definierte Strom auf den 6 Pins (die anderen 6 Pins sind ja der Rückfluss) bei 12V Nennspannung hatte keine wirkliche Reserve oberhalb der angepeilten 600W.

Wobei ich dir allerdings recht gebe ist, dass das Problem wohl an unsauber gefertigten Stecker gelegen hat, die obwohl die Gehäuse des Steckers ineinander gerastet haben, keinen sauberen Kontakt hatten.
Auf der anderen Seite sind die Ausfälle eben vermehrt bei 4090 (OC Versionen) aufgetreten und nicht auf Karten, die die 450W bis 600W gar nicht ausgereizt haben.

Auch merkwürdig war schon die ganz Zeit das komische, dass die 3090(TI) Founders Edition nie Probleme gemacht hat und die hat ja den Prototyp des Steckers (ohne die Sense Pins)
Habe hier sowohl eine 3090FE als auch eine 4090FE im Betrieb. Dabei sowohl third party Winkelstecker, als auch Netzteilkabel und keine Bauchschmerzen, dass mir hier etwas abfackelt.
 
  • Gefällt mir
Reaktionen: MaverickM
SavageSkull schrieb:
Wobei ich dir allerdings recht gebe ist, dass das Problem wohl an unsauber gefertigten Stecker gelegen hat, die obwohl die Gehäuse des Steckers ineinander gerastet haben, keinen sauberen Kontakt hatten.

Joar, genau das habe ich ja auch geschrieben. Entweder ist die Spezifikation des Steckers zu lose (Also Fertigungstoleranzen zu groß bemessen) oder es wurde (entgegen der Spezifikation) bei der Produktion geschlampt.
 
eazen schrieb:
viele Angsthasen und Dinosaurier unterwegs hier, wer überfordert mit PC Tech ist sollte es vielleicht lassen. Ansonsten vielleicht lieber über Sachen reden die man selbst kennt und nicht nur über Hörensagen
Wow erst viel Inhaltsloses blabla gefolgt von Beleidigungen an x Leute lächerlich sowas
eazen schrieb:
Alle die hier über den Stecker herziehen haben 100%ig diesen Stecker nie genutzt. Aber gibt eben tausende von RTX 40 Usern hier die keine Probleme haben, vielleicht sollte CB mal eine Umfrage machen damit es auch mal die langsamsten merken.
Kannste gar nicht wissen sind nur lächerliche Mutmaßungen deinerseits inklusive erneut Beleidigung an x Leute Super haste fein gemacht kannst Stolz auf dich sein.

Ich hab den Stecker mehrfach verbaut und find ihn trotzdem scheisse leb damit.

Wahnsinn wirklich ist der zweite Beitrag den ich von dir lese der erste war nicht weniger überheblich und auf gleichen Niveau wie der jetzt, Glückwunsch es haben erst zwei Leute geschafft nach 1-2 Beiträgen auf meiner BL zu landen so wie du jetzt auch.

Topic:

Ich find es sinnfrei da wäre der Ansatz die komplette Stromversorgung über die Rückseite des MBs zu realisieren besser 🤷🏻‍♂️

Keiner kann sich dann mehr über den Stecker aufregen oder gegenüber anderen so aufführen wie oben und den Leuten denen das dann zu clean ist kann man ja eine Alternative bieten 🤷🏻‍♂️
 
SavageSkull schrieb:
Der dort definierte Strom auf den 6 Pins (die anderen 6 Pins sind ja der Rückfluss) bei 12V Nennspannung hatte keine wirkliche Reserve oberhalb der angepeilten 600W.
Die Reserve des neuen Anschlusses ist 10%, beim alten 8 Pin ist es 100% (der 8 Pin hält 300 W aus). Somit hält der 16 Pin locker 600W aus, sofern man in der Lage ist einen Stecker reinzustecken. Gibt mehr als genug Leute die 4090 OC betreiben mit über 450W. Das gleiche gilt für die 3090 Ti die sowieso mehr Strom verbraucht.
SavageSkull schrieb:
Auch merkwürdig war schon die ganz Zeit das komische, dass die 3090(TI) Founders Edition nie Probleme gemacht hat und die hat ja den Prototyp des Steckers (ohne die Sense Pins)
Ne, die 3090 Vanilla hat den Nvidia-Only 12 Pin "Prototyp"-Stecker. Die 3090 Ti war die erste Karte mit dem genormten 16 Pin Stecker. "Nie Probleme" kann dann nur daran liegen das a) weit weniger 3090 Tis verkauft wurden als RTX 40 Series, und b) gab es da sicher auch Probleme, nur eben weit weniger häufig, kann gut sein das eben 3090 Ti Besitzer im Durchschnitt viel behutsamer vorgehen und somit weniger passiert ist, und das obwohl die 3090 Ti mehr verbraucht als die 4090.

Munkman schrieb:
Kannste gar nicht wissen sind nur lächerliche Mutmaßungen deinerseits inklusive erneut Beleidigung an x Leute Super haste fein gemacht kannst Stolz auf dich sein.
Nicht wirklich, du bist nur Sauer und getriggert weil ich recht habe, habe wohl einen wunden Punkt getroffen bei dir. Der 16-Pin Stecker ist nichts besonderes und macht 0 Probleme bei normaler Handhabung.
Munkman schrieb:
Glückwunsch es haben erst zwei Leute geschafft nach 1-2 Beiträgen auf meiner BL zu landen so wie du jetzt auch.
Macht nichts, muss ich mich wenigstens mit deinen sinnlosen Beiträgen nicht mehr auseinandersetzen, tschüss.
Munkman schrieb:
Ich hab den Stecker mehrfach verbaut und find ihn trotzdem scheisse leb damit.
Ohne Grund etwas "scheisse" zu finden ist halt total irrational. :) Es ist nur ein harmloser Kabel, dieses Drama ist weiterhin urkomisch.
 
eazen schrieb:
Ne, die 3090 Vanilla hat den Nvidia-Only 12 Pin "Prototyp"-Stecker. Die 3090 Ti war die erste Karte mit dem genormten 16 Pin Stecker. "Nie Probleme" kann dann nur daran liegen das a) weit weniger 3090 Tis verkauft wurden als RTX 40 Series, und b) gab es da sicher auch Probleme, nur eben weit weniger häufig, kann gut sein das eben 3090 Ti Besitzer im Durchschnitt viel behutsamer vorgehen und somit weniger passiert ist, und das obwohl die 3090 Ti mehr verbraucht als die 4090.
Es war nachweislich das Problem, dass die Pins nicht richtig im Steckergehäuse saßen und trotz das das Steckergehäuse vom Nutzer richtig eingerastet war, die Pins nicht sauber kontaktiert hatten.

Nicht nur die 3090Ti hatte den Prototyp, sondern alle Founders Edition, mindestens bis zur 3080/3070.
Dort gab es die Probleme definitiv nicht, das es Fertigungsfehler am Stecker gab. Das hätte damals schon eine Welle gemacht.
 
eazen schrieb:
Somit hält der 16 Pin locker 600W aus, sofern man in der Lage ist einen Stecker reinzustecken.
Das Problem ist der Stecker an sich, falls das noch nicht angekommen ist. Wenn man 16 Pins braucht, um 600W zu transportieren, erzeugt das 16 potentielle Fehlerquellen. Die Berichte der betroffenen Nutzer weisen doch genau darauf hin.

Und dann ist das Verfahren an sich eben auch infrage zu stellen. 8 Pins für 300W sind schon Wahnsinn. Niemand käme auf die Idee, für einen PC vier Schuko-Stecker einstecken zu müssen. Anstatt aber die Betriebsspannung/-strom und den Leitungsquerschnitt anzupassen, ist man bei PCI den Weg gegangen und hat einfach mehr DC-Leitungen nebeneinander gelegt. Irgendwann ist dann der Punkt erreicht, wo noch so kleine Fehlerwahrscheinlichkeiten sich potenzieren.
 
SavageSkull schrieb:
Es war nachweislich das Problem, dass die Pins nicht richtig im Steckergehäuse saßen und trotz das das Steckergehäuse vom Nutzer richtig eingerastet war, die Pins nicht sauber kontaktiert hatten.
Das wurde eben letztes Jahr mit Rev 2 gefixt. Alter Hut, womit diese Diskussion einfach nur unnötig geworden ist. Wer jetzt noch Mist baut mit dem Stecker ist noch mehr selbst daran schuld als vorher.

Rev 1: wenn der Kabel zu stark gebogen wurde war der Kontakt schlecht und die Kabel sind zu heiß geworden, da manche Pins den Kontakt verloren und somit mehr Strom über weniger Pins lief.

Rev 2: durch Kürzung der Pins, bei falscher Handhabung des Kabels ist nun der Kontakt weg und die Grafikkarte funktioniert nicht mehr, somit kann der Kabel nicht mehr überhitzen.

Nein, der Kabel hat nie Probleme gemacht wenn man den Stecker vollständig reinsteckte und den Kabel dank vorhandenen Menschenverstand nicht zu stark bog.

Im Endeffekt kann man sagen war Rev 1 ein Idiotentest. Rev 2 ist sicher, wer jetzt noch über den Kabel meckert, versteht nicht wovon er redet und will einfach nur meckern. Und dann gibt es immer die Leute die keinen Fortschritt wollen, immer soll alles beim „Alten“ bleiben.
 
eazen schrieb:
Rev 1: wenn der Kabel zu stark gebogen wurde war der Kontakt schlecht und die Kabel sind zu heiß geworden, da manche Pins den Kontakt verloren und somit mehr Strom über weniger Pins lief.

[...]

Nein, der Kabel hat nie Probleme gemacht wenn man den Stecker vollständig reinsteckte und den Kabel dank vorhandenen Menschenverstand nicht zu stark bog.
Fun Fact zu den Biegeradien:
bei den ollen 6/8 Pin Adaptern haben wir gelernt, dass man das Zeug treten, ersäufen, verbuddeln, in die Sonne werfen und vor allem auch biegen kann wie und wo man lustig ist... und das danach alles wie gewohnt funktioniert.
Den 12VHPWR Adaptern, in den verschiedenen Revisionen lag keinerlei Info zum Thema Biegeradius bei (keine Ahnung ob das mittlerweile bei den 12V-2x6 auch noch so ist, oder ob vielleicht zumindest ein paar vereinzelte Hersteller eine Info beilegen). Weder den Adaptern die den ATX 3.0 Netzteilen beilagen, noch jenen bei den GPU, inkl. den Nvidia RTX 4090FE -> schweigen im Walde!
Entsprechend haben selbst die Profis (Menschen, die mit dem Zusammenbau der Hardware ihr Geld verdienen) nie zusammen mit den Adaptern die Info erhalten, wie sie zu behandeln sind, worauf beim Einbau zu achten ist.
 
@catch 22
Selbst wenn es das gegeben hätte, ist das noch immer ein Armutszeugnis. Es gibt allgemein bekannte Regeln, wie man mit Kabeln umgeht (Nicht zu stark knicken, nicht am Kabel, sondern am Stecker ziehen etc.) und alles andere sollte ein Kabel immer mitmachen, vor allem wenn es ein popeliges Kupferkabel ist. Bei so einem Kabel bzw. dem Stecker sollte immer genügend Spielraum für "Wear and Tear" mit einberechnet sein. Alles andere ist einfach nur grober Unfug in der Konstruktion.

Man Stelle sich nur einmal vor, man kauft ein Fertigsystemmit so einem Stecker und auf dem Lieferweg wurde der Stecker bzw. Kabel zu stark gebogen. Für den Laien nicht ersichtlich, denn der Rechner läuft ja. Dass da potentiell eine tickende Zeitbombe in seinem Rechner schlummert, weiß er ja nicht.

Wie man es dreht und wendet, der Stecker ist eine Fehlkonstruktion.
 
  • Gefällt mir
Reaktionen: Boimler und catch 22
Zurück
Oben