News ASRock Taichi: „Nvidias“ 12V-2×6-Anschluss auf einer Radeon RX 9070 (XT)

Hab ich jetzt kein Problem damit.
Der Stecker ist gut und bequem und erfüllt seinen Zweck.
Und seitdem er auch noch idiotensicherer gemacht worden ist, kann sich ohnehin eigentlich keiner mehr beschweren...
 
  • Gefällt mir
Reaktionen: Pisaro
Painkiller72 schrieb:
Ich denke auch, das diese Karte dann eher für Enthusiasten Overclocker bestimmt ist. Daher ist wohl dieser Connector die einzigste Option.

Die Positionierung dieses 12V-2×6 Steckers wird mir aber immer ein Dorn im Auge sein. Warum ausgerechnet mittig bei den meisten Karten ?

Wäre doch viel sinnvoller und von der Optik besser gestaltbar, wenn man diesen rechtseitig am Ende der Karten velegen würde mit einer Abwinkelung um 90 Grad. Ware auch vom Kabelmanagement leichter handlebar oder nicht ?
Weil die Länge des Gehäuseraums (GPU-Länge) meist wesentlich mehr limitiert als die Gehäusetiefe (zwischen Mainboard und Gehäusewand).
Das würde Projekte die eine High-End-Karte in einem maximal kleinen Case vorsehen ziemlich schnell zunichte machen. Meine MSI RTX 4090 Suprim Liquid hätte mit diesem Stecker am Ende der Karte z.B. NICHT in mein NZXT H200 gepasst weil der Radi der Karte circa 2 mm Platz zum Arsch der GPU hat.
 
  • Gefällt mir
Reaktionen: Painkiller72
Ab der 4070 Super wird der 16 Pin verbaut. Das heißt, 8-Pin wird es bei NVIDIA auch noch weiterhin voll geben.
Darklordx schrieb:
Ich bin natürlich nicht 100% sicher, dass es keine Grafikkarte gab, wo die 8-Pin nach hinten statt nach oben geführt waren. Mir fällt nur gerade keine ein. 😅 Falls jemand in die Bresche springen kann, die meine Erinnerung geschlagen hat... 😁👴
NVIDIA RTX 2060 FE
 
  • Gefällt mir
Reaktionen: prayhe, FR3DI, Shoryuken94 und eine weitere Person
Sun_set_1 schrieb:
Komplett vernünftig. Ich schließe meine nVME auch weiterhin mit nem IDE Kabel an da mir mittlerweile die RS232 Adapter ausgehen.
Aber jetzt reite ich erstmal mit dem Pferd zur Arbeit.
:evillol: . Würde bestimmt ganz witzig aussehen. Eine nvme SSD mit einem Adapter an so einer Flachband-Klatsche :D
 
  • Gefällt mir
Reaktionen: Holgmann75, prayhe, FR3DI und eine weitere Person
hust Machtmarktmissbrauch hust

Aber ganz nüchtern betrachtet, so etwas ergibt für mich wirklich nur dann Sinn, wenn alle an diesen Strang ziehen.

Ist genauso etwas wie die in meinen Augen zerocable Boards, oder wie die sich alle nennen mögen, aber ohne Standardisierung halt leider auch eine Einbahnstraße, wenn man sich da einkauft.
 
  • Gefällt mir
Reaktionen: FR3DI und Darklordx
acty schrieb:
Ich frage mich gerade, wie die Karte in der Hand leuchten kann? :watt:
Vorzeigemodell halt, ansonsten RGB Stecker vom Board ziehen und extern anstöpseln.
Vielleicht auch eine Stalker Anomalie Edition :D

Zum Thema einheitliche Stecker kann man nur begrüßen, wundert mich auch nicht das es von Asrock als erstes kommt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FR3DI
Über kurz oder lang wird man sich bei den höherklassigen Grafikkarten auf den "neuen" Stecker einstellen können, auch bei AMD.

Der 12v2x6 ist jetzt zum einen PCI-SIG- bzw. ATX-Spec, zum anderen werden die Leute sicherlich irgendwann bei steigenden (leider) Verbräuchen keine Lust mehr haben mehr und mehr Stecker zu stöpseln, die letztendlich auch immer potentielle Fehlerpunkte sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: prayhe
AMD hat den Spezifikationen des Steckers als Mitglied der Entscheider ja auch zugestimmt. Auf Kurz oder lang wird er sich durchsetzen.

Außerhalb von ein paar Foren wird es den Leuten auch völlig egal sein, welches Kabel sie in Ihre Grafikkarte packen. Ist wieder eins dieser probleme, dass größer gemacht wird, als es ist.
 
  • Gefällt mir
Reaktionen: Holgmann75, prayhe, Pro_Bro und eine weitere Person
Der Stecker ist super. Viel weniger Kabelsalat (vor allem mit Adapter). Seitdem ich ein natives ATX 3.1 Netzteil habe, ist es einfach nur deutlich komfortabler. Außerdem können die Dinger ja auch beim "Monitoring" mehr.

Es ist in Kombination mit dem neuen ATX Standard sicherer und hält mehr aus.

Mit meinem ATX 2.51 Netzteil + Adapter hatte ich allerdings auch keine Probleme.
 
  • Gefällt mir
Reaktionen: Holgmann75 und Pisaro
Viel erschreckender als die Stecker-Wahl finde ich, dass man der 9070 XT wohl 'ne Menge Power gönnen will - bei einem (Raster-)Leistungsniveau einer 7900 XT? Find'ch ja nicht so dolle. :freak:

Bei vorsichtigen 30W über den PCIe-Slot und 2x8-Pin sind 330W drin. Das soll nicht genug sein für eine 9070 XT? Bah!
 
  • Gefällt mir
Reaktionen: FR3DI, Casillas und TheHille
Es kamen halt einfach mehrere Faktoren zusammen, die einen eigentlich guten Stecker in Verruf gebracht haben. Nur eine davon ist allerdings wirklich auf den Stecker zurück zu führen:


1. Sense Pins (Schuld: Stecker, mittlerweile gefixxt)
Die Sense Pins haben in der ersten Revision insofern nicht funktioniert, als das sie bei schlechter / unzureichender Steckerposition trotzdem (im wahrsten Sinne des Wortes) grünes Licht gegeben haben.

Dies wurde in einer neuen Revision behoben und ist mittlerweile auch am Markt breitflächig angekommen.
(Die Pins wurden verändert und geben in 99% der Fälle einer schlechten Postionierung nun ein rotes Licht, boot wird verweigert)

2. Positionierung (Schuld: Nvidia, schlechtes Design)

Durch Positionierung von Stecker und Kabel durch das Graka Design, wurde das Problem aus 1. noch verschlimmert bzw. regelrecht provoziert.

3. Schlechte Kabel aus China (Partner wurden nach Zertifizierung nicht mehr validiert)

Anscheinend haben mehrere Zulieferer nach Zertifizierung ihrer 12HPV Kabel etwas am Design geändert, Widerstände verschoben / erzeugt etc. ohne danach ein erneutes Zertifizierungsverfahren zu durchlaufen. Schlechte Kabel haben insofern das Kombi-Problem aus 1) und 2) noch verschlimmert.

4. NVIDIA und die Stromangaben (450W aber kurze Spikes zT über 600W)

Die Kabelpartner haben NV's Aussage "450W" nen bisl zu ernst genommen und zu wenig Puffer gelassen. Durch die schlechteren Kabel aus Problem 3. wird hier natürlich ein potenziell noch größeres Problem.

Das wären die vier Hauptgründe. Aber nur eines davon (1), ist eigentlich wirklich dem Stecker anzulasten
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: feris, blackiwid und FR3DI
SavageSkull schrieb:
Hatte im Gegensatz zu den 4000ern den Charme, dass der 45° nach hinten gezeigt hatte.
Das hatte nicht nur Charme, sondern auch den Vorteil, dass man das Kabel nicht um 90 Grad biegen musste, sondern in einem flachen Bogen nach hinten weg legen konnte.
 
FR3DI schrieb:
Mir kommt nichts außer der klassische 8-Pin ins Haus.
Ich glaube es ist in ganz Deutschlands Foren nur eine einzige RTX 4080 mit dem Anschluss und der Stromaufnahme medienwirksam abgeraucht. Nehmen wir mal an AMD´s Karte zieht 300W, dann ist die Wahrscheinlichkeit vermutlich 1:1 000 000.
MoD23 schrieb:
Rein optisch bin ich aber mit 2x8Pin PCIe auch zufrieden. 3x hatte ich auch schon. Gut das sieht dann schon ein bisschen fett aus, aber kann man auch vernünftig gestalten. 🤷
Elektrisch eigentlich der gleiche warum man von IDE auf ein Sata Kabel gewechselt ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pisaro
Crifty schrieb:
Ich frage mich außerdem seit wann Mittelklasse Grafikkarten so groß und so hoch wie Backsteine geworden sind?
mMn bist du der erste, der es auf den Punkt bringt. Bezüglich dGPU/ Mittelklasse. Und weshalb es davon solch Backsteine geben muss, erschließt sich mir auch nicht.

Obwohl zugleich laut TPU die Karte der High-End Klasse einzureihen sein wird. Wie z.B.: 4060 Ti und oder RX 7700 XT.

Ja, wie jetzt High-End? Tut mir leid für so manche hier, die da jetzt den Kopf schütteln. Jedoch ist High-End nicht erst seid gestern, nicht die Spitze des Eisberges.

mMn wäre diese Art und weise bei der Enthusiasten Klasse angebracht. z.B.: hier in Form einer RTX 4090 und oder RX 7900 XTX.
Darklordx schrieb:
Mir fällt nur gerade keine ein.
Hier bitte!
Eine schöne schicke BLOWER dGPU (bin ein Fan davon!). Ja. Karten denen man es von hinten besorgt, sind wohl sehr rar geworden. Bei NVIDIA habe ich zumindest für die RTX 4090 nix passendes gefunden.

Früher war es jedoch tatsächlich etwas vielfältiger.

Gruß Fred.
 
floTTes schrieb:
Viel erschreckender als die Stecker-Wahl finde ich, dass man der 9070 XT wohl 'ne Menge Power gönnen will - bei einem (Raster-)Leistungsniveau einer 7900 XT? Find'ch ja nicht so dolle. :freak:

Bei vorsichtigen 30W über den PCIe-Slot und 2x8-Pin sind 330W drin. Das soll nicht genug sein für eine 9070 XT? Bah!
JA wird man sehn, was bei rum kommt. die 3x8 Pin auf den Asus Customs haben mich auch etwas erscheckt.
 
  • Gefällt mir
Reaktionen: floTTes
  • Gefällt mir
Reaktionen: FR3DI
Darklordx schrieb:
Im Grunde brauchen wir einen einheitlichen Standard für 12V-2×6, bei dem die Kabel zwingend nicht oben sondern hinten raus angeschlossen werden.

Da lobe ich meine Gigabyte Windforce RTX 4080 Super, die den Anschluss nach hinten führt.

Macht die Windforce RTX 4090 v2 ebenfalls.
 
  • Gefällt mir
Reaktionen: Darklordx
Interessant, dass der Anschluss nun merklich weiter innen liegt, dass könnte ein paar , potentielle "Inkompatibilitäten" zuvor kommen .

Zum Stecker an sich:
Ich bin nicht begeistert von dem 12+4 Pin Design und verstehe, vorallem bisher noch nicht, warum man den älteren Standard, dieser deutlich belastbarer (Strom und mechanisch) ist, nicht weiter nutzt.
Alleine der Litzen Querschnitt, sowie die Steckpfosten Stärke sind potentiell eher anfällig, für etwaige Beschädigungen und Steck-Zyklen Reduktive.

Ich habe bisher noch nicht umfassend genug dazu recherchiert.
Weiß jemand mehr, warum man soch, für den 12VHPWR entschieden hat, bzw entscheiden sollte?
 
  • Gefällt mir
Reaktionen: JarlBallin und FR3DI
Meine Fresse ist das ein Klopper. :o

acty schrieb:
Ich frage mich gerade, wie die Karte in der Hand leuchten kann?
Ist doch offensichtlich, der Fotograf war Max Dillon... :P
 
  • Gefällt mir
Reaktionen: acty und FR3DI
Zurück
Oben