News RDNA 4: Radeon RX 9070 (XT) setzt weiter auf den 8-Pin-PCIe-Stecker

Quidproquo77 schrieb:
Wundert mich sehr, dass AMD diese umständlichen 2x 6+2 Pin Stecker weiterhin nutzt, anstatt einfach den unkomplizierten Schritt auf das bessere Design zu gehen.


Du musst halt 4 Stecker einstecken, anstatt einen. Das ist der 4fache Aufwand.
Ist das Satire oder muss man unbedingt mit der Angst leben dass die 2k€ GPU wegen so einer Inkompetenz am laufen gehalten wird?
 
  • Gefällt mir
Reaktionen: JarlBallin, Rockstar85, Pisaro und 16 andere
FUSION5 schrieb:
Der Stecker ist aber nicht für Gaming Grafikkarten entstanden
Dennoch haben laut Steam, mehr Nutzer eine RTX 4090 als alle neueren Radeon Einstiegs & Mittelklassekarten zusammen.
Und sogar die gesamte RX7000 Serie mit allen Modellen kommt in Steam nichtmal auf die Nutzer Anzahl der RTX 4090.

Stell dir dass mal vor.
Es gibt deutlich, deutlich, deutlich mehr leute die mit einer RTX 4090 Zocken, als Leute die mit einer RX6600, RX6600XT, RX6700XT, RX7600, RX7600XT, RX7700XT zocken.
 
  • Gefällt mir
Reaktionen: KlaasKersting und Firefly2023
Quidproquo77 schrieb:
Also bist du auch auf den Clickbait hereingefallen? Du hast dir bei deiner 4070 den alten Anschluss gesucht obwohl nie eine Karte unterhalb der 4090 betroffen war? Und bei der lag es nicht mal am Steckerdesign sondern an fehlerhaften Headern und Adaptern, bzw. Userfehlern.

Steve Burke und der Bauer sehe ich nicht als Clickbait. Und es sind auch Karten unterhalb der 4090 betroffen. Liegt, für mich, am Zwang des Anschlusses.

Ich darf den Biegeradius, der viel zu gering ist, nicht unterschreiten. Oft sind die Anschlüsse an der Karte sehr schlecht positioniert und ich darf nicht so oft, am Besten nie, die Steckverbindung lösen.

Das Produkt reift beim Kunden. Also beim Hochpreisigen. Wenn meine 2000 Euro Karte abraucht weil ich ein Tester bin empfinde ich das nicht als Clickbait.

Ich habe beim Militär mit LWL gearbeitet, viele Jahre und weiß wie schwer es ist Biegeradien einzuhalten. Das von einem Laien zu erwarten der lediglich ein Konsument ist finde ich ziemlich frech. Aber wie so oft werden Dinge schön geredet. Zeichen unserer Zeit.

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: JarlBallin, medsommer, Rockstar85 und 29 andere
E1M1:Hangar schrieb:
Was für ein Käse.

Früher haben die Systeme dennoch genug Strom genuckelt, da noch haufen anderer Kram mit lief und die Energiesparmechanismen nicht da waren, wo sie heute sind.

Was war damals besser bitte ?!
Ich hatte noch nie ein 850W oder 800W Netzteil obwohl ich seit den frühen 2000ern hier und im Luxx und in PCGH mitlese und hunderte von Grafikkarten verbaut habe.
Mein größtes Netzteil was ich je hatte war ein 560W Netzteil, zu Bulldozer Zeiten, welches da aber auch absolut Overkill war, da laut Strom Messgerät bei 100% CPU & GPU Last (Damals HD6780) noch unter 300W gezogen wurden.
Ergänzung ()

Quidproquo77 schrieb:
Klar, es wäre ja viel sinnvoller 8 kleine Stecker zu nutzen, als einen einzigen.:D
Vom Materialtechnischen Aufwand wesentlich höher und in Zuge des Klimawandels natürlich genau das Gegenteil richtig.
Willst du mich absichtlich Falsch verstehen ? Ich habe Extra die Watt aufgelistet.
Ich wollte damit sagen. Die Grafikkarten Verbrauchen zu viel. Daher schrieb ich wenig Innovativ. Quasi Prinzip Brechstange.
 
  • Gefällt mir
Reaktionen: Rockstar85, SweetOhm, katamaran3060 und 10 andere
Der 12V-HPWR war von Anfang an ein fehlerbehafteter Standard, vor allem den reduzierten Sicherheitsfaktor verstehe ich da absolut nicht (1,1 vs. 1,9 bei PCI-E 8-pin). Mit dem geraden Stecker den man noch dazu nicht zu viel biegen soll um ihn nicht zu beschädigen wieder komplett an den Endkunden vorbeientwickelt.

Ein etwas größerer Stecker damit die 16 Kabel auch vernünftig Platz haben, dazu ein besserer Einrastmechanismus und die Probleme wären Geschichte. Nein, da overengineert man lieber Sense Pins die merken sollen das der flimmsige Stecker nicht ganz eingerastet ist.
:stock:

Man wollte halt um jeden Preis einen kleineren Stecker, aber die Physik lässt sich halt nicht austricksen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin, medsommer, Sebbi und 19 andere
@metoer
Dass erinnert mich an :D
RTX 4090 problem reddit.jpg

(Dass sind alles Überschriften von einzelnen Threads in Reddit)
 
  • Gefällt mir
Reaktionen: JarlBallin, digitalfrost, medsommer und 15 andere
Holzinternet schrieb:
Steve Burke und der Bauer sehe ich nicht als Clickbait.
Klar vor allem der 8auer ist einer der größten Baiter überhaupt, was diesen Stecker betrifft. Von ihm kam so viel undifferenzierter Unsinn, dass ich mich weigere weiter Content von ihm zu schauen.
Holzinternet schrieb:
Und es sind auch Karten unterhalb der 4090 betroffen. Liegt, für mich, am Zwang des Anschlusses.
Nein, die waren statistisch nicht auffällig.
Holzinternet schrieb:
Ich darf den Biegeradius, der viel zu gering ist, nicht unterschreiten.
Du kannst biegen was du möchtest, der Biegeradius war nur bei den ersten wenigen Adaptern für die FE relevant und danach waren das einfache Sicherheitsvorkehrungen.
Holzinternet schrieb:
Oft sind die Anschlüsse an der Karte sehr schlecht positioniert und ich darf nicht so oft, am Besten nie, die Steckverbindung lösen.
Du kannst die auch 100x lösen, in 99,9% der Fälle passiert auch dann nichts.
Holzinternet schrieb:
Wenn meine 2000 Euro Karte abraucht weil ich ein Tester bin empfinde ich das nicht als Clickbait.
Wenn man ständig undifferenziert die große Angst vor diesem Stecker schürt obwohl die Probleme bekannt waren und längst gelöst sind, ist das eine reine Cash-cow, die er melkt.
Holzinternet schrieb:
Ich habe beim Militär mit LWL gearbeitet, viele Jahre und weiß wie schwer es ist Biegeradien einzuhalten.
Das ist doch nicht mit LWL Kabeln vergleichbar...
Holzinternet schrieb:
Das von einem Laien zu erwarten der lediglich ein Konsument ist finde ich ziemlich frech.
Die sagen dir, dass du das nicht knicken sollst. Du hast nix verstanden.
Das gilt für alle Anschlüsse.
 
  • Gefällt mir
Reaktionen: KlaasKersting, MalWiederIch, just_f und eine weitere Person
E1M1:Hangar schrieb:
Was für ein Käse. Äpfel und Birnen.
Sehe ich nur bedingt so.

Natürlich ist die Gesamteffizienz gestiegen, wäre ja auch furchtbar wenn bei verbesserter Fabrikation keinerlei Effizienzgewinne dabei rumkommen würden (mal von der Architektur selbst geschwiegen).

Aber es ist eben nicht nur die Effizienz gestiegen, sondern auch nicht von der Hand weisbar auch der absolute Basisverbrauch bei hoher Auslastung. Das ist natürlich schon sehr lange (Jahrzehnte) der Fall und wird sicher auch in gewissen Grenzen weiterhin so passieren, aber es hat sich schon (zumindest in meiner Wahrnehmung) sehr beschleunigt in jüngeren Jahren.

Nur weil manch ein System an ganz anderer Stelle noch viel mehr Unsinn in Sachen Verbrauch verzapft, muss man ja nicht die grundsätzliche Marschrichtung gutheißen. Und nur weil man an anderen Stellen etwas einspart, muss es auf der Kehrseite woanders ja nicht gleich wieder verbraucht werden.

Es wurde ja nicht behauptet, dass die neuen Karten schlechter sind. Es geht nur letztlich darum, dass es auch weiterhin attraktive Karten mit geringerem Verbrauch geben sollte. Und das ohne dass diese aufgrund der Marktsegmentierung unnötig anderweitig beschnitten werden.
 
  • Gefällt mir
Reaktionen: medsommer, SweetOhm, katamaran3060 und 4 andere
E1M1:Hangar schrieb:
Was für ein Käse. Äpfel und Birnen.

Das ist aber nett gesagt, den es ist nur seine persönliche und völlig willkürliche Grenze und intressiert mich so sehr, wie was er von Äpfel und Birnen hält. Nicht mal Effizienz betrachtet, nur ganz stumpf und blöd absolute Werte genannt.

Nach dieser unglaublichen Gehirnleistung, ist eine alte ATI dual GPU bis 250W auch vernünftig... mit ihren 5 FPS bei 250W und die Welt ist wieder in Ordnung.
 
  • Gefällt mir
Reaktionen: KlaasKersting, bibler, OSx86 und 3 andere
Ich finde es auch charmant, dass AMD beim alten und gut bewährten Stecker bleibt.

Für viele wird die AMD Karte eh ein Upgrade älterer GPUs darstellen und somit muss man mit keinem Adapter rumfrickeln oder ein neues NT kaufen. (Klar, wenn das NT zu alt ist, sollte man dennoch ein neues NT in Betracht ziehen)

Daher denke ich, kommt das bei den meisten Interessenten gut an.
 
  • Gefällt mir
Reaktionen: JarlBallin, mojitomay, Zocker1996 und 4 andere
Quidproquo77 schrieb:
Du musst halt 4 Stecker einstecken, anstatt einen. Das ist der 4fache Aufwand.
Ich alter Fingerkünstler stecke die 6+2 immer zusammen rein.

Dachte auch erst, dass man sich auf max 6+2 (also einen Stecker) beschränkt. Geht mit 260W aber nicht. Dürfte dennoch wenig Relevanz haben. Außerhalb der Bastler-Bubble werden Karten wohl nicht so oft ein-/ausgesteckt.
 
  • Gefällt mir
Reaktionen: Zocker1996, Pisaro, Balikon und 8 andere
Nighteye schrieb:
PCGH & Hardwareluxx & Computerbase testen diesen Sweetspot zu Release nicht da zu viel Mehrarbeit.
Ist auch gar nicht deren Aufgabe. Ein Test soll aufzeigen, wie sich die Karten ab Werk präsentieren.
Irgendwelche Tweaks obliegen dann uns Nerds selbst. Genau dafür gibt es ja Communitys wie diese hier.
 
  • Gefällt mir
Reaktionen: Zarlak, JackTheRippchen, Cerebral_Amoebe und eine weitere Person
iron_monkey schrieb:
Das ist aber nett gesagt, den es ist nur seine persönliche und völlig willkürliche Grenze und intressiert mich so sehr, wie was er von Äpfel und Birnen hält. Nicht mal Effizienz betrachtet, nur ganz stumpf und blöd absolute Werte genannt.
Nach dieser unglaublichen Gehirnleistung, ist eine alte ATI dual GPU bis 250W auch vernünftig...
Dass ist aber nett gesagt.
Ich habe den mitlesern genug "unglaubliche Gehirnleistung" zugetraut um das was SpartanerTom sagte, zu Interpretieren.
SpartanerTom schrieb:
Natürlich ist die Gesamteffizienz gestiegen, wäre ja auch furchtbar wenn bei verbesserter Fabrikation keinerlei Effizienzgewinne dabei rumkommen würden (mal von der Architektur selbst geschwiegen).

Aber es ist eben nicht nur die Effizienz gestiegen, sondern auch nicht von der Hand weisbar auch der absolute Basisverbrauch bei hoher Auslastung.
 
  • Gefällt mir
Reaktionen: Rambo5018, Balikon und floTTes
TheHille schrieb:
Gott sei dank kein 12VHPWR… 🤮
Den gibts auch so nicht mehr. Wurde durch 12V-2x6 ersetzt.
Was im Endeffekt der verbesserte 12VHPWR ist. Dabei bleibt das Kabel und Stecker gleich, aber der Kontakt der Grafikkarte wurde erheblich verbessert.

Shir-Khan schrieb:
Das sind gute Neuigkeiten. Nach den ganzen News zu den "abgefackelten" Grafikkarten wäre mir auch nicht wohl bei dem Gedanken, einen solchen Stecker zu benutzen. Aber ich schätze mal, dass die Probleme mittlerweile behoben wurden, oder?
s.o.

tbh verstehe ich nicht warum beim 12VHPWR so eine Kacke mit dem Stecker und dem Biegeradius veranstaltet wurde.
Die 3080 FE hatte das damals mit dem 90° gedrehten Kontakt schon IMO fast perfekt gelöst (Ein- und Abstecken ist nur recht schwer):

1735549893031.png
 
  • Gefällt mir
Reaktionen: digitalfrost, Rockstar85, stevefrogs und 4 andere
Quidproquo77 schrieb:
Du musst halt 4 Stecker einstecken, anstatt einen. Das ist der 4fache Aufwand.
Nein die 9070 wird vielleicht maximal zwei Stecker benötigen selbst die 7900XTX hat nur drei.
Vorteil kein neues Nt oder Adapter/neues Kabel.

Ja Aufwand ist bei SB ja der springende Punkt.
 
  • Gefällt mir
Reaktionen: Balikon, SweetOhm, katamaran3060 und 2 andere
Der beschissene Stromanschluss bei den Nvidia-Karten ist einer der Gründe, weswegen ich schon seit längeren mit dem Grafikkarten-Upgrade zögere. Ich hoffe, dass die neuen AMD-Karten meinen Raytracing-Ansprüchen jetzt gerecht werden und ich damit einen Bogen um Nvidia machen kann. Günstiger sollte das ganze ja am Ende auch noch sein.
 
  • Gefällt mir
Reaktionen: SweetOhm, OSx86 und Slim.Shady
Neodar schrieb:
Ist auch gar nicht deren Aufgabe. Ein Test soll aufzeigen, wie sich die Karten ab Werk präsentieren.
Irgendwelche Tweaks obliegen dann uns Nerds selbst. Genau dafür gibt es ja Communitys wie diese hier.
In der Tat. Die Botschaft, die hinter meinem Post steckt sollte sein.
Er muss nicht auf einer RTX 3060ti bleiben um bei seinem Wunsch von unter 200W zu bleiben.
Ich habe deutlich mehr FPS bei weit unter 200W, durch dass verändern zwei schlichter Reiter im Radeon Treiber.
Ich habe jetzt am Wochenende sogar einem Freund mit einer RX7900XTX beim Optimieren geholfen.
Vorher zog seine Karte laut Radeon Treiber 420W (Lief ab Werk 450mhz höher als Radeon Factory Settings), nach dem Undervolting und Underclocking zeigte der Radeon Treiber nur noch max 288W bei gleicher 100% GPU last an.
Man kann ruhig Karten kaufen die zb 250W oder 280W ziehen, und sie ohne fremdsoftware alleine durch den Grafikkarten Treiber locker auf unter 200W "Tunen". Am Ram kann man auch noch viel Tunen, was Mhz und Spannung betrifft, aber den Ram lies ich in diesen Beispielen sogar auf Default laufen. (Sowohl bei mir als auch beim Kumpel)
 
drago-museweni schrieb:
Nein die 9070 wird vielleicht maximal zwei Stecker benötigen selbst die 7900XTX hat nur drei.
Afaik wurde schon berichtet, dass Partnerkarten über 300W ziehen können und somit dann 3 Stecker brauchen.
Oder die bauen da dann direkt 12V-2x6 drauf.
 
AssembIer schrieb:
Ich denke das wird auch ein Kostenfaktor sein. Die 12(+4)-Pin Stecker sind vermutlich noch recht teuer und bringen abseits von High-End keinen Mehrwert.

Diese Stecker auf der Grafikkarte kosten doch nicht die Welt. Ich schätze mal 1 € pro Stück. Bei einer 2000€ Grafikkarte kein erheblicher Kostenfaktor
 
  • Gefällt mir
Reaktionen: SweetOhm
Nighteye schrieb:
Der 12V Stecker ist in Zeiten der Erderwärmung auch wirklich weit weg vom Sweetspot, und hätte nicht entstehen sollen wenn es nach der Vernunft gegangen wäre.
GTX 980ti 250W
GTX 1080ti 250W
RTX 2080ti 250W
Bis dahin war die Welt noch in Ordnung.
RTX 3090ti 450W
RTX 4090 450W+
RTX 5090 500W+
Overkill und nicht sehr Innovativ.
Wenn das so weitergeht, muss Nvidia den Stecker bald erneut ändern und die 12 Volt Schiene in Zusammenarbeit mit den Mainboardherstellern "variabel" gestalten (wie bei USB-C, wo die Spannung je nach Verbraucher zwischen 5V und 48V variabel ist. Dann nähert man sich auch dem Automotive Bereich an, wo Mild-Hyride bereits auf ein 48V Bordnetz setzen. :D
 
  • Gefällt mir
Reaktionen: Nighteye
Zurück
Oben