Ist das Satire oder muss man unbedingt mit der Angst leben dass die 2k€ GPU wegen so einer Inkompetenz am laufen gehalten wird?Quidproquo77 schrieb:Wundert mich sehr, dass AMD diese umständlichen 2x 6+2 Pin Stecker weiterhin nutzt, anstatt einfach den unkomplizierten Schritt auf das bessere Design zu gehen.
Du musst halt 4 Stecker einstecken, anstatt einen. Das ist der 4fache Aufwand.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News RDNA 4: Radeon RX 9070 (XT) setzt weiter auf den 8-Pin-PCIe-Stecker
- Ersteller Jan
- Erstellt am
- Zur News: RDNA 4: Radeon RX 9070 (XT) setzt weiter auf den 8-Pin-PCIe-Stecker
Nighteye
Lieutenant
- Registriert
- Okt. 2013
- Beiträge
- 629
Dennoch haben laut Steam, mehr Nutzer eine RTX 4090 als alle neueren Radeon Einstiegs & Mittelklassekarten zusammen.FUSION5 schrieb:Der Stecker ist aber nicht für Gaming Grafikkarten entstanden
Und sogar die gesamte RX7000 Serie mit allen Modellen kommt in Steam nichtmal auf die Nutzer Anzahl der RTX 4090.
Stell dir dass mal vor.
Es gibt deutlich, deutlich, deutlich mehr leute die mit einer RTX 4090 Zocken, als Leute die mit einer RX6600, RX6600XT, RX6700XT, RX7600, RX7600XT, RX7700XT zocken.
Holzinternet
Commander Pro
- Registriert
- Dez. 2013
- Beiträge
- 2.159
Quidproquo77 schrieb:Also bist du auch auf den Clickbait hereingefallen? Du hast dir bei deiner 4070 den alten Anschluss gesucht obwohl nie eine Karte unterhalb der 4090 betroffen war? Und bei der lag es nicht mal am Steckerdesign sondern an fehlerhaften Headern und Adaptern, bzw. Userfehlern.
Steve Burke und der Bauer sehe ich nicht als Clickbait. Und es sind auch Karten unterhalb der 4090 betroffen. Liegt, für mich, am Zwang des Anschlusses.
Ich darf den Biegeradius, der viel zu gering ist, nicht unterschreiten. Oft sind die Anschlüsse an der Karte sehr schlecht positioniert und ich darf nicht so oft, am Besten nie, die Steckverbindung lösen.
Das Produkt reift beim Kunden. Also beim Hochpreisigen. Wenn meine 2000 Euro Karte abraucht weil ich ein Tester bin empfinde ich das nicht als Clickbait.
Ich habe beim Militär mit LWL gearbeitet, viele Jahre und weiß wie schwer es ist Biegeradien einzuhalten. Das von einem Laien zu erwarten der lediglich ein Konsument ist finde ich ziemlich frech. Aber wie so oft werden Dinge schön geredet. Zeichen unserer Zeit.
Gruß
Holzinternet
Nighteye
Lieutenant
- Registriert
- Okt. 2013
- Beiträge
- 629
Ich hatte noch nie ein 850W oder 800W Netzteil obwohl ich seit den frühen 2000ern hier und im Luxx und in PCGH mitlese und hunderte von Grafikkarten verbaut habe.E1M1:Hangar schrieb:Was für ein Käse.
Früher haben die Systeme dennoch genug Strom genuckelt, da noch haufen anderer Kram mit lief und die Energiesparmechanismen nicht da waren, wo sie heute sind.
Was war damals besser bitte ?!
Mein größtes Netzteil was ich je hatte war ein 560W Netzteil, zu Bulldozer Zeiten, welches da aber auch absolut Overkill war, da laut Strom Messgerät bei 100% CPU & GPU Last (Damals HD6780) noch unter 300W gezogen wurden.
Ergänzung ()
Willst du mich absichtlich Falsch verstehen ? Ich habe Extra die Watt aufgelistet.Quidproquo77 schrieb:Klar, es wäre ja viel sinnvoller 8 kleine Stecker zu nutzen, als einen einzigen.
Vom Materialtechnischen Aufwand wesentlich höher und in Zuge des Klimawandels natürlich genau das Gegenteil richtig.
Ich wollte damit sagen. Die Grafikkarten Verbrauchen zu viel. Daher schrieb ich wenig Innovativ. Quasi Prinzip Brechstange.
Der 12V-HPWR war von Anfang an ein fehlerbehafteter Standard, vor allem den reduzierten Sicherheitsfaktor verstehe ich da absolut nicht (1,1 vs. 1,9 bei PCI-E 8-pin). Mit dem geraden Stecker den man noch dazu nicht zu viel biegen soll um ihn nicht zu beschädigen wieder komplett an den Endkunden vorbeientwickelt.
Ein etwas größerer Stecker damit die 16 Kabel auch vernünftig Platz haben, dazu ein besserer Einrastmechanismus und die Probleme wären Geschichte. Nein, da overengineert man lieber Sense Pins die merken sollen das der flimmsige Stecker nicht ganz eingerastet ist.
Man wollte halt um jeden Preis einen kleineren Stecker, aber die Physik lässt sich halt nicht austricksen.
Ein etwas größerer Stecker damit die 16 Kabel auch vernünftig Platz haben, dazu ein besserer Einrastmechanismus und die Probleme wären Geschichte. Nein, da overengineert man lieber Sense Pins die merken sollen das der flimmsige Stecker nicht ganz eingerastet ist.
Man wollte halt um jeden Preis einen kleineren Stecker, aber die Physik lässt sich halt nicht austricksen.
Zuletzt bearbeitet:
- Registriert
- Okt. 2023
- Beiträge
- 2.101
Klar vor allem der 8auer ist einer der größten Baiter überhaupt, was diesen Stecker betrifft. Von ihm kam so viel undifferenzierter Unsinn, dass ich mich weigere weiter Content von ihm zu schauen.Holzinternet schrieb:Steve Burke und der Bauer sehe ich nicht als Clickbait.
Nein, die waren statistisch nicht auffällig.Holzinternet schrieb:Und es sind auch Karten unterhalb der 4090 betroffen. Liegt, für mich, am Zwang des Anschlusses.
Du kannst biegen was du möchtest, der Biegeradius war nur bei den ersten wenigen Adaptern für die FE relevant und danach waren das einfache Sicherheitsvorkehrungen.Holzinternet schrieb:Ich darf den Biegeradius, der viel zu gering ist, nicht unterschreiten.
Du kannst die auch 100x lösen, in 99,9% der Fälle passiert auch dann nichts.Holzinternet schrieb:Oft sind die Anschlüsse an der Karte sehr schlecht positioniert und ich darf nicht so oft, am Besten nie, die Steckverbindung lösen.
Wenn man ständig undifferenziert die große Angst vor diesem Stecker schürt obwohl die Probleme bekannt waren und längst gelöst sind, ist das eine reine Cash-cow, die er melkt.Holzinternet schrieb:Wenn meine 2000 Euro Karte abraucht weil ich ein Tester bin empfinde ich das nicht als Clickbait.
Das ist doch nicht mit LWL Kabeln vergleichbar...Holzinternet schrieb:Ich habe beim Militär mit LWL gearbeitet, viele Jahre und weiß wie schwer es ist Biegeradien einzuhalten.
Die sagen dir, dass du das nicht knicken sollst. Du hast nix verstanden.Holzinternet schrieb:Das von einem Laien zu erwarten der lediglich ein Konsument ist finde ich ziemlich frech.
Das gilt für alle Anschlüsse.
SpartanerTom
Captain
- Registriert
- Dez. 2007
- Beiträge
- 3.497
Sehe ich nur bedingt so.E1M1:Hangar schrieb:Was für ein Käse. Äpfel und Birnen.
Natürlich ist die Gesamteffizienz gestiegen, wäre ja auch furchtbar wenn bei verbesserter Fabrikation keinerlei Effizienzgewinne dabei rumkommen würden (mal von der Architektur selbst geschwiegen).
Aber es ist eben nicht nur die Effizienz gestiegen, sondern auch nicht von der Hand weisbar auch der absolute Basisverbrauch bei hoher Auslastung. Das ist natürlich schon sehr lange (Jahrzehnte) der Fall und wird sicher auch in gewissen Grenzen weiterhin so passieren, aber es hat sich schon (zumindest in meiner Wahrnehmung) sehr beschleunigt in jüngeren Jahren.
Nur weil manch ein System an ganz anderer Stelle noch viel mehr Unsinn in Sachen Verbrauch verzapft, muss man ja nicht die grundsätzliche Marschrichtung gutheißen. Und nur weil man an anderen Stellen etwas einspart, muss es auf der Kehrseite woanders ja nicht gleich wieder verbraucht werden.
Es wurde ja nicht behauptet, dass die neuen Karten schlechter sind. Es geht nur letztlich darum, dass es auch weiterhin attraktive Karten mit geringerem Verbrauch geben sollte. Und das ohne dass diese aufgrund der Marktsegmentierung unnötig anderweitig beschnitten werden.
iron_monkey
Rear Admiral
- Registriert
- Juli 2005
- Beiträge
- 5.279
E1M1:Hangar schrieb:Was für ein Käse. Äpfel und Birnen.
Das ist aber nett gesagt, den es ist nur seine persönliche und völlig willkürliche Grenze und intressiert mich so sehr, wie was er von Äpfel und Birnen hält. Nicht mal Effizienz betrachtet, nur ganz stumpf und blöd absolute Werte genannt.
Nach dieser unglaublichen Gehirnleistung, ist eine alte ATI dual GPU bis 250W auch vernünftig... mit ihren 5 FPS bei 250W und die Welt ist wieder in Ordnung.
danyundsahne
Commodore
- Registriert
- Okt. 2007
- Beiträge
- 4.427
Ich finde es auch charmant, dass AMD beim alten und gut bewährten Stecker bleibt.
Für viele wird die AMD Karte eh ein Upgrade älterer GPUs darstellen und somit muss man mit keinem Adapter rumfrickeln oder ein neues NT kaufen. (Klar, wenn das NT zu alt ist, sollte man dennoch ein neues NT in Betracht ziehen)
Daher denke ich, kommt das bei den meisten Interessenten gut an.
Für viele wird die AMD Karte eh ein Upgrade älterer GPUs darstellen und somit muss man mit keinem Adapter rumfrickeln oder ein neues NT kaufen. (Klar, wenn das NT zu alt ist, sollte man dennoch ein neues NT in Betracht ziehen)
Daher denke ich, kommt das bei den meisten Interessenten gut an.
Ich alter Fingerkünstler stecke die 6+2 immer zusammen rein.Quidproquo77 schrieb:Du musst halt 4 Stecker einstecken, anstatt einen. Das ist der 4fache Aufwand.
Dachte auch erst, dass man sich auf max 6+2 (also einen Stecker) beschränkt. Geht mit 260W aber nicht. Dürfte dennoch wenig Relevanz haben. Außerhalb der Bastler-Bubble werden Karten wohl nicht so oft ein-/ausgesteckt.
Ist auch gar nicht deren Aufgabe. Ein Test soll aufzeigen, wie sich die Karten ab Werk präsentieren.Nighteye schrieb:PCGH & Hardwareluxx & Computerbase testen diesen Sweetspot zu Release nicht da zu viel Mehrarbeit.
Irgendwelche Tweaks obliegen dann uns Nerds selbst. Genau dafür gibt es ja Communitys wie diese hier.
Nighteye
Lieutenant
- Registriert
- Okt. 2013
- Beiträge
- 629
Dass ist aber nett gesagt.iron_monkey schrieb:Das ist aber nett gesagt, den es ist nur seine persönliche und völlig willkürliche Grenze und intressiert mich so sehr, wie was er von Äpfel und Birnen hält. Nicht mal Effizienz betrachtet, nur ganz stumpf und blöd absolute Werte genannt.
Nach dieser unglaublichen Gehirnleistung, ist eine alte ATI dual GPU bis 250W auch vernünftig...
Ich habe den mitlesern genug "unglaubliche Gehirnleistung" zugetraut um das was SpartanerTom sagte, zu Interpretieren.
SpartanerTom schrieb:Natürlich ist die Gesamteffizienz gestiegen, wäre ja auch furchtbar wenn bei verbesserter Fabrikation keinerlei Effizienzgewinne dabei rumkommen würden (mal von der Architektur selbst geschwiegen).
Aber es ist eben nicht nur die Effizienz gestiegen, sondern auch nicht von der Hand weisbar auch der absolute Basisverbrauch bei hoher Auslastung.
Shio
Captain
- Registriert
- Okt. 2008
- Beiträge
- 3.784
Den gibts auch so nicht mehr. Wurde durch 12V-2x6 ersetzt.TheHille schrieb:Gott sei dank kein 12VHPWR… 🤮
Was im Endeffekt der verbesserte 12VHPWR ist. Dabei bleibt das Kabel und Stecker gleich, aber der Kontakt der Grafikkarte wurde erheblich verbessert.
s.o.Shir-Khan schrieb:Das sind gute Neuigkeiten. Nach den ganzen News zu den "abgefackelten" Grafikkarten wäre mir auch nicht wohl bei dem Gedanken, einen solchen Stecker zu benutzen. Aber ich schätze mal, dass die Probleme mittlerweile behoben wurden, oder?
tbh verstehe ich nicht warum beim 12VHPWR so eine Kacke mit dem Stecker und dem Biegeradius veranstaltet wurde.
Die 3080 FE hatte das damals mit dem 90° gedrehten Kontakt schon IMO fast perfekt gelöst (Ein- und Abstecken ist nur recht schwer):
drago-museweni
Admiral Pro
- Registriert
- März 2004
- Beiträge
- 9.225
Nein die 9070 wird vielleicht maximal zwei Stecker benötigen selbst die 7900XTX hat nur drei.Quidproquo77 schrieb:Du musst halt 4 Stecker einstecken, anstatt einen. Das ist der 4fache Aufwand.
Vorteil kein neues Nt oder Adapter/neues Kabel.
Ja Aufwand ist bei SB ja der springende Punkt.
Discovery_1
Rear Admiral
- Registriert
- März 2018
- Beiträge
- 5.708
Der beschissene Stromanschluss bei den Nvidia-Karten ist einer der Gründe, weswegen ich schon seit längeren mit dem Grafikkarten-Upgrade zögere. Ich hoffe, dass die neuen AMD-Karten meinen Raytracing-Ansprüchen jetzt gerecht werden und ich damit einen Bogen um Nvidia machen kann. Günstiger sollte das ganze ja am Ende auch noch sein.
Nighteye
Lieutenant
- Registriert
- Okt. 2013
- Beiträge
- 629
In der Tat. Die Botschaft, die hinter meinem Post steckt sollte sein.Neodar schrieb:Ist auch gar nicht deren Aufgabe. Ein Test soll aufzeigen, wie sich die Karten ab Werk präsentieren.
Irgendwelche Tweaks obliegen dann uns Nerds selbst. Genau dafür gibt es ja Communitys wie diese hier.
Er muss nicht auf einer RTX 3060ti bleiben um bei seinem Wunsch von unter 200W zu bleiben.
Ich habe deutlich mehr FPS bei weit unter 200W, durch dass verändern zwei schlichter Reiter im Radeon Treiber.
Ich habe jetzt am Wochenende sogar einem Freund mit einer RX7900XTX beim Optimieren geholfen.
Vorher zog seine Karte laut Radeon Treiber 420W (Lief ab Werk 450mhz höher als Radeon Factory Settings), nach dem Undervolting und Underclocking zeigte der Radeon Treiber nur noch max 288W bei gleicher 100% GPU last an.
Man kann ruhig Karten kaufen die zb 250W oder 280W ziehen, und sie ohne fremdsoftware alleine durch den Grafikkarten Treiber locker auf unter 200W "Tunen". Am Ram kann man auch noch viel Tunen, was Mhz und Spannung betrifft, aber den Ram lies ich in diesen Beispielen sogar auf Default laufen. (Sowohl bei mir als auch beim Kumpel)
Shio
Captain
- Registriert
- Okt. 2008
- Beiträge
- 3.784
Afaik wurde schon berichtet, dass Partnerkarten über 300W ziehen können und somit dann 3 Stecker brauchen.drago-museweni schrieb:Nein die 9070 wird vielleicht maximal zwei Stecker benötigen selbst die 7900XTX hat nur drei.
Oder die bauen da dann direkt 12V-2x6 drauf.
wern001
Admiral
- Registriert
- Mai 2017
- Beiträge
- 7.563
AssembIer schrieb:Ich denke das wird auch ein Kostenfaktor sein. Die 12(+4)-Pin Stecker sind vermutlich noch recht teuer und bringen abseits von High-End keinen Mehrwert.
Diese Stecker auf der Grafikkarte kosten doch nicht die Welt. Ich schätze mal 1 € pro Stück. Bei einer 2000€ Grafikkarte kein erheblicher Kostenfaktor
Wenn das so weitergeht, muss Nvidia den Stecker bald erneut ändern und die 12 Volt Schiene in Zusammenarbeit mit den Mainboardherstellern "variabel" gestalten (wie bei USB-C, wo die Spannung je nach Verbraucher zwischen 5V und 48V variabel ist. Dann nähert man sich auch dem Automotive Bereich an, wo Mild-Hyride bereits auf ein 48V Bordnetz setzen.Nighteye schrieb:Der 12V Stecker ist in Zeiten der Erderwärmung auch wirklich weit weg vom Sweetspot, und hätte nicht entstehen sollen wenn es nach der Vernunft gegangen wäre.
GTX 980ti 250W
GTX 1080ti 250W
RTX 2080ti 250W
Bis dahin war die Welt noch in Ordnung.
RTX 3090ti 450W
RTX 4090 450W+
RTX 5090 500W+
Overkill und nicht sehr Innovativ.
Ähnliche Themen
- Antworten
- 274
- Aufrufe
- 23.345
- Antworten
- 373
- Aufrufe
- 32.123
- Antworten
- 774
- Aufrufe
- 53.776