Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Grafikkarten: Neuer Stromstecker für bis zu 600 Watt kommt
- Ersteller Wolfgang
- Erstellt am
- Zur News: Grafikkarten: Neuer Stromstecker für bis zu 600 Watt kommt
- Status
- Für weitere Antworten geschlossen.
KingLz
Lieutenant
- Registriert
- Mai 2012
- Beiträge
- 542
Praktisch sind die Stecker sicher für mehr als 450 Watt gut, allerdings wurden sie dafür nicht spezifiziert.Motorrad schrieb:und drei "alte" 8 pin. Stecker nur für 450 Watt taugen
Die Spezifikation ist prinzipiell ja nur der Mindeststandard der erfüllt werden muss.
Das Dilemma ist halt, dass du nicht nachträglich nachbessern kannst.
Irgendwann haben sich halt ein paar Ingenieure zusammengesetzt und sich überlegt: "Für den PCIe Stromanschluss brauchen wir standartisierte Kabel und Stecker. 12V wären fein und so 150 Watt Leistung soll übertragen werden, die reichen ja!"
Dann wurden Stecker ausgesucht, die vermutlich mit höheren Ströme als nötig belastet werden können. (vieleicht geht bei 12V halt 500W statt 150W; reine Spekulation)
150W bei 12V, also 12,5A, waren aber nur gewordert, also wurden die Stecker damit spezifiziert.
Jeder Netzteilhersteller (auch die Chinaböller) stellen jetzt den PCIe Anschluss her, den sie auf min. 150W ausgelegt haben. Manche sparen nicht und könnten auch mehr Leistung bereitstellen, aber wenn man am Kupfer oder etwas am Plastik sparen will, dann stellt man halt in "noch akzeptabler" Qualität her.
So und jetzt reichen 150W plötzlich nicht mehr. Du kannst aber nicht einfach den gleichen Anschluss einfach höher spezifizieren, weil einige Hersteller schaffen ja nur den Mindeststandard. Würdest du einfach den 8Pin Stecker für 300W z.B. freigeben (sowas wie eine V2.0), dann wäre das technisch vermutlich machbar, allerdings würde auch oft genug irgendetwas kaputt gehen, weil 8Pin genauso aussieht wie 8Pin V2.0 und dich keiner warnt wenn du es falsch benutzt.
Der 8 Pin PCIe ist im Prinzip schon ein 6 Pin Stecker mit 2 Sense Pins, die dafür da sind zu checken ob die Leistung auch okay geht.
q9450proll
Lt. Junior Grade
- Registriert
- März 2009
- Beiträge
- 296
Hast du dafür eine Quelle? Normalerweise werden Mining Karten runtergetaktet, weil sie sonst gar nicht effizient laufen. Eine 3090 fürs Mining optimiert, läuft dann bei ca. 280w. Das dürfte den Stromanschluss kaum jucken.wern001 schrieb:600Watt spitze oder 600 Watt dauerlast?
Selbst die jetzigen Stecker halten die Dauerlast (Mining) nicht aus.
Rickmer
Fleet Admiral
- Registriert
- Sep. 2009
- Beiträge
- 21.699
Notebook GPUs halt... da können die nicht immer mehr Power reinstecken weil sich bei Heatpipes und Lüftern schon seit Jahren nicht mehr sonderlich viel tut.DaBo87 schrieb:Quasi: Das Topmodell dieser Serie hat IMMER max. 150W (nur ne reine Hausnummer, damit klar ist, was ich meine), die gesteigerte Leistung kommt hier ausschließlich durch den technischen Fortschritt. Würde keine andere Serie mehr kaufen.
F
FormatC
Gast
In meinem Artikel habe ich die Specs der PCI SIG beschrieben. 55 Ampere Dauerlast bei 12 Volt VDC (samt Temperarurdrift). Abzüglich der Toleranzen, Verluste und Alterung ergeben sich hier die 600 Watt locker. Es ist schade, dass es immer so schwerfällt, mich als Quelle auch vollständig zu zitieren.wern001 schrieb:Eine SchuKo Steckdose hält auch 16A aus aber nur für kurzfristig. Auf Dauerlast sind es nur noch 10 oder 12A
Nur mal so:
Der Amphenol-Link stammt übrigens von einem Twitter-Follower als Reaktion auf meinen initialen Artikel, den ich für videocardz und wccftech in Coop gecovert habe und wurde dann dort noch eingebaut. Die ganzen restlichen Daten stammen alle von mir.
Zuletzt bearbeitet von einem Moderator:
@Motorrad
Das liegt daran, dass der 6-Pin eigentlich nur 2x12V und der 8-Pin nur 3x12V hat. Beim 6-Pin wird der offizielle Standard meist umgangen, indem Netzteile einen unbenutzen Pin auch mit +12V belegen.
Beim 8-Pin hat man jedoch wirklich nur 3x +12V. Zwei zusätzliche Pins sind als "sense" gedacht und die restlichen drei sind dann Masse.
Der neue Stecker packt die ganzen "Sense" oder Data Belegungen in einen separaten Bereich (die unteren vier Kontakte) und lässt die oberen 12 Kontakte bei Bedarf alle mit +12V belegen. Die Trennung allein ist schon eleganter und die max. mögliche Leistung ebenfalls.
Dadurch werden Platinenlayouts auch unkomplizierter, man braucht nicht mehrere Buchsen zu setzen, spart Platz sowohl im Gehäuse als auch auf der Platine und unter idealen Verhältnissen reduziert man auch Verluste durch eine geringere Anzahl an Kontaktflächen/Übergangswiderständen.
Aus technischer Sicht ist dieser Stecker auf jeden Fall sehr zu begrüßen, allein schon wegen dem "einer für alle" Motto.
Das liegt daran, dass der 6-Pin eigentlich nur 2x12V und der 8-Pin nur 3x12V hat. Beim 6-Pin wird der offizielle Standard meist umgangen, indem Netzteile einen unbenutzen Pin auch mit +12V belegen.
Beim 8-Pin hat man jedoch wirklich nur 3x +12V. Zwei zusätzliche Pins sind als "sense" gedacht und die restlichen drei sind dann Masse.
Der neue Stecker packt die ganzen "Sense" oder Data Belegungen in einen separaten Bereich (die unteren vier Kontakte) und lässt die oberen 12 Kontakte bei Bedarf alle mit +12V belegen. Die Trennung allein ist schon eleganter und die max. mögliche Leistung ebenfalls.
Dadurch werden Platinenlayouts auch unkomplizierter, man braucht nicht mehrere Buchsen zu setzen, spart Platz sowohl im Gehäuse als auch auf der Platine und unter idealen Verhältnissen reduziert man auch Verluste durch eine geringere Anzahl an Kontaktflächen/Übergangswiderständen.
Aus technischer Sicht ist dieser Stecker auf jeden Fall sehr zu begrüßen, allein schon wegen dem "einer für alle" Motto.
Motorrad
Admiral
- Registriert
- Feb. 2015
- Beiträge
- 8.945
Und Masse wird dann keine mehr benötigt!?ShiftC schrieb:und lässt die oberen 12 Kontakte bei Bedarf alle mit +12V belegen.
Sieh es doch mal positiv, der Stecker KANN 600W dauerhaft liefern, aber er liefert eben auch alles darunter, sprich man muss sich wenigstens keine Sorgen mehr um die richtige Belegung des Netzteils machen und schöner sieht es auch noch aus. Ein einheitlicher Stecker zur Stromversorgung war lange überfällig.Smartin schrieb:Ansonsten gäbe es ja keine Veranlassung, die PowerLimits so derbe nach oben zu treiben.
Während altes Highend (1080) noch deutlich unter 200 W verbraucht hat, liegt die 3080 teilweise über 300W, trotz shrink und Optimierungen etc.
Und nur den Verbrauch zu betrachten ist nicht zielführend, die schönste Tabelle auf cb ist eigentlich immer Performance pro Watt, dort stehen die neuen Karten eigentlich immer an der Spitze und AMD hat nvidia in der Hinsicht deutlich übertroffen, was natürlich auch am "besseren" Fertigungsprozess liegen kann.
sHx.Shugo schrieb:Ich habe allerdings auch keine Lust wieder in die gleiche Situation wie mit meiner aktuellen RX480 (auch Red Devil) zu kommen der bei Fallout 4 @1440p mit 10 Mods (hauptsächlich Texturen und Fixes) schon fast die Puste ausging.
Deine Bedenken bezüglich der Verfügbarkeit teile ich.
Die neuen AMD-Karten sind von der Effizienz her jedenfalls wirklich nett, hätte ich nicht auf G-Sync Displays gesetzt, hätte ich die wohl auch gekauft.
Und wenn einem die Leistung der aktuellen Karten reicht - nächste Generation wird die gleiche Leistung deutlich weniger Watt kosten.
In der Gerüchteküche war ja bereits von einer mehr als verdoppelten Leistung in der nächsten Generation die Rede, daher kommen vermutlich auch die Spekulationen und Aufregungen um 600 W Leistungsaufnahme.
Wundern würde mich eine 500Watt GPU nicht, aber solange sie die Leistung von mehr als 2x 3090 liefern kann, wäre ich trotzdem tief beeindruckt.
rumpel01
Fleet Admiral
- Registriert
- März 2006
- Beiträge
- 26.686
Die Specs sind doch eigentlich klar:Motorrad schrieb:Und Masse wird dann keine mehr benötigt!?
9,5A pro Pin -> ca. 57A insgesamt, hinzu kommen die Signalpins ... Wie oben bereits verlinkt, was man dem Artikel aus den seinerseits verlinkten Artikeln, u.a. bei Igor, nachprüfen kann, wenn man diese jeweils durchgeht: https://cdn.amphenol-icc.com/media/wysiwyg/files/documentation/gs-12-1706.pdf
v_ossi schrieb:Und darin sehe ich persönlich einen der größten Fortschritte der letzten Jahre.
Als Gelegenheitszocker kann ich mir das letzte bisschen Eye Candy einfach schenken und komme mit älterer Hardware sehr gut zurecht.
Ja ist schon klasse, auch DLSS und FidelityFX SR helfen den Spielern, die sich nicht immer neue HW kaufen können/wollen.
Diese Technologien ermöglichen auch eine viel breitere Zielgruppe, da eben auch viel ältere PCs neue Spiele plötzlich mit akzeptablen Frameraten darstellen können, sicherlich leidet die Optik bei den Ultra Performance-Modi sehr, dennoch tut es dem PC als Plattform gut.
DaBas
Lieutenant
- Registriert
- Jan. 2020
- Beiträge
- 918
Wie war das noch bei den Autos ?
Hubraum ist nur durch noch mehr Hubraum zu ersetzen !
Bei den GPUs gilt dann sehr bald:
Leistungsaufnahme ist nur noch durch noch mehr Leistungsaufnahme zu ersetzen.
Das ist eine ganz bedenkliche Entwicklung. Bei den jetzt schon hohen Energiepreisen mit solch irre hohen Leistungsaufnahmen nur alleine schon für den Pixelschubser um die Ecke zu kommen, geht mal einfach gar nicht. Ich meine, was an Energie reingeht, das muß ja auch in irgendeiner Form wieder raus kommen. Und das ist eben bei Strom Wärme. Mit normaler Luftkühlung wird dem sicherlich nicht mehr beizukommen sein. Im Winter brauchst dann wirklich keine Heizung mehr. Da reicht die Abwärme völlig aus. Wenn das nicht so traurig wäre. Da war damals ein AMD Centurion aka FX 9570 ja fast schon harmlos gewesen ....
Hubraum ist nur durch noch mehr Hubraum zu ersetzen !
Bei den GPUs gilt dann sehr bald:
Leistungsaufnahme ist nur noch durch noch mehr Leistungsaufnahme zu ersetzen.
Das ist eine ganz bedenkliche Entwicklung. Bei den jetzt schon hohen Energiepreisen mit solch irre hohen Leistungsaufnahmen nur alleine schon für den Pixelschubser um die Ecke zu kommen, geht mal einfach gar nicht. Ich meine, was an Energie reingeht, das muß ja auch in irgendeiner Form wieder raus kommen. Und das ist eben bei Strom Wärme. Mit normaler Luftkühlung wird dem sicherlich nicht mehr beizukommen sein. Im Winter brauchst dann wirklich keine Heizung mehr. Da reicht die Abwärme völlig aus. Wenn das nicht so traurig wäre. Da war damals ein AMD Centurion aka FX 9570 ja fast schon harmlos gewesen ....
Youngtimer
Lieutenant
- Registriert
- Juni 2017
- Beiträge
- 737
Am besten noch lautlos und die Abwärme bitte auch woanders hin. Oh, wait...wüstenigel schrieb:Interessanter Trend... ich frage mich gerade eher, wie man eine 600W GPU kühlen könnte? Die Kühler der 3090 kommen ja schon extrem hart ans Limit bei 400W
garfield36
Lieutenant
- Registriert
- Juli 2001
- Beiträge
- 649
Ich hatte schon schwere Bedenken eine RTX 3090 zu kaufen. Leider war meine RTX 2080 über den Jordan gegangen, und ein Erscheinungstermin für eine kolportierte 3080Ti wurde damals mehrmals verschoben. Aber jetzt ist für mich vorläufig Schluss. Meine 3090 wird hoffentlich einige Jahre halten. Den Wahnsinn immer stromhungrigere Grafikkarten auf den Markt zu bringen finde ich schon sehr verstörend. Hier sollten sich die Konstrukteure eines Besseren besinnen. Mehr Leistung immer nur mit mehr Energiebedarf zu erzwingen halte ich für den falschen Weg.
Nightmare25
Captain
- Registriert
- Feb. 2004
- Beiträge
- 3.576
Ha. Ich hatte recht. Die 16 Ampere Steckdose unterm Schreibtisch kommt soviel ist sicher.
Vielleicht sollte man aufhören immer mehr zu wollen und das vorhandene mal Energieeffizient zu optimieren. Wieso frisst eine Grafikkarte im IDLE Windows unverschämt viel Strom wenn sogar eine Onboardlösung den gleichen Inhalt darstellen könnte. Ist doch Wumpe obs ne 3080ti ist, Stromverbauch bitte nur dann wenn auch die nötige Leistung gefordert wird. Junge junge 600 Watt .... die Mikrowelle meiner Eltern hat 600 Watt und da ist das Essen in 10 Minuten heiss.
Vielleicht sollte man aufhören immer mehr zu wollen und das vorhandene mal Energieeffizient zu optimieren. Wieso frisst eine Grafikkarte im IDLE Windows unverschämt viel Strom wenn sogar eine Onboardlösung den gleichen Inhalt darstellen könnte. Ist doch Wumpe obs ne 3080ti ist, Stromverbauch bitte nur dann wenn auch die nötige Leistung gefordert wird. Junge junge 600 Watt .... die Mikrowelle meiner Eltern hat 600 Watt und da ist das Essen in 10 Minuten heiss.
garfield36 schrieb:Mehr Leistung immer nur mit mehr Energiebedarf zu erzwingen halte ich für den falschen Weg.
Stimmt doch so gar nicht? Der Fertigungsprozess ist maßgeblich für die stetig steigende Effizienz verantwortlich und die Hersteller haben mit FidelityFX SR und DLSS weitere Möglichkeiten entwickelt den Energiebedarf zu senken.
Zudem ist der Zeitaufwand für einige Anwendungen z.B. im Bereich Video durch die CUDA-Cores so massiv gesunken, dass die höhere Maximallast trotzdem effektiv zu einer massiven Reduzierung des gesamten Energiebedarfs führt.
- Status
- Für weitere Antworten geschlossen.
Ähnliche Themen
- Antworten
- 13
- Aufrufe
- 3.250