Notiz GeForce RTX 3000: Seasonic zeigt 12-Pin-Adapter aus zwei 8-Pin-Steckern

wern001 schrieb:
Welchen Vorteil bietet den der 12 Pin Adapter gegenĂĽber 2x 8 Pin
6x +12V/6x Masse vs 6x +12V/8x Masse

Statt da ein Adapterkabel beizulegen wäre es doch sinnvoller gewesen 2x 8 Pin Stecker auf die GraKa zu machen
Naja wenn man schon 3 mal 12 pin auf der Karte hat ist das einfacher wie 6 8 pin :king:
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Es ist von Nvidia sinnvoll diesen neuen Standard einzuführen, denn er war schon längst überfällig.
In den nächsten Wochen werden wir ja wissen, ob der Verbrauch "gerechtfertigt" ist, (im Vergleich zu RDNA2), bevor man Thermi 2.0 beschwört.

Zudem muss man wegen den empfohlenen 850W nicht direkt den Untergang beschwören. Wenn sich der Realverbrauch mit den Leaks deckt, braucht man natürlich keine 850W.
Den Maximalverbrauch eines Systemes wird man real sowieso kaum knacken (als Gamer).
 
  • Gefällt mir
Reaktionen: Tobi86 und Foxel
Nicht zu vergessen auch jetzt werden fĂĽr die 2080ti zb immer. Min 650watt Netzteile. Von den graka Herstellern in ihren Anleitungen oder hĂĽllen ausgewiesen

Da hält sich sowieso keiner dran..... Wird immer noch hier im. Forum 500watt als ausreichend vorgeschlagen?

Und Weiss man ĂĽberhaupt ob es ein 12 pin oder 2.fur die graka brauchen wird?

Wenn nur eines die 2x 8 pin ersetzen soll ist das doch kein Problem dann ist sogar weniger Kabel gedöns als jetzt im. Gehäuse


Mal abwarten was am Ende bei rum kommt alles Spekulanten
 
Maggolos schrieb:
Zudem muss man wegen den empfohlenen 850W nicht direkt den Untergang beschwören. Wenn sich der Realverbrauch mit den Leaks deckt, braucht man natürlich keine 850W.
Klar braucht man die nicht. Aber das ist ja auch ein offizielles "Nvidia-Kabel" speziell für die 3090 (und ggf. noch weitere?). Wenn SeaSonic da schon 850W nennt, dann sind das 200W mehr als das, was noch offizielle Empfehlung für die 2080Ti ist. Dort sind es nämlich nur 650W.

Das zielt natürlich auf die China-Böller ab, womit man sich bei solchen Angaben absichert. Aber interessant ist das ggü. Turing dennoch.
 
Warum bekommt die Grafikkarte nicht gleich ein Netzteil exclusiv mitgeliefert?
Ich sehe da auch Termi 2.0 kommen.
FĂĽr mich geht das in die falsche Richtung.
Meine persönliche Grenze sind 250W TDP. Besser 200W.
 
Bin gespannt ob Nvidia sich mit der neuen Serie nicht lächerlich macht. Wer soll solche GPUs freiwillig kaufen die so abartig viel Strom brauchen, dass es dafür extra neue Stecker braucht?
 
Dito schrieb:
Warum bekommt die Grafikkarte nicht gleich ein Netzteil exclusiv mitgeliefert?
Ich sehe da auch Termi 2.0 kommen.
FĂĽr mich geht das in die falsche Richtung.
Meine persönliche Grenze sind 250W TDP. Besser 200W.

du kannst die TDP einstellen :P und bei 250W wird die 3090 dennoch schneller sein als die 2080ti.
 
wern001 schrieb:
Welchen Vorteil bietet den der 12 Pin Adapter gegenĂĽber 2x 8 Pin
6x +12V/6x Masse vs 6x +12V/8x Masse

Statt da ein Adapterkabel beizulegen wäre es doch sinnvoller gewesen 2x 8 Pin Stecker auf die GraKa zu machen
Nein, ist nicht das gleiche der 12Pin liefert einiges mehr an Ampere als 2x 6Pin bzw 2+6Pin. Nvidia will hier endlich mal mit dem Kabelkram aufräumen und etabliert den neuen Standard irgendwann muss ja einer anfangen.
 
  • Gefällt mir
Reaktionen: estros und Foxel
smalM schrieb:
Wieviel mehr wäre denn Otto-Normalverbraucher bereit hinzublättern, daß sein MB so konstruiert ist, daß das geht?

Ich bin mir nicht sicher, aber ich könnte mir gut vorstellen, dass der Preis des Gesamtsystems unterm Strich sogar geringer ist, mit weniger Kabelsalat und mehr Integration auf dem Mainboard.
Der Trend geht ja sowieso schon dahin, mit dem Wegfallen der 5V-Versorgung usw. Ich bin ziemlich sicher, in 10 Jahren haben wir nicht mehr viele Kabel im PC. Wahrscheinlich nur noch eine einzige, gebĂĽndelte Strippe vom Netzteil zum Mainboard.
 
HAHAHAHA, lass stecken, nVidia. 12 pin wird nicht gekauft. Basta. Da klingt nach Megaverbrauch und neues Netzteil für besonders NICHT-umweltfreundlich betriebene Arbeitsgeräte.
Dem verwehre ich mich, selbst wenn die Dinger 100% schneller sein sollten.
Man kann schnelle Karten fĂĽr etwa 200 Watt konstruieren, wurde oft genug bewiesen.
300+ Watt sollte absolut verboten werden.
Die RTX 3000 hat in meinen Augen das Potential die uralte FX 5000 in Sachen Unbeliebtheit zu toppen.
 
  • Gefällt mir
Reaktionen: jemandanders, TIMOTOX und Onkel Föhn
Endlich lohnt sich das 1000W NT mal 🤣
 
  • Gefällt mir
Reaktionen: Lockenmonster, TIMOTOX und Onkel Föhn
Herdware schrieb:
Ich bin auch sehr fĂĽr Neuerungen, aber nur neue Kabel/Stecker mit anderer Pin-Zahl? Da sehe ich nicht wirklich einen Fortschritt. Das bleibt der alte Kabelsalat.
Da geht's auch um Stromstärken usw. , Ich meine Igor von THG hat es in einem Video gut erklärt weshalb das aktuelle 6 / 8 Pin system so krankt. 6 Pin 75W max, 8 Pin 150W, und jeder adaptiert aus Molex und Co sonstwas zusammen.
 
Herdware schrieb:
Wäre es nicht eleganter, wenn die Zukunft der Stromversorgung von Grafikkarten in PCs ähnlich aussehen würde, wie z.B. im aktuellen Mac Pro? Also mit Stromanschlüssen direkt auf dem Mainboard als Ergänzung des PCIe-Steckplatzes. Bzw. halt PCIe selbst entsprechend für größeren Stromverbrauch modernisieren.

Was stellst du dir vor? Der Strom muss ja dann erst recht wieder irgendwo ins Mainboard rein. Also wieder Kabel und Stecker. Und dann muss man die deutlich dickeren Leiterbahnen fĂĽr den Strom auch mal unterbringen ... also neee ... eher nicht.
 
Dito schrieb:
Warum bekommt die Grafikkarte nicht gleich ein Netzteil exclusiv mitgeliefert?
Ich sehe da auch Termi 2.0 kommen.
FĂĽr mich geht das in die falsche Richtung.
Meine persönliche Grenze sind 250W TDP. Besser 200W.

Bin deiner Meinung.
Meine 1080 steht glaube ich auf 220W Maximalaufnahme, als Ausgleich nutze ich einen 65W Prozessor.
Das sollte fĂĽr eine gehobene Leistung absolut ausreichend sein.
Wäre für mich ok, wenn die Königklasse 250-275 veranschlagt, aber 300 und mehr sind dann doch eindeutig viel zu viel, wenn dann auch noch die OC Sachen der Customs und Spielereingriffe dazugerechnet werden müssen.
Takt- und Wattkeule nein danke.
Dann lieber bereits bei der Fertigung 10% weniger Leistung, aber locker 30% weniger Stromverbrauch.
Beim Zocken merkt man es eh nicht.
 
Hejo schrieb:
Nein, ist nicht das gleiche der 12Pin liefert einiges mehr an Ampere als 2x 6Pin bzw 2+6Pin. Nvidia will hier endlich mal mit dem Kabelkram aufräumen und etabliert den neuen Standard irgendwann muss ja einer anfangen.
Wie kann denn an dem 12Pin mehr A "ankommen" als vom Netzteil fĂĽr 2*8Pin "abgehen"? Der 12Pin wird ja Netzteilseitig an die 2*8Pin gesteckt. Wie also soll das gehen was du da schreibst?
 
Krautmaster schrieb:
Ich meine Igor von THG hat es in einem Video gut erklärt weshalb das aktuelle 6 / 8 Pin system so krankt. 6 Pin 75W max, 8 Pin 150W, und jeder adaptiert aus Molex und Co sonstwas zusammen.

der 6 und 8 Pin Stecker sind von der Stromversorgung doch gleich. Beide haben 3x 12V.
Laut einer anderen Seite ist die belegung von dem neuen Stecker angeblich 4x 12V 1x Sense und 7x Masse
Weis jemand zufällig wieviel ein so ein Pin aushält
 
@wern001
Afaik gute 10A. Aber so stark wird man die wohl kaum belasten. Denke bei gesunden 6A ist Schluss, auch weil irgendwann der Spannungsabfall über die Zuleitung zu hoch wird. 6A auf 4 Leitungen wären 288W. Könnte passen.

6pin darf soweit ich weiß auch mit "nur" 2 Leitungen belegt sein, während 8pin immer 3 Leitungen hat.
 
ZurĂĽck
Oben