News Nvidia Ampere: Details zum neuen 12-Pin-PCIe-Anschluss für Netzteile

tm0975 schrieb:
bei cpus geht es in eine tolle richtung. da bekommen wir heutzutage die leistung mit 15 watt, die vor 7 oder 8 jahren 125 watt geliefert bekommen haben. es wäre auch schön, wenn die aktuelle gpu-leistung wieder in klassen von 50 bis 150 watt ankommen würde mit fokus auf effizienz.

Ist doch bei Grafikkarten auch nicht anders. Schau dir doch mal an, was eine GTX 460 leistet und verbraucht und was eine 1060 oder neuere 1660 Super / TI verbraucht und leistet.

Der bereich unter 150 Watt ist aber für dedizierte GPUs relativ uninteressant. Für so wenig Leistung reichen heutige APUs locker aus und wenn jemand die leistung einer Zusatzkarte benötigt, dann ist es in der Regel schon deutlich mehr, als man mit einer 50 Watt Karte schaffen könnte. Die Leistung und Effizienz bei den GPUs steigt deutlich an. Nur ist der absolute Low End Bereich heute ziemlich obsolet und wird durch APUs und runtergetakteten größeren Chips abgedeckt (In Notebooks)

SKu schrieb:
Ist doch völlig verständlich. Seasonic sichert sich als Hersteller natürlich ab und wird keine Konfigurationen freigeben, die grenzwertig ausfallen. Da wird überall noch ein Sicherheitsfaktor inkludiert sein, so dass am Ende min. 850W als Netzteil als Basis dienen.

Genau so sieht es aus. Das ganze muss auch mit übertaktetem Threadripper / LGA1266 Prozessor und OC noch problemlos funktionieren. Also sichert man sich als Hersteller da für den worst Case ab. Gerade mit den ganz großen CPUs und OC kann man schon extrem viel verbrauchen und auch extreme Lastspitzen verursachen.

Habe mit meiner Vega 64 OC und damals extrem übertaktetem i7 3930k unter Wasser auch Marken 750 Watt Netzteile ausbekommen :)
 
Die Karten von nvidia schrecken mich immer mehr ab, obwohl ich schon sehr am 3070 interessiert bin. Aber ich werde kein Netzteil wechseln... Dann Lieber eine gebrauchte 2070/s oder 2080/s
 
Ich würde wegen einem neuen Stromanschluss noch keine voreiligen Schlüsse ziehen.
Abwarten und Tee trinken. :)
 
  • Gefällt mir
Reaktionen: JohnnyTexas
Finde es sehr interessant das dieses Jahr zwei neue 'Standards' (?) das Licht der öffentlichkeit erblicken.

Erst Nvidia mit ihrem 12 Pin Stecker und dann haben wir ja noch Intel die den 24Pin absägen (wie man vor kurzem bei LTT gesehen hat).

Wobei bei der Intel Variante glaub ich noch nicht ganz klar ist wann das in den Consumer Bereich kommt.

Und das nach sovielen Jahren stillstand im Bereich Netzteile und Stromversorgung.
 
Hibble schrieb:
@Straputsky
Dann würde ein Netzteil mit halb-belegtem 12-Pin-Stecker künstlich beschnitten werden, weil es nicht jede Grafikkarte versorgen kann, was die Netzteilkabel-Angelegentheit nur unnötig fragmentieren würde.
Kann nicht ganz folgen: Der Stecker bleibt doch unangetastet. Lediglich die Anschlussbuchse würde nur 6 der 12 vorhanden Pins nutzen. Das betrifft doch weder das Netzteil, noch das Kabel - oder verstehe ich da was falsch? Das Netzteil als auch der Stecker bieten weiterhin 12 Pins, die Anschlussbuchse an der Grafikkarte kann einen Stecker mit 12 Pins aufnehmen, davon sind aber letztlich nur 6 verdrahtet.
 
modena.ch schrieb:
@boonstyle
Das heisst aber auch nicht, dass ein sterbendes NT die Hardware die dranhängt automatisch tötet.
Bei was Ordentlichem von vor 10 Jahren mit Schutzschaltungen ist das recht unwahrscheinlich.
Er sprach von 30. Außerdem gibt es zur genüge Netzteile die keine oder ungenügende schutzschaltung aufweisen.
 
Sie sollten Adapter zur GPU beilegen sonst Kauf ich sowas nicht. Ich schmeiß doch nicht mein PSU raus nur weil Nvidia mal wieder meint was eigenes zu brauchen.

Gerüchten nach soll ja so ein Adapter beiliegen und je nach Karte mit 2x8 Pin für die 3080 und 3x8 Pin 3090 vorgesehen sein.

Mal sehen wie das weitergeht.
 
  • Gefällt mir
Reaktionen: deo, FX-Multimedia und poly123
MarcoMichel schrieb:
Meiner Meinung nach ist das alles nur unwahres Gelaber. Die zwei 6-Pin-Stecker sollten für die nächsten Grafikkartengenerationen 3x ausreichen.

Was mich daran ärgert ist, dass die PC-Industrie wiedermal etwas Neues einführt, was offenbar unnötig ist, was dazu führt, dass alte Hardware nicht mehr funktioniert.

Oder wird es Adapterstecker für die alten Netzteile geben?

Dann will ich nichts gesagt haben.

Meiner Meinung nach, hast Du keine Ahnung.
Es gibt nun mal Spezifikationen die festlegen welche Leistung übertragen werden kann und da ist für 6-Pin eben 75 Watt spezifiziert. Klar kann man kurzfristig und unter best case mehr drüber jagen, aber es ist nicht über die Spezifikation abgedeckt.

Die neuen Stecker/Buchse werden ja nur benötigt wenn die Leistungsaufnahme so exorbitant hoch ist.
 
@FX-Multimedia @poly123


 
Hylou schrieb:
Erst Nvidia mit ihrem 12 Pin Stecker und dann haben wir ja noch Intel die den 24Pin absägen (wie man vor kurzem bei LTT gesehen hat).

von dem intel ding bin ich weniger begeistert. man stelle sich mal ein threadripper board vor, das 6-8 sata ports hat - die spannungsversorgung und die pinouts für die ganzen sata ports braucht platz ohne ende.

da muss man erst mal sehen, wie sich das mit sata weiterentwickelt.
 
Rickmer schrieb:
Ich bin schonmal froh, das von Seasonic definitiv ein passendes Kabel kommt, damit brauche ich mir erstmal keine Gedanken machen.

Wäre auch extrem ärgerlich... das 600W Fanless ist kaum mehr als ein Jahr alt. Bei 12 Jahren Garantie soll das bitte auch mindestens so lange unterstützt werden.

Deine Argumentation geht in die falsche Richtung. Seasonic hat dir ein vollständig kompatibles ATX Netzteil geliefert.

Wenn jetzt ein HW Hersteller (Nvidia) mit einem proprietären Stecker daher kommt, ist das die Aufgabe dieses Herstellers dafür zu sorgen, dass die HW mit deinem Netzteil kompatibel ist, nicht umgekehrt.

Was ich hierbei nicht verstehe: Die Anschlüsse am Netzteil sind ja nicht genormt sofern ich das in Erinnerung habe!? Das würde bedeuten, man ist auf den entsprechenden Adapter des NT Herstellers angewiesen.

Nvidia könnte höchstens einen Adapter (2x6/8 Pin auf 12) beilegen. Dabei wäre aber nicht sicher gestellt, dass die beiden Stecker von unterschiedlichen Anschlüssen am Netzteil kommen. Oder sehe ich das falsch?
 
  • Gefällt mir
Reaktionen: FX-Multimedia
AssembIer schrieb:
Wenn jetzt ein HW Hersteller (Nvidia) mit einem proprietären Stecker daher kommt, ist das die Aufgabe dieses Herstellers dafür zu sorgen, dass die HW mit deinem Netzteil kompatibel ist, nicht umgekehrt.

also proprietär würde ich das nicht nennen.

das ist ein existierender molex stecker, der pinout ist kein geheimnis und im wesentlichen ein remix von vorhandener technik, aber sinnvoll ausgeführt. es wäre sehr gesund für die ganze branche, sich diesem vorstoß anzuschließen.
 
Ein neuer Stecker ist wirklich mal fällig. Mir will nur nicht in den Kopf, warum man da nicht gleich mal Nägel mit Köpfen macht.

beispielsweise XT40 mit 4mm² Kabel, diese sind für 480 Watt Dauer- und 720 Watt Spitzenlast gedacht.
Gut, 4mm² sind nun nicht die flexibelsten Kabel, aber man hätte erstmal Ruhe Ruhe und kein Problem mit Splitting (zumindest ausserhalb vom Netzteil)
Problematisch könnte das Verlötung der Buchse auf der Platine werden, aber auch das ist lösbar.

Edit:
Wobei ich grade überlege, warum eigentlich Kabel. Ein System von zusammensteckbaren, isolierten und kurzen Stromschienen, mit Ecken und Winkeln. Ähnlich wie Wasserleitungen.
Natürlich vergoldet und frei von Sauerstoff. Optional mit eingearbeitet Wasserkühlung.
 
Zuletzt bearbeitet:
AssembIer schrieb:
Nvidia könnte höchstens einen Adapter (2x6/8 Pin auf 12) beilegen. Dabei wäre aber nicht sicher gestellt, dass die beiden Stecker von unterschiedlichen Anschlüssen am Netzteil kommen. Oder sehe ich das falsch?

Ne siehst du ziemlich sicher richtig. Es ist davon auszugehen (ich behaupte einfach mal: 99,99% wahrscheinlich) dass ein Adapter beiliegt. Denn wenn die Karten mit 12-pol-Anschluss kommen und die Kunden ihre Karten nicht einbauen können, weil es entweder keine Adapter gibt, diese noch keiner hat, oder der Kunde davon gar nichts weiß, dann gibt's einen Shitstorm in Zyklonstärke.

Von einem Adapter ist also auszugehen. Zusammen mit einer gut platzierten Bedienungsanleitung mit großem roten Ausrufezeichen, dass beim Anschluss des Adapters 2 Rails bzw. "separate Kabelstränge" zu verwenden sind.
 
KCX schrieb:
Meine darf sich 310W gönnen und in die Regionen kommt sie auch mal hier und da. Bei 215W TDP würde ich quasi immer ins Powerlimit laufen. Selbst 268Watt lief sie sofort ins Limit und ich musste das OC Bios flashen.
KCX schrieb:
naja die Üblichen 5 bis 10% Mehrleistung

Ist jetzt arg OT, aber ~20 bzw. ~45 Prozent mehr Verbrauch (jaja, nicht konstant sondern nur in der Spitze, ist mir klar) für 5-10 Prozent mehr fps empfinde ich als -nennen wir es mal diplomatisch- unverhältnismäßig.

Die Hitze und den Lärm würde ich einfach nicht in der Wohnung haben wollen.
 
MIWA P3D schrieb:

Also ein (zur Zeit des Tests) 16 jähriges, ordentliches BQ wäre heute noch okay mit Ausnahme etwas
erhöhtem Ripple auf der 3.3V Schiene.

Ein (damals) 13 jähriges billo Coolermaster NT an dem schon gefrickelt wurde
und bei dem der Lüfter schon getauscht wurde ist nicht mehr gut.

Unterstreicht jetzt deine Argumentation nicht besonders gut.

Da bin ich mit meinem 11 Jährigen BQ SP E7-480 CM ja noch voll im grünen Bereich.
Beim nächsten Proz oder GPU Wechsel wird es aber weichen, bisher sieht alles gut aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FX-Multimedia
MIWA P3D schrieb:
Dann gehört es ausgetauscht. Nach 10 jahre ist ein Netzteile nur noch Müll
Ergänzung ()


Doch haben sie die Kondensator und ander Bauteile altern so das sie keine sauber Spannung mehr abgeben. Teils haben tester schon Schwankungen von über 50% gesehen die dann welche mal zu viel mal zu wenig an denn Anschluss liegt
Inwiefern ist ein altes Platinium Netzteil womit der PC selbst im OC stabil läuft Müll?
Einmal ordentlich gekauft.... hält für Jahre.
 
OZZHI schrieb:
Ich hoffe auf passende Kabel von Cablemod für mein AX850 sofern es nötig sein sollte. Einen Adapter werde ich mir sicher nicht einbauen.
AX850 klingt nach Corsair. Corsair ist meist = SeaSonic. Von SeaSonic ist das Bild vom Kabel aus dem Artikel, sollte daher problemlos funktionieren.
 
  • Gefällt mir
Reaktionen: OZZHI
Shoryuken94 schrieb:
Der bereich unter 150 Watt ist aber für dedizierte GPUs relativ uninteressant. Für so wenig Leistung reichen heutige APUs locker aus
Niemals gar nie nicht, meine 1070TI Strix läuft mit absolut stabilen 1911MHz@0,9V@max Speicher OC, zu 90% der Zeit unter 140W. Das ist in den meisten Fällen schneller als die 1080 Founders.
Und meine ist eine überaus durchschnittliche Karte. 76%PT sind 136,5W.
 

Anhänge

  • 3DMarkTimeSpy_2019_11_13_21_57_56_990.jpg
    3DMarkTimeSpy_2019_11_13_21_57_56_990.jpg
    1,2 MB · Aufrufe: 334
  • Gefällt mir
Reaktionen: Sly123
Axxid schrieb:
Wird sich nicht schon seit Generationen damit geruehmt, wie energieeffizient GPUs geworden sind? Besonders im Vergleich zur Konkurrenz?
Wenn man sich den Kuehler ansieht, wird die Karte riesig. Da sollte es doch kaum darauf ankommen wie gross der Stecker ist?
Weil sonst die Kabel des Netzteils drohen zu ueberlasten, verkleinert man den Querschnitt des Steckers?

Zur ganzen Sache von mit ein ".....haeh? "

Es geht mehr um den Spannungsabfall als um das Durchschmoren von Kabeln oder Steckern, denke ich.
 
Zurück
Oben