News Nvidia Ampere: Details zum neuen 12-Pin-PCIe-Anschluss für Netzteile

Technisch sinnvolles Kabel für ALLE Karten, die nach jetzigem Stand auf 2 6/8-Pins angewiesen sind. Etwas schade halt, dass es wieder nach Nvidia-Alleingang aussieht. Das steht einer schnellen Verbreitung dank Standardisierung vorerst wohl entgegen.
 
beckenrandschwi schrieb:
Ein 48V Netzteil arbeitet viel effizienter, als ein 12V NT
Da Ich mich hier nicht wirklich auskenne:
  • Ist 230V AC -> 48 V DC -> ~1V DC effizienter als 230V AC -> 12 V DC -> ~1V DC über die ganze Kette hinweg betrachtet?
  • Verlagere Ich nicht dadurch Verlustleistung vom Netzteil auf die Grafikkarte, womit Kühlung insgesamt komplizierter wird und ggf der Effizienzgewinn zu teuer erkauft wird?
 
  • Gefällt mir
Reaktionen: medsommer
nco2k schrieb:
wetten dass irgendwann grafikkarten mit zwei solcher stecker erscheinen?
Isso... mein Reden. Ich kann mich noch an 2006/2007 (meine ich ) erinnern, wo der 8pin neu war und man glaubte, dass das die Endstufe wäre 😅 .
 
  • Gefällt mir
Reaktionen: nco2k und Aduasen
v_ossi schrieb:
Um die 2080Ti (250 Watt TDP) in Sachen Effizienz zu schlagen, müsste die 3090 bei spekulierten ~350 Watt Verbrauch mindestens 40% mehr Leistung bringen

Zumindest der 'Flurfunk' redet von 30% Mehrleistung gegenüber einer 2080Ti schon bei der 3080.
 
  • Gefällt mir
Reaktionen: Khalinor
Oh, in China ist wieder mal ein Sack Reis umgefallen. 😲

Also mir ist das recht egal, falls das auch bei BigNavi kommen sollte kauf ich mir einen Adapter dazu. Meine Netzteile sind fast neu, die werden erst wieder in 10 Jahren getauscht.
 
  • Gefällt mir
Reaktionen: nco2k
@Rickmer 600W... reicht doch nie für die 3090.... und ob die kleineren Grafikkarten auch nwn 12 Pin haben bezweifle ich stark.
Aber mal schauen, was da alles kommt. 1 Woche, 7 Tage bis Lederjacke auf der Bühne tanzt.
 
..
(Edith)

Die Lösung, die als "Standard" angepriesen wird, funktioniert doch bei hochwertigen Netzteilen problemlos.
Ich habe da noch nie von Problemen gelesen.

nVidia möchte hier einfach wieder unnötig Standards über den Haufen werfen.
Anstatt mal einen Punkt bei 300W zu machen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Conqi schrieb:
Schon irgendwo traurig, dass es jetzt einen ganz neuen Stecker inklusive all den daran hängenden Kompatibilitätsproblemen geben wird, nur weil einige Netzteilhersteller Kabel sparen wollen.
Nö, weil (vermutlich, Hoffentlich) ein einziger Grafikkarten Hersteller meint alle Grenzen des guten Geschmacks bei der Stromaufnahme reißen zu müssen.
TriggerThumb87 schrieb:
...Da sollen halt mehr Ampere durch...
Der Name ist halt Programm. :D
 
Zuletzt bearbeitet: (Fehler korrigiert)
Ja schön... Aber gibt es die auch in rot?
Das versaut mir jetzt mein Design :/
 
  • Gefällt mir
Reaktionen: Marc53844
G3cko schrieb:
Warum nicht 2x 8-PIN oder 2x 6-PIN. Warum muss dieser Verein wieder ein eigenes Süppchen kochen.

weil Sie es können
 
Hoffentlich macht AMD das besser!
 
  • Gefällt mir
Reaktionen: FX-Multimedia und nco2k
beckenrandschwi schrieb:
Es wird Zeit, dass von 12V auf 24 oder gar 48VDC gegangen wird. Welche Komponente im PC wird denn noch direkt mit 12V oder 5V versorgt? Ein 48V Netzteil arbeitet viel effizienter, als ein 12V NT. Auch die Ströme wären um den Faktor 4 kleiner.
Alles ein Relikt aus den 1980ern...
Damit verschiebt man dann nur die Verlustleistung auf die Spannungswandler von CPU und GPU, weil die nicht mehr so effizient arbeiten können bei so hohen Übersetzungen. Das bringt letzten Endes dann wahrscheinlich auch nicht so viel.

Bei den Servern ist ja auch noch alles ATX (12V).

Korrekt, @SothaSil ;)
 
  • Gefällt mir
Reaktionen: Maxxx800
Sly123 schrieb:
Kenne kein vernünftiges Netzteil, wo der 6-Pin einfach aufgeteilt wird, was hier als "Standard" angezeigt wird.
Das ist einfach nur Pfusch und Billigkram.
Dann schau Dir zum Beispiel mal die Kabelaufteilung beim be quiet! Straight Power 11 750W an:
master.png
 
  • Gefällt mir
Reaktionen: Draco Nobilis
Syrato schrieb:
@Rickmer 600W... reicht doch nie für die 3090.... und ob die kleineren Grafikkarten auch nwn 12 Pin haben bezweifle ich stark.
Aber mal schauen, was da alles kommt. 1 Woche, 7 Tage bis Lederjacke auf der Bühne tanzt.

Wenn das Teil die sagen wir mal ~400W Spitzen über die 12V liefern kann und der Rest des Systems einigermaßen sparsam ist, warum nicht? Bei besseren Netzteilen ist ja auch drin, was draufsteht.
 
cobra38 schrieb:
Dann schau Dir zum Beispiel mal die Kabelaufteilung beim be quiet! Straight Power 11 750W an:
Anhang anzeigen 958284
Was willst du mit dem Bild zeigen? Be quiet nutzt für die netzteilseitigen Anschlüsse 12-Pin-Buchsen und keine 6-Pinner. Da findet also kein Splitting statt!
 
  • Gefällt mir
Reaktionen: ChrFr, silentdragon95 und Bright0001
Kabeltechnisch / Netzteiltechnisch ist es tatsächlich Murks was viele da machen / unbewusst anstecken.
Eine 3080 soll ja auch einfach so beim Kunden funktionieren. Wenn man da aber jeden Chinaböller anschließt ist es nicht gewährleistet. Ich meine wir sind hier in einem Fachforum einer Fachwebseite vom Elfenbeinthron aus. Wir wissens normal ja besser. Der Rest aber halt nicht.

Ich hätte an NVIDIAs Stelle den Standard eine Gen lang parallel zum alten leben lassen, falls das technisch möglich gewesen wäre.
Dann hätte man Zeit gehabt das am Markt zu platzieren.
Jetzt geht das Hickhack wieder los... Bietet mein PSU Hersteller auch ein modulares Kabel dafür an? Welche Adapter bei normalen Adaptern ist ratsam? Blabla, da kommt sicher noch viele Fragen der Kunden die nächsten Monate.

Auf jeden Fall leider ein Indiz für eine recht stromhungrige Karte.
Ich warte aber wie üblich auch was Team AMD da in ~2 Monaten anstellt.
Vielleicht ist AMD ja auch bei High-End Grafikkarten mal wieder wettbewerbsfähig geworden.
 
Falls das Ding 400W Spitze hat sind 600w definitiv zu wenig. Eine aktuelle CPU plus Board schluck in der Spitze schon mal knapp 200 wenns blöd kommt.
Etwas reserve sollte immer da sein.
 
  • Gefällt mir
Reaktionen: ThePlayer
hamju63 schrieb:
Zumindest der 'Flurfunk' redet von 30% Mehrleistung gegenüber einer 2080Ti schon bei der 3080.

Der 'Flurfunk' spricht auch von 320 Watt bei der 3080.

So soll die GeForce RTX 3090 350 Watt benötigen, die RTX 3080 Ti/Super 320 Watt und die RTX 3080 ebenso 320 Watt, was bei jedem Modell ein ziemlich großes Plus gegenüber der GeForce-RTX-2000-Generation mit maximal 250 Watt bedeuten würde.

Das wäre schon mal eine Steigerung von 28% gegenüber der 2080Ti, dementsprechend sehen 30% Mehrleistung nicht unbedingt effizienter aus.

Gegenüber der normalen 2080 mit 215 Watt TDP wären es knapp 50% mehr Verbrauch für die 3080. Dann müssten mehr als 50% Mehrleistung hinzukommen um effizienter zu sein.

Klar, die TDP gibt weder bei Turing noch bei Ampere den 'realen' Verbrauch beim Zocken an, aber es ist ein Indikator dafür, in welche Richtung es gehen könnte.
Und das ist -sollte es so kommen- mMn ganz klar die Falsche.
 
  • Gefällt mir
Reaktionen: Flyerdommo, konkretor, MiniM3 und 2 andere
Zurück
Oben