News Nvidia Ampere: Details zum neuen 12-Pin-PCIe-Anschluss für Netzteile

Seasonic hat mir auf Anfrage hin gesagt, dass es sich beim gezeigten "Adapterkabel" nicht um ein finales Produkt sondern um einen Prototypen für deren Partner handelt. Man will dort wohl erst noch Akzeptanz bzw. Marktdurchdringung des 12-Pin abwarten.
 
Bretze90 schrieb:
@Meteora RR

Einfach mit ner Karte rechnen die noch nicht auf dem Markt ist und sich irgendwelche Werte ausdenken ist natürlich super :hammer_alt:
Ich habe eine Annahme getroffen, mit welcher ich kalkuliert habe, auf Basis aktueller Infos. Wäre natürlich klasse, wenn an den Gerüchten nichts dran ist und die 3090 oder 3080Ti mit Mehrleistung <250W verbraucht.

Wenn man mal 1080TI und 2080TI anschaut hat man ungefähr 35% Mehrleistung für 8% mehr Verbrauch, sprich die 2080TI ist effizienter. Was da ne 3090 draus macht bleibt abzuwarten.
https://www.computerbase.de/2019-12...20/3/#abschnitt_messung_der_leistungsaufnahme

Du unterstreichst damit meine Argumentation ;)
 
Wo unterstreich ich denn deine Argumentation.

Du hast geschrieben das Nvidia ihre Effizienz auf die Reihe bekommen soll. Die 2080TI ist doch effizienter als die 1080TI ?!?!
Und zur 3090 gibts noch keine richtigen Informationen. Auch wenn die >300 Watt braucht steigt die Effizienz wenn die Leistung deutlich zunimmt.
 
Grafikleistung nach Netzteil ist bei einem Faktor von 1:10 der Kosten nicht ganz zuende gedacht. Wer ein Problem hat kann ja da PT auf -50 setzen.
 
Bretze90 schrieb:
Wo unterstreich ich denn deine Argumentation.

Ihm säuft das Ding absolut gesehen zu viel, wenn >300irgendwasW stimmen sollten. Effizienzsteiegrungen um 25% von Gen zu Gen sind ihm nicht genug. Nach seinem ersten Posting dachte ich auch er versteht nur den Begriff Effizienz nicht. Mit dem Zweiten wird es dann klarer.
 
  • Gefällt mir
Reaktionen: Bretze90
Was gabs hier schon für Diskussionen wegen der Netzteilgröße dabei hat oft das nächst höhere nur einen 10er mehr gekostet und bei der Effizienz spielt es auch nahezu keine Rolle.
Weshalb ich immer gesagt habe ein Netzteil kauft man für mehrere Jahre und deshalb größer wählen.
 
  • Gefällt mir
Reaktionen: HyperSnap, TorgardGraufell und Cyberskunk77
Fliz schrieb:
12 Pin Anschluß. .Krass. Ich bin ja eher dafür mal wieder in Richtung Effizienz zu forschen, statt immer bessere Kühllösungen und noch mehr Strom.
Demnächst dann 12 + 6. ;)
 
  • Gefällt mir
Reaktionen: FX-Multimedia
Aktuell bringt das ganze genau eines: Zwangsweise Adapter oder neues Netzteil bei neuer NVidia GPU. Das ist für mich als potentiellem Kunden natürlich erstmal negativ. Und zwar egal, wie sinnvoll ein Update der Stromversorgung generell wäre. Natürlich ist da mit Gemecker zu rechnen.

Ich selbst sehe das halt vor allem deshalb etwas kritisch, weil es von NVidia kommt. NVidia kocht leider gerne ein eigenes Süppchen, statt mit/an Standards zu arbeiten.
 
Shoryuken94 schrieb:
...
Der bereich unter 150 Watt ist aber für dedizierte GPUs relativ uninteressant. Für so wenig Leistung reichen heutige APUs locker aus und wenn jemand die leistung einer Zusatzkarte benötigt, dann ist es in der Regel schon deutlich mehr, als man mit einer 50 Watt Karte schaffen könnte. ...
Fake News...
Eine 100W Desktop GPU ist einer APU meilenweit überlegen.
Die Vega 11 eine AMD APU bewegt sich auf dem Niveau einer 60W nVidia 860M.(Anno 2014, Fire Strike 3,5k)
Eine 100W GTX 1650 Super bietet mehr als die 3fache Leistung. (Fire Strike 11k)
Das reicht auch um SotTR mit 60fps auf FullHD(Ultra) darzustellen. Probier das mit der APU...

Eine 125W GTX 1660 Super hat die 4fache Leistung der APU.(Fire Strike 15k)
Eine 5500XT mit 130W ist ähnlich schnell.

Das ist der Leistungsbereich um grafisch mittel anspruchsvolle Spiele optisch gut und mit 60 - 100 FPS darzustellen.(FullHD) Bei der APU muss man mit deutlichen optischen Einbußen oder fps-Einbrüchen rechnen.

Kurz gesagt ist dieser Bereich für dedizierte GPUs am relevantesten.
Nicht jeder hat eine 2080Ti in seinem Rechner.

Ich halte es für sinnvoll maximal an die 250-300W zu gehen.
Die zukünftigen Konsolen werden niemals solch einen hohen GPU-Leistungsverbrauch haben.
Wozu dann 400W+ für Desktop-GPUs???
Außerdem bringen fette GPU-Kühler nichts, da der ganze Rechner (plus Raum) aufgeheizt wird und das hat mich schon bei der Vega56 extrem genervt. Ich brauche keine zusätzliche Heizung im Raum...
 
Hejo schrieb:
Was gabs hier schon für Diskussionen wegen der Netzteilgröße ...
Weshalb ich immer gesagt habe ein Netzteil kauft man für mehrere Jahre und deshalb größer wählen.

Ich las hier auf CB mal einen passenden Kommentar dazu, der sinngemäß lautete: "Kauft eure Netzteile mal immer schön knapp..." Ein Schmunzeln über den darin liegenden Sarkasmus konnte ich mir nicht verkneifen.
 
  • Gefällt mir
Reaktionen: ArtVanderlay und RNG_AGESA
Hibble schrieb:
Nein, bei den 19V geht es hauptsächlich darum, dass die Eingangsspannung größer als die Ladeschlussspannung sein muss, weil es sonst von der Leistungswandlung umständlich wird. Die Ladeschlussspannung bei einem 3-zelligen Notebookakku sind nunmal 12,6V, weshalb 12V Eingangsspannung sehr ungünstig wären.

Die Umstellung von 5V auf 12V ist übrigens nicht vergleichbar mit einer Umstellung von 12V auf höhere Spannungen. Denn mit der Umstellung von 5V auf 12V wurden für die CPU auch keine Linearwandler mehr verwendet, deren Verlustleistung ja proportional zur Eingangsspannung ansteigt. Bei Schaltwandler so wie es sie jetzt sind, gibt es andere Zusammenhänge. Und wie gesagt würden da die Halbleiterverluste ansteigen, auch wenn man in anderen Bauelementen und in den Kabeln vielleicht Verluste sparen könnte.

Hier wiederspreche ich einmal für beide Aussagen. Ein Step Up Wandler hat die gleichen Bauteile, wie ein Step Down. Nur sitzt die Induktivität wo anders. Bei einem Step Down braucht man noch zusätzlich einen Highside Treiber oder muss einen p-Mosfet benutzen.
Auch waren seit den späten Sockel 7 Mainboards Step Down Wandler Standard. Habe sogar noch einen frühen Athlon Thunderbird ohne P4 Stecker. Da wird die CPU Spannung aus 5V generiert. Bei 70W beim 1400er ne Menge Ampere auf der 5V Leitung.
 
Es gibt immer eine Lösung einfach die Zeit abwarten. Ich denke ich werde mir ne MSI RTX 3090 zulegen. Für 34Zoll ist die MSI RTX 2080Super doch schon Arg an der Grenze.

Aber ich habe Zeit erstmal abwarten und Tee tinken wenn sie bei Geizhals und Test´s Verfügbar sind.
 
Der nächste Anschluss sieht ohnehin komplett anders aus.
5bc9c8c.png

So in etwa :evillol:

Aber Spaß beiseite. Abseits der FE werden wir vom 12 Pin wohl erstmal nicht viel sehen. Die kleineren Karten runter bis zur 3050 werden sicherlich auch sehr sparsam und effizient sein. Für den geneigten full HD Gamer wird sicherlich etwas sparsames bei Rum kommen.

Ich denke sogar dass man im Low end tatsächlich Karten erhält die gute Leistung fürs geld bringen. Auch bei AMD wird Navi 23 sicherlich günstige Leistung ermöglichen.


PC gaming wird nicht teurer. Wer die Auflösung nicht verändert spart sogar Geld ;)
 
  • Gefällt mir
Reaktionen: xXDarthGollumXx
FX-Multimedia schrieb:
Nach der Logik ist fast nichts proprietär. Natürlich ist der Stecker aber ein solches "Format". NV selber hat den Anschluß inkl. Pin-out festgelegt, da ist nichts Standard oder Zertifiziert.

der unterschied ist aber, dass amd und intel für ihre GPUs den stecker ruck zuck 1:1 übernehmen können. der witz an der geschichte ist ja, dass daran wirklich jeder profitiert.

die gpu hersteller brauchen sich keine gedanken mehr über die stromstecker und buchsen machen - einfach einen 12 pin auf jedes board und fertig - der braucht ähnlich viel platz wie ein 6 pin, aber hat genug leistung für alles, was sich irgendwie noch anständig am desktop kühlen lässt.

netzteilhersteller brauchen weniger kabel und adapter und für die ist der 12 pin auch sicherer als die ganzen pcie bastellösungen, u.a. was die überlastung von einzelnen kabeln angeht.

anwender profitieren wie die hersteller von einer besseren verkabelungssituation, was sicherheit, ease of use und verkabelungslayout angeht.

das ganze kann ja hinterher immernoch spezifiziert werden - aber auch hier wieder ein vorteil: die norm kommt aus einem reellen anwenderfall - nämlich der stromversorgung für eine wirklich wirklich fette und durstige gpu. aus einer besseren situation heraus kann man eigentlich keinen neuen gpu stromanschluss-standard definieren. wenns für die 3090 gut genug ist, isses auch für alle anderen gut genug.

das gequengel hier ist absolut irrational. natürlich gibts ne umstellungsphase, aber das ding ist in jede richtung adaptierbar und an manche bestehenden netzteile sogar nativ anschließbar.
 
  • Gefällt mir
Reaktionen: milliardo
beckenrandschwi schrieb:
Hier wiederspreche ich einmal für beide Aussagen. Ein Step Up Wandler hat die gleichen Bauteile, wie ein Step Down. Nur sitzt die Induktivität wo anders. Bei einem Step Down braucht man noch zusätzlich einen Highside Treiber oder muss einen p-Mosfet benutzen.
Auch waren seit den späten Sockel 7 Mainboards Step Down Wandler Standard. Habe sogar noch einen frühen Athlon Thunderbird ohne P4 Stecker. Da wird die CPU Spannung aus 5V generiert. Bei 70W beim 1400er ne Menge Ampere auf der 5V Leitung.
Mit einer Akkuspannung von 10,8 bis 12,6 bringt ein Step-Up-Wandler allein aber auch nichts ;)

Okay, stimmt. Wie die Historie genau war, hab ich nicht im Kopf. Aber ja für einen K7 kamen natürlich Schaltregler zum Einsatz. Aber wie gesagt, ob sich der Systemwirkungsgrad mit Spannungen größer als 12V verbessern lässt, ist nicht ganz so trivial. Man würde letztendlich Verluste nur vom Netzteil zum PoL-Wandler verschieben. Aber dadurch, dass die PoL Wandler auch immer effizienter werden, könnte man die Überlegung zum Anheben der Versorgungsspannung zukünftig trotzdem verfolgen.
 
  • Gefällt mir
Reaktionen: Rockstar85
Ich denke, das wird dann einfach eine Erweiterung und kein Ersatz sein:
1x6 Pin: 75W
1x8Pin: 150W
1x12Pin: 300W

Theoretisch könnten ja die drei Stromführenden Adern bei dem 6-Pin-Stecker auch schon 216 Watt (3x6A*12V), aber mit nur 3 Ground-Pins wird dem Netzteil signalisiert: max. 75W, mit 5 Ground-Pins: max 150W. Da ein abgespecktes 12Pin-Kabel keinen Sinn macht (10PIN? - 150W = 8Pin ???)haben wir dann halt demnächst Netzteile mit allen drei Steckern, Netzteile unter 500W werden wohl keinen 12PIN-Stecker anbieten.. (Es gibt ja auch jetzt Netzteile, die nur einen 6-Pin-Stecker anbieten, weil sie für einen 8-Pin-Stecker einfach zu wenig Power auf 12V haben.. Das System braucht ja auch noch was, die CPU, der PCIex16 darf auch 75W ziehen..
 
r4yn3 schrieb:
Ach bitte, soll das wirklich gängige Praxis sein dass Leute ihre 1000€ GPUs mit so dämlichen Splittern betreiben?

Abseits der Specs des neuen Stecker wirkt das hier einfach nur als vorgeschobener Grund.
Das denke ich auch, da eben die ganzen Netzteile, die von solchen Herstellern kommen eben keine Böller sind.. Und auch die Maximale Spezifikation nach ATX Norm ist locker ausreichend. Ich weiß nicht ob ich dies hier als Marketing oder Dickmove sehen soll, aber der nächste Schritt wäre dann die Verweigerung der Gewährleistung seitens NV, dass man mit 2x 6 Pin betreibt. Wobei die Markenhersteller alle mehr als AWG20 nutzen.
Da scheint NV wohl keinen Bock mehr zu haben, die Modelle auf Haltbarkeit zu trimmen.
 
  • Gefällt mir
Reaktionen: r4yn3
@puri der 12 Pin Anschluss kann 600 W
 
Zurück
Oben