Benji18
Rear Admiral
- Registriert
- Jan. 2005
- Beiträge
- 5.379
DF_zwo schrieb:Exklusivität
gibts dann von nvidia gleich das passende Netzteil dazu 🤷🏻‍♂️
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
DF_zwo schrieb:Exklusivität
Naja wenn man schon 3 mal 12 pin auf der Karte hat ist das einfacher wie 6 8 pinwern001 schrieb:Welchen Vorteil bietet den der 12 Pin Adapter gegenĂĽber 2x 8 Pin
6x +12V/6x Masse vs 6x +12V/8x Masse
Statt da ein Adapterkabel beizulegen wäre es doch sinnvoller gewesen 2x 8 Pin Stecker auf die GraKa zu machen
Klar braucht man die nicht. Aber das ist ja auch ein offizielles "Nvidia-Kabel" speziell für die 3090 (und ggf. noch weitere?). Wenn SeaSonic da schon 850W nennt, dann sind das 200W mehr als das, was noch offizielle Empfehlung für die 2080Ti ist. Dort sind es nämlich nur 650W.Maggolos schrieb:Zudem muss man wegen den empfohlenen 850W nicht direkt den Untergang beschwören. Wenn sich der Realverbrauch mit den Leaks deckt, braucht man natürlich keine 850W.
Dito schrieb:Warum bekommt die Grafikkarte nicht gleich ein Netzteil exclusiv mitgeliefert?
Ich sehe da auch Termi 2.0 kommen.
FĂĽr mich geht das in die falsche Richtung.
Meine persönliche Grenze sind 250W TDP. Besser 200W.
Nein, ist nicht das gleiche der 12Pin liefert einiges mehr an Ampere als 2x 6Pin bzw 2+6Pin. Nvidia will hier endlich mal mit dem Kabelkram aufräumen und etabliert den neuen Standard irgendwann muss ja einer anfangen.wern001 schrieb:Welchen Vorteil bietet den der 12 Pin Adapter gegenüber 2x 8 Pin
6x +12V/6x Masse vs 6x +12V/8x Masse
Statt da ein Adapterkabel beizulegen wäre es doch sinnvoller gewesen 2x 8 Pin Stecker auf die GraKa zu machen
smalM schrieb:Wieviel mehr wäre denn Otto-Normalverbraucher bereit hinzublättern, daß sein MB so konstruiert ist, daß das geht?
Da geht's auch um Stromstärken usw. , Ich meine Igor von THG hat es in einem Video gut erklärt weshalb das aktuelle 6 / 8 Pin system so krankt. 6 Pin 75W max, 8 Pin 150W, und jeder adaptiert aus Molex und Co sonstwas zusammen.Herdware schrieb:Ich bin auch sehr für Neuerungen, aber nur neue Kabel/Stecker mit anderer Pin-Zahl? Da sehe ich nicht wirklich einen Fortschritt. Das bleibt der alte Kabelsalat.
Herdware schrieb:Wäre es nicht eleganter, wenn die Zukunft der Stromversorgung von Grafikkarten in PCs ähnlich aussehen würde, wie z.B. im aktuellen Mac Pro? Also mit Stromanschlüssen direkt auf dem Mainboard als Ergänzung des PCIe-Steckplatzes. Bzw. halt PCIe selbst entsprechend für größeren Stromverbrauch modernisieren.
Dito schrieb:Warum bekommt die Grafikkarte nicht gleich ein Netzteil exclusiv mitgeliefert?
Ich sehe da auch Termi 2.0 kommen.
FĂĽr mich geht das in die falsche Richtung.
Meine persönliche Grenze sind 250W TDP. Besser 200W.
Wie kann denn an dem 12Pin mehr A "ankommen" als vom Netzteil für 2*8Pin "abgehen"? Der 12Pin wird ja Netzteilseitig an die 2*8Pin gesteckt. Wie also soll das gehen was du da schreibst?Hejo schrieb:Nein, ist nicht das gleiche der 12Pin liefert einiges mehr an Ampere als 2x 6Pin bzw 2+6Pin. Nvidia will hier endlich mal mit dem Kabelkram aufräumen und etabliert den neuen Standard irgendwann muss ja einer anfangen.
Krautmaster schrieb:Ich meine Igor von THG hat es in einem Video gut erklärt weshalb das aktuelle 6 / 8 Pin system so krankt. 6 Pin 75W max, 8 Pin 150W, und jeder adaptiert aus Molex und Co sonstwas zusammen.
DF_zwo schrieb:Exklusivität