Technisch sinnvolles Kabel für ALLE Karten, die nach jetzigem Stand auf 2 6/8-Pins angewiesen sind. Etwas schade halt, dass es wieder nach Nvidia-Alleingang aussieht. Das steht einer schnellen Verbreitung dank Standardisierung vorerst wohl entgegen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia Ampere: Details zum neuen 12-Pin-PCIe-Anschluss für Netzteile
- Ersteller Hibble
- Erstellt am
- Zur News: Nvidia Ampere: Details zum neuen 12-Pin-PCIe-Anschluss für Netzteile
Jethro
Commander
- Registriert
- Aug. 2010
- Beiträge
- 2.137
wern001 schrieb:Ich hatte mehrere Ati 7990 mit 2x 8Pin stecker da sind unter Dauerlast (Mining) auch die Stecker weggebruzelt
Leon_FR schrieb:mir ist die selbe scheisse passiert :- /
Selber schuld, Mining ist ja auch kein normales Nutzungsszenario.
Da Ich mich hier nicht wirklich auskenne:beckenrandschwi schrieb:Ein 48V Netzteil arbeitet viel effizienter, als ein 12V NT
- Ist 230V AC -> 48 V DC -> ~1V DC effizienter als 230V AC -> 12 V DC -> ~1V DC über die ganze Kette hinweg betrachtet?
- Verlagere Ich nicht dadurch Verlustleistung vom Netzteil auf die Grafikkarte, womit Kühlung insgesamt komplizierter wird und ggf der Effizienzgewinn zu teuer erkauft wird?
KCX
Commodore
- Registriert
- Aug. 2007
- Beiträge
- 4.504
Isso... mein Reden. Ich kann mich noch an 2006/2007 (meine ich ) erinnern, wo der 8pin neu war und man glaubte, dass das die Endstufe wäre 😅 .nco2k schrieb:wetten dass irgendwann grafikkarten mit zwei solcher stecker erscheinen?
Aduasen
Fleet Admiral
- Registriert
- Aug. 2008
- Beiträge
- 14.318
v_ossi schrieb:Um die 2080Ti (250 Watt TDP) in Sachen Effizienz zu schlagen, müsste die 3090 bei spekulierten ~350 Watt Verbrauch mindestens 40% mehr Leistung bringen
Zumindest der 'Flurfunk' redet von 30% Mehrleistung gegenüber einer 2080Ti schon bei der 3080.
Maxxx800
Lt. Junior Grade
- Registriert
- Sep. 2017
- Beiträge
- 480
Oh, in China ist wieder mal ein Sack Reis umgefallen. 😲
Also mir ist das recht egal, falls das auch bei BigNavi kommen sollte kauf ich mir einen Adapter dazu. Meine Netzteile sind fast neu, die werden erst wieder in 10 Jahren getauscht.
Also mir ist das recht egal, falls das auch bei BigNavi kommen sollte kauf ich mir einen Adapter dazu. Meine Netzteile sind fast neu, die werden erst wieder in 10 Jahren getauscht.
Sly123
Lt. Commander
- Registriert
- Juli 2008
- Beiträge
- 1.607
..
(Edith)
Die Lösung, die als "Standard" angepriesen wird, funktioniert doch bei hochwertigen Netzteilen problemlos.
Ich habe da noch nie von Problemen gelesen.
nVidia möchte hier einfach wieder unnötig Standards über den Haufen werfen.
Anstatt mal einen Punkt bei 300W zu machen...
(Edith)
Die Lösung, die als "Standard" angepriesen wird, funktioniert doch bei hochwertigen Netzteilen problemlos.
Ich habe da noch nie von Problemen gelesen.
nVidia möchte hier einfach wieder unnötig Standards über den Haufen werfen.
Anstatt mal einen Punkt bei 300W zu machen...
Zuletzt bearbeitet:
jemandanders
Commander
- Registriert
- Mai 2019
- Beiträge
- 2.978
Nö, weil (vermutlich, Hoffentlich) ein einziger Grafikkarten Hersteller meint alle Grenzen des guten Geschmacks bei der Stromaufnahme reißen zu müssen.Conqi schrieb:Schon irgendwo traurig, dass es jetzt einen ganz neuen Stecker inklusive all den daran hängenden Kompatibilitätsproblemen geben wird, nur weil einige Netzteilhersteller Kabel sparen wollen.
Der Name ist halt Programm.TriggerThumb87 schrieb:...Da sollen halt mehr Ampere durch...
Zuletzt bearbeitet:
(Fehler korrigiert)
Benji18
Rear Admiral
- Registriert
- Jan. 2005
- Beiträge
- 5.373
G3cko schrieb:Warum nicht 2x 8-PIN oder 2x 6-PIN. Warum muss dieser Verein wieder ein eigenes Süppchen kochen.
weil Sie es können
- Registriert
- März 2010
- Beiträge
- 12.036
Damit verschiebt man dann nur die Verlustleistung auf die Spannungswandler von CPU und GPU, weil die nicht mehr so effizient arbeiten können bei so hohen Übersetzungen. Das bringt letzten Endes dann wahrscheinlich auch nicht so viel.beckenrandschwi schrieb:Es wird Zeit, dass von 12V auf 24 oder gar 48VDC gegangen wird. Welche Komponente im PC wird denn noch direkt mit 12V oder 5V versorgt? Ein 48V Netzteil arbeitet viel effizienter, als ein 12V NT. Auch die Ströme wären um den Faktor 4 kleiner.
Alles ein Relikt aus den 1980ern...
Bei den Servern ist ja auch noch alles ATX (12V).
Korrekt, @SothaSil
C
cobra38
Gast
Dann schau Dir zum Beispiel mal die Kabelaufteilung beim be quiet! Straight Power 11 750W an:Sly123 schrieb:Kenne kein vernünftiges Netzteil, wo der 6-Pin einfach aufgeteilt wird, was hier als "Standard" angezeigt wird.
Das ist einfach nur Pfusch und Billigkram.
Paradox.13te
Captain
- Registriert
- Juli 2009
- Beiträge
- 3.202
Ich werde mich erst einmal einlesen.
Syrato schrieb:@Rickmer 600W... reicht doch nie für die 3090.... und ob die kleineren Grafikkarten auch nwn 12 Pin haben bezweifle ich stark.
Aber mal schauen, was da alles kommt. 1 Woche, 7 Tage bis Lederjacke auf der Bühne tanzt.
Wenn das Teil die sagen wir mal ~400W Spitzen über die 12V liefern kann und der Rest des Systems einigermaßen sparsam ist, warum nicht? Bei besseren Netzteilen ist ja auch drin, was draufsteht.
- Registriert
- März 2010
- Beiträge
- 12.036
Was willst du mit dem Bild zeigen? Be quiet nutzt für die netzteilseitigen Anschlüsse 12-Pin-Buchsen und keine 6-Pinner. Da findet also kein Splitting statt!cobra38 schrieb:Dann schau Dir zum Beispiel mal die Kabelaufteilung beim be quiet! Straight Power 11 750W an:
Anhang anzeigen 958284
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Kabeltechnisch / Netzteiltechnisch ist es tatsächlich Murks was viele da machen / unbewusst anstecken.
Eine 3080 soll ja auch einfach so beim Kunden funktionieren. Wenn man da aber jeden Chinaböller anschließt ist es nicht gewährleistet. Ich meine wir sind hier in einem Fachforum einer Fachwebseite vom Elfenbeinthron aus. Wir wissens normal ja besser. Der Rest aber halt nicht.
Ich hätte an NVIDIAs Stelle den Standard eine Gen lang parallel zum alten leben lassen, falls das technisch möglich gewesen wäre.
Dann hätte man Zeit gehabt das am Markt zu platzieren.
Jetzt geht das Hickhack wieder los... Bietet mein PSU Hersteller auch ein modulares Kabel dafür an? Welche Adapter bei normalen Adaptern ist ratsam? Blabla, da kommt sicher noch viele Fragen der Kunden die nächsten Monate.
Auf jeden Fall leider ein Indiz für eine recht stromhungrige Karte.
Ich warte aber wie üblich auch was Team AMD da in ~2 Monaten anstellt.
Vielleicht ist AMD ja auch bei High-End Grafikkarten mal wieder wettbewerbsfähig geworden.
Eine 3080 soll ja auch einfach so beim Kunden funktionieren. Wenn man da aber jeden Chinaböller anschließt ist es nicht gewährleistet. Ich meine wir sind hier in einem Fachforum einer Fachwebseite vom Elfenbeinthron aus. Wir wissens normal ja besser. Der Rest aber halt nicht.
Ich hätte an NVIDIAs Stelle den Standard eine Gen lang parallel zum alten leben lassen, falls das technisch möglich gewesen wäre.
Dann hätte man Zeit gehabt das am Markt zu platzieren.
Jetzt geht das Hickhack wieder los... Bietet mein PSU Hersteller auch ein modulares Kabel dafür an? Welche Adapter bei normalen Adaptern ist ratsam? Blabla, da kommt sicher noch viele Fragen der Kunden die nächsten Monate.
Auf jeden Fall leider ein Indiz für eine recht stromhungrige Karte.
Ich warte aber wie üblich auch was Team AMD da in ~2 Monaten anstellt.
Vielleicht ist AMD ja auch bei High-End Grafikkarten mal wieder wettbewerbsfähig geworden.
v_ossi
Commodore
- Registriert
- Juni 2011
- Beiträge
- 4.791
hamju63 schrieb:Zumindest der 'Flurfunk' redet von 30% Mehrleistung gegenüber einer 2080Ti schon bei der 3080.
Der 'Flurfunk' spricht auch von 320 Watt bei der 3080.
So soll die GeForce RTX 3090 350 Watt benötigen, die RTX 3080 Ti/Super 320 Watt und die RTX 3080 ebenso 320 Watt, was bei jedem Modell ein ziemlich großes Plus gegenüber der GeForce-RTX-2000-Generation mit maximal 250 Watt bedeuten würde.
Das wäre schon mal eine Steigerung von 28% gegenüber der 2080Ti, dementsprechend sehen 30% Mehrleistung nicht unbedingt effizienter aus.
Gegenüber der normalen 2080 mit 215 Watt TDP wären es knapp 50% mehr Verbrauch für die 3080. Dann müssten mehr als 50% Mehrleistung hinzukommen um effizienter zu sein.
Klar, die TDP gibt weder bei Turing noch bei Ampere den 'realen' Verbrauch beim Zocken an, aber es ist ein Indikator dafür, in welche Richtung es gehen könnte.
Und das ist -sollte es so kommen- mMn ganz klar die Falsche.
Ähnliche Themen
- Antworten
- 46
- Aufrufe
- 6.679
- Antworten
- 12
- Aufrufe
- 5.472