News Grafikkarten: Neuer Stromstecker für bis zu 600 Watt kommt

Status
Für weitere Antworten geschlossen.
Vitali.Metzger schrieb:
Sind die Hersteller zu faul wieder Fortschritte bei der Effizienz zu machen
Die Effizienz ist in den letzten Gens massiv gestiegen, man möchte nur gleichzeitig die Leistung weiter ans Limit bringen und hebt dann noch den Maximalverbrauch deutlich an. Das ist auch der Grund warum Smartphones trotz steigender Effizienz immer dickere Akkus haben.
 
branhalor schrieb:
Streng genommen gäbe es kurzfristig da nur eine Option: VERZICHT!
Genau so ist das.
Und wenn es jeder verantwortungsvolle Erdenmensch, der nicht täglich ums Überleben und eine würdige Existenz kämpfen muss, das auch grundsätzlich (=langfristig) so handhaben würde, wäre schon viel gewonnen. Vor allem wäre das in der Wahrnehmung dann vielleicht gar nicht so ein "schlimmer" Verzicht.
Das schließt auch keine 3090 aus (z. B. wenig bis gar nicht privat fliegen). Der Gesamtverbrauch/Kopf/Zeit ist relevant.
 
Zuletzt bearbeitet: (Formulierung)
  • Gefällt mir
Reaktionen: Ranayna und branhalor
Also einen Stecker für alle ist ja super. Aber das mittlerweile überhaupt so viel Watt gezogen wird ist erschreckend :mussweg:
Bin mal gespannt wie schnell durch die Bank alle Hersteller umstellen. Wär ja blöd, wenn die kleinen Karten für mehrere Jahre weiter 6 oder 8 Pin Stecker haben und nur die, die mit mehr Stromhunger die neuen Stecker.
"Freue" mich aber auch schon darauf, wenn dann nicht modulare Netzeile neben zwei 6+2 pcie Steckern auch noch den neuen Stecker zusätzlich haben. Aber vielleicht paßt es ja sinnvoll von den Adern her das per Adapter zu lösen.
 
600W sollten im Idealfall in gar nicht so ferner Zukunft für viele kein Problem mehr sein. Dann wäre die Stromversorgung wo es geht dezentralisiert, der Strom käme oft vom Dach und es würde auch einen Weg geben, den vernünftig zu speichern. Ich könnte bei durchschnittlichen Wetter daheim den ganzen Tag auch mit einer 1000W-GPU spielen, weil vom Dach eh doppelt so viel Strom kommt wie wir verbrauchen können. Das muss nur noch nachts und im Winter nutzbar gemacht werden und ich hab kein Problem mehr mit solchen Grafikkarten. Solange sie in der Anschaffung nicht teurer sind als meine Schmerzgrenze (~500€) immer her damit!

Das Problem sind leider die Energieriesen, die weiter z.B. möglichst an der teuren, schädlichen Braunkohle festhalten wollen. Wenn man die Subventionen, die Kohle- und Atomstrom seit Ewigkeiten genießen in private Dächer und Entwicklung von Speichermethoden gesteckt hätte wären wir heute weiter. Aber wie gesagt, wenn die Industrie befiehlt folgen vor allem CDU und FDP und leider auch die SPD viel zu oft. Traurig, dass auch hier manche ins selbe Horn stoßen...
Strom muss grüner, dezentraler und dadurch deutlich günstiger werden.

Wie der Strom in die Grafikkarte kommt ist mir dabei eigentlich egal.
 
Next Gen GPUs sollen "ab" 450 Watt nuckeln dürfen, NV sind halt die ersten damit, noch vor der Next Gen und zwar beim Refresh der aktuellen Gen.

Gen"ial" :D
 
Dwelck schrieb:
Verrückt. Ich habe einen Komplettrechner, der laut offiziellen Angaben im Leerlauf 6,8 W und max. 39 W benötigt. Und das finde ich auch gut so.
Die Frage ist halt, wieviele fps der in Spielen wie Cyberpunk oder BF 2042 auf den Bildschirm zaubert.
 
branhalor schrieb:
Naja, die Frage ist ja immer: Wer enrtscheidet, was nötig ist und was unnötig...?
Ich würde ja sagen, das sollte jeder für sich selbst entscheiden, aber man sieht ja, wenn man sich umschaut, wohin das die Gesellschaft bringt :D
branhalor schrieb:
Selbst den Tiefkühler bräuchte es nicht unbedingt, wenn wir anders haushalten würden.
Vermutlich auch eine Grundsatzdebatte, was klimafreundlicher ist: täglicher Einkauf oder ein Tiefkühler? Aber das ist glaub eine Grundsatzdiskussion, die hier definitiv nichts verloren hat ;)
branhalor schrieb:
Raytracing [...] VR [...]
Hat irgendjemand auf diesem Planeten einen konkreten Nutzen davon: Ja, u.a. die Medizintechnik.
Raytracing und VR haben ihren Einsatz in Wirtschaft und Wissenschaft, und da finde ich persönlich es nicht ganz so kritisch, wenn ein Mehrwert daraus entsteht. Wenn etwa durch RT-Cores die Renderzeit eines Films auf gleicher Hardware theoretisch halbiert werden kann, ist das gut. Wenn Ärzte an VR-Headsets besser ausgebildet werden können, ist auch das ein Mehrwert für die Gesellschaft.
Die Frage ist ja nur, ob sich die Spielzeit für einen reduziert, weil man Raytracing benutzen kann. Hier kann man argumentieren, dass es die Spieleentwicklung beschleunigen würde, weil man vorgefertigte APIs hat für Reflektionen, aber, wenn wir ehrlich sind, bräuchten die meisten Spiele eher mehr als weniger Entwicklungszeit ;)

branhalor schrieb:
Da bin ich rein theoretisch absolut Deiner Meinung.
Aber auch da ist das System als ganzes "Schuld" dran, der Kapitalismus (und nein: Ich bin kein Kommunist ;)) und damit auch wir als Konsumenten: Heute gilt ausschließlich "schneller, höher, weiter".
Darum braucht es ja Regulationen ;)
Ich persönlich bin ohnehin der Meinung, dass wir global betrachtet ohnehin von keinem freien Markt mehr sprechen können, wenn wir Staaten wie China, aber auch die USA, haben, welche den Markt entweder durch Investitionen oder Zahlungssperren lenken können, wie sie möchten. Anderes Thema für andere Zeiten.
branhalor schrieb:
Aber - um es mal wieder in einem Bild auszudrücken - wenn unsere Straße den "Preis der saubersten Straße" gewinnen will, nutzt es nichts, wenn ich vor meiner Tür auch noch die letzten drei Moosklumpen und Laubblätter wegfege, solange andere in der Nachbarschaft absolut keinen Handschlag rühren. Der Gesamtlevel und die Gesamteffizienz - die ersten 80% - müssen erstmal gewuchtet werden, bevor ich mir um die letzten 20 und insb. die letzten 20 bei Otto-Normalverbraucher Gedanken mache.
Ich würde das jetzt mal als fatalistischen Utilitarismus bezeichnen ;)
Aber genau das bringt ja auch nicht weiter. Wir können nicht den Saubersten-Straße-Preis gewinnen, wenn wir nur darauf warten, dass der Nachbar sich bewegt. Und ja, ich hab gelesen, dass du dich selbst zurückhältst. Das Problem ist halt nur, dass von (zu) vielen Leuten die selbe Meinung vertreten wird, die sich aber dennoch nicht zurückhalten.
branhalor schrieb:
=> Ich tue, was ich kann, bis zu einem gewissen Punkt, s. oben - aber dann haben Politik und Wirtschaft bitte ihrerseits erst einmal dafür zu sorgen, daß auch andere Bereiche nachziehen - und zwar global - nicht nur in NRW, Bayern oder Deutschland.
Und entsprechend finde ich einen Stecker, welcher für eine Dauerlast von 600W ausgelegt ist, als kritisch. Weil im Endkonsumentenbereich wird es sicherlich nicht lange dauern, bis es Karten gibt, welche das ausreizen. Schlicht und einfach, weil sie es können. Wie gesagt, 500+W Peaks sind jetzt schon real. Entsprechend wird es auch Leute geben, die diese Karte verbauen müssen, schlicht und einfach, weil sie es können.
Und dann minen, schlicht und einfach, weil sie es können.
Es ist einfach ein Teufelskreis, der sich hier auftut: GPUs mit steigendem Verbrauch, CPUs mit steigendem Verbrauch, SSDs mit steigendem Verbrauch, alles will und will mehr verbrauchen...

Eigentlich ist es doch absurd, dass gerade eine Firma wie Apple es schafft, effiziente Prozessoren zu produzieren, welche die Workflows minimal langsamer als Highend-Maschinen hinbekommen, bei zeitgleich massiv geringerem Energiebedarf.
Wechhe schrieb:
Eben auch die Monsterkarten mit 600 Watt. Und da sind 600 Watt vielleicht sogar noch knapp bemessen.
Wenn du von Data Center GPUs sprichst, die haben sowieso ganz andere Anschlüsse. Da kommst mit deinem ATX-Netzteil nicht weit.
 
  • Gefällt mir
Reaktionen: branhalor
Neuer Stromstecker für bis zu 600 Watt kommt
vs.
Offiziell ist dieser noch nicht

Was denn nun? Oder einfach nur bissel Clickbaiting zum Wochenanfang?

doch berichten mehrere Webseiten übereinstimmend darüber.
Alle diese Quellen basieren letztendlich auf der gleichen einen Quelle, oder? Self-fulfilling prophecy?

CB verabschiedet sich leider aus dem Technikjournalismus und rutscht in die sich selbst erzeugende Infotainment-Blase ab.
 
Caramon2 schrieb:
Es ist doch absurd, dass der geringste Verbraucher (Mainboard mit CPU, RAM, Laufwerke & Co) den Haupt-Stromanschluss bekommt.
Hast Du Dir mal die Pin-Belegung des ATX-Steckers angesehen? Der Stecker ist so dick, weil er unterschiedliche Spannungen übertragen muss. 12V wird im alten 24-Pin-Stecker über zwei Pins realisiert. Hinzu kommen viermal 3,3V, fünfmal 5V, einmal -12V, einmal 5VSB, einmal PowerOK, der Rest ist mit einer Ausnahme (leer) Masse. Da Grafikkarten mit 12V versorgt werden, ist Dein Vorhaben eher unpraktikabel. Wenn Dich der fette Stecker stört, musst Du auf 12VO hoffen. :)
 
  • Gefällt mir
Reaktionen: Tinpoint
Sly123 schrieb:
Bei einer 3090 beim Netzteil zu sparen ist ja fahrlässig.
Gespart habe ich bei meinem Netzteil ja net wirklich (war ja nicht billig/günstig), aber ein 1600W Netzteil braucht es eben auch nicht für eine 3090, eine 1000W Netzteil genauso wenig…
 
  • Gefällt mir
Reaktionen: Sly123
Wie viele hier schreiben ist das die falsche Richtung. Ich frage mich immer wieder wieso der Trent mitgemacht wird.

Die Idee einer fixen maximalen Energieaufnahme würde zum einen dieses zweifelhafte Rennen beenden, Ressourcen schonen und zu Software- und Hardwareoptimierungen erzwingen.

Am Ende würden dadurch alle profitieren.
 
  • Gefällt mir
Reaktionen: Ralle321
puri schrieb:
Nur noch ein Stecker in Zukunft halte ich für kritisch.. Dann denkt der Laie, sein 350W-Netzteil hat ja den Stecker, also kann ich die Grafikkarte, welche die passende Buchse hat anschließen.. Ich denke, man sollte den 600W-Stecker nur verbauen, wenn es das Netzteil auch liefern kann. Bei einer Haushaltssteckdose kann ich mich ja auch darauf verlassen, dass sie normalerweise immer 16A = 3520 W liefern kann (10A-Sicherungen sind meistens für den Lichtstromkreis), und es gibt keine, die nur max 4 oder 6A liefern können.
16A sind 3680W (230V Netzspannung), die Steckdosen müssen die Belastung nach Teststandard nur 1 Stunde aushalten, darüber kann gut gehen, muss aber nicht, dauerlast für normale SchuKo-Dosen sind 10A (Bei z.B. Busch-Jaeger bei Bedarf zu erfragen) und hier hast du deine "Sicherung" (Die Dinger heißen Leitungsschutzschalter :P) in 4A (C Charakteristik) sowie in 6A (B Charakteristik). Aber hast recht, Lichtstromkreise in der Regel mit B10A LS da die normalen Schalter nur 10A aushalten. (Bei Neubau und Modernisierung sollten die Lampen mittlerweile aber getrennt von den Steckdosen mit einem B10A Fi-LS abgesichert werden) [Hoffe du nimmst mir das jetzt nicht böse]

Bezüglich dem Stecker bei nem 350W Netzteil und nem Laien stimme ich dir allerdings zu 100% zu, der Stecker sollte dann wirklich nur dann am Netzteil vorhanden sein wenn es genug Leistung für eine 600W Grafikkarte sowie das übrige System erbringen kann, also vermutlich erst um 750W rum.

Im allgemeinen würde ich es aber tatsächlich eher begrüßen wenn eine GPU Generation mal nicht mit Augenmerk auf "Leistungssteigerung egal wie" entwickelt wird sondern eher in Richtung "Effizienz steigern bei mindestens gleicher Leistung". Momentan wird die Leistung gefühlt nur noch über mehr Stromaufnahme realisiert. (Ich weiß, der Eindruck mag täuschen, selektive Wahrnehmung und so)

Auf der anderen Seite bedeutet ein Stecker aber auch wieder weniger Kabel zum verlegen und je nach Gehäuse auch weniger Kabelsalat. Ist schon irgendwie ein zweischneidiges Schwert :/
 
  • Gefällt mir
Reaktionen: puri
Ja gut.
Bezeichnet ja nur was der Stecker maximal aushält..
Also ich finde es gut das ganze Mal auf einen zeitgemäßen Anschluss zu bringen.

Was das andere angeht.. Stromverbrauchssorgen und Umweltaktivisten die durch Propaganda verblendet sind ist wieder so ein deutsches Problem auf den Weg in den Öko-Sozialismus.

Selbstverständlich sollte man auf seinen Verbrauch achten ect.. aber selbst wenn Deutschland heute von der Karte verschwindet mit all seinen Menschen,Tieren, Autos, Kraftwerken ect
Juckt es das Klima absulut nicht.
Vorallem nicht wenn das was dadurch eingespart wird von anderen Ländern innerhalb von wenigen Monaten einfach oben drauf gelegt wird.
 
kleinstblauwal schrieb:
Als ob das automatisch impliziert, dass alle Grafikkarten spätestens bei der nächsten Generation 600 W verbrauchen werden.

Hat das ernsthaft jemand behauptet?
Natürlich ist es positiv in Zukunft nur noch einen Stecker für die Grafikkarte zu haben, aber in Kombination mit der Gerüchteküche bezüglich der Leistung der nächsten GPU-Generation (High-End) macht man sich dann eben schon seine Gedanken um den Verbrauch.

Ich persönlich werde dann statt High-End eben für beide PCs im Effizienz-Segment kaufen, da ein Stromverbrauch >300 Watt nur für die GPU einen Betrieb im Sommer (für mich) unmöglich macht.
 
branhalor schrieb:
Aber die Sache ist komplexer, als einfach nur einzelne Grafikkarten-Segmente zu ächten.

Natürlich und du sprichst viele konkrete und richtige Punkte an, nur habe ich aus deinen ursprünglichen Beitrag eben raus gelesen/reininterpretiert, dass vermeintlich 'kleine Probleme' nicht angegangen werden brauchen, solange Größere weiterhin bestehen.

Darin sehe ich persönlich ein fundamentales Problem, weil so nie ein Anfang gemacht wird. Alles, was die Effizienz verbessert, ist unabhängig von allem Anderen erst mal ein Schritt in die richtige Richtung. Entsprechend sehe ich auch in vielen deiner Beispiele kein generelles Problem.

branhalor schrieb:
Dann gehören auch vier Smartphones und zwei Tablets je Haushalt verboten, spätestens der zweite Tiefkühler, der TV in jedem Kinderzimmer, der Mähroboter und der Staubsaugerroboter, elektrische Rolläden, generell Smart-Home, usw. usw. usw.

Wenn Smartphones und Tablets größere Rechner ersetzen, ist das prinzipiell effizienter.

Ein neuer OLED ist größer und besser als ein alter Plasma, verbraucht aber weniger.

Der Mähroboter, der einen Benzinbetriebenen ersetzt, ist effizienter und nimmt dir Arbeit ab.

Neue, fortschrittliche Spielereien und privater Luxus müssen nicht per se schlecht sein; erst wenn es exzessiv wird, wird es mMn kritisch.

Da sehe ich persönlich gerade in der Gaming Community gewisse verschwenderische Tendenzen, getreu dem Motto unter 4k/144Hz ist nichts mehr spielbar. Ob dabei 500, 700 oder 1000 Watt verbraten werden ist dann egal.
 
  • Gefällt mir
Reaktionen: R00tMaster71 und DocAimless
Sollte eigentlich nicht die Entwicklung in Richtung Sparmodus gehen anstatt höher?

Denn schon jetzt verbraucht meine Grafikkarte mehr als ein Kühlschrank und Fernseher zusammen.
 
  • Gefällt mir
Reaktionen: R00tMaster71
So sieht das Kabel aus.
 

Anhänge

  • 160221-295807-295804.png
    160221-295807-295804.png
    338,2 KB · Aufrufe: 251
  • Gefällt mir
Reaktionen: Herdware
Hmm finde ich jetzt nicht so erstrebenswert, bis zu 600w möchte ich nicht bei einer Grafikkarte sehen auch nicht bei Topmodellen finde es aktuell schon zu viel..
 
  • Gefällt mir
Reaktionen: R00tMaster71
branhalor schrieb:
Aber unser Gesamtproblem in Energiehinsicht ist wesentlich größer als hier und da ne einzelne HighEnd-Gamer-Grafikkarte mit bis zu 600 Watt.
Das ist das klassische Gefangenendilemma und ohne koordiniertes Vorgehen, gebe ich dir vollkommen recht, ist der einzelne Verzicht während der andere hier aus dem Vollen schöpft, ein Tropfen auf dem heißen Stein.

Zeitgleich "belohnt" das derzeitige System sehr selten Einschränkungen, noch dazu persönliche. Nein, es lebt ja von der Ausnützung der Vorteile und dem Externalisieren der Probleme außerhalb des Alltäglichen. Ich sehe da mittelfristig wenig Chance, denn Änderungen müssten tatsächlich grundlegend, umfassend, weltweit sein.
 
  • Gefällt mir
Reaktionen: ComputerJunge, branhalor, Palitore und eine weitere Person
Solange die Hersteller Adapter anbieten ist alles gut. Würde mein AX1600i gern noch ein wenig behalten.

Auch ist gut dass es wieder einen einheitlichen Stecker gibt und dass es nicht der 12 Pin von Nvidia ist :D

Der GPU Verbrauch ist mir ziemlich egal. Wenn RDNA3 und Ampere Nachfolger so viel schneller werden wie vermutet haben wir Natives 6k gaming bei 60 FPS oder 4k240 in Reichweite. Wer das unbedingt will muss halt zahlen.

Der Rest kauft zukünftig untere Mittelklasse wie Navi 33 welche immernoch auf höher einer 6900 XT sein soll und hat bei dann sicherlich unter 200w immernoch sehr viel Leistung.

Dem Rest Steht es frei noch tiefer zu kaufen die Performance pro Watt hat besonders bei AMD Extrem zugelegt, aber selbst Ampere ist da kein Reinfall.

Kurzfassung: für WQHD und drunter braucht man zukünftig keine Riesen GPU mehr. Also entspannt euch. Die kleinen sparsamen Karten gibt's weiterhin
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben