News Grafikkarten: Neuer Stromstecker für bis zu 600 Watt kommt

Status
Für weitere Antworten geschlossen.
Wenn das so weiter geht, braucht man bald wie in der Küche für den Herd im PC Raum einen Starkstromanschluß.
 
Zuletzt bearbeitet: (Rechtschreibung)
  • Gefällt mir
Reaktionen: Öcher Tivoli und Mike_MTL
Ich bin extrem enttäuscht von diesem Stecker. 600 Watt? Ich meine, haben die den Schuss nicht gehört?
Die Welt versinkt in Affenhitze, im Winter ist es überall arschkalt, ganze Regionen werden überschwemmt und die wollen noch mehr Strom verbraten für GRAFIKSPIELE ZU UNTERHALTUNGSZWECKEN?

Können wir das nicht politisch unterbinden bzw. begrenzen. Wir müssen alle etwas genügsamer werden.
 
Ich frage mich immer, wie ich nur Doom oder Quake bzw. Need for Speed nur mit 30 FPS spielen konnte und es als flüssig empfunden habe.. Ich persönlich habe auch jetzt keinen Bildschirm und keine Anwendung, die mehr als 60Hz oder fps schafft (ich weiß, dass das was anderes ist) und habe nicht das Gefühl etwas zu verpassen. Allerdings spiele ich auch kaum noch und schon gar nicht die neusten Shooter.. Aber klar, 4-5fach höhere Framerate, 8-16-fache Auflösung wie zu meiner Gaming-Hochzeit , da kommt schon einiges an Mehrleistung zustande, allerdings kostet eine Obere Mittelklasse-Grafikkarte inzwischen auch so viel wie ein High-End-Smartphone - Die Verhältnisse haben sich massiv nach oben verschoben, da kann der Stromverbrauch sich auch vervierfachen.. Ich bin mal gespannt auf die Kühlkonzepte, die die Hersteller dann mitliefern..
 
Cool Master schrieb:
Nein und das wird auch nicht passieren. Strom ist und wird der Energieträger der Zukunft. Sieht man ja schon heute, dass alles ein Akku hat.
Trotzdem muss die Effizienz stetig verbessert werden, weil auch "verbrauchter" Strom am Ende in Form von Wärmeenergie in der Umwelt landet. Gab auch mal eine Studie, dass allein unser steigender Energiebedarf (unabhängig woher die Energie stammt) zur Erderwärmung beiträgt, eben weil es am Ende alles zu Wärme wird.
 
Caramon2 schrieb:
Wieso steckt man nicht einfach den 24pol an die GraKa und lässt den PC dann von der GraKa aus versorgen?

Es ist doch absurd, dass der geringste Verbraucher (Mainboard mit CPU, RAM, Laufwerke & Co) den Haupt-Stromanschluss bekommt. #-S
Weil der gar nicht soviel Leistung verträgt, da sind auch 3,3V, 5V und 5V Standby, PSon usw deshalb gibt es auch EPS stecker für Mobo. Deshalb ist dein Vorschlag relativ sinnfrei
 
  • Gefällt mir
Reaktionen: Tiimati
mibbio schrieb:
Trotzdem muss die Effizienz stetig verbessert werden

Klar und das passiert ja auch :) Sei es über DIE-Shrinks oder Sachen wie DLSS. Das passiert aber halt nicht von jetzt auf gleich. Vergleich doch mal eine 3080 (Ti) mit einer z.B. 8800 Ultra GTX 295 oder GTX 580. Ja, die benötigen etwas mehr Leistung aber man muss das auch in Relation setzen, zu dem was geliefert wird. Das ist wie damals, dass die Leistungsaufnahme nach oben geht und in 1-2 Generationen sind wir wieder wo wir mit der 1080 waren.
 
  • Gefällt mir
Reaktionen: Klever
Nur weil ein Stecker für PCIe Erweiterungskarten für eine Energieversorgung BIS 600W verkauft wird, geht gleich die Welt wieder unter.
Am Besten werden noch Schuko Steckdosen verboten, weil man ja Energieschleudern dran anschließen kann.
Und die Supersportwagen müssen auch verboten werden, eh dass jeder Haushalt einen in seiner Garage hat.
Wir dürfen nicht zulassen, dass jeder Gamer sich eine 3090 Ti aus dem Replikator nimmt.
Wir werden mit diesen 3090Ti überversorgt sein und das Stromnetz bricht ein.

Ja Leute, es können Menschen auf Ihre Verantwortung hin Dinge kaufen, die sie meinen die bräuchten sie.

Habt ihr auch alle die sparsamsten Smartphones mit der niedrigst möglichen Auflösung um damit diese Beiträge zu schreiben?
 
Zuletzt bearbeitet: (Korrektur 3099->3090)
  • Gefällt mir
Reaktionen: Newbie_9000 und goldeye
Wo sind wir da nun gelandet. Was ich eigtl mit stromsparen geworden? Im Moment laufen wir in eine ganz andere Richtung. Die Hardware macht doch im Moment gar keine Vorschritte mehr, der Verbrauch geht einfach nur noch in die Höhe.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli
Der neue Stecker könnte also fast drei AMD Centurion FX-9590 befeuern :evillol:, nicht schlecht.
Doch bei dem Trend finde ich, dass die Karten an ihrer Slotblende neben HDMI oder DisplayPort einen weiteren Port bekommen: Den KaltgerätePort 1.0 - Da kann man nämlich in Zukunft direkt die 230V anlegen. Sollen die Kartenhersteller doch ihr eigen Schaltnetzteil integrieren :rolleyes:

Mal im Ernst: Wer brachiale Leistung will, muss auch mit hohem Verbrauch rechnen. Die Grafikkarten wurden über die Zeit ja nicht ineffizienter. Sie boten mindestens entweder mehr Leistung bei gleichbleibenden Verlusten oder weniger Verluste bei gleichbleibender Leistung. Die geforderte Leistung ist aber in den letzten Jahren massiv gestiegen. Früher schwor man auf 60fps, heute meckern ja schon die meisten wenn sie unter 100fps landen. Am besten noch in 4K mit Ultra Details und ner Brise Raytracing. Dat kriegste mit paar Watt nicht hin. Und wer die Leistung nicht braucht, greift zu den sparsameren Klassen.

Dass der Stecker pauschal erstmal hoch belastet werden kann ist was positives (die Elektriker werden es verstehen).
 
  • Gefällt mir
Reaktionen: Tiimati
Caramon2 schrieb:
Wieso steckt man nicht einfach den 24pol an die GraKa und lässt den PC dann von der GraKa aus versorgen?

Es ist doch absurd, dass der geringste Verbraucher (Mainboard mit CPU, RAM, Laufwerke & Co) den Haupt-Stromanschluss bekommt. #-S
Weil der 24pol vermutlich nicht nur 12V liefert.
Vielleicht auch weil der 24pol. auch alles außer SATA und der Graka mit strom versorgt? Also die nvme SSD, alle PCIe slots, CPU(!), RAM, Sound, WLAN/BT(falls vorhanden) etc... es geht dabei ja nicht nur um die fette Stromversorgung mit hoher leistungsaufnahme sondern um viele kleine verstreute Bauteile die alle zum Teil stark schwankende Leistungsaufnahmen und unterschiedliche Spannungen verwenden. Wäre das nicht so könnte man gleich den Großteil des Netzteils auf das Mainboard verfrachten. Auf dem Mainboard befinden sich ja schon jetzt, für meinen Geschmack zu viele Spannungs- und Leistungsregulierende Bauteile.
 
Wolfgang schrieb:
Aktuell macht es den Anschein, als werde es in Zukunft nur noch den einen 16-Pin-Stromstecker geben wird,
Bitte korrigieren!


Möglich wird dies durch eine gegenüber den aktuellen Steckern neue Konstruktion, die mit einem reduzierten Abstand zwischen den 12 Stromversorgungspins von 4,2 mm auf 3 mm und damit einem neuen optischen Auftritt daher kommt.
Wodurch entsteht hier die technische Überlegenheit gegenüber den alten Steckern?
 
Tiimati schrieb:
Und so ein Stecker wird nur dazu benutzt Energie zu übertragen, nicht zu verbrauchen.

ShiftC schrieb:
Dass der Stecker pauschal erstmal hoch belastet werden kann ist was positives (die Elektriker werden es verstehen).

Genau das.

Aber die meisten hier diskutieren lieber völlig am Thema vorbei. Dazu sind viele Beiträge einfach nur "ich will mich auch mal aufregen" - passt in die heutige Zeit. Schade.

Motorrad schrieb:
Wodurch entsteht hier die technische Überlegenheit gegenüber den alten Steckern?
Platzbedarf kann auch technisch sein. Verbraucht ja weniger Platz am Netzteil und an der Karte und lässt somit mehr Platz für andere Bauteile, sofern Platz ein Problem ist.
Ansonsten ist es vermutlich überwiegend der Optik wegen.
 
  • Gefällt mir
Reaktionen: Newbie_9000, ShiftC und devVvon
Es sind sogar 16 Pins:
1633965405026.png


Ja - ich lese den Text auch so. Der neue Stecker ist technisch überlegen, weil er mit "nur 12+4 Pins" 600 Watt übertragen kann, was mehr als 3x8-pol Stecker bisher sind. Wobei die 4 unteren wohl eher irgendein Signal übertragen und nicht unbedingt Strom.
"Dort ist auch von „4 Signal-Kontakten“ zu lesen, die bei dem Stecker auf der unteren Seite angebracht sind – dadurch kommt der Stecker insgesamt auf 16 Kontakte. Was diese genau tun, ist zur Zeit noch unklar."

Aber ich verstehe deine Frage nun - das ist im Artikel etwas unglücklich formuliert. Die technische Überlegenheit kommt ja nicht vom Abstand der Kontakte :D:D
 
Motorrad schrieb:
Daher meine Frage
Das werden einfach deutlich mehr 12V-Kontakte sein als bei der Uraltlösung, die zZ üblich ist, kombiniert mit einer Auflage zur Kabelstärke (AWG 16: https://cdn.amphenol-icc.com/media/wysiwyg/files/documentation/gs-12-1706.pdf). Beim alten Stecker es ja nur drei Kontakte, plus drei (6-Pin) bzw. fünf (6+2-Pin) Masseleitungen. Beim Stecker der nvidia Founders Edition waren bzw. sind es sechs 12V-Kontakte und sechsmal Masse. Konzeptionell dürfte die neue Lösung dem nvidia-Eigenweg ziemlich ähnlich sein... ;)

ME ist diese neue Standardlösung schlicht und einfach überfällig, s. auch https://www.igorslab.de/was-ist-dra...igentlich-ueberfaellig-igorslab-investigativ/.
 
Zuletzt bearbeitet:
Motorrad schrieb:
Der neue 12 pol. Stecker soll doch deutlich mehr Ampere übertagen können als drei herkömmliich 8 pol. Stecker! Daher meine Frage.
Ich bin mir jetzt nicht ganz Sicher deine Fragen veratanden zu haben.
Aber zunächst einmal werden Leitungen mit höherem Querschnitt gefordert und die Steckkontakte haben ausreichend Masse und ausreichend geringen Übergangswiderstand.
Dadurch ergibt sich auf den gesamten Strang mehr Strombelastbarkeit.
 
Tiimati schrieb:
Aber zunächst einmal werden Leitungen mit höherem Querschnitt gefordert und die Steckkontakte haben ausreichend Masse und ausreichend geringen Übergangswiderstand.
Dadurch ergibt sich auf den gesamten Strang mehr Strombelastbarkeit.
Das ist plausibel, kann ich aber dem Artikel nicht entnehmen! Warum hier diese 12 Strompins für 600 Watt gut sind und drei "alte" 8 pin. Stecker nur für 450 Watt taugen, wird hier nicht erklärt.
 
Glyphus schrieb:
Ich nehme an dass wir in Zukunft weiterhin für minimale Grafikupdates tief in die Stromkiste greifen müssen.

Und darin sehe ich persönlich einen der größten Fortschritte der letzten Jahre.

Als Gelegenheitszocker kann ich mir das letzte bisschen Eye Candy einfach schenken und komme mit älterer Hardware sehr gut zurecht.

Ohne (subjektiv) große Qualitätseinbußen kann man auf rtx3080 aufwärts verzichten und trotzdem oftmals 1440/60 halten.
5 Stunden im Spiel drin, ist es dann eh egal.
 
  • Gefällt mir
Reaktionen: SamSoNight
DaBo87 schrieb:
Ich wart ja auch noch auf die Ankündigung einer Produktserie eines GPU Herstellers, die sich ein fixes Limit was TDP angeht, setzt.
Quasi: Das Topmodell dieser Serie hat IMMER max. 150W (nur ne reine Hausnummer, damit klar ist, was ich meine), die gesteigerte Leistung kommt hier ausschließlich durch den technischen Fortschritt. Würde keine andere Serie mehr kaufen.
Hätte ich auch gerne, die Effizienz leidet einfach extrem darunter, die letzten 5-10% Leistung raushzuholen. Das kam aber auch nur, weil AMD mit RDNA 2 Nvidia Paroli bieten konnte, Nvidia wusste, dass AMD starke Karten bringen wird und sie mussten die letzten paar Prozent Leistung rausholen, um schneller zu sein als AMD. Nvidia hasst es einfach zu verlieren, deswegen auch die 3090ti. AMD ist in fullhd und wqhd mit der 6900XT schneller und AMD könnte jederzeit die OEM Liquid cooled 6900XT mit 350 Watt verkaufen, die nochmal 6-8% schneller ist laut PCGH. Da braucht Nvidia nochmal 100 Watt mehr und den Vollausbau von GA-102, um AMD zu besiegen.
 
  • Gefällt mir
Reaktionen: DaBo87
5hred schrieb:
Du widerspricht dir mit deiner eigenen Agumentation. [...]

Meine Argumentation zielte eigentlich darauf ab, dass Photorealismus nicht erstrebenswert ist, weil es "unnötig" Leistung benötigt und in ein paar Generationen eh nicht mehr sehr gut aussieht. Ich erinnere mich noch wie gehypt ich beim Wasser von Morrowind war. Außerdem muss man natürlich abschätzen wo auf der Skala wir uns gerade befinden. Vor ein paar Jahren lagen wir vielleicht noch beim 6000er Schritt und nun liegen wir bei 60.000 - vielleicht ist ja das Ende der Fahnenstange beim Polygoncount erreicht.

Die teuren Grafikkarten haben ja ein Henne Ei Problem. Man braucht 450W Grafikkarten weil die Spiele es benötigen und die Spiele benötigen es weil es die Grafikkarten gibt. Ultra settings fressen ja meistens wirklich unverschämt viel Leistung für wenig visuelle Verbesserungen.
Wenn ein Spiel nun mit gutem Artstyle auf 120fps mit midrange Karten kommen würde, dann würde sich vermutlich (hoffentlich) keiner die 450W Monster holen um mit 480 fps zu spielen.

Die nächste Frage ist bei dem Thema natürlich ab wann wir denn Photorealismus haben - 100% Raytraced? selbst dann haben wir immernoch Polygone. Oder erst wenn wir je Pixel mindestens ein Polygongeometrie haben? Und bei welcher Auflösung soll das dann stattfinden - 8K, 16K? Was mit Farbdarstellung, Kontrast etc.?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben