News Grafikkarten: Neuer Stromstecker für bis zu 600 Watt kommt

Status
Für weitere Antworten geschlossen.
naja 600 kann heißt ja nicht muss
meine 3080 läuft auf 0.85v und zieht 90% der Zeit 250-280w und nicht die 450 die sie könnte...
die 3 fps mehr bei fast doppeltem verbrauch bringens nicht wirklich
 
Ganz unabhängig der Strompreise ist für mich die Fahnenstange mit jetziger Gen. erreicht.Mehr als 400W bei einer GPU würde ich selbst bei kostenlosem Strom nicht verbauen wollen.
 
  • Gefällt mir
Reaktionen: R00tMaster71 und GT200b
Einerseits, wenn man sich Herstellungskosten inform von Energie von 1kg Aluminium ansieht, 1x Autofahren die Woche etc. pp.
Halte ich das Argument für etwas übertrieben, da es Freizeit ist und nicht 24/7 läuft wie Mining.
Andererseits hört sich das stark nach Whataboutismus an und das mag ich ja selber nicht.

Als Entschuldigung kann gelten, das eine 2000-3000 € Karte wohl nicht der Nutzerstandard ist und daher wohl als Luxus der Norm abweichen darf. Richtung Concord Flug damals bsp.

Strompreis ist größtenteils nur in DE ein Problem. Selbst wenn wer Infrastruktur baut, ist es korrupt + jeder Bürgerverband sperrt sich gegen jede Infrastruktur.
 
Zuletzt bearbeitet:
Dann warte ich einfach mal auf ne Nachricht, dass Corsair die Dinger als offizielles Zubehör zu aktuellen Netzteilen anbietet.
NOCH habe ich keine Lust, meinen Rechner komplett umzubauen.
Der hat gerade knapp nen Jahr auf dem Buckel.
 
Vermutlich werden durch Druck von außen (Klimapolitik und -Bewusstsein) und wegen technischer Limits eh neue Fertigungstechniken und Effizienzbereiche erschlossen werden.

3 Segmente sehe ich da aktuell:

1. Neue Fertigungstechniken.
2. Bessere Algorithmen (DLSS &- Co.), um aus niedrigeren Auflösungen mit geringerem Leistungsaufwand auf höhere Auflösungen zu skalieren.
3. Grafik-Engine-Features, die maschinelles Lernen und andere KI-Techniken nutzen.

Die heutige Generation stößt ja schon bei 4K an die Grenzen, während im Film/TV-Bereich langsam 8K in den Startlöchern steht.

Höher, weiter, schneller hat halt immer irgendwo Grenzen.
 
  • Gefällt mir
Reaktionen: Recharging
Hucken schrieb:
Bei meinem Upgrade von der 1070 auf die 3080 hat sich zwar die Leistung ca. verdoppelt, aber ebenso Leistungsaufnahme.
Das stimmt nicht, nicht mal grob über den Daumen gepeilt. Die 3080 dürfte gut 2,5-3 mal so schnell sein wie eine 1070 und das ausschließlich unter FHD. Spätestens bei 4k reden wir über ganz andere Faktoren. Nehmen wir noch die RT Leistung hinzu sind wir locker im zweistelligen, wenn nicht gar im dreistelligen Bereich.
Und dafür nur die doppelte Leistung zu benötigen ist sogar beeindruckend.

In FHD ist da nur schwer was raus zu holen, dass ist ähnlich schwer wie CPUs im Singlethread zu beschleunigen und da sehen wir bei den CPUs noch weniger Mehrleistung bei ebenfalls x-fachem Verbrauch.

@topic
Verstehe das Problem aber nicht. Jeder kann doch ne 200 Watt GPU kaufen, keiner ist gezwungen sich ein 450 Watt Monster zu kaufen. Warum sollte man es den anderen verwehren sich mehr Leistung für mehr Stromverbrauch zu gönnen? Nur weil es nach oben 600 Watt gibt, heißt es ja nicht das die Hersteller nicht versuchen sparsamere Designs zu entwickeln. Aber wer halt mit dem aktuellen Stand der Technik in 4k mit RT auf volle Pulle zocken will kommt an dem Verbrauch nun mal nicht vorbei.
 
  • Gefällt mir
Reaktionen: Rockhound, Aduasen und Sly123
Oha, ich erinnere mich noch an die alten Thermi Witze. Bei steigenden Energiepreisen wird das in Deutschland bald für viele nicht mehr finanzierbar. Kommende Gehäuse werden vielleicht bald zwei Netzteile benötigen. Eins für alle Komponenten außer Grafikkarte und ein Netzteil allein für die Grafikkarte. Redundanz wäre sicherlich vorteilhaft
 
Bei der Entwicklung des Stromverbrauchs, begleitet von Pseudoinnovationen und stetig und vor allem überproportional steigenden Preisen kommt mir immer häufiger der Gedanke, meine mittlerweile über 30 Jahre andauernde Zockerleidenschaft einfach zu beerdigen.
Irgendwann übersteigt der Ärger und das Unverständnis den Spaß...und dann wird es schnell uninteressant.
 
  • Gefällt mir
Reaktionen: paulinus, R00tMaster71 und bondage game
Hätte das Potenzial, Sleeving und Kabelführungen allgemein massiv zu vereinfachen... Wenn kleinere Karten ihn auch nutzen und er relativ schnell übernommen und verbaut wird. Ansonsten sehe ich hier das gleiche Ergebnis, wie bei dem neuen Founders Edition Stecker: Es liegt ein Adapter bei, der bei keinem Netzteil einen Gegenpart hat, der mega hässlich an der Karte hängt und in den man seine eigenen 6- und 8-pin Kabel steckt.
 
Die neue AiO Version der 3090ti kommt dann wohl mit nem MoRa!

:lol::lol::lol:
 
  • Gefällt mir
Reaktionen: Esenel und Conqi
wern001 schrieb:
600Watt spitze oder 600 Watt dauerlast?
Selbst die jetzigen Stecker halten die Dauerlast (Mining) nicht aus.
Igor sprach in seinem Video von Dauerlast
 
Engelsen schrieb:
Dann kostet das Spiel 60€ + 30€ Strom im Jahr :freak::freak:
Wenn du nicht mal 30€ für Strom im Jahr übrig hast, wirst du die 60€ für das Spiel erst recht nicht haben.

Und das Ganze Geflenne wegen Strom, Umwelt und nicht mehr Zeitgemäß. Es zwingt euch niemand eure grüne Ideologie fürs Computerspielen zu verraten. Sucht euch einfach ein anderes Hobby.
Die Definition von Hobby lautet: geringster Nutzen mit größtmöglichen Einsatz. Wenn man mit 2000€ Grafikkarte und 1200€ Strom im Jahr nur bunte Bilder auf den Bildschirm zaubert, dann ist das eben so. Ich verstehe nicht warum sich jeder in das Leben, die Kauf- und Freizeitentscheidungen eines anderen einmischen muss?
 
  • Gefällt mir
Reaktionen: Lockenmonster, Fehlermeldung, Nefiwolf und 6 andere
Hucken schrieb:
jep, es sollte wieder an mehr Effizienz gearbeitet werden.
Bei meinem Upgrade von der 1070 auf die 3080 hat sich zwar die Leistung ca. verdoppelt, aber ebenso Leistungsaufnahme. Die Mehrleistung wieder aktuell fast 1:1 mit mehr Strom erkauft und das ist keine gute Entwicklung.
Keine Ahnung wie man zu solchen Aussagen kommen kann...
https://www.computerbase.de/2021-09/grafikkarten-tests-leistungsaufnahme/3/
Welche "alte" Grafikkarte wäre denn deiner Meinung nach effizienter als eine aktuelle?
 
  • Gefällt mir
Reaktionen: n8mahr
dcz01 schrieb:
Na super... Bis zu 600 W nur Graka...
Da wird dann in Zukunft wohl nicht mehr so extrem auf Effizienz geachtet...
Effizienz != hoher Verbrauch.

Effizienz setzt sich aus dem Verbrauch sowie der gleichzeitig erzielten Leistung zusammen.

Eine 600W GPU, die dreimal schneller ist als eine 3090, würde beim absoluten Verbrauch natürlich deutlich drüber liegen. Aber bei dreifacher Performance und nicht einmal dem doppelten Mehrverbrauch, würde die 600W GPU dennoch deutlich effizienter sein.

Das 600W für eine Single-GPU davon ab enorm sind, steht außer Frage.
 
Wäre lustig, wenn die RTX 3090 Ti eine Dual-GPU-Karte wird mit nur 12Gb Vram je gpu :evillol:
 
der nächste konsequente Schritt wäre doch die Grakas endlich mit einem eigenen 230V Kaltgeräte Stecker und eigenem internen Netzteil auszurüsten. 3kW endlich umsetzbar....
Gott wie ich darauf warte....
 
So einen neuen Stecker als offiziellen Standard nehme ich gerne. Mehrere Stecker an der Karte nerven. Da hätte Nvidia sich den Weg bei den FE 3080/ 3090 etc. aber auch sparen können, wenn es angeblich einen neuen offiziellen PCIe Stecker gibt. Aber gucken, ob das so kommt. Hätte ich nichts dagegen.

Erschreckend, dass in einem Computerforum noch immer bei vielen Effizienz mit Verbrauch gleichgesetzt wird.
 
  • Gefällt mir
Reaktionen: PS828
Nozuka schrieb:
Die Entwicklung geht irgendwie in die falsche Richtung....
Definitiv... Glühbirnen wurden verboten, Staubsauger dürfen laut EU nur noch 900w haben, aber Hauptsache der olle GamingPC kommt Anno 2022 mit einem 1.200W Netzteil...

Wenn die 3090Ti/Super OC wirklich 450-500W saugt, müsste man die Karte Nvidia eigentlich wieder an den Kopf werfen...
 
  • Gefällt mir
Reaktionen: fullnewb, R00tMaster71, bondage game und eine weitere Person
Status
Für weitere Antworten geschlossen.
Zurück
Oben