Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Grafikkarten: Neuer Stromstecker für bis zu 600 Watt kommt
- Ersteller Wolfgang
- Erstellt am
- Zur News: Grafikkarten: Neuer Stromstecker für bis zu 600 Watt kommt
- Status
- Für weitere Antworten geschlossen.
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Einerseits, wenn man sich Herstellungskosten inform von Energie von 1kg Aluminium ansieht, 1x Autofahren die Woche etc. pp.
Halte ich das Argument für etwas übertrieben, da es Freizeit ist und nicht 24/7 läuft wie Mining.
Andererseits hört sich das stark nach Whataboutismus an und das mag ich ja selber nicht.
Als Entschuldigung kann gelten, das eine 2000-3000 € Karte wohl nicht der Nutzerstandard ist und daher wohl als Luxus der Norm abweichen darf. Richtung Concord Flug damals bsp.
Strompreis ist größtenteils nur in DE ein Problem. Selbst wenn wer Infrastruktur baut, ist es korrupt + jeder Bürgerverband sperrt sich gegen jede Infrastruktur.
Halte ich das Argument für etwas übertrieben, da es Freizeit ist und nicht 24/7 läuft wie Mining.
Andererseits hört sich das stark nach Whataboutismus an und das mag ich ja selber nicht.
Als Entschuldigung kann gelten, das eine 2000-3000 € Karte wohl nicht der Nutzerstandard ist und daher wohl als Luxus der Norm abweichen darf. Richtung Concord Flug damals bsp.
Strompreis ist größtenteils nur in DE ein Problem. Selbst wenn wer Infrastruktur baut, ist es korrupt + jeder Bürgerverband sperrt sich gegen jede Infrastruktur.
Zuletzt bearbeitet:
Dann warte ich einfach mal auf ne Nachricht, dass Corsair die Dinger als offizielles Zubehör zu aktuellen Netzteilen anbietet.
NOCH habe ich keine Lust, meinen Rechner komplett umzubauen.
Der hat gerade knapp nen Jahr auf dem Buckel.
NOCH habe ich keine Lust, meinen Rechner komplett umzubauen.
Der hat gerade knapp nen Jahr auf dem Buckel.
bondage game
Commander
- Registriert
- Aug. 2013
- Beiträge
- 2.847
hast du sie etwas untervolted oder läuft sie Standardaappleaday schrieb:Meine 3090 läuft zb seit 1 Jahr völlig ohne Probleme an meinem 700W Netzteil und das trotz der restlichen Hardware die auch gut was frisst.
Vigilant
Vice Admiral
- Registriert
- Mai 2008
- Beiträge
- 6.851
Vermutlich werden durch Druck von außen (Klimapolitik und -Bewusstsein) und wegen technischer Limits eh neue Fertigungstechniken und Effizienzbereiche erschlossen werden.
3 Segmente sehe ich da aktuell:
1. Neue Fertigungstechniken.
2. Bessere Algorithmen (DLSS &- Co.), um aus niedrigeren Auflösungen mit geringerem Leistungsaufwand auf höhere Auflösungen zu skalieren.
3. Grafik-Engine-Features, die maschinelles Lernen und andere KI-Techniken nutzen.
Die heutige Generation stößt ja schon bei 4K an die Grenzen, während im Film/TV-Bereich langsam 8K in den Startlöchern steht.
Höher, weiter, schneller hat halt immer irgendwo Grenzen.
3 Segmente sehe ich da aktuell:
1. Neue Fertigungstechniken.
2. Bessere Algorithmen (DLSS &- Co.), um aus niedrigeren Auflösungen mit geringerem Leistungsaufwand auf höhere Auflösungen zu skalieren.
3. Grafik-Engine-Features, die maschinelles Lernen und andere KI-Techniken nutzen.
Die heutige Generation stößt ja schon bei 4K an die Grenzen, während im Film/TV-Bereich langsam 8K in den Startlöchern steht.
Höher, weiter, schneller hat halt immer irgendwo Grenzen.
- Registriert
- Jan. 2007
- Beiträge
- 2.467
Das stimmt nicht, nicht mal grob über den Daumen gepeilt. Die 3080 dürfte gut 2,5-3 mal so schnell sein wie eine 1070 und das ausschließlich unter FHD. Spätestens bei 4k reden wir über ganz andere Faktoren. Nehmen wir noch die RT Leistung hinzu sind wir locker im zweistelligen, wenn nicht gar im dreistelligen Bereich.Hucken schrieb:Bei meinem Upgrade von der 1070 auf die 3080 hat sich zwar die Leistung ca. verdoppelt, aber ebenso Leistungsaufnahme.
Und dafür nur die doppelte Leistung zu benötigen ist sogar beeindruckend.
In FHD ist da nur schwer was raus zu holen, dass ist ähnlich schwer wie CPUs im Singlethread zu beschleunigen und da sehen wir bei den CPUs noch weniger Mehrleistung bei ebenfalls x-fachem Verbrauch.
@topic
Verstehe das Problem aber nicht. Jeder kann doch ne 200 Watt GPU kaufen, keiner ist gezwungen sich ein 450 Watt Monster zu kaufen. Warum sollte man es den anderen verwehren sich mehr Leistung für mehr Stromverbrauch zu gönnen? Nur weil es nach oben 600 Watt gibt, heißt es ja nicht das die Hersteller nicht versuchen sparsamere Designs zu entwickeln. Aber wer halt mit dem aktuellen Stand der Technik in 4k mit RT auf volle Pulle zocken will kommt an dem Verbrauch nun mal nicht vorbei.
Oha, ich erinnere mich noch an die alten Thermi Witze. Bei steigenden Energiepreisen wird das in Deutschland bald für viele nicht mehr finanzierbar. Kommende Gehäuse werden vielleicht bald zwei Netzteile benötigen. Eins für alle Komponenten außer Grafikkarte und ein Netzteil allein für die Grafikkarte. Redundanz wäre sicherlich vorteilhaft
Bei der Entwicklung des Stromverbrauchs, begleitet von Pseudoinnovationen und stetig und vor allem überproportional steigenden Preisen kommt mir immer häufiger der Gedanke, meine mittlerweile über 30 Jahre andauernde Zockerleidenschaft einfach zu beerdigen.
Irgendwann übersteigt der Ärger und das Unverständnis den Spaß...und dann wird es schnell uninteressant.
Irgendwann übersteigt der Ärger und das Unverständnis den Spaß...und dann wird es schnell uninteressant.
_Kodan
Ensign
- Registriert
- Dez. 2018
- Beiträge
- 198
Hätte das Potenzial, Sleeving und Kabelführungen allgemein massiv zu vereinfachen... Wenn kleinere Karten ihn auch nutzen und er relativ schnell übernommen und verbaut wird. Ansonsten sehe ich hier das gleiche Ergebnis, wie bei dem neuen Founders Edition Stecker: Es liegt ein Adapter bei, der bei keinem Netzteil einen Gegenpart hat, der mega hässlich an der Karte hängt und in den man seine eigenen 6- und 8-pin Kabel steckt.
Igor sprach in seinem Video von Dauerlastwern001 schrieb:600Watt spitze oder 600 Watt dauerlast?
Selbst die jetzigen Stecker halten die Dauerlast (Mining) nicht aus.
Wenn du nicht mal 30€ für Strom im Jahr übrig hast, wirst du die 60€ für das Spiel erst recht nicht haben.Engelsen schrieb:Dann kostet das Spiel 60€ + 30€ Strom im Jahr
Und das Ganze Geflenne wegen Strom, Umwelt und nicht mehr Zeitgemäß. Es zwingt euch niemand eure grüne Ideologie fürs Computerspielen zu verraten. Sucht euch einfach ein anderes Hobby.
Die Definition von Hobby lautet: geringster Nutzen mit größtmöglichen Einsatz. Wenn man mit 2000€ Grafikkarte und 1200€ Strom im Jahr nur bunte Bilder auf den Bildschirm zaubert, dann ist das eben so. Ich verstehe nicht warum sich jeder in das Leben, die Kauf- und Freizeitentscheidungen eines anderen einmischen muss?
highwind01
Commander
- Registriert
- Okt. 2011
- Beiträge
- 2.293
Keine Ahnung wie man zu solchen Aussagen kommen kann...Hucken schrieb:jep, es sollte wieder an mehr Effizienz gearbeitet werden.
Bei meinem Upgrade von der 1070 auf die 3080 hat sich zwar die Leistung ca. verdoppelt, aber ebenso Leistungsaufnahme. Die Mehrleistung wieder aktuell fast 1:1 mit mehr Strom erkauft und das ist keine gute Entwicklung.
https://www.computerbase.de/2021-09/grafikkarten-tests-leistungsaufnahme/3/
Welche "alte" Grafikkarte wäre denn deiner Meinung nach effizienter als eine aktuelle?
Linmoum
Lt. Commander
- Registriert
- Juni 2015
- Beiträge
- 1.438
Effizienz != hoher Verbrauch.dcz01 schrieb:Na super... Bis zu 600 W nur Graka...
Da wird dann in Zukunft wohl nicht mehr so extrem auf Effizienz geachtet...
Effizienz setzt sich aus dem Verbrauch sowie der gleichzeitig erzielten Leistung zusammen.
Eine 600W GPU, die dreimal schneller ist als eine 3090, würde beim absoluten Verbrauch natürlich deutlich drüber liegen. Aber bei dreifacher Performance und nicht einmal dem doppelten Mehrverbrauch, würde die 600W GPU dennoch deutlich effizienter sein.
Das 600W für eine Single-GPU davon ab enorm sind, steht außer Frage.
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 8.868
So einen neuen Stecker als offiziellen Standard nehme ich gerne. Mehrere Stecker an der Karte nerven. Da hätte Nvidia sich den Weg bei den FE 3080/ 3090 etc. aber auch sparen können, wenn es angeblich einen neuen offiziellen PCIe Stecker gibt. Aber gucken, ob das so kommt. Hätte ich nichts dagegen.
Erschreckend, dass in einem Computerforum noch immer bei vielen Effizienz mit Verbrauch gleichgesetzt wird.
Erschreckend, dass in einem Computerforum noch immer bei vielen Effizienz mit Verbrauch gleichgesetzt wird.
Tronix
Commander
- Registriert
- Sep. 2010
- Beiträge
- 2.883
Definitiv... Glühbirnen wurden verboten, Staubsauger dürfen laut EU nur noch 900w haben, aber Hauptsache der olle GamingPC kommt Anno 2022 mit einem 1.200W Netzteil...Nozuka schrieb:Die Entwicklung geht irgendwie in die falsche Richtung....
Wenn die 3090Ti/Super OC wirklich 450-500W saugt, müsste man die Karte Nvidia eigentlich wieder an den Kopf werfen...
- Status
- Für weitere Antworten geschlossen.
Ähnliche Themen
- Antworten
- 13
- Aufrufe
- 3.280