News RTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt

MC6809 schrieb:
Technisch gesehen ist das aber durchaus erklärbar. Nehmen wir mal an der neue Grafikchip bekommt doppelt so viele Recheneinheiten wie sein Vorgänger bei gleicher Taktfrequenz. Gleichzeitig wird der Fertigungsprozeß von 8 nm auf 5 nm "geshrinkt". Der neue Fertigungsprozeß (5 nm) ist aber nur etwa 20-30% energieeffizienter als der alte. Daraus ergibt sich daß eine 200W-Grafikkarte mit n Recheneinheiten im 8 nm Prozeß dann zu einer 280 ... 320 W-Grafikkarte mit 2 * n Recheneinheiten im 5 nm-Prozeß wird.

Um diesem Trend entgegen zu wirken müßte man die einzelnen Recheneinheiten neu designen und konsequent auf Energieeffizienz trimmen (und dazu noch aggressiveres Power-Gating betreiben).

Moderate Taktfrequenz-Reduzierung und Undervolting würden auch helfen, aber das wird NVIDIA nicht machen da man ja die Konkurrenz (AMD, Intel) bei Benchmarks ausstechen will.

An der Physik führt hier wohl kein Weg vorbei ...
Sehr richtig erkannt.

TSMC selbst sagt "15% performance improvement or 30% lower power" von N7 zu N5. Samsungs 8nm sind nochmals schlechter, nVidia hat hier also noch mehr Spielraum zum verbessern.

Das hier genannte Topmodell mit 9216 (echten) Shadern liegt also zwischen 3080 und 3080 Ti und dann x2 genommen. nVidia spart also im besten Fall ohne Performance-Zuwachs ~40% ein, dann nehmen wir folgende Rechnung:

4352 Shader der 3080 = 320W / 1,4 = 228W x 1,059 = 4608 Shader = 242 W x 2 für 9216 Shader = 485W. Jetzt kann man beim Prozess natürlich noch skalieren wieviel man einsparen will oder alternativ in mehr Performance stecken.

Und das Problem mit dem Undervolting könnte man einfach über eine Firmware mit zwei Profilen lösen bzw. zwei Firmwares wie es EVGA zB anbietet. Das kriegt auch der dümmste User hin einen Schalter umzulegen. Dann gibts ein Performance Profil und ein Efficiency Profil.

Es nervt aber immer nur davon zu lesen wie die Leute hier erwarten es sei realistisch eine 150W Karte mit der Performance zweier 3090 zu bauen und am Besten noch für 299€. In welcher Welt leben die Leute ?

Eine Karte die mehr als doppelt so schnell ist wie eine 3090 bei ca. 500W ist verdammt effizient ! Wer zwingt euch diese Karte überhaupt zu holen ? Ihr könnt ja auch eine 4070 kaufen die dann echte 5888 Shader hat, ca. 10% mehr Leistung als eine 3090 und dabei 315W frisst oder eben mit einer noch kleineren Karte und auch entsprechend weniger Leistung zufrieden sein. Immer nur Mimimi.

Effizienz ist bei TSMC 5 gegeben, jetzt geht es für die Hersteller eher darum wie man die Leistung sinnvoll skalieren kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: h2f, Apple ][ und Shoryuken94
M@tze schrieb:
Effizienz ist aber nur die eine Seite der Medaille. Wenn die Karte bei der 4 fachen Leistung einer 3090 "nur" 1kW verbraucht ist das zwar effizient, aber gut muss man das (die 1kW Verbrauch) trotzdem nicht finden.

Musst du auch nicht. Wenn du die hohe Leistung nicht benötigst könntest du mit der gleichen Architektur auch eine Karte haben, die 200 Watt verbraucht und für deine Ansprüche reicht. Es wird immer nur das maximum betrachtet, aber selten das was wirklich relevant ist.

M@tze schrieb:
Wenn die optische Qualität der Spiele in dem selben Maße mitsteigen würde, wäre das ja noch irgendwo vertretbar, aber wenn wir ehrlich sind, sind die Grafiksteigerungen von einer guten Mittelklasse Karte zu einem Highend Modell abseits von Bechmarks und statischen Screenshotvergleichen oft mit der Lupe zu suchen

Das hat doch nicht nur etwas mit der Optik im Sinne von grafischer Qualität zu tun. Es ist doch höchst individuell, wofür man mehr Leistung haben möchte.

Fängt ja schon bei der Monitorauswahl an. Bei 32 Zoll wird es unter UHD schon ziemlich pixelig. Wenn man nun UHD mit hohen refreshraten kombinieren möchte, braucht man schon einiges an Leistung.

Mir persönlich ist die Geschwindigkeit deutlich wichtiger als die Optik. Gibt aber genug Spiele, wo eine 6800Xt oder auch 3090 schon in 1440p Probleme haben, die 165Hz annähernd zu erreichen. Und da sprechen wir nicht von Maxed out RTX Spielereien.

Wenn man das nicht möchte spricht ja auch nichts dagegen sowas nicht zu kaufen. Sich im gegenzug dann über den verbrauch aufzuregen ist dann auch nicht sinnvoll. Ich rege mich doch auch nicht über einen neuen Ferrari auf, weil ich den überhaupt nicht brauche und lieber einen Kompaktwagen fahre, weil ich etwas praktisches möchte.

M@tze schrieb:
Das heisst, im Endeffekt habe ich ein 1kW Kraftwerk unterm Tisch stehen, das vor Kraft kaum laufen kann und auf meinem Bildschirm sieht es fast aus wie vorher, weil keiner mit der Grafikleistung was sinnvolles anstellen kann.

Wie gesagt, wenn du mit der Leistung nichts anfangen kannst, dann brauchst du dir sowas ja auch nicht kaufen. Bei anderen sieht das halt wieder anders aus. Das ist doch die schöne Seite der marktwirtschaft. Du kannst das kaufen, was für deine Bedürfnisse passt. Wenn du einen kleinen Monitor mit niedriger Auflösung oder niedriger Bildwiederholrate hast, dann hast du kein bedarf für sowas. Wer auf 32, 42 oder noch mehr Zoll spielt, der hat schon eher den bedarf bei der Auflösung. Wenn man nur Leistung für die Optik kauft wird da wohl eher enttäuscht sein, als andere. Wobei das seit Raytracing ein Thema geworden ist eher besser als schlechter geworden ist.
 
Und ich dachte mein erst neu gekauftes 860W Netzteil reicht für die nächsten Jahre.
 
MC6809 schrieb:
Ich hatte mir eigentlich vorgenommen nur noch Grafikkarten mit maximal etwa 200 W Leistungsaufnahme zu kaufen.

Ich auch, und dabei werde ich auch weiterhin bleiben.

Probleme sehe ich nicht: Spielehersteller können diese "Geld-spielt-keine-Rolex-Grafikkarten" nicht voraussetzen, insofern schere ich mich um die Existenz dieser Spitzenmodelle genausowenig, wie um die Existenz besagter Luxusuhrenmarke.
 
Shoryuken94 schrieb:
Naja oder man spielt nicht in einem schlecht isolierten Altbau Dachgeschoss. Je nach Raumsituation braucht man nicht unbedingt eine Klima um mit der Abwärme im Sommer klarzukommen.

Ich wohne im Neubau und selbst mein Rechner der mit 400 Watt Netzteil lief war hier im Sommer viele Tage fast unertraeglich, selbst ohne war es schon Grenzwertig ein paar Wochen, aber wie du 1000 Watt weg kuehlen willst, sicher in ner Kellerwohnung mag das gehen, aber sonst?

Wenn der Rechner massiv hitze erzeugt dann kann Isolation nichts helfen, du braeuchtest ja Kühlung und Fenster auf machen hilft nicht. Ausser der Raum ist extrem riesig so das sich die Hitze verteilt.

Shoryuken94 schrieb:
Genauso wie High End Produkte wie Oberklasse Grafikkarten keine Massenprodukte sind
Ja aber momentan wird AMD ja auch noch an was ist das aktuelle von NVidia RX3080? gemessen, ich hoffe das das dann auf hoert, ausser amd macht bei dem Wahnsinn mit. Kann man ja sagen das sind jetzt normale grafikarten im normalen Grafikkarten Segment und das sind für Leute mit eigenem Atomkraftwerk im Keller. Das sind 2 völlig separate Welten keine echten Konkurrenten mehr.

Man signalisiert halt mit solch einen Produktpolitik auch das einem der normale Mensch eigentlich Egal ist, man sieht wohlhabende und Reiche als die zentrale Zielgruppe wie man davor halt Miner sah, diese Wahnsinnskarten in den Mittelpunkt zu stellen nicht als Randgruppenprodukte sondern als Mainstream sagt man den anderen, ok irgendwelche Abfallprodukte gibts für euch auch noch, aber letztlich seit ihr uns egal.

Bei Autos bewirbt man doch auch recht stark nen Golf oder sowas (bin da nicht so drin) und stellt nicht nur die S Klasse oder was auch immer in Mittelpunkt. Das Marketing und die Signalwirkung dahinter stört mich vermutlich am meisten. Aber ja die Mittelschicht wird ja immer kleiner gibt mehr und mehr nur noch arme und reiche, in Amerika noch stärker als hier aber auch bei uns gibts den Trend.
 
ThePlayer schrieb:
Wer möchte direkt neben einem 850W Heißluftgebläse sitzen.
Das entscheidet jeder für sich selbst, oder?
Wenn ich mir eine Karte mit 850W kaufe, dann mache ich das bewusst und wundere mich hinterher nicht. Es ist ja nicht so, als gäbe es keine kleineren Modelle mit weitaus niedriger TDP/TGP.
Du könntest genau so gut zur 4060 greifen und dich mit ~200W Verbrauch zufrieden geben.

Abgesehen davon glaube ich auch nicht, dass der durchschnittliche Verbrauch bei 850W liegen wird. Vermutlich säuft das Topmodell um die 500W mit Lastspitzen bis 850W. Ist zwar auch nicht schön, aber immer noch ne andere Hausnummer.
 
Shoryuken94 schrieb:
Das Problem ist doch, dass die meisten das Wort Effizienz nicht verstehen.
Shoryuken94 schrieb:
Oh ja Fortschritt verbieten. Das ist immer eine super Idee.

Ich glaube ja, dass die meisten User das durchaus verstehen, aber auch sehr genau zwischen 'sinnlosem Rausballern' von Energie und sinnvoller Nutzung unterscheiden können/wollen.

Wenn die Karten, oder besser gesagt ihre professionellen Zwillinge, in Rechenzentren laufen und tatsächlich sinnvolle Arbeit verrichten, hat wohl Niemand ein Problem mit (mehreren) 1000 Watt Karten.

Shoryuken94 schrieb:
Ich rege mich doch auch nicht über einen neuen Ferrari auf, weil ich den überhaupt nicht brauche und lieber einen Kompaktwagen fahre, weil ich etwas praktisches möchte.

Das ist aber ein schlechtes Beispiel, denn es ist absehbar, dass es dem traditionellen, fossil betrieben Ferrari mittelfristig an den Kragen geht.
 
  • Gefällt mir
Reaktionen: M@tze
v_ossi schrieb:
Wenn die Karten, oder besser gesagt ihre professionellen Zwillinge, in Rechenzentren laufen und tatsächlich sinnvolle Arbeit verrichten, hat wohl Niemand ein Problem mit (mehreren) 1000 Watt Karten.
Also ich hätte schon ein Problem damit, wenn ich mit 2 Karten zu je 300 Watt, die näher em "Sweetspot Effizienz" arbeiten, mehr Leistung erhalte, als mit einer "neuen" Karte, die gar keinen echten Entwicklungsfortschritt darstellt sondern einfach nur nach dem Motto "viel hilft viel" aufgeblasen wurde und nun 1.000 Watt zieht.

@ComputerBase
Welchen informativen Nährwert bietet Euer Artikel eigentlich für eure Leserschaft? Ich lese da irgendwas von Bloggern, Twitterusern und Szenekennern namens @Prozessorarsch69, die irgendwelche Gerüchte verbreiten. Und diese sind aber mit Vorsicht zu genießen.
Was soll der Scheiß eigentlich?
 
Der neue PCIe-5.0-Stecker mit bis zu 600 Watt und die neuen Netzteile mit teilweise weit über 1.000 Watt Leistung sind aber ebenfalls ein deutlicher Fingerzeig, wohin die Reise geht.
Ohne mich.

Sollten die Energiepreise in Deutschland weiter so drastisch steigen, sowie auch die Lebensunterhaltungskosten, usw, dann kann ich dies sowieso nicht mehr bezahlen, trotz das ich Jahrzehnte lang in meine Arbeit gehe/(ging in Zukunft?) und deutlich mehr verdiene als der Mindestlohn.

Mir ist bewusst das uns dies alle trifft. Aber irgendwo entwickelt man in die falsche Richtung bei den Verbräuchen hier was Grafikkarten an Strom ziehen dürfen...
 
  • Gefällt mir
Reaktionen: poly123
v_ossi schrieb:
Eben, genau darum geht es mir ja.

Ich bin sicher kein Heiliger, wenn es um den eigenen CO2 Fußabdruck geht und ich will mich auch nicht als Moralapostel aufspielen (auch wenn es gegebenenfalls so rüber kommt), nur finde ich, dass bei vielen Consumer Flaggschiff/Halo Produkten genau diese Verhältnismäßigkeit komplett abhanden gekommen ist.

Statt eines 600mm²/>500Watt GPU 'Monsters' kann man auch 2 Playstation 5 Systeme laufen lassen. (Theoretisch sogar noch mehr, da 5nm vs. 7nm und bei der GPU muss ja noch ne CPU zusätzlich laufen.)

Gilt in anderen Bereichen genau so.
Willkürliches Beispiel: Statt eines Hummer EV mit ~200kWh Akku, kann man mit den gleichen Ressourcen auch 2 Ford F150 bauen.

Auf sowas darf man mMn durchaus hinweisen, denn die größeren Systeme machen mMn ab einem gewissen Zeitpunkt schlichtweg nicht mehr doppelt oder dreifach so viel Spaß, verbrauchen aber nachweislich und objektiv mehr endliche Ressourcen, als die 'sinnvolleren', effektiveren, kleineren Systeme.

Dass man diese Linie selbstverständlich immer weiter verschieben kann*, ist mir klar und ich habe definitiv nicht 'Die Lösung', nur finde ich die Entwicklung, gerade in Anbetracht der vorhandenen Probleme, durchaus... nunja, problematisch.

Ist zwar rein technisch korrekt, ist aber doch nur eine 'Reductio ad absurdum'. Mit sowas bringt man die Debatte nicht wirklich vorwärts.

*Warum ne 4080Ti? Ne PS5 tut es doch auch. -> Warum ne PS5? Ein Laptop tut es doch auch. -> Warum nen Laptop? Ein Smartphone tut es doch auch.
Du übersiehst anscheinend etwas ganz entscheidendes - nicht die Hersteller sind in der Verantwortung, was den Stromverbrauch angeht, sondern die Käufer. Die Hersteller setzen nur das technisch machbare um, weiter gar nichts - über das, was letzten Endes verbaut wird, entscheidet der Käufer.
Genau so wenig sind die Deutschen oder die Europäer oder oder für den Klimawandel verantwortlich, sondern ALLE. Jeder einzelne und das zu gleichen Teilen und nicht der Deutsche zu 100% und der Chinese nur zu 30% und der Asylbewerber ganz und gar zu 0%.
Ich hab in meinem ganzen Leben noch keine Plastikflasche- oder Tüte in‘s Meer geworfen - ich käme als Staat auch nicht auf die Idee, den Müll anderer auf Kosten der Umwelt zu entsorgen, nur weil das dicke Kohle bring….
Es sind nicht nur die verantwortlich, die zu etwas anstiften, sondern auch die, die es mit sich machen lassen. Wenn ich schon 5 Kinder habe, die ich nicht ernähren kann, mache ich nicht noch jährlich eins dazu, damit ich noch mehr Unterstützung von denen fordern kann, die nur so viele in die Welt setzen, wie sie selber versorgen können…. Die Welt ist komplett in Schieflage - besonders bei der Verantwortung!
 
  • Gefällt mir
Reaktionen: Vigilant und M@tze
blackiwid schrieb:
Ja aber momentan wird AMD ja auch noch an was ist das aktuelle von NVidia RX3080? gemessen, ich hoffe das das dann auf hoert, ausser amd macht bei dem Wahnsinn mit

Natürlich wird AMD an der Konkurrenz gemessen, die es für den ähnlichen Preis gibt. AMD vergleicht sich ja sogar selbst mit Nvidia.
blackiwid schrieb:
Kann man ja sagen das sind jetzt normale grafikarten im normalen Grafikkarten Segment und das sind für Leute mit eigenem Atomkraftwerk im Keller. Das sind 2 völlig separate Welten keine echten Konkurrenten mehr.

Was ändert denn der Name daran. Als Kunde sollte man das Mindestmaß an Intelligenz besitzen und das Produkt nach den Gesichtspunkten kaufen, die einem wichtig sind. Wie das heißt ist dann am Ende völlig egal. Oder in welcher Serie das verkauft wird.
blackiwid schrieb:
Man signalisiert halt mit solch einen Produktpolitik auch das einem der normale Mensch eigentlich Egal ist, man sieht wohlhabende und Reiche als die zentrale Zielgruppe wie man davor halt Miner sah, diese Wahnsinnskarten in den Mittelpunkt zu stellen nicht als Randgruppenprodukte sondern als Mainstream sagt man den anderen, ok irgendwelche Abfallprodukte gibts für euch auch noch, aber letztlich seit ihr uns egal.

ich weiß das hörst du nicht gerne, aber ja mit High End Produkten zu High End Preisen möchte man nicht den kleinen Mann ansprechen. Ist so im leben. Diese High End Produkte haben aber eine enorme Werbewirkung bis in die untersten Klassen.

Wenn Mercedes einen neuen AMG zeigt, spricht das Produkt auch niemanden mit 40000€ Jahresgehalt an. Nicht jedes Produkt muss für jede Zielgruppe attraktiv sein. Schnelle Produkte bringen am Ende aber Prestige und das verkauft auch die günstigen Produkte für die Masse. Das eigentlich lustige ist ja, hier wird über ein fiktives Produkt mit fiktiven Angaben zur Leistung diskutiert und zu nichts, was Nvidia angekündigt hätte.

blackiwid schrieb:
Bei Autos bewirbt man doch auch recht stark nen Golf oder sowas (bin da nicht so drin) und stellt nicht nur die S Klasse oder was auch immer in Mittelpunkt.

Es werden ja auch kleine Grafikkarten beworben. Wobei gerade die Autoindustrie da kein guter Vergleich ist. Denn da wird mit vollausgestatteten Topmodellen geworben und das sind nicht die Varianten, die die meisten Ottonormalbürger dann kaufen.
blackiwid schrieb:
Das Marketing und die Signalwirkung dahinter stört mich vermutlich am meisten.


Ich tippe da mal auf selektive Wahrnehmung.
blackiwid schrieb:
Aber ja die Mittelschicht wird ja immer kleiner gibt mehr und mehr nur noch arme und reiche, in Amerika noch stärker als hier aber auch bei uns gibts den Trend.

Das stimmt zwar, hat jetzt aber nicht wirklich etwas mit Grafikkarten zu tun. Grafikkarten als Spielzeug sind ein Luxusgut. Ob man nun will oder eben nicht. Luxusgüter richten sich per Definition schon an eine Zielgruppe, die mehr Geld als zum Leben notwendig hat. Grafikkarten kommen in allen Klassen auf den Markt und decken ein breites Spektrum an Kunden und Geldbeuteln ab. Das die meiste Werbung in High End Modelle fließt ist klar. Eben weil sie durch ihre Prestige Wirkung den größten Werbeeffekt bringen. Vermarkte ich eine 3090 gut, verkaufen sich auch die 3060er Modelle besser.

Das Problem der gesellschaftlichen Schere liegt an anderen Stellen. Gewinnorientierten Börsenunternehmen kann man schwierig vorwerfen, dass sie Geld verdienen möchten und nicht die Wohlfahrt sind.

Halbleiterprodukte sind leider aktuell relativ teuer, weshalb auch niedrige Produktserien teurer geworden sind. Dafür sind die Halbwertszeiten auch so hoch wie nie zuvor. Es wird noch immer ein sehr breiter Kreis angesprochen. Wenn man aufgrund der Werbung einen anderen Eindruck hat, dann möchte man etwas bestimmtes als Botschaft daraus ziehen.
 
  • Gefällt mir
Reaktionen: VoAlgdH
ThirdLife schrieb:
Wäre ja kompletter Wahnsinn einen 3,6kW Herd zu betreiben und das womöglich 2 Std beim kochen ? Da sollte man schon bewusste mit umgehen. Kauf dir n Sandwich statt hier so Energie zu verschwenden.
Ich koch wirklich übertrieben viel, koch meine 2 Eier aufm Herd und koch mittags und abends, aber ich komm niemals auch nur nahe 2h Kochzeit, schon gar nicht im Schnitt, vielleicht mal ausnahmsweise. Auch wird man eher mit 4h rechnen müssen wer sich ne 1000 Euro Grafikkarte kauft sollte die schon in der Regel bisschen benutzen.

Außerdem dreht man den Herd nicht nonstop auf Maximum auf, man lässt vielleicht was köcheln für länger, und essen muss man nun mal 4k mit 144hz spielen nicht, und die Zutaten zum Kochen sind ja billiger wie wenn man es fertig gekocht an der Ecke kauft.

Wenn ich z.B. 2 Sachen in 2 Pfannen an brate sind das auf Stufe 5 wo ich meist koche 20% von 2300w und 1800, das entspricht auch ca. 800W aber ich brauch da vielleicht 10-15 Minuten für die große Pfanne und 5 Minuten für die kleine Pfanne also im Schnitt vielleicht 10 Minuten, dann nochmal nur 1 Pfanne im anderen essen.

Mag incht 1:1 uebertragbar sein aber das Leute jeden Tag auf 2-4 Platten 2h kochen das kannst mir nicht erzaehlen und selbst wenn, es ist ja keine entweder das oder das, oder hoerst dann auf zu kochen nachdem die Karte gekauft hast? Es ist ja nunmal zusaetzlicher Verbrauch, mit dem Argument kannst ja sagen ich hol mir 10 solcher Sachen, mir scheint du verteidigst dich hier moralisch, ich denk einfach vom Geld und der Hitzeentwicklung her. Aber es scheint mir schon bisschen konstruiert das du erstens meinst du willst nur 2h Zocken mit ner 1000 Euro Grafikkarte und das du 2h kochen würdest jeden Tag.
 
  • Gefällt mir
Reaktionen: Bornemaschine
v_ossi schrieb:
Ich glaube ja, dass die meisten User das durchaus verstehen, aber auch sehr genau zwischen 'sinnlosem Rausballern' von Energie und sinnvoller Nutzung unterscheiden können/wollen.

Nein, ein Großteil der Kommentare hier spricht eine deutlich andere Sprache. Die leistung wird nicht in Betracht gezogen und ebenso wenig die Skalierungseffekte, nur weil man selbst etwas nicht braucht.


v_ossi schrieb:
Das ist aber ein schlechtes Beispiel, denn es ist absehbar, dass es dem traditionellen, fossil betrieben Ferrari mittelfristig an den Kragen geht.

Das Antriebskonzept ist dafür doch völlig egal. Aber damit es vielleicht besser passt. Ich rege mich als Tesla Model S Fahrer nicht über einen Tesla Roadster / beliebigen anderen unpraktischen elektrowagen auf, weil ich ein anderes Nutzungsprofil habe.

Es geht rein um die Anforderungen und nicht um den Preis / Leistung / Antriebskonzept. Es gibt verschiedene Ansprüche an ein Produkt. und nur weil ein Konzept nicht zu meinen Ansprüchen passt, muss ich mich nicht über das legitime andere Konzept aufregen.
 
  • Gefällt mir
Reaktionen: VoAlgdH
Shoryuken94 schrieb:
Es werden ja auch kleine Grafikkarten beworben. Wobei gerade die Autoindustrie da kein guter Vergleich ist. Denn da wird mit vollausgestatteten Topmodellen geworben und das sind nicht die Varianten, die die meisten Ottonormalbürger dann kaufen.
Aber für nen Maybach findest sicher bei Autobild wenig Werbung sondern vielleicht im Managermagazin.

Wahrscheinlich gibts auch wenig Autohändler die Maybachs und Kleinwagen für den Mainstream im Angebot haben. Ich finde man sollte sowas halt klar segmentieren, das ist so als würde ne Automark z.B nen Opel 5000 raus bringen und die Oberklasse wagen fuer 500.000 Euro einfach Opel 8000 nennen. und die fuer 200.000 halt Opel 7000 oder so.

Wenn man ne reine Luxusmarke werden will, wie Apple bitte dann aber auch alle Einstiegsargumente raus und ein Image als Rechenmarke wie bei Apple aufbauen, das ist dann Konsequent.

Wobei ich hohen Stromverbrauch nicht grad mit Luxus gleich setze, aber vielleicht etablieren sie bei Klimaanlagen noch nen Nvidia CoolSync Standard raus wo die Grafikkarte verbunden werden muss oder der PC startet nicht.
 
ThePlayer schrieb:
Wer möchte direkt neben einem 850W Heißluftgebläse sitzen.
Also letzten Winter saß ich neben einem 2000 Watt Heißluftgebläse (einem richtigen) und das war immer noch nicht zu warm, weil die Heizung kaputt war :)

Im Hochsommer, wenn lüften nichts mehr bringt, wird es dann natürlich ungemütlich, aber man muss ja nicht direkt daneben sitzen. Wenn ich sehe, was für einen Aufwand Leute in Optik, RGB und Wasserkühlung stecken, dann besteht Spielraum, den PC dort zu betreiben, wo Lautstärke und Abwärme nicht so störend sind. Über Inhome Streaming reicht ein Netzwerkkabel, oder man legt sich halt ein HDMI und USB Kabel in einen anderen Raum. 10m sind machbar mit aktiver Verstärkung bei USB.

Ich bin jetzt auch nicht die direkte Zielgruppe einer 4090, aber wenn, dann würde ich mir ne Bohrung durch die Wand setzen lassen und den PC zumindest in den Sommertagen im Nebenzimmer betreiben.
Die Idee, dass man so was wie Client/Server Computing zu Hause betreibt, gab es eigentlich schon immer. Früher musste man halt ständig Medien einlegen oder sonst was am PC Gehäuse drücken (Reset, Turboschalter), aber heute könnte man mit WOL den PC in den Keller stellen und Monitor, Maus+Tastatur in den Dachboden, in direkter senkrechter Linie sind das weniger als 10m.

blackiwid schrieb:
erstens meinst du willst nur 2h Zocken mit ner 1000 Euro Grafikkarte
Meine 1080 hat zwar "nur" 550€ gekostet, aber im Schnitt habe ich in den letzten 4 Jahren bestimmt weniger als 1h pro Tag im Schnitt gespielt unter Volllast (An war der Rechner natürlich länger). Das wären ja ca. 1.500 Stunden in vier Jahren! Ich komme auf vielleicht 1000, aber nur aufgrund des Lockdowns/Pandemie. Käufer von Karten im oberen Segment zocken doch nicht automatisch mehr. Die richtigen Zeitfresser wie LoL oder WoW laufen ja auch deutlich schwächerer Hardware.
 
  • Gefällt mir
Reaktionen: ThirdLife
v_ossi schrieb:
Ich glaube ja, dass die meisten User das durchaus verstehen, aber auch sehr genau zwischen 'sinnlosem Rausballern' von Energie und sinnvoller Nutzung unterscheiden können/wollen.

Das ist auch genau das, was mich am meisten stört.

Shoryuken94 schrieb:
Nein, ein Großteil der Kommentare hier spricht eine deutlich andere Sprache. Die leistung wird nicht in Betracht gezogen und ebenso wenig die Skalierungseffekte, nur weil man selbst etwas nicht braucht.

Zumindest ich für meinen Teil habe schon vorher geschrieben:

M@tze schrieb:
Vor allem wenn ich mir überlege, für was das Ganze rausgeblasen wird. Wir reden ja nicht von einem Supercomputer, der eine Heilung für Krebs sucht, sondern von einer Pixelschubse, die dafür sorgt dass wir in virtuelle Realitäten entfliehen können. Das ist ja auch völlig ok, jeder hat ein anderes Hobby, aber ist es dann wirklich existentiell wichtig, ob das Game nun in mittleren Details bei 4k@60 läuft oder doch die High Details mit RT bei 4k@120 drin sind - für welchen Preis auch immer?
 
Gordon-1979 schrieb:
LOL, also:
GeForce RTX 4080 , mit 450 Watt
GeForce RTX 4080 Ti , mit 600 Watt
GeForce RTX 4090 , mit 800 Watt
OMG. das in meinen Augen und den baldigen Strompreisen von über 0.40€/Kwh, definitiv zu viel.
Irgendwie läuft bei nVidia was falsch.
In diversen anderen Ländern mit vergleichbarer Wirtschaftsleistung zahlt man nur die Hälfte (z.B. Frankreich).
 
  • Gefällt mir
Reaktionen: poly123 und VoAlgdH
Shoryuken94 schrieb:
Das Problem ist doch, dass die meisten das Wort Effizienz nicht verstehen. Merkt man hier in den Kommentaren super. Verbrauch ≠ Effizienz. Aber ich habe die Hoffnung aufgegeben, dass das verstanden wird. Dann könnte man ja nicht jeden Tag unnötige Hasskommentare und Parolen in einem Technikforum posten.

Deinem Verständnis nach ist also die abgerufene Leistung das Resultat des Verbrauchs. Das hat man vom Ottomotor um die Jahrhundertwende auch erzählt, da haben die auch fast 20 Liter gesoffen. Mein alter Herr fährt nen alten Polo der frisst unter 5 Liter. Die sogenannte Effizienz ist das man daran arbeitet dass die Leistung nicht in Wärme "verpufft". Die Kühler auf den Brettern der 2000er, aktuell der 3000er und dann künftig der 4000er Serie sind brachial aufgrund der Ineffizienz der Chips. Wir haben es doch geschafft von Glühbirnen, über Sparbirnen auf Leuchtstoffröhrenbasis bis hin zu LED und Cree Chips als Leuchtmittel die kaum Wärme ableiten. Dan hinkt eben die Grafikkartensparte deutlich hinterher. Derzeit nur schneller, höher, weiter. Hauptsache AMD ausstechen und umgekehrt.
 
Wasserkühlung auf die GPU und in den Heizkreis des Hauses oder Wohnung mit einbinden, dann ist die Abwärme wenigstens sinnvoll noch genutzt.

Ne das ist der falsche Weg, wie ich finde bei Hardware
 
owned139 schrieb:
Abgesehen davon glaube ich auch nicht, dass der durchschnittliche Verbrauch bei 850W liegen wird. Vermutlich säuft das Topmodell um die 500W mit Lastspitzen bis 850W. Ist zwar auch nicht schön, aber immer noch ne andere Hausnummer.
Naja du hast eine 3090 die zwischen 300-400 Watt verbraucht. Und jetzt stell dir vor du hast eine Karte die Mindestens 500W zieht nur bei Teillast und wen die Post abgeht sind es 600-800W.
Also ich möchte nicht mit dieser Abwärme im Raum sitzen.
Und bei Lastspitzen von über 700W wirst Du doch mit einem 1kw Netzteil schon Probleme haben. Und erzähl doch nicht das man sich dann eine 4060 kauft.
 
Zurück
Oben