HanneloreHorst schrieb:
Mir geht es nicht darum den M1 zu glorifizieren, für Renderperformance bin ich der erste der das Ding kritisiert.
Aber, wir haben 320 Watt bei der 3090, die aber beim Rendering auf 450+ Watt peaked, die M1 Ultra 64GB CPUs sind derzeit auf 60 Watt-80 Watt limitiert Und werden auch nur 60 grad heiß.
Das sind dann also 4-9 mal weniger Leistungsaufnahme, wobei die 3090 beim Rendering eigentlich immer bei 450+ rumhängt.
Dabei ist sie nur 3-5 mal schneller.
Und ja nach Optimierung kommt man eben doch sehr gut selbst mit dieser limitierten GPU an die 3090 ran.
Es ist einfach im Moment sehr stark von der Optimierung der Software abhängig. Da liegt mehr im Argen als mit der Hardware als solches. Dass es auch mit wenig Verbrauch sehr schnell gehen kann zeigt ja eben der Mobile-Bereich, bzw. Apple mit dem M1.
Es erfordert eben aber auch ein starkes umdenken und viel Anpassung im Software-Bereich.
HanneloreHorst schrieb:
Das ist aber gar kein Bashing aber es zeigt trotzdem, das man bei GPUs schon noch deutlich effizienter werden kann.
Fakt ist, die GPU Hersteller müssen da in meinen Augen auch Lösungen und Antworten finden den Auflösungswahn aber auch dem ökologischen Sinne gerecht zu werden.
Ich als Kunde kann nur das Feedback spielen, ob das Produkt für mich gut genug wird oder nicht.
Wenn du sie toll findest, kaufe sie, nur wir haben es Jahrelang bei Intel gesehen, ohne Druck ändert sich eben auch nichts.
Ja, aber Effizienz wird ja nicht daran gemessen, was ein Produkt maximal ziehen kann. Meinen ehemaligen 5.0er V8 bin ich hier in der Schweiz mit 9-10 Litern im Alltag gefahren, in den Alpen mit viel Enthusiasmus waren aber auch schnell 17-22 Liter drin, auf der Rennstrecke wären auch schnell über 30-40 Liter drin.
Ich messe das Auto aber nicht daran, was es komplett am Limit ziehen kann sondern daran, was es in meinem Alltag zieht.
Und da schliesst sich der Kreis zur Hardware ja auch. Ich spiel grad wieder TW: Warhammer 2, alles auf Maximum und in 4K60 VSync, dabei zieht meine CPU keine 60W, die GPU um die 300W und gut ist.
Wenn ich jetzt eine 4080 hätte und die zwar 600W maximal ziehen könnte, aber die Leistung meiner 3080 Ti im selben Spiel bei 200W repliziert, einfach mit ein paar Anpassungen, dann ist das für mich ne satte Steigerung der Effizienz.
Und das ist ja was für mich im Alltag zählt, nicht ein TDP Wert, der maximal erreicht werden kann. Der zeigt mir nur wie ich mein Kühldesign gestalten muss um im Worst-Case alles gut betreiben zu können, mehr nicht.
HanneloreHorst schrieb:
Natürlich war mein 4K, 120FPS Wunsch auch etwas übertrieben gesprochen.
Das war aber auch gewollt übertrieben gesagt.
Mich nervt es einfach extrem, das ich z.B. meinen Laptop mit 3060 nicht ohne Ladekabel für kleine Rendering Sachen oder Zocken nutzen kann, mich nervt es, das auch das Teil eben nicht die Leistung hat, obwohl es extrem laut ist(also die Lüfter dann) und viel Strom zieht.
Da darf nVidia gerne nachbessern und davon profitieren alle Karten, von unten bis oben.
In dem Bereich muss man sich momentan leider im Voraus genau im Klaren darüber sein wofür man seinen Laptop nutzen will. Ich spiele persönlich auch mit dem Gedanken mir das nächste Macbook Air zu holen und mein 2017er Zenbook 14 zu verkaufen. Einfach weil es sehr flott ist, bei enormer Laufzeit und ich mobil höchst selten mal was einfacheres/älteres zocke wenn überhaupt.
Als "Mobile Gamer" hat man allerdings gar keine Wahl, da ist man halt auf diese "Leistungsfresser" angewiesen. Ich lagere das Hobby daher an den Desktop daheim aus und geniesse es lieber da in vollen Zügen und profitiere mobil lieber von mehr Effizienz und Portabilität.
HanneloreHorst schrieb:
Apple ist nicht perfekt aber eben ein gutes Beispiel, das man schon viel Leistung fast geräuschlos kühlen kann, die 3060 hängt bei Renderjobs auch jenseits der 90-100 Grad rum.
Nur man muss eben nach diesen kreativen Lösungen suchen, das erwarte ich von allen Wettbewerben, von AMD, nVidia und Intel und dann lasse ich da auch gerne mein Geld.
Ob nun die anderen Wunder vollbringen, ich glaube es nicht, aber ich will zumindest schon mal positive Änderungen mit mehr Realitätssinn bei neuen Generationen sehen.
Das ist eben aber auch nicht nur an der Hardware, die Software muss auch passen, da liegt viel Leistung brach. Ich mein, schau dir aktuelle Spiele an, die wenigsten threaden vernünftig über 6-8 Threads raus. Wir betreiben im Geschäft leider auch noch viel zu viele alte Schrott-Software die nur Single-Core, bis maximal Dual Core läuft bei 32 Bit z.B.
Hardware skaliert mittlerweile weit besser als die Software die darauf läuft.
LencoX2 schrieb:
Man sieht daran wie sehr NVidia und der gleichen Strategien folgen:
Spitzenplatz um
jeden Preis!
Für den formal "schnellsten" Gaming PC Intel 12900K + RTX 4080 + 32 GB DDR usw komme ich grob auf
250 + 750 + 100 = 1100 . Dazu 400 Watt Puffer für Peaks der durstigen HW macht 1500 Wattt Netzteil.
Läuft bei Intel und Nvidia.... ...in die falsche Richtung
Nö, beim Zocken braucht das wohl kaum jemand. Kommt ja stark auf deine Umstände an oder nicht ? Wenn du einen 1080p/120 Monitor betreibst, dann wird die CPU dabei 40W ziehen, die GPU 150W und das RAM keine 20 Watt. Sind wir bei knapp 210W + ein bisschen Kleinscheiss noch.
Oder zwingt dich jemand mit vorgehaltener Waffe in 8K/60 zu daddeln mit RT und maximalen Details ?
danyundsahne schrieb:
Ja, aber es muss doch irgendwie gehen....AMD schafft es doch auch eine so schnelle Gaming CPU zu bringen wie Intels 12900KS, und das mit weniger als die Hälfte des Verbrauchs!
Also geht es doch, offensichtlich!
Kommt stark auf den Task an. Den 12900K muss man ja nicht permanent volle Rotze fahren. Im Gaming Betrieb wird der auch kaum über 50-100W kommen. Genau wie die AMDs (die im Übrigen, gerade im Teillast Bereich eher weniger effizient sind, dank IO Die und Overhead).
danyundsahne schrieb:
Formal ist doch jetzt schon der 5800X3D schneller im Gaming bei nur 60W Verbrauch
Dazu wird laut Gerüchten auch die 7900XT etwas schneller bei weniger Verbrauch.
Dann wären wir bei 60W + 450W + 100W = 610W. Dann wärst bei AMD sogar mit einem 850W -1000W NT um einiges effizienter unterwegs.
Es geht also auch in die andere Richtung
Im Gaming Betrieb zieht auch ein 12900 keine 250W, das ist open-end und beim Rendern vielleicht der Fall. Da wäre der aber auch schneller als ein 5800X3D der genau da Federn lassen muss.
Auch kommts ja stark aufs Spiel und deine Auflösung und Settings an wie deine Hardware frisst. Ich hab im Alltag bei den meisten Games selbst in UHD bei 60Hz keine 400W Gesamtsystemverbrauch.
Visualist schrieb:
Natürlich denke ich das nicht ich Tipe auf ca 450-500W.
Die Chiplet einzeln sind nicht grösser die bekommen mehr FP32 Einheiten .
Die echten Shader werden sogar weniger und es wir über FP 32 verdoppelt!
3840 Shader welche durch die FP 32 auf 7680Shader kommen das mal 2 Chiplets!
Und nicht wie NV wird man nur 256 Bit nutzen mit einem riesigen Infinety Cache .
Schau mal zum X3D wie effizient der dadurch wird!
Wird sich zeigen, der Cache frisst ja auch Leistung, nVidia wird ja eine Kombi aus beidem Fahren, den Cache massiv erhöhen und dann zusätzlich noch schnelles Interface (hoffe ich), was vermutlich die beste Kombi sein wird für alle möglichen Anwendungszwecke.
Visualist schrieb:
Der Design Ansatz mit 386 Bit ist schon veraltet .
AMD hat es doch super gezeigt mit dem Infinety Cache und 256BIT.
Die neue Soll 512 Mb Cacheim Chipletdesign bekommen!
Das Speicher IF ist doch bei nVidia auch unterschiedlich ? Und mehr Cache wirds auch bei den neuen ADs geben. Ich bin gespannt.
Lazo53 schrieb:
Ersten ist dies zu heavy sowas wird bestimmt nicht für den Privaten bereich erscheinen.
falls ja will ich
1tens nicht sehen wie das ding gekühlt wird
2tens kauft sich keine sau ein 1500 Watt Netzteil bei den jetzigen Energie preisen
Es sei denn ich habe ne Solaranlage auf dem Dach
3tens Performens per Watt wird echt kacke.
Gekühlt wird das mit Wasser. Ist halt ein Enthusiast Product und nicht für jedermann gedacht. Dass man sich da selbst auch mehr mit befassen muss sollte klar sein.
Zweitens gehst du nur von dir in DE aus, die Welt ist ein klein bisschen grösser als Deutschland. Und nur weil man da die Strompreise nicht im Griff hat gilt das nicht für den Rest der Welt.
Drittens, wieso sollte Performance pro Watt schlechter sein ? Wenn eine kolportierte 4080 bei 600W doppelt so schnell ist wie eine 3080 Ti bei 450 Watt, dann ist das eine deutliche Steigerung der Effizienz. Davon abgesehen zwingt dich ja niemand das mit 600W zu betreiben. Nutz es mit 300W und profitier von der doppelten Performance ggü. einer gleich viel brauchenden 2080S.
Wo ist das jetzt nicht effizient ? Es gibt mehr als nur 0 oder 1.
Sesam81 schrieb:
Wird das nun der nächste Hersteller der gegen Innovation auf die Brechstange setzt? Intel machts ja vor. Wenn ich zum Zocken ein Netzteil über 850 Watt brauche läuft da irgendwas falsch. Ich will zocken und kein Kraftwerk betreiben
Und wie willst du zocken ? Auflösung ? Features ? Details ? 4k120 und alles Maximum ? Dann musst du halt dafür blechen. Wenn du ständig VMAX auf der Autobahn fährst kostet dich das ja auch. Machst du das ständig ? Nein ? Warum dann also daheim mit deinem Rechner ?
Denken alle nur noch binär ?