Linmoum schrieb:
Was sieht schlimmer aus als es in Wirklichkeit ist?
Na, die meisten Foristen übertreiben einfach. Verbal blind drauf los prügeln ohne Fakten zu kennen ist einfach dämlich.
In reellen Szenarien wird die Karte vielleicht 288 bis 325W verbrauchen, also durchschnittlich um die 300W. Das ist noch im Rahmen wenn man das mit der 2080 Ti vergleich. Die ist bei etwa 270W Verbrauch.
Der Rest kommt durch höheren Speicherausbau, dessen Verbräuche und Abwärme und natürlich den ganzen Kram außen herum wie Spannungswandler und sonstiges Gedöns.
Wer ständig nach der besten Grafik giert, wird sicher damit leben können. Damit geht sicher die Welt nicht unter. Einzig das blöde Geheule nervt langsam!
Linmoum schrieb:
Ob die GPU alleine nur 230W zieht, ist vollkommen latte. Es müssen die gesamten 350W abgeführt werden und nicht nur das, was die GPU verbrät. Verbrauch schönrechnen braucht man nicht, denn Speicher, Wandlerverluste etc. gehören immer und bei jeder Grafikkarte mit dazu.
Die 350W TDP, also Wärmeabgabe ist die Summe von allem, die 230W der Verbrauch der GPU bzw. deren Abwärme. Die genauen Werte müssen erst in Tests ermittelt werden. Jedoch sind gerade die fixen Komponenten diese Generation scheinbar ein Hitze und Verbrauchstreiber.
Das muss man dieses mal mit in die Rechnung mit einbeziehen, nicht so tun als würde die GPU selbst über 350W saufen.
Linmoum schrieb:
Wenn man effiziente Architekturen designt, dann kommt man auch um steigende Wattzahlen bei gleichzeitig trotzdem höherer Performance herum. Wird man mit RDNA2 und den +50% Perf/Watt sehen trotz desselben Prozesses. Die Xbox Series X ist schon einmal ein kleiner Vorgeschmack darauf.
Die angeblichen +50% Performance sagen überhaupt nichts aus. AMD brüstet sich seit Tonga über die eigene Energieeffizienz. Trotzdem waren die meisten Karten der Radeons im Prinzip hitzige Stromschleudern. Zumindest haben sie alle mehr Verbraucht als sie eigentlich in ihrer Klasse sollten.
Prozessverfahren ist ein guter Punkt, aber er wird nicht alles rausreißen. Da unsere vRAM-Fetischisten nach immer mehr Speicherausbau schreien, kommt die Rechnung halt in höheren Preisen und mehr Abwärme bzw. Verbrauch.
Die Xbox SX ist außerdem GPU-mäßig nichts besonderes. Denk dir eine abgespeckte RX5600/5700 in einer APU-Form und du bist nicht weit von der Realität entfernt. Eigentlich nichts besonderes wenn man das mit den kommenden Grafikkarten vergleicht.
Linmoum schrieb:
Die Fury Nano sieht das anders.
Was sieht denn bitte mit der Nano anders aus?
Sie ist kläglich gescheitert weil Preis und Ausstattung nicht den Kundenwünschen entsprochen haben. HBM war und ist für den Massenmarkt zu kompliziert und teuer. Die lächerlichen 4GB vRAM haben sich von Anfang an als Beinbruch herausgestellt. Jeder wusste das!
Das Ding hätte 150-200€ kosten müssen wie eine RX570/80, aber das ist mit HBM nie und nimmer möglich.
downforze schrieb:
Jetzt sind wir schon so weit, dass man für die untere Mittelklasse (3060) 400 USD, also wohl 420€ in Europa, hinlegen muss. Danke, aber nein Danke.
Bei den Preisen halte ich mich mit Kritik noch zurück bis die finalen Preise bekannt sind. Es besteht die Möglichkeit, Nvidia bringt verschiedene vRAM Ausstattungen in jeder Klasse. Hätten diese 400 US-$ plus Steuern nämlich für eine 12GB Version und ein 6GB Modell landet bei 250-300$, wäre das durchaus akzeptabel.
Ich bezweifle auch stark Nvdia kann sich in der Unter- und Mittelklasse Wucher erlauben. Gerade in dieser Gegend gibt es den größten Preiskampf.