Dai6oro schrieb:
Und ja als Besitzer einer 3090 sage ich wäre schön wenn sie nicht so saufen würde. Aber das scheint bei künftigen Karten ja leider Standard zu werden. Völlig falsche Richtung.
Ach, man kann die 3090 durchaus einbremsen auf einen sehr soliden Verbrauch und trotzdem echt viel Leistung und VRAM aben.
Ich hab meine jetzt mal auf 250W TDP runter geregelt und die Karte bleibt kühl, bringt dennoch genug Dampf mit um fast alles bei 1440p in höchsten Details bei 60 - 120 FPS darzustellen und das schönste ist: Sie ist unschlagbar leise geworden.
Eigentlich die perfekte Karte: Ultrabreits Design, dass man nicht wirklich hoch takten müsste um die Leistung abzurufen.
Die RTX 3090 wird in ihrer Form wirklich mit 350 und bei den Hersteller mit ihren 400 - 450 Watt TDP weiter über der Grenze dessen Betrieben, was notwendig ist. Klar meine 3090 erreicht nicht mehr die Ergebnisse einer 6900 XT, aber liegt nicht soweit weg und ist deutlich effizienter, weil sie eher im Sweetspot bleibt.
Phobsen schrieb:
Ist halt ein klassischer Post von ihm.
Ganz ehrlich, ich würde ihn nicht all zu ernst nehmen. Er dreht und wendet sich die Argumente oft so zu recht, dass er über verschiedene Themen sich bei der selben Thematik teilweise sogar selbst widerspricht.
Er ist es auch, der jedes mal Themen um AMD dazu nutzt die angebliche Doppelmoral der Community aufzeigen, er will ja nur "Gerechtigkeit" und das beste ist auch immer seine Aussage, dass er ja kein Fanboy wäre, dabei macht er genau das, was Fanboys machen.
Man sieht es ja auch hier. Er lässt eine GeForce 970 vom 09.2014 gegen eine Grafikkarte von Oktober 2013 antreten. Klar, 2014 war die GeForce 970 deutlich effizienter als die R290, aber der direkte Konkurrent war die 780, 780 Ti und Titan und da bewegte man sich durchaus auf Augenhöhe.
Was die Effizient anging, war Kepler für NVIDIA der erste Schritt um zu AMD "aufzuholen" damals und Maxwell war dann der Gamechanger, das die Effizienz anging, denn was Effizient anging, hat Maxwell damals selbst mit Kepler quasi den Boden gewischt.
Nur war GCN damals nicht so krass abgeschlagen, wie man denkt. Tonga und Fiji zeigten ja durchaus, dass man zwar nicht ganz an die Effizient heran reicht, aber auch nicht meilenweit weg ist und selbst Polaris war zwar unterlegen, aber auch nicht so meilen weit weg. GCN hatte ein "Highend"-Problem als Maxwell und Pascal kamen, weil quasi oft mindestens der halbe Chip zwar "mitrechnete" aber nicht wirklich rechnete.
Für NVIDIA waren die "Probleme" bei GCN natürlich Gold wert, weil NVIDIA so sich auf wirklich effiziente Architekturen konzentrieren konnte, bis eben nun RDNA kam und AMD die strukturellen Probleme von GCN lösen konnte und auf einen Schlag sowohl bei der Leistung als auch der Effizient aufgeholt hatte und AMD hatte sogar noch etwas gelöst: Das Skalierungsproblem von GCN.
Man muss an der Stelle nämlich jetzt eine Sache festhalten: Turing hatte bereits pro SM 128 Shader - wie jetzt Ampere - nur das halt 64 Shader exkulsiv für INT reserviert war.
Ein Teil der Einheiten lag also brach. Es standen also schon Turing 5120 Shader gegen 2560 bei RDNA und beide kamen auf die gleich Leistung in Spielen und ähnlich sieht es auch jetzt aus. Ampere hat eine unglaubliche Anzahl an Rechenwerken, aber sie bekommt die Rechenleistung nicht auf die Straße und es zeigt sich nun, dass NVIDIA ein Auslastungsproblem hat, ähnlich wie damals eben AMD mit GCN.
Bierliebhaber schrieb:
Du pickst dir für Hawaii das absolute worst case raus, vergleichst das mit dem best case bei nVidia, dazu mit einer Karte, die man wegen des VRAM eh nicht vergleichen kann, und wunderst dich, dass du bei deinem Getrolle nicht ernst genommen wirst?
Er macht doch genau das, was er anderen immer vorwirft, er merkt es aber leider nicht mal.
Deswegen ist da das beste: Lasst ihn schreiben.
GERmaximus schrieb:
Das hat leider einfach den Geschmack von Doppelmoral.
Hat es auch, merkt er als Fanboy aber nicht. Ihm geht es darum, dass NVIDIA ja ganz ganz unfair behandelt wird und ja alle anderen doppelmoralisch handeln. Das er dabei selbst so handelt, das merkt er nicht.