Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
"Einfach" ist da gar nichts, sonst hätte die 3090 mit nur 30W mehr Stromaufnahme, keinen speziellen Kühler mit 3 Slots bekommen. Die zusätzlichen Speicherchips auf der Rückseite einer 3090 wollen letztlich ebenfalls gekühlt werden.
Da hatte man aberwitziger weise die Effizienz bei festgelegter Framerate verglichen wodurch die 3080 zwangsläufig bei Teillast läuft, ich bin mir aber nicht ganz sicher ob das Vergleichsmodell eine (längst abgesetzte) 2080 oder eine 2080Ti war.
Vergleicht man die Performance pro Watt @ Standard (Seite 5) bleiben eben nur noch 10% übrig.
Somit sind die Sorgen diesbezüglich unbegründet und das VRAM Budget ist gut gewählt (auf Preis-/Leistung ausgelegt).
Niemandem nutzt brach liegender oder sinnlos vollgestopfter Speicher.
Lasst den Mist doch endlich. Was AMD liefern wird, wird sich erst zeigen, wenn man Tests dazu hat. Selbst die 5700XT - Modelle haben nur max. mit der 2070S konkurriert. Nvidia wird immer noch die Nr. 1 bei den High End Karten haben. 3080 und 3090 werden bezüglich Grafikleistung keine Konkurrenz haben.
Es wird die 3070 sein, die man hier angreifen wird - mehr nicht.
Ergänzung ()
Wadenbeisser schrieb:
Da hatte man aberwitziger weise die Effizienz bei festgelegter Framerate verglichen wodurch die 3080 zwangsläufig bei Teillast läuft
Eben, es ist eben viel realitätsnäher durch PCIe 4.0 0,5% an Leistung in 4K hinzuzugewinnen, als ~10% in Full HD, 7% in WQHD und 1 bis 2% in 4K durch eine schnellere CPU (wie etwa Techpowerup).^^
Pizza! schrieb:
All die User die keinen wassergekühlten 5,2 GHz Brecher im System haben.
Hätteste den 10900K oder schon Zen 3 verbaut (geht mit Fluxkompensator) hätteste halt Werte die für alle brauchbar sind.
Pizza! schrieb:
Wenn jetzt mit der mega CPU getestet wird und es kommt raus Beispiel 40% mehr Leistung. Dann kommt User Karl Heinz mit seinem 3600X. Kauft sich die Karte und wundert sich, hey ich hab nur 30% mehr Leistung. Wäre ihm beim CB Test nicht passiert.
Bei 41% mehr Leistung mit RT+ DLSS im CB Rating, wäre ich mir da nicht so sicher, ob die 500 Euro so ein guter Deal sind. Kommt Asynchronous DLSS + RT noch hinzu, steht man wohl bei +50%.
Mein Ihr da Seasonic Prime Titanium mit 600W bekommt die 3080 gestemmt? Aufgrund der hohen Qualität hoffe ich das natürlich. Restsystem wäre, 3700x, msi X570, 32gb ram, 2ssd.
Wen interessiert der Node? Der kann noch so toll sein, wenn Nvidia ihn nicht nutzt.
Am Ende zählt Produkt A gegen B und da stand AMD eben ganz gut da, was die Effizienz der 5000er Serie gegen Turing angeht.
Mit RDNA2 müssen Sie jetzt zeigen, dass sie auch die Architektur verbessern können auf dem selben (bzw. ähnlichen) Node.
Der 8nm Samsung- Prozess, von dem wir hier sprechen, hat eine 18% höhere Packdichte als der 10nm Prozess und der Custom Prozess von nvidia hat zum 8nm Shrink von Samsung noch einmal ein performance- Plus von 10%.
Zumindest sind das die Informationen, die sich im Netz finden. Das wäre also in Summe schon ein merklicher Unterschied zwischen 10nm und 8nm nvidia custom.
Es spielt bei einem Effizienzvergleich nie die TDP eine Rolle, sondern immer das was am Messgerät angezeigt wird.
Dein Grundproblem war in dem Falle, dass du die 2080Ti auf 250 Watt heruntermogeln wolltest, damit die 3080 keine bessere Effizienz attestiert bekommt. Ansonsten habe ich noch nie gelesen, dass jemand mittels TDP Angabe die Effizienz ausklamüsern will.
Oder Kontext vergessen?
Heschel schrieb:
Bitte? 25 % Effizienssteigerung ggü. dem Vorgänger (2080ti mit 270W vs 3080 mit 270W) ist keine Verbesserung?
Die alte wird übertaktet? Okay, das ist mir neu.^^ Scheint ja doch nicht so zu sein, wie du sagst.
Aber ja, ging ja um was völlig anderes und spielt keine Rolle. 😆
wo können sie das? Lediglich beim Takt oben raus. Was die Effizienz angeht kannst du ja mal den Skylake X mit den 7nm Ryzen 2 vergleichen DAS macht der Node aus.
Eine 3080 mit mehr Speicher kann es also erst irgendwann im kommendem Jahr geben oder man baut eine 3080 Ti auf dem PCB der 3090, was extrem unwahrscheinlich ist.
Dann erwartet dich aber eine traurige Zukunft. Du wirst es nicht glauben, aber die Karten werden immer mehr Energie verbrauchen, weil irgendwoher muss die Leistung kommen....
Oder auch nicht. Ich denke in absehbarer Zeit werden auf Europäischer Ebene die klimaschädlichen Aspekte der Computer zu Beschränkungs-/Verbotsphantasien führen. Ich sollte mich mal an die hiesigen Abgeordneten wenden (egal welcher Partei). Nächsten Jahr ist Wahljahr und wir müssen die Welt retten.
Das ist nicht spaßig gedacht. Angesichts unseres politischen Klimas sind Beschränkungen nicht unwahrscheinlich.
Man siehe die Empfehlungen von Asus z.B. bezüglich der Netzteile für Ampere.
Während die PS5 und Xbox GPU aus der SSD optimiert sich alles ziehn wird, wird der PC mit zeimlicher sicherheit software-müll-ports wie schon seit immer bekommen.
Sprich alles in System und VRam auslagern, wozu exotische hardwarefeatures nutzen.
Hier und da wirst natürlich titel geben die von NV "subventioniert" wurden und features mitbringen, in der breiten masse wird aber 4 oder 6GB mehr VRAM nutzlicher wie direktzugriff der GPU auf RAM und SSD bei games wohlgemerkt.
Schon HBCC ist bei diversen programmen nutzlich.