Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Vexz schrieb:
wird sich jeder in den Arsch beißen, der sich in den kommenden paar Wochen eine 3080 mit 10 GB holt
Wieso? Du wirst die doppelte Speichermenge sicher bezahlen müssen und es ist fraglich, ob und wann du mit den 10GB überhaupt ins Limit läufst. Unterhalb von 4k sehe ich überhaupt keinen Stress und selbst bei 4k ist es noch nicht wirklich absehbar, dass die 10GB zu wenig werden und was für Einschnitte man dann hinnehmen muss (Doom Eternal auf der 2080 8GB in 4k scheinbar von Ultra-Nightmare-Texturen auf Ultra-Texturen runter, was für ein Verlust...).
GerryB schrieb:
(die 20GB gehen nur mit den 2GB-Modulen)
Nicht korrekt, man kann die Platine auch rückseitig bestücken, muss dann die Rückseite aber auch kühlen, wie eben bei der 3090.
Vexz schrieb:
Rausgeschmissenes Geld bestimmt nicht. Eher eine Zukunftssicherheit. Es gibt genügend Leute, die in 1080p zocken und die 8 GB VRAM schon mit Leichtigkeit voll kriegen. Da sind 10 GB auch nicht viel mehr. Da braucht es nicht mehr lange und die 10 GB sind auch zu wenig.
Aha, zehn mal den Drachenkot-Ultra-Textur-Mod in Skyrim aktiviert oder wie machst du das? Bei den ganzen Spielereviews bekommt man von Speicherlimits selbst in 4k bisher nichts mit. Selbst der Memory-Leak in HZD dürfte inzwischen gefixt sein.
 
  • Gefällt mir
Reaktionen: xexex
IXI_HADES_IXI schrieb:
Selbst Format-C (Igor) schreibst das 10 GB knapp werden könnten in UHD.
Eben, könnte. Als echte Zukunftsinvestition über einige Jahre würd ichs auch nicht ansehen. Es wird Abstriche geben und irgendwann holt man eh eine neue Karte.
Aber was tun wir jetzt, FE kaufen oder Customgebläse abwarten? Sind dann aber auch teilweise 100 Euro und mehr extra. Gibt natürlich auch en paar für 770.
Mit Verwirbelungslüftern hab ich eigentlich immer Probleme, die Verteilung bei der FE müsste eigentlich besser sein, grob. Custommodelle werden bei Tests auch immer zu sehr gelobt. Leise und kühl heißts immer, gelogen isses.
 
aldaric schrieb:
Wieso? Weil der 7nm Prozess neu, geringe Yields hatte und teuer war. Den CPU's wurde da ganz klar die höhere Priorität eingeräumt, was man am Erfolg von Zen2 sieht.
Selbst wenn das die einzigen Gründe gewesen wären: das kumuliert sich trotzdem zu einem "man konnte nicht" anstatt "man wollte nicht". Nicht genug Kapazitäten, nicht genug Yield um wirtschaftlich zu sein. Selbst bei Zen2 waren die Chips ja immer mal wieder knapp weil schlichtweg die Produktion nicht hinterherkam.
 
So nachdem ich mit anderen Tests wie denen von HW Unboxed quergecheckt habe, denke ich, dass ich mit meiner AiO-gekühlten EVGA 2080 Super noch hinreichen werde, da ich z.Z. eher in 1440p spiele. Würde ich auf 4k umsteigen, dann wäre das eine ganz andere Sache, und genau das ist Ampere für mich: Ein reines 4k-Upgrade.
 
  • Gefällt mir
Reaktionen: Matthias80
akuji13 schrieb:
Und warum hat man keinen fertigen lassen? Weil man es nicht nötig hatte?
Zu teuer, bei der Chip Größe eine zu geringe Ausbeute, zu wenig Fertigungskapazitäten.....such dir was aus, etwas davon wird schon passen. ;)

Edit:
Ich vergaß, begrenzte Entwicklungskapazitäten die an anderer Stelle dringender benötigt wurden. :D
 
Supermax2004 schrieb:
Eben, könnte. Als echte Zukunftsinvestition über einige Jahre würd ichs auch nicht ansehen. Es wird Abstriche geben und irgendwann holt man eh eine neue Karte.
Aber was tun wir jetzt, FE kaufen oder Customgebläse abwarten?

Gibt ja jetzt schon Games in denen 10 GB zu wenig sind! ;)
Ich für meinen Teil warte wie stark Big Navi wird. Nvidia wird mit Sicherheit mehr VRAM nachlegen, da kaufe ich mir bestimmt jetzt keinen VRAM Rohrkrepierer, da ich ebenfalls vorhabe Ende des Jahres auf UHD umzusteigen.
Da sind mir 10 GB einfach zu mager.
 
  • Gefällt mir
Reaktionen: Otsy und Digibyte
Die 1,9x Effizienz kommt sogar Zustande, wenn z.b. das Fps Limit auf 60 gesetzt wird.
Leistung.jpg
 
  • Gefällt mir
Reaktionen: Matthias80, Sly123 und Krautmaster
aldaric schrieb:
Ich habe auch die 980 Ti damals im Abverkauf bei Caseking erworben für 399 € und habe dann per Step-Up bei EVGA die 1070 genommen. Nur die Versandkosten bezahlt und fertig.
meine 980 Ti gabs kurz nach Release aber ich hab noch nen Schnapper mit ner 2. gemacht bei der ich erst dachte "fake auf Amazon".
1600339778725.png


Deutlich vor Release der 1070 / 1080 und ne Ecke günstiger. Aber das war für nen Kollegen, nich für mich
 
  • Gefällt mir
Reaktionen: aldaric
aldaric schrieb:
Wieso? Weil der 7nm Prozess neu, geringe Yields hatte und teuer war. Den CPU's wurde da ganz klar die höhere Priorität eingeräumt, was man am Erfolg von Zen2 sieht.

So schwer ist das gar nicht, wenn man mal kurz drüber nachdenkt. :volllol:

Klar, Ausreden findet man immer.
Vielleicht hat man auch schlicht den CPUs den Vorzug gegeben weil man weiß das man mit den GPUs nicht die Leistungskrone erreichen kann. ;)

aldaric schrieb:
Architektur nicht gleich Leistung ? :evillol: :evillol:

Stell dich nicht dümmer als du bist.
Gemeint ist das eine neue Architektur nicht automatisch die Mehrleistung bringt die man gerne hätte.
 
Confidential schrieb:
Die Berechnung erfolgt auf Grundlage der PS5 und Xbox Series X - Ja sehr ungenau aber einen Versuch wert.
Vor allem unmöglich da Nvidia mit Ampere die TFLOPs völlig unbrauchbar gemacht hat.

Basierend auf der Tatsache dass die 3070 auf dem Niveau der 2080Ti liegen soll, sind die 30 TFLOPs der 3080 wohl ca zu vergleichen mit 18-20 TFLOPs von RDNA2
 
aldaric schrieb:
RDNA vs. Turing ist Architektonisch absolut gleichauf. 1% Vorteil in der Architektur für RDNA wars glaub ich im CB Test.
das kann man angesichts fehlendem AI und RT schwer sagen damals.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Ned Flanders schrieb:
Verstehste nicht? Man muss CPUs in 720p testen weil bei 1080p die GPU imitiert und beim gamen ist es dann umgekehrt, in 1080p und selbst in 4k limitiert die CPU noch.
Je nach Titel halt und je nach GPU/CPU Generation. Die aktuelle RTX30 Generation ist nun wohl endlich auch in 4k so schnell um in ein CPU Bottleneck selbst in 4k zu gehen. zumindest in ein paar wenigen Titeln ... eventuell/vielleicht, mit DLSS ;-)
1080 scheint man die CPUs aber wohl auf jeden Fall mehr als nur ins Schwitzen zu bringen, erst recht wenn man dann PCIe 4.0 noch mit haben will und eine AMD CPU genommen hat. Zeit für Zen3, nicht?
 
BOBderBAGGER schrieb:
Das wäre bei allem was wir wissen eine 500-600W GPU

Das fürchte ich auch, daher unrealistisch für den Moment. Ich glaube AMD kann nur die unteren Leistungsklassen bedienen und punktet wenn dann mit 16GB VRam
 
Wadenbeisser schrieb:
@Kenjiii

Was auch nicht verwunderlich ist wenn die 3080 vor langer Weile fast einschläft. ;)
Yoa das stimmt, aber ich wollte nur die geforderten 1.9x nachweisen. :p
Also in bestimmten Games, wo man die Fps an die Refreshrate des Monitors anpasst, hat man anscheinend schon
je nach dem gute Stromeinsparungen.
(Vielleicht möchte ich auch unterbewusst nur noch mehr und mehr meinen Kauf um 15:00 Uhr rechtfertigen :D )
 
Taxxor schrieb:
Erinnert sich noch wer an die ganz frühe "News" von Ampere mit 50% mehr Performance bei 50% weniger Verbrauch?^^
Haben sie das nicht Geschafft? 50% mehr Performance hat die 3080.
50% weniger Verbrauch dann wahrscheinlich ne 3060 °_^

Das es das nicht gleichzeitig spielt, war ja glaube ich doch jedem klar, oder?
 
Ich
nr-Thunder schrieb:
Haben sie nie behauptet, aber wer braucht schon Leseverständnis oder Aufmerksamkeit während der Keynote. Im Internet kann man alles behaupten und hat immer Recht.

Eine 2080 ist keine 2080 Super, und keine 2080 TI. Wenn eine 3080 bis zu doppelt so schnell (engl. up to twice as fast) ist wie eine 2080 , dann ist an der Aussage nichts falsch wenn es Spiele gibt in denen eine 3080 100% mehr Leistung hat, auch wenn es im Durchschnitt nur 50% wären. Denn bis zu und mindestens sind zwei verschiedene Aussagen.


Ich meinte die 2080 sorry. Noch wie vertippt ihr Superhelden?
Klar, super Marketing wenn man einfach bis zu sagt. Dann ist diese Aussage aber auch absolut nix wert.
Ändert nix dran dass es mit einem immensen Stromhunger erkauft wurde.
 
Confidential schrieb:
Ich glaube AMD kann nur die unteren Leistungsklassen bedienen und punktet wenn dann mit 16GB VRam
So pessimistisch bin ich nicht ein 80 CU Modell im bereich der 3080 kann ich mir schon vorstellen.
Was es am ende ist sehen wir leider erst in 6 Wochen
 
Zurück
Oben