Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Kenjiii schrieb:
Yoa das stimmt, aber ich wollte nur die geforderten 1.9x nachweisen. :p
Also in bestimmten Games, wo man die Fps an die Refreshrate des Monitors anpasst, hat man anscheinend schon
je nach dem gute Stromeinsparungen.

Das ist ja nichts schlechtes. Dadurch wird eben auch der Fortschritt gezeigt.

Für ein gegebenen Output langweilt sich die 3080 während der Vorgänger schon ins Schwitzen gerät. Das Szenario mit eingeschaltetem Vsync, Freesync oder Gsync ist ja auch nicht unrealistisch.
 
  • Gefällt mir
Reaktionen: Kenjiii
Supermax2004 schrieb:

Nochmal: Doch
Ich hab selbst zwei davon: Frostpunk und MS Flight Simulator
Die knallen meine 11GB VRAM regelmäßig voll.
 
Czk666 schrieb:
Ich


Ich meinte die 2080 sorry. Noch wie vertippt ihr Superhelden?
Klar, super Marketing wenn man einfach bis zu sagt. Dann ist diese Aussage aber auch absolut nix wert.
Ändert nix dran dass es mit einem immensen Stromhunger erkauft wurde.
Willkommen auf der Erde im Jahre 2020 und im Produktmarketing.............oder einfach nur auf Youtube, mit so genannter "Clickbait".............so läuft das halt heute, mit "Übertreibungen und Hype" (wobei es nicht mal eine ist).
Natürlich möchte man die Käufer locken und dazu helfen eben solche pauschalen Aussagen, damit man den Käufern gleich eine gewisse Vorstellung vermitteln kann, auf was sie sich einstellen können bzw. was möglich ist.

Das ist auch nichts anderes, wie wenn ein Kaufhaus draußen ein Schild aufhängt "BIS ZU 70% REDUZIERT".
Gehst du jetzt ernsthaft da rein und erwartest, dass alle Artikel 70% weniger kosten?

Abgesehen davon, schafft die 3080 ja wirklich die 100% ein einigen Spielen, somit ist die Aussage absolut nicht verwerflich und angemessen.
 
Apocalypse schrieb:
Haben sie das nicht Geschafft? 50% mehr Performance hat die 3080.
Und damit ironischerweise 50% geblieben unter "twice as fast as 2080" ;)
 
ebenholzjunge schrieb:
die TFlops sind 3 mal so hoch im vergleich zur 2080 super, aber es kommt nur ca. 50% mehr leistung raus? normalerweise sind TFlops zahlen immer ein guter vergleich gewesen, aber der riesige anstieg der TFlops werte verpufft ziemlich wenn es um die wirkliche leistung geht...

Das sind sie noch nie gewesen. Das gilt maximal innerhalb der gleichen Generation. Wir erinnern uns an die Fury and andere super TFlops Karten von AMD?

Davon ab, schau dir mal die Blender Tests an. Sieht doch gut aus, 2x so schnell. Mehr ist ja nun wirklich nicht zu erwarten, wenn man bei den TLOPs bedenkt, das RT und CUDA Cores nicht GLEICHZEITIG diese TFLOPs bringen können. Nvidia hat da ein wenig getrickst bei der Core Verdopplung. CB, Ignore und wahrscheinlich so ziemlich jedes andere technisch versierte Magazin berichtete doch.

https://www.computerbase.de/artikel...itt_ampere_mit_gravierenden_aenderungen_im_sm
 
@Kenjiii

Wie es möglich ist sah man ja schon in der Präsentation und ist auf dem Weg auch nichts neues.
Mit langer Weile bekommt man die meisten Schluckspechte auf sparsam getrimmt. 😆
 
cookie_dent schrieb:
Die knallen meine 11GB VRAM regelmäßig voll.
deswegen allein hast du aber keinen Vorteil. Du kannst deinen VRAM auch in Software einfach voll klatschen ohne was mit dem Inhalt anzufangen.

@ FLOPS

Die HD5870 hat 2,7 TFLOPS Peak bei 2,2 Mrd Transistoren und 850 Mhz.
Die RTX 2080 TI hat ~7 TFLOPS Peak bei 18,6 Mrd. Transistoren und ~850 Mhz.

Was ist da also falsch? Wieso is die RTX 2080 Ti so langsam / ineffizient was Peak TFLOP angeht?

==> FLOP sagen wenig aus. Es ist eben wenig aus. Wenn man eine 5VLIW Architektur wie die HD5XXX Serie hat dann holt man brutal viel Peak Leistung raus die man synthetisch auch bekommt, aber eben bei sehr wenig Anwendungsfällen.

Die Ampere Serie bewegt sich da im Mittelfeld.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., flappes und Apocalypse
Krautmaster schrieb:
deswegen allein hast du aber keinen Vorteil. Du kannst deinen VRAM auch in Software einfach voll klatschen ohne was mit dem Inhalt anzufangen.

Klar, aber woher weis ich ob mir das Spiel den VRAM mit Müll oder mit benötigten Daten/Texturen vollballert?
 
Laphonso schrieb:
Und damit ironischerweise 50% geblieben unter "twice as fast as 2080" ;)
Hats ja auch, bei reinen FP32 Operationen, je mehr Integer Anteil desto weniger bleibt halt von dem mehr an Performance über. Haben sie imho ganz clever gemacht, in Blender ist man doch sogar 2x so schnell wie die 2080s …

…und Igor hör auf die Karte Super Susi zu nenne, ich hätte das fast geschrieben!
 
Florian1978 schrieb:
DLSS ist meiner Meinung nach sowieso nur eine Funktion die für andere Bereiche als dem Gaming gedacht ist aber dem Spieler als DAS Feature mitverkauft wird.
Funktionieren tut es im Gamingbereich dennoch sehr gut ab DLSS 2.0.
 
War zuerst sehr begeistert, aber es macht mir zuwenig Sinn, von 'ner 2080 auf die 3080 umzusteigen. Ich bleibe noch eine ganze Zeit auf 1440p 144Hz, RTX muss sich nach wie vor behaupten (halt jetzt in der DX12 RT API) und die 320W sind mir zuviel. Mein kleines Büro wird jetzt schon gut warm wenn die 2080 rumrödelt, da nochmal 70W drauf?

Dann die FE mit Spulenfiepen und -rasseln, das geht mir sehr gegen den Zeiger. Ich verstehe da nicht, wie man das allen Ernstes verkauft.

Na, also für mich erst mal wieder abwarten und Tee trinken. Die 2080 läuft nach wie vor eigentlich sehr zufriedenstellend.

Worauf ich echt gespannt bin ist AMDs RT Implementation, ich glaube, das könnte einiges bewegen denn NV's Lösung ist zwar hübsch, aber die Leistung nach wie vor nicht so berauschend ohne DLSS und genau wie RTX muß sich das erstmal behaupten. Das dauert noch was. Ein paar Spiele hier und da sind mir zu wenig.
 
  • Gefällt mir
Reaktionen: MasterAK
cookie_dent schrieb:
Die knallen meine 11GB VRAM regelmäßig voll.
Ja ok, aber dazu gabs ja schon mehrere Infos und Videos. Du kannst dich ja mal mit dem Vram-Thema beschäftigen. Oder aber du willst unbedingt bei deiner Ti bleiben oder aber die 3080 schlecht machen. Beides ist dir natürlich freigestellt.
 
cookie_dent schrieb:
Klar, aber woher weis ich ob mir das Spiel den VRAM mit Müll oder mit benötigten Daten/Texturen vollballert?

Im Prinzip überhaupt nicht. Das kann dir nur der Hersteller beantworten.

Man kann lediglich Spiele mit eingeschränkten GPU-RAM testen, ob sich die Werte bei 4, 6, 8 oder 11 GB RAM verändern. Dann weiß man, wenn Frames/FPS gleich bleiben, dass der RAM nur mit Garbage vollgemüllt ist.
 
  • Gefällt mir
Reaktionen: Apocalypse

Einfach mal zum Thema Vram gucken.... dann weiter schreiben 👍
 
cookie_dent schrieb:
Klar, aber woher weis ich ob mir das Spiel den VRAM mit Müll oder mit benötigten Daten/Texturen vollballert?
Wenn du anfängst ungewöhnlich FPS zu verlieren ;-)
So zum Beispiel bei 8GB und Doom Eternal auf Ultra mit eben den höchsten Texturen. Dort ist dann auch ne 1080ti mit 11GB im Vorteil gegenüber einer 2080 mit 8GB.

Gleiches wird man dann auch mit der 3090 als Vergleichskarte sehen, falls irgendwo 11GB nicht reichen für die höchsten Texturen. Die FPS werden dann mehr gegenüber einer 3090 abfallen als man erwarten würde und sich erholen, wenn man dann weniger Texture-Details verwendet oder auch ein Spiel das weniger Speicher braucht.

"RAM-Usage" alleine hilft da halt leider nicht, auch wenn es natürlich zumindest mit Sicherheit bestätigt, so der Speicher nie voll wird, das man genug hat. Ob man zu wenig hat, erkennt man aber nicht daran nur das der Speicher voll ist.
 
  • Gefällt mir
Reaktionen: Achim_Anders
hans_meiser schrieb:
War zuerst sehr begeistert, aber es macht mir zuwenig Sinn, von 'ner 2080 auf die 3080 umzusteigen. Ich bleibe noch eine ganze Zeit auf 1440p 144Hz, RTX muss sich nach wie vor behaupten (halt jetzt in der DX12 RT API) und die 320W sind mir zuviel. Mein kleines Büro wird jetzt schon gut warm wenn die 2080 rumrödelt, da nochmal 70W drauf?

Von einer 2080 würde ich auch nicht aufrüsten. Da wär ich auch ganz entspannt. Ich bin sogar mit meiner 1060 noch ganz entspannt und warte auf AMD.
Die 3080 ist wirklich geil, aber sehe es ähnlich ... die 320W würden bei mir auch ein NT-Wechsel mit sich bringen...
Wenn die 3080 sich bei der Leistungsaufnahme an einer 2080 orientiert hätte, wär ich wohl aber schwach geworden. :daumen:
 
  • Gefällt mir
Reaktionen: MasterAK, Digibyte, hans_meiser und eine weitere Person
Krautmaster schrieb:
deswegen allein hast du aber keinen Vorteil. Du kannst deinen VRAM auch in Software einfach voll klatschen ohne was mit dem Inhalt anzufangen.
Blöd wirds nur, wenn sowohl Vram als auch Ram zu voll sind, weil dann das eklige Swappen losgeht.
(gehe mal davon aus, das kein Reviewer ausreichend lang gespielt hat)
Auffällig ist auch, das NV von den Reviewern ne schnelle NVMe wollte.
(und sicher auch schnellen Ram, was net Jeder so hat)

Solange directloading noch nicht für den PC verfügbar ist, gehts halt auch in den Ram, wo bei Einigen die 16GB limitieren.(ist mit dem derzeitigen W10 halt so)
Sollte man mal anschauen, falls die Games nach 2-3h ruckeln.

btw.
Net umsonst nutzen einige NV-User den ISCL vor Spielstart zum Cleanen.
 

Anhänge

  • MA-Ram.png
    MA-Ram.png
    31,2 KB · Aufrufe: 257
Zuletzt bearbeitet:
GerryB schrieb:
Blöd wirds nur, wenn sowohl Vram als auch Ram zu voll sind, weil dann das eklige Swappen losgeht.
(gehe mal davon aus, das kein Reviewer ausreichend lang gespielt hat)

denke das wird immer weniger werden dank dem Smart Streaming und mit PCIe 4.0 is auch die Bandbreite deutlich höher um Inhalte nachzuladen. Der Weg dürfte hingehen zu einem Homogenen VRAM in GPU und teilen des normalen RAM und über ein Tiering wird dann seamless nachgeladen. Wie bei den Konsolen auch.
 
Ich bin ja bekennender AMD Fanboy. Aber die RTX 3080 lässt mich schwach werden. AMD wird leider nicht mithalten können. Sehr schade. :(
 
Mcr-King schrieb:
Kommt mal wieder runter und wartet auch Cyberpunk soll zumindest dasd erste DX i/o Api Game sein...
Meines Wissens kommt diese API von Microsoft erst im Jahr 2021:
Nächstes Jahr soll zunächst eine „Development Preview“ von DirectStorage für Spielentwickler veröffentlicht werden, ein Termin für die finale Fassung als Teil von Windows 10 wurde noch nicht genannt.
https://www.computerbase.de/news/gaming/microsoft-directstorage-windows-pc-api-xbox-series-x.73403/
 
  • Gefällt mir
Reaktionen: hans_meiser und Mcr-King
Zurück
Oben