Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Adored hatte wohl recht bezüglich der 8nm von Samsung. Hätten sie mal 7nm TSMC genommen.
 
Hm, also ganz so berauschend ist das ganze jetzt nicht. Da ist der Hypetrain wohl etwas zu schnell gegen die Wand gefahren.

Die Leistung ist ja ganz ok, aber wenn man es im Vergleich zum Stromverbrauch und den "doppelten" Einheiten sieht, ist es ziemlich schwach. Die 3080 hat die gleiche Anzahl an eigentlichen CUDA Cores wie die 2080TI, saeuft 20% mehr und bietet dann gerade mal 30% mehr Leistung. Also entweder klappt da noch einiges nicht, oder es ist ein schlechter Witz.

Das jetzt einige irgendwelche Ausreden erfinden war allerdings zu erwarten...

Der Samsung Prozess scheint auch nicht wirklich der beste zu sein, ansonsten haette das ganze bei weniger Strombedarf enden koennen. Da raecht es sich wohl, dass man da nicht risikofreudiger war und frueh bei TSMC reserviert hat.

@Wolfgang Macht ihr auch noch Machine Learning Tests? Waere interessant wie sie da performt. Bei FP16 sollten die Tensor Cores ordentlich helfen und bei FP32 sollte wie in anderen Anwendungen die Leistung auch recht ordentlich steigen.
 
  • Gefällt mir
Reaktionen: nco2k und Clutch04
.Sentinel. schrieb:
Na und dann? Wieviel Abstand in Zahlen hat denn jetzt die 3080 zur 2080 in WQHD oder in FullHD bei den getesteten Spielen?
Kannst Du das aus dem Test hier herauslesen?
Zwischen 20 und 30% (bei den 0,2 Werten)?
Schau dir die UHD Werte an, weiß jetzt nicht wo da Problem sein soll.

Oh ich hab 2080TI Werte angeschaut :)
Also gut 40-45% für 2080 zu 3080
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Was für die prozentualen Abstände irrelevant wäre da sich an der Rechenleistung an sich nichts ändert.

Ich bin die einzelnen Spiele durchgegangen, deine Behauptung ist falsch.

Wadenbeisser schrieb:
Allein das sich die 3080 in UHD prozentual stärker von der 2080Ti absetzt zeigt das du hier ein Märchen von einem CPU Limit erzählst.

Ja, genau, du hast es erfasst, die Tatsache, dass sich die 3080 in UHD stärker absetzt, zeigt genau das CPU Limit auf.:rolleyes: Deine Aussage zeigt auch, dass du nach wie vor nicht verstanden hast, was ein CPU Limit überhaupt ist.

Wadenbeisser schrieb:
... kenne ich aus Erfahrung nur allso gut, daher ja auch der damalige Ausflug zur VII die hier deutlich gleichmäßiger lief.

Erfahrung ersetzt aber nicht die Überprüfung der einzelnen Spiele und da limitiert die 2080 Super ein einziges mal hinsichtlich des V-rams in Doom Eternal, ansonsten gar nicht. Die 5700XT kommt in dem Szenario mit hohem V-ram Bedarf übrigens besser weg und verliert weder Leistung im Perzentil, noch bei den AVG.
Du könntest mir doch die Spiele zeigen, in denen der V-ram limitiert, dann müsste man da Einbrüche sehen - di gibts aber nicht. Du behauptest ergo nur, aber belegen tust du nichts.
 
  • Gefällt mir
Reaktionen: voalirus, milliardo und .Sentinel.
Vendetta schrieb:
Doch, das hat mich von Anfang an irritiert, ich dachte daher auch, dass die 3080 wohl nicht an die 320W TDP rankommen wird im gaming aber offenbar schluckt sie da sogar bis zu 330W. Die Sache ist halt die, 75W kommt aus dem PCIE Slot, 2x 150W aus den 8 Pin, theoretisch kann die 3090 gar nicht viel mehr Power als 375W schlucken.

Andererseits sieht man, dass die 3080 wohl wegen 4% Mehrleistung unnötig 60W mehr schluckt, ist ja von Nvidia so eingestellt ab Werk... Die 3090 wird bei 350W wohl besser skalieren.
Die RTX3080 frisst ja mit OC schon 371 W... wie soll das mit einer möglichen Super, Ti oder RTX3090 OC aussehen? Ich will mir das gar nicht vorstellen.

Vorallem wären doch mehr als 375 W garnicht möglich.. wie soll es da Super und Ti karten geben? :freak: :confused_alt:
 
  • Gefällt mir
Reaktionen: edenjung und cookie_dent
Wieso wird hier eigentlich ständig mit der 2080Ti konkurriert, hier sind doch eher die 1080Ti Besitzer "mich eingeschlossen" am Träumen die Karte zuzulegen, zumal ich seit Jahren schon mit 3440er Auflösung spiele. Hätte ich eine 2080Ti würde ich nicht wechseln.
 
  • Gefällt mir
Reaktionen: Supermax2004 und cookie_dent
Taxxor schrieb:
Wenn du die Leistung von CPUs testen willst, dann willst du, dass sie möglichst wenig durch die GPU limitiert werden, also nimmst du die schnellstmögliche GPU für den Test.
Daher stand bisher die 2080Ti dort.

Wenn du die Leistung von GPUs testen willst, dann willst du, das sie möglichst wenig duch die CPU limitiert werden, also nimmst du die schnellstmögliche CPU für den Test.
Logisch. Bekannt. Wo ist jetzt die Frage?
Warum hat CB doch erklärt... so ein Test wird sicherlich noch mal kommen...
So ein Benchtable plane ich ja nicht für nen kurzen Wochenendtrip.
Da wären wir wieder bei den 720p Tests... die heute kein Thema waren.
Das ganze Testsystem wurde überarbeitet.
Thema Presets... Details immer MAX.
Einfach realistischer...
Das DU so nicht glücklich wirst ist klar.
Aber der Beweis das in diesem GPU Test eine Intel CPU in bestimmten Szenarien (720p) noch mehr aus der GPU rausholt... nützt mir nur wenig wenn ich mir eine 4K GPU hole.

Aber waren wir ab.
In 4K wird es wie auch schon vorher nix groß tun...

MfG
 
  • Gefällt mir
Reaktionen: ahuev0 und Smartbomb
Jetzt bin ich aber etwas zwiegespalten. Im Test heißt es, dass jetzt 4K gut spielbar ist, aber ich sehe bei vielen aktuellen und anspruchsvollen Games mit DLSS und RT 45 - 65 FPS. Das ist für mich persönlich nicht gut spielbar, es ist okey. Ich wollte eine echte UHD Karte und sehe auch keine Alternative. Was soll ich kaufen? Eine 3090 mit etwa 20% mehr Leistung? Dann habe 54 - 78 FPS. Ja schon besser, aber dafür gebe ich doch keine 1499€+ aus.
Ich bleibe realistisch und denke nicht, dass AMD hier noch mehr leistet.
Mein UHD TV steht bereit mit VRR, auch ein Yamaha AVR, der 4k@120 und VRR durchschleifen kann, aber die 3080 ist etwas halbgar. Wahrscheinlich werde ich versuchen morgen eine FE zu bekommen, sonst kaufe ich garkeine :D
 
Flyerdommo schrieb:
Dem Testbericht entnehme ich, dass der Löwenanteil der Abwärme über die Slotblende vom vorderen Lüfter direkt aus dem Gehäuse geblasen wird, was natürlich an das altbewährte Blowerkonzept erinnert. Ich frage mich allerdings, ob das neue Kühlerkonzept der RTX 3080 Founders Edition für Kleingehäuse mit abgetrennter Kammer für die Grafikkarte wie DAN A4 oder Ghost S1 überhaupt geeignet ist. Die Abwärme, die vom hinteren Lüfter herausgeblasen wird - steigt diese dann einfach an der Trennwand hoch, ohne diese und eventuell das Mainboard mit CPU, SSD und RAM übermäßig zu erwärmen? Rein von den Abmessungen her würde die 3080 FE in beide Gehäuse passen.
Interessante Frage.
Das Design geht nur auf wenn es halt diesen ATX Typischen weg geht...

MfG
 
Matthias80 schrieb:
Aber der Beweis das in diesem GPU Test eine Intel CPU in bestimmten Szenarien (720p) noch mehr aus der GPU rausholt... nützt mir nur wenig wenn ich mir eine 4K GPU hole.
Also erstens wäre mir die 3080 für 4K zu langsam und dann sind wir auch wieder beim Fall, dass du auch in 1440p mit dem 3900XT in CPU Limits laufen kannst, wenn du ihn mit einer 3080 kombinierst.


Matthias80 schrieb:
Warum hat CB doch erklärt...
Ja, wegen den hier erörterten 0,5% Unterschied zwischen PCIE 3.0 und 4.0^^
 
  • Gefällt mir
Reaktionen: Esenel
mylight schrieb:
amds alte karten sind sogar jetzt noch effizienter als nvidias neues flagschiff, von daher, nope gibt kein miningboom bei nvidia, bei amd karten aber nicht auszuschließen...

Das siehst du aber als einziger so.

https://www.computerbase.de/news/grafikkarten/ethereum-miner-crypto-geforce-rtx-3080.73504/
https://www.pcgameshardware.de/Gefo...-Ethereum-Miner-auf-Geforce-RTX-3080-1357780/

Taxxor schrieb:
Also erstens wäre mir die 3080 für 4K zu langsam und dann sind wir auch wieder beim Fall, dass du auch in 1440p mit dem 3900XT in CPU Limits läufst wenn du ihn mit einer 3080 kombinierst

Es gibt im Moment aber kaum ein Gebiet in der die Karte nicht alternativ los ist. Man kann einer karte nicht ankreiden dass sie zu gut ist für heutige CPUS.
 
Wahnsinn, Wahnsinn, Wahnsinn so eine Grafikkarte. Da kommt dann demnächst wieder was grünes in den Rechner und was rotes fürs blaue :p

Es sei denn AMD haut mit der RX6000 was raus, was nVidias ineffiziente Jagd nach der Leistung erklären würde
 
.Sentinel. schrieb:
Keine Sorge Vendetta. Wir wissen in vielen Bereichen nicht, was die neue Grafikkarte leistet, weil vorher die verfügbaren CPUs mal mehr (3900x) mal weniger (10900K) limitieren.

Deswegen kann man derzeit nicht sagen, was die Grafikkarte z.B. mit einer stärkeren CPU zu liesten imstande wäre.
Ein großes Problem und ein schönes Beispiel für den Informationsmangel, den man erzeugt, wenn man GPU Tests im CPU- Limit durchführt.

Jetzt meinen hier alle, dass die Grafikkarte nicht mehr unter 1440P und 1080P leisten könnte.
Hab die grafik grade nicht bei der Hand aber auf Youtube hat ein Tester den 3950X vs 10900K verglichen und auf 4K waren die auf den Frame genau bei 10+ getesteten Spielen gleich auf, bei 1440p war der intel vorne(einstelliger Framebereich), die 4K Ergebnisse kann man also wohl universell ansehen, hier gibts auch kein CPU Bottleneck, außer in Anno und anderen RTS Spielen versteht sich.

*es waren aber beide CPUs nicht übertaktet glaube ich, bei intel sind 5GHz ja kein Problem, zumindest bei den 6 bzw. 8kernern mit HT, mehr braucht eh kein game derzeit.
 
Vendetta schrieb:
Andererseits sieht man, dass die 3080 wohl wegen 4% Mehrleistung unnötig 60W mehr schluckt, ist ja von Nvidia so eingestellt ab Werk...
genau deswegen kann die Karte mit paar mV weniger bereits ein deutlich besseres Ergebnis bei Effizienz zeigen, ganz ähnlich der Vega damals.
 
  • Gefällt mir
Reaktionen: pietcux und Vendetta
Taxxor schrieb:
Die 16GB 1070Ti und 20GB 3080(Ti?) ist doch schon so gut wie bestätigt, was meinst du warum man die in der Pipeline hat?


Wie gesagt erst nach RDNA 2 release !
...würde man RTX3070/RTX3080 direkt zu beginn mit mehr Vram ausstatten, MONOPOL up to come ! :rolleyes:
Wer würde da noch auf RDNA2 warten ?
Es gibt viele User die mehr Vram wollen und diese User warten auf RDNA 2 !

Das RDNA2 schneller wird als RTX3080 ist unrealistisch und eine Preisschlacht, will wie gesagt weder AMD noch NV, verständlicherweise.
 
MeisterOek schrieb:
Jetzt bin ich aber etwas zwiegespalten. Im Test heißt es, dass jetzt 4K gut spielbar ist, aber ich sehe bei vielen aktuellen und anspruchsvollen Games mit DLSS und RT 45 - 65 FPS. Das ist für mich persönlich nicht gut spielbar, es ist okey. Ich wollte eine echte UHD Karte und sehe auch keine Alternative. Was soll ich kaufen? Eine 3090 mit etwa 20% mehr Leistung? Dann habe 54 - 78 FPS. Ja schon besser, aber dafür gebe ich doch keine 1499€+ aus.
Ich bleibe realistisch und denke nicht, dass AMD hier noch mehr leistet.
Mein UHD TV steht bereit mit VRR, auch ein Yamaha AVR, der 4k@120 und VRR durchschleifen kann, aber die 3080 ist etwas halbgar. Wahrscheinlich werde ich versuchen morgen eine FE zu bekommen, sonst kaufe ich garkeine :D
Das ist richtig, ich finde die 3080 um ehrlich zu sein auch eher enttäuschend für 4K gaming. Ich warte jedenfalls bis eine 3080 Super/Ti mit mehr Vram rauskommt. Dann kann mans sich noch mal ansehen.
 
Kann mir jemand sagen was die rtx3080 vs rtx2070 an performance in 4K bringt im Durchschnitt?
Habe die rtx2070 in den Tabellen nicht gesehen.
Danke
 
.Sentinel. schrieb:
Die Rückschlüsse sind so eben nicht valide.

Ich zitiere mich nochmal:
So lala aber wenn ich den Müll vom Anno rausschmeiße habe ich mit 40-45% Skalierung der 0,2% Werte zwischen FHD (40%) und UHD (45%) eine sehr saubere Skalierung.
 
forbeatn schrieb:
Kann mir jemand sagen was die rtx3080 vs rtx2070 an performance in 4K bringt im Durchschnitt?
Habe die rtx2070 in den Tabellen nicht gesehen.
Danke
Da wirst du ca. Nvidias Marketing zur 2080 heranziehen können und tatsächlich 80-100% Mehrleistung zu deiner 2070 sehen ;)
 
  • Gefällt mir
Reaktionen: forbeatn
Zurück
Oben