Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
- Ersteller Wolfgang
- Erstellt am
- Zum Test: GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
Hm, also ganz so berauschend ist das ganze jetzt nicht. Da ist der Hypetrain wohl etwas zu schnell gegen die Wand gefahren.
Die Leistung ist ja ganz ok, aber wenn man es im Vergleich zum Stromverbrauch und den "doppelten" Einheiten sieht, ist es ziemlich schwach. Die 3080 hat die gleiche Anzahl an eigentlichen CUDA Cores wie die 2080TI, saeuft 20% mehr und bietet dann gerade mal 30% mehr Leistung. Also entweder klappt da noch einiges nicht, oder es ist ein schlechter Witz.
Das jetzt einige irgendwelche Ausreden erfinden war allerdings zu erwarten...
Der Samsung Prozess scheint auch nicht wirklich der beste zu sein, ansonsten haette das ganze bei weniger Strombedarf enden koennen. Da raecht es sich wohl, dass man da nicht risikofreudiger war und frueh bei TSMC reserviert hat.
@Wolfgang Macht ihr auch noch Machine Learning Tests? Waere interessant wie sie da performt. Bei FP16 sollten die Tensor Cores ordentlich helfen und bei FP32 sollte wie in anderen Anwendungen die Leistung auch recht ordentlich steigen.
Die Leistung ist ja ganz ok, aber wenn man es im Vergleich zum Stromverbrauch und den "doppelten" Einheiten sieht, ist es ziemlich schwach. Die 3080 hat die gleiche Anzahl an eigentlichen CUDA Cores wie die 2080TI, saeuft 20% mehr und bietet dann gerade mal 30% mehr Leistung. Also entweder klappt da noch einiges nicht, oder es ist ein schlechter Witz.
Das jetzt einige irgendwelche Ausreden erfinden war allerdings zu erwarten...
Der Samsung Prozess scheint auch nicht wirklich der beste zu sein, ansonsten haette das ganze bei weniger Strombedarf enden koennen. Da raecht es sich wohl, dass man da nicht risikofreudiger war und frueh bei TSMC reserviert hat.
@Wolfgang Macht ihr auch noch Machine Learning Tests? Waere interessant wie sie da performt. Bei FP16 sollten die Tensor Cores ordentlich helfen und bei FP32 sollte wie in anderen Anwendungen die Leistung auch recht ordentlich steigen.
Zwischen 20 und 30% (bei den 0,2 Werten)?.Sentinel. schrieb:Na und dann? Wieviel Abstand in Zahlen hat denn jetzt die 3080 zur 2080 in WQHD oder in FullHD bei den getesteten Spielen?
Kannst Du das aus dem Test hier herauslesen?
Schau dir die UHD Werte an, weiß jetzt nicht wo da Problem sein soll.
Oh ich hab 2080TI Werte angeschaut

Also gut 40-45% für 2080 zu 3080
Zuletzt bearbeitet:
K
KlaraElfer
Gast
Wadenbeisser schrieb:Was für die prozentualen Abstände irrelevant wäre da sich an der Rechenleistung an sich nichts ändert.
Ich bin die einzelnen Spiele durchgegangen, deine Behauptung ist falsch.
Wadenbeisser schrieb:Allein das sich die 3080 in UHD prozentual stärker von der 2080Ti absetzt zeigt das du hier ein Märchen von einem CPU Limit erzählst.
Ja, genau, du hast es erfasst, die Tatsache, dass sich die 3080 in UHD stärker absetzt, zeigt genau das CPU Limit auf.

Wadenbeisser schrieb:... kenne ich aus Erfahrung nur allso gut, daher ja auch der damalige Ausflug zur VII die hier deutlich gleichmäßiger lief.
Erfahrung ersetzt aber nicht die Überprüfung der einzelnen Spiele und da limitiert die 2080 Super ein einziges mal hinsichtlich des V-rams in Doom Eternal, ansonsten gar nicht. Die 5700XT kommt in dem Szenario mit hohem V-ram Bedarf übrigens besser weg und verliert weder Leistung im Perzentil, noch bei den AVG.
Du könntest mir doch die Spiele zeigen, in denen der V-ram limitiert, dann müsste man da Einbrüche sehen - di gibts aber nicht. Du behauptest ergo nur, aber belegen tust du nichts.
Payne19
Lieutenant
- Registriert
- Nov. 2008
- Beiträge
- 741
Die RTX3080 frisst ja mit OC schon 371 W... wie soll das mit einer möglichen Super, Ti oder RTX3090 OC aussehen? Ich will mir das gar nicht vorstellen.Vendetta schrieb:Doch, das hat mich von Anfang an irritiert, ich dachte daher auch, dass die 3080 wohl nicht an die 320W TDP rankommen wird im gaming aber offenbar schluckt sie da sogar bis zu 330W. Die Sache ist halt die, 75W kommt aus dem PCIE Slot, 2x 150W aus den 8 Pin, theoretisch kann die 3090 gar nicht viel mehr Power als 375W schlucken.
Andererseits sieht man, dass die 3080 wohl wegen 4% Mehrleistung unnötig 60W mehr schluckt, ist ja von Nvidia so eingestellt ab Werk... Die 3090 wird bei 350W wohl besser skalieren.
Vorallem wären doch mehr als 375 W garnicht möglich.. wie soll es da Super und Ti karten geben?


Tronx
Captain
- Registriert
- Okt. 2002
- Beiträge
- 3.376
Wieso wird hier eigentlich ständig mit der 2080Ti konkurriert, hier sind doch eher die 1080Ti Besitzer "mich eingeschlossen" am Träumen die Karte zuzulegen, zumal ich seit Jahren schon mit 3440er Auflösung spiele. Hätte ich eine 2080Ti würde ich nicht wechseln.
Matthias80
Captain
- Registriert
- Sep. 2004
- Beiträge
- 3.906
Logisch. Bekannt. Wo ist jetzt die Frage?Taxxor schrieb:Wenn du die Leistung von CPUs testen willst, dann willst du, dass sie möglichst wenig durch die GPU limitiert werden, also nimmst du die schnellstmögliche GPU für den Test.
Daher stand bisher die 2080Ti dort.
Wenn du die Leistung von GPUs testen willst, dann willst du, das sie möglichst wenig duch die CPU limitiert werden, also nimmst du die schnellstmögliche CPU für den Test.
Warum hat CB doch erklärt... so ein Test wird sicherlich noch mal kommen...
So ein Benchtable plane ich ja nicht für nen kurzen Wochenendtrip.
Da wären wir wieder bei den 720p Tests... die heute kein Thema waren.
Das ganze Testsystem wurde überarbeitet.
Thema Presets... Details immer MAX.
Einfach realistischer...
Das DU so nicht glücklich wirst ist klar.
Aber der Beweis das in diesem GPU Test eine Intel CPU in bestimmten Szenarien (720p) noch mehr aus der GPU rausholt... nützt mir nur wenig wenn ich mir eine 4K GPU hole.
Aber waren wir ab.
In 4K wird es wie auch schon vorher nix groß tun...
MfG
MeisterOek
Commander
- Registriert
- Nov. 2014
- Beiträge
- 3.042
Jetzt bin ich aber etwas zwiegespalten. Im Test heißt es, dass jetzt 4K gut spielbar ist, aber ich sehe bei vielen aktuellen und anspruchsvollen Games mit DLSS und RT 45 - 65 FPS. Das ist für mich persönlich nicht gut spielbar, es ist okey. Ich wollte eine echte UHD Karte und sehe auch keine Alternative. Was soll ich kaufen? Eine 3090 mit etwa 20% mehr Leistung? Dann habe 54 - 78 FPS. Ja schon besser, aber dafür gebe ich doch keine 1499€+ aus.
Ich bleibe realistisch und denke nicht, dass AMD hier noch mehr leistet.
Mein UHD TV steht bereit mit VRR, auch ein Yamaha AVR, der 4k@120 und VRR durchschleifen kann, aber die 3080 ist etwas halbgar. Wahrscheinlich werde ich versuchen morgen eine FE zu bekommen, sonst kaufe ich garkeine
Ich bleibe realistisch und denke nicht, dass AMD hier noch mehr leistet.
Mein UHD TV steht bereit mit VRR, auch ein Yamaha AVR, der 4k@120 und VRR durchschleifen kann, aber die 3080 ist etwas halbgar. Wahrscheinlich werde ich versuchen morgen eine FE zu bekommen, sonst kaufe ich garkeine

Matthias80
Captain
- Registriert
- Sep. 2004
- Beiträge
- 3.906
Interessante Frage.Flyerdommo schrieb:Dem Testbericht entnehme ich, dass der Löwenanteil der Abwärme über die Slotblende vom vorderen Lüfter direkt aus dem Gehäuse geblasen wird, was natürlich an das altbewährte Blowerkonzept erinnert. Ich frage mich allerdings, ob das neue Kühlerkonzept der RTX 3080 Founders Edition für Kleingehäuse mit abgetrennter Kammer für die Grafikkarte wie DAN A4 oder Ghost S1 überhaupt geeignet ist. Die Abwärme, die vom hinteren Lüfter herausgeblasen wird - steigt diese dann einfach an der Trennwand hoch, ohne diese und eventuell das Mainboard mit CPU, SSD und RAM übermäßig zu erwärmen? Rein von den Abmessungen her würde die 3080 FE in beide Gehäuse passen.
Das Design geht nur auf wenn es halt diesen ATX Typischen weg geht...
MfG
- Registriert
- Mai 2011
- Beiträge
- 21.460
Also erstens wäre mir die 3080 für 4K zu langsam und dann sind wir auch wieder beim Fall, dass du auch in 1440p mit dem 3900XT in CPU Limits laufen kannst, wenn du ihn mit einer 3080 kombinierst.Matthias80 schrieb:Aber der Beweis das in diesem GPU Test eine Intel CPU in bestimmten Szenarien (720p) noch mehr aus der GPU rausholt... nützt mir nur wenig wenn ich mir eine 4K GPU hole.
Ja, wegen den hier erörterten 0,5% Unterschied zwischen PCIE 3.0 und 4.0^^Matthias80 schrieb:Warum hat CB doch erklärt...
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.646
Die Rückschlüsse sind so eben nicht valide.bad_sign schrieb:Zwischen 20 und 30% (bei den 0,02 Werten)?
Schau dir die UHD Werte an, weiß jetzt nicht wo da Problem sein soll.
Oh ich hab 2080TI Werte angeschaut![]()
Ich zitiere mich nochmal:
Du weisst schon, dass Auflösung und FPS unterschiedliche Belastungsszenarien auf einer GPU darstellen?
A
Adzz
Gast
mylight schrieb:amds alte karten sind sogar jetzt noch effizienter als nvidias neues flagschiff, von daher, nope gibt kein miningboom bei nvidia, bei amd karten aber nicht auszuschließen...
Das siehst du aber als einziger so.
https://www.computerbase.de/news/grafikkarten/ethereum-miner-crypto-geforce-rtx-3080.73504/
https://www.pcgameshardware.de/Gefo...-Ethereum-Miner-auf-Geforce-RTX-3080-1357780/
Taxxor schrieb:Also erstens wäre mir die 3080 für 4K zu langsam und dann sind wir auch wieder beim Fall, dass du auch in 1440p mit dem 3900XT in CPU Limits läufst wenn du ihn mit einer 3080 kombinierst
Es gibt im Moment aber kaum ein Gebiet in der die Karte nicht alternativ los ist. Man kann einer karte nicht ankreiden dass sie zu gut ist für heutige CPUS.
Dwyane
Lt. Commander
- Registriert
- März 2013
- Beiträge
- 1.360
Wahnsinn, Wahnsinn, Wahnsinn so eine Grafikkarte. Da kommt dann demnächst wieder was grünes in den Rechner und was rotes fürs blaue 
Es sei denn AMD haut mit der RX6000 was raus, was nVidias ineffiziente Jagd nach der Leistung erklären würde

Es sei denn AMD haut mit der RX6000 was raus, was nVidias ineffiziente Jagd nach der Leistung erklären würde
Vendetta
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.133
Hab die grafik grade nicht bei der Hand aber auf Youtube hat ein Tester den 3950X vs 10900K verglichen und auf 4K waren die auf den Frame genau bei 10+ getesteten Spielen gleich auf, bei 1440p war der intel vorne(einstelliger Framebereich), die 4K Ergebnisse kann man also wohl universell ansehen, hier gibts auch kein CPU Bottleneck, außer in Anno und anderen RTS Spielen versteht sich..Sentinel. schrieb:Keine Sorge Vendetta. Wir wissen in vielen Bereichen nicht, was die neue Grafikkarte leistet, weil vorher die verfügbaren CPUs mal mehr (3900x) mal weniger (10900K) limitieren.
Deswegen kann man derzeit nicht sagen, was die Grafikkarte z.B. mit einer stärkeren CPU zu liesten imstande wäre.
Ein großes Problem und ein schönes Beispiel für den Informationsmangel, den man erzeugt, wenn man GPU Tests im CPU- Limit durchführt.
Jetzt meinen hier alle, dass die Grafikkarte nicht mehr unter 1440P und 1080P leisten könnte.
*es waren aber beide CPUs nicht übertaktet glaube ich, bei intel sind 5GHz ja kein Problem, zumindest bei den 6 bzw. 8kernern mit HT, mehr braucht eh kein game derzeit.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.327
genau deswegen kann die Karte mit paar mV weniger bereits ein deutlich besseres Ergebnis bei Effizienz zeigen, ganz ähnlich der Vega damals.Vendetta schrieb:Andererseits sieht man, dass die 3080 wohl wegen 4% Mehrleistung unnötig 60W mehr schluckt, ist ja von Nvidia so eingestellt ab Werk...
Taxxor schrieb:Die 16GB 1070Ti und 20GB 3080(Ti?) ist doch schon so gut wie bestätigt, was meinst du warum man die in der Pipeline hat?
Wie gesagt erst nach RDNA 2 release !
...würde man RTX3070/RTX3080 direkt zu beginn mit mehr Vram ausstatten, MONOPOL up to come !

Wer würde da noch auf RDNA2 warten ?
Es gibt viele User die mehr Vram wollen und diese User warten auf RDNA 2 !
Das RDNA2 schneller wird als RTX3080 ist unrealistisch und eine Preisschlacht, will wie gesagt weder AMD noch NV, verständlicherweise.
Das ist richtig, ich finde die 3080 um ehrlich zu sein auch eher enttäuschend für 4K gaming. Ich warte jedenfalls bis eine 3080 Super/Ti mit mehr Vram rauskommt. Dann kann mans sich noch mal ansehen.MeisterOek schrieb:Jetzt bin ich aber etwas zwiegespalten. Im Test heißt es, dass jetzt 4K gut spielbar ist, aber ich sehe bei vielen aktuellen und anspruchsvollen Games mit DLSS und RT 45 - 65 FPS. Das ist für mich persönlich nicht gut spielbar, es ist okey. Ich wollte eine echte UHD Karte und sehe auch keine Alternative. Was soll ich kaufen? Eine 3090 mit etwa 20% mehr Leistung? Dann habe 54 - 78 FPS. Ja schon besser, aber dafür gebe ich doch keine 1499€+ aus.
Ich bleibe realistisch und denke nicht, dass AMD hier noch mehr leistet.
Mein UHD TV steht bereit mit VRR, auch ein Yamaha AVR, der 4k@120 und VRR durchschleifen kann, aber die 3080 ist etwas halbgar. Wahrscheinlich werde ich versuchen morgen eine FE zu bekommen, sonst kaufe ich garkeine![]()
So lala aber wenn ich den Müll vom Anno rausschmeiße habe ich mit 40-45% Skalierung der 0,2% Werte zwischen FHD (40%) und UHD (45%) eine sehr saubere Skalierung..Sentinel. schrieb:Die Rückschlüsse sind so eben nicht valide.
Ich zitiere mich nochmal:
Vendetta
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.133
Da wirst du ca. Nvidias Marketing zur 2080 heranziehen können und tatsächlich 80-100% Mehrleistung zu deiner 2070 sehenforbeatn schrieb:Kann mir jemand sagen was die rtx3080 vs rtx2070 an performance in 4K bringt im Durchschnitt?
Habe die rtx2070 in den Tabellen nicht gesehen.
Danke
