Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Vendetta schrieb:
Der Samsung 8nm Prozess ist halt am Ende des Tages nur ein verfeinerter 10nm Prozess, auf TSMC 7nm würde die 3080 wahrscheinlich gleich viel schlucken wie ne 2080Ti, vielleicht sogar weniger. Was noch hinzu kommt ist der GDDR6X Speicher der extrem stromhungrig zu sein scheint.
Ja genau, "wahrscheinlich". Einfach völlig aus der Luft gegriffene Vermutungen als Wahrscheinlichkeiten darstellen :rolleyes:
 
0-8-15 User schrieb:
Liegt der Sweetspot nicht automatisch beim niedrigsten Powertarget, welches die gewünschte Performance erzielt? Denn umso niedriger das Powertarget und damit Takt und Spannung sind, umso höher die Performance pro Watt.
Irgendwann wird die Perf/Watt auch wieder schlechter wenn man zu weit runter geht, denn dann hat man massig Transistoren, die man mit zu wenig Takt befeuert und die dadurch weniger effizient arbeiten können.

Es ging bei diesem "Sweetspot" auch mehr darum, möglichst viel Verbrauch einzusparen und dabei möglichst wenig an Performance zu verlieren, also im Bereich um 5% sollte man da schon bleiben mMn.
 
Das immer greifende PowerLimit (auch ohne +50Watt), schreit ja quasi nach einem Undervolting Test.

„Gefühlt“ müssten sich per Undervolting, sowohl bei 320 als auch bei 370 Watt nochmal deutliche FPS–Gewinne erzielen lassen.
 
320W sind einfach zu viel.

wo sind die schönen verbräuche meiner rtx 1070 geblieben?

ich bin gespannter auf die rtx 3070
 
  • Gefällt mir
Reaktionen: Xes
@KlaraElfer

Schreib nur weiter irgendetwas um die Zeilen zu füllen in dem du nicht auf meine Beiträge eingehst sondern nur über das schreibst was zu dem von dir propagierten Weltbild passt.

Ich habe dir deine geforderten Beispiele für den Einbruch wegen Speichermangel gegeben bei dem die Karte mit mehr Speicher sich deutlich absetzen kann aber offensichtlich passen sie dir nicht in den Kragen und werden natürlich konsequent ignoriert. Es ist ja nicht so als wenn es noch weitere gegeben hätte.

Viel Spass noch.
 
danyundsahne schrieb:
Aber der GPU Test wird doch auch Schlussendlich über ALLE getesteten Spiele gemittelt...warum machst du das dann bei einen "möglichen" CPU Bottleneck immer nur an einem Spiel fest mit deinen 20%?! Gemittelt ist Intel also auch nur 10% schneller....siehe Hardware Unboxed oder Igorslab.
Verstehe dieses Rumreiten darauf nicht.
Und wenn es im Mittel nur 5% wären, hier geht es ja darum, dass man belastbare Zahlen geliefert bekommt.
Ob einen als Nutzer die 5% stören oder nicht ist dabei irrelevant, wenn eine 3080 35% vor einer 2080Ti in 1440p liegen könnte ohne CPU Limit, dann sollte der Test auch 35% zeigen und nicht 30%.

danyundsahne schrieb:
Wenn Zen3 rauskommt dann ändert sich wohl vieles....ST/Gaming Leistung ist dann auf Intel Niveau oder drüber UND es gibt noch PCIe4 dazu.

Willst dann immer noch auf Biegen und Brechen auf Intel setzen?
Das hat rein gar nichts mit AMD vs Intel zu tun, ich frage mich wie du darauf kommst?
Wenn Zen3 kommt und mehr CPU Leistung im Gaming bietet als Intel, dann sollte man natürlich auf Zen3 setzen.
Aber genau aus dem Grund sollte man aktuell noch auf Intel setzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Esenel, GreyPrinceZote, .Sentinel. und eine weitere Person
Ich finde es erschreckend wie viele hier im Forum den Verbrauch als vollkommen legitim hinstellen, nur weil das mit der Performancekrone einhergeht. 19% Mehrverbrauch zur 2080ti, 34% zur 2080 (CB Messwerte nicht TDP) und die 3090 kommt erst noch. @Stock ist der Effizienzgewinn für eine neue Architektur mit Shrink einfach nicht gut.

Ich finde die Leistung der Karte beeindruckend darüber muss man nicht diskutieren. Aber 320 Watt @Stock sind alles andere beeindruckend.

Man hätte die 3080 bei 270 Watt belassen und die 3090 als Enthusiastenmodell bringen sollen, in Bezug auf Leistung und Verbrauch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rasenschach
bad_sign schrieb:
Ich kann mir ehrlich gesagt nicht vorstellen, dass der Takt erhöht wird, eher gehalten, im best Case (Stock)
Es gibt ja (bereits dementierte) Gerüchte, das die PS5 schlecht laufen soll, aufgrund schlechter Ausbeute. Das würde wohl am ehesten am hohen Takt liegen.

Bei Konsolen sind halt auch 100 MHZ zu wenig. Bei Grafikkarten werden es dann zwei Modelle. Fertig.

Dank MS wissen wir aber, dass TSMC einen Prozess verwendet, den sie so nicht im Angenot haben. Eventuell hat AMD für kommende 7nm Produkte eigenen Prozess.
Man kann aber von Taktraten zwischen 2,23 und 1,8 Ghz ausgehen. Verbrauch von Xboc und PS5 noch unbekannt. Laut Sony soll der Boost meist gehalten werden, insofern nicht zu viel CPU Last da ist.
Die Xbox hat fix 1,8 GHZ. Das waren teotz 56 CUS bereits 200 MHZ mehr, als was die 5700XT Gametakt bei 1,6 Ghz erreicht, wenn auch Turbo bis 1,9 GHZ geht.

Also von mehr Takt ist einfach auszugehen.

Es ist eben kein RDNA1 mal Faktor mögliche Auslastung mit steigender CUs. IPC ist wie gesagt ein weiterer Faktor.
Ps ich habe keine Prognose gemacht sondern wollte klarstellen, dass das nicht so einfach erraten werden kann.
Viele gehen eben von RDNA1 aus, was nachvollziehbar ist. Kennen wir ja die Möglichkeiten besser.
 
Wadenbeisser schrieb:
Ich habe dir deine geforderten Beispiele für den Einbruch wegen Speichermangel gegeben bei dem die Karte mit mehr Speicher sich deutlich absetzen kann aber offensichtlich passen sie dir nicht in den Kragen und werden natürlich konsequent ignoriert.

Also ich hab ja auch mitgelesen und er hat da gar nichts ignoriert, er hat doch sogar erklärt, warum es nicht am VRAM liegen kann, eben weil es dann bei 2080 vs 2080Ti ebenso stark auftreten müsste.

Das Problem hier liegt einfach in der Vega Architektur, bei der die Radeon VII in niedrigen Auflösungen viel Performance einbüßt weil sie ihren Taktvorteil nicht ausspielen kann, wenn die Shader nicht ausgelastet werden.
Das schafft sie erst in 4K wirklich.
 
  • Gefällt mir
Reaktionen: adAstra
KlaraElfer schrieb:
Da muss man glaub ich eines bedenken:
Die Effizienz unter RT workloads, trotz ausgequetschter Karte liegen schon bei 25 bis 40%, auf 270 Watt limitiert dann eher bei 50%. Man darf da ruhig Pathtracing und RT On mit reinnehmen, da das ja später häufiger genutzt werden wird.

Das liegt zum einen an der guten Kühlung und der Leistung in Relation zur Effizienz.
AMD wird das nicht deutlich übertreffen können, insofern wäre Kritik hier fehl am Platz.

Die Technik ist, wenn man die Leistung unter Pathtracing und RT mit einbezieht, nicht enttäuschend.
Ob etwas enttäuschend ist oder nicht, hängt immer auch davon ab, was andere Marktteilnehmer leisten.
2080Ti + 31% ist eine harte Nuss für Big Navi, das ist eine 5700XT + 100% und ich denke nicht, dass wir hier am Ende der Fahnenstange stehen, was die Treiber angeht.

Bedenke auch mal DLSS, das ist ein Werkzeug, was die Effizienz noch erheblich steigert.
Ich weiß nicht ob du das alles ernst meinst oder nicht :lol:

Ich soll also eine 320W Karte bei 270W betreiben, und dann auch noch Minecraft und Quake RTX zocken, um mir die Effizienz schön zu reden? :daumen:

Ampere wird an Turding gemessen, RDNA2 ist ja noch nicht da. Und da ist die Steigerung der Leistung im Verhältnis zur Leistungsaufnahme, als auch die Leistung im Verhältnis zur Rohleistung sehr wohl enttäuschend.

DLSS2.0 wird in wie vielen Spielen verwendet? 3 oder waren es sogar nur 2?
Die Karte wird heute bewertet, nicht in Zukunft.
 
  • Gefällt mir
Reaktionen: denbaschu
Kenjiii schrieb:
Was versteht denn ihr denn unter "Lockvogelangebot"? :D

700€ sind ein Schnapper.

mgutt schrieb:
Ich weiß High-End GPU und Strom sparen macht wenig Sinn, aber in der heutigen Zeit finde ich es nicht in Ordnung, dass Nvidia für 4% mehr Leistung 50W Strom verballert. Dieser Bereich hätte für Overclocker zur Verfügung stehen sollen, aber nicht für die Grundeinstellung der Karte.

Was hindert Dich dran die Karte zu undervolten?
 
  • Gefällt mir
Reaktionen: EL-SANTO
sialickiz schrieb:
RTX3080 ist um satte 81% schneller als VII, denkt hier wirklich jemand das RDNA2 90-100% draufsetzen kann ?

Die leaks fps mäßig zur 3080 passten ja bisher grob.

RDNA 2 soll laut Gerüchten (aus dem Frühsommer) "bis zu 50%" mehr fps als die 2080TI liefern.
Nehmen wir davon nur mal die Hälfte und 25% mehr als die 2080Ti.... Dann wäre RDNA2 im Topmodell aber DIREKT der 3080 Gegner.

Besser wäre, wenn eine 6900XT an der 3080 vorbeizieht (RTX off).
Dann kommt Musik rein. :)
 
Respekt !
Hoffe das AMD da mithalten kann und Nvidia nicht alleine auf dem Markt ist. Wäre verheerend das ganze ..
 
Mit dem Stromverbrauch kann ich mich nicht anfreunden. Die Performance ist ordentlich, auch wenn das nach 2 Jahren in einem neuen Fertigungsprozess und einer neuen Architektur nicht der komplette Überflieger ist. Der Stromverbrauch und magere VRAM trübt das Bild ein wenig.
 
cookie_dent schrieb:
700€ sind ein Schnapper.
Naja, sind sie ja auch? Ich dachte, du meintest es in der Art, dass Nvidia die Leute hinters Licht führt.
 
Irgendwie überzeugt mich die neue Karte nicht, mir kommt es so vor als hätte man das Leistungsplus gefühlt mit einem höheren Stromverbrauch erreicht(Brechstange). Und überhaupt wie soll ich die RTX 3080 denn vernünftig auslasten mit einem Ryzen 3700X auf WQHD, wenn ich jetzt schon manchmal CPU Bottlenecks habe z.b bei Battlefield 5 Multiplayer? Ryzen 4000 wird das wahrscheinlich nicht so sehr stark ausgleichen können, bleibt also nur noch vielleicht doch die Hoffnung dass die Latenzen von Ryzen 4000 nochmals stark verbessert werden und wenigstens die 4,5ghz@allcore@stock erreicht werden. 10gb sind schon etwas wenig, wenn man plant dass die Karte evtl 4 Jahre dienen muss, und es gibt nur sehr wenig Monitore mit 4k und144Hz unter 30 Zoll, die wenigen sind sündhaft teuer.

Desweiteren kann man Nvidia nicht mehr trauen, die schieben bestimmt bald ne RTX 3080ti/super nach, mit mehr aktivieren Cuda-Cores usw, dass sich die RTX 2080/70/60 Käufer nicht total verarscht fühlen wundert mich, vorallem hat man damals die Preise gesenkt bei den Super Modelle, also die reinste Verarsche...
 
Vielen Dank für den sehr informativen aufwändigen Test :) . Und ja, mein Adblocker ist seit Jahren auf CB ausgeschaltet :daumen:.

Kurzfazit zur 3080 FE: mittellautes WOW! (richtig lautes WOW hatte ich bisher nur beim Wechsel auf die Legende G80 im Vergleich zum Vorgänger)
Performanceschub ähnlich wie damals Maxwell zu Pascal und scheinbar mit richtig gutem durchdachten Lukühler.

ABER: Für mich als Wakühler kommt die FE nicht in die Tüte, da NV-Exklusiv und man bei NV direkt die Garantie bei Kühlerwechsel verliert ... (3090 same Problem).
 
  • Gefällt mir
Reaktionen: Col.Maybourne, MeisterOek, 0-8-15 User und 4 andere
Wadenbeisser schrieb:
@KlaraElfer

Schreib nur weiter irgendetwas um die Zeilen zu füllen in dem du nicht auf meine Beiträge eingehst sondern nur über das schreibst was zu dem von dir propagierten Weltbild passt.

Ich habe dir deine geforderten Beispiele für den Einbruch wegen Speichermangel gegeben bei dem die Karte mit mehr Speicher sich deutlich absetzen kann aber offensichtlich passen sie dir nicht in den Kragen und werden natürlich konsequent ignoriert. Es ist ja nicht so als wenn es noch weitere gegeben hätte.

Viel Spass noch.
denbaschu schrieb:
Ich finde es erschreckend wie viele hier im Forum den Verbrauch als vollkommen legitim hinstellen, nur weil das mit der Performancekrone einhergeht. 28% Mehrverbrauch zur 2080ti, 48% zur 2080 (TDP vs TDP) und die 3090 kommt erst noch. @Stock ist der Effizienzgewinn für eine neue Architektur mit Shrink einfach nicht gut.

Ich finde die Leistung der Karte beeindruckend darüber muss man nicht diskutieren. Aber 320 Watt @Stock sind alles andere beeindruckend.

Man hätte die 3080 bei 270 Watt belassen und die 3090 als Enthusiastenmodell bringen sollen, in Bezug auf Leistung und Verbrauch.

Wenn du dir die Leistung anschaust dann ist das sehr, sehr anständig ! Der Meinung ist im übrigen auch CB und andere Fachmagazine !

Die GPU ist sauschnell und das "Performance pro Watt" verhältnis ist 1a! ;)


Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Lautstärke, Temperatur, Leistungsaufn...png



Vega im übrigen auf dem letzten ! Die GPU verbraucht fast genauso viel und ist um 135% langsamer ! Ja, dass ist enorm schwach um es mal vorsichtig auszudrücken.

..hier mal ein vergleich mit der zwei jahre älteren GTX1080, fällt dir was auf ? Ich hoffe ja !
Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Lautstärke, Temperatur, Leistungsaufn...png



RTX3080 leistet viel, deswegen kann die Karte auch ruhig ein paar Watt mehr verbrauchen als zb. RTX2070.
 
Es ist verständlich, dass nVidia ihr knappes TSMC Kontingent für den GA-100 nutzen, da im Datacenter-Bereich derzeit die Post abgeht wie nie zuvor. Da wollen sie für die inzwischen geringer dotierte Gaming-Division wohl keine Perlen vor die Säue werfen, sondern das TSMC Kontingent voll für den GA-100 ausschöpfen.

Insofern ist das auf dem weitaus schlechteren Samsung Murks-Prozess basierende GA-102 Resultat durchaus ansehnlich. Dennoch muss man sich fragen, was hätte sein können, wenn nVidia den GA-102 (und 104) bei TSMC hätte fertigen können. Es ist schade um das verschwendete Potential. Die Chips wären sicherlich um ein Vielfaches besser, wenn sie nicht von dem Kühlschrank- und Waschmaschinenhersteller aus Korea kommen würden 😉 .

Als 2080Ti Besitzer ist die 3080 für mich uninteressant. Ursprünglich hatte ich mal mit der 3090 geliebäugelt, aber wenn ich mir das genau überlege, dann werde ich wohl erst mal bei der 2080Ti bleiben. Für vielleicht noch mal +30% Performance und jede Menge VRAM, den Stand JETZT und auch mittelfristig noch kein Schwein braucht, gut das Doppelte latzen "müssen" für ein Produkt, das wegen der minderwertigen Fertigung weit unter seinem Potential bleiben musste... nee, danke. Ich glaube nicht.

So verlockend die 3090 in Sachen "Zukunftssicherheit" (halte ich nix von, da es immer nette Features geben wird, die man vielleicht bei der nächsten Generation wird haben wollen) auch sein mag, aber ich kaufe mir glaube ich erst wieder eine nVidia Karte, wenn die Chips wie gewohnt wieder von TSMC kommen oder sie bei Samsung zumindest auf einem annähernd qualitativ vergleichbarem Prozess wie 7nm EUV gefertigt werden.

Dann dürfte auch die Wattzahl wieder in normalere Bereiche absinken. Ich kann mir eigentlich nicht vorstellen, dass nVidia wegen eines mutmaßlichen AMD-Produkts derart an die Kotzgrenze gegangen sind wegen nur+ 4%. Das würde keinen Sinn machen. Ich vermute eher, dass die minderwertigen Samsung Chips einfach nicht stabil laufen, wenn man denen nicht ordentlich Saft gibt.
 
  • Gefällt mir
Reaktionen: chrunchinut, Xedos99 und oemmes
Zurück
Oben