Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

CrustiCroc schrieb:
Wenn du den Test wirklich gelesen hättest, wüsstest du das die Performance / Watt und somit die Effizienz gegenüber Turing und erst Recht gegenüber AMD´s Pseudo 7nm Prozess stark verbessert wurde, und stand Heute die beste Effizienz am Markt ist.

9% sind nicht "stark verbessert" :freak: Es sei denn ich reduziere das Power Limit. Für 4% weniger Leistung bei 50W weniger Verbrauch hätte man die Karte auch direkt so bringen können.

Dementsprechend ist die "beste Effizienz" extrem weit weg von den 1.9x die versprochen wurden. Selbst verglichen mit der 2080 Super FE anstatt der 2080 TI FE passt das nicht wirklich.
 
  • Gefällt mir
Reaktionen: Crankson, JJJT, sifusanders und 4 andere
Kauft schon die SKU30 aka 10GB in der Hoffnung AMD kackt nicht ab. Dann wird SKU20 mit mehr als 10GB RAM mit Sicherheit die Graka sein, die sich viele gewünscht hätten ;)
 
Puh, 28% mehr Verbrauch bei 35% mehr Leistung, ziemlich enttäuschend. Alle letzten Gerüchte haben sich bestätigt.
Das einzig gute an der Karte ist, die ist günstiger, sonst kein Fortschritt.
 
  • Gefällt mir
Reaktionen: Crankson, JJJT, dohderbert und 7 andere
PogoPogo schrieb:
Läuft die 3080FE mit einem 550W Netzteil? Be Quiet Straight Power.
Falls ich eine FE kriegen sollte, kann ich dir zumindest sagen, ob sie mit einem 600W Straight Power läuft.😜
Aber nach Igors Test mache ich mir keine großen Hoffnungen, dass das problemlos gehen wird.
 
  • Gefällt mir
Reaktionen: Col.Maybourne, Geisi, Dai6oro und eine weitere Person
Schranz0815 schrieb:
Der Stromverbrauch ist ja abartig. Bei der Vega damals gab es ein Aufschrei ohne Gleichen. Aber hier bei den grünen Fanboys kommt komischerweise nichts, wenn es die eigene Marke betrifft. Ich finde es immer wieder amüsant die Fanboy Lager.

Die 3090 von EVGA mit 3 Stromanschlüsse knackt bestimmt die 500 Watt Marke.

Bin mal gespannt wie viel Strom die AMD Karten für ähnliche Leistung benötigen.

Irgendwie lustig, wenn man sowas über die effizienteste Grafikkarte in der Geschichte liest.
Bist bestimmt auch der Typ Autokäufer, der sich einen BMW mit 500 PS kauft und sich dann über den höheren Verbrauch im Vergleich zu seinem vorherigen 300 PS Möhrchen beschwert. :)
 
  • Gefällt mir
Reaktionen: tomasvittek
Bright0001 schrieb:
Gibt hier viele im Forum mit der PSU, einfach mal abwarten; Ich glaube es wird schnell Erfahrungsberichte geben, ob und wie gut das läuft. Ich geh ebenfalls davon aus, besonders wenn man das Powerlimit auf 270 Watt reduzieren kann.

Ich zum Beispiel. :D Ja die 330W werden knapp mit meinem E11 550W.
Da mein 3700X aber kein Schluckspecht ist, müsste das gerade so gehen.
Aber zur Not eben das Powerlimit auf 270W begrenzen.
 
  • Gefällt mir
Reaktionen: stevefrogs und Tzk
GUN2504 schrieb:
Nach dem sehr aufschlussreihen Test (Danke @Wolfgang ) werde ich auf jeden Fall noch auf den AMD Release warten, selbst für Nvidia Fan's ratsam ;)

Wenn AMD mit Big Navi das Niveau der 3080 erreicht, allerdings mit 16 GB RAM zu einem ähnlichen Preis dann wird die 3080 zum Einen günstiger als bei Release oder Nvidia haut direkt eine 3080 Ti für einen kleinen Aufpreis raus (wie damals die 780 ti als Konter zur R9 290x, für nen Hunni mehr als die 780).

Oder im schlechtesten Falle verkackt es AMD und dann muss ich wohl selbst das erste Mal eine Nvidia Karte verbauen.
In 6 Wochen wissen wir mehr.

Ich hoffe natürlich auf Ersteres :D
Ehrlich gesagt, kann eine 3080ti nicht viel mehr Leistung bringen und es wird nicht so sein wie bei der 700 Reihe, da ja die 3090 wahrscheinlich nichtmal 16% schneller als die 3080 ist, dann kann eine 3080ti nur maximal 5-10% schneller sein, aber vielleicht eben dann mit 20GB Speicher. Big Navi wird den high end angreifen, wenn sie das schaffen, ist Ampere geschlagen, allein schon wegen des Stromverbrauchs und wahrscheinlich des Preises, Speichers usw. Wenn es AMD nicht gelingen sollte, die Performancekrone zu bekommen, werden sie preislich alles unter der 3080 gewinnen, da bin ich mir sicher.
 
Danke für den Test:
Könntet ihr bitte Fortnite mit sämtlichen neuen RTx-Karten testen und zwar vor allem in 1080 und allen Details auf niedrig, um die Wettbewerbsszene zu informieren?
 
Also ich muss auch eingestehen, dass ich nun von den Ergebnissen der RTX 3080 etwas enttäuscht bin. Da hab ich mich wohl vom Hype zu sehr tragen lassen. :D
Für mich sieht das eher nach einem normalen Leistungssprung aus, den man innerhalb von 2 Jahren ruhig erwarten darf. Der Energieverbrauch ist aber einfach nur insane. 320W? Da bin ich raus.

Mal sehen was AMD raus bringt.

Ansonsten schöner Test, hat mir sehr gefallen. :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Crankson, dohderbert, Incident und 6 andere
Taxxor schrieb:
Die 3080 steht je nach Auflösung 90-100% über der 5700XT

Und was noch viel interessanter ist: der Effizienzsprung ist sehr klein. Ich denke das wird der eigentliche knackpunkt werden, amd hatte ja +50% angesagt.

@Justin's
1080p in low wird im cpu limit hängen, da macht der test kaum sinn...
 
Bin noch mit einer Vega64 unterwegs und das bei 4k. Passt noch gerade, dank freesync und ein paar Abstrichen bei der den Einstellungen.

An sich solide Mehrleistung, aber bin ein wenig enttäuscht, das bei nicht dlss Leistung der Sprung nur 60% sind, bei den Specs (2080S 3072 Cuda Cores bei etwa 12Tflops (32) Leistung | 3080 8704 Cudacores bei 30Tflops(32)). Hätte hier mehr erwartet, denke aber das hier der Hauptfokus auf dlss und RTX gelegt wird/wurde. Mal sehen was AMD liefert (Kommt auch Ende des Jahres dann ein neuer Monitor: LG 27GN950, der dann beide Sync-Techniken macht und dann auch mal mehr als 60Hertz habe und mal HDR antesten :) ).

Finde DLSS eine interessante Technik, aber schade das es wieder nur Exklusiv ist, wäre bei solchen Techniken aus meiner Sicht sinnvoller, diese durch Standards allen zur Verfügung zu stellen (Hätte ich persönlich auch bei G-Sync so gewünscht, ein Standard, die dann alle nutzen können). Bzgl. Entwicklungskosten: Ist ja nichts neues, das die großen Anbieter untereinander Vereinbarungen haben (Lizenzabkommen, die werden sicherlich nicht kostenlos sein), hätte man dann auch entsprechend realisieren können, aber das werden wir sicherlich nie bei diesen Techniken sehen.
Denke RTX passt, auch bei AMD, wenn auch aus meinem Bauchgefühl langsamer, aber bis das dann soweit in Spielen angekommen ist, wird auch die nächste Grafikkarten Generation wieder da sein .
 
BmwM3Michi schrieb:
Super Karte! 5% Untertakten und 50 Watt sparen! Und nur 1% Verlust mit PCIe 3.0!

das ist tatsächlich das einzige was bei mir für hochgezogene augenbraue gesorgt hat - die letzten paar prozent hat man sich mit relativ hoher leistungsaufnahme erkauft.
hätte man das powertarget entsprechend niedriger angesetzt und den aib-partnern die 320w erlaubt, hätten etwas teuerere customs auch sinn. andererseits könnten die hersteller mit einem switchbaren bios für einen silent/eco mode sorgen der dann bei 280w höchstwahrscheinlich wesentlich effizienter und einen tick leiser arbeiten könnte.

aber alles in einem eine akzeptable leistung für eine neuvorstellung - bis zum erscheinen der 3090 wird das wohl "king of the hill" bleiben..
 
Doch nicht so gut wie der Hype und die Lederjacke gepredigt hatten. Von 2x 2080 weit entfernt und der Kühler diesmal zwar brauchbar aber dennoch kein Meisterwerk.

Meckern kann man natürlich immer, aber 15% mehr Leistung für 700€ statt 1200€ ist natürlich eine Ansage.
Dank dem Nvidia üblichen Absägen der Vorgänger beim Treiber werdens mit der Zeit noch ein paar Prozente werden.
Und mit DLSS 2.0 hat man noch was gegen AMD in der Hinterhand.

Aber eins hat der Test dann doch...
Er zeigt, dass die RTX 2080 Ti höchstens noch 500€ gebraucht wert ist. Denn für 15-20% mehr Leistung und Garantie+ Neu gibts für 700€ jetzt eine Alternative.
 
  • Gefällt mir
Reaktionen: Crankson, dohderbert und Cpt.Willard
Leistung richtig gut, aber wenn ich mich für die nächste 4 Jahre abdecken will dann ist der Speicher leider das Argument was mich davon abhalten wird die 3080 zu kaufen. Preis auch ok, aber der Speicher ist leider der Haken an der Sache. Mal ein Jahr warten ob dann die Super Karten mit mehr Speicher kommt. 16 sollten es schon sein.
 
Cooles Video von Igor bzgl. der Netzteilwahl und wie viel Watt man wirklich braucht:
Die Spannungsspitzen scheinen hoch, ich fürchte mein 550W Netzteil werde ich mit der Karte nicht verwenden können, Power Target reduzieren macht aber wohl definitiv Sinn wie im CB Test aufgezeigt.

Ich glaube ich warte noch ab was AMD bringt, wirklich überzeugend war das ehrlich gesagt nicht, je nach Reviewer und Games 20-30% mehr Power als die 2080Ti für 100W mehr...
 
  • Gefällt mir
Reaktionen: dohderbert, Col.Maybourne, Markenprodukt und eine weitere Person
McFritte schrieb:
Laut Igor ist das der 10900K ebenso. Der bremst die Karte in den Auflösungen ebenso ein.

Naja bei 5.2GHz + 5.0GHz Cache und RAM über 4300DR oder 4600 SR tritt das weitaus später ein also bei seinen 4.5GHz die mit 3600er RAM ausgebremst werden ;-)

Sophisto schrieb:
Auch bei Leuten mit 1440p und 165Hz Monitoren ist der 3900x ausreichend schnell zum spielen...

Nö.
Ich will ja glatte Frametimes bei gelockten 160FPS.
Da ist der 3900X einfach zu lahm.
 
  • Gefällt mir
Reaktionen: .Sentinel.
aldaric schrieb:
Sind diese Leute irgendwie nicht dazu in der Lage sich zu informieren?

Was die Leute sich kaufen können hat nichts zwingend mit ihrem technischen Wissen zu tun.

Sonst gäbe es hier keine Posts von Leuten mit ner 2080 ti oder 3950x, die nicht mal gewusst haben, dass es XMP gibt.

Die kommen doch extra hier auf Seiten wie ComputerBase, weil sie den Experten trauen und sich über ihren nächsten Einkaufen informieren wollen.

Deshalb sollte der Hinweis auf bottleneck nicht erst 15 Seiten in den Kommentaren zu finden sein, sondern im Artikel selbst.

Und ich schreibe das als jemand den diese Problematik überhaupt nicht betrifft, da ich auf 4k spiele und auch etwas Ahnung von der Materie habe.

Aber dennoch bin ich mir bewusst, dass ich hier die Minderheit bin, da die meisten eh nicht auf 4k spielen bzw. nie die Kommentare lesen.
 
Die Leistung ist tatsächlich sogar etwas besser, als ich vermutet hätte, wobei die bestenfalls durchschnittlich abschneidenden Turing Reihe da ordentlich unterstützt. Für viele, die nicht auf das Kleingedruckte im Rahmen des Gruß aus der Küche (oder dem Feature das Global Foundry für Nvidia verfilmt hat) geachtet haben, ist es vielleicht aber etwas enttäuschend.

Der Verbrauch... ja... der Verbrauch... Kopfschüttelnder Facepalm?
Es scheint irgendwie so zu sein, dass die 3080 FE ihr Limit erreicht hat. Selbst mit der 50Watt Brechstange kaum GPU OC Potential, scheinbar bereits knapp über dem Sweetspot, wenn man sich die nivellierten Werte beim Vergleich mit Turing bei gleicher Aufnahme ansieht (die Karte dahingehend im Betrieb einzufangen ist definitiv keine dumme Entscheidung). Wobei ich da die "Schuld" noch nicht mal direkt Ampere aufs Auge drücken würde, sondern doch eher in der Fertigung bei Samsung die Ursache vermute.

Unabhängig davon ist der Kühler für die Karte selber erstmal wohl eine Wucht (wenn auch nicht perfekt), was aber bei Lösung für 155$ auch zu erwarten ist. Wobei meiner Meinung nach nicht die Frage ist, ob der GPU Chip selber (sehr) warm wird oder nicht, sondern wie sich der VRAM und auch das PCB selber so schlagen. Dicht gefolgt von den Fragen der Temperaturen im Gehäuse. Dass es aber nicht unbedingt einen so extrem negativen Einfluss haben muss, hatte ich schon vermutet. Bei einem Gehäuse mit ordentlichem Luftdurchfluss, mit einem gewissen Grad an Strömungsgeschwindigkeit, Lufttemperatur und Komponententemperatur, kann dieses Kühlerkonzept hilfreich sein.
Ich schätze mal das Steve von Gamers Nexus da seinen Fetisch ausleben wird und uns letztendlich das ordentlich austesten wird, so genug Material für die nächsten paar Wochen erhält, und dann natürlich auch erklären wird er hat ja die Tage erst sein neuestes Sex Spielzeug vorgestellt :D

Bin mal gespannt, wie sich die Verfügbarkeit und die Preise bei FE und Partner Karten entwickeln werden und vor allem, was das P/L Verhältnis wert sein wird, wenn AMD dann Ende Oktober sich in Szene setzen will. Könnte je nach Sichtweise alles zwischen interessant und enttäuschend werden, da es dieses mal nicht nur einfach AMD v. Nvidia heißt, sondern bzgl der Fertigung auch TSMC gegen Samsung antritt und somit zumindest die Herstellungskosten kaum unterschiedlicher sein könnten.
 
Adzz schrieb:
Man muss es nicht extra testen. Die FPS würden beim Blechmarken einbrechen und es wäre sofort auffällig. Anscheinend hat es für den Parcours in jeder Auslösung gereicht. In FullHD und teilweise WQHD bin ich mir eh nicht sicher ob die Cpu nicht vor der 3080 an ihre Grenzen kommt.
Nö, nur in den härtesten Fällen, wenn man extrem zu wenig VRAM hat.
In normalen Fällen würden Frame Times öfters und mehr ausschlagen. Und das eben nur bei Spielen die viel VRAM benutzen.
Vielleicht sieht man solche Tests erst mit der 3090, wenn man einen besseren Vergleich hat.
 
Zurück
Oben