Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

wenn man sich mal die Temperaturen im Gehäuse im HW-Luxx-Test anschaut, könnte man den Titel hier auch ändern in: GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing kalt aussehen
zumindest für CPU und RAM... ^^

Kühlung_3080.JPG
 
  • Gefällt mir
Reaktionen: eXe777, WolledasKnäul, Ben81 und eine weitere Person
schkai schrieb:
Per Powertarget überlässt du das der Karte, ber Curve Editor entscheidest du über die Spannung.
Genau so ist es. Meine 1070TI Strix (1826-1860 MHz), hat sich genau so verhalten wie die in dem Test, vom Boost her. Mit PT max war sie dann zwischen 1890 -1925 MHz, wenn sie warm war. Dabei hat sie eine Spannung zwischen 1,04 und 1,07V angelegt und ~200W verbraucht.
Mit Curve Editor hab ich absolut stabile 1911MHz in warmen Zustand, dass ist jetzt ungefähr gleich schnell wie PT max. (-0,5%) und verbraucht ~140W@0,9V. Mit absenken des PT auf 77% verbraucht sie genau so viel, taktet aber keine 1800MHz mehr.
Ein großer Unterschied wie ich meine. Anders rum komme ich mit knapp 200W@1,025V auf 2025MHz, kannst drehen und wenden wie du willst, mit Curve erreiche ich gute 100MHz mehr.
 
Laut einiger Tester kann die RTX3080 sich garnicht richtig entfalten , da sie ins CPU Limit läuft.
Test waren mit AMD & Intel .......AMD Ryzen 9 3900X so wie intel 10900k.
Ich hoffe das mit den Zen 3 was stärkeres kommt :confused_alt:
 
  • Gefällt mir
Reaktionen: Celinna, gravens4k2 und firejohn
Daggy820 schrieb:
Ganz gut geworden das Teil, nur finde ich die Raytracing Leistung für mich persönlich irgendwie immer noch nicht wirklich zufriedenstellend wenn man bedenkt was für ein Wind deswegen gemacht wurde.
Der Stromverbrauch ist ja mal die Krönung hoch zehn.
Die Leistung ist natürlich super und der Sprung von der 2080 schon beeindruckend, aber jetzt erstmal warten auf die Customs und was AMD so liefert.

...wenn Raytracing sich optisch bemerkbar macht ist der FPS einbruch recht stark !
Das wird noch ein paar jahre dauern bis das Feature sich etabliert. Ich finde RTX3080 ist dafür noch zu schwach.

DLSS ist dagegen grandios, wird sich schon bald durchsetzen. Die Entwickler werden davon sicherlich immer häufiger gebrauch machen !
 
Sk3ptizist schrieb:
GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing kalt aussehen
Das kleinere Strukturen eine höhere Wärmedichte haben und sich schwerer kühlen lassen wissen wir alle spätestens seit Navi.

sialickiz schrieb:
Das wird noch ein paar jahre dauern bis es standard wird. Ich finde RTX3080 ist dafür immer noch zu lahm.
DLSS ist dagegen grandios, wird sich durchsetzen ! Es spricht nichts dagegen.
Deswegen sollte man beides kombinieren, dann passt es wieder.
 
Meistens halten sich die Unterschiede in grenzen. Das wird sich mit stärkeren Gpu´s und neueren Games aber sicherlich ändern.
In Control ist es sehr gut umgesetzt, profitiert optisch recht stark davon.
Ich kann aber nur die 4K Videos auf Youtube und co. beurteilen, habe keine Turing.

Die schöneren Spiegelungen kosten allerdings 25FPS, nicht wenig (CB Test)

Raytracing ist nicht gleich Raytracing, siehe COD ! Ich habe mir die Videos zu dem Spiel angesehen und wer da nennenswerte unterschiede sieht, glückwunsch. :D

Kurze frage, hat jedes Spiel mit Raytracing direkt DLSS an board ? Falls ja, müsste man sich um die Performance keine Sorgen machen. Wie gesagt habe mich mit dem Feature noch nicht so sehr beschäftigt, da meine uralte GPU es nicht unterstützt und ich keine signifikanten Unterschiede gesehen habe. Control mal ausgenommen.
 
Zuletzt bearbeitet:
Sk3ptizist schrieb:
wenn man sich mal die Temperaturen im Gehäuse im HW-Luxx-Test anschaut,

Wenn man bedenkt wie schlecht das verwendete Gehäuse bei Luxx war, hat sich die Karte dort überraschend gut geschlagen.
1600303718589.png


Drei 120er Lüfter auf 600/1300RPM, störende Festplattenkäfige, ein i9-10900K und eine 320W GPU? Ein Wunder das dieser misslungene Aufbau nicht zum Backofen wurde.
 
  • Gefällt mir
Reaktionen: Esenel, Celinna und TorgardGraufell
TorgardGraufell schrieb:
Laut einiger Tester kann die RTX3080 sich garnicht richtig entfalten , da sie ins CPU Limit läuft.
Test waren mit AMD & Intel .......AMD Ryzen 9 3900X so wie intel 10900k.

Das stimmt nicht bzw. nur bedingt. Ein Limit gibt es immer,egal ob CPU oder GPU. Wenn du die 3080 in 4K betreibst kommst du ins GPU Limit z.B.
In 1440p bzw. 1080p dann kaum bis garnicht mehr,sondern hier dann ins CPU Limit.

Das war aber jetzt schon immer so! Sowohl AMD als auch Intel bieten mehr als genug FPS!
 
  • Gefällt mir
Reaktionen: FatalFury
Windell schrieb:
In 1440p bzw. 1080p dann kaum bis garnicht mehr,sondern hier dann ins CPU Limit.
ok danke dann sollte ich vieleicht auch auf UHD gehen ;)
Bis jetzt war ich immer im GPU Limit , aber wollte sowiso aufrüsten mit Zen 3.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Windell
Zuerst einmal alle Achtung und besten Dank moechte ich bekunden fuer den 7 Seiten langen Testartikel zur RTX 3080 @Wolfgang :cool_alt:.

Das ist ein beeindruckendes Ergebnis und kein Vergleich zu Turing, als die GeForce RTX 2080 zum Start nur 40 Prozent schneller als die GeForce GTX 1080 war – und dabei deutlich mehr kostete. Die GeForce GTX 1080 kam gegenüber der GeForce GTX 980 wiederum auf vergleichbare 64 Prozent.

Nun ja, ich sehe die RTX 3080 eher als Nachfolger der "ungesuperten" RTX 2080Ti, da es sich hier ebenso um den beschnittenen Grosschip (GA-102) handelt und nicht wie bei der RTX 2080 und den deutlich kleineren Chip (TU-104 Vollausbau), so dass es somit ueberhaupt kein passender Vergleich sondern nVidia Marketing ist und das haette man auch kritisch herausstellen koennen, denke ich ;).

Ergo, ist die Darstellung im Artikel fuer den in der Materie nicht verfestigten Leser taeuschend und dann ist auch das Ergebnis bzw. der Leistungssprung der Chips generationsuebergreifend nicht mehr so beeindruckend, wie hier durch die Bezeichnungen seitens nVidia jedoch vorgegaukelt.

Die RTX 3090 sollte man als GA-102 Vollausbau mit dem massiven Speicher einer semi-professionellen Karte, aber von nVidia clever mit Alibi-8K-Gaming (welches ueber Jahre hinweg aber noch keine Rolle spielen wird) beworben, auch nicht wirklich als Nachfolger einer RTX 2080Ti sehen, zumal eine leistungstechnisch zwischen RTX 3080 und RTX 3090 liegende RTX 3080Ti/Super (mit weniger beschnittenem GA102 Grosschip und evt. schnellerem/hoeher getakteten Speicher) sehr wahrscheinlich ist (im kommenden Jahr), falls AMD/RTG die Leistung dieser RTX 3080 z.T. oder durch die Bank uebertreffen sollte mit einer RDNA2 Big Navi Karte (RX 6900XT).

Das nur so der Einordnung halber, die ich im Artikel als nicht passend (anhand der Kartenbezeichnungen/-namen) ansehe, denn man sollte diese aufgrund der tatsaechlichen Chipleistung vornehmen, denn Namen sind (ja nur) Schall und Rauch ;).
 
TorgardGraufell schrieb:
Laut einiger Tester kann die RTX3080 sich garnicht richtig entfalten , da sie ins CPU Limit läuft.
Test waren mit AMD & Intel .......AMD Ryzen 9 3900X so wie intel 10900k.
Ich hoffe das mit den Zen 3 was stärkeres kommt :confused_alt:


dann werden die balken größer :king:
 
sialickiz schrieb:
Sehr viele auf "GURU3D" sind fest davon überzeugt das RDNA2 nicht einmal an die RTX2080Ti rankommt und ich glaube das mittlweweile auch.

Von was die Leute überzeugt sind, obwohl sie es gar nicht wissen können, ist schon erstaunlich ;)

Nette Karte, die 3080. Viel berechtigtes Lob. Aber wenn ich so Mehrleistung und Mehrverbrauch in Relation setze, dann... Na ja, geht so mit dem technischen Fortschritt.
 
  • Gefällt mir
Reaktionen: FatalFury und wolve666
Chismon schrieb:
Die RTX 3090 sollte man als GA-102 Vollausbau mit dem massiven Speicher einer semi-professionellen Karte, aber von nVidia clever mit Alibi-8K-Gaming (welches ueber Jahre hinweg aber noch keine Rolle spielen wird) beworben, auch nicht wirklich als Nachfolger einer RTX 2080Ti sehen...

Die Karte ist nicht der Vollausbau und wäre deiner Logik folgend der wirkliche Nachfolger der 2080Ti, wobei das wiederum von der Chipgröße eigentlich GA100 wäre, welcher ja nicht als Geforce kommen soll.

Insgesamt macht keine Einordnung so wirklich Sinn.
 
  • Gefällt mir
Reaktionen: Oneplusfan
Darkscream schrieb:
Das kleinere Strukturen eine höhere Wärmedichte haben und sich schwerer kühlen lassen wissen wir alle spätestens seit Navi.
naja, die GPU läuft ja sogar Kühler, aber RAM und CPU sind wärmer, beides bedingt durch das neue "durchleitende" Kühlkonzept
betrifft aber erstmal nur die FE und nur jemand mit Luftkühler in Bezug auf CPU

xexex schrieb:
Ein Wunder das dieser misslungene Aufbau nicht zum Backofen wurde.
ja, wäre optimierbar ^^
aber tendenziell beeinflusst das neue Kühlkonzept die CPU-/RAM-Temperatur, vermutlich auch bei einem Gehäuse mit besserem Airflow...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna und Sk3ptizist
xexex schrieb:
Wenn man bedenkt wie schlecht das verwendete Gehäuse bei Luxx war, hat sich die Karte dort überraschend gut geschlagen.

Das Gehäuse sieht so nach 2010 aus. Die Festplattenkäfige sind bei neueren Bequiet- und Fractal-Gehäusen schöner gelöst, sodass ein einzelne Fächer sind, die man von der anderen Seite reinschiebt und dort verschraubt. Oder das Festplattengeraffel ist unten in einem Kasten zusammen mit dem Netzteil drin. Trotzdem kann Luxx die Festplattenkäfige rauswerden.

<---- Naja, den Test auf Luxx heute Nachmittag mal lesen.

Das 600T ist auch so 2010, sollte aber hier vielleicht besser sein für so eine Heizplatte. Bei 20°C Raumtemperatur geht meine 2080S Strix bei 100% TDP auch so auf rund 66°C, was auch auch den damaligen Tests entsprach. Oben und hinten 3 Lüfter und in der Front der große. Leider sind in der Front und oben Doppelgitter, wobei oben ich die Lüfter zwischen den beiden Gittern habe, damit man da noch an den CPU-Stromstecker kommt. Diese Lüfter hängen an der Steuerung vom Gehäuse mit der geringsmöglichen Spannung, da oben die beiden LED-Lüfter auf 1500 1/min sonst laut sind. Außerdem ist im Seitenteil ein Gitter drin.
IMG_20200531_012400.jpg
 
Zurück
Oben