Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

oemmes schrieb:
Ich fürchte AMD braucht dann wieder nen halbes Jahr um funktionierende Treiber zu liefern.....
Das ist leider auch meine Befürchtung, gerade weil mit RDNA2 so viel neues dazukommt, kann man sich wohl nicht daran hochziehen, dass man die Treiber für RDNA1 so langsam in den Griff bekommen hat. Kann im November auch alles wieder von vorne anfangen....
 
  • Gefällt mir
Reaktionen: wupi und oemmes
Taxxor schrieb:
Die chips sind die Leistungsklassen, wie Nvidia diese nennt ist ja ne andere Geschichte^^

Also werden wir
duskstalker schrieb:
An was machst du die Leistungklasse fest, wenn nicht am Chip?

An der von nVidia vorgegebenen Einteilung. So kann man am Besten vergleichen mMn.
 
Keine schlechte Karte, aber zu Teuer und wie wirkt sich der Kühler auf wenn die Karte steht und was für ein NT brauche ich mein 550 Watt könnte etwas knapp werden.

Auch habe ich ein TopBlower CPU Kühler und und nee warte noch auf AMD.

Auch gefällt mir nicht dass der Chip so am Limit läuft erinnert an Vega und Intel 10er Serie. 😉
 
  • Gefällt mir
Reaktionen: MasterAK
Windell schrieb:
An der von nVidia vorgegebenen Einteilung. So kann man am Besten vergleichen mMn.
Naja, ich würde sagen so vergleicht man wie Nvidia möchte, dass man vergleicht^^

Als man für die 80er Karten vom 102 auf den 104 runtergegangen ist, hat man die Karten effektiv eine Leistungsklasse nach unten rutschen lassen, dadurch dass sie aber weiterhin 80 heißen, kann man die Preise entsprechend beibehalten.
 
Taxxor schrieb:
Das ist leider auch meine Befürchtung, gerade weil mit RDNA2 so viel neues dazukommt, kann man sich wohl nicht daran hochziehen, dass man die Treiber für RDNA1 so langsam in den Griff bekommen hat. Kann im November auch alles wieder von vorne anfangen....

Dass denke ich nicht da habe ich keine Sorge RDNA2 ist komplett neu mit MS und Sony Entwickelt für Gaming. 😉

RDNA1 war mehr sowas wie eine Brücke.
 
  • Gefällt mir
Reaktionen: m2020 und Onkel Föhn
mgutt schrieb:
Ich weiß High-End GPU und Strom sparen macht wenig Sinn, aber in der heutigen Zeit finde ich es nicht in Ordnung, dass Nvidia für 4% mehr Leistung 50W Strom verballert.

Das lässt hoffen, das die AMD-Karte im 3080 Revier jagen geht. Jedoch möchte NV mit den 4% eventuell sicher gehen, dass die kommende Big Navi faktisch langsamer ist und das auch so in allen Tests kommuniziert wird. Und das erkauft man sich gerne mit 50W mehr an Verlustleistung. Hauptsache, die 3080 findet Käufer.
Abwarten und Tee trinken.
 
Phear schrieb:
Netzteil Test von Igor mal angeschaut. Empfehlung bei einer 3080 FE und sehr gutem Unterbau ab Qualitätsnetzteil mit 650W. Eher Richtung 750-800W. Vor 2 1/2 Jahren noch bewusst auf 550W gesetzt. Blöd gelaufen ;)
Es soll wohl Customs geben, die sich auch gerne deutlich mehr als 370W ziehen. Wird man dann wohl morgen auch beim Namen nennen können ;)

Ich denke und hoffe das mein 600 Watt BeQuiet Straight Power ausreicht. Die Straight Power Serie haben meistens noch gute Reserven von über 10%, das sollte sich ausgehen. Natürlich empfiehlt man dann ein 650 Watt Netzteil damit es nicht immer an der Schmerzgrenze läuft. Auf jedenfall habe ich nicht vor nach knapp 3 Jahren wieder ein neuen Netzteil zu kaufen, das ist mir die Karte dann doch nicht Wert.
 
Mcr-King schrieb:
Dass denke ich nicht da habe ich keine Sorge RDNA2 ist komplett neu mit MS und Sony Entwickelt für Gaming. 😉
PS5 und Xbox ist aber halt auch nicht Windows 10 ^^ Die Linux Treiber für RDNA1 schienen ja auch sehr viel besser zu laufen von Anfang an.
 
Wadenbeisser@

Du musst dir immer alles zurechtbiegen, hmm ? :rolleyes::confused_alt: Unbegreiflich, was bringt dir das ?

Mein Gott das sind nur Grafikkarten, wirst es schon überleben wenn du einmal objektiv bist und AMD mal kritisierst.

Die meisten interessiert lediglich die Gaming-Leistung, nur mal so als Info !
Das ist echt nicht böse gemeint, aber stell doch wenigstens einmal den Fanboy ab.;)

 
Pizza! schrieb:
Ein paar Infos von Igor:

CPU Limit, Igor meinte zu seinen Tests, auch ein 10900K hätte nur eine minimale Verbesserung gebracht. Selbst in 4K ist man teils im CPU Limit.

Zum Verbrauch ist auch interessant. Das Netzteil sollte mit einer 3080 schon mind. 650 Watt leisten. Er hatte kurze Spitzen über 350 bis 450 Watt ! Nur die Grafikkarte...

Wieso reden immer Alle von "CPU Limit" ? Irgendein Limit gibt es doch immer. Die CPUs liefern egal in welcher Auflösung genug FPS,fertig.
 
Piledriver schrieb:
Wer kann schon Manipulationen vom Hersteller, die die jeweiligen Hardware besser ins Licht rücken in Gänze ausschließen?

Wäre ja blöd, wenn NV ausschließlich golden samples an die Tester verschicken würde.
Auf der anderen Seite: Wenn man nur Hardware aus dem Laden testet, dann könnte es auch mal vorkommen, dass man eine Gurke erwischt. Aber wohl immer noch repräsentativer (und näher dran an einer realistischen Leistung pro Watt) als ein golden sample.
 
HessenAyatollah schrieb:
Naja bei Proshop werden Karten jetzt ab 729€ (MSI) angeboten, aber werden wohl erst morgen ausgeliefert!
In 3-4 Wochen fallen sie unter 700 Euro.
 
Wann kommen die Customtests :D

Und wie siehts mit Spulenfiepen aus?
Oder habe ich das überlesen?
 
Ziemlich enttäuschend das Nvidia auf 8nm Samsung gegangen ist.
TSMC's 7nm hätten den GA102 von 628mm² auf 425mm² schrumpfen lassen können - da bleibt jetzt soviel Effizenz und Kühlbarkeit auf der Strecke.
 
  • Gefällt mir
Reaktionen: fox40phil, m2020, RogueSix und eine weitere Person
Taxxor schrieb:
PS5 und Xbox ist aber halt auch nicht Windows 10 ^^ Die Linux Treiber für RDNA1 schienen ja auch sehr viel besser zu laufen von Anfang an.

Ja nein MS Xbox sogar die One benutzt DX12_0 und die neue nur noch DX12_2 und auch Win10.

Nur Sony hat eine eigene APi die aber von AMD auf Mantel Aufbaut was Vulkan ähnlich ist was die PS5 auch unterstützt.
Ergänzung ()

CloudConnected schrieb:
Wann kommen die Customtests :D

Und wie siehts mit Spulenfiepen aus?
Oder habe ich das überlesen?

Ziemlich hörbar leider.
 
5hred schrieb:
Das lässt hoffen, das die AMD-Karte im 3080 Revier jagen geht
mit sicherheit
die leistung ist nur ein wenig über 2080ti niveau und das sollte amd ja mittlerweile auch erreichen können :)
 
  • Gefällt mir
Reaktionen: MasterAK und Mcr-King
Was für lecker Karten. Bei 4K nochmal 20% drauf das sind einfach traumwerte. Was bisher nicht klar ist wie sich mehr power der custom Karten plus oc noch auswirkt.
 
Wadenbeisser schrieb:
Schreib nur weiter irgendetwas um die Zeilen zu füllen in dem du nicht auf meine Beiträge eingehst sondern nur über das schreibst was zu dem von dir propagierten Weltbild passt.

Jetzt fängst du auch noch an zu lügen, na bravo.
Ich habe genau deine Spiele genommen, die du als ursächlich für die niedrigere Leistung der 5700XT in UHD genommen hast. Herauskam: Am V-ram liegt es nicht.

Ich meine dafür kann sich ja jeder die Spiele aussuchen und sie aus dem Performancerating streichen.
Ich bin also genau deiner Argumentationslinie gefolgt.

Wadenbeisser schrieb:
Doom Eternal
1.920 × 1.080 - 24%
2.560 × 1.440 - 26%
3.840 × 2.160 - 42%

Ghost Recon Breakpoint
1.920 × 1.080 - 29%
2.560 × 1.440 - 35%
3.840 × 2.160 - 48%

Horizon Zero Dawn
1.920 × 1.080 - 17%
2.560 × 1.440 - 22%
3.840 × 2.160 - 34%

Bei mir war es seinerzeit übrigens Rise of the Tomb Raider, natürlich mit max. Texturen, was aber nicht mehr Teil des Tests ist.

Ich habe genau diese 3 Spiele aus dem Parkour genommen. Tatsache ist, dass nicht das herausgekommen ist, was du behauptest.

Aldaric ---.PNG


Die Performance hat sich innerhalb der Messungenauigkeit verschoben, selbst die der Vega 64 gegenüber der Radeon VII. Warum? Weil die Bandbreite der Radeon VII durchschlägt.
Oder AMD keine Treiber mehr pflegt. Die Vega 64 liegt ja wieder leicht hinter der 1080, wo man doch von allen Seiten hörte, dass Vega so gut reifen solle.

Wadenbeisser schrieb:
Ich habe dir deine geforderten Beispiele für den Einbruch wegen Speichermangel gegeben bei dem die Karte mit mehr Speicher sich deutlich absetzen kann..

Und ich habe sie verwendet und somit deine Beispiele geprüft und es ist klar ersichtlich, dass das im Mittel völlig egal ist. 5700XT zu 3080 <1%.

Wadenbeisser schrieb:
aber offensichtlich passen sie dir nicht in den Kragen und werden natürlich konsequent ignoriert.

Naja, dann hätte ich sie oben ja nicht aus dem Rating genommen. :D

Wadenbeisser schrieb:
Es ist ja nicht so als wenn es noch weitere gegeben hätte.

Du kannst sie doch gerne aus dem Rating nehmen und es zeigen.
Ich habe vielfaches probiert, ändern tut sich nichts.
Ruckeln kann es durchaus mal, aber die AVG FPS leiden darunter im Mittel gar nicht.
 
  • Gefällt mir
Reaktionen: RogueSix
Wenn man im Leistungsrating für UHD die 5700 XT auf 100% setzt, ist die 3080 FE (non OC) genau doppelt so schnell. Das ist also die Referenz, wo AMD mit Big Navi hin muss: den Chip von der 5700 XT quasi verdoppeln.

Die 3090 wird vermutlich außer Reichweite liegen.

Die Performance ist schon gut, die Effizienz hätte ich jedoch schon etwas besser erwartet. Das kann mehrere Gründe haben:

a) der 12-nm-Prozess (optimierte 14 nm) für Turing von TSMC war einfach schon sehr gut
b) der Custom 8-nm-Prozess von Samsung läuft schlechter als ursprünglich gedacht
c) Nvidia betreibt den Gaming Ampere Chip über dem "Sweet Spot", weil sie wissen, dass AMD was reelles auf der Hand hält (mit 7nm+ Prozess bei TSMC)
d) haben ist besser als brauchen

Das Kühlsystem der FE ist schon in Ordnung. Wer auf die letzten Prozent Performance verzichten kann, stellt das PT auf 270 Watt und das Ding bleibt bei Schallemission und Temperatur im vertretbaren Rahmen. Da werden die schlechteren Custom-Designs möglicherweise miesere Werte liefert. Und ne Strix/Aorus Extreme/etc. kosten halt dann auch 100 € aufwärts mehr.
 
  • Gefällt mir
Reaktionen: fox40phil, GUN2504 und Mcr-King
Windell schrieb:
Wieso reden immer Alle von "CPU Limit" ? Irgendein Limit gibt es doch immer. Die CPUs liefern egal in welcher Auflösung genug FPS,fertig.
Weil die CPU nun mal limitiert? Warum sollte man nicht vom CPU Limit reden?

Hier nur mal drei Beispiele
Screenshot 2020-09-16 214256.png


Ich kaufe mir also eine 3080 und habe mit dem Ryzen in Borderlands 3 exakt so viele FPS wie mit der 2080Ti, tolle Wurst.

Screenshot 2020-09-16 214319.png


Hier habe ich in 1440p mit dem Ryzen sogar trotz 3080 weniger FPS als der Kollege mit dem Intel und eine 2080, noch besser^^

Screenshot 2020-09-16 214339.png
 
  • Gefällt mir
Reaktionen: adAstra, Darkscream, Esenel und 3 andere
Zurück
Oben