Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Ach wie ich für dieses Forum mittlerweile eine Hassliebe empfinde . Fast in jedem Thread mach sich User dumm an, Zweifel an der Intelligenz des anderen. Das geht dann über mehrere Seiten und da zwischen sind User die machen das gleiche......
Jeder denkt er hat die Weisheit mit Löffeln gegessen.....
Wenigstens bleibt man hier beim Thema, nicht wie in anderen Threads wo die Diskussionen immer dann ins Nirvana gehen.

Zum eigentlichen Thema....
Was NV abgeliefert hat ist echt mal eine ansagen und danke für den guten Test.ich werde dennoch warten was AMD an den Start bringt. Den tot gesagte Leben besagt Länger.
Muss das den immer so eskalieren
 
Smartin schrieb:
Nee die Behauptung war, Leute kaufen sich kleinere Netzteile, weil Leute ihnen empfehlen, dass diese ausreichend seien. Das was Du behauptest, habe ich nicht gesagt. Du hast das reingebracht. Kannst ja dann happy sein, mit Deinem kleinen NT das an der Kotzgrenze läuft. Darum ging es. Um nichts anderes.
Seit mir 2014 mal ein Netzteil explodiert ist und ausgebrannt, mit Sicherung raus in der Wohnung (für den Sgtromkreislauf Büro) etc, habe ich Paranoia. Seitdem kaufe ich 750-850 Watt, immer, und mindestens Platinum Wirkungsgrad.

Dass man am Netzteil spart, habe ich seitdem nie mehr verstanden.
 
  • Gefällt mir
Reaktionen: Smartin
KLEMSI schrieb:
Dollarkurs ist halt schlecht...
Startpreis in $ war bei der 2080 699,- und sind nun bei der 3080 699,-.
Ich versteh den Hype nicht... Und die letzte billige Grafikkarte war die 5870 um 300,- Euro!
Wie kann man den Hype nicht verstehen, wenn man jetzt die doppelten FPS pro € bekommt?
 
  • Gefällt mir
Reaktionen: Celinna, McFritte und .Sentinel.
Smartin schrieb:
Nee die Behauptung war, Leute kaufen sich kleinere Netzteile, weil Leute ihnen empfehlen, dass diese ausreichend seien. Das was Du behauptest, habe ich nicht gesagt. Du hast das reingebracht. Kannst ja dann happy sein, mit Deinem kleinen NT das an der Kotzgrenze läuft. Darum ging es. Um nichts anderes.
jo das is eh das beste das ich nicht auf die leute hier gehört hate und mir direkt nen 850w statt 550w geordert hatte, jetzt brauche ich kein neues netzteil und freue mir nen ast ab :D

nen netzteil reicht 10 jahre..war doch iwie klar das irgendwann ne komponente kommt die ordentlich saft zieht...
 
  • Gefällt mir
Reaktionen: Smartin
Taxxor schrieb:
Wirtschaftlich wäre gewesen beim 9900K zu bleiben bis Zen 3 kommt.
Klar, man richtet das GPU Testsystem auf ihrend ein CPU Release aus.... Nicht.

Es brauchte das ganze neue Testequipment und mehr noch Test selbst um im heißen GPU Herbst viele neue Karten mit neuen Features wie DLSS, Raytracing und PCIE 4.0 zu testen. Fertig.

Wann Zen 3 kommt ist dabei vollkommen irrelevant.
 
Gibt es von AMD analog etwas zu Nvidia Inspector oder takten AMD-Karten auch wieder korrekt herunter, wenn da ein 240Hz Monitor dran hängt? Meine 2080ti macht das ohne Power Screen Saver nämlich nicht.
 
BxBender schrieb:
Im Prinzip kann man die 3080 einfach als eine um 30% hochgedrehte Version der 2080 Ti sehen, quasi eine 2080 Ti Super Duper. ^^
Auf 270W ist sie aber 20% schneller als die 2080Ti, sieht man in dem CB Test recht gut wo beide bei 270W verglichen werden. Effizienz hat sich schon gesteigert aber nicht so extrem wie Nvidia das angedeutet hatte.(Glaube die haben die Karten bei 180W verglichen oder so und kamen da auf ihren 1,9x effizienter claim...

Fazit: könnte ne sehr effiziente Karte sein aber Nvidia will vor allem ne sehr performante Karte, Effizienz ist denen scheiß egal, wollen nur nicht von AMD überboten werden in den FPS und da rechtfertigen 4% Mehrleistung eben auch 50W mehr Leistungsaufnahme...

Bin gespannt was die Overclocker so aus Partnerkarten rausholen, es wirkt ja, als würde der Chip eh schon nahe dem Limit laufen.
 
Ich tue mich schwer mit dem Vergleich der FEs - bei der 3080 nun ist jetzt wieder die Rede, dass diese deutlich im Preis gefallen ist (-18 %), aber ist das richtig?

Der Preis der 2080 FE war eben auch deutlich höher (799 $) als der Launchpreis der Standard-Variante (699 $). Man könnte also auch sagen, dass der Preis einfach gleich geblieben ist, für die FE der 3080 aber kein Aufpreis verlangt wird.

Bleibt die Frage offen, wieso der €-Preis der 2080 damals so viel höher war. Ein Grund ist sicher die niedrigere MwSt aktuell und ein anderer $/€-Kurs
 
Laphonso schrieb:
Also ich muss Leasing, Steuern, Versicherungen und Benzin und Parkplatzmiete etc zahlen.

Nehmen wir Strom mit rein und sagen einfach mal fett 2000.
Welche Marke schafft das unter 2000 Euro in 2 Jahren inkl. der der Fixkosten??
Bin echt gespannt ;)

ich bezog mich da eher auch mehr Spaß mit der GPU als mit dem Fzg, das will und kann ich nicht glauben :D
 
DrFreaK666 schrieb:
Und dein Link führt nicht zur NDA ;)
Aber das ist eigentlich unwichtig

Korrekt. Ist auch gar nicht Möglich. Die Ausgangsfrage wurde damit allerdings beantwortet. Warum man nach der Einsicht des NDA´s fragt bleibt mir schleierhaft.


Reset90 schrieb:
ich hatte @Pisaro nach nem link gefragt, wo das NDA einsehbar ist. da kam dann aber nicht mehr viel

Du hattest gefragt warum nur eine RTX 3080 dabei ist und keine andere Karte. Darauf meinte ich einfach mal aufs NDA gucken. Gibst du dann "RTX 3070 NDA" bei Google ein siehst du WANN die anderen Karten getestet werden, kommen.

Das das NDA nicht einsehbar ist sollte klar sein. Deine Ausgangsfrage war wo die anderen Karten bleiben, genau das habe ich beantwortet.
 
Krautmaster schrieb:
Klar, man richtet das GPU Testsystem auf ihrend ein CPU Release aus.... Nicht.

Es brauchte das ganze neue Testequipment um im heißen GPU Herbst viele neue Karten mit neuen Features wie DLSS, Raytracing und PCIE 4.0 zu testen. Fertig.

Wann Zen 3 kommt ist dabei vollkommen irrelevant.
Welches ganze neue Testequipment? Ein anderes Board und eine andere CPU, die beide sowieso bei CB rumliegen.

Ein GPU Testsystem sollte man danach ausrichten, was es tun soll, nämlich GPUs maximal zu befeuern und dafür hätte hier ein 10900K rein gehört, bzw bei jedem neuen CPU Release die CPU des GPU Testsystems auf die stärkste gewechselt.
Genauso wie man für das CPU Testsystem jetzt auf eine 3090 setzen müsste um im Oktober Zen3 zu testen.

Für PCIe 4.0 Tests hätte man sich einen 3900XT nehmen können und einfach mal 2-3 Spiele mit der 3080 benchen können, hätte gesehen dass es keinen Unterschied macht und dann alles weitere auf dem 10900K System oder sogar dem bisher verwendeten 9900K Testsystem machen können und hätte weniger CPU Limits in der GPU Tests gehabt.
 
  • Gefällt mir
Reaktionen: adAstra, Setting, Esenel und 2 andere
Payne19 schrieb:
Aber niemals in irgendwelchen AAA Games von sagen wir mal 2015 bis 2020.

8k60 mit DLSS vielleicht in solchen Games wie Spyro oder Lego City/StarWars.
In solchen Spielen macht DLSS überhaupt keinen Sinn!
Das macht vor allem bei großen, bekannten und hardware fressenden Titeln Sinn! Und muss ja auch für jeden einzeln vorhanden sein.
 
Näher an der Wahrheit geht nicht:

GeForce RTX 3080 Launchreviews: Die Testresultate zur UltraHD/4K-Performance im Überblick


basierend auf 18 ausgewerteten Launchreviews zur GeForce RTX 3080 FE ( gesamte ausgewertete Benchmark-Anzahl: ca. 1910)

https://www.3dcenter.org/news/gefor...ltate-zur-ultrahd4k-performance-im-ueberblick

Also nix mit twice the performance as 2080 aber das war voher schon klar. Jetzt können die üblichen Verdächtigen wieder mit Cherrypicking weitermachen.
 
  • Gefällt mir
Reaktionen: chrunchinut
danyundsahne schrieb:
Wenn Zen3 rauskommt dann ändert sich wohl vieles....ST/Gaming Leistung ist dann auf Intel Niveau oder drüber UND es gibt noch PCIe4 dazu.

Willst dann immer noch auf Biegen und Brechen auf Intel setzen?
Natürlich nicht. Eine gute Redaktion setzt das Ding unter Wasser, noch besser unter Trockeneis, paart das mit abartig schnellem Speicher und engsten Timings und stellt somit sicher, dass in einem GPU Test die CPU eine möglichst geringe Rolle spielt.

So wird das gemacht. Ihr kapiert nicht, dass es bei einem Grafikkartentest nicht um CPUs geht!! Es geht nur darum das maximal schnellste dahinterzuklemmen um den Einfluss bzw. die Einschränkung für die Grafikkarte möglichst gering zu halten.

Das muss doch langsam mal einleuchten: GPU Test - Nicht CPU Test!
Wie willst Du wissen, wie schnell eine GPU ist, wenn Du sie nicht auslasten kannst?
 
Zuletzt bearbeitet:
Taxxor schrieb:
Ein GPU Testsystem sollte man danach ausrichten, was es tun soll, nämlich GPUs maximal zu befeuern und dafür hätte hier ein 10900K rein gehört.
Der limitiert genauso gnadenlos unterhalb UHD Auflösung
 
  • Gefällt mir
Reaktionen: ahuev0, McTheRipper und Celinna
Kenjiii schrieb:
Wie kann man den Hype nicht verstehen, wenn man jetzt die doppelten FPS pro € bekommt?

Ist doch bei jeder neuen Generation das Gleiche... Steigerungen um die 50%!
Und wenn du von Verdoppelung sprichst, dann hast du den Test nicht gelesen...
 
BelneaHP schrieb:
@Vendetta: Dafür brauchst Du sowas wie MSI Afterburner. Damit sinds dann wirklich nur 3 klicks und das wars. Noch effektiver wird aber sicherlich undervolting sein.
Das wundert mich ja, undervolting geht angeblich noch nicht über afterburner(hab ich von einem Youtube Video gehört).

Bei meiner Asus 1070Ti Grafikkarte kann ich auch nicht undervolten(ist ausgegraut beim Afterburner). Würde mich wundern, wenn die FE das zulässt. -Aber das Power Limit runterschieben, da geht der Boost Takt auch in den Keller aber der Stromverbrauch ebenso(gemessen an der Dose).
 
Zurück
Oben