Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
Vermutlich hat man einfach nur die AMD-Plattform genommen, weil man auf die next-Gen-Ryzen setzt, vermutlich kann man dann auch diesen GPU-Test nochmal machen und das sieht dann nochmal ganz anders aus - keine Ahnung ?!?
Das ist eben nur eine normale zu erwartende Steigerung für eine neue Generation. Nicht das wie es doch so großartig überall vorher angekündigt und prophezeit wurde. Genau das ist der Punkt warum ich es ernüchternd finde. Ich habe einfach mit mehr gerechnet.
Vor allem je nach game auch weniger als die 30%, teilweise nur 20% und bei 1440p sowieso weniger. Ich habe schon mit 40-45% on top zur 2080Ti gerechnet, das ist mir der höhere Stromverbrauch wirklich nicht wert, ich warte mal ab wie billig man ne 2080Ti abstauben kann, für 400 Euro würde ich wohl zuschlagen.
, Du hast mir da halt paar Sachen verbunden und dann das Wort "Logik" mit ins Spiel gebracht. Bin ein grosser Freund der Logik und das hat mich dann dann schon bisschen getriggert.
Sehe es einfach mal so. Ich hab jetzt 5 Jahre mit einer ollen R9 390 durchgehalten. Und jetzt gibts endlich das Upgrade.
In 5 Jahren koennen wir das Thema dann noch einmal aufgreifen.
Super Test! Vor allem das Ergebnis für das auf 270W reduzierte Powertarget ist extrem interessant. Man darf sich schon fragen, warum Nvidia sich, scheinbar grundlos, zu so einer relativ extremen Maßnahme genötigt sah. Normalerweise kennt man das eher von AMD, die damit versuchen, in der Leistung irgendwie an die Konkurrenz heranzukommen.
Ich bin nun wirklich auf die AMD-Karten gespannt. Die 3080 liefert ziemlich exakt 100% mehr fps als die 5700XT. Schafft AMD das zu erreichen? Und wenn ja, zu welcher Effizienz? Die 5700 XT liegt noch ein ganz gutes Stückchen hinter der 3080 - selbst wenn die auf 320 Watt geprügelt wird. Oben drauf kommt dann noch das extrem starke DLSS. Ein harter Brocken, möchte man meinen - und dennoch sieht man hier einen verdächtig günstigen Preis und eine ungewöhnlich extreme Referenzeinstellung.
Für mich steht auf jeden Fall ein Upgrade an. Meine Vega 64 wird hier mittlerweile um etwa das 2,5-fache übertroffen, und zumindets bei der 3080 ohne drastisch gestiegenen Stromverbrauch (300 vs 320 Watt). Mal sehen, welches Modell es dann am Ende wird. Sehr spannend alles, gerade
Das hat ja mit dem verhältnis untereinander zu tun. Wenn eine Karte in 4K ihre shader maximal auslasten kann und so 40% vor einer anderen Karte mit weniger Shadern liegt, kann es ihr in 1440p auch passieren, dass sie die shader nur noch zu 90% auslasten kann, weil die Architektur schlicht mehr daten braucht um maximal ausgelastet zu sein und sich so der Abstand auf 35% verringert, ganz ohne VRAM Limitierungen.
Wenn jetzt aber ein CPU Limit den Abstand bereits auf 30% schrumpfen lässt, kann man dahingehend nichts sagen.
Nett, aber noch lange nicht "DA" wo ich hin will als RTX 2080TI Besitzer...
Der Verbrauch wird von den vereinigten Staaten von Europa sicherlich auch noch reglementiert,
sodaß das Ziel sein muss die gleiche Leistung bei halben Stromverbrauch zu liefern.
Solange kann ich zum Glück warten...
Danke für den Test. Tolles Stück Hardware. Bin schon auf die 3090 und 3070 gespannt. (bzw. auch auf die AMD-Karten). Hoffentlich geht was weiter bei der Performance.
Grandioses stück Hardware und die beste (RTX3090/RTX3080Ti) kommt noch !
16Gb bekommen Karten ala RTX3080 mit hoher wahrscheinlichkeit "kurz" nach Release von RDNA2 spendiert.
Wie gesagt, hätte die GPU direkt 16Gb bekommen, könnte AMD nur schwer kontern. Unmöglich !
Wie gesagt eine RTX3080 direkt mit 16Gb würden reichen, jetzt kommt aber erstmal RDNA2 mit 12 oder 16Gb und erst dann legt NVIDIA nach.
NVIDIA ist so weit vorne seit jahren, sie könnten AMD schon längst begraben aber das machen Sie nicht und das ist auch gut so.
"Stromspitzen" sind kurz, die 3080 ist doch sehr "konstant" bei diesen Stromspitzen.
Der Verbrauch ist ein riesen Fail von Nvidia.
270W bei 95% der Leistung, ist Nvidia das neue AMD?
Igors Grafik zeigt aber microsekunden oder waren es gar nanosekunden genau den Stromverbrauch an, ohne eine Vergleichsgrafik zu anderen Grafikkarten ist das halt nicht sonderlich aussagekräftig. Aber ja, unter 650W oder besser 750W wenn die CPU übertaktet und hungrig ist, sollte man sich keine 3080 einbauen, schon gar keine mit 3 8 Pin wie bei vielen Boardpartnern, da wären wohl 800 besser.
Das hat ja mit dem verhältnis untereinander zu tun. Wenn eine Karte in 4K ihre shader maximal auslasten kann und so 40% vor einer anderen Karte mit weniger Shadern liegt, kann es ihr in 1440p auch passieren, dass sie die shader nur noch zu 90% auslasten kann, weil die Architektur schlicht mehr daten braucht um maximal ausgelastet zu sein und sich so der Abstand auf 35% verringert, ganz ohne VRAM Limitierungen.
Eher wirft es die Frage auf, was Nvidia von AMD erwartet, wenn sie mal eben 50W mehr draufhauen für 4% Mehrleistung, gebraucht hätten sie es, nach der Meinung vieler hier, nicht da AMD ja sowieso nur 3070 Performance bringen soll^^
Leider war das 2x schneller wirklich nur auf RT Leistung bezogen. DLSS ist eine nette Technik die zukünftig sicherlich gut im kommen sein wird (2-4 Jahre), aber wenn man nicht die mittlerweile 7 Spiele die es unterstützen spielt, ist es komplett irrelevant.
Alles in allem, bei 270Watt gedeckelt, eine starke Karte die bei mir zwar nicht über RT oder DLSS, aber über die anderen Features wie RTX Voice punkten kann. Der Preis der FE ist löblich, die 320W übertrieben und die Mehrleistung zu den 270W fürmich kaum interessant.
Ich warte definitiv auf das was AMD zu bieten hat, auch wenn ich aufgrund der obgenannten Softwarelösungen, die für mich interessant sind, vermutlich selbst bei Gleichstand an Leistung dieses Mal eine Nvidia bevorzugen könnte.
Ein Stock 3900X ist halt realistischer als ein Cherry Picked Golden Sample 10900K Ultra OC Monster was nur der eine Glückspilz besitzt.
So ein Test wäre dann wie Aussagekräftig?
Selbst ein 9900K/10700K wäre da schneller gewesen, ein goldener 10900K muss es noch nicht mal sein.
Ich werde die 3080 wahrscheinlich undervolten wenn ich denn irgendwann eine habe. Dauert noch bis nächstes Jahr, momentan geht das ganze Geld für die Fahrschule flöten. Aber mal sehen was es bis dahin sonst noch so an Grafikkarten geben wird.
Igors Grafik zeigt aber microsekunden oder waren es gar nanosekunden genau den Stromverbrauch an, ohne eine Vergleichsgrafik zu anderen Grafikkarten ist das halt nicht sonderlich aussagekräftig. Aber ja, unter 650W oder besser 750W wenn die CPU übertaktet und hungrig ist, sollte man sich keine 3080 einbauen, schon gar keine mit 3 8 Pin wie bei vielen Boardpartnern, da wären wohl 800 besser.
Also unterm Strich 15% Mehrleistung bei ähnlichem Stromverbrauch.
RT läuft jetzt annehmbar und DLSS reißt es raus.
Wenn man die "brachial" höheren Leistungsdaten anguckt, dann ist die Architektur wohl am Limit, auch wenn einiges optimiert wurde und in Zukunft wieder ausgebaut werden kann (wie Anzahl Tensorkerne).
Auch über Taktfrequenz ist ja anscheinend nichts machbar.
Zum Glück konnte nvidia den kleineren Strukturprozess nutzen und hat den Chip gute 20% verkleinern, spart Geld, auch wenn 8nm teurer sind.
Immerhin der Preis ist jetzt wieder im Rahmen und ich denke AMD wird ein ähnlich starkes Produkt in dem Preissegment anbieten (sonst hätte nvidia mehr als 699 verlangt).
Nein. Nachdem Nahrungsmittel sich explizit auf WQHD bezogen hat, habe ich auch die entsprechenden Werte genannt. Die 2080 ist in 1440p im Schnitt 28% schneller.
Das ist das Luxusproblem für 2080Ti Besitzer und das Dilemma in Games, die eine 2080Ti in Ultra auch schon in die Knie gezwungen haben.
Aus 50 fps werden dann auch nur noch 60-65 fps. Wer wechselt dafür die GPU aus?
Eine 2080Ti Waterforce ist dann auch nur noch 10% bis 15 % hinter einer 3080.
Die Hoffnung war, dass man auch mit einer 2080Ti quasi "blind" zur 3080 greifen kann, weil der Sprung so heftig wird. Das ist nun nicht der Fall, und damit bleiben nur eine 3080Ti, sofern sie denn kommt, oder die 3090, mit dem entsprechenden Preisaufschlag.
Im übrigen finde ich es bitter, dass die CPUs jetzt hier der Flaschenhals werden.
Die Nvidia Fans haben Navi wegen dem Verbrauch schlecht gemacht und behauptet, dass Nvidia viel besser sein wird, wenn sie ihre Karten in 7nm (bei Ampere ist es 8nm) raus bringen werden. Tja davon sieht man nicht viel, wenn überhaupt.
Abwarten was AMD zu bieten hat. Die kochen auch nur mit Wasser und das ist AMD.
Ich denke Big Navi wird langsamer als die 3080. Entweder wird sie nur günstiger oder sie kommt mit 16GB - das wäre wichtiger als ein paar Prozent mehr Performance
Inwiefern verschwendet ein dickes Netzteil mehr Strom als ein kleines?
Wenn das System 350 Watt verbraucht, dann tut es das mit einem 500 Watt Netzteil genau so wie mit einem 1000 Watt Netzteil.
Tendiere mittlerweile immer zu größeren Netzteilen. Nicht nur weil diese Zukunftssicherer sind, sondern auch weil es mir lieber ist das mein Netzteil nur mit 60% statt mit 90% Auslastung arbeitet.
Persönlich finde ich das aber auch als eher nebensächlich.
Cpt.Willard schrieb:
Vermutlich hat man einfach nur die AMD-Plattform genommen, weil man auf die next-Gen-Ryzen setzt, vermutlich kann man dann auch diesen GPU-Test nochmal machen und das sieht dann nochmal ganz anders aus - keine Ahnung ?!?
Dann müsste man die ganzen Tests doch sowieso alle neu laufen lassen, eventuell mit neuem BIOS, neuem RAM OC etc, damit man hier die verschiedenen Variabeln eingrenzen kann.
Falls es interessiert, Gamer's Nexus hat da erst neulich ein ausführliches Video zu gemacht.
Eher wirft es die Frage auf, was Nvidia von AMD erwartet, wenn sie mal eben 50W mehr draufhauen für 4% Mehrleistung, gebraucht hätten sie es, nach der Meinung vieler hier, nicht da AMD ja sowieso nur 3070 Performance bringen soll^^