Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Bright0001 schrieb:
Schau mal, jetzt sind wir schon vier. :D

Mach fünf daraus. ;)
Also ohne großes Übertackten sollte es das noch stemmen können? Und bequiet haut derzeit nur die ganz fetten Netzteile vom neuen Dark Power Pro 12 raus.
 
  • Gefällt mir
Reaktionen: Bright0001
KlaraElfer schrieb:
Also jetzt muss ich lachen, du verbreitest besseren Wissens doch hier wieder reinen Unfug.

Vielleicht einfach mal die Brille absetzen um klara zu sehen?

Vergleich.PNG

Praktisch alle 8 GB Modelle brechen @UHD gleich stark ein und lediglich die Modelle mit mehr Speicher können sich absetzen.
 
Schon von den Problemen der PS5 gehört ? TSMC scheint gewaltig Probleme zu haben, 50% bekommen die aktuell nur aus einem Wafer vieleicht hatte Nvidia Angst das es bei so einem komplexen Chip Probleme gibt und Samsung hat das bessere Paket geliefert.
 
MiaSanMiaaa schrieb:
Was ist in 5 Jahren? Oder 10 Jahren? In 2 Jahren ist nicht der VRAM der Punkt, wieso du nicht mehr alle Regler auf max stellen können wirst.
Also in den letzten Jahren des Stillstands musste man nur mehr oder weniger sinnlose Dinge wie MSAA 8 auf 4 stellen o.Ä. sonst alles max. mit 1080 Ti locker möglich mit nem WQHD oder FHD Moni.
 
Taxxor schrieb:
Und schon ziemlich weit weg von den "up to 1.9x" aus der Nvidia Präsentation ^^

Bei AMD heißt es aktuell, dass das Ziel von 1.5x übertroffen worden sein soll und man mit RDNA2 eher bei 1.6x landet.

So heißt es ;D.
 
Als rx64 erschienen ist, gab es die deutlich effizientere GTX1080 seit fast zwei jahren. Die rx64 verbrauchte deutlich mehr strom bei ähnlicher Performance. Ja , dass ist schwach, enorm schwach.:confused_alt::rolleyes:

Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Lautstärke, Temperatur, Leistungsaufn...png



GTX1080 : 176Watt
Vega Rx64 : 301Watt


..und jetzt schaut euch mal die Benchmarks an :


Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Benchmarks in Full HD, WQHD und Ultra...png

...da hat sich zurecht die ganze Welt beschwert ! Zwei jahre später, fast doppelter Verbrauch und in etwa gleichschnell.

Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Lautstärke, Temperatur, Leistungsaufn...png




Klar, weniger wäre schön aber die Leistung der RTX3080 ist im vergleich mi den AMD Gpu´s brachial, deswegen kann die karte bei der sagenhaften Performance auch etwas mehr ziehen.
Der Vergleich mit Vega ist somit komplett für die katz !

Vega verbrauchte enorm viel, leistete aber nichts !

Performance Pro Watt :

Rx64 ; 42,3%
GTX1080 ; 73,2%

RTX3080 ; 100%
 

Anhänge

  • Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Lautstärke, Temperatur, Leistungsaufn...png
    Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Lautstärke, Temperatur, Leistungsaufn...png
    36,3 KB · Aufrufe: 343
  • Gefällt mir
Reaktionen: MrNejo, Mike_MTL und Ctrl
Kann man im nvidia software den Powerlimit für jedes Spiel abweichend einstellen?
Macht kein sinn cs esports Titel mit vollem tdp und 1000 fps zu spielen... Oder limitiert da der cpu?
 
Einerseits klingt es gut. Aber bei 270 Watt sind es 8% Mehrleistung im Vergleich zur 2080TI. Das ist nicht gerade wesentlich mehr. Vor allem, wenn die 3070 auf ungefähr dem gleichen Niveau nur 220 Watt braucht. Klar sind in der Betrachtung der Speicher und die zusätzlichen Features wie DLSS und Raytracing nicht enthalten, die bei den neuen Modellen ja auch sich weiterentwickelt haben.

Ciao
 
Pisaro schrieb:
Anderes Beispiel in meinem Fall: Ark. GTX 1080 Ti 11GB vs. RTX 2080 Super 8GB. Die 2080S bringt eigentlich immer höhere FPS, bringt mir nur in diesem Fall nichts wenn die 8GB am Anschlag sind und so Microruckler/sehr schlechte Frametimes entstehen im Vergleich zu der 1080 Ti ;)
Hallo Birne hier Apfel...

10GB vs 11GB

da waren wir.
11GB vs. 8GB... das es da ehr zu "Problemen" kommen wird und die min. FPS, Frametimes durch den viel krasseren Unterschied leiden... das ist,ich zitiere mal Spock "logisch"!
Wer hier rumheult 11GB... 10GB zu wenig... der ist mMn Banane.

MfG
 
  • Gefällt mir
Reaktionen: Mike_MTL
Renegade334 schrieb:
Ohne extremes OC sollte das kein Problem sein. Lass dein System ohne GPU mal 150W verbrauchen, dann hast du immer noch 400W für GPU und 50W Spitzenlast (Kurzzeitig darf das Netzteil bis 600W belastet werden) über.
Und das wirst du wohl selbst mit Benchmarks nicht erreichen, geschweige denn im Normalbetrieb.

//edit: Wenn ich mir das Video von Igor anschaue sieht es eher nach 100W System und 450W GPU aus :)
Aber trotzdem hat man noch 50W Reserve (laut beQuiet für 30 Sekunden + die minispikes werden vermutlich schon von den Kondensatoren abgefangen).


ich war schon am googlen, was für ein Netzteil ich brauche. Aber jemand anderes hier hat ja schon erwähnt, man sollte es probieren. Ok ich probiere.
 
CrustiCroc schrieb:
Ihr müsst echt nen mega Hate gegenüber Nvidia haben, oder seid einfach nur neidisch auf die geile Leistung die euch die Konkurrenz nicht bieten kann.
Hate? Ich bitte dich.. aus dem Alter bin ich raus.

Du weißt doch garnicht was AMD für Leistung bringen wird also was soll dieses kindische verhalten ?

Ich schrieb: Wenn man sich Mal die WQHD Ergebnisse anschaut ist der Vorsprung gegenüber der rtx 2080 TI ernüchternd. Nichts anderes sagt der Test auch aus wenn man sich die Ergebnisse bei WQHD anschaut

Und das vermittelt der Test auch einen , auch wenn wir wissen das hier der ryzen limitiert. Aber ein Großteil hat eben eine Zen 2 CPU also lohnt sich der Umstieg nicht und das schrieb ich auch so in meinen Beitrag.

Also zitiere mich bitte richtig oder unterlasse dein kindisches provakantes verhalten mit Wörtern wie "hate" und "Neid"
 
  • Gefällt mir
Reaktionen: Kalsarikännit, Tzk, Benji21 und 4 andere
Für 600,- Euro bin ich mit einer 3080 dabei.
Turing zu überspringen hat sich gelohnt.
Heute wird sich doch jeder 2080 Ti - Besitzer schwarz ärgern.
 
  • Gefällt mir
Reaktionen: psychotoxic und Mike_MTL
Pisaro schrieb:
Was für ein extrem, wirklich extrem dummer Vergleich. Das heißt also das eine GPU-Generation immer mehr ziehen darf wenn sie schneller wird? Sehr gut, dann viel Spaß mit GPUs die irgendwann über 1K Strom ziehen.


Wenn ich dafür die Entsprechende Leistung bekomme und diese auch Benötige klar wieso nicht?
1000€ Strom im Jahr sind 83€ im Monat...wenn ich mich da aufrege müsste ich erstmal das rauch aufhören was mich 200€ im Monat Kostet, von daher...

Es ist immer eine Persönliche Sache und Einstellung und vor allem auch eine Sache des Geldes was man hat im Monat...wenn ich bei ALDI an der Kasse hocken würde, dann hätte ich zu diesen dingen bestimmt auch eine andere Einstellung, aber da ich zum Glück in der Schule aufgepasst habe "erlaube" ich mir so einen Luxus einfach ;)

Jeder wie er mag!
 
T670i schrieb:
Ich zum Beispiel. :D Ja die 330W werden knapp mit meinem E11 550W.
Da mein 3700X aber kein Schluckspecht ist, müsste das gerade so gehen.
Aber zur Not eben das Powerlimit auf 270W begrenzen.

Ist nur die Frage ob die extrem kurzzeitigen Lastspitzen nicht zum Abschalten des Netzteiles führen, da nimmt die 3080 auch einfach mal knapp über 400 Watt.
 
Zock schrieb:
Schon von den Problemen der PS5 gehört ? TSMC scheint gewaltig Probleme zu haben, 50% bekommen die aktuell nur aus einem Wafer vieleicht hatte Nvidia Angst das es bei so einem komplexen Chip Probleme gibt und Samsung hat das bessere Paket geliefert.
Quelle?
 
Neo772™ schrieb:
Nein das ist Quatsch, da Nvidia damals die 80er die Top Modelle waren.
Zudem waren die Verkäufe bei Turing einfach enttäuschend
Die 1080 Ti kam doch lediglich verzögert, 80er Tis gab es ja schon vorher.

Und die 2080 Ti kam gleichzeitig mit der 2080, nach deiner Logik hätte die 2080 also deutlich günstiger als die 1080 sein müssen - sie war aber teuer.
Jetzt kommen beide Modelle wieder gleichzeitig, die 3080 ist aber deutlich günstiger als die 2080 - das lässt sich doch nur durch Konkurrenzdruck erklären - dass Nvidia kein Wohlfahrtsverein ist sollte ja spätestens seit dem Preis der 2080 Ti klar sein.

Vexz schrieb:
Ja, aber das ist nur die halbe Miete. Die 3090 wird AMD wohl nicht schlagen können. Es gibt genügend Leute, die richtig viel Asche für die maximale Performance ausgeben werden, weshalb die 3090 dennoch so viel teurer sein wird.
Ja, die 3090 ist wieder ein anderes Thema, an dem Preis sieht man schon, dass AMD da keine Chancen eingeräumt werden.
 
MarcoMichel schrieb:
Ich werde noch eine Generation warten müssen, bis ich mit 3 Stück 4K-Bildschirme auf 60 hz vernünftig zocken kann. Denn die Grafikkarte müsste dafür ziemlich genau das Dreifache an Leistung haben, was heute eine 5700XT hat. Die nächste 4090er Generation könnte also für mich in Frage kommen. Da ich besimmt keine 1400,- Euro für eine Grafikkarte ausgebe, könnte es erst eine 5080er sein, mit man mit 3 Stück 4K-Bildschirmen auf 60 Herz vernünftig zocken kann. Das dauert noch ca. 5-6 Jahre. Mist
und es müsste Spiele geben die das unterstützen... in Masse.
Aber erstmal die Hardware! :freak:

MfG
 
Matthias80 schrieb:
Wer hier rumheult 11GB... 10GB zu wenig... der ist mMn Banane.

Das ja. Sollte nur Aufzeigen das Speicher nicht so unwichtig ist. Dennoch kannst du 10GB schon jetzt an die Kotzgrenze bringen. Da macht es meiner Meinung nach keinen Sinn jetzt eine 10GB GPU zu kaufen.
 
  • Gefällt mir
Reaktionen: pr1m371m3, Derenei, Otsy und eine weitere Person
MiniM3 schrieb:
Kann man im nvidia software den Powerlimit für jedes Spiel abweichend einstellen?
Macht kein sinn cs esports Titel mit vollem tdp und 1000 fps zu spielen...
Limitiere doch einfach die FPS in den Spielen, dann geht die Leistungsaufnahme automatisch mit runter
 
  • Gefällt mir
Reaktionen: adAstra, MiniM3, Tzk und 2 andere
Ich finde das Fazit fällt zu positiv aus. Wäre da nicht der vergleichsweise günstige Preis, wäre es vermutlich anders ausgefallen.

Dass die neue Grafikkarte trotz neuer Architektur und Fertigung nur 10% effizienter ist als der Vorgänger, ist ein Armutszeugnis für Nvidia. Dass die extrem hohe Leistungsaufnahme nicht wirklich kritisiert wird, verstehe ich nicht. Bei einer neuen Generation erwarte ich zumindest 30% Mehrleistung bei gleicher Leistungsaufnahme. Hier gibt es dieses Leistungplus bei 18% höher Leistungsaufnahme. Übertaktet man die 2080TI, sieht es noch schlechter für die 3080 aus.

Die Technik ist echt enttäuschend. Einzig der Preis rettet die Karte noch.
 
  • Gefällt mir
Reaktionen: M4deman, Benji21, aldaric und eine weitere Person
Zurück
Oben