Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
Dann mal die Augen nach den RTX 2070(S)/2080 aufhalten. Reicht für mich von der Leistung her und ich muss kein neues NT kaufen. Für max. 350€ sollte da die Tage was gehen
Darf die RTX 3080 morgen dann erst um 15:00 Uhr verkauft werden oder auch schon früher? Ich frage mich gerade wie die das dann in den Shops machen, stehen da irgendwelche Security Personen vor dem Regal und bewachen die Grafikkarten? Oder kommt pünktlich um 15:00 Uhr Panik auf, weil man zusätzlich Personal angeheuert hat [400,00 Euro Kräfte!] die dann erst die Grafikkarten ins Regal einräumen? Bei den Online Shops ist das ja kein Problem, aber wie ist es denn in den Kunden Shops vor Ort?
Und dann hast du immer noch kein RayTracing und DLSS...könntest mir schenken würd ich nicht einbauen...die Features sind bei NV einfach zu Stark als Gesamtpaket...da Zahl ich auch gern 1800€ für ne 3090 und habe wieder 5 Jahre + ruhe so wie jetzt noch mit 2600K und 980 Ti
Etwas unter meiner Erwartung bei "nur" 30% besser als die 2080ti
Nach der Ankündigung mit "twice as fast" als die 2080S schon ein Dorn im Auge, das dann nur mit RT abzuliefern.
Linus hat das in seinem Video auch aufgedröselt.
War doch logisch. Wer eine getunte 2080 Ti hat die von Haus aus overclocked ist wie die Asus Rog Strix hätte sogar nur knapp ~15% zuwachs, würde dafür aber Spulenfiepen und ein deutlich schlechteres und lauteres Kühlkonzept in Kauf nehmen.
Einzig bei Raytracing und DLSS hätte man etwas Mehrleistung aber da man die Spiele an einer Hand abzählen kann ist das aktuell nicht wirklich erwähnenswert.
Ich bin hier raus und schau mal welches Feuerwerk die 3090 startet
langer test, kurzer sinn. als 4k ultra aaa enthusiast ist die 3080, wie die 2080ti damals, schon ab release sehr sehr sehr enttäuschend... fps im bereich von 45 - 67... holy shit ist das enttäuschend... und casuals haben mich ausgelacht, als ich sagte, dass ich unbedingt ne 3090 brauche und diese ab tag 1 komplett auslasten werde.
Ich fürchte fast, ich muss zur 3090 greifen, wenn ich die 4K120 ausnutzen möchte. Die 2080 Ti schafft es zwar mit minimalen Details, einigermaßen die 100 FPS zu halten, aber der Qualitätsverlust ist eben enorm. Mal schauen, was die 3090 liefern wird.
Die 3080 ist jedenfalls anständig für den Preis, wenn natürlich immer noch teuer, wenn man bedenkt, dass man früher für ähnliches Geld (GTX-Zeiten) teilweise die Sperrspitze bekommen hat. Aber gut, ist leider so, und ist auch nicht nur bei GPUs so.
Aber dass der Kühler scheinbar brauchbar ist, ist schon ein gutes Zeichen. Der der 3090 ist nochmal eine Nummer größer.
Wenn die 3090 ähnlich gut abschneidet, dann wirds interessant. Wenn die 40% schneller wie die 2080 Ti ist, werde ich weitersehen, ob es das mir wert ist.
Hmm ... ich als alter Vega Veteran wurde mal gerne die GPU Spannung sehen .
Nvidia hat sich sicherlich die AMD Spannungskeule ausgeliehen und ballert 1,15-1,2 volt drauf .
Ich gaube wenn man die auf 1,050 V (oder sogar 950 mV ) betreibt könnte die Karte richtig gut sein und nur
10-15% Leistung verlieren . Aber halt richtig effizent und kühl sein.
Selbst meine 5500XT konnte ich mit 850mV @ 1700Mhz Manieren beibringen
ähm, die 1080Ti hatte eine TDP von 250W und die 1080FE eine von 180W, du vergleichst also mit untertakteten und damit tendenziell effizienteren Modellen? Die normale Vega64 war bei knapp unter 300W.
Wenn du den Test wirklich gelesen hättest, wüsstest du das die Performance / Watt und somit die Effizienz gegenüber Turing und erst Recht gegenüber AMD´s Pseudo 7nm Prozess stark verbessert wurde
Na dann denk mal scharf nach, vielleicht kommst ja selber drauf, warum der Vergleich mehr als hinkt (Hint: Effizienz und Leistung spielen auch eine Rolle).
Aber schon interessant, dass man wegen 5% gleich 50W mehr reinballert.
wenn ich mir die leistungsaufnahme anschaue finde ich den kühler alles andere als enttäuschend
denke nicht dass die customs viel besser sein werden
ich bin mir sicher die fe wird zu den bestens designs gehören
Im Grunde genommen egal, was AMD auf die Strasse bringt. Am Ende gewinnt DLSS Technologie. Die ist inzwischen einfach zu gut, um darauf zu verzichten. RTX IO klingt bisher zumindest auch ziemlich gut, auch dafür muss AMD was bieten. Wenn die das nicht haben, müssen die im Preis noch viel weiter runter, trotz vielleicht gleicher Performance.
Und was, wenn man jetzt eine 3080 für 700 kauft und in 2-3 Jahren eine 4080, welche über 3090 liegen wird, für erneut 700 oder so? Billiger, mehr Leistung über 5 Jahre....
Dann mal die Augen nach den RTX 2070(S)/2080 aufhalten. Reicht für mich von der Leistung her und ich muss kein neues NT kaufen. Für max. 350€ sollte da die Tage was gehen
Ja noch weniger um die 300€ wirst du bald eine RTX 2080 bekommen, hab mir selber ne gebrauchte für 350€ vor kurzem ergattert, P/L gibt es nichts besseres erstmal.
Ampere säuft und arbeitet dafür, Vega säuft und gammelt. Man sieht am Performance-pro-Watt ( Auch bekannt als "Effizienz")- Chart recht schön, warum das ne richtige Gurke für Gamer war.
Abgesehen davon gefällt mir die Entwicklung zu solchen Verbrauchern auch nicht. Aber anders lässt sich eine nennenswerte Leistungssteigerung scheinbar nicht mehr erzeugen. Deutlich mehr Leistung bei gleichbleibendem oder weniger Verbrauch in der selben Klasse, das gabs glaube ich seit 15 Jahren nicht mehr?
Möchte nicht wissen, wie viele User ihre Netzteile jetzt rausschmeißen und neue Netzteile holen müssen. Nur um seinerzeit ein paar Eur gespart zu haben.
Nicht zu vergessen die ganzen Kaufberatungen wo man immer hören konnte "ach was, 500W reichen locker, was willst du denn mit einem 650W oder 750W Netzteil?" obwohl die Dinger nur ein paar Euro mehr kosten. Ich bin froh auf 650W gesetzt zu haben, reicht für einen 3080+Ryzen 3600, und für eine 3070 sowieso.
Ich weiß nicht, was ich von dieser Grafikkarte halten soll.
Nvidia war doch die letzten Jahre immer effizient unterwegs. Das man nun den Chip an der "Kotzgrenze" betreibt, ist nicht nachvollziehbar. Vor allem, wenn CB mit ihrem Test beweist, dass die Karte bei 270 Watt nur 4% langsamer wäre. Daher finde ich diese Entscheidung recht seltsam - hat Nvidia evtl. Wind von AMDs neue Karten bekommen und daher noch schnell die Brechstange angesetzt? Auch wenn ich es für unwahrscheinlich halte - möglich wäre es.
Habe jedenfalls kein Verlangen, von meiner 2080 Super aufzurüsten. Mehr Leistung ja gerne, aber zu welchem Preis?
Achja und danke an CB für den tollen Test. Auch wenn der Testparcours dieses Mal heiß diskutiert wird.
ähm, die 1080Ti hatte eine TDP von 250W und die 1080FE eine von 180W, du vergleichst also mit untertakteten und damit tendenziell effizienteren Modellen? Die normale Vega64 war bei knapp unter 300W.