Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Dann mal die Augen nach den RTX 2070(S)/2080 aufhalten. Reicht für mich von der Leistung her und ich muss kein neues NT kaufen. Für max. 350€ sollte da die Tage was gehen :smokin:
 
Darf die RTX 3080 morgen dann erst um 15:00 Uhr verkauft werden oder auch schon früher? Ich frage mich gerade wie die das dann in den Shops machen, stehen da irgendwelche Security Personen vor dem Regal und bewachen die Grafikkarten? Oder kommt pünktlich um 15:00 Uhr Panik auf, weil man zusätzlich Personal angeheuert hat [400,00 Euro Kräfte!] die dann erst die Grafikkarten ins Regal einräumen? Bei den Online Shops ist das ja kein Problem, aber wie ist es denn in den Kunden Shops vor Ort? :evillol:
 
Losti73 schrieb:
und wenn doch gibts treiberprobleme :D

Und dann hast du immer noch kein RayTracing und DLSS...könntest mir schenken würd ich nicht einbauen...die Features sind bei NV einfach zu Stark als Gesamtpaket...da Zahl ich auch gern 1800€ für ne 3090 und habe wieder 5 Jahre + ruhe so wie jetzt noch mit 2600K und 980 Ti ;) :daumen:
 
  • Gefällt mir
Reaktionen: cruse
Meleager schrieb:
Etwas unter meiner Erwartung bei "nur" 30% besser als die 2080ti

Nach der Ankündigung mit "twice as fast" als die 2080S schon ein Dorn im Auge, das dann nur mit RT abzuliefern.
Linus hat das in seinem Video auch aufgedröselt.

Die Leistungsaufnahme tut ihr übriges.

Däumchen drück an AMD
War doch logisch. Wer eine getunte 2080 Ti hat die von Haus aus overclocked ist wie die Asus Rog Strix hätte sogar nur knapp ~15% zuwachs, würde dafür aber Spulenfiepen und ein deutlich schlechteres und lauteres Kühlkonzept in Kauf nehmen.

Einzig bei Raytracing und DLSS hätte man etwas Mehrleistung aber da man die Spiele an einer Hand abzählen kann ist das aktuell nicht wirklich erwähnenswert.

Ich bin hier raus und schau mal welches Feuerwerk die 3090 startet :)
 
  • Gefällt mir
Reaktionen: Tschitta, Bert und Meleager
#Andreas# schrieb:
langer test, kurzer sinn. als 4k ultra aaa enthusiast ist die 3080, wie die 2080ti damals, schon ab release sehr sehr sehr enttäuschend... fps im bereich von 45 - 67... holy shit ist das enttäuschend... und casuals haben mich ausgelacht, als ich sagte, dass ich unbedingt ne 3090 brauche und diese ab tag 1 komplett auslasten werde.

Ich fürchte fast, ich muss zur 3090 greifen, wenn ich die 4K120 ausnutzen möchte. Die 2080 Ti schafft es zwar mit minimalen Details, einigermaßen die 100 FPS zu halten, aber der Qualitätsverlust ist eben enorm. Mal schauen, was die 3090 liefern wird.

Die 3080 ist jedenfalls anständig für den Preis, wenn natürlich immer noch teuer, wenn man bedenkt, dass man früher für ähnliches Geld (GTX-Zeiten) teilweise die Sperrspitze bekommen hat. Aber gut, ist leider so, und ist auch nicht nur bei GPUs so.

Aber dass der Kühler scheinbar brauchbar ist, ist schon ein gutes Zeichen. Der der 3090 ist nochmal eine Nummer größer.

Wenn die 3090 ähnlich gut abschneidet, dann wirds interessant. Wenn die 40% schneller wie die 2080 Ti ist, werde ich weitersehen, ob es das mir wert ist.
 
  • Gefällt mir
Reaktionen: Bert
Hmm ... ich als alter Vega Veteran wurde mal gerne die GPU Spannung sehen .
Nvidia hat sich sicherlich die AMD Spannungskeule ausgeliehen und ballert 1,15-1,2 volt drauf .
Ich gaube wenn man die auf 1,050 V (oder sogar 950 mV ) betreibt könnte die Karte richtig gut sein und nur
10-15% Leistung verlieren . Aber halt richtig effizent und kühl sein.


Selbst meine 5500XT konnte ich mit 850mV @ 1700Mhz Manieren beibringen :)
 
Taxxor schrieb:
Vega64 = 300W und dabei langsamer als eine 1080Ti bei 210W bzw ca so schnell wie eine 1080 FE bei 160W
ähm, die 1080Ti hatte eine TDP von 250W und die 1080FE eine von 180W, du vergleichst also mit untertakteten und damit tendenziell effizienteren Modellen? Die normale Vega64 war bei knapp unter 300W.
 
  • Gefällt mir
Reaktionen: Benji21
CrustiCroc schrieb:
Wenn du den Test wirklich gelesen hättest, wüsstest du das die Performance / Watt und somit die Effizienz gegenüber Turing und erst Recht gegenüber AMD´s Pseudo 7nm Prozess stark verbessert wurde

Auch nur wenn du die 3080 auf 271 Watt begrenzt. Lässt du die GPU normal laufen ist die Effizienz gar nicht mehr sooo geil.
 
Malustra schrieb:
Die 3080 verbraucht an manchen Stellen fast doppelt so viel, wie meine 5700XT !!!

Ja ne, die 3080 braucht etwa 50% mehr Strom als eine 5700XT, setzt dies aber in 100% mehr Leistung um.
Von den Features will ich gar nicht anfangen.

Malustra schrieb:
Damals hat man über AMD so gemeckert und sich lustig gemacht.
Jetzt macht Nvidia genau das selbe. Das finde ich gar nicht gut.

Na dann denk mal scharf nach, vielleicht kommst ja selber drauf, warum der Vergleich mehr als hinkt (Hint: Effizienz und Leistung spielen auch eine Rolle).

Aber schon interessant, dass man wegen 5% gleich 50W mehr reinballert.
 
  • Gefällt mir
Reaktionen: McFritte
smuper schrieb:
Hmm, der Kühler ist zwar ein Fortschritt, aber wohl immer noch enttäuschend. Dann doch lieber die Customs oder gar AMD abwarten.
wenn ich mir die leistungsaufnahme anschaue finde ich den kühler alles andere als enttäuschend
denke nicht dass die customs viel besser sein werden
ich bin mir sicher die fe wird zu den bestens designs gehören
 
Im Grunde genommen egal, was AMD auf die Strasse bringt. Am Ende gewinnt DLSS Technologie. Die ist inzwischen einfach zu gut, um darauf zu verzichten. RTX IO klingt bisher zumindest auch ziemlich gut, auch dafür muss AMD was bieten. Wenn die das nicht haben, müssen die im Preis noch viel weiter runter, trotz vielleicht gleicher Performance.
 
SPECIALIZED- schrieb:
da Zahl ich auch gern 1800€ für ne 3090
Und was, wenn man jetzt eine 3080 für 700 kauft und in 2-3 Jahren eine 4080, welche über 3090 liegen wird, für erneut 700 oder so? Billiger, mehr Leistung über 5 Jahre....
 
  • Gefällt mir
Reaktionen: Mike_MTL, cookie_dent und Öcher Tivoli
SPECIALIZED- schrieb:
Mit Glück hat die 3090 nochmal 20% + zur 3080 ... das wird ein Monster :king:...hoffe nur noch 2 Wochen warten ...ich Hasse es :D
20% wären sogar eher Mau. 30% dürfen es schon sein. Dann wäre noch Platz für ne TI dazwischen.
 
Moeller13 schrieb:
Dann mal die Augen nach den RTX 2070(S)/2080 aufhalten. Reicht für mich von der Leistung her und ich muss kein neues NT kaufen. Für max. 350€ sollte da die Tage was gehen :smokin:
Ja noch weniger um die 300€ wirst du bald eine RTX 2080 bekommen, hab mir selber ne gebrauchte für 350€ vor kurzem ergattert, P/L gibt es nichts besseres erstmal.
 
  • Gefällt mir
Reaktionen: Moeller13
Die 3080 steht je nach Auflösung 90-100% über der 5700XT, also ist das Ziel für AMD schon mal sehr viel klarer geworden.

5700XT + 90-100% sind machbar
 
  • Gefällt mir
Reaktionen: sifusanders, KlaraElfer, Benji21 und eine weitere Person
Schranz0815 schrieb:
Der Stromverbrauch ist ja abartig. Bei der Vega damals gab es ein Aufschrei ohne Gleichen.

Ampere säuft und arbeitet dafür, Vega säuft und gammelt. Man sieht am Performance-pro-Watt ( Auch bekannt als "Effizienz")- Chart recht schön, warum das ne richtige Gurke für Gamer war.

Abgesehen davon gefällt mir die Entwicklung zu solchen Verbrauchern auch nicht. Aber anders lässt sich eine nennenswerte Leistungssteigerung scheinbar nicht mehr erzeugen. Deutlich mehr Leistung bei gleichbleibendem oder weniger Verbrauch in der selben Klasse, das gabs glaube ich seit 15 Jahren nicht mehr?
 
  • Gefällt mir
Reaktionen: stevefrogs
Smartin schrieb:
Möchte nicht wissen, wie viele User ihre Netzteile jetzt rausschmeißen und neue Netzteile holen müssen. :mad: Nur um seinerzeit ein paar Eur gespart zu haben.
Nicht zu vergessen die ganzen Kaufberatungen wo man immer hören konnte "ach was, 500W reichen locker, was willst du denn mit einem 650W oder 750W Netzteil?" obwohl die Dinger nur ein paar Euro mehr kosten. Ich bin froh auf 650W gesetzt zu haben, reicht für einen 3080+Ryzen 3600, und für eine 3070 sowieso.
 
  • Gefällt mir
Reaktionen: uli_2112, Mike_MTL und Smartin
Ich weiß nicht, was ich von dieser Grafikkarte halten soll.
Nvidia war doch die letzten Jahre immer effizient unterwegs. Das man nun den Chip an der "Kotzgrenze" betreibt, ist nicht nachvollziehbar. Vor allem, wenn CB mit ihrem Test beweist, dass die Karte bei 270 Watt nur 4% langsamer wäre. Daher finde ich diese Entscheidung recht seltsam - hat Nvidia evtl. Wind von AMDs neue Karten bekommen und daher noch schnell die Brechstange angesetzt? Auch wenn ich es für unwahrscheinlich halte - möglich wäre es.

Habe jedenfalls kein Verlangen, von meiner 2080 Super aufzurüsten. Mehr Leistung ja gerne, aber zu welchem Preis?

Achja und danke an CB für den tollen Test. Auch wenn der Testparcours dieses Mal heiß diskutiert wird.
 
  • Gefällt mir
Reaktionen: Malustra und mightyplow
Wadenbeisser schrieb:
ähm, die 1080Ti hatte eine TDP von 250W und die 1080FE eine von 180W, du vergleichst also mit untertakteten und damit tendenziell effizienteren Modellen? Die normale Vega64 war bei knapp unter 300W.
Nein ich vergleiche nur nicht die TDP sondern den realen Verbrauch der Founders Editions im Test von CB
 
  • Gefällt mir
Reaktionen: adAstra
Zurück
Oben