Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

sialickiz schrieb:
Auf Amd warten ? Amd muss erst an der 4 jahre alten GTX1080Ti vorbei, haben Sie bis heute immer noch nicht geschafft.
:hammer_alt:
Anhang anzeigen 967317

Siehe hier: Dass die neuen Radeons aber an die GeForce RTX 3080 heran reichen werden, auch dazu liegen noch keine gesicherten Informationen vor. Einen Hinweis darauf liefert ausgerechnet Nvidia mit Leistung und Preis der GeForce RTX 3080.
 
Cool Master schrieb:
Ich bin echt auf die 3090 gespannt... Das wird ein Monster werden, vor allem wenn man aktuell noch eine 1080 oder älter hat.

Ja ein Monster in Sachen Verbrauch.
 
  • Gefällt mir
Reaktionen: Benji21, dohderbert, bad_sign und eine weitere Person
Interessiert eigentlich irgendwen die eigene Stromrechnung? :D
 
  • Gefällt mir
Reaktionen: Hunky, dohderbert, iceshield und 2 andere
Botcruscher schrieb:
Ich verstehe deine Begeisterung für "einfach eine neue Generation" nicht. Weil der Preis nicht weiter abartig steigt?! Der Rest ist schlicht was bei einem Node zu erwarten ist. In 7nm TSMC wäre noch mal 1/3 weniger Chipfläche möglich. Was entweder den Verbrauch oder die Leistung besser machen würden.
Genau richtig. Weil der Preis nicht weiter steigt bei so einem guten Leistungsschub und alle schon mit etwas Angst auf die neuen Nvidia Karten geschaut haben, im Bezug auf den Preis.
Eine Grafikkarte, die vor Kurzem noch 1200€ gekostet hat, wird jetzt um 30% geschlagen und war dazu noch 70% teurer...............und du verstehst es nicht? Hmmm
 
  • Gefällt mir
Reaktionen: iceshield
Adzz schrieb:
Bei gleichen Verbrauch hat sie doch auch 30% mehr Leistung. Das steht da doch im Test.


Was hat die 3080 mit der 2080 ti zu tun? Die 3090 ist doch der preisliche Gegenspieler oder eine 3080ti doch noch kommen kann.
Und du glaubst die 2080TI kann man nicht optimieren?
 
@Harsiesis

das hab ich mir auch erst gedacht, aber schau mal an, was für peaks die Karte erreichen kann. Das kann man eigentlich schon vorab sagen, dass 550 Watt niemals reichen werden.

edit: also mein Kommagame ist auch onpoint. nicht. Sorry für die schlechte Grammatik, ich lass es jetzt so.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign
So, nun habe ich den Artikel durch. Danke für den sehr ausführlichen Testbericht!
Da waren die Folien von Nvidia ja doch schon nah an der realen Leistung. Das dürfte uns wohl alle freuen. Ein Upgrade lohnt sich für alle nicht 2080 Ti Besitzer deutlich. Was ein Sprung. Meine 2070 wird dann wohl zum Ende des Jahres weichen müssen.
 
monitorhero schrieb:
Interessiert eigentlich irgendwen die eigene Stromrechnung? :D

Klar tut es das. Ein geringerer Verbrauch sorgt aber vor allem für eine leisere Kühlung und weniger Sauna im Sommer.
 
  • Gefällt mir
Reaktionen: JJJT und edenjung
Die 3080 scheint eine gelungene Karte zu sein. Sie beeindruckt mich aber dennoch nicht wirklich, aus folgenden Gründen: Solche Leistungssprünge waren mal normal. Es ist eher schön, dass es sich (hoffentlich!) wieder in diese Richtung entwickelt.

Als ich zuletzt einen Retro-PC aus gebrauchten Teilen konfiguriert habe, ist mir wieder mal aufgefallen, woran wir uns mittlerweile offenbar gewöhnt haben: winzige Leistungssteigerungen, die für überproportional höhere Preise verlangt werden. Spontan denke ich beispielsweise daran, wie die Geforce 5950 Ultra von der quasi verramschten 6600GT deklassiert wurde. Ähnliches sehe ich hier heute wieder. Nur dass die 6600GT noch dazu weniger Strom verbraten hat.

Letztlich ist es das(!), was mich wirklich an Gaming Ampere überrascht. Und aktuell frage ich mich, wo die Not dazu bei Nvidia ist, denn Konkurrenz in dieser Leistungsklasse haben sie (aktuell noch) nicht. Demnach sollte mich die 3080 vielleicht doch ein bisschen beeindrucken, doch dafür ist die Leistungsaufnahme zu hoch. Die letzten Quäntchen sogar noch rauszuquetschen und dabei die 300W-Marke zu knacken, kann ich persönlich absolut nicht nachvollziehen. Sie standardmäßig im 270W-Profil auszuliefern und dafür einen Werks-OC-Mode zu bewerben, hätte ich subjektiv schöner empfunden. "Aber man kann sie ja undervolten!" wird wahrscheinlich ein beliebtes Argument sein, was manche natürlich für gewisse andere GPUs nicht gelten lassen wollten ;)

Mein persönliches Fazit: Nvidia hat hier nicht das Rad neu erfunden. Es hat schlicht seine Arbeit gemacht, "verschleudert" die Karte aber ohne Not und hätte sie ab Werk zu einem deutlich besseren Leistung/Watt-Verhältnis rausbringen können. Über die Gründe dafür kann ich nur spekulieren: vermutlich will man nicht den gleichen Weg wie Intel bei den CPUs gehen und sich auf seinen Lorbeeren ausruhen. Warum man aber dann die Karte nicht für eine höhere UVP raushaut, auf Big Navi wartet und dann(!) die Preise nach unten korrigiert... bin aber kein BWLer. Ob ich mir die 3080 kaufen würde? Ja, aber vielleicht eher die 3070, auf die bin ich eher fokussiert. Da (auch) ich keine Not habe, warte ich natürlich ab, vor allem den Launch von Big Navi. Der Vorbote in Form der 3080 ist auf jeden Fall spannend.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aza*, russianinvasion, edenjung und eine weitere Person
Ja würde mich interessieren wenn es nicht mein Hobby wäre es gibt Leute bei denen ist das Hobby KFZ die müssen Tanken um das Ding zu fahren weiter brauchen wir nicht sprechen.

Und das kranke ist die fahren 50 mal am Tag durch unsere Stadt nur das sie mal gesehen werden und tanken und tanken und tanken die intressiert der Verbrauch auch nicht.
 
  • Gefällt mir
Reaktionen: SPECIALIZED- und monitorhero
xexex schrieb:
Welches System verbraucht in Idle bitteschön 100W? Das würde ich umgehend entsorgen! Selbst ein überzüchteter 10900K auf einem "Gamer" Z490 Board mit einer RTX 2080 Ti, kommt in Idle nicht einmal auf 50W.


Quasi alle HEDT Systeme? Oder sämtliche Systeme mit mehr Festplatten, SSD, Lüftern, Steuerungen usw. usf als das reine Testsystem an dem nur das hängt was da dran hängen muss?
 
  • Gefällt mir
Reaktionen: 0-8-15 User
naicorion schrieb:
Auch AMD hat es nicht geschafft etwas nur ansatzweise Vergleichbares zu bauen

Das heißt du weißt schon wie die RX 6900 wird? Dann kannst du uns ja bestimmt mehr darüber erzählen...
 
  • Gefällt mir
Reaktionen: dohderbert, Derenei, Otsy und 2 andere
Nach dem Hype, den Nvidia ausgelöst hat, finde ich die Karte ernüchternd . Heiss, laut, stromhungrig, spikes teils über 400 watt über mehrere ms, dazu noch Spulenfiepen.
Und das Ganze bringt unter 30% auf die 2080ti in der Rasterleistung.
Na ja mehr als Werbeversprechen waren von dem ledejackentragenden Ganoven eh nicht zu erwarten.
 
  • Gefällt mir
Reaktionen: Hunky, dohderbert und Alpha008
sialickiz schrieb:
Auf Amd warten ? Amd muss erst an der 4 jahre alten GTX1080Ti vorbei, haben Sie bis heute immer noch nicht geschafft.
:hammer_alt:
Anhang anzeigen 967317
Und du musst unbedingt erst einmal den Dark Mode auf ComputerBase aktivieren :D
 
Wadenbeisser schrieb:
In FullHD könnte die 3080 bei diversen Spielen ins CPU Limit rauschen..

Korrektur. In Full HD rauscht die 3080 ins CPU Limit.
Wadenbeisser schrieb:
und bei UHD geht der Radeon mit ziemlicher Sicherheit der Speicher aus also wäre bestenfalls 2.560 × 1.440 sinnvoll vergleichbar.

In UHD geht der 5700XT nicht der Speicher aus.
Der beste Vergleich findet somit in UHD statt, was die reine Leistung angeht.
 
Beteigeuze. schrieb:
es gibt anscheinend immer noch leute die nicht gerrafft haben dass die 5700xt nur ein kleiner chip ist ...
Psssttt wenn du hier mit Polarisnachfolger und Chipgröße für Mainstream kommst labert dich irgendwer mit Preis wegen Highend irgendwas zu. Obwohl das Midrange nicht schon lange bei 300€ angekommen ist.
 
Beteigeuze. schrieb:
es gibt anscheinend immer noch leute die nicht gerrafft haben dass die 5700xt nur ein kleiner chip ist ...
Alle, die RDNA 2 abgeschrieben haben a priori, werden sich wundern.
Die 3080 hat einen guten, aber über alles dann doch keinen fps Meilenstein gesetzt, der unerreichbar wäre für AMD.
 
  • Gefällt mir
Reaktionen: JJJT, dohderbert, Tschitta und 7 andere
Danke für den Test. Ich warte dann mal auf die 3090...
 
  • Gefällt mir
Reaktionen: Laphonso
Zurück
Oben