Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

@sialickiz das hatten wir bereits, guten Morgen.

Abwarten heisst die Devise, als die Grünen die Ampere vorgestellt haben habe ich auch Gedacht, jaa klar^^, aber sie haben Wort gehalten.

Ich bin auch Feuer und Flamme für die 3070, aber ich warte noch und schau was die Roten machen, wer weiss, vieleicht überraschen sie ja.🤷‍♂️
 
  • Gefällt mir
Reaktionen: Onkel Föhn
rasenschach schrieb:
Musst du ja nicht glauben - ist am Ende aber die Realität. Ich kann vor dem 28.10 leider nicht weiter darauf eingehen ....
Uuuh, das sind immer die besten Kommentare :)
 
  • Gefällt mir
Reaktionen: adAstra, zhompster, Dai6oro und 2 andere
@KlaraElfer

Komm jetzt nicht wieder mit den üblichen Unterstellungen weil dir die Antwort mal wieder nicht passt...

Wer spezielle Tests mit Relevanz für einen Promille Bereich der User will soll eben entsprechende Seiten aufsuchen
 
  • Gefällt mir
Reaktionen: Onkel Föhn
m.Kobold schrieb:
Ich würde sagen, das er glaubwürdigere Benches als DF erstellt (zumindest seit AOTS), gerade weil dort unbekanntere Titel die nicht Spezielle Optimierungen (um besonders zu glänzen) bekommen haben,
gerne auf den Testpackour kommen.

...

Für mich sind Hardware Unboxed und Gamer Nexxus, die Streamer die ganz weit oben mitspielen
und wenn du keine Videos magst, dann kannst du ja auch die Webseite die Berichte durchlesen.
Danke für die Erklärung. Und stimmt, ich mag keine Videos und Streamer sind mir sowieso suspekt :D

Für mich ist bei Tests recht wichtig, daß sich die Testplattform möglichst selten/wenig ändert, damit die Tests vergleichbar bleiben oder bei Wechsel der Plattform eben nachgetestet wird.
Zudem ist mir ein guter Mix wichtig, der möglichst alle Szenarien von Best Case bis Worst Case abdeckt. Denn für mich ist es relativ uninteressant, ob irgend ein Nischenspiel irgendeine Schwäche aufdeckt, die im Alltag praktisch keine Rolle spielt. Für einen generellen Test sollten daher auch die Spiele in der Auswahl sein die viel gespielt werden, damit möglichst viele Leser etwas davon haben (egal ob nun optimiert oder nicht). Für meine persönlichen Lieblingsspiele suche ich mir dann schon selbst Spezialtests wenn nötig. Ich persönlich lese die Tests von CB und Hardwareluxx sowie Anandtech recht gerne...
 
  • Gefällt mir
Reaktionen: m.Kobold und gr1nd
Vielen Dank für diesen sehr ausführlichen Test! :)

Ein kleines Stück enttäuschen mich die Karten ja doch. Während die Leistung natürlich ordentlich zugelegt hat, hat es der Stromverbrauch nun leider auch. Bezüglich der Effizienz hat man sich gegenüber dem Vorgänger scheinbar kaum verändert, was vermutlich hauptsächlich an Samsungs 8 nm-Prozess liegt (der bekanntlich nur ein Refresh des 10 nm-Prozesses von Samsung ist).

Sehr gespannt bin ich nun auf AMD, denn: Wie man am Effizienz-Test sieht, bringen die 320 Watt gegenüber 270 Watt bei der Karte lediglich 4 Prozent Mehrleistung, man kann hier also durchaus von der berüchtigten "Brechstange" sprechen. Nun ist die Frage, warum? Ich denke, es ist durchaus möglich, dass Nvidia von AMD dank des deutlich besseren 7 nm-Prozesses von TSMC einen ordentlichen Leistungszuwachs erwartet und AMD damit ggf. sogar mit Nvidia konkurrieren kann - sowohl bei Performance, als auch bei der Effizienz. Ggf. erwartet uns also doch noch ein kleines Showdown, es bleibt spannend!
 
Tonks schrieb:
@BlackhandTV Alles gut. :)



Ich meine mich auch daran erinnern zu können, dass die 2080 und 1080 Ti je nach Spiel leicht besser oder schlechter waren. Den Aufpreis war es allemal nicht wert.

Ist auch wahrscheinlich der Grund warum die 1080 Ti öfters in den Slides für die 3000er Serie drin war. Jensen hatte damit doch klar ne Nachricht für die Pascal-Fraktion: Ja, ihr könnt endlich upgraden.

Und da muss ich auch zustimmen. Fast doppelt so schnell in 4k, das würde sich lohnen. Mit Undervolt sowieso.

Aber es eilt nicht. Da warte ich gerne noch ein paar Monate, um zu sehen wie AMD abschneidet und ob/wann eine 3080 Ti als Antwort darauf kommt.

PS: Stockt das Forum für andere Leute beim Tippen auch? Frag mich ob es an meinen Addons liegt oder irgendwas anderem. Hab das auch in anderen Xenforo Foren bemerkt.
In Chrome stockt das Forum auf dem Smartphone auch! Hwluxx auch!
 
  • Gefällt mir
Reaktionen: Tonks
Thorque schrieb:
eventuell hat nvidia ihm vorgeschrieben eine 2080er zu nehmen.
Man verspielt halt seine glaubwürdigkeit/objektivität, wenn nvidia befiehlt das Digital Foundry springen soll
und DF nur fragt wie hoch man denn springen soll.

DF war ja nicht gezwungen ein Werbevideo für nvidia zu drehen und das ganze zu verpacken, als
würde man einen total fairen Testpacour mit neutralen Informationen erstellen würde ;)

Der schwere Aktenkoffer hat sicher dazu beigetragen diese Entscheidung zu treffen :D
 
Wadenbeisser schrieb:
Komm jetzt nicht wieder mit den üblichen Unterstellungen weil dir die Antwort mal wieder nicht passt...

Na du redest doch davon nun auf PCIE 4.0 und ein AMD System wegen der "Praxis" zu setzen.
Aber was versprichst du dir von dieser Praxis? 11% CPU Limit in Full HD und 7% in WQHD, um mit PCIe 4.0 0,5% mehr FPS zu generieren?
Wadenbeisser schrieb:
Wer spezielle Tests mit Relevanz für einen Promille Bereich der User will soll eben entsprechende Seiten aufsuchen

Ich betrachte die Tests mit PCIe 4.0 und den Plattformwechsel eher als speziell.
Das ist in etwa so als würde ich statt dem 10900K einen 10600K verbauen.


m.Kobold schrieb:
Man verspielt halt seine glaubwürdigkeit/objektivität, wenn nvidia befiehlt das Digital Foundry springen soll
und DF nur fragt wie hoch man denn springen soll.

Die Benchmarks von digital foundry waren doch absolut korrekt und lagen absolut im Bereich der Mehrleistung die wir heute auch sehen. Insofern ist das doch ein Pluspunkt für die Glaubwürdigkeit von Nvidia, wenn sie jemand Unabhängigen beauftragen Benchmarks anzufertigen.

m.Kobold schrieb:
DF war ja nicht gezwungen ein Werbevideo für nvidia zu drehen und das ganze zu verpacken, als
würde man einen total fairen Testpacour mit neutralen Informationen erstellen würde ;)

War doch absolut fair.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ColonelP4nic
Darkscream schrieb:
Dummerweise ist das kein richtiges undervolting, so was macht man mit dem Curve Editor und verliert nicht mal annähernd so viel Leistung.

Ich habe bei diversen Turings mit niedrigeren Powertarget oder undervolting per Curve Editor am Ende nahezu identische Ergebnisse gehabt. Im Endeffekt reduzierst du in beiden Szenarien die Spannung. Per Powertarget überlässt du das der Karte, ber Curve Editor entscheidest du über die Spannung. Ich habe stunden damit verbracht und am Ende waren die Temperaturen und Stromverbrauch und Taktrate nahezu identisch. Per Powertarget war es aber in den meisten Fällen stabiler, bei Curve Editor kamen dann doch je nach Game plötzliche Crashes.
 
Wann genau Ryzen 3 kommt, weiß man noch nicht oder? Denn solange werde ich auch noch mit der GPU Anschaffung warten...........auch wenn es keinen interessiert. ;) :rolleyes:
 
sialickiz schrieb:
RDNA2 müsste um ca. 100% schneller sein als RDNA1 um die RTX3080 zu schlagen, never ever ! Traumwelt

AMD muss die 3080 nicht schlagen, nur nah genug drankommen.

Hauptsache die 3080 Ti kommt, damit Nvidia wieder unbestritten vorne liegt.

Davon können wir nur profitieren. Konkurrenz gibt uns gute Karten und/oder gute Preise.

Welche Firma da gewinnt ist mir sowas von egal.
 
  • Gefällt mir
Reaktionen: McFritte und BlackhandTV
sialickiz schrieb:
Wenn RDNA um 100% schneller ist als 5700Xt was extrem unwahrscheinlich ist, dann kommt RTX3080Ti und bye bye.
Unwarscheinlich denn so viel Platz ist bis zur 3090 nicht. (+20% Recheneinheiten aber weniger Takt)
Entweder würde die Mehrleistung erheblich geringer ausfallen als es einige erträumen oder sie zwangsläufig deren Verkaufszahlen kanibalisieren und müßten als Gegenmaßname erheblich im Preis steigen, was sich auch nur über den Speicherausbau rechtfertigen ließe.
 
  • Gefällt mir
Reaktionen: eXe777
schkai schrieb:
Per Powertarget war es aber in den meisten Fällen stabiler, bei Curve Editor kamen dann doch je nach Game plötzliche Crashes.

Mit der Kurve kannst im Idealfall neben UV auch OC betreiben. Fixe Taktrate bei fixen Spannungen bietet sich hier an. So läuft meine Karte momentan nicht nur sparsamer, sondern auch schneller.

Und wenn es zu Crashs kommt dann wurde ja nicht genügend vorher getestet.
 
sialickiz schrieb:
AMD findet seit 980Ti keinen Anschluss mehr. Wenn RDNA2 um 100% schneller ist als 5700Xt was extrem unwahrscheinlich ist, dann kommt RTX3080Ti und bye bye.

Ja, RDNA2 müsste um ca. 100% schneller sein als RDNA1 um die RTX3080 zu schlagen, never ever ! Traumwelt

Edit : RTX3080 ist zudem nicht das Flaggschiff. Das vergessen hier viele !

Wenn man es logisch betrachtet muss AMD was im Köcher haben. Nicht umsonst hat Nvidia bei der 3080 das PT so hoch geschraubt und die Karte für 699 Euro angeboten. Die wollen mit der 3080 wenigstens in den Tabellen vor Big Navi bleiben, auch wenn es am Ende nur 5 - 10 % sind. Man kann davon ausgehen das Big Navi der 3080 sehr sehr nahe kommt. Bei der 3090 sieht es anders aus, hier wird Nivdia alleine die Krone haben. Aber zu einem mehr als Doppelten Preis. Nach dem Motto - wer das beste haben will muss richtig böse blechen. Und das wird natürlich funktionieren. Dabei wird die 3090 nur ca 20% Schneller sein wie die 3080. Und eine 3080 TI, was daraus wird weiß noch keiner. Nvidia will verhindern das diese dann der 3090 zu nahe kommt. Entweder bleibt die Leistung dann mit 20GB Vram oder es werden 20GB VRAM mit 5% mehrleistung zu einem Preis von 900 - 1000 Euro.
Ergänzung ()

Tonks schrieb:
Mit der Kurve kannst im Idealfall neben UV auch OC betreiben. Fixe Taktrate bei fixen Spannungen bietet sich hier an. So läuft meine Karte momentan nicht nur sparsamer, sondern auch schneller.

Und wenn es zu Crashs kommt dann wurde ja nicht genügend vorher getestet.

Du kannst mit Powertarget auch OC betreiben. Ich hatte meine 2080 mit +120Mhz und auf PT 85 laufen gehabt. Höhere Taktraten als Stock und weniger Stromvebrauch. Mit UV habe ich identische Werte erreicht. Aber es kam zu sehr sehr seltenen Abstürzen. Manchmal nur 1 mal die Woche. Wozu soviel Testen wenn man das gleiche Ergebnis mit deutlich weniger Aufwand erreich kann ?
 
  • Gefällt mir
Reaktionen: Javeran
schkai schrieb:
Wenn man es logisch betrachtet muss AMD was im Köcher haben. Nicht umsonst hat Nvidia bei der 3080 das PT so hoch geschraubt und die Karte für 699 Euro angeboten.
Der Preis ist eher den Next Gen Konsolen geschuldet. Und das PT ist deshalb so hoch, um sich weit genug von der 2080ti abzuheben. Da zählt dann eben jeder Prozentpunkt. Man will eben möglichst viel an Kundschaft erreichen. Mit Big Navi und was der vielleicht kann, oder auch nicht, hat das alles erstmal recht wenig zu tun. Auch wenn sich das mancher hier wünscht.
 
Tonks schrieb:
Davon können wir nur profitieren. Konkurrenz gibt uns gute Karten und/oder gute Preise.
Die frage ist, braucht NV konkurrenz damit der Preise "anständig" bleiben ? Nein, genau das Gegenteil scheint der Fall zu sein ! :D

GTX1080 und GTX1080Ti komplett ohne konkurrenz damals und NV war so "freundlich" und senkte Anfang 2017 die Preise !

GTX1080Ti - 699.-
GTX1080 - 499.-


https://www.computerbase.de/news/grafikkarten/geforce-gtx-1080-preis.58619/

Das ist bei Turing leider nicht mehr passiert.
 
Zuletzt bearbeitet:
Die Karte hat Power und braucht viel Strom, aber die Angaben von der Präsentation sind nicht eingetreten. 100% mehr Leistung, "nur" 88% usw. aber war ja fast zu erwarten! PR halt!

@KlaraElfer lies dir Igors Text durch und sag mir, was er zum Thema CPU sagt. Bin mal gespannt ob du es verstehst und etwas merkst :).
 
gr1nd schrieb:
Und das PT ist deshalb so hoch, um sich weit genug von der 2080ti abzuheben. Da zählt dann eben jeder Prozentpunkt. Man will eben möglichst viel an Kundschaft erreichen. Mit Big Navi und was der vielleicht kann, oder auch nicht, hat das alles erstmal recht wenig zu tun. Auch wenn sich das mancher hier wünscht.
Das mit dem weit genug absetzen ergibt wenig Sinn, denn das hat Nvidia bei der 2080Ti auch nicht getan und da war der Leistungssprung in einer ähnlichen Region von 1080Ti zu 2080Ti wie jetzt von der 2080Ti zur 3080. Dafür opfert man nicht diese Masse an Effizienz für 4-6% mehr Performance zum eigenen Vorgängerflaggschiff.

Unternehmen, egal ob Nvidia, Intel oder AMD, prügeln ihre Produkte immer dann hoch an die Kotzgrenze und teilweise darüber hinaus, wenn es notwendig ist, um a) mit einem Konkurrenzprodukt irgendwie noch mitzuhalten oder b) sich noch irgendwie bei den Balken leicht vor dieses schieben zu können. Koste es, was es wolle.
 
  • Gefällt mir
Reaktionen: schkai
KlaraElfer schrieb:
Wie sollen denn die Messungen auf einer PCIE 4.0 Plattform Relevanz haben, wenn PCIE 4.0 gar nicht das Bottleneck ist, also nicht die Übertragungsrate des PCIe Anschlusses limitiert, sondern die verbaute CPU?
Bei deinen anderen Kommentaren gehe ich größtenteils konform mit dir, bei diesem Satz muss ich aber widersprechen. Dein Satz setzt voraus, dass tatsächlich die CPU der limitierende Faktor ist und PCI-E 4.0 dann praktisch keinen Einfluss mehr auf die Leistung hat. Das stimmt so aber nicht.

Zunächst einmal haben die ersten Grafikkarten mit PCI-E 4.0 bereits gezeigt, dass es durchaus einen Unterschied macht, ob der volle Durchsatz genutzt wird oder nicht. Im Test von ComputerBase konnte das im Worst-Case zu einem Unterschied von bis zu 19% (!!) führen.

Des Weiteren sind PCI-E und CPU-Auslastung relativ unabhängig voneinander. Die CPU mag die GPU ausbremsen, beim Datenaustausch zwischen CPU/SSD und GPU spielt die CPU aber keinen relevanten Faktor, da hier vor allem Daten hin und hergeschoben werden. Selbst wenn also die CPU limitiert, hat das keinen besonderen Einfluss auf die PCI-E 4.0-Übertragungsrate. Auch wenn die ein oder andere Textur entpackt oder sonstwie verarbeitet werden muss, dürfte das für AMD kaum zum Problem werden, sondern eher ein Heimspiel für AMD sein, da die schlechten Latenzen der AMD-CPUs kaum von Relevanz sind, AMD aber zugleich über mehr Kerne verfügt.
 
Zurück
Oben