Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Matthias80 schrieb:
Ein Stock 3900X ist halt realistischer als ein Cherry Picked Golden Sample 10900K Ultra OC Monster was nur der eine Glückspilz besitzt.
So ein Test wäre dann wie Aussagekräftig?
Test wohl das flachen Wort. Machbarkeitsstudie trifft es dann wohl besser.

Test ist genau das richtige Wort, die Frage ist nur was will man testen?

Will man die GPU Leistung testen? Dann gehört die CPU so schnell wie möglich.
Will man die Komplettsystem Leistung testen? Dann sollte man es nicht GPU Test nennen.
 
  • Gefällt mir
Reaktionen: psychotoxic, Tschitta und Esenel
sialickiz schrieb:
Nvidia könnte der GPU locker 16GB spendieren und was würde AMD dann machen ?!
Können sie nicht da 16 GB bei dem Speicherinterface nicht aufgehen, die nächste Stufe liegt bei 20 GB.
Das war schon bei der RTX2080 so !
VII dann "etwas" später und langsamer mit 16Gb !

Ich denke jeder mit einem gesunden Menschenverstand kann sich denken was wäre, wenn RTX2080 16GB spendiert bekäme und RTX2080 ebenfalls.
Die 2080 gab es nur mit 8 GB und sie war kaum schneller als die später erschienene 2070 Super, welche sie ablöste. Jetzt schau mal wie schnell der Vorsprung der 2070 Super vor der VII @ UHD zusammenschnurrt und davor relativ konstant war. Der Karte geht ganz einfach der Speicher aus.
 
Reset90 schrieb:
Glaube nicht das das von cb ist. Du hast noch irgendwelche anderen addons die das einspielen.

Definitiv nicht. Der Browser ist komplett clean ohne jegliche Addons.
 
Brink_01 schrieb:
Inwiefern verschwendet ein dickes Netzteil mehr Strom als ein kleines? Wenn das System 350 Watt verbraucht, dann tut es das mit einem 500 Watt Netzteil genau so wie mit einem 1000 Watt Netzteil.

Es kommt immer drauf an in welchen Lastbereich man ein Netzteil die meiste Zeit verwendet. Wenn du 2h am Tag spielst und den Rechner nur dafür anmachst, sieht das Profil ganz anders aus, als wenn du den Rechner "standig" an hast und trotzdem nur 2h am Tag spielst.

1600271449823.png

https://www.anandtech.com/show/2624/debunking-power-supply-myths/3

Bei richtig guten Netzteilen sieht die Kurve nicht so extrem aus, allgemein macht es aber kaum Sinn einfach so ein 1000W Netzteil zu kaufen, weil man es vielleicht in 10 Jahren bräuchte.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Bright0001
downforze schrieb:
Jeder, der eine 2080 ti gekauft hat, dürfte jetzt noch 450€ Gegenwert haben.

In einem Jahr 800-1000 Euro einfach so verbrannt.
 
Gsonz schrieb:
Selbst ein 9900K/10700K wäre da schneller gewesen, ein goldener 10900K muss es noch nicht mal sein.

Ich werde die 3080 wahrscheinlich undervolten wenn ich denn irgendwann eine habe. Dauert noch bis nächstes Jahr, momentan geht das ganze Geld für die Fahrschule flöten. Aber mal sehen was es bis dahin sonst noch so an Grafikkarten geben wird.
Ah beides CPU´s die Intel höchstselbst schon an der Kotzgrenze fährt.
Von daher gleicher konsens...
Von daher noch eine Behauptung...
Warten wir es einfach ab.

MfG
 
Was ich wiederum cool finde
3080 mit RT = 2080 ohne :)
 
franzerich schrieb:
Komisch... die 3080 hat doppelt soviele Shadereinheiten (8704) wie die 2080Ti (4352), und trotzdem nur 30% besser? Da stimmt doch was nicht.
Weil das ne reine Lüge ist. 3080 und 2080 ti haben exakt gleich viele Einheiten. Nur eine Einheit kann in bestimmten Szenarien (wenn nur fp genutzt wird) bis zu doppelt so viel berechnen. Der int Anteil der Shader wurde halt aufgebläht, dass dieser nun auch fp kann. Aber da fast alle Anwendungen eine Mischung aus int und fp nutzen, bringt das nicht so viel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: franzerich
Reziel schrieb:
Hmmm schade es weiterhin keine 4K Grafikkarte auf dem Markt gibt.

Die 3090 könnte das werden. Aber sicher auch mit Grenzen.

Mal sehen, was DLSS 2.0 hier über die Ampere Generation ermöglicht.
 
FX-Multimedia schrieb:
Ich finde die Ergebnisse ehrlich gesagt enttäuschend dafür dass im Vorfeld von 50 % und mehr Vorsprung zur 2080ti die rede war
Erstens das und zweitens, wenn man bedenkt, dass die 3080 ca. 20% mehr Verbrauch hat als die 2080 Ti FE, dann ist der Vorsprung umso lächerlicher. Gerade mal 7-8%.

Der Jensen hat einem mal wieder viel Honig ums maual geschmiert, ohne viel dahinter.

Im Grunde ist hier sogut wie keine perf / watt Steigerung erzielt worden. Die 7-8% mehr Vorsprung könnten durchaus alleine vom kleineren Fertigungsverfahren kommen (mehr Transistoren, mehr Verbrauch). Niedrigerer Preis durch 8 nm Fertigung ebenfalls...

Obwohl ich schon lange keine AMD Karte mehr gekauft habe, diese Vorstellung ist der reinste Marketing Hype wie schon seit langem nicht mehr. Der Jensen Huang ist gefühlt der 2t größte Schlangenöl Verkäufer nach Phil Spencer.

Bei der letzten Gen. hat NV extrem versagt mit deb Preis vs Performancesteigerung, jetzt haben sies im Grgunde "normal" hinbekommen, wie bei den Generationen vor Turing, und die feiern sich als hätten die das Rad neu erfunden.

Ich finds erstaunlich, wie viele sich alleine durch die Preissenkungen blenden lassen und die Karten so "feiern" und in den Himmel loben. Während Ampere hauptsächlich nur gut da steht, weil die Turing Gen der übelste trash war in sachen Preis vs Performancesteigerung.

Die 3080 scheint eine 2080 Ti zu sein, im kleineren Fertigungsverfahren und mit höherem Verbrauch und günstiger durch 8nm. Das ist eig. alles, Perf/Watt Steigerungen sind hier kaum zu sehen, die 7-8% Mehrperformance (bei gleichem Verbrauch) sind kaum der Rede Wert.
 
  • Gefällt mir
Reaktionen: Beneee, FX-Multimedia, Benji21 und 5 andere
Bright0001 schrieb:
Der erste M5 hatte weniger als 300PS und hat (offiziell) rund 11l verbraucht, der jetztige hat die doppelte Leistung bei praktisch gleichem Verbrauch. Es geht nicht um die absoluten Zahlen, sondern um die relativen Effizienzsteigerungen. Und hier hat Nvidia auf Brechstange gesetzt, man muss es ja auch nicht schönreden. :p

Ich hoffe das dein Kommentar etwas Sarkasmus enthält ;-)

In nicht alle bereiche kann man eine Proportionale Entwicklung erwarten, beim Otto Motor ist die Effizienz einfach sehr schlecht und es ist noch relativ viel möglich.
Beim Silizium dagegen wird Aktuell viel durch Die Shrinking erreicht, es muss ein neues Trägermaterial her, die Atome haben auch eine Physikalische Grösse und können einfach nicht unterschritten werden.

Aber nicht desto trotz, sind die 65% Mehrleistung bei 18% weniger kosten der Hammer!
 
Bigfoot29 schrieb:
Nicht böse oder als Hetze gemeint... es ist spannend zu sehen, dass nV hier dermaßen die Brechstange ansetzt, um die Leistung rauf und den Preis vergleichsweise runter zu bekommen. Wissen die was über die AMD-Grafikkarten, was wir nicht wissen? o.0

Das kann tausend verschiedene Gründe haben z. B.:

1. Es ist so, wie du vermutest.
2. Man will einen gewissen Abstand zur 2080Ti wahren, um ggf. auch dort Käufer abzugreifen. Hätte die 3080 mehr VRAM, wäre das sogar ein gutes Angebot. Jetzt stecken die in einem Dilemma sich ggf. für die deutlich teurere 3090 entscheiden zu "müssen". Zuuuu gut darf die 3080 also nicht sein.
3. NV will die Leistungskrone behalten + AMD dazu zwingen, den Sweetspot zu verlassen, sofern sie wirklich in der selben Leistungsklasse mitspielen möchte.

Oder irgendein anderer Grund, der hier im Thread erwähnt wurde... keiner weiss es, bis AMD ihre Karten vorgestellt. Sicherlich wird es dann auch seitens NV ein Konter geben.
 
  • Gefällt mir
Reaktionen: Bigfoot29
Taxxor schrieb:
Test ist genau das richtige Wort, die Frage ist nur was will man testen?

Will man die GPU Leistung testen? Dann gehört die CPU so schnell wie möglich.
Will man die Komplettsystem Leistung testen? Dann sollte man es nicht GPU Test nennen.
Hatten wir doch schon das Thema...
Ein Test mit einer CPU die nur eine Handvoll User überhaupt so besitzt. Ist einfach realitätsfern.
Kann man höchstens als Machbarkeitsstudie mal bringen.
Von daher bin ich mit dem Test von CB sehr zufrieden, und freue mich auf deinen wenn einer kommt.

MfG
 
Ich warte auf die 3090.
Die 3080 zeigt aber schon mal wo die Reise hingeht.
 
MarcoMichel schrieb:
In einem Jahr 800-1000 Euro einfach so verbrannt.
Ist halt wie mit Aktien
Der Kurs kann +100% sein, deswegen hast du erstmal rein gar nichts mehr, sondern nur deine Aktien.
Erst wenn du Verkaufst hast du den Gewinn/Verlust.
 
Findet ihr es nicht komisch das eine RTX3090 nur 30 Watt mehr verbrauchen soll als eine RTX3080?

Obwohl +14GB, mehr CUDA Cores, mehr Tensor/RT Cores und und und... :confused_alt::confused_alt::confused_alt::confused_alt:
 
  • Gefällt mir
Reaktionen: GUN2504, iceshield, TodboT und eine weitere Person
Schon ne Harte Nummer für "diesjährige" 2080 TI Käufer, ne 3070 wird fast die gleiche Leistung bringen und bei RT drüber liegen und das für geschätzte 499.

Ne 3060 dann wieder bei 349.

Außer nvidia entschließt sich zu Kampfpreisen, glaube ich aber nicht.
 
Zurück
Oben