Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Matthias80 schrieb:
Hatten wir doch schon das Thema...
Ein Test mit einer CPU die nur eine Handvoll User überhaupt so besitzt. Ist einfach realitätsfern.
Kann man höchstens als Machbarkeitsstudie mal bringen.
Wie gesagt, dann sollte man es nicht GPU Test nennen denn die GPU testet man damit nicht, sondern ein System mit einer CPU die noch 4-5 schnellere Modelle über sich hätte, in Zusammenhang mit der GPU.

Also sind auch CPU Tests mit einer übertakteten 2080Ti realitätsfern? Die besitzen auch nur eine handvoll User.
 
  • Gefällt mir
Reaktionen: tomasvittek, Tschitta, KlaraElfer und 3 andere
Vendetta schrieb:
Vor allem je nach game auch weniger als die 30%, teilweise nur 20% und bei 1440p sowieso weniger.
Keine Sorge Vendetta. Wir wissen in vielen Bereichen nicht, was die neue Grafikkarte leistet, weil vorher die verfügbaren CPUs mal mehr (3900x) mal weniger (10900K) limitieren.

Deswegen kann man derzeit nicht sagen, was die Grafikkarte z.B. mit einer stärkeren CPU zu leisten imstande wäre.
Ein großes Problem und ein schönes Beispiel für den Informationsmangel, den man erzeugt, wenn man GPU Tests im CPU- Limit durchführt.

Jetzt meinen hier alle, dass die Grafikkarte nicht mehr unter 1440P und 1080P leisten könnte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tschitta, KlaraElfer und Maggolos
Esenel schrieb:
Für was?
60 fps?
Ja.

Gibt aber auch Leute die haben hier 1440p und 165Hz Monitore.
Und dann?
Die Spiele wo das "wichtig" sein könnte...
Wenn wir hier mit einem Pro Spieler schreiben sollten... Weiß ned?!
Die wurden nicht getestet.
Bin mir sicher, CSGO ect. würden auch einen 240Hz Monitor sehr gut bedienen können.
Also was meinst du genau?

MfG
 
Cool Master schrieb:
Man bekommt auch mehr Leistung also alles ok... Und den Regler kann man ja zur Not anpassen wenn es so wichtig ist.
Bereinigt sehe ich das allerdings nicht so leicht.

2080FE mit 240Watt gegen 3080 mit 320Watt, 60% Mehrleistung bei 30% Mehrverbrauch.
Vereinfacht bereinigt würde ich 30% Mehrleistung bei gleicher Leistungsaufnahme bekommen.
Was bei einen Preis (ich rede von meiner 2080) 550€ vs 699€ einfach lächerlich ist.

Ja die Karte ist schnell, aber für 3 Jahre zwischen den Karten ist das einfach ein Witz.
 
Amd wird jetzt mit mehr Vram kommen, den eine Preisschlacht wie früher wollen "lediglich" die Käufer aber garantiert nicht AMD und NV ! ... da kann man nur verlieren.

Das ist schon alles sehr gut durchdacht.

RTX2080 - 10GB Vram

RDNA2 (Big Navi ) - mindestens 12GB Vram und um ca. 5-10% langsamer.

...und zu guter letzt RTX3080 mit 12GB oder mehr.

Ich würde es auch nicht anders machen. Jede von den drei GPU´s findet so ihre Käufer.

Eine RTX3070 oder RTX3080 direkt mit 16Gb würde zum Monopol führen und das wolen wie bereits erwähnt, weder AMD noch NV.
 
CrazyT schrieb:
Glaub nicht dass das sein Punkt ist, aber jetzt in eine Karte zu investieren die "nur" 10GB hat und man, wenn man so wie ich ist, 3 Jahre nutzt wie eine 1080ti nicht mehr zeitgemäß bis da hin...

Bin auf die 3090 test und die custom modelle gespannt
Ich denke eher, dass die Technik sich so entwickelt, dass bessere Komprimierung für Texturen verwendet wird und somit Grafikspeicher reduziert wird. Wie bereits gesagt, man will seine Spiele ja auch an Leute verkaufen die nicht die absolute Highend Hardware haben. Und das ist ein viel größerer Markt als die paar Enthusiasten, wie wir es sind.
 
franzerich schrieb:
Komisch... die 3080 hat doppelt soviele Shadereinheiten (8704) wie die 2080Ti (4352), und trotzdem nur 30% besser? Da stimmt doch was nicht.

Vor nicht allzulanger Zeit konnte man die Leistungssteigerung noch grob schätzen, weil sie proportional mit der Anzahl Shadereinheiten stieg. Nvidia hat dabei schon mit 30% mehr Shadereinheiten bis zu 50% mehr Leistung rausgeholt o.ä. Und jetzt holen sie mit 100% mehr Shadereinheiten nur 30% mehr Leistung raus? Häh? Das wirkt total ineffizient.

Hat sich da fundamental was in der Hardware geändert??

Um mir selber die Antwort zu liefern nach einiger Recherche:

Es gibt noch die INT32 ALUs (die fehlen in der Angabe der technischen Spezifikationen. Dort sind nur die FP32 ALUs aufgelistet). Und da hat die 3080 genausoviel wie 2080Ti, und zwar 4.352 Einheiten. Wahrscheinlich ist das die Anzahl, die man zuvor als Shader-Einheiten betrachtet hat. Und da hat sich nix geändert.

Die gigantische Erhöhung der FP32 ALUs scheint hingegen nicht den großen Leistungssprung gebracht zu haben. Naja, vielleicht helfen diese ja dem Raytracing...

So ergeben die Werte aber dann doch wieder Sinn. Man hat quasi immer noch dieselbe Anzahl Shader-Einheiten wie bei der 2080Ti, nur eben wieder ein bisschen effizienter gemacht (erinnert mich an den Sprung von der 960m zur 1050m, wo bei derselben Anzahl Shadereinheiten auch 30% mehr Leistung rausgeholt wurde).
 
aldaric schrieb:
Wie man in anderen Tests sieht, limitiert ja auch der 10900k die GPU ordentlich.

Na, aber, wenn er ordentlich übertaktet und mit gescheitem RAM kombiniert wäre, würde hier selbst in UHD noch die CPU mehr reinschlagen als PCIE 4.0 und dann eben im CPU Limit um 25% schneller sein.
Die Wahl der Plattform ist somit zumindest für den Test der 3080 und 3090 (bei letzterer noch mehr) absolut falsch gewesen.
 
.Sentinel. schrieb:
Keine Sorge Vendetta. Wir wissen in vielen Bereichen nicht, was die neue Grafikkarte leistet, weil vorher die verfügbaren CPUs mal mehr (3900x) mal weniger (10900K) limitieren.

Deswegen kann man derzeit nicht sagen, was die Grafikkarte z.B. mit einer stärkeren CPU zu liesten imstande wäre.
Ein großes Problem, wenn man GPU Tests im CPU Limit durchführt.
Man kann immer auf FHD umschalten und schauen ob die FPS hochgehen, wenn ja -> wenig/kein CPU Limit
Wenn nein -> CPU Limit
KlaraElfer schrieb:
die CPU mehr reinschlagen als PCIE 4.0 und dann eben im CPU Limit um 25% schneller sein.
Die Wahl der Plattform ist somit zumindest für den Test der 3080 und 3090 (bei letzterer noch mehr) absolut falsch gewesen.
Das will ich sehen, wie du mit einer schnellern CPU 25% im GPU Limit (UHD) rausholst^^
 
Taxxor schrieb:
Wie gesagt, dann sollte man es nicht GPU Test nennen denn die GPU testet man damit nicht, sondern ein System mit einer CPU die noch 4-5 schnellere Modelle über sich hätte, in Zusammenhang mit der GPU.

Also sind auch CPU Tests mit einer übertakteten 2080Ti realitätsfern? Die besitzen auch nur eine handvoll User.
Steh auf dem Schlauch... sorry.

MfG
 
Banger schrieb:
Theoretisch sollte mein 550W-Netzteil eine 3080 auch fressen. Ich hatte bei meiner 2080 (defekt) und 2080S auch schon das volle Powertarget testweise benutzt und da hat sich das Netzteil keinen Strick bei den 300W-Regionen und mehr genommen. Aber vielleicht kann ich das in 12 Minuten auch knicken, weil ich mir das Video von Igor erstmal reinziehe.

Igor ist also eher für bisschen mehr als 550W. Da dürfen es dann schon 750W sein, um auf der sicheren Seite mit OC-Geraffel und so zu sein. 750W hat jedoch eine höhere Wahrscheinlichkeit, dass die Sicherung rausfliegt. Da wäre für mich dann so 650W der bessere Sweetspot, wobei ich glaube, dass meine CPU beim Spielen keine 150W frisst, aber da muss ich mal HW-Monitor mitlaufen lassen. Aber vielleicht reicht mit 550er noch.

Und Igors Furmark-Test, egal, wird doch seit der GTX570 schon wegkastriert, damit die GPU keinen Schaden davon nimmt.
 

Wahre Worte.
Ich sagte es ja.... die Preise für die Grafikkarten sind in keinster Weise gerechtfertigt.
Es bedarf dringenst eines dritten Players im Grafikkarten Markt. Hoffe da auf Intel nächstes Jahr. Damit es endlich mal wieder richtige Leistungssteigerungen gibt zu Normalen Preisen.
Wer sich jetzt wieder von Nvidia ausnehmen lässt, dem ist nicht mehr zu helfen.
 
Zuletzt bearbeitet: (Komplettzitat entfernt)
  • Gefällt mir
Reaktionen: Neronomicon und Clutch04
1600271948611.png


endlich sehe ich mal die Rückseite. Holy Cow. Das Ding is mega dicht bepackt und diese Caps...
 
  • Gefällt mir
Reaktionen: tomasvittek, trockenerToast, Benji21 und 3 andere
bad_sign schrieb:
Man kann immer auf FHD umschalten und schauen ob die FPS hochgehen, wenn ja -> wenig/kein CPU Limit
Wenn nein -> CPU Limit
Na und dann? Wieviel Abstand in Zahlen hat denn jetzt die 3080 zur 2080 in WQHD oder in FullHD bei den getesteten Spielen?
Kannst Du das aus dem Test hier herauslesen?

Du weisst schon, dass Auflösung und FPS unterschiedliche Belastungsszenarien auf einer GPU darstellen?
 
Payne19 schrieb:
Findet ihr es nicht komisch das eine RTX3090 nur 30 Watt mehr verbrauchen soll als eine RTX3080?

Obwohl +14GB, mehr CUDA Cores, mehr Tensor/RT Cores und und und... :confused_alt::confused_alt::confused_alt::confused_alt:
Doch, das hat mich von Anfang an irritiert, ich dachte daher auch, dass die 3080 wohl nicht an die 320W TDP rankommen wird im gaming aber offenbar schluckt sie da sogar bis zu 330W. Die Sache ist halt die, 75W kommt aus dem PCIE Slot, 2x 150W aus den 8 Pin, theoretisch kann die 3090 gar nicht viel mehr Power als 375W schlucken.

Andererseits sieht man, dass die 3080 wohl wegen 4% Mehrleistung unnötig 60W mehr schluckt, ist ja von Nvidia so eingestellt ab Werk... Die 3090 wird bei 350W wohl besser skalieren.
 
  • Gefällt mir
Reaktionen: edenjung
Matthias80 schrieb:
Steh auf dem Schlauch... sorry.

Wenn du die Leistung von CPUs testen willst, dann willst du, dass sie möglichst wenig durch die GPU limitiert werden, also nimmst du die schnellstmögliche GPU für den Test.
Daher stand bisher die 2080Ti dort und für den Zen3 Test wird man dann wohl die 3090 nutzen.


Wenn du die Leistung von GPUs testen willst, dann willst du, das sie möglichst wenig duch die CPU limitiert werden, also nimmst du die schnellstmögliche CPU für den Test.
Hier den 3900X zu nehmen ist in etwa so, als würde man im CPU Testsystem die 2080Ti gegen eine 2080 austauschen.
 
  • Gefällt mir
Reaktionen: tomasvittek, KlaraElfer, Esenel und eine weitere Person
Wadenbeisser schrieb:
Können sie nicht da 16 GB bei dem Speicherinterface nicht aufgehen, die nächste Stufe liegt bei 20 GB.

Niemand hat NV gezwungen die karte mit dem Speicherinterface zu veröffentlichen bzw. zu bauen.

...wäre AMD stärker hätte die GPU sicherlich mehr als 8GB oder bist du da anderer Meinung ? Du wahrscheinlich ja.
 
  • Gefällt mir
Reaktionen: edenjung
Rock Lee schrieb:
... und dem Kunden bleibt nichts übrig als eine Partnerkarte zu kaufen mit evtl. schlechterem Kühler für deutlich mehr Geld.
Ich sehe noch die Option, mit dem Kauf einfach bis zur Wiederverfügbarkeit zu warten.

PS: Vermutlich bin ich weder der Erste noch der Letzte mit dieser Anmerkung. ich bitte daher vorab um Nachsicht für evtl. Redundanzen.
 
  • Gefällt mir
Reaktionen: McFritte
Wahnsinn!!! Geiler Test und was ist das bitte für ein Monster?! Und die 3090 kommt erst noch. Nvidia hat hier einen tollen Job gemacht, das sag ich als "AMD-Fan".
 
  • Gefällt mir
Reaktionen: Trinoo
sialickiz schrieb:
...wäre AMD stärker hätte die GPU sicherlich mehr als 8GB oder bist du da anderer Meinung ?
Die 16GB 3070Ti und 20GB 3080(Ti?) ist doch schon so gut wie bestätigt, was meinst du warum man die in der Pipeline hat?
Nvidia wird schon damit rechnen, dass das gleiche wie bei 2060 und 2070 passiert und AMD am Ende genau zwischen 3070 und 3070Ti bzw 3080 und 3080Ti landen wird.
 
Zurück
Oben