Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
- Ersteller Wolfgang
- Erstellt am
- Zum Test: GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
I
Informer
Gast
Husmin schrieb:Kann man die Founders Edition eigentlich nur bei Nvidia direkt kaufen oder wird es gleich noch andere Shops geben, die diese anbieten?
Die Founders Edition kann jeder Shop anbieten.
MrPuncho33
Lieutenant
- Registriert
- Sep. 2014
- Beiträge
- 662
Also ich hoffe ich kriege gleich eine MSI Trio oder Asus Strix ab. Habe momentan eine GTX 970, die dann weitergegeben wird. Die einzige Sorge die ich habe ist mein Fractal Design Ion Netzteil mit 560W.
beckenrandschwi
Lt. Commander
- Registriert
- Aug. 2004
- Beiträge
- 2.040
Wäre interessant gewesen zumindest einen Test meinetwegen in 4k mit deutlich übertakteter CPU zu zeigen, um zu sehen, ob mit einer schnelleren CPU noch mehr drin gewesen wäre.
Ansonsten ein super Beitrag. Bin auf das Flaggschiff und vor allem auf AMD gespannt.
Ansonsten ein super Beitrag. Bin auf das Flaggschiff und vor allem auf AMD gespannt.
Da auch, aber auch in "Control" mit RTX.Czk666 schrieb:In minecraft oder wo?
In Boarderlands 3 ohne RTX / DLSS um 93%
In Doom Eternal ohne RTX / DLSS
Abgesehen davon, sind es dann in einigen Games sogar teils mehr als 100% je nach dem mit RTX on und DLSS.
CharlieBarlie
Lt. Junior Grade
- Registriert
- Okt. 2019
- Beiträge
- 425
MrPuncho33 schrieb:Also ich hoffe ich kriege gleich eine MSI Trio oder Asus Strix ab. Habe momentan eine GTX 970, die dann weitergegeben wird. Die einzige Sorge die ich habe ist mein Fractal Design Ion Netzteil mit 560W.
Wie sieht denn Dein übriges System aus? Mit nem 10900K und/oder OC wird es nicht reichen.
Hast Du noch viele Nebenverbraucher (Lüfter, Wakü mit Pumpe) das ist es sowieso vorbei.
Bei nem Ryzen 3600 könnte man es probieren. (Auf Basis der FE3080 daten) Bei den Customs musst Du aber doch schon noch die Tests abwarten....
Schau mal bei IgorsLAB vorbei. Der hat auf YT zu der Frage NT und 3080 ein gutes Video gemacht.
hans_meiser
Lt. Commander Pro
- Registriert
- Jan. 2016
- Beiträge
- 1.531
Hat jemand Informationen zum Stromverbrauch auf dem Desktop mit mehreren Bildschirmen? Ich benutze 3 Bildschirme, und meine 2080 frisst 57W im regulären Desktop, kaum was laufen.
Doenereater
Cadet 4th Year
- Registriert
- Dez. 2019
- Beiträge
- 90
Ich glaube im Test spart die 3080 im Vergleich zur 1080ti 2/3 Strom (60 zu 20 Watt Idle-Verbrauch mit 2 (!) Bildschirmen. Denke mit 3 wirds ähnlich werden?!hans_meiser schrieb:Hat jemand Informationen zum Stromverbrauch auf dem Desktop mit mehreren Bildschirmen? Ich benutze 3 Bildschirme, und meine 2080 frisst 57W im regulären Desktop, kaum was laufen.
Matthias80
Captain
- Registriert
- Sep. 2004
- Beiträge
- 3.843
Na wie wir ja sehen kann eine Software so schlecht Programmiert sein, das sie unendlich RAM und VRAM voll knallt.Pisaro schrieb:Ob die Software Müll ist ist dabei völlig irrelevant wenn ich diese Software oft benutze. Dann kaufe ich eine GPU mit genug RAM, fertig.
Dann passt deine Logik nicht mehr.
Wegen 0,0x% mir eine Monster Karte zu Kaufen die in 99,99999999999999% sich langweilt, bzw. den RAM nicht mal zur hälfte Füllt. Ist wie Sinnvoll?
Wenn dann neue Spiele erscheinen... die vielleicht wirklich Sinnvoll mal mehr VRAM benötigen, ist das Monster alter Schrott.
Man sieht einfach NVIDIA hat das letzte Rausgequetscht.
Irgendwann werden die Lücken vielleicht noch Sinnvoll gefüllt...
Aber wahrscheinlich nur VRAM technisch.
So groß wird der unterschied 3080 -> 3090 nicht sein, das man da Sinnvoll noch was unterbringen kann.
OC ist kaum möglich. Da werden auch die Customs nichts dran Ändern.
Vielleicht taucht ja ein Modell auf, von den vielen die Rumgegeistert sind... wo 16GB technisch möglich sind.
Ne 3080 mit 20GB fände ich Sinnlos. 16GB wäre so ziemlich perfekt.
Mit AMD wird die Sache auch bald klarer... mal abwarten.
MfG
MrPuncho33
Lieutenant
- Registriert
- Sep. 2014
- Beiträge
- 662
@CharlieBarlie hab einen i7-10700 non K. 3x SSDs, 1x HDD, 3x 120er Lüfter, 2x 140er Lüfter, 2x 16GB Ram, MSI Z490 Gaming Plus.
Hab es mal bei Enermax alles so eingegeben mit Peripherie usw. mit RTX 3080 angeblich 543W.
Hab es mal bei Enermax alles so eingegeben mit Peripherie usw. mit RTX 3080 angeblich 543W.
- Registriert
- Aug. 2004
- Beiträge
- 11.821
Mir ist das ehrlich gesagt eh essig. Der erste Hersteller der zu meiner RX470 ne Karte als lohnenswertes (40~50%) upgrade mit 6pin Stromanschluss anbietet bekommt mein Geld. Wie eine 1000 Euro Karte bei 1080p läuft ist mir völlig egal und ich denke das dürfte vielen so gehen. Andersrum gesagt, die Zielgruppe die eine 3080+ oder RX6000 basierend auf 1080p Benchmarks kauft dürfte relativ klein sein, no?
Wenn ich eh weiss, dass 1080p Benchmarks CPU limitiert sind egal ob 10900k oder 3900xt, warum würde ich dann Wert auf genau diese Benchmarks legen um meine 1000 Euro GPU zu bewerten?
Das ist ja exakt die Argumentation die bei CPU tests immer pro 720p tests kommt. Man kann ja CPUs angeblich in 1080p nicht korrekt bewerten weil die 2080Ti da bremst. Jetzt wollen die gleichen Jungs halt High End GPUs in 1080p bewertet sehen.
Das Ganze ist total albern und vollkommen durchschaubar.
Wenn ich eh weiss, dass 1080p Benchmarks CPU limitiert sind egal ob 10900k oder 3900xt, warum würde ich dann Wert auf genau diese Benchmarks legen um meine 1000 Euro GPU zu bewerten?
Das ist ja exakt die Argumentation die bei CPU tests immer pro 720p tests kommt. Man kann ja CPUs angeblich in 1080p nicht korrekt bewerten weil die 2080Ti da bremst. Jetzt wollen die gleichen Jungs halt High End GPUs in 1080p bewertet sehen.
Das Ganze ist total albern und vollkommen durchschaubar.
Zuletzt bearbeitet:
Vitec
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.920
Liegt doch auf der Hand. Die 32bit si chips sind mit den sms verbunden. Wenn du hier 384 bit mit 12gb ram machst kommt am ende mit pech noch sowas wie die 970 raus. Ich denke man hat eben genug ausschuss und will die chips die 384 bit und volle chader schaffen als teure 3090 verkaufen.McFritte schrieb:Nur wer hat denn mit der Pistole hinter NVIDIA gestanden und sie gezwungen das Speicherinterface der 3080 auf 320 Bit zu beschränken? Die 3080 und die 3090 nutzen den gleichen Chip ( GA102), jetzt erzähl mir nicht die könnten nicht auch eine 3080 mit 384 Bit Speicherinterface und somit 12 GByte Speicher produzieren.
Ausserdem würde eine 3080 mit 384 bit und 12 gb von der Rohleistung nochmals zur 3090 aufschliessen und mit 12gb wäre man dann auch so gut bestückt das einige enthusiasten statt zur 3090 auch zur 3080 greifen.
Für mich ist es aber immer noch denkbar, dass wenn in einem halben jahr die Ausbeute besser ist man einen 3090 chip mit 384 bit nimmt und eine 3080 mit 12gb bringt, anstatt die 20gb version.
Bei der 3090 ist ja auch immer noch luft noch eine 3090 ti oder was auch immer nachzuschieben mit vollem shaderausbau und nochmals schnelleren vram wenn micron hier mitspielt.
Bei der 3080Ti kann man dann ja leicht billigeren speicher verbauen um bei der bandbreite nicht zu nahe an die 3090ti zu kommen.
Gibt einige Möglichkeiten, aber Nv wird halt die nehmen die am wirtschaftlichsten ist.
Da ist es gut das AMD hier wohl 16Gb bieten wird, was in meinen Augen für die Leistung im RTX 3080 Berreich ausreichend wäre.
Für mich also abwarten was AMD bringt .
MrPuncho33 schrieb:@CharlieBarlie hab
Hab es mal bei Enermax alles so eingegeben mit Peripherie usw. mit RTX 3080 angeblich 543W.
Das klingt vernünftig. Die Herstellerangaben zur benötigten Netzteilgröße waren auch schon immer sehr großzügig und mit doppelter Sicherheit berechnet, warum sollte es diesmal also anders sein?
Wer die Karte so nutzt wie sie verkauft wird fährt mit der offiziellen Angabe sehr gut, wer am Power Limit drehen möchte, plant lieber noch einmal 100Watt mehr ein.
Bei mir hängt schon länger ne Karte mit 330W an einem 750Watt Netzteil. Und ich habe noch nie eine Netzteilauslastung über 550Watt in der Software gesehen.
LencoX2
Commander
- Registriert
- Feb. 2006
- Beiträge
- 2.191
P/L kommt für 700 EUR schonhin.
Richtig safe ist ein Kauf aus meiner Sicht aber nicht, weil die Karte 2 Nachteile hat, die ich einfach nicht ignorieren kann.
1. RAM zu klein für UHD
Ich hab 2x eine Karte geholt, wo es zu Release hiess, "Kommt aktuell hin, bis auf x,y,z". Nur wurden dann die x,y,z sehr schnell viel mehr, dass es dann Probleme machte, bzw. einfach nicht ging.
2. Wärmeabgabe zu hoch
Es geht hier nicht um die Temps oder Lautstärke der Karte sondern um die Wärmeabgabe per se. Die 320 Watt müssen ja irgendwo hin. Bereits eine stark UV Vega56@180 Watt heizt so ihren Raumbereich auf, dass es warm wird. Wie wird es da wohl mit 320 Watt sein!??!?
1. RAM zu klein für UHD
Ich hab 2x eine Karte geholt, wo es zu Release hiess, "Kommt aktuell hin, bis auf x,y,z". Nur wurden dann die x,y,z sehr schnell viel mehr, dass es dann Probleme machte, bzw. einfach nicht ging.
Ich machs nicht noch mal so. Mir sind 10 DB für UHD zu klein für ein Upgrade von 8 GB
Richtig safe ist ein Kauf aus meiner Sicht aber nicht, weil die Karte 2 Nachteile hat, die ich einfach nicht ignorieren kann.
1. RAM zu klein für UHD
Ich hab 2x eine Karte geholt, wo es zu Release hiess, "Kommt aktuell hin, bis auf x,y,z". Nur wurden dann die x,y,z sehr schnell viel mehr, dass es dann Probleme machte, bzw. einfach nicht ging.
2. Wärmeabgabe zu hoch
Es geht hier nicht um die Temps oder Lautstärke der Karte sondern um die Wärmeabgabe per se. Die 320 Watt müssen ja irgendwo hin. Bereits eine stark UV Vega56@180 Watt heizt so ihren Raumbereich auf, dass es warm wird. Wie wird es da wohl mit 320 Watt sein!??!?
Ergänzung ()
Siehe meinen Post:Pixelhomie schrieb:10GB reichen aktuell halt vollkommen aus. Wer mehr braucht, warum auch immer, greift zur 3090 oder wartet auf die Ti Modelle.
1. RAM zu klein für UHD
Ich hab 2x eine Karte geholt, wo es zu Release hiess, "Kommt aktuell hin, bis auf x,y,z". Nur wurden dann die x,y,z sehr schnell viel mehr, dass es dann Probleme machte, bzw. einfach nicht ging.
Ich machs nicht noch mal so. Mir sind 10 DB für UHD zu klein für ein Upgrade von 8 GB
aeri0r
Ensign
- Registriert
- Dez. 2006
- Beiträge
- 233
Schwierig zu widerstehen Aber ich warte noch bis zur 3090 und schau mir die an. Nicht wegen 4K+ Performance, eher wegen der Raytracing performance - will Cyberpunk und andere RTX möglichst flutschig spielen.BelneaHP schrieb:So Ihr Typen. Noch 48 Minuten dann gehts ab bei NV
monitorhero
Lt. Junior Grade
- Registriert
- Apr. 2017
- Beiträge
- 295
Werden die Custom Karten auch heute ab 15 Uhr verkauft?
M
Mucho79
Gast
Eine die ich wasserkühlen kannmonitorhero schrieb:Werden die Custom Karten auch heute ab 15 Uhr verkauft?
I
Informer
Gast
monitorhero schrieb:Werden die Custom Karten auch heute ab 15 Uhr verkauft?
Steht ganz vorne im Artikel: