Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

TorstenFP schrieb:
ch hab mir nun auch mal die Test von Computerbase und PCGH angesehen und muss sagen die Leistung ist Ok, aber der Stromverbrauch ist Europäische Verhältnisse einfach zu hoch

Deckel es einfach auf 270W und schon ist der Stromverbrauch wieder vollkommen in Ordnung.

TorstenFP schrieb:
4K alles schön und gut, aber ich werde auf 1440p bzw. auf den 2 Bildschirm auf 1080P bleiben.

Da solltest Du "Leistungsaufnahme der Grafikkarte – Windows-Desktop - > Dual-Monitor, 2 × 3.840 × 2.160, 60 Hz:" anschauen.

TorstenFP schrieb:
Da man auch älter wird und mit 4K die schrfit zu lesen einfach zu klein ist.

Du weißt aber schon, dass man die Schrift unter Windows vergrößern kann?

TorstenFP schrieb:
Wie die PCGH Redateure selber sagen das selbst ein Ryzen 9 3900X mit einer MSI Geforce RTX 3080 Gaming X Trio 10G mit einen 750 Watt Netzteil nicht ausreicht das die Schutzschaltung aktiviert wird.

Und wie schon der CB-Test zeigt, ist die ab Werk erlaubte Leistungsaufnahme schon OC. Deckel es auf 270W und schon (verlierst da nur 5 % an Leistung) hast Du eine sparsame und leise Karte.

TorstenFP schrieb:
Da ich ja damals von einer MSI 970 (145 Watt) auf eine MSI 1070 (150 Watt) bei fast gleichen Stromverbrauch aber mit 50 - 60 % mehr Perforcemance gewechselt bin, warte ich bis alle Karten von Nvidia und AMD auf dem Markt sind und enscheide dann.


Die Karten sind High-End, was bitte erwartest Du da? Das man bei 150W eine 3-fache Leistung dafür bekommt? Und wenn Dir die 1070 noch ausreicht, wieso überhaupt dein Kommentar?
 
  • Gefällt mir
Reaktionen: Oneplusfan und gartenriese
Pizza! schrieb:
Eine Theorie die sich hartnäckig hält, es ist weniger! Der Igor hat es mal erklärt. Es dürfen über den PCI-E Slot max. 5,5A laufen, was bei 12V dann 66 Watt ergibt. Es ist nur dann mehr wenn es eine Überspannung gibt und mehr als 12V ankommen.

Er ist halt so spezifiziert. Was in der Praxis wirklich passiert, wie viel Reserven er ab kann, steht auf einem anderen Blatt. Es gab so gar Karten die über den PCI-E Slot 87 Watt oder mehr ziehen durften! Waren meist die super OC Karten einer Lightning Z oder Asus glaube ich hatte da auch was im Angebot.

Zumindest konnte man das damals auch noch schön sehen im Bios wie das Powerlimit aufgeteilt wurde. Gab ja noch einen Bioseditor mit dem man sich seine Lüfterkurven, Powerlimit, Takt usw selbst anpassen konnte... ;)
 
Zuletzt bearbeitet:
Die 3080 FE ist ja eine komplette Nullnummer seitens Nvidia. Bisschen Speicher-OC und die Leistung der Karte knickt ein, weil die Tj 110°C überschritten hat. Bei 120°C ist der Speicher tot. Natürlich kann man die Tj bei Nvidia nicht direkt auslesen, weil das wäre ja ein böser und schlechter Wert für Nvidia.

Zum Glück hat das mal Igor mit seiner Fach-Expertise aufgegriffen und nachgemessen:

Wir haben ja noch nicht einmal mehr sommerliche Temperaturen und die Speichertemperatur ist ohne OC schon nah an der Selbstzerstörungsgrenze.

Mal gucken wie lange es dauert bis die ersten Threads mit Artefaktbildung bei RTX 3000 auftauchen.

Ne danke, GDDR6X ist so ein typisches Beta-Produkt, das beim Endkunden mal ausgiebig getestet werden soll.
 
  • Gefällt mir
Reaktionen: PS828, Ginlock, Banger und 10 andere
Apocalypse schrieb:
... das mehr and Cores bringt natürlich mehr Leistung pro Watt, so mit gleicher Wattanzahl betrieben ... dazu kommt natürlich das man auf eine 3070 mit 16GB eventuell bis zum Sanktnimmerleinstag warten muss, aber auf jeden Fall noch ne ganze Weile … wer noch warten kann, der sollte so oder so zumindest mal bis zu den AMD Karten warten, selbst wenn es dann ne 3080 wird … oder halt ne 3070 mit 8GB.

Nun ja, wir wissen ja noch nicht wie viele Shader eine RTX 3070Ti/Super/was auch immer bekommen koennte als moeglicher Ampere Refresh mit doppeltem Speicher.

Wie erwaehnt, gaebe es da einige Stellschrauben, aber natuerlich muesste die Karte von der Leistung zumindest knapp unter einer RTX 3080 bleiben aufgrund der Bezeichnung und fuer eine sinnvolle Einreihung in eine weitere Leistungsklasse.

Ob das geschehen wird oder nicht, wird man sehen muessen, aber ich denke anhand des PCGH Artikels schon, dass man klar damit rechnet, dass nVidia AMD/RTG versuchen wird mit einem fruehen Refresh im kommenden Jahr auszukontern (somit das gesamte "Ampere Pulver" noch lange nicht verschossen hat und mit dem mickrigen Speicher und dem Hype natuerlich die Leute moeglichst gewinnbringend mit weniger abzuspeisen), weswegen ich da auch keine Eile verspuere eine RTX Ampere Karte aktuell schon zu kaufen, zumal die Zen 3 Vermeer CPUs auch noch nicht auf dem Markt sind und sich noch nicht eingependelt haben preislich.

Wenn ich lese, dass einige wohl 849 Euro fuer ein solides/gutes MSI RTX 3080 Custom-Modell ausgegeben haben, warte ich da lieber und spare mir den Early Adopter/Hobbyenthusiasten-Aufschlag, zumal ich immer noch unentschieden bin, ob sich mehr als eine untere Oberklasse-GPU lohnen wuerde.

Ergo, warte ich lieber die weitere Entwicklung ab, denn (angelehnt an die Konsolen-Speicherausstattung) unterhalb von 12 GB kommt fuer mich eigentlich keine neue GPU mehr in Frage (und eine RTX 3090-Mondpreis-GPU schon gar nicht) ;).
 
  • Gefällt mir
Reaktionen: gartenriese
Rockstar85 schrieb:
Wie ich nach dem DF Video sagte, wartet bitte Testreihen ab. Schöne Karte aber meiner Meinung nach, nur was für Pascal und Maxwell Kunden.
Oh Mist, ich habe noch eine Kepler. Ist dann scheinbar nichts für mich ;)
 
  • Gefällt mir
Reaktionen: Chismon, Rockstar85 und gartenriese
Ja der Hotspot da oben ist schon heftig, 90°C ohne besondere Umstände...
Bin mal gespannt was bei der 3090 passiert, da ist der Kühler nochmal deutlich größer, breiter.
 
SKu schrieb:
Wir haben ja noch nicht einmal mehr sommerliche Temperaturen und die Speichertemperatur ist ohne OC schon nah an der Selbstzerstörungsgrenze.
😂🤣
Dafür liebe ich dieses Forum, Dramatik und clickbait Tauchen :D

Besser ausgedrückt: Die 3080 FE ist von Nvidia selbst schon an der maximalen Leistungsgrenze produziert und ins Feld gebracht, zum Leid der AiB Partner.

Und die 2080Ti GPUs werden alle seit Tagen wieder wertvoller, da die nämlich ganz andere, um nicht zu sagen ideale overclocking Korridore erlauben, welche die Performance Lücke zur 3080 sichtbar kleiner werden lassen, auf 20% oder weniger, je nach Spiel.

Wer die 3080 deutlich und stabil in die 2000er oder gar 2100er oc Werte prügeln will, braucht - wie bei Turing - Wasserkühlung.
Turing hatte nur mehr Luft unter Luft.

Das wussten wir schon vor Igors Video.

Mehr und total überraschende News um 11.
 
Pizza! schrieb:
Ja der Hotspot da oben ist schon heftig, 90°C ohne besondere Umstände...
Bin mal gespannt was bei der 3090 passiert, da ist der Kühler nochmal deutlich größer, breiter.

Das ist aber der Hotspot am PCB, nicht vom Silizium des Speicherchips. Der Speicher hat ja schon über 100°C. Da ist ein Delta von rund 20 Kelvin dazwischen. Das ist schon eine Hausnummer. Luft für Speicher-OC ist da nicht, außer die Karte läuft mit max. RPM oder wird unter Wasser gesetzt. Ansonsten verpufft das Leistungsplus, weil die Chips throtteln. Das ist für mich kein ausgereiftes Produkt.
 
  • Gefällt mir
Reaktionen: Chismon
Also ich hab ne Klimaanlage in meinem Gaming/Arbeitszimmer. :D kein Problem mit Aufheizen. Wäre mir zu blöd wegen Abwärme auf Leistung zu verzichten.
 
  • Gefällt mir
Reaktionen: Wolle!!
Ich lasse die Bestellung über Amazon weiterlaufen, da ich nicht bereit bin mehr als die 699€ aus Nvidias Werbung zu bezahlen. 800€ - 900€ kriegen die von mir nur für 20GB Speicher.
 
  • Gefällt mir
Reaktionen: Chismon
Was für ein Paper Launch das ganze. Traurig was Nvidia da abzieht..
 
  • Gefällt mir
Reaktionen: Chismon, Foxel und schkai
Apocalypse schrieb:
Na dann hast du deine Antwort. Du kannst natürlich trotzdem zwei Kabel nehmen. Und natürlich kann es bei einem 650W Netzteil trotzdem knapp werden, gerade wenn der 10700k auch ordentlich ziehen kann und das Netzteil vielleicht nicht mehr ganz taufrisch.

335W bei der Zotac. Die CPU schluckt beim Zockwn maximal 80W. Ist aber sowieso egal, hab keine von Amazon bekommen und jetzt sind mir die Preise zu hoch. 700 Euro war Schmerzgrenze.
 
jk1895 schrieb:
Wie laut sind jetzt eigentlich 42,5 Dezibel? Hört man das arg aus einem geschlossenen Gehäuse?
Das ist relativ einfach, du nimmst deine "unhörbare" Karte und schaust mal nach wie viele RPM sie dabei hat.
Unhörbar heißt ja nur das sie nicht vom Rest raus sticht! Diese RPM merkst du dir und schaust/frägst wie vielen RPM die 42,5db entsprechen. Nun drehst du deine mal auf die gleiche RPM.
Zwar gibt es auch hier Differenzen bei verschiedenen Lüftern aber so groß sind nun auch wieder nicht.
Sehr leise sind bei mir bis~1050RPM, hörbar aber noch angenehm unter ~1400RPM. Selbstverständlich meine ich hier GraKa Lüfter. Bei einem 14er Gehäuselüfter eher<750RPM und bei einem 12er <1100RPM.
 
  • Gefällt mir
Reaktionen: Vitec und jk1895
SKu schrieb:
Die 3080 FE ist ja eine komplette Nullnummer seitens Nvidia. Bisschen Speicher-OC und die Leistung der Karte knickt ein, weil die Tj 110°C überschritten hat. Bei 120°C ist der Speicher tot. Natürlich kann man die Tj bei Nvidia nicht direkt auslesen, weil das wäre ja ein böser und schlechter Wert für Nvidia.

Also als eine Nullnummer würde ich die 3080 nicht bezeichnen.

CB hat das Problem ja schon von einer anderen Seite aufgegriffen. Das Problem bei der Karte ist, dass Nvidia bei der Leistungsaufnahme viel zu hoch angesetzt hat, weshalb es wenig/überhaupt kein OC Potential (bei FE - andere Kühllosungen der Customs können da ein Stückchen mehr) besitzt.

Mit dem Test 320W vs 270W zeigt es doch deutlich, dass man für 18 % an Mehrverbrauch nur 4 - 6 % an Leistungsplus gewinnt. Das alleine hat schon gezeigt, dass die Karte von Haus auf am Limit rennt.

Wie ich schon bereits geschrieben habe, ist diese Karte zum UV (und man verliert hier kaum an Leistung, dafür gewinnt man beim Verbrauch, Kühlung und Lautstärke). Diesbezüglich würde ich auch nicht mehr als 699 EUR dafür bezahlen. Customs würde ich da für 100 - 200 EUR mehr ehe links liegen (für Kühllösung für paar witzige fps mehr, 100 - 200 EUR mehr zu bezahlen - nein Danke).
 
SKu schrieb:
Die 3080 FE ist ja eine komplette Nullnummer seitens Nvidia. Bisschen Speicher-OC und die Leistung der Karte knickt ein, weil die Tj 110°C überschritten hat. Bei 120°C ist der Speicher tot. Natürlich kann man die Tj bei Nvidia nicht direkt auslesen, weil das wäre ja ein böser und schlechter Wert für Nvidia.

Zum Glück hat das mal Igor mit seiner Fach-Expertise aufgegriffen und nachgemessen:
Ulala!
Dass der Ram "warm" wird, hatte Igor ja bereits angedeutet... aber so "warm", beinahe "kurz vor kritisch warm"...

Ich glaube Karten mit GDDR6x verlieren bei mir gerade ordentlich an Attraktivität, vor allem da es natürlich noch keine Langzeiterfahrungen (gerne inkl. warmer / heißer Sommermonate) gibt
 
  • Gefällt mir
Reaktionen: TorstenFP und Chismon
SKu schrieb:
Das ist für mich kein ausgereiftes Produkt.
Das sagte man auch über die 2080 und 2080Ti FE, weil die ja viel oc Raum gar nicht ausgenutzt hatten und wir teilweise , je nach Game und Auflösung, 10-20 % (!) fps Differenzen unter Luftkühlung bei den Customboards zur FE bereits hatten
Das war damals Kritikpunkt der Turing FE..

Jetzt reizt Nvidia "ab Werk" mal alles aus, und nun findet man nun aber das doof...?

Egal wo und wie, Nvidia bashing findet immer einen Grund, und wenn man einfach den Grund um 180 Grad wendet, weil man sich sonst ja widersprechen würde gegenüber 2018 😂
 
  • Gefällt mir
Reaktionen: CrustiCroc
SKu schrieb:
weil die Chips throtteln. Das ist für mich kein ausgereiftes Produkt.

Jedes Produkt hat das Problem, wenn zu viel Saft reingepumpt und es zu heiß wird. Das hat AMD, Intel und Co.. Es war eine dumme Entscheidung von Seiten Nvidia die Karte auf die Maximallast laufen zu lassen. Ganz ehrlich, wenn die 3080 FE nur so schnell wäre, wie die 2080ti OC CD, wäre diese Karte zum Preis von 699 EUR trotzdem ein Renner gewesen - den vorher musste man dafür noch 1.500 EUR zahlen.
 
Ich warte die Mittelklasse und was AMD noch so rausbring.
 
Zuletzt bearbeitet:
Zurück
Oben