News Nvidia: Riesiger Kühler der GeForce RTX 3090 FE fotografiert

iceshield schrieb:
Mal eine andere Frage. Wenn man ein NH-D15 hat wie ich, und z.B die 3090 in den ersten PCIe Slot reindonnern möchte, geht das dann überhaupt?
Hab den auch drin. Das wird eng, sollte aber passen. Habe so 1mm Platz zwischen der Backplate und dem Kühlkörper. Der hintere Lüfter liegt an der Backplate an.
 
  • Gefällt mir
Reaktionen: iceshield
SKu schrieb:
und die restlichen 8% sagen ist mir alles egal, ich kauf das Ding.
Und genau deswegen kann Nvidia ja verlangen was Sie wollen und müssen dabei nicht mal so viel besser sein, als die Grafikkarten der vorherigen Generation. Das wird sich nur ändern, wenn Konkurrenz entsteht, von daher kann man nur hoffen, das AMD und Intel in Zukunft etwas bieten und am Thron von Nvidia rütteln.

Aber so ganz Aussichtslos, wie derzeit die Situation erscheint ist es nicht, sieht man ja im CPU Bereich, wo Intel auch die Kunden an der kurzen Leine gehalten hat und Preise Jenseits von Gut und Böse verlangt hat. Jetzt ist Intel der Getriebene und AMD rüttelt ordentlich am Thron vom noch Marktführer. Warum also sollte so etwas nicht auch mal bei den GPU´s passieren und AMD gelingt mal wieder ein großer Wurf.
 
  • Gefällt mir
Reaktionen: dohderbert und Mcr-King
Laut Igors Lab angeblich 350 W Leistungsaufnahme unter Standardeinstellungen. Es gab mal Zeiten, da hat sich die Fachpresse negativ geäußert über die GTX 480 aka "Thermi" mit rund 300 W Verbrauch unter Spitzenlast. Und vor deren Erscheinen wurden gar die die 186 W Verbrauch einer Radeon HD 5870 kritisiert. Zumindest bei CB dagegen war bei Vega dann der Verbrauch ein untergeordnetes Thema im Test. Bin neugierig, wie man sich über Ampere dahingehend äußern wird.
 
  • Gefällt mir
Reaktionen: dohderbert und Mcr-King
Zum Preis muss ich mal folgendes sagen...ja es ist teuer ABER der Wertverlust ist nicht hoch.
Hier im CB Markt ging ein RTX 2080ti für 8-900 über die Theke...das wären 2-300€ ( bei 1100€ Neupreis) für 1,5-2 Jahre für die Beste GPU...also um die 10 € pro Monat.
Think about it...
 
  • Gefällt mir
Reaktionen: KlaraElfer und Laphonso
Zotac2012 schrieb:
Warum also sollte so etwas nicht auch mal bei den GPU´s passieren und AMD gelingt mal wieder ein großer Wurf.

Weil AMD in der Vergangenheit schon oft die besseren Produkte hatte im GPU Bereich, geändert hat es nichts. Nichtmal Thermi aka Fermi hat nVidia Einbußen beim Marktanteil eingebracht. Die Kunden verzeihen nVidia grundsätzlich zu viel.
 
  • Gefällt mir
Reaktionen: dohderbert, E1nweg, Volkimann und 3 andere
MiniM3 schrieb:
Hier im CB Markt ging ein RTX 2080ti für 8-900 über die Theke...das wären 2-300€ ( bei 1100€ Neupreis) für 1,5-2 Jahre für die Beste GPU...also um die 10 € pro Monat.
Sorry, weil mal eine RTX 2080Ti jetzt noch für 800,00 oder 900,00 Euro über den Tisch gegangen ist, heißt das ja nicht das der Wertverlust nicht hoch ist. Ich hätte das Geld noch für kurze Zeit gespart und deutlich mehr Leistung bekommen und das für eine neue Grafikkarte der Ampere Serie, die noch nicht ein bis zwei Jahre durch die Tretmühle des Overclockings getrieben wurde.

Wenn jetzt 70 bis 80% der RTX 2080Ti Besitzer versuchen ihre Grafikkarten auf dem Gebrauchtmarkt abzustoßen, kann man froh sein, wenn man für diese noch 600,00 Euro bekommt. Denn für ca. 800,00 Euro wird man eine RTX 3080 der Ampere Serie bekommen, die eine RTX 2080Ti in allen Belangen und vor allem beim RT Feature deutlich hinter sich lassen wird. Und das ist dann schon ein erheblicher Wertverlust!
 
  • Gefällt mir
Reaktionen: Celinna, cookie_dent und Mcr-King
Exorbitantist schrieb:
Laut Igors Lab angeblich 350 W Leistungsaufnahme unter Standardeinstellungen.

Igor hatte aber auch gesagt, die 24GB GDDR6X würden alleine um die 60'W verbraten. Die GPU selbst schätzt er auf rund 230W. Der Rest ist halt "Gedöns" auf der Platine. Sieht also schlimmer aus als es in Wirklichkeit ist.

Einzig um die Abwärme des Speichers macht er sich Sorgen.

Exorbitantist schrieb:
Es gab mal Zeiten, da hat sich die Fachpresse negativ geäußert über die GTX 480 aka "Thermi" mit rund 300 W Verbrauch unter Spitzenlast. Und vor deren Erscheinen wurden gar die die 186 W Verbrauch einer Radeon HD 5870 kritisiert.

Über die Jahre kam viel Kritik an den steigenden Verbräuchen. Ich kann mich noch an Grafikkarten mit 40mm Lüftern erinnern. Wenn man allerdings stetig mehr Leistung nach oben haben möchte, kommt man um die steigenden Wattzahlen ebenfalls nicht mehr herum.

Die Shrinks können das so langsam nicht mehr abfedern. Zur Erinnerung: Auch die 7nm Radeons waren echte Schluckspechte. Dasselbe dürfte für die nächste Generation allgemein gelten, egal von welchem Hersteller.

Exorbitantist schrieb:
Zumindest bei CB dagegen war bei Vega dann der Verbrauch ein untergeordnetes Thema im Test. Bin neugierig, wie man sich über Ampere dahingehend äußern wird.

AMD hat seit der 5870 keine energieeffiziente Karte mehr gehabt. Vega und einige andere Dual-GPU Lösungen waren bisher der absolute Tiefpunkt. Interessanterweise gab es über die Jahre immer wieder Meinungen, ihnen wäre der Verbrauch egal solange die Rohleistung entsprechend stimmen würde.

Hoffentlich hat wenigstens die neue Mittelklasse noch genügend Energieeffizienz für die Masse.
 
80% der Käufer interessieren sich einen Dreck für Energieeffizienz.
 
  • Gefällt mir
Reaktionen: EmanuelB und Mcr-King
Zotac2012 schrieb:
Sorry, weil mal eine RTX 2080Ti jetzt noch für 800,00 oder 900,00 Euro über den Tisch gegangen ist, heißt das ja nicht das der Wertverlust nicht hoch ist. Ich hätte das Geld noch für kurze Zeit gespart und deutlich mehr Leistung bekommen und das für eine neue Grafikkarte der Ampere Serie, die noch nicht ein bis zwei Jahre durch die Tretmühle des Overclockings getrieben wurde.

Wenn jetzt 70 bis 80% der RTX 2080Ti Besitzer versuchen ihre Grafikkarten auf dem Gebrauchtmarkt abzustoßen, kann man froh sein, wenn man für diese noch 600,00 Euro bekommt. Denn für ca. 800,00 Euro wird man eine RTX 3080 der Ampere Serie bekommen, die eine RTX 2080Ti in allen Belangen und vor allem beim RT Feature deutlich hinter sich lassen wird. Und das ist dann schon ein erheblicher Wertverlust!

Denke die 600 sind ziemlich sicher und finde ich nach zwei Jahren Nutzung vollkommen i.O. Kann gut damit leben und ich hatte ne Menge fun mit der Karte!
 
Zotac2012 schrieb:
Sorry, weil mal eine RTX 2080Ti jetzt noch für 800,00 oder 900,00 Euro über den Tisch gegangen ist, heißt das ja nicht das der Wertverlust nicht hoch ist. Ich hätte das Geld noch für kurze Zeit gespart und deutlich mehr Leistung bekommen und das für eine neue Grafikkarte der Ampere Serie, die noch nicht ein bis zwei Jahre durch die Tretmühle des Overclockings getrieben wurde.

Wenn jetzt 70 bis 80% der RTX 2080Ti Besitzer versuchen ihre Grafikkarten auf dem Gebrauchtmarkt abzustoßen, kann man froh sein, wenn man für diese noch 600,00 Euro bekommt. Denn für ca. 800,00 Euro wird man eine RTX 3080 der Ampere Serie bekommen, die eine RTX 2080Ti in allen Belangen und vor allem beim RT Feature deutlich hinter sich lassen wird. Und das ist dann schon ein erheblicher Wertverlust!

Da ist eine Vermutung ... schauen wir mal :-)
 
  • Gefällt mir
Reaktionen: Mafrinje
Meine 2080ti kommt in die Vitrine. :)
 
  • Gefällt mir
Reaktionen: Mafrinje
Ich bin recht froh darüber Gaming als Hobby zu haben. Meiner Ansicht nach eines der günstigeren Hobbys, wenn ich mir modellbau(Flugzeuge, Eisenbahn,Rallye) fotografie, Golf, HI-FI als Schlusslicht wo das komplette Equipment mit LS, Atmos, vor/Endstufe, sub in preisregionen eines Mittelklasse Wagens geht, ist Gaming auf die Nutzungsdauer einer Grafikkarte nicht sehr teuer.
Einzig erschwingliche HDR gsync Monitore könnten langsam mal kommen.

nvidia ist im highend bereich Konkurrenzlos und würde AMD 1-2% langsamer sein als eine 2080Ti sähe die sache ganz anders aus.
Der Markt reguliert sich selbst, doch was nvidia hier macht, sie gehen über Leistung und haben dort ein alleinstellungsmerkal.
Kann man ihnen dies verübeln? Liegt es vielleicht daran das nvidia in der Vergangenheit statt sich auszuruhen, die technik weiter voran gebracht hat?
Ich nehme nvidia das nicht übel, hätte als Marktführer genauso gehandelt, das mit intel mehr Bewegung in den markt kommt, ist für alle positiv.
Wenn die 3090 bald erscheint und 1300€ kostet, hat man die nächsten 5 Jahre Spaß mit seinen hobby und kann die karte sogar noch für gutes geld verkaufen.wertverlust hat man immer, zahlt so aber nur die Differenz plus mehr Leistung bei neuerer Technik.
Eine RTX für 5k nur zum zocken kauft niemand wie hier prophezeit, das wäre völlig am markt vorbei kalkuliert.
Habt Spaß mit euren Hobby denn bald kommt cyberpunk oder lest bis dahin “Neuromancer” statt euch über den Preis zu ärgern.
 
  • Gefällt mir
Reaktionen: freezer255, .Sentinel. und Mafrinje
Hardware_Hoshi schrieb:
Igor hatte aber auch gesagt, die 24GB GDDR6X würden alleine um die 60'W verbraten. Die GPU selbst schätzt er auf rund 230W. Der Rest ist halt "Gedöns" auf der Platine. Sieht also schlimmer aus als es in Wirklichkeit ist.

Einzig um die Abwärme des Speichers macht er sich Sorgen.
Was sieht schlimmer aus als es in Wirklichkeit ist?

Ob die GPU alleine nur 230W zieht, ist vollkommen latte. Es müssen die gesamten 350W abgeführt werden und nicht nur das, was die GPU verbrät. Verbrauch schönrechnen braucht man nicht, denn Speicher, Wandlerverluste etc. gehören immer und bei jeder Grafikkarte mit dazu.

Hardware_Hoshi schrieb:
Über die Jahre kam viel Kritik an den steigenden Verbräuchen. Ich kann mich noch an Grafikkarten mit 40mm Lüftern erinnern. Wenn man allerdings stetig mehr Leistung nach oben haben möchte, kommt man um die steigenden Wattzahlen ebenfalls nicht mehr herum.

Die Shrinks können das so langsam nicht mehr abfedern. Zur Erinnerung: Auch die 7nm Radeons waren echte Schluckspechte. Dasselbe dürfte für die nächste Generation allgemein gelten, egal von welchem Hersteller.
Wenn man effiziente Architekturen designt, dann kommt man auch um steigende Wattzahlen bei gleichzeitig trotzdem höherer Performance herum. Wird man mit RDNA2 und den +50% Perf/Watt sehen trotz desselben Prozesses. Die Xbox Series X ist schon einmal ein kleiner Vorgeschmack darauf.

Hardware_Hoshi schrieb:
AMD hat seit der 5870 keine energieeffiziente Karte mehr gehabt. Vega und einige andere Dual-GPU Lösungen waren bisher der absolute Tiefpunkt. Interessanterweise gab es über die Jahre immer wieder Meinungen, ihnen wäre der Verbrauch egal solange die Rohleistung entsprechend stimmen würde.
Die Fury Nano sieht das anders.

Verbrauch steht natürlich in Relation zur Performance, aber trotzdem muss man solch hohen Verbrauch (abseits der 5 %, die Wakü nutzen) entsprechend mit Luft kühlen. Das ist möglich, allerdings wird es irgendwann a) laut(er) und b) teu(r)er. Es muss schließlich in Material investiert und der Kühler schwerer gemacht werden, damit man auch bei 350W keinen Düsenjet in seinem Gehäuse hat bzw. die Temperaturen nicht auf Sauna-Niveau ansteigen.
 
  • Gefällt mir
Reaktionen: Volkimann
aldaric schrieb:
Weil AMD in der Vergangenheit schon oft die besseren Produkte hatte im GPU Bereich, geändert hat es nichts. Nichtmal Thermi aka Fermi hat nVidia Einbußen beim Marktanteil eingebracht. Die Kunden verzeihen nVidia grundsätzlich zu viel.
AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

Ist ja nicht so, dass nicht gerade AMD im Top End Segment aus Gamersicht an mehreren Fronten enttäuscht hat, und dennoch gingen die Radeon VII bis zu 900 Euro weg, was Deine Aussage unterläuft.

Im Midrange Bereich geht es nach Budgetbrackets, da machen sich genau 0% einen Kopf, wem man etwas "verzeihen" muss, sondern welche GPU gibt es für welches Bduget, und was sagen die Tests.

Ich bin mir sicher, dass AMD mit einer Radeon VIII, die 25 % schneller ist als eine 2080Ti, instant 1000 Euro verlangen kann (=Straßenpreis 1100-1200) , weil es in diesem Segment Hunger gibt nach fps und 1440p und 4K Gaming und Nvidia zu vermeiden.
Nvidia kann nichts dafür, dass AMD hier die liquiden fps Junkies nicht bedient und seit 3 Nvidia Generationen die Top End GPU nicht matchen kann.

Und da reden wir nicht nicht mal über die Featuresets und GSync.
 
  • Gefällt mir
Reaktionen: .Sentinel. und KlaraElfer
Für meine Anforderungen genügt "noch" meine 2080Ti. Klar, wenn mich wieder der Hafer sticht, dann gibt's eben was besseres. Je nach Lust und Laune. In meinem Alter schaut man nicht mehr so arg auf Kosten. Denn das letzte Hemd hat keine Taschen.

Grüsse
 
  • Gefällt mir
Reaktionen: TorgardGraufell und time-machine
Es überrascht mich nicht das plötzlich der Stromverbrauch und die Strompreise egal sind. Nur weil die Karte grün ist sind alle diese Sachen obsolet. Bei AMD hat es einen Aufschrei gegeben, da wurde um cent gefeilscht - man machte sich auf gut Deutsch lächerlich. Jetzt machen sich hier einige leider wieder lächerlich weil all das plötzlich nicht mehr interessiert. Da fragt mich sich nur was mit manchen Leuten los ist - der Verstand muss da wohl aussetzen - anders kann ich mir das nicht erklären wie man teils etwas feiern kann was deutlich zu teuer ist und auch noch zu viel verbraucht. Applaus an die Marketingabteilung welche es soweit gebracht hat. Ich für meinen teil bleibe bei der 2080, sie reicht mir völlig aus für WQHD und ich kann auch die Regler bedienen damit es auch ausreichen tut. Sollte irgendwann bedarf sein - ein Spiel also mit ach und krach auf mittleren Settings laufen - dann kann man es sich überlegen was zu kaufen.
 
  • Gefällt mir
Reaktionen: pipip, Chismon und Mcr-King
schkai schrieb:
Ich für meinen teil bleibe bei der 2080, sie reicht mir völlig aus für WQHD und ich kann auch die Regler bedienen damit es auch ausreichen tut. Sollte irgendwann bedarf sein - ein Spiel also mit ach und krach auf mittleren Settings laufen - dann kann man es sich überlegen was zu kaufen.
Alle mit einer 2080 aufwärts können doch sowieso
1.) Nvidias Launch abwarten
2.) AMDs Antwort abwarten und
3.) Die Custom Lösungen und Preise der AMD+Nvidia Portfolios abwarten

Das ist der Vorteil für Besitzer einer der Top 3 GPUs der current gen, der nächste Launch schiebt einen vielleicht 3-4 Plätze weiter nach hinten in der Benchmarkrangliste, das wars.

Meine Prognose, was finden wir in den Top 5 fps Charts Anfang 2021:
  • #1 Nvidia Ampere GPU (3090)
  • #2 AMD RNDA GPU Top Modell (Ich behaupte und hoffe einfach, dass AMD sich direkt hinter der 3090 einreiht)
  • #3 Nvidia Ampere GPU (3080? 3080ti?)
  • #4 AMD RNDA GPU Variante 2
  • #5 und die Turing GPU 2080Ti (es sei denn eine 3070 zieht da vorbei)

Danach folgen die 2080 Super und 2080.

Aber alle, die noch mit einer 970, 980, 980Ti oder mit einer 1000er Pascal unterwegs sind, für die wird es doch nun spannend, und das werden direkt mal >100-200%Performance Jumps. Das macht doch dann Laune! :D
 
  • Gefällt mir
Reaktionen: Nick.Bo und KlaraElfer
Zotac2012 schrieb:
Aber so ganz Aussichtslos, wie derzeit die Situation erscheint ist es nicht, sieht man ja im CPU Bereich, wo Intel auch die Kunden an der kurzen Leine gehalten hat und Preise Jenseits von Gut und Böse verlangt hat.

Hätte Intel die Preise während AMD´s Bulldozer Krise niedriger angesetzt und dafür auf Marge verzichtet, wäre AMD längst pleite.
Einige denken immer nur von der Wand bis zur Tapete, hauptsache deren Bedürfnisse nach niedrigeren Preisen werden erfüllt. Du kannst ja in die Arbeit gehen und zu deinem Chef sagen, ich verzichte freiwillig auf 1/3 meines Lohnes, dann würde ich dir das abkaufen.

Zotac2012 schrieb:
Sorry, weil mal eine RTX 2080Ti jetzt noch für 800,00 oder 900,00 Euro über den Tisch gegangen ist, heißt das ja nicht das der Wertverlust nicht hoch ist.

Bald wird es die Karte gebraucht für 550 bis 600 Euro geben, man muss eben zur richtigen Zeit verkaufen.

Zotac2012 schrieb:
Und das ist dann schon ein erheblicher Wertverlust!

Wenn ich zugleich Preise und Wertverluste kritisiere, ´dann bedeutet das aber auch, dass ich viel mehr Leistung für mein Geld bekomme, wenn ich nur ein oder zwei Jahre Geduld habe.

aldaric schrieb:
Weil AMD in der Vergangenheit schon oft die besseren Produkte hatte im GPU Bereich, geändert hat es nichts.

Das ist kompletter Unfug und das weißt du. ;) Siehe X800 2005.
aldaric schrieb:
Nichtmal Thermi aka Fermi hat nVidia Einbußen beim Marktanteil eingebracht.

AMD hatte über 40% Marktanteil an dedizierten Grafiklösungen, den zuletzt höchsten Marktanteil, bei Notebooks war er bei 70%, weil Fermi ineffizient war, erst mit der Geforce 6000 fiel der Marktanteil von AMD deutlich und erreichte dann mit dem Hawai Refresh einen Tiefpunkt bei 19%. Je schlechter die Produkte, desto weniger Marktanteil für AMD.

Exorbitantist schrieb:
Laut Igors Lab angeblich 350 W Leistungsaufnahme unter Standardeinstellungen.

So ein hoher Verbrauch ist meiner Meinung nach sehr kritisch zu sehen.
Es hängt natürlich davon ab wie schnell die Karte ist, aber die Wärme muss irgendwo abgeführt werden, da ergeben sich in vielen Gehäusen Kühlprobleme, zudem heizt es das Zimmer auf, hier wären UV Ergebnisse interessant.


Linmoum schrieb:
Ob die GPU alleine nur 230W zieht, ist vollkommen latte. Es müssen die gesamten 350W abgeführt werden und nicht nur das, was die GPU verbrät. Verbrauch schönrechnen braucht man nicht, denn Speicher, Wandlerverluste etc. gehören immer und bei jeder Grafikkarte mit dazu.

Das hast du bei der Radeon VII noch anders bewertet, dort war der hohe Stromverbrauch explizit kein Kritikpunkt, bezog sich nur auf den lauten Kühler. ;)
Mal angenommen Nvidia bekommt es hin, einen sehr guten Kühler zu verbauen und die Karte abseits von hohen Lasten sparsam zu gestalten (Idle, Videos, Teillast etc.) kann man das zumindest kaschieren, aber der Kritikpunkt wird bleiben.

Linmoum schrieb:
Wenn man effiziente Architekturen designt, dann kommt man auch um steigende Wattzahlen bei gleichzeitig trotzdem höherer Performance herum.

Die Effizienz lässt sich auch vor allem in Hinblick auf RTRT noch gar nicht bewerten.

Linmoum schrieb:
Wird man mit RDNA2 und den +50% Perf/Watt sehen trotz desselben Prozesses. Die Xbox Series X ist schon einmal ein kleiner Vorgeschmack darauf.

Ich denke nicht, dass sich AMD und Nvidia viel in Sachen Effizienz nehmen werden.

Linmoum schrieb:
Die Fury Nano sieht das anders.

Effizient ja, jedoch nur auf dem Effizienzniveau einer GTX 980 bei 225 Euro mehr Kosten zum Launch.
Effizient aber völlig überteuert und von der GTX 970 Mini ITX als sinnfreies Produkt ausgestochen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Laphonso und Mcr-King
@KlaraElfer sollte AMD bankrott gehen, hat Intel eine Monopolstellung und müsste zerschlagen werden. Dass Nvidia zu viel verlangt sollte jeder Person klar sein!
Intel hat die Preise um ca 50% gesenkt, gewinn wird immer noch gemacht, nur die Schröpfung ist nicht mehr so hart.
 
  • Gefällt mir
Reaktionen: Volkimann, Chismon und Mcr-King
Nein, sie verlangen eben nicht zu viel, das zeigen doch alle! Metriken.
Die Produkte werden sehr gut abgesetzt, die Konkurrenz kam die letzten Jahre kaum hinterher und hing in den roten Zahlen. Hätte Nvidia die RTX 2080 für 599 statt 699 angeboten, hätte es eine Radeon VII nie gegeben.
Kann ja sein, dass AMD sich konsolidiert hat und nun durch das CPU Geschäft wieder aggressivere Preise fahren kann, aber das halte ich für ausgeschlossen, da AMD auch Gewinne erzielen möchte.
 
Zurück
Oben