News Nvidia: Riesiger Kühler der GeForce RTX 3090 FE fotografiert

Shoryuken94 schrieb:
---Komplettzitat entfernt---
bitte Zitierregeln beachten

Ja wenn das Wörtchen wenn nicht wäre. Bedeutet ungefähr so viel wie: "für den Fall".

Es geht mir darum das es irrelevant ist ob ich ein Produkt erwerbe/erwerben will. Völlig unabhängig davon kann ich das Produkt für mich persönlich bewerten und meine Meinung dazu sagen.

Und sollte sich der Verbrauch bewahrheiten, wovon zumindest stark auszugehen ist, (siehe Kühler und 12-Pin für die Founders Edition) und die Kühlung der Vram-Chips tatsächlich, wie von Boardpartnern gezwitschert, so am Limit sein, dann ist das einfach ineffizient. Egal ob man die Wärme abführen kann. Brechstange eben.

Und auch der Preis geht wahrscheinlich in die Richtung 1200+, und das ist für mich persönlich, unabhängig von Leistung und Geldbeutel einfach überzogen. Das dürfen andere ruhig anders sehen. Die sollen sich dann aber nicht beschweren wenn sie irgendwann 1000€ für ne Mittelklassekarte bezahlen. Denn wenn die Leute solche Preise zahlen werden die GPU-Hersteller das Geld auch nehmen.

Wie gesagt, WENN es so kommt.

Ich hoffe das war diesmal deutlich genug ausgedrückt...
Ergänzung ()

Übrigens meine Schätzung liegt bei 1€ pro gramm für das Topmodell. (1500€/g)
Und das es OC-Modelle mit 2 mal 12-pin geben wird innerhalb der 3000er Generation.

Aber vllt ist auch meine Glaskugel kaputt. 🤷‍♂️
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: 7hyrael und Mcr-King
Rumguffeln schrieb:
das richtige geld machen die mit den kleinen aber nicht mit den großen

Die Marge wird schon richtig gut sein. Nur die Stückzahl ist halt begrentzt.:) Das ist halt ein Vorzeige Top Produkt, nichts für die Masse die immer noch auf Full HD spielen.
 
Phoenixxl schrieb:
Insofern sollten wir uns freuen, dass es bald die Leistung einer 1080 (ti) für vermutlich um die 400€ gibt.
Das wäre äußerst enttäuschend, da es das bereits heute gibt mit der RX 5700 (XT).
 
  • Gefällt mir
Reaktionen: Mcr-King, E1nweg, Dittsche und 2 andere
HerrRossi schrieb:
Ins DAN Case passt die Karte wohl nicht rein :D

Challange accepted! GPU Spacer liegen hier schon rum. Tricksen ist erlaubt oder? :evillol:
 
  • Gefällt mir
Reaktionen: Mcr-King
Edit: deleted
 
Deutet sich da Thermi 2.0 an?
 
  • Gefällt mir
Reaktionen: Mcr-King
Wow, ich wollte gerne alle Kommentare lesen, habe einige Stunden nicht reingeschaut und jetzt ist der Hypetrain abgefahren und hat 44 Seiten produziert :(
 
  • Gefällt mir
Reaktionen: Colindo
Syrato schrieb:
sollte AMD bankrott gehen, hat Intel eine Monopolstellung und müsste zerschlagen werden.

Wir haben nicht mehr das Jahr 2000. Ultra-Mobile mit sehr viel höheren Stückzahlen als Client x86 wird durch die ARM ISA dominiert und bei Servern sowie HPC (siehe Amazon AWS, ARM, Nvidia etc.) gibt es ebenfalls Konkurrenz. Mit Mellanox hat Nvidia inzwischen eine ganze Stange Netzwerk und Interconnect IP. Eine marktbeherrschende Stellung oder auch quasi Monopol in einem Teilsegment reicht nie und nimmer um eine Zerschlagung zu rechtfertigen. Ein paar Auflagen und das wars. Sonst hätte es beispielsweise Qualcomm längst erwischt.

Dass Nvidia zu viel verlangt sollte jeder Person klar sein!

Nvidia hat mit Produkten wie der RTX 2080 TI (TU102, 754mm²@12nm) am oberen Ende eine weitere Produktkategorie geschaffen. Vermutlich wäre es besser gewesen das deutlicher über eine Bezeichnung wie 2090 herauszuarbeiten. Die Vorgängergeneration ging nur bis maximal 471mm² (GP102). Auch AMD ist mit Vega (14nm) unter 500mm² geblieben. Hinzu kommt das die Hardware nur ein Teil des Produktes ist. Genauso wichtig ist heute die zugehörige Software und hier macht man bei Nvidia einfach auch einen sehr guten Job inkl Alleinstellungsmerkmale.

Da beispielsweise AMD bis dato nichts vergleichbares hat (weder Hard noch Software) ist "zu viel" relativ. Am oberen Ende ist immer proportional deutlich mehr zu bezahlen und damit nimmt Nvidia für die Produkte das was der Markt bereit ist für das jeweilige Paket zu bezahlen. Ist nicht günstig aber komplett daneben eben auch nicht. Insgesamt ist Nvidia heute auch in einer Position in der bei gleicher Performance und Effizienz mehr verlangt werden kann als bei AMD (-> Software + Brand).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pipip
M1ximili1n schrieb:
Diese founders-Editon wird dann wohl auf Augenhöhe mit den Partnerkarten sein. seit der 2000er Serie lernt Nvidia in diesem Punkt dazu, dieses Mal bitte mit semi-passiv-Funktion und es spricht nichts mehr gegen das Referenzdesing.
Wieso finden alle das so toll, wenn die Lüfter abgeschaltet werden? Wenn vernünftige Propeller verwendet werden hört man die ohne GPU-Last nicht aus dem geschlossenen Gehäuse heraus und die Steuerung muss die Lüfter nicht erst hochdrehen bevor sie sich einpendeln.
Ich hatte eine Karte mit diesem Feature und die hat mich wahnsinnig gemacht. Bei manchen Spielen hat die Karte nichts anderes gemacht als die Lüfter angeworfen und wieder abgestellt weil die Last nicht hoch genug war um die Lüfter am laufen zu halten.
Vernünftige leise Lüfter drauf und dafür auf den ganzen RGB-Schnickschnack verzichten wäre doch auch mal ne Option.

Cunhell
 
cunhell schrieb:
Wieso finden alle das so toll, wenn die Lüfter abgeschaltet werden? Wenn vernünftige Propeller verwendet werden hört man die ohne GPU-Last nicht aus dem geschlossenen Gehäuse heraus und die Steuerung muss die Lüfter nicht erst hochdrehen bevor sie sich einpendeln.
Ich hatte eine Karte mit diesem Feature und die hat mich wahnsinnig gemacht. Bei manchen Spielen hat die Karte nichts anderes gemacht als die Lüfter angeworfen und wieder abgestellt weil die Last nicht hoch genug war um die Lüfter am laufen zu halten.
Vernünftige leise Lüfter drauf und dafür auf den ganzen RGB-Schnickschnack verzichten wäre doch auch mal ne Option.

Cunhell

Sowas kann man doch einstellen, zB via Afterburner o.ä.
Unter Linux hab ich da nichts vernünftiges gefunden, aber unter Windows kann man quasi jeder Lüfterkurve einzeln einstellen, u.a. auch dieses abschalten.
 
Jetzt sind wir schon so weit, dass man für die untere Mittelklasse (3060) 400 USD, also wohl 420€ in Europa, hinlegen muss. Danke, aber nein Danke.
 
  • Gefällt mir
Reaktionen: matty2580 und |SoulReaver|
Linmoum schrieb:
Was sieht schlimmer aus als es in Wirklichkeit ist?

Na, die meisten Foristen übertreiben einfach. Verbal blind drauf los prügeln ohne Fakten zu kennen ist einfach dämlich.

In reellen Szenarien wird die Karte vielleicht 288 bis 325W verbrauchen, also durchschnittlich um die 300W. Das ist noch im Rahmen wenn man das mit der 2080 Ti vergleich. Die ist bei etwa 270W Verbrauch.

Der Rest kommt durch höheren Speicherausbau, dessen Verbräuche und Abwärme und natürlich den ganzen Kram außen herum wie Spannungswandler und sonstiges Gedöns.

Wer ständig nach der besten Grafik giert, wird sicher damit leben können. Damit geht sicher die Welt nicht unter. Einzig das blöde Geheule nervt langsam!

Linmoum schrieb:
Ob die GPU alleine nur 230W zieht, ist vollkommen latte. Es müssen die gesamten 350W abgeführt werden und nicht nur das, was die GPU verbrät. Verbrauch schönrechnen braucht man nicht, denn Speicher, Wandlerverluste etc. gehören immer und bei jeder Grafikkarte mit dazu.

Die 350W TDP, also Wärmeabgabe ist die Summe von allem, die 230W der Verbrauch der GPU bzw. deren Abwärme. Die genauen Werte müssen erst in Tests ermittelt werden. Jedoch sind gerade die fixen Komponenten diese Generation scheinbar ein Hitze und Verbrauchstreiber.

Das muss man dieses mal mit in die Rechnung mit einbeziehen, nicht so tun als würde die GPU selbst über 350W saufen.

Linmoum schrieb:
Wenn man effiziente Architekturen designt, dann kommt man auch um steigende Wattzahlen bei gleichzeitig trotzdem höherer Performance herum. Wird man mit RDNA2 und den +50% Perf/Watt sehen trotz desselben Prozesses. Die Xbox Series X ist schon einmal ein kleiner Vorgeschmack darauf.

Die angeblichen +50% Performance sagen überhaupt nichts aus. AMD brüstet sich seit Tonga über die eigene Energieeffizienz. Trotzdem waren die meisten Karten der Radeons im Prinzip hitzige Stromschleudern. Zumindest haben sie alle mehr Verbraucht als sie eigentlich in ihrer Klasse sollten.

Prozessverfahren ist ein guter Punkt, aber er wird nicht alles rausreißen. Da unsere vRAM-Fetischisten nach immer mehr Speicherausbau schreien, kommt die Rechnung halt in höheren Preisen und mehr Abwärme bzw. Verbrauch.

Die Xbox SX ist außerdem GPU-mäßig nichts besonderes. Denk dir eine abgespeckte RX5600/5700 in einer APU-Form und du bist nicht weit von der Realität entfernt. Eigentlich nichts besonderes wenn man das mit den kommenden Grafikkarten vergleicht.

Linmoum schrieb:
Die Fury Nano sieht das anders.

Was sieht denn bitte mit der Nano anders aus?

Sie ist kläglich gescheitert weil Preis und Ausstattung nicht den Kundenwünschen entsprochen haben. HBM war und ist für den Massenmarkt zu kompliziert und teuer. Die lächerlichen 4GB vRAM haben sich von Anfang an als Beinbruch herausgestellt. Jeder wusste das!

Das Ding hätte 150-200€ kosten müssen wie eine RX570/80, aber das ist mit HBM nie und nimmer möglich.

downforze schrieb:
Jetzt sind wir schon so weit, dass man für die untere Mittelklasse (3060) 400 USD, also wohl 420€ in Europa, hinlegen muss. Danke, aber nein Danke.

Bei den Preisen halte ich mich mit Kritik noch zurück bis die finalen Preise bekannt sind. Es besteht die Möglichkeit, Nvidia bringt verschiedene vRAM Ausstattungen in jeder Klasse. Hätten diese 400 US-$ plus Steuern nämlich für eine 12GB Version und ein 6GB Modell landet bei 250-300$, wäre das durchaus akzeptabel.

Ich bezweifle auch stark Nvdia kann sich in der Unter- und Mittelklasse Wucher erlauben. Gerade in dieser Gegend gibt es den größten Preiskampf.
 
  • Gefällt mir
Reaktionen: KlaraElfer und .Sentinel.
cunhell schrieb:
Wieso finden alle das so toll, wenn die Lüfter abgeschaltet werden? Wenn vernünftige Propeller verwendet werden hört man die ohne GPU-Last nicht aus dem geschlossenen Gehäuse heraus und die Steuerung muss die Lüfter nicht erst hochdrehen bevor sie sich einpendeln.
und nicht zu vergessen für die lager ist es auch net so doll wenn die lüfter ständig von 0 auf 40% schiessen und dann wieder ausgehen

einfach von vornherein die mit 10% laufen lassen (was eigentlich immer unhörbar ist) und dan je nach anwendung und temps langsam hochdrehen lassen
 
  • Gefällt mir
Reaktionen: cunhell
schkai schrieb:
Es überrascht mich nicht das plötzlich der Stromverbrauch und die Strompreise egal sind. Nur weil die Karte grün ist sind alle diese Sachen obsolet.
Das ist ja immer das Absurde, aber auch Belustigende der Fanboykriege.
Haben Leute nur die Marke im Kopf, kann man eben sehr schön sehen, wie sich die Meinungen der User dauernd verbiegen und ein munteres Fähnchen im Wind- Spiel stattfindet.

Interessant ist auch, dass aber die Lager so wie Du jetzt, das immer wieder gegenseitig unter die Nase reiben, anstatt zu bemerken, wie sinnbefreit das ganze ist, weil eben die Gefahr sehr groß ist, dass man mit dem Erscheinen des nächsten Porduktes seine gesamte eigens gegen den "Feind" getragene Argumentationskette selbst schlucken muss....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andybmf und KlaraElfer
Hardware_Hoshi schrieb:
Die Xbox SX ist außerdem GPU-mäßig nichts besonderes. Denk dir eine abgespeckte RX5600/5700 in einer APU-Form und du bist nicht weit von der Realität entfernt.
12 TFLOPS sind ist doch mehr, als eine RX5600/5700 hat, wenn ich mich nicht irre.
 
bigfudge13 schrieb:
12 TFLOPS sind ist doch mehr, als eine RX5600/5700 hat, wenn ich mich nicht irre.

TFLOPS zaubern dir keine FPS auf den Bildschirm! Es ist die unsinnigste Angabe für Gaming und hat daher keinerlei Aussagekraft!
 
Man gewinnt den Eindruck als wäre es für die meisten ein Ding der Unmöglichkeit keine 3090 oder 3080 zu kaufen...
 
  • Gefällt mir
Reaktionen: shoKuu
Hardware_Hoshi schrieb:
Was sieht denn bitte mit der Nano anders aus?

Sie ist kläglich gescheitert weil Preis und Ausstattung nicht den Kundenwünschen entsprochen haben. HBM war und ist für den Massenmarkt zu kompliziert und teuer. Die lächerlichen 4GB vRAM haben sich von Anfang an als Beinbruch herausgestellt. Jeder wusste das!

Das Ding hätte 150-200€ kosten müssen wie eine RX570/80, aber das ist mit HBM nie und nimmer möglich.
Du meinst abgesehen davon das darauf wie bei der FuryX ein voll aktiver Fiji Chip zum Einsatz kam und die Karte auf eine 175W TDP gedrosselt wurde um die kleinen Abmaße zu bekommen?
Im übrigen hatten Modelle wie die GTX970/80 auch nicht mehr VRAM, waren ohne OC nicht schneller und waren preislich dennoch weiiiit über deiner Marke.
Ja für den 0815 User war sie angesichts der Leistung zu teuer aber wen juckts? Die Karte wendete sich auch nicht an jene sondern an User mit kleinen ITX Gehäusen wo sie wiederum eine Zeit lang das schnellste Modell war.
 
Hardware_Hoshi schrieb:
TFLOPS zaubern dir keine FPS auf den Bildschirm! Es ist die unsinnigste Angabe für Gaming und hat daher keinerlei Aussagekraft!
Aber wenn es die verbesserte Architektur mit mehr CUs bei vergleichbarem Takt ist, ist es doch nicht abgespeckt oder verstehe ich das falsch?

Zusätzlich kommt ja RT hinzu, was Navi bisher nicht kann.
 
Zurück
Oben