Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Gaming Ampere: Angeblicher Kühler der GeForce RTX 3080 fotografiert
Am Wochenende waren geschätzt 25-30 verschiedene 2080Ti, 2080S und 2070S im Mindstar und nicht nur in geringen Stückzahlen.
Machte schon den Eindruck noch schnell Lagerware abbauen zu können.
Nachdem Nvidia bei RTX 2000 mehr oder weniger auf die Klappe geflogen ist (die Absatzzahlen waren wohl nicht so erfreulich), belebt Nvidia wieder die x90er Karten.
Die waren bisher immer Dual-GPU-Karten und da würde auch eine kolportierte TDP von 375W ins Bild passen.
Warum der Spaß? Nvidia kann die Preise nicht weiter nach oben treiben, also bauen sie zwei kleine Chips auf eine Platine, vermarkten das als 90er Karte mit Leistung > der Single-GPU 3080, sparen sich den Big-Chip und pflanzen den nur noch in die Titan, die schon bei RTX 2000 mit fast 3.000€/Einheit verkauft wurde.
Die Enthusiaten greifen dann zur Titan.
Auf der anderen Seite bräuchte Nvidia für so eine Dual-GPU-Karte einwandfreien Support in den Spielen. Evtl. haben sie da was in der Hinterhand.
Was sich mir noch nicht so recht erschließt: Ist es überhaupt möglich den Luftstrom so zu richten / zu bündeln, dass nicht der jeweils gegenüberliegende Lüfter die warme Abluft wieder ansaugt? Zumindest bei niedrigeren Drehzahlen stelle ich mir das ziemlich kompliziert vor.
Ich vermute, dass die Blasrichtung der beiden Lüfter die gleiche sein wird. Einer in Push, der andere in Pull, ansonsten saugen die tatsächlich die warme Luft des anderen an.
Das mit der kurzeren PCB kann ich nur auf dem CAD-Draft von Reddit erkennen. Wünschenswert wäre es, aber da hab ich an der Leistungsspitze so meine Vorbehalte.
Ne der Chip ist einfach riesengroß und der Speicher ist viel Näher an der GPU, daher muss man sich hier was einfallen lassen. Das sind neue Kühlkonzepte.
Hier schaut euch das an:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Sieht irgendwie "komisch" aus. Nicht perse schlecht/ häßlich aber sehr gewöhnungsbedürftig. Ob es am Ende aber wirklich so kommt bzw. ob wirklich gut kühlt, muss sich natürlich zeigen. Besonders interessant wird aber wohl das Thema Verbrauch/Abwärme werden. Ich persönlich würde keine "Founders Edition" kaufen, wenn der Kühler die Karte nur bei ohrenbetäubenden Lautstärken handhaben kann.
Dann noch die Frage des Preises: sollte es wirklich ne 3090 geben, würde dass ja andeuten dass man die Preise der "Top Konsumer" Karten wieder nach oben korrigieren will. Mir war schon die 2080 Ti deutlich zu teuer, noch mal mehr aber kommt für mich überhaupt nicht in Frage, gerade unter Berücksichtigung wie oft neue Generationen kommen.
Ich denke die xx90-Bezeichnung könnte auch einfach nur wiederkommen damit man noch eine xx80Ti (3090Ti) platzieren kann. Bei Turing kam die 2080Ti halt schon zu früh.
Was sich mir noch nicht so recht erschließt: Ist es überhaupt möglich den Luftstrom so zu richten / zu bündeln, dass nicht der jeweils gegenüberliegende Lüfter die warme Abluft wieder ansaugt?
Das Problem hast du bei so ziemlich jeden Custom Design auch denn die Abluft die Richtung Mainboard geblasen wird wird zwangsläufig wieder eingesaugt. Der geringe Lamellenabstand dürfte allerdings kontraproduktiv für den Luftwiderstand sein, wodurch so oder so keine allso geringen Lüfterdrehzahlen sinnvoll einsetzbar wären.
Wenn es so ist wie es auf dem Bild erscheint könnte die Kühlleistung also relativ gut ausfallen aber eine höhere Lüfterdrehzahl als die Standard Custom Kühler erfordern.......und sich stärker mit Staub zusetzen.
Des weiteren bin ich gespannt wie die Stromanschlüsse angebunden sind. Geht das PCB bis hinten durch und hat nur ein Loch für den Lüfter oder werden sie mit Kabeln zum PCB geführt?
Könnte die RTX 3090 ein Indiz dafür sein, dass nVidia schon mehr über RDNA2 weiß und eine stärkere Karte für nötig gehalten hat?
Oder nVidia will Radeon den absoluten Todesstoß geben 😂.
In ästhetischer Hinsicht gefällt mir das Gezeigte tatsächlich recht gut. Ob die technische Umsetzung des 'neuen' Kühlsystems überzeugt sowie die Nachteile bei Größe und (vermeintlicher) Anordnung der Anschlüsse zu einem Problem werden, darauf bin ich gespannt.