News Gerüchte um „RTX 4090 Ti“: Bilder zeigen erneut 4-Slot-Kühler mit vertikalem PCB

Ab wie viel Watt sollte man eingestehen, dass eine AiO darauf besser wäre?
 
Was total Lustig ist, wenn man von Begin an dabei ist ...

Bei nVidia wird sich das wohl nie ändern. :lol:

fxfun10.jpg
 
  • Gefällt mir
Reaktionen: Whetstone, Grundgütiger und Intruder
Intruder schrieb:
und den benötigten Anschluss hatte ich auch nicht
Geht mir genauso. Habe kein Gerät mit Thunderbolt. Nicht mal USB-C habe ich privat, weil alles Asbach Uralt bei mir. Wird halt genutzt, bis gestorben.
 
  • Gefällt mir
Reaktionen: Intruder
#102 Das war nur ein Effizienztest oder? mit der Hardware die 60 fps Grenze vorzugeben ist wie mit einem Sportwagen auf der Autobahn den Tempomat auf 90km/h einzustellen. Ich denke auch Diablo spielt sich mit 120fps (gelockt) deutlich geschmeidiger (sofern der Monitor es kann) und der Stromverbrauch dürfte trotzdem nicht durch die Decke gehen.
 
Ich gebe die Hoffnung nicht auf, dass eines Tages die Erkenntnis über die Menschheit kommt, dass Kfz-Vergleiche in der PC-Hardwarewelt nicht funktionieren, weil sie noch nie funktioniert haben. Und ich bin sogar so kühn zu hoffen, dass es nicht drölfundfloppzig weitere Auto-Beiträge hier benötigt, um zu bemerken, wie sehr man sich im Offtopic befindet ;)
 
  • Gefällt mir
Reaktionen: Holgmann75
Bald stecken wir das Mainboard/CPU/RAM in die Grafikkarte und nicht wie jetzt, die Grafikkarte in das Mainboard.
 
Die Platinen der GPU ist nicht größer geworden. Nur der Kühler sind es.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Whetstone, Holgmann75 und Intruder
richtig. Wenn man den Kühler weg packt, ist die RTX 4090 FE minimal größer als eine Soundblaster AE 🙂

Irgendwas müssen die sich ja einfallen lassen um die Komponenten "leise" gekühlt zu bekommen und nicht jeder will WaKü haben.
 
  • Gefällt mir
Reaktionen: Holgmann75
ziegelstein triffts gut. meine 4090 ist nur noch 1,5 slots dick und ziemlich kurz dank wakü :evillol:
 
  • Gefällt mir
Reaktionen: Holgmann75
hennich schrieb:
Was total Lustig ist, wenn man von Begin an dabei ist ...

Bei nVidia wird sich das wohl nie ändern. :lol:

Anhang anzeigen 1372774

Hach... das waren Zeiten. Und die war wirklich ätzend. Ich spring auf den Nostalgiezug auf

 
Sieht mal wieder aus, als würde es sich um mehrfache Wärmeentwicklung bei einfacher und überschaubarer Leistungssteigerung handeln.
Meiner Meinung nach lohnt sich das Upgrade auf eine 4090 Ti nicht mal für Anwender mit einer 1xxx oder 2xxx, bzw. älter. Wenn dann bei den normalen 4xxx bleiben oder auf diese upgraden. Ansonsten auf die gerüchteweise erst 2025 erscheinende 5xxx Serie warten.
 
Schade, dass mal kein Hersteller die Eier hat ne Kühlung zu bauen, die was kürzer ist, dafür alle 6 Slots benutzt und primär von vorne nach hinten ausbläst.
 
  • Gefällt mir
Reaktionen: hurga_gonzales
Palatas schrieb:
#102 Das war nur ein Effizienztest oder? mit der Hardware die 60 fps Grenze vorzugeben ist wie mit einem Sportwagen auf der Autobahn den Tempomat auf 90km/h einzustellen. Ich denke auch Diablo spielt sich mit 120fps (gelockt) deutlich geschmeidiger (sofern der Monitor es kann) und der Stromverbrauch dürfte trotzdem nicht durch die Decke gehen.
Neh. Habe es ausprobiert, ich merke zwischen 80 und 120 fps keinerlei Unterschied bei Diablo 4. 1440p 144Hz Monitor, RTX 4080.

Das ist bei einem top-down ARPG aber auch nicht verwunderlich. Zwischen 60 und 80 FPS ist für mich durchaus noch ein kleiner Unterschied gefühlt da. Sehr hohe FPS machen bei solchen Spielen ohne großartige Kamerabewegung einfach wenig Sinn.
 
  • Gefällt mir
Reaktionen: Palatas
Ich finde da wäre noch Luft nach oben...ich hätte mit 48GB VRAM gerechnet um ehrlich zu sein. Denn das würde die Karte nochmal ordentlich interessanter machen wie ich finde.
Aber evtl kommt ja noch eine Titan nach der 4090TI und diese wird dann mit 48GB bestückt. Am Ende des Tages wird die 4090TI wahrscheinlich nur 20/30% (wenn überhaupt) mehr leisten können als die 4090, und das wahrscheinlich zu einem viel zu hohen Preis...

Ich bin auf den Release der Titan mehr gespannt (wenn sie kommt) aber ich denke es wird erneut ein absolut überteuertes (aber geiles) Monster...


MfG
 
xexex schrieb:
Ich finde man sollte endlich anfangen das SXM Format für Consumer zu entwickeln, dann kann sich jeder selbst den "passenden" Kühler dazu kaufen.
Schon mal ein SXM Modul in der Hand gehabt? Wahrscheinlich nicht.

Einen der Pins möchte ich nicht verbiegen. Von denen gibt es nämlich mehr als reichlich. Und danach ist die GPU Kernschrott.
 
BDR529 schrieb:
Einen der Pins möchte ich nicht verbiegen. Von denen gibt es nämlich mehr als reichlich. Und danach ist die GPU Kernschrott.
Weshalb man die Lösung auch nicht 1zu1 in den Consumer Sektor zu übernehmen braucht. Trotzdem würde es nahe liegen, schlichtweg auf den Boards einen "GPU Sockel" zu verbauen, über den jegliche Kommunikation und die Stromversorgung läuft. Bei den CPUs klappt es schließlich selbst mit 4000+ Pins heutzutage ebenfalls.

Die Hintergründe sind simpel, so könnte jeder der zu seinem Gehäuse passende Kühllösung selbst auswählen und man könnte sinnvolle Lösungen entwickeln die CPUs und GPUs im Verbund kühlen. Zwar ist heutzutage sowas bedingt mit einer Custom Wasserkühlung bereits möglich, benötigt aber meist einiges an Bastelei, und die Karte hängt dann noch immer überm Kopf im Gehäuse.

Den Gedanken hat ja mal vor einigen Jahren ein "findiger Chinese" bereits aufgegriffen, nur damals halt mit einer aufgelöteten GPU Lösung.
1688565003896.png
 
Zuletzt bearbeitet:
kado001 schrieb:
Das nicht, aber es schaut einfach grauenhaft aus!

wenn die Grafikkarte doch so gut und leise funktioniert ist das doch ok.

Also ich schaue mir an was die Grafikkarte produziert und nicht die Karte selbst permanent an 😂
 
Intruder schrieb:
4090 FE
Diablo 4, alles auf Ultra - Regler am Anschlag - MAX 60 fps
GPU gerade mal bei 73 Watt - hatte auch deutlich …..
73Watt für den Chip nicht die komplette Karte.
Keine Ahnung was der Speicher jetzt genau braucht, so 30-40Watt werden das allerdings schon sein.

Trotzdem beeindruckende Effizienz!
 
  • Gefällt mir
Reaktionen: Intruder
mTw|Marco schrieb:
wenn die Grafikkarte doch so gut und leise funktioniert ist das doch ok.

Also ich schaue mir an was die Grafikkarte produziert und nicht die Karte selbst permanent an 😂
Wenn man schon ein Showcase hat, möchte man es sicherlich nicht damit zumauern 😀

Und ich vermute das dieses Monstrum alles andere als leise sein wird.
 
Zurück
Oben