News Gerüchte um „RTX 4090 Ti“: Bilder zeigen erneut 4-Slot-Kühler mit vertikalem PCB

Ist damit ja nicht mehr weit hiervon entfernt
 
  • Gefällt mir
Reaktionen: Calid und Aladin86
600W...
PFFFWAAAHAHA -WTF MAD! 🤣👍
Da fällt mir nur eines ein: THIS IS SPARTA!!! 🤣
 
Zuletzt bearbeitet:
Telechinese schrieb:
🤷‍♂️ war doch zu erwarten oder nicht?

  • RTX 3090 FE 350 Watt und bis 400Watt lässt sie sich das Powerlimit (+14%) über River Tuner anheben
  • RTX 3090 Ti FE 450 Watt. Was das Limit? 550 - 600 Watt? Habe keine um da Infos zu liefern
  • RTX 4090 FE 450 Watt und bis 600 Watt kann sie sich über River Tuner maximal eingestellt werden wenn man das Powerlimit (+33%) anheben würde
Wenn man sich die Entwicklung der Vorgänger und der aktuellen Karte anschaut, glaube ich nicht das es mit der RTX 4090 Ti nach unten geht. Mit viel viel Glück bleibts bei der aktuellen Stromaufnahme.
 
Ich finde es auch mittlerweile einfach nur noch lächerlich. Das mit der gedrehten Platine hat schon was, aber WTF 600W?! Mein Ganzer PC braucht unter last gerade mal 100W. Und hier braucht alleine die GPU schon das 6x fache.

Ich wäre auch dafür dass sich allgemein am Grafikkartenmarkt mal wieder mehr tut. Frage mich auch schon seit Jahren warum man nicht auch einen Sockel auf das Mainboard für eine GPU klatschen kann. Klar, nVidia würde mal wieder ihr eigenes Süppchen kochen und nicht so wie AMD auf freie Standards setzen wollen, also müsste man dann schon beim Kauf des Mainboards entscheiden ob mit nVidia oder AMD GPU aber das wäre doch mal ne sinnvolle entwicklung.
 
  • Gefällt mir
Reaktionen: Qualla
Prisoner.o.Time schrieb:
Frage mich auch schon seit Jahren warum man nicht auch einen Sockel auf das Mainboard für eine GPU klatschen kann.
Die Kühler von diesen Monstern hast aber schon gesehen, oder?
Sowas kannst nie und nimmer auf einem Mainboard unterbringen... ganz zu Schweigen von der Stromversorgung - da brauchst ne Platine, die 1cm dick ist und sicher noch einige Kupferschienen 🤣
 
Roesi schrieb:
Wahnsinn um wie viel sich die Leistung und aber auch Leistungsaufnahme im letzten Jahrzehnt gesteigert hat.
Das ist zum Fremdschämen. Irgendwann stecke ich den Kaltstecker direkt in die GPU. Effizienzsteigerung wäre Mal wesentlich wichtiger als Maximalleistung.

175 Watt max bleibt meine Voraussetzung ;-)
 
Prisoner.o.Time schrieb:
Ich finde es auch mittlerweile einfach nur noch lächerlich. Das mit der gedrehten Platine hat schon was, aber WTF 600W?! Mein Ganzer PC braucht unter last gerade mal 100W. Und hier braucht alleine die GPU schon das 6x fache.
Tjoa, und was liefert der PC an Leistung?
Dürfte im Bench gegen ein 4090 System wahrscheinlich sehr dürftig aussehen.
 
  • Gefällt mir
Reaktionen: GERmaximus, stevefrogs und Newbie_9000
Halte ich für sehr zweifelhaft ob das so kommt.
Es gibt Argumente für und gegen einen 4090 TI.
Pro: Man kann ein noch teureres Modell anbieten. Nutzen aber eher gering, da kaum Volumen. Andererseits gibt es der Chip halt her.
Contra: Es gibt rein gar keine Konkurrenz. Klar kann man trotzdem was drauflegen fürs Prestige und etwas mehr Gewinn. Aber dafür bringt man auch die nächste Generation in Zugzwang. Der nächste Sprung wird deutlich kleiner ausfallen. Von GA102 zu AD102 waren es +160% Transistoren. Von N5P (dürfte recht nach an 4N sein) sind es aber nur etwa +30% Transistordichte und auch nur etwa 25% Power reduction.


Wenn man eine Ti bringt, dann denke ich mit maßvollem Performancesprung. Sprich, man nimmt die zusätzlichen SM und Cache aber lässt den Takt weitestgehend gleich. Mit etwas Selektion bleibt man dann etwa bei der gleichen TDP. Jetzt mit 600W anzukommen hätte dann wieder einen Beigeschmack, den man glaube ich nicht will.
 
Nvidia erinnert sich an die Akquisition von 3Dfx und baut schon mal ein Kartendesign in das problemlos auch ein eigenes Netzteil passt.
Diese riesigen externen Netzteile waren schließlich der Grund weshalb niemals eine Voodoo 5 erschien… 🤡
 
Da die RTX 4090 sich besser verkauft als Nvidia gehofft hatte, kann ich mir schon vorstellen, dass es eine RTX 4090 Ti geben wird.
Es wird auch Leute geben, die ihre 4090 gegen die eintauschen.

Werden die Shader der 4090 mangels CPU-Leistung nicht ausgelastet?
 
  • Gefällt mir
Reaktionen: 7LZ
SavageSkull schrieb:
Schöner wäre eine 4080Ti weil die Leistungslücke zwischen 4080 und 4090 schon recht groß ist.
Die dann wer kauft? 4080 ist sehr weit unter den Erwartungen geblieben weil viel zu teuer. Eine 4080 Ti würde noch mal näher an der 4090 landen, bei Partner-Designs wahrscheinlich sogar teilweise genau so teuer oder teurer werden, was die Karte absolut ad absurdum führt.

Nvidia ist nicht doof, wenn schon 4080 zu nahe an 4090 und die Leute dann direkt zur 4090 greifen, macht es aus der Sichtweise wahrscheinlich tatsächlich mehr Sinn noch mal einen oben drauf zu setzen und eine 4090 Ti zu verkaufen, die dann noch mal 200-500€ oberhalb der 4090 liegt. Zumindest einen Gedanken der in etwas so geht kann ich mir als möglichen Grund für eine 4090 Ti vorstellen.
 
Bitte nicht.. ich hoffe das sich dieser Trend nicht fortsetzt, die 4090 FE würde ja gerade noch so in mein Hyte Y60 reinpassen und eigentlich wollt ich bei der 5090 zugreifen, aber wenn die auch so dick wird, brauch ich ein neues Gehäuse :freak:
 
  • Gefällt mir
Reaktionen: Intruder
SavageSkull schrieb:
Schöner wäre eine 4080Ti
Wahrscheinlich will man aber erst die 3000 Dollar Marke knacken.
Dann kommt die 4080 Ti.

600W mit dem Stecker werden lustig. Ich rieche verschmortes Kunststoff bis hier her.
 
kado001 schrieb:
Dieses "Monster" im Sinne von den Abmessungen, würde ich niemals in meinem PC verbauen. Geht's noch?....am besten liefern sie noch einen Dieselgenerator mit.
mir wäre ein kernkraftwerk lieber
 
  • Gefällt mir
Reaktionen: kado001
Oh Man 🤦‍♀️
Prisoner.o.Time schrieb:
Ich finde es auch mittlerweile einfach nur noch lächerlich. Das mit der gedrehten Platine hat schon was, aber WTF 600W?! Mein Ganzer PC braucht unter last gerade mal 100W. Und hier braucht alleine die GPU schon das 6x fache.
Eagle-PsyX- schrieb:
Das ist zum Fremdschämen. Irgendwann stecke ich den Kaltstecker direkt in die GPU. Effizienzsteigerung wäre Mal wesentlich wichtiger als Maximalleistung.

175 Watt max bleibt meine Voraussetzung ;-)
Hier werden immer zig Sachen durch den Raum geworfen und noch mit Stammtischparolen garniert, das hält man echt nicht mehr aus.

eine 4090(Ti) ist High End. Damit ist gemeint man betreibt das Leistungstechnische Maximum, eben das "obere Ende" was aktuell technisch möglich ist. Eine Ti nach der 4090 kommt einfach, weil zu Beginn des Produktionsprozesses der Vollausbau des monolitischen Chips oft noch nicht in nennenswerter Menge hergestellt werden kann, was nach Optimierungen nach einiger Zeit dann geht. Ob das jetzt ein halbes Jahr später der Fall ist oder ob der Zeitpunkt jetzt Marketing Kalkül ist, ist offen und auch die News hier ist erstmal nur ein Gerücht.

Die Effizienz der aktuellen Karten ist deutlich höher, als die jeweilige Vorgängergeneration. Effizienz ist immer ein relatives Verhältnis zwischen Leistung und Verbrauch und trifft nie eine Aussage über absolute Zahlen.
Die Effizienz einer 4090 ist sogar drastisch besser als bisherige Karten, nicht nur ein üblicher Schritt von ein paar Prozent:
https://www.computerbase.de/2022-10...3/#abschnitt_energieeffizienz_im_werkszustand
Im direkten Vergleich zu einer 3090Ti (die von Werk die gleiche maximale Leistungsaufnahme von 450W hat, wie die 4090) ist die 4090 sogar mal eben ~50% schneller.
Auch bedeutet die TDP eine maximale Leistungsaufnahme und hat mit einer "normalen Anwendungslast" recht wenig zu tun.
Wenn ich zuhause Diablo 4 auf 3440x1440 mit 100Hz@HDR und 10bit spiele, dabei alle Regler Anschlag rechts habe, braucht der PC noch keine 300W in Summe. Nach Verlusten im Netzteil, inklusive Verbrauch von Mainboard, Festplatte und eben auch CPU.
Würde ich die 105W max TDP der CPU und die 450W max der GPU und halt was da sonst noch so mit ~50W zusammenzähle und 10% Verlust vom Netzteil draufaddiere, komme ich bei ganz anderen Werten raus, als die Realität benötigt.

Dabei könnte ich, wenn ich wollte sogar noch optimieren und den Verbrauch noch deutlich senken:
https://www.computerbase.de/2022-10...rtx_4090_vs_rtx_3090_ti_bei_450_350__300_watt

Wenn ihr weniger Verbrauchen wollt, nehmt halt eine kleinere Karte, die auch eher im Sweet Spot betrieben wird aber dabei trotzdem immer noch schneller ist, als jede ältere Generation.
Jedesmal das Geheule das die High End Karten ein Atomkraftwerk brauchen ist weder lustig, noch ein innovativer Spruch. Das ist einfach nur Internet trolling.
 
  • Gefällt mir
Reaktionen: GERmaximus, stevefrogs, Newbie_9000 und 6 andere
Vergesst nicht die Leute die ca. alle 2 Jahre immer zur schnellsten TI Version greifen 980ti -> 1080ti -> 2080ti -> 3090ti -> 4090ti - die 4090ti wird sich zu einem hohen Preis gut verkaufen, egal ob die Konkurrenz hinterher hängt.
 
  • Gefällt mir
Reaktionen: iron_monkey
  • Gefällt mir
Reaktionen: GERmaximus, Holgmann75, Jenergy und 2 andere
Zurück
Oben