News Gerüchte um „RTX 4090 Ti“: Bilder zeigen erneut 4-Slot-Kühler mit vertikalem PCB

Abrexxes schrieb:
Bei allen anderen werden schlicht zu viele PCI Ports verdeckt. Blöde Entwicklung.
Das hab ich mir schon vor einiger Zeit überlegt.
Wenn man wirklich eine 4 Slot Karte bräuchte/will, benötigt das MB eigentlich nur noch einen einzigen PCIe Slot, bei den aktuellen Boards wird der Rest von der Graka eh verdeckt.
 
  • Gefällt mir
Reaktionen: Abrexxes
Prisoner.o.Time schrieb:
aber WTF 600W?! Mein Ganzer PC braucht unter last gerade mal 100W. Und hier braucht alleine die GPU schon das 6x fache.
öhm... die GPU braucht die 600W ja nicht immer Rund um die Uhr sondern meistens nur, wenn man drölf FPS bei Ultra Settings und hohen Auflösungen haben will - was meistens total sinnbefreit in meinen Augen ist - und dann unter maximaler Volllast.

Habe meine 4090 auch ein bisschen undervoltet. Wirklich nur ein wenig... unter 3D Mark fast so schnell wie Stock, nur deutlich kühler.

Unter Diablo 4 in FullHD - je nach Szene und wie viele andere Mitspieler sich herum tummeln, alles auf Ultra braucht meine 4090 FE zum Teil weniger Strom als der I7-13700K, der auch leicht undervoltet ist und wir wissen alle das auch die CPUs sich unter Volllast, wenn man sie nicht in ihre Schranken weist, locker flockig mal eben 350 Watt + ziehen können. Habe von HWiNFO Screenshots von I9-13900K CPUs gesehen, die sich mal eben 600 Watt + gezogen hatten.

Und wenn dein kompletter PC unter Last gerade mal 100 Watt benötigt, dann hast du mit Sicherheit auch nur eine geringe Auflösung, FPS auf einen festen Wert gestellt und spielst keine Games die extrem Leistungshungrig sind 🙂 Wenn ich Solitär und Minesweeper spiele, brauche ich auch weniger
 
  • Gefällt mir
Reaktionen: Newbie_9000
Genau was die Menschheit braucht, 10% mehr Leistung für 30% mehr Stromverbrauch.
 
SavageSkull schrieb:
Sie ist "nur" zu teuer und das ist ausschließlich ein Marketing Problem.
Und siehst du Nvidia die Preise der 70, 70 Ti oder 80 bisher merklich nach unten korrigieren ;) ?
Man WILL die Marge nach oben drücken und nimmt es dann auch in Kauf, dass Gaming ein großes Minus die nächsten Quartale verzeichnet. Sprich, die schon mehrmals in den Gerüchten kommende 4090 Ti ist aus der Strategie raus viel sinnvoller als eine 4080 Ti.

Denn solang Nvidia nicht einen wirklichen enormen Zwang hat, die Preise in sinnvolle Regionen zu verschieben, werden sie es nicht tun. Volle Lager und schlechte Verkäufe brauchen halt eine durchaus längere Zeit um sowas zu bewirken. Und daher halte ich die Spekulation "WENN Preis von X weit runter DANN würde Produkt Y zu Preis Z Sinn machen" als viel weniger stichhaltig als "Produkt X macht zu Preis Y bei gleicher Strategie Sinn".

Und ob sich eine 4080 Ti für 1000€ verkauft? Da bin ich auch skeptisch. Der "Sweet-Spot" für die meisten Enthusiasten scheint nach allem was ich bisher gelesen habe zwischen 500-800€ zu liegen. Da sind noch mal 25-50% oben drauf einfach zu viel. Ein guter Anhaltspunkt dafür ist die 4070 Ti, die sich bei bald 1000€ ja trotz "theoretisch guter Performance bei akzeptablem Verbrauch" eben nicht gut verkauft. Eine 4080 hätte bei 1000€ zwar mehr Performance aber nicht SO VIEL MEHR, dass man plötzlich "Boatloads" von den Karten verkaufen würde.
 
SavageSkull schrieb:
Dabei könnte ich, wenn ich wollte sogar noch optimieren und den Verbrauch noch deutlich senken:
https://www.computerbase.de/2022-10...rtx_4090_vs_rtx_3090_ti_bei_450_350__300_watt
das schöne ist, man kann die Karte heute, wenn man die Leistung nicht benötigt, auf 350 Watt oder gar 300 Watt runter drehen wodurch sie nicht merklich langsamer wird und später, in 1 bis 2 Jahren, dann langsam die Leistung wieder hoch drehen sofern die gespielten Spiele die Mehrleistung benötigen.

So schlecht finde ich das nicht - vor allem wenn man so wie ich Rechner für Laufzeiten bis zu 10 Jahren vorsieht und Hardware bis zum Komplettausfall nutzt
 
  • Gefällt mir
Reaktionen: Newbie_9000
Palatas schrieb:
Vergesst nicht die Leute die ca. alle 2 Jahre immer zur schnellsten TI Version greifen
und nur aus dem Grund, das schnellste vom schnellsten zu haben und überhaupt nicht zu benötigen außer beim Benchmarken unter den Top 100 zu sein.

Diese Menschen gibts auch außerhalb des Gaming Bereiches und kaufen sich alle 2 Jahre ein neues schnelleres Auto 😊

Wenn sie halt nicht wissen wohin mit ihrem Geld = mir egal. Ist nicht mein Geld 😉
 
  • Gefällt mir
Reaktionen: Palatas
ruthi91 schrieb:
Und warum Modelle mit mehr Leistung kommen... wirklich?
Leistung im Sinne vom Stromverbrauch. Elektrischer Leistung.

Ich kann mich nicht erinnern, dass mein Monitor nun 600 Watt braucht weil er heller wird. Oder mein RAM ein PCIe-Stromanschluß, wirklich nicht.

Bei Bildschirmen ist der Stromverbrauch eher gesunken bei höherer Auflösung und größerer Bildschirmfläche im Vergleich zu den alten Röhrenkisten. So etwas will ich sehen, mehr Rendering/RayTracing-Leistung bei gleicher oder weniger Stromverbrauch. Keine 4 Slot >500 Watt Maschinen.
 
Passt so etwas noch in normale Gehäuse? Ich fürchte, diese Karte braucht ein spezielles Gehäuse mit einer Art Leiter- oder Regalsystem, woran die Karte abgestützt werden kann.

4 Slots und dieser riesige Kühler. Das muss ja ein irres Gewicht sein. Armes Mainboard. Vielleicht kommen ja die richtigen Desktops zurück, die man auf den Tisch legt, wo die Karte auf dem Mainboard stehen kann und seitlich abgestützt wird.

Da bin ich jetzt aber mal gespannt. Oder auch nicht.
 
Eagle-PsyX- schrieb:
Das ist zum Fremdschämen. Irgendwann stecke ich den Kaltstecker direkt in die GPU. Effizienzsteigerung wäre Mal wesentlich wichtiger als Maximalleistung.

175 Watt max bleibt meine Voraussetzung ;-)
Das eine schließt das andere nicht aus. Wir haben mit Ada Lovelace eine enorme Effizienzsteigerung bekommen.

Eagle-PsyX- schrieb:
An alle High-end fanboys: wieso brauche ich mehr GPUs mit erhöhter Maximalleistung? Wenn die Effizienz so wunderbar weitergeht genügt es doch einfach zu waren bis die Mehrleistung mit demselben Verbrauch rauskommt. Bei dieser custom Bauform bin ich eher schon im Server Bereich unterwegs und nicht im consumer.
Was ist das denn für eine Frage? Weil es Leute gibt, die solche Anwendungsfälle haben (alle Regler max, 4k, Raytracing + was es nicht alles gibt) und der Markt dieses Segment auch entsprechend bedienen möchte?
Klar könnte man auch warten, bis die Leistung in einem vorgegebenen TDP Rahmen erreichbar ist, aber well will schon 2 Jahre warten wenn es schneller geht? Du musst diese Karte ja nicht kaufen. Solange die gebotene Mehrleistung innerhalb der optimalen Effizienzkurve liegt (bei der 4090 durchaus der Fall) sehe ich da nichts verwerfliches.
Schlimm ist es eher wenn die Leistung mit der Brechstange forciert wird und die letzten Prozentchen zum Preis einer unverhältnismäßigen Leistungsaufnahme rausgeholt werden, so wie es bei der 3090 Ti der Fall war. Weil man da schon praktisch den Vollausbau hatte und keine nennenswerten Shader mehr aktiviert werden konnten, wurde das meiste halt über viel OC und damit einhergehend hoher Spannung geholt. Da hat man dann 5% Mehrleistung zu 30% Mehrverbrauch. Das macht keinen Sinn, ist bisher bei der 4090 aber auch nicht der Fall.
Bei einer möglichen 4090 Ti? Wer weiß, es stecken ja noch gut 15% Shader im Chip, die aktiviert werden könnten.
 
  • Gefällt mir
Reaktionen: Intruder
@Eagle-PsyX- ach komm, reicht.
Was haben 600W mit Monitoren zu tun?
RAM will auch keinen PCIE Stromanschluss.
In der Masse bringt der technische Fortschritt stetige Effizienz und/oder Leistungssteigerungen. Worauf willst du hinaus?
 
  • Gefällt mir
Reaktionen: Intruder
fox40phil schrieb:
Frage mich wie es kommt, dass die Shader nicht ausgelastet werden. Unterfordert kann sie ja nicht sein, wenn man Path Tracing aktiviert^^.
Es ist die schiere Masse an Threads, die auf die GPU gepackt werden müssen. Die 4090 benötigt mindestens 256 Threads/Tasks/Shader, damit die ausgelastet wird und dann pro Task auch 64 Werte. Es können auch "mehr" Tasks werden, dann mit weniger Werten, aber beides ist durchaus einen Herausforderung.

Deswegen langweilt sich eine RTX 4090 selbst mit einem 7950X3D oder einem 13900KS und benötigt selten die 450 W und kann selbst mit 300 W betrieben werden, ohne dass es zu einem wirklich großen Verlust an Leistung kommt: 33 % Runter an TDP, ca. 5 - 10 % weniger Leistung.

Eine 4090 TI würde nun 288 Threads/Task/Shader benötigen, das bringen aktuell kaum Spiele wirklich auf die Wage. Der Sprung dürfte entsprechend eher gering ausfallen. Von dem Shader- und Takt-Impact kommt bei der 4090 in 4K nur ca. 50 % an gegen über der 3090 Ti (ja, sie ist 60 % schneller, aber nach all den Daten, müssten es 125 % sein).
 
  • Gefällt mir
Reaktionen: fox40phil
Intruder schrieb:
10090 Ti ein eigenständiger Grafikkartentower neben dem PC welcher über dicke Kabel mit dem PC verbunden wird??
Dem könnten wir ja schon näher sein als gedacht. Gibt ja schon die eGPU Gehäuse, die per Thunderbolt angeschlossen werden.
 
  • Gefällt mir
Reaktionen: Intruder
BrollyLSSJ schrieb:
du wirst lachen aber sowas wollte ich mir mal kaufen um es dann mit dem Notebook verbinden zu können aber meine gewünschte GPU passte nie in das Gehäuse und den benötigten Anschluss hatte ich auch nicht 🤷‍♂️
 
Btw. für diejenigen, die sich von der hohen Watt Angaben abschrecken lassen - alles eine Frage der Einstellungen!

I7-13700K + 4090 FE
Diablo 4, alles auf Ultra - Regler am Anschlag - MAX 60 fps
1688545911415.png

GPU gerade mal bei 73 Watt - hatte auch deutlich geringere Werte schon gesehen.
Und mit den Temperaturen... aufgrund der geringen Stromaufnahme springen noch nicht mal die Lüfter der GPU an
 
  • Gefällt mir
Reaktionen: Holgmann75
ruthi91 schrieb:
@Eagle-PsyX- ach komm, reicht.
In der Masse bringt der technische Fortschritt stetige Effizienz und/oder Leistungssteigerungen. Worauf willst du hinaus?
Früher brauchten die AGP-Grafikkarten auch keinen externen Stromanschluss... Schon gewusst? Auch mit PCI(e) ging es ohne zusätzliche Stromversorgung.

Ich will darauf hinaus, dass fortgeschrittenere Technologie und Effizienz nicht nach der Maxime "gib ihm alles was das Netzteil hergibt" im wahrsten Sinne des Wortes verheizt sollte. Spannender wären doch Überschriften wie "NVIDIAs neue Titan leistet doppelt so viel bei halben Stromverbrauch".
 
Zuletzt bearbeitet:
Zurück
Oben