News Gerüchte zu Nvidia-Grafikkarten: Bilder zeigen mutmaßliche RTX 4090 Ti oder Titan Ada

sieht aus wie eine Mikrowelle oder Backofen ....
 
MortalTeamwork schrieb:
Erschreckend, dass Highend in diesem Bereich mich mittlerweile völlig kalt lässt. Es ist mir einfach zu absurd.
Versteh ich nicht, die 800 Watt müssten dir doch schnell einheizen.
 
  • Gefällt mir
Reaktionen: otn, n3cro, ErbarmeHesse und 6 andere
Cr4y schrieb:
War es nicht so, dass die aktuelle nV-Generation pro berechnetem Bild weniger Strom verbraucht, als AMDs? Und nicht zu vergessen: man kann das Powerlimit auch manuell runtersetzen.
Ich meinte auch damit einige Leute setzen sich ein Limit von max. 150Watt/h für die Umwelt und kaufen keine großen Karten für ihren PC. Die andere Seite nimmt kein Limit und leisten sich/machen was überhaupt geht. Meiner Meinung die Hardware ist am Ende angelangt und es muss ein Limit und einen anderen Weg nehmen. Auf jeden Fall ist die Karte nicht für einen täglichen Gebrauch und nicht für einen normalen Verbraucher gedacht.
 
chb@ schrieb:
800W 😅

Das ganze nimmt Ausmaße an...

dunkelbunter schrieb:
Durch und durch pervers. Was in der Theorie ganz geil sein mag, in der Praxis aber sich über diverse Dinge selbst disqualifiziert.

Waldheinz schrieb:
Und es wird trotzdem genug Leute geben die das mitmachen und solche Dinger kaufen. Würde das nicht sein, dann würde die Industrie auch nicht solche Sachen "erfinden".
Es ist wirklich erschreckend welche Blüten das mittlerweile treibt, genauso wie damals die Mhz Jagd bei TVs, ebenso wie heute bei Monitoren, oder auch die immer noch anhalltende Mhz Hatz bei CPUs.
Achja, die Autos werden auch immer größer.
Aber sich mal auf wirklich wichtige und innovative Dinge kümmern ... das können die Anderen machen. ;)
Naja, Jedem das Seine ...

Axxid schrieb:
Zur unverbindlichen Preisempfehlung von 3.500$? Ich meine, 4090 wurden ja scheinabr genug verkauft, der Enthusiast muss sich ja irgendwie vom Mob abgrenzen koennen.

der_Schmutzige schrieb:
Geht mir auch so. Sollen die Dinger von mir aus wie Blei in den Regalen liegen.
Zu dem preismäßig falschen Weg Nvidias (Durchboxen ihrer Mondpreise) kommt noch der technisch falsche Weg hinzu, wie man an den benötigten Kühl"klumpen" sieht.
Gebe die Hoffnung auf Neuorientierung durch NV/AMD nicht auf, dass mal was kommt ähnlich dem C2D, der 2006 mit der Intel Netburst-Sackgasse Schluss gemacht hat.

Habt Ihr eigentlich neben Gaming auch mal die "Industrial Designer" im Blick, oder ist der Blick über den Tellerrand sooo schwer, weil der sooo weit weg ist ? Gerade die TITAN-Serie ist eher für Kreative als für Gamer ...

In meiner Zeit als 2nd/3rd-Level-Supporter hab ich solche Karten wöchentlich verbaut - im "Automotive-Design" bzw bei den nachgelagerten Werks-Architekten/Bau-Ingenieuren.
Dabei hab ich auch erfahren, dass bspw. nahezu jede Fahrzeug-Werbung fast vollständig mit 3D-Renderings arbeitet, weil das günstiger ist als mit einem Fotographen erst einmal das optimale Licht und die optimale Pose des reellen Objekts zu finden - und dito das Ganze auch bei den Werbe-Clips...

Nur wartest Du da mal nicht eben 2 Tage, bis das fertig ist, sondern packst das Ganze mit 10-20 solcher Karten in einen Render-Cluster, und hast das Ergebnis in Minuten - und nicht in Stunden.

Und : für Entwicklung, Design und Werbung ist IMMER Geld vorhanden, da schei*t man wortwörtlich auf die paar kWh und die paar k€ ;) ....
 
  • Gefällt mir
Reaktionen: mazO! und axi
  • Gefällt mir
Reaktionen: Renatius und lordberti
Syrato schrieb:
Diese Karte ergibt 0 Sinn. Die 4090 ist bei 300 Watt so gut, was bringen da 800 Watt?
2% mehr leistung 🤣
 
  • Gefällt mir
Reaktionen: aklaa
Absurd! Die Karte nimmt so zu viel Platz ein und trotzdem wird es schwer sein den PC geschlossen zu betreiben ( oder andere Kompromisse).
 
Sowas sinnloses hab ich schon lange nicht gesehen. Aber jeden Tag steht ein dümmer auf und Nvidia ist gut darin diese zu finden.
 
Jack2 schrieb:
Versteh ich nicht, die 800 Watt müssten dir doch schnell einheizen.
:lol:

Eine 3090 war ja regelrecht fortschrittlich was das Strom sparen angeht.

Is auch easy unter 300 Watt zu betreiben, leicht gezügelt(z.B. auf 60 fps gekappt) undervoltet und schön kühl, mit trotzdem ausreichend Gaming Power für UHD(und genug Speicher sowieso).

Aber darf kein neues DLSS haben, für laggy Pseudo-FPS, also isse out. ;)

Komisch wie schnell der Zockertraum von gestern out is.

Ich hab mir diesen letztens erst im "Angebot" (was man heute so Angebot nennt, bei 1150€ für ne 3090 TUF OC) gegönnt, da mein Verwandter unbedingt neue Hardware brauchte(sein altes 1080p System is abgeraucht) und ich ihm 2 1440p Gaming Monitore + die 3080 für insges. 300€ zusammen vermacht habe.

Die unter 300 Watt(im Gaming Einsatz natürlich) meiner 3090 TUF OC sind mir mittlerweile ganz sympathisch. :D


edit:

So läuft die aktuell gerade. :)

3090 TUF OC leicht gezügelt für kühle unter 300 Watt.jpg

Genug Power für UHD(auf 60 fps gekappt). Und genug Speicher hat sie eh. :)

Ich schone die gern. Soll lange halten. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nurfbold
Wurde vielleicht schon geklärt? 300 Watt und einmal 800 Watt bei ähnlicher Spezifikation? Und dann noch passendes Gehäuse und Mainboard finden. Das ist echt für Leute die scheinbar keine anderen Hobbys haben.
 
Zuletzt bearbeitet:
4090Ti wird wahrscheinlich eine A6000 Ada mit weniger Speicher und höherem Power Budget, ähnlich wie die 3090Ti die auch den Vollausbau, der in der A6000 zum Einsatz kommt, nutzt.
 
aklaa schrieb:
Ich meinte auch damit einige Leute setzen sich ein Limit von max. 150Watt/h für die Umwelt und kaufen keine großen Karten für ihren PC.
Die 150W sagen allerdings nichts über die Effizienz aus. Eine 4070ti dürfte z.B. bei 150W etwa 2,5mal mehr FPS erzielen als eine 1070 bei 150W.
 
  • Gefällt mir
Reaktionen: stevefrogs
Taxxor schrieb:
Hier werden aber ja auch die Kerne erhöht.
Ich gehe von ~10% mehr Performance aus wenn man sie auf den gleichen Verbrauch der 4090 limitiert
Halte ich für optimistisch. Schau dir nochmal die Unterschiede auf dem Papier der 4080 und 4090 an. Die Rechenleistung der GPU skaliert in der Region schon sehr schlecht mit der Performance im Gaming.

Ich sehr hier nicht das Problem, dass Nvidia eine noch gewaltigere Karte als die 4090 auf die Beine stellt. Bei der Zielgruppe Gamer muss diese dann aber zumindest 5-10% mehr als die 4090 bieten und das wird über die Brechstange laufen müssen.
 
die karte dient doch nur um die anderen preise rechtfertigen zu können... und vor allem in zukunft bei neuen releases
 
Beg1 schrieb:
Keine Panik, Gamedevs optimieren einfach noch weniger, die Karte schafft dann selbst in WQHD keine 60 fps mehr :)
Das hat mit der 4090 ja nix zu tun ;)
 
G3cko schrieb:
Die Anforderungen an die Grafikkarte steigen schneller als die an die CPU. Daher kann man problemlos modernste Grafikarten mit altern CPUs kombinieren. Umgekehrt bringt das einem ehr weniger.
Das stimmt so nicht.

Wir haben ja bereits Fälle, in denen manche ihr 4090 System durch ältere CPUs limitieren auf 1440p oder UWQHD.
Mein Bruder hat den 5950x ausgetauscht gegen eine Plattform mit dem 13900K.
Das lässt sich hat dann doch nicht nur messen, sondern man merkt/spürt einfach den Performancepunch.

Auf reddit hat jemand seine 3080Ti einen 7900X (an die Seite gestellt, von einem 3700x kommend.
Das alleine brachte in seinen sämtlichen games 30-45 min fps mehr.

Wir haben seit langer Zeit mal wieder das Luxusproblem, dass CPUs einen echten Flaschenhals darstellen bei den next Gen GPUs.

Eine 4090TI wird selbst unter 4K in vielen Games verhungern (von heavy RT Szenarien abgesehen), weil die CPUs+RAM zu langsam sind.
 
RustyGunFighter schrieb:
Aber mal im Ernst: Wir brauchen keine 4090 Ti, sondern eine 4080 Ti - da klafft ein riesiges Loch zur 4090 - und zwar zum Preis von 1,5K!
Korrekt ist, dass eindeutig eine Karte zwischen 4080 und 4090 fehlt.
Aber ein Preis von 1500 EUR? Nein, nein, nein und nochmals: nein!

Die "Gaming-Community" (wenn es denn eine gäbe) sollte sich zusammentun und streiken. Die Preise sind absolut absurd und werden trotzdem bezahlt. Während der Pandemie war das irgendwie noch einleuchtend, aber jetzt sind die Dinger überall auf Lager und kosten trotzdem, als wären sie von tibetanischen Jungfrauen bei Vollmond handbestückt worden.

Mal ernsthaft, eine RTX3080 war ein Riesenschritt zur Vorgängergeneration und kommt zu einer UVP von 699,-(?) EUR auf den Markt. Das war happig, aber irgendwie doch fair.

Dann kam die RTX4080 und kostete einfach mal 1399 EUR.
Warum? Weil die Freaks das Geld dafür hinlegen. Wo soll das hinführen? Eine RTX5080 für 2799 EUR?

Das soll jetzt übrigens keine Hetze gegen Nvidia sein, AMD macht ja das Gleiche (ich wollte schreiben "das gleiche in grün" - das wäre aber irgendwie unpassend gewesen).
 
  • Gefällt mir
Reaktionen: Coeckchen und Fyrex
Zurück
Oben