News Gerüchte zu Nvidia-Grafikkarten: Bilder zeigen mutmaßliche RTX 4090 Ti oder Titan Ada

Syrato schrieb:
Diese Karte ergibt 0 Sinn. Die 4090 ist bei 300 Watt so gut, was bringen da 800 Watt?
die Ti kann man ja auch bei 400 Watt betreiben ^^ immernoch schneller als eine 4090 :)
 
feidl74 schrieb:
die kuh melken, solange die user heiß drauf sind. nebenbei kann man im oberen preissegment dann noch kohle abgreifen. wer 2500€ für eine 4090 bezahlt, zahlt auch 3000€ für eine ti, oder noch mehr^^.
Nicht unbedingt. Viele greifen ja zur 4090, weil die 4080 dieses mal einen so viel kleineren, langsameren Chip hat, aber gleichzeitig viel mehr kostet. Solche Käufer würden nicht noch mal einen großen Aufpreis für eine minimal schnellere 4090 Ti zahlen.

Die 4090 gibt es übrigens mittlerweile lieferbar zur (reduzierten) UVP von 1849€...
 
Vielleicht sollte NVIDIA statt Ti, in Zukunft "Tornado" als Bezeichnung zu nehmen.
Interessante Entwicklung, nur zu fett geworden die Hardware ist.
Und damals hatte noch so manche CGA/EGA-Karten gesehen welche ich schon als monströs empfunden habe, u.a für den IBM PS/2.
 
....bestimmt nur eine passive RTX 4060 😱 wie will man sonst den vermuteten Preis von 500 € rechtfertigen?
 
Da soll jemand noch sagen Nvidia geizt mit dem Vram.
 
  • Gefällt mir
Reaktionen: CM286
Für mich sieht das ganze nach Fake aus. Entweder haben sie einen alten Prototyp ergattert oder sich was gebastelt 😂
 
MortalTeamwork schrieb:
Erschreckend, dass Highend in diesem Bereich mich mittlerweile völlig kalt lässt. Es ist mir einfach zu absurd.
Dann musst aber auch so ehrlich sein, dass dich das noch nie interessiert hat. Was heute das ist, war vor 10 Jahren noch Quad SLI. Das hat auch so viel gekostet und in Windows im Idle so viel Watt gefressen wie heutige High-End Rechner nicht mal unter Volllast nehmen. Von der Geräuschentwicklung wollen wir gar nicht erst reden...
 
Ich würde die Nvidiaboys so richtig melken. Unter 4000 Euro würde ich die Karte nicht auf den Markt schmeißen
 
Rick Sanchez schrieb:
Die normale 4090 erreicht ja schon die "magischen" 100 TFLOPS, wenn man sie auf 3052 MHz übertaktet und zieht dabei keine 500 W. Warum sollte die 4090 Ti mehr brauchen?
Der Screenshot zeigt ja 546W für Board Power. Ich nehme an, dass das handoptimierte Einstellungen sind. Mit der 4090Ti sind dann möglicherweise mit optimierten Settings 100TFlops bei weniger als 500W möglich. Ich nehme aber einfach an, dass die Karte mit einer konservativeren Spannungskurve ab Werk geliefert wird, wo sie eher 550-600W ziehen darf.
 
Also ich hätte gerne so ein Teil:love:
Kaufen würde ich sie mir aufgrund der Preises aber eher nicht.
 
Vor nicht all zu langer Zeit wäre das direkt ein Meme gewesen.
Verrückt.
 
Richardroehrich schrieb:
Ich bau schonmal ein Kraftwerk.
Und ich würde die Karte, die übrigens "nur" höchstens 525 Watt TDP hat mit einem Limit von maximal 350 Watt betreiben. Natürlich sind die TDP´s die hier genannt werden alle falsch.
MortalTeamwork schrieb:
Erschreckend, dass Highend in diesem Bereich mich mittlerweile völlig kalt lässt. Es ist mir einfach zu absurd.
Was genau ist daran absurd? Meinst du 48GB RAM bekommt man für lau?
Kauft man sich halbwegs guten 48GB DDR5 RAM, dann steht man schon bei knapp 600 Euro.
Ich finde, dass die kolportierten 2499 Dollar für das Monster es locker wert sind.
Knapp 3Ghz Takt und nur eine mäßig angestiegene TDP machen das Ding relativ effizient.
Zudem hat die Karte knapp über 100 TF und ist mindestens 15% schneller als die 4090, da 18496 Shader + mehr Takt.
Damit hat Nvidia gut 50% Vorsprung in Rasterworkloads und etwa 100% unter Raytracing, ist demnach eine komplette Generation vorne.

Der ursprüngliche Launchtermin war auf den 26.01 datiert, jetzt wirds halt mitte bis ende Februar.
Und es ist eine RTX Titan, keine 4090Ti, denn jene kommt mit 24GB GDDR6x und etwas weniger Shadern.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: wtfNow und Zer0Strat
Vielleicht ist es ja eine neue RTX A8000 und für gaming gar nicht interessant.
 
Ragnarök88 schrieb:
Damit hat Nvidia gut 50% Vorsprung in Rasterworkloads und etwa 100% unter Raytracing, ist demnach eine komplette Generation vorne.
RIP AMD. Die RX 7900 XTX wird wie Midrange dagegen aussehen. Das wird die ultimative Demütigung, wenn man an den völlig überzogenen Hype im Vorfeld denkt.

Das dürfte vom Verhältnis her RX 5700 XT vs. RTX 2080 Ti entsprechen.
 
Pff. AMD ist am A*sch! ;)
 
Chismon schrieb:
Das ist die neue Melk-/Preispolitik von nVidia, denn die sitzen auf genug Kohle um das auszusitzen und notfalls schreiben die das ab und ziehen dann bei den nächsten Generationen mögliche Rückkehrer mit noch surrealeren Preisen ab.
Die Preise sind so, weil die Konkurrenz keine großen Margen macht und deutlich mehr Materialeinsatz fahren muss. Würde Nvidia die Preise deutlich senken, wäre das das Ende von Intels ARC und sehr wahrscheinlich auch von AMD´s 24GB RX 7900XT(X) und sie würden ein 12GB Modell nachschieben und die alte Karte auslaufen lassen, weil die eben auch nicht für lau produzieren.
Chismon schrieb:
Für das High-End sehe ich jetzt schon schwarz...
Gerade bei MC Donalds nen Hamburger für 2 Euro gekauft - doppelter Preis vs. 2017.
Wie können die nur. Diese Diskussion kann man sich doch wirklich mal sparen.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben