News GeForce RTX 4000 „Ada“: Andere Eckdaten, TDP und Termine im Wochentakt

Das ist mir alles noch viel zu spekulativ. Wenn sich alle Beteiligten besinnen und diese kolportierten 600W-Monster den Markt nicht sehen bin ich nicht böse. Und wenn das Rennen wieder so ausgeht wie bei Ampere vs. RDNA2 ("I'm smelling a "Navi21 is RTX 3070 competitor" repeat") ist das doch schick.
 
  • Gefällt mir
Reaktionen: simosh, Rockstar85 und Sun-Berg
Jan schrieb:
Die ist erste Ende August, "Mitte Juli" ist das lange durch...
Juli ist ja auch nur ein Gerücht, von daher... ;)
 
  • Gefällt mir
Reaktionen: simosh
Celinna schrieb:
die ganzen Leaker lagen doch eh falsch seit 2 Jahren, einfach nichtmehr glaubwürdig das ganze.
Pauschal falsch stimmt nicht. Doch aktuell ist es einfach mal lächerlich, stocher in alle Richtungen und sagen 100 Dinge .. klar stimmt dann am Ende irgendwas.

AMD ist bei GPUs auch in Leaks immer der Underdog und am Ende stärker als man aufm Schirm hatte. Glaube schon das es wieder so wird, aber Nvidia wird sich nicht nochmal so überfahren lassen wie bei RTX 30. Denn das war die lächerlichste Produktserie mit Refresh, ReRefresh und Upgrade die es je gab. Und klar hilft da, dass sie von Samsung 8nm auf TSMC N4/N5 nun quasi zwei Schritte machen, wo AMD quasi nur einen gehen wird - wobei auch hier alles nicht schwarz-weiß ist. Doch immerhin kämpfen sie in dem Bereich in der gleichen Liga und nicht mehr wie bisher Vorteil AMD.
 
  • Gefällt mir
Reaktionen: drago-museweni, Unnu, simosh und 13 andere
Sven Hansen schrieb:
Dann hoffen wir mal das die 4090 bei 16GB VRAM anfängt.
Warte auf eine Karte für DCS + Reverb G2

Ich halte es für unwahrscheinlich eine 16-GB-4090 auf eine 24-GB-3090 folgen zu sehen.
 
  • Gefällt mir
Reaktionen: simosh, Mar1u5, Maxxx800 und 2 andere
Läuft Pong mit den 4000er von NVidia denn dann endlich flüssig? :D
Nein, im Ernst, es gibt noch haufenweise Games, die ich noch nicht gezockt habe und die mit meiner ollen 2080 noch gut laufen. Sollten sich die Preise weiter auf dem bisher bekannten Niveau bewegen und die nächste Gen zuviel Strom fressen, werde ich definitiv weiter alte Games zocken.
 
  • Gefällt mir
Reaktionen: Unnu, ThePlayer, Bimmy&Jimmy und 5 andere
Um Mal eine Lanze für die Leaker zu brechen: 90% Extraleistung bei 60% mehr CUDA und 30% mehr Strom halt ich jetzt nicht für abwegig.
Wird wahrscheinlich eine Karte der besonderen Proportionen. Riesengroß. Riesenschwer. Riesendurstig. Riesenteuer.

Spannend wirds, persönlich gesprochen, sowieso erst im Mittelfeld alá 300€ oder weniger.
 
  • Gefällt mir
Reaktionen: Unnu
Knut_Knudsen schrieb:
Sofern kein neues Cyberpunk bzgl der Anforderungen kommt, bleibt das auch so.
Nach der Verschiebung von Starfield (was auch immer sich dahinter dann tatsächlich verbirgt) ist nun auch nichts mehr offen bis Ende des Jahres, was einen Hype erzeugen könnte.


An einen verfrühten Release oder Paperlaunch glaube ich auch nicht, sie werden es auch Ende des Jahres schwer genug haben, ausreichend Karte zur Verfügung zu stellen. Von Marktsättigung und Preisverfall durch zu viele Karten auf Anbieterseite sind wir weiter entfernt als vom Mars ;)

Daher denke ich, dass sie eher etwas später releasen, dafür aber etwas größere Mengen in den Markt bringen können.

Hagen_67 schrieb:
Nein, im Ernst, es gibt noch haufenweise Games, die ich noch nicht gezockt habe und die mit meiner ollen 2080 noch gut laufen.
So sehe ich das mit meiner 1080 ;)
Zwei Generationen zu überspringen ist für den nicht ganz so leistungsorientierten Spieler mit großer Pile of Shame kein Problem.
 
  • Gefällt mir
Reaktionen: Unnu, Mr. Rift, Michael vdMaas und 3 andere
Innocience schrieb:
Spannend wirds, persönlich gesprochen, sowieso erst im Mittelfeld alá 300€ oder weniger.
Unter 300, da gibt es nix ;-) ... außer Karten mit der Leistung von 200 Euro Karten von vor 5 Jahren.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und FeelsGoodManJPG
Ist schon klar auf welchem Node Ada gefertigt wird? TSMC? N5, N5P? Daraus ließen sich ja am ehesten Leistungswerte erahnen.

Innocience schrieb:
Spannend wirds, persönlich gesprochen, sowieso erst im Mittelfeld alá 300€ oder weniger.

Ich glaube dieses Mittelfeld wird für eine längere Zeit nicht mehr bedient werden. Da sind jetzt preislich "Einstiegskarten" zu finden.
 
  • Gefällt mir
Reaktionen: Unnu
4nanai schrieb:
Ist schon klar auf welchem Node Ada gefertigt wird? TSMC? N5, N5P? Daraus ließen sich ja am ehesten Leistungswerte erahnen.



Ich glaube dieses Mittelfeld wird für eine längere Zeit nicht mehr bedient werden. Da sind jetzt preislich "Einstiegskarten" zu finden.
Gesichert ist N5 oder sogar ein custom N5 process der noch besser wäre. Auf jedenfall 2 Schritte wenn man von Samsung 8nm kommt.
 
  • Gefällt mir
Reaktionen: 4nanai
Innocience schrieb:
Spannend wirds, persönlich gesprochen, sowieso erst im Mittelfeld alá 300€ oder weniger.
Spannend wirds, persönlich gesprochen, sowieso erst im Mittelfeld alá 500€ oder weniger.

Ich hab es mal für dich korrigiert.
 
  • Gefällt mir
Reaktionen: DannyA4, Michael vdMaas, Onkel Föhn und eine weitere Person
flappes schrieb:
Unter 300, da gibt es nix ;-) ... außer Karten mit der Leistung von 200 Euro Karten von vor 5 Jahren.
Ich geb die Hoffnung noch nicht auf, dass Intel da was im Segment anbietet (mit gehörigen Treiberproblemen) oder aber die Restbestände der 6600 ins Bodenlose fallen, sobald die nächste Generation ansteht.
 
  • Gefällt mir
Reaktionen: Unnu
Doppelte Leistung mit 40% mehr Powerbudget, das wird sehr sehr sportlich.
 
  • Gefällt mir
Reaktionen: ThePlayer, Onkel Föhn, Floppes und 2 andere
Eine gute Spekulation ist wie ein Besuch im Kolosseum 2000 Jahre vor uns: pure Unterhaltung.

Da die Gerüchte aber wie Sagen ein Körnchen Wahrheit enthalten, wäre ein Recap nach Veröffentlichung eigentlich was feines. Aber ich vermute das wird in der Redaktion schon selbst betrieben ohne das groß publik zu machen.
 
  • Gefällt mir
Reaktionen: Unnu, derSafran und DrTimeWaste
Zer0Strat schrieb:
Doppelte Leistung mit 40% mehr Powerbudget, das wird sehr sehr sportlich.
Mal sehen, was die Architektur in Kombination mit TSMCs-Prozess zu stemmen vermag. Wird wenn es so ist aber auch ne Punktlandung.

Ich persönlich bin eher auf die RT-RT Leistung gespannt und ob Nvidia mal gnädig beim Vram sein wird.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Innocience schrieb:
Ich geb die Hoffnung noch nicht auf, dass Intel da was im Segment anbietet (mit gehörigen Treiberproblemen) oder aber die Restbestände der 6600 ins Bodenlose fallen, sobald die nächste Generation ansteht.

Ich habe mir jetzt doch, obwohl ich es vermeiden wollte, eine RX 6600 XT gegönnt. Meine RX 480 geht in Rente (schon wieder, nach kurzem Gastspiel einer RX 5700).
Der geringe Stromverbrauch, mit einer für mich mehr als ausreichenden Leistung, passt da einfach. Die RX 6650 XT geht mir in die falsche Richtung, auch preislich.

Ich habe da keine großen Hoffnungen, dass sich in den nächsten 18 Monaten in dem Bereich groß was ändern wird. TSMC und Samsung wollen nun mehr Kohle, kleinere Strukturbreiten werden eh teurer sein, AMD und nNivia werden dementsprechend die nächste Generation teuer verkaufen.

An günstigen Karten haben beide kein Interesse, sieht man doch ganz klar bei AMD mit der RX 6500, reinste Melkkarte und nvidia lässt noch immer die 16X0 Karten vom Stapel.

Dazu geben die Zahlen den beiden auch noch recht, die verdienen prächtig. Die Motivation das zu ändern dürfte gering sein.

Ich lasse mich natürlich sehr gerne vom Gegenteil überzeugen.
 
  • Gefällt mir
Reaktionen: Unnu, ThePlayer, simosh und 4 andere

Anhänge

  • 6900XT für 999 €.jpg
    6900XT für 999 €.jpg
    488,4 KB · Aufrufe: 336
  • Gefällt mir
Reaktionen: Unnu und konkretor
Ich habe da mal eine rein technische Frage:
RTX 4090, AD102-300, 16128FP32
GA102 hat 10752 Shader, jeder Shader kann 2x FP32 (1x nativ und 1x als mixed unit mit entweder FP32 oder INT32). Damit hat GA102 also schon 21504 FP32 Einheiten (von denen 50% alternativ für INT32 verwendet werden können). Irgendwie passt das nicht, oder?
 
Hi zusammen

Leider fehlen die Games die auch diese Mehrleistung benötigen...

Der FS2020 z.b. bräuchte eher ordentlich CPU Power.

Na Mal abwarten...

Gruß Bernd
 
Ich schätze Amd und Nvidia haben in den Foren mitgelesen Und die Abneigung gegen die hohe maximal Leistung in Verbindung mit dem hohen Verbrauch, festgestellt.
Da hat man sich dann gegenseitig auf deutlich weniger geeinigt

Ernsthaft, ich kann mir nicht vorstellen das die sich untereinander nicht auch unterhalten.
Komm wir schalten beide einen Gang zurück, maximieren dabei den Gewinn l und haben es nächste Generation (2024) leichter mit dem leistungs Abstand zwischen den Generationen.
 
  • Gefällt mir
Reaktionen: Unnu und Onkel Föhn
Zurück
Oben