Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce RTX 4000 „Ada“: Andere Eckdaten, TDP und Termine im Wochentakt
Das ist mir alles noch viel zu spekulativ. Wenn sich alle Beteiligten besinnen und diese kolportierten 600W-Monster den Markt nicht sehen bin ich nicht böse. Und wenn das Rennen wieder so ausgeht wie bei Ampere vs. RDNA2 ("I'm smelling a "Navi21 is RTX 3070 competitor" repeat") ist das doch schick.
Pauschal falsch stimmt nicht. Doch aktuell ist es einfach mal lächerlich, stocher in alle Richtungen und sagen 100 Dinge .. klar stimmt dann am Ende irgendwas.
AMD ist bei GPUs auch in Leaks immer der Underdog und am Ende stärker als man aufm Schirm hatte. Glaube schon das es wieder so wird, aber Nvidia wird sich nicht nochmal so überfahren lassen wie bei RTX 30. Denn das war die lächerlichste Produktserie mit Refresh, ReRefresh und Upgrade die es je gab. Und klar hilft da, dass sie von Samsung 8nm auf TSMC N4/N5 nun quasi zwei Schritte machen, wo AMD quasi nur einen gehen wird - wobei auch hier alles nicht schwarz-weiß ist. Doch immerhin kämpfen sie in dem Bereich in der gleichen Liga und nicht mehr wie bisher Vorteil AMD.
Läuft Pong mit den 4000er von NVidia denn dann endlich flüssig?
Nein, im Ernst, es gibt noch haufenweise Games, die ich noch nicht gezockt habe und die mit meiner ollen 2080 noch gut laufen. Sollten sich die Preise weiter auf dem bisher bekannten Niveau bewegen und die nächste Gen zuviel Strom fressen, werde ich definitiv weiter alte Games zocken.
Um Mal eine Lanze für die Leaker zu brechen: 90% Extraleistung bei 60% mehr CUDA und 30% mehr Strom halt ich jetzt nicht für abwegig.
Wird wahrscheinlich eine Karte der besonderen Proportionen. Riesengroß. Riesenschwer. Riesendurstig. Riesenteuer.
Spannend wirds, persönlich gesprochen, sowieso erst im Mittelfeld alá 300€ oder weniger.
Nach der Verschiebung von Starfield (was auch immer sich dahinter dann tatsächlich verbirgt) ist nun auch nichts mehr offen bis Ende des Jahres, was einen Hype erzeugen könnte.
An einen verfrühten Release oder Paperlaunch glaube ich auch nicht, sie werden es auch Ende des Jahres schwer genug haben, ausreichend Karte zur Verfügung zu stellen. Von Marktsättigung und Preisverfall durch zu viele Karten auf Anbieterseite sind wir weiter entfernt als vom Mars
Daher denke ich, dass sie eher etwas später releasen, dafür aber etwas größere Mengen in den Markt bringen können.
Hagen_67 schrieb:
Nein, im Ernst, es gibt noch haufenweise Games, die ich noch nicht gezockt habe und die mit meiner ollen 2080 noch gut laufen.
So sehe ich das mit meiner 1080
Zwei Generationen zu überspringen ist für den nicht ganz so leistungsorientierten Spieler mit großer Pile of Shame kein Problem.
Ich geb die Hoffnung noch nicht auf, dass Intel da was im Segment anbietet (mit gehörigen Treiberproblemen) oder aber die Restbestände der 6600 ins Bodenlose fallen, sobald die nächste Generation ansteht.
Eine gute Spekulation ist wie ein Besuch im Kolosseum 2000 Jahre vor uns: pure Unterhaltung.
Da die Gerüchte aber wie Sagen ein Körnchen Wahrheit enthalten, wäre ein Recap nach Veröffentlichung eigentlich was feines. Aber ich vermute das wird in der Redaktion schon selbst betrieben ohne das groß publik zu machen.
Ich geb die Hoffnung noch nicht auf, dass Intel da was im Segment anbietet (mit gehörigen Treiberproblemen) oder aber die Restbestände der 6600 ins Bodenlose fallen, sobald die nächste Generation ansteht.
Ich habe mir jetzt doch, obwohl ich es vermeiden wollte, eine RX 6600 XT gegönnt. Meine RX 480 geht in Rente (schon wieder, nach kurzem Gastspiel einer RX 5700).
Der geringe Stromverbrauch, mit einer für mich mehr als ausreichenden Leistung, passt da einfach. Die RX 6650 XT geht mir in die falsche Richtung, auch preislich.
Ich habe da keine großen Hoffnungen, dass sich in den nächsten 18 Monaten in dem Bereich groß was ändern wird. TSMC und Samsung wollen nun mehr Kohle, kleinere Strukturbreiten werden eh teurer sein, AMD und nNivia werden dementsprechend die nächste Generation teuer verkaufen.
An günstigen Karten haben beide kein Interesse, sieht man doch ganz klar bei AMD mit der RX 6500, reinste Melkkarte und nvidia lässt noch immer die 16X0 Karten vom Stapel.
Dazu geben die Zahlen den beiden auch noch recht, die verdienen prächtig. Die Motivation das zu ändern dürfte gering sein.
Ich lasse mich natürlich sehr gerne vom Gegenteil überzeugen.
GA102 hat 10752 Shader, jeder Shader kann 2x FP32 (1x nativ und 1x als mixed unit mit entweder FP32 oder INT32). Damit hat GA102 also schon 21504 FP32 Einheiten (von denen 50% alternativ für INT32 verwendet werden können). Irgendwie passt das nicht, oder?
Ich schätze Amd und Nvidia haben in den Foren mitgelesen Und die Abneigung gegen die hohe maximal Leistung in Verbindung mit dem hohen Verbrauch, festgestellt.
Da hat man sich dann gegenseitig auf deutlich weniger geeinigt
Ernsthaft, ich kann mir nicht vorstellen das die sich untereinander nicht auch unterhalten.
Komm wir schalten beide einen Gang zurück, maximieren dabei den Gewinn l und haben es nächste Generation (2024) leichter mit dem leistungs Abstand zwischen den Generationen.