Steini1990
Commodore
- Registriert
- Okt. 2011
- Beiträge
- 4.612
Es gabe die Titan X. Was im Grunde das Gleiche wie heutzutage die 90er Serie war.Metaxa1987 schrieb:Folgerichtig hätte es ja eine 1090 geben müssen. Gabs die?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Es gabe die Titan X. Was im Grunde das Gleiche wie heutzutage die 90er Serie war.Metaxa1987 schrieb:Folgerichtig hätte es ja eine 1090 geben müssen. Gabs die?
4090 ist ja genau zwischen 290-350W am effektivsten. Schon heftigheftig effektiv. 7800 sollte nicht mehr als 650,- kosten... sonst wird das nix mit Marktanteile schaffenMikash schrieb:Das ist die Gelegenheit für AMD. Die habe nicht die prallgefüllten Lager wie NVIDIA. Die Preis/Leistung von 7700/7800/7900 muss einfach passen. Eine 7800XT bei 1000€, vergl. mit der 4080-16Gb dürfen wir aber erwarten.
Schon heftig, was die 4090 kann. Dennoch sollte man AMD nicht unterschätzen. Ich vermute, sie werden nah an der 4090 sein (bei 350Watt)
Das ist überhaupt nicht OK und war in der Vergangenheit eigentlich auch nie der Fall. Xx70 war immer wie die Vorgänger xx80ti für nicht mehr als 500 Eier.machs111 schrieb:Voll ok zum gleichen Preis gleiche Leistung zu bekommen. Dafür Temperatur und Verbrauch besser.
Zumal AMD ja schon bekannt gegeben hat, dass man bei der RT Leistung kräftig aufholen wird bei der neuen Generation.Ko3nich schrieb:Und warum hat AMD kein RT? Das war der Kritikpunkt an der letzten Generation. Warum sollte AMD nicht gerade daran gearbeitet haben. Die Raytracing-Leistung der 4090 ist jetzt im Vergleich zur Rasterleistung nicht überproportional gestiegen. Da gibt es also Potential aufzuholen.
Also wenn ich mir den CB-Test(https://www.computerbase.de/2022-10...nitt_benchmarks_mit_und_ohne_rt_in_3840__2160) so ansehe glaube ich nicht, dass ne 70er reichen wird um zuverlässig auch nur 60fps bei 4k zu erzeugen (von rt ganz zu schweigen).HansDetflefAndi schrieb:Die Leistung der 90er brauchen ja eigentlich ausschließlich Leute für ihre 144Hz 4k Monitore. Den anderen sollten 70er genügen...
die 6800XT hat 650 $$ gekostet. Wegen dem Eurokurs und Inflation müssen wir mit mindestens 900€ rechnenHansDetflefAndi schrieb:4090 ist ja genau zwischen 290-350W am effektivsten. Schon heftigheftig effektiv. 7800 sollte nicht mehr als 650,- kosten... sonst wird das nix mit Marktanteile schaffen
Der Sweetspot einer 4090 liegt doch schon bei ~300W, derBauer hat das sehr gut in seinem letzten Video zusammengefasst, bei 70% Max TDP werden rund 300W verbraucht, bei gerade mal 5-6% weniger Spitzenleistung und das ohne Undervolting. Dazu hat AMD den "schlechteren" Fertigungsprozess von TSMC, das wird extrem schwer unter diesen Vorraussetzungen da ran zu kommen.Mikash schrieb:Dennoch sollte man AMD nicht unterschätzen. Ich vermute, sie werden nah an der 4090 sein (bei 350Watt)
ich glaube nicht, dass dieses Jahr noch modelle unter 700€ kommen werden.alcapone154 schrieb:Meine GPU ist kaputt.
Ich Könnte eine 5700xt für 200€ kaufen.
Zuschlagen oder noch bis November warten?
Piak schrieb:Sowieso auch viel zu teuer, wenn die 3090 (TI) mehr leistet für weniger Geld.
Auch bei Chipgröße und Anzahl Transistoren klafft ja eine riesige Lücke. Wo quasi 2 Versionen 4080TI reinpassen
Rankommen wohl nicht, aber es reicht wenn sie 10% langsamer sind und < 1500€ verlangen.The_waron schrieb:Dazu hat AMD den "schlechteren" Fertigungsprozess von TSMC, das wird extrem schwer unter diesen Vorraussetzungen da ran zu kommen.