Zotac2012 schrieb:
Aber so ganz Aussichtslos, wie derzeit die Situation erscheint ist es nicht, sieht man ja im CPU Bereich, wo Intel auch die Kunden an der kurzen Leine gehalten hat und Preise Jenseits von Gut und Böse verlangt hat.
Hätte Intel die Preise während AMD´s Bulldozer Krise niedriger angesetzt und dafür auf Marge verzichtet, wäre AMD längst pleite.
Einige denken immer nur von der Wand bis zur Tapete, hauptsache deren Bedürfnisse nach niedrigeren Preisen werden erfüllt. Du kannst ja in die Arbeit gehen und zu deinem Chef sagen, ich verzichte freiwillig auf 1/3 meines Lohnes, dann würde ich dir das abkaufen.
Zotac2012 schrieb:
Sorry, weil mal eine RTX 2080Ti jetzt noch für 800,00 oder 900,00 Euro über den Tisch gegangen ist, heißt das ja nicht das der Wertverlust nicht hoch ist.
Bald wird es die Karte gebraucht für 550 bis 600 Euro geben, man muss eben zur richtigen Zeit verkaufen.
Zotac2012 schrieb:
Und das ist dann schon ein erheblicher Wertverlust!
Wenn ich zugleich Preise und Wertverluste kritisiere, ´dann bedeutet das aber auch, dass ich viel mehr Leistung für mein Geld bekomme, wenn ich nur ein oder zwei Jahre Geduld habe.
aldaric schrieb:
Weil AMD in der Vergangenheit schon oft die besseren Produkte hatte im GPU Bereich, geändert hat es nichts.
Das ist kompletter Unfug und das weißt du.
Siehe X800 2005.
aldaric schrieb:
Nichtmal Thermi aka Fermi hat nVidia Einbußen beim Marktanteil eingebracht.
AMD hatte über 40% Marktanteil an dedizierten Grafiklösungen, den zuletzt
höchsten Marktanteil, bei Notebooks war er bei 70%, weil Fermi ineffizient war, erst mit der Geforce 6000 fiel der Marktanteil von AMD deutlich und erreichte dann mit dem Hawai Refresh einen Tiefpunkt bei 19%. Je schlechter die Produkte, desto weniger Marktanteil für AMD.
Exorbitantist schrieb:
Laut Igors Lab angeblich 350 W Leistungsaufnahme unter Standardeinstellungen.
So ein hoher Verbrauch ist meiner Meinung nach sehr kritisch zu sehen.
Es hängt natürlich davon ab wie schnell die Karte ist, aber die Wärme muss irgendwo abgeführt werden, da ergeben sich in vielen Gehäusen Kühlprobleme, zudem heizt es das Zimmer auf, hier wären UV Ergebnisse interessant.
Linmoum schrieb:
Ob die GPU alleine nur 230W zieht, ist vollkommen latte. Es müssen die gesamten 350W abgeführt werden und nicht nur das, was die GPU verbrät. Verbrauch schönrechnen braucht man nicht, denn Speicher, Wandlerverluste etc. gehören immer und bei jeder Grafikkarte mit dazu.
Das hast du bei der Radeon VII noch
anders bewertet, dort war der hohe Stromverbrauch explizit kein Kritikpunkt, bezog sich nur auf den lauten Kühler.
Mal angenommen Nvidia bekommt es hin, einen sehr guten Kühler zu verbauen und die Karte abseits von hohen Lasten sparsam zu gestalten (Idle, Videos, Teillast etc.) kann man das zumindest kaschieren, aber der Kritikpunkt wird bleiben.
Linmoum schrieb:
Wenn man effiziente Architekturen designt, dann kommt man auch um steigende Wattzahlen bei gleichzeitig trotzdem höherer Performance herum.
Die Effizienz lässt sich auch vor allem in Hinblick auf RTRT noch gar nicht bewerten.
Linmoum schrieb:
Wird man mit RDNA2 und den +50% Perf/Watt sehen trotz desselben Prozesses. Die Xbox Series X ist schon einmal ein kleiner Vorgeschmack darauf.
Ich denke nicht, dass sich AMD und Nvidia viel in Sachen Effizienz nehmen werden.
Linmoum schrieb:
Die Fury Nano sieht das anders.
Effizient ja, jedoch nur auf dem
Effizienzniveau einer GTX 980 bei 225 Euro mehr Kosten zum Launch.
Effizient aber völlig überteuert und von der GTX 970 Mini ITX als sinnfreies Produkt ausgestochen.