Holzinternet
Commander
- Registriert
- Dez. 2013
- Beiträge
- 2.110
Cempeg schrieb:SC = Starcraft? 😁
In dem Fall meine ich Star Citizen. An Starcraft dachte ich gar nicht.
Gruß
Holzinternet
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Cempeg schrieb:SC = Starcraft? 😁
ich kauf sie mir 2029, dann gibts sicher wieder ein YouTube Video wie man die 8GB Karte mit 32 bestücken kannCorpus Delicti schrieb:Wer kauft sich denn 2028 noch eine GraKa mit voraussichtlich 8GB VRam? Die bleiben doch heute schon im Regal liegen.
Vega 2.0. Wobei Vega zeitweise wenigstens BILLIG war.kachiri schrieb:RDNA3 ist wirklich eine richtige Enttäuschung.
Das ist mir Bekannt. Da an ber nividia die Preise macht, muss amd Jahr reagieren.McLovin14 schrieb:Nur ist die 7800XT eher der Nachfolger der RX6800, sollte sie tatsächlich noch auf N31 basieren. Kommt sie aus N32, ist sie der Nachfolger der RX6700XT.
Holzinternet schrieb:Gediegen Verbrauchsarm wäre schick... Gerne unter 200 Watt unter Volllast. Ohne das ich händisch irgendwas einstellen und testen muss...
Es gibt von so gut wie jeder Regel Ausnahmen... Es sollte klar sein, was gemeint ist, außer man ist besonders spitzfindig... (warum auch immer man das sein müsste, außer man ist "Oberlehrer")CDLABSRadonP... schrieb:Ausnahmen bestätigen Regeln, in denen klar ist, dass es Regelfälle und Ausnahmefälle gibt und in die nicht selbst eingegossen ist, dass es keine Ausnahmen geben darf. In deine Regel hast du aber eingegossen, dass es keine Ausnahmen geben darf:
Immer schön den Aussagen von AMD glauben, die dann plötzlich nach dem Launch kamen...Holgmann75 schrieb:AMD hatte nie vor die 4090 herauszufordern
Das kannst du getrost in das Fabelreich verweisen. Klar wollten die das. Wie im Übrigen auch hier klar demonstriert wird. Nur war die 4090 einfach nicht so gierig an der Steckdose wie erwartet und performt auch mit 300W immer noch bärenstark.Holgmann75 schrieb:AMD hatte nie vor die 4090 herauszufordern
Etwas schräger Gedankengang. Für Kunden ist die Karte vielleicht ganz OK aufgrund des Preises. Für AMD ist es definitiv ein Reinfall.Hans665 schrieb:Ich glaube auch nicht, dass RDNA3 ein Reinfall ist. Die Leistung ist durchaus ordentlich und die Bugs halten sich im Vergleich zum RDNA1 Launch doch sehr in Grenzen.
Allerdings halte ich die Preisgestaltung für fragwürdig. AMD hätte hier die Chance gehabt einen P/L Sieger auf den Markt zu bringen, hat sich jedoch für den Nvidia Weg entschieden und das einzige Argument was im Marketing sehr oft auftaucht ist der VRAM. Ich wittere Absprache mit Hoffnung auf Technologieaustausch.
Ja leider, genauso wie die ganze 40XX Serie.. Eine ganze Graka Generation zum Vergessenkachiri schrieb:RDNA3 ist wirklich eine richtige Enttäuschung.
Zwei Dinge:Philste schrieb:Immer schön den Aussagen von AMD glauben, die dann plötzlich nach dem Launch kamen...
Einfach mal ne 384Bit GPU mit 5.3TB Infinity-Cache Bandbreite entwickeln, inklusive 7 Dies und 530mm^2 Gesamtfläche um damit einen 256Bit 380mm^2 Monolithen zu matchen. Wer AMD glaubt, dass ein 4090 Gegner nie geplant war, der glaubt auch echt alles.
AD103 ist nur gute 20% größer als Der GCD von N31. Dazu noch 6 MCDs + Packaging. N31 sollte deutlich teurer sein als AD103. Ein weiterer Punkt, der naheliegt, dass N31 als AD102 Konkurrent gedacht war. Da hätte man dann einen Preisvorteil gehabt. So würde ich schätzen, dass man preislich irgendwo in der Mitte zwischen AD103 und AD102 liegt.bensen schrieb:Das Teil ist verdammt groß und kostet dann in der Fertigung etwa so viel wie nen AD103
shayenaaa schrieb:Denke AMD wird sich aus dem GPU geschäft zurückziehen innerhalb der nächsten 10 jahre für diskrete grafikkarten.
Wie man es nimmt. In der jüngsten Vergangenheit war das aber mehr die Regel als die Ausnahme. Pascal war schon bei neuem Prozess 480mm^2 groß, speziell bei Turing (gut, das war kein Fullnode Shrink) hat man es dann vollends übertrieben. Ampere hatte dann auch schon 600mm^2 bei neuem Prozess. Also so überraschend finde ich es jetzt nicht, dass Ada sofort mit 600mm^2 Die kam.bensen schrieb:Gleichzeitig ist AD102 einfach deutlich fetter geworden als angenommen. Selbst für Nvidia ist es doch ungewöhnlich, dass die gleich im neuesten Fertigungsprozess die Die size fast komplett ausreizen.
RDNA war ein größerer Umbruch, RDNA2 brachte einige Änderungen mit sich, das zusätzliche Tempo kam vom Cache.der Unzensierte schrieb:Tja, irgendwie ist mir der mit RDNA2 aufgekeimte Optimismus wieder komplett abhanden gekommen.
bis auf den Verbrauch und Preis finde ich die 4090 absolut gelungenTrabT schrieb:Ja leider, genauso wie die ganze 40XX Serie.. Eine ganze Graka Generation zum Vergessen
Der Chip war ziemlich genau so gedacht, wie kommst du darauf?bensen schrieb:Gleichzeitig ist AD102 einfach deutlich fetter geworden als angenommen. Selbst für Nvidia ist es doch ungewöhnlich, dass die gleich im neuesten Fertigungsprozess die Die size fast komplett ausreizen.
Farcrei schrieb:Für 500 €uro (mit 16 GiByte) würde ich meine 2080 (mit 8 GiByte) in Rente schicken.
Zwei Dinge:Philste schrieb:AD103 ist nur gute 20% größer als Der GCD von N31. Dazu noch 6 MCDs + Packaging. N31 sollte deutlich teurer sein als AD103. Ein weiterer Punkt, der naheliegt, dass N31 als AD102 Konkurrent gedacht war. Da hätte man dann einen Preisvorteil gehabt. So würde ich schätzen, dass man preislich irgendwo in der Mitte zwischen AD103 und AD102 liegt.