Acedia23
Lt. Junior Grade
- Registriert
- Apr. 2018
- Beiträge
- 335
evolute schrieb:Die Grafikkarte wird aber als Gamer-Grafikkarte vermarktet
Du hast offensichtlich weder die Keynote, noch den offiziellen Werbe-Flyer gesehen.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
evolute schrieb:Die Grafikkarte wird aber als Gamer-Grafikkarte vermarktet
Jesterfox schrieb:Ne Vega 64 kannst mittlerweile schon günstiger haben und was groß anderes würde da nicht rauskommen wenns bei 2 HBM Stacks bleiben würde...
pupsi11 schrieb:wer sagt die karte ist zu langsam?
wer kam eigentlich auf dieses "unoptimierten spiele" mist. es ist völlig egal wie das spiel programmiert wurde - denn die gamer muessen es hinnehmen wie es ist.! also zieht dieses argument null!
Benji21 schrieb:[...]AMD merzt hier schlicht eine Schwachstelle von Vega10 aus, was ist daran nicht zu verstehen? [...]
pupsi11 schrieb:DU bist der der hier nichts begreift!
v_ossi schrieb:Ich. Wenn es die Kosten überproportional nach oben treibt und für die Zielgruppe (Gamer) keinen nennenswerten Vorteil bringt.
Für Videobearbeitung sieht's wieder anders aus. Aber vlt. hätte man das Portfolio dann in Radeon 7 und Vega trennen sollen. Auch preislich.
PS.: Zum Artikel selber. Ich denke mal selbst bei der für AMD günstigsten Variante sollte klar sein, dass die Radeon 7 teurer ist als ihr Nvidia Konkurrent. Selbst bei nur 200$ für HBM und Interposer wäre das deutlich mehr, als bei Nvidia und der 7nm Chip dürfte auch (erheblich?l) mehr kosten, als der TU104.
v_ossi schrieb:Hauptsächlich der Teil mit dem Bandbreitenlimit. Du stellst es stumpf als Tatsach hin, dass die Bandbreite ewig linear in mehr Leistung resultiert. Ich bezweifle das und will Tests abwarten. Weiß gar nicht, warum du da so 'aggressiv' drauf reagierst.
Streicht man einen 4GB Stack, hätte man 12GB mit 750GB/s angebunden.
Kannst du mir hier und jetzt mit Quellen belegen, dass man da immer noch in ein Limit laufen würde? Man hätte ja immer noch mehr Speicher und Bandbreite als Nvidia mit seinem Flaggschiff, geschweige denn der 2080.
SlaterTh90 schrieb:AMD nimmt ja mittlerweile auch viel mehr HBM ab (Vega 64, 56, Vega20 usw), Nvidia ist auch dabei - das kann eigentlich nur billiger geworden sein.
Da müsste man sich aber schon arg dumm anstellen beim Modden, um 16GB VRAM zu belegen.-Ps-Y-cO- schrieb:Selbst ein Skyrim (gemoddet) Frisst die 16GB.
Knaller.Benji21 schrieb:Falsch, du willst die Argumente nur nicht hören. Darum versuchst du es schlicht jetzt über die persönliche Schiene.
...
Fertig, da kannst du hier noch so meckern, jammern, AMD verteufeln oder wie ein Kind mit den Fäusten auf den Tisch trommeln.
USB-Kabeljau schrieb:(Wobei vermutlich kein Hahn nach 16GB krähen würde, wenn AMD nun ne 8GB Karte gebracht hätte.)
Mal wieder nur eine (leicht widerlegbare) Behauptung ohne jegliche Argumentepupsi11 schrieb:tust du eben nicht!
Dir bleibt immer noch doch Wahl, ein schlecht optimiertes Game auch entsprechend zu bewerten, oder es gar nicht erst zu kaufen. Aber nein, alles so hinzunehmen, wie es ist, ohne sich kritisch damit auseinanderzusetzen, ist das dümmste, was man machen kann.pupsi11 schrieb:wer sagt die karte ist zu langsam?
wer kam eigentlich auf dieses "unoptimierten spiele" mist. es ist völlig egal wie das spiel programmiert wurde - denn die gamer muessen es hinnehmen wie es ist.! also zieht dieses argument null!
Das hat nur irgendwie gar nichts mit meiner Bemerkung zu tun.corvus schrieb:Wurde jetzt in dem Thread schon oft genug gesagt, warum das mit HBM2 und der prognostizierten Leistung nicht funktioniert hätte mit 8GB.
USB-Kabeljau schrieb:Und ich bin mir zu 100% sicher, daß wenn AMD ne Karte mit 8GB gebracht hätte, kaum jemand hier auf die Idee kommen würde, daß das nicht reicht.