News ve.ga: Offizielle Vorschau auf AMD Vega am 5. Januar

Edelhamster schrieb:
jemand mehr als 5 Games nennen kann, in denen mich die 4GB HBM limitieren?

Wie sieht es denn bei Rise of the Tomb Raider, Mirror´s Edge, Need für Speed, The Division oder die CoD Teile bei dir aus?

Wäre mal interessant.

Hier gab es mal so einen netten Bericht zwischen 4GB und 8GB:

http://www.pcgameshardware.de/Radeo...-264637/Specials/4-GB-vs-8-GB-vs-6GB-1202557/

Oft werden dann z.B. unbemerkt ab gewissen Auflösungen Details weggelassen. Also ist das Ergebnis im Endeffekt oft nicht gleich zu Karten mit mehr Ram.

Ein direkter Vergleichstest zu HBM wäre sicherlich informativ.
 
The Division unter DX11 aufjeden ein Thema bzgl. Speicher, mit DX12 sieht das aber schon anders aus.
ROTTR auch ein Thema, hier muss ich auf hohe Texturen reduzieren um vernünftige Frametimes mit Ultra zu erzielen.

Geb ich zu, kein Ding.

Zitat aus r4yn3´s verlinktem Test:
Schaut man sich die Speicherbelegung in verschiedenen Spielen an, fällt schnell auf, dass sich die Radeon R9 Fury X tatsächlich anders als zum Beispiel die Radeon R9 390X und die Radeon R9 290X verhält. Während sich die GDDR5-Grafikkarten zum Beispiel in Assassin's Creed Unity sieben Gigabyte Speicher genehmigen, kommt die Radeon R9 Fury X in demselben Spiel mit rund 3.950 MB nur knapp an die Vier-Gigabyte-Grenze, ohne dass sich auf den ersten Blick Unterschiede in der Leistungsfähigkeit ergeben.

edit: Korrektur
 
Zuletzt bearbeitet:
Wenn du das ohnehin weißt, wieso müssen wir dir dann Spiele nennen? Aber seis drum.

So wenig ich auch Kasmo leiden kann, hier muss ich ihm leider beipflichten, dass es ein NoGo ist, bei einer >600€ Karte die Texturen ab dem ersten Tag schon reduzieren zu müssen. Und die Gefahr hast du bei 8GB theoretisch bereits schon.
 
Krautmaster schrieb:
Aktuell ist die Größe weit wichtiger als HBM oder GDDR5X. Verhalten tun sich beide Speicherarten identisch.

Das ist mangels vernünftiger Tests/Daten leider allgemeiner Konsens bzw. eine Annahme, aber tragende Beweise dafür sind leider Mangelware und dass die Speicheradressierung bei HBM(2) der von GDDR5(X) überlegen ist, ist ja auch hier und da nachzulesen (inwiefern sich das - jetzt schon positiv - auswirkt, ist dann wieder eine andere Frage) und könnte auch erklären, wie gut/passabel sich die R9 Fury (X) Karten noch im Vergleich zur speichermengenmäßig deutlich überlegenen Konkurrenz (auch aus eigenem Hause) schlagen.

Natürlich gibt es die Rise of the Tomb Raider, Mirror's Edge Catalyst, Call of Duty - Infinite WarFare, Deus Ex - Mankind Divided, Doom und Star Citizen (6 Spieletitel, die zum Teil schon in maximal detaillierter Full-HD-Auflösung die Speichermenge von 4GB HBM1 einer R9 Fury (X) derzeit überfordern, wie gewünscht ;) @ Edelhamster) schon, die den Kauf einer R9 Fury (X) Karte nur noch eingeschränkt empfehlenswert derzeit machen.

Wenn HBM keine nennenswerten Vorteile außer geringerem Energiebedarf und Platzersparnis hätte, dann wäre es auch nur bedingt sinnvoll, dass AMD und nVidia (beim P100) diesen schon verbaut hätten. Leider besteht da ein Berichterstattungs-/Wissens-Defizit, da stimme ich mit Edelhamster schon überein, aber vielleicht ist ein direkter Vergleich der beiden Speichertypen auf Herz und Nieren auch nicht gewollt, wer weiss?
 
Zuletzt bearbeitet:
selbst WoW zieht mit den richtigen einstellungen in UWQHD mehr als 10GB gddr5(!) Vram
 
Zuletzt bearbeitet:
Das währ schon was mit 8GB oder mehr, würde dann ideal für CF sein.
 
Wenn AMD schlau ist, werden die genau die gleiche Strategie wie Nvidia verfolgen.

Für GTX1070/1080 gibt es Vega mit 8GB HBM
Für GTX1080ti/Titan X gibt es Vega mit 16GB HBM

Und Vega mit 16GB HBM wird dann wie GTX1080ti und Titan X als Highend zählen, während die 8GB Variante mehr die obere Mittelklasse bedienen soll. AMD soll Geld verdienen, um zukünftig mehr investieren zu können. Ich will kein AMD sehen, dass mit Ramschpreisen 16GB Karten verkaufen muss, weil sie sonst nichts absetzen können.

Su strebt Marktanteile von 50% an. Dafür benötigt AMD Kunden die Markentreue schwören. Das funktioniert aber auch nur, wenn AMD Leistung liefern kann.
 
Dank an Chismon bzgl. Konformität zum Wissens-Defizit!

Ich will halt vorallem darauf hinweisen, dass sich die Anzahl an Spielen welche den Speicher einer FuryX überanspruchen, in Grenzen hält.
Bedenkt, in 4K bei mir ist Antialaising fast nie möglich/nötig, dem Chip geht da vorher die Puste aus.
DeusEx, Call of Duty oder Mirrors Edge sind darüber hinaus auch nicht meine Games, muss ich passen.
Die FuryX wurde von den Medien kaputt gebencht, VEGA macht nicht viel anders, aber ich hoffe Sie stopfen euer Maul mit genügend VRAM. Und dann werden die Nvidia-Jünger ein anderes Defizit finden.
Man findet in jedem Keller eine Leiche, und wenn man keine Leiche findet dichtet man eine hinein.
Fuck off, alles besser als Nvidia jedes Jahr aufs neue die Kohle in den Rachen zu werfen! Lasst euch weiter die Hosen ausziehen..

edit: ich will niemanden persönlich angreifen, habe lediglich meine eigene Meinung hierzu!

Zu gesperrter_User will ich nochmals anmerken, dass sich die VRAM-Auslastung bei Nvidia und AMD nicht gleich verhält!

@SKu: ich schätze deine Beiträge sehr!
 
Zuletzt bearbeitet:
Dishonered 2 in 4K "11,5 GB"
 
anthony274 schrieb:

Stillstand-->Niemand braucht und kauft mehr eine neue Graka (nur bei defekt)-->Umsatzeinbusen ergo unzufriedene Aktionäre-->evtl. Pleite von nVidia-->Es gibt keine Grakas mehr zu kaufen, da kein Hersteller mehr da ist bzw. nur noch I-GPU von Intel.

Stillstand kann sich keine Firma leisten. Mangels Konkurenz langsamerer Fortschritt und höhere Preise (Da greift aber dann das Gesetz ein: Es ist es ausdrücklich verboten, dass ein Unternehmen die marktbeherrschende Stellung aus seinem Monopol ausnutzt), aber niemals Stillstand!
Außer man ist an technisch machbarer Grenze angekommen.
 
Zuletzt bearbeitet:
r4yn3 schrieb:
... dass es ein NoGo ist, bei einer >600€ Karte die Texturen ab dem ersten Tag schon reduzieren zu müssen. ....

Das betrifft aber dann auch jeden, der ne GTX 1080 hat und damit versucht 4K zu befeuern.
Deine Sichtweise ist sehr sehr einseitig.
 
interessant das amd nun auch musikinstrumente herstellen will.
hoffentlich leiden die anderen bereiche wie die der prozessoren und grafikchips(danke an Mr.Smith!) darunter nicht.
 
Zuletzt bearbeitet:
Titan X Pascal:
480
11

Radeon Vega:
512 -> +6.66%
14 -> +27,27%

Klingt schonmal ziemlich geil!! Sofern die Leistung aus einem einzelnen Chip kommt und ver Verbrauch <250W in der Spitze ist.
Ergänzung ()

sTOrM41 schrieb:
… das amd nun auch musikinstrumente herstellen will.
hoffentlich leiden die anderen bereiche wie die der prozessoren und grafikkarten darunter nicht.

du weißt schon, dass AMD Grafikchips und nicht Grafikkarten herstellt?!
 
Zitat:
Ein Seitenhieb Richtung Nvidia

Einen kleinen Seitenhieb in Richtung Nvidia kann sich AMD auch dieses Mal nicht verkneifen. In der sechsten Sekunde im Video ist ein Warnschild zu sehen, das auf schlechte Spannung hinweis. Die letzten zwei Buchstaben sind aber abgeklebt. Zu sehen bleibt „Poor Volta“. Volta ist Nvidias Nachfolger für Pascal.

Netter Seitenhieb nachdem man selbst bei der Leistungsaufnahme über den PCI E nicht ganz rundlief und per Treiber Einhalt gewähren musste?

Bin echt kein Nvidia Fanboy, aber nachedem die Bulldozer zahm schnurren und ne 480 preislich nicht günstiger als ne 1060 mit 6GB bei sicherlich besserem Speicherdurchsatz ist und CPUs schon lange kein Land mehr gegenüber preislich gleichen Intel CPUs sehen...finde ich das "Mundwerk" dann schon bissl arg BILD Niveau und eher abturnend.
 
Edelhamster schrieb:
Dank an Chismon bzgl. Konformität zum Wissens-Defizit!

Gern geschehen!

Zock schrieb:
Dishonered 2 in 4K "11,5 GB"

Bist Du sicher, dass die Karte sich bei Vorhandensein die 11.5 GB nicht unkomprimiert nimmt und auch mit 8 GB schon zufrieden ist, aber dann mehr komprimiert (was sich nicht notwendigerweise in weniger Frames am Ende niederschlagen muss?)? Der springende Punkt ist ja, ab wann es zu wenig für ein 30fps- oder 60fps-Minimum bei gegebener Auflösung ist bzw. die Einstellung nicht mehr verfügbar/zugängig ist.

GreatEvil schrieb:
... betrifft aber dann auch jeden, der ne GTX 1080 hat und damit versucht 4K zu befeuern.

Naja, selbst eine nicht übertaktete Titan X(P/rev.2) packt 60 fps nicht durch die Bank in allen aktuellen Spielen und vermutlich peilen richtig flüssiges 4K/UHD spielen (60 fps oder mehr) erst die GTX 1080Ti, Titan Black und Groß-Vega mit 16GB an, wobei die Frage ist wie lange diese GPUs das stemmen werden beim Ressourcenhunger und inkompetenter/ineffizienter Umsetzung vieler Entwickler momentan.

Die GTX 1080 war eigentlich von vornherein als solide WQHD Karte ausgelegt, wobei die GTX 1070, GTX 980Ti und R9 Fury (X) noch als durchgehend WQHD ermöglichende GPUs anzusehen sind und es darunter eben nur teilweise WQHD-fähige bzw. solide Full-HD GPUs (RX 480, 470 und GTX 1060) sowie Full-HD-fähige GPUs (GTX 1050(Ti) und RX 460) gibt.
 
Zuletzt bearbeitet:
GreatEvil schrieb:
Deine Sichtweise ist sehr sehr einseitig.
Danke, gehört aber mir.

Es ist halt ein Kompromiss, weil man sonst nicht mehr Leistung bekommt. Das sind aber durch die Bank vermutlich auch die Leute, die dank Nvidias PR Tricks auch an Tag 1 auf eine GTX1080Ti wechseln. Kennt man hier ja 980->980Ti->1080. Und dann am Jahresende..."oh welch Überraschung, Nvidia fährt wieder Rekordgewinne...warum nur..."

Sei ihnen vergönnt, kommt ja wieder die "ist mein Hobby" Keule.


Schön auch das nun wieder all die HBM Experten kommen, für die HBM mehr so eine Art Magiekiste ist, wo etwas völlig unerklärbares funktioniert. Schade dass Nai nichts dazu schreibt, der einzige mMn dem ich bei so einem Thema Kompetenz zutraue.

Egal, ich freu mich sehr auf Vega.
 
NutzenderNutzer schrieb:
...finde ich das "Mundwerk" dann schon bissl arg BILD Niveau und eher abturnend.

Ich ehrlich gesagt auch. AMD sollte sich lieber aufs wesentliche konzentrieren, zb. Spikes reduzieren.

https://www.youtube.com/watch?v=d6TDsx8Shks

GTX1070 direkt mit dem ersten Treiber traumhafte ergebnisse und die Fury ruckelt und zuckelt vor sich hin.
http://www.guru3d.com/articles_pages/geforce_gtx_1070_fcat_frametime_anaysis_review,6.html

Die overhead geschichte muss man auch im auge behalten.
http://www.hardwareluxx.de/communit...performance-im-dx11-cpu-limit-1089150-56.html

Wenn die probleme bestehen bleiben, kommt ein kauf für mich definitiv nicht in frage.
Es ist zwar schön das RX480 unter Dx11 etwas besser ausgelastet wird bzw. weniger overhead fabriziert als GCN aber wirklich zufriedenstellend sind die ergebnisse nicht.
 
Zuletzt bearbeitet:
kdvd schrieb:

http://www.hardwareluxx.de/index.ph...grafikkarte-braucht-keine-wasserkuehlung.html

https://www.computerbase.de/news/gr...-mehr-von-amds-radeon-hd-7900-erwartet.34276/


Sind jetzt die 2 die ich mir halt gemerkt habe und schnell rausgraben konnte. Geht bestimmt viel weiter als das.


Aber fahren wir mal fort was AMD sonst noch so gemacht hat, ist ja nicht so als ob ich "dir nur Unrecht geben wollte" oder so: Wer erinnert sich an den Fixer? :P
 
Zuletzt bearbeitet:
Zurück
Oben