News AMD Radeon Fury X: Fiji XT im 3DMark auf Augenhöhe mit GTX Titan X

Red_Bull schrieb:
auch verlustfreie komprimirung kostet eben zeit
inwiefern der hbm das begünstigt wird sich noch rausstellen

Das kostet praktisch keine zusätzliche Zeit, wenn man das entsprechend in der Hardware abbildet. NVidia nutzt das scheinbar schon eine halbe Ewigkeit, und AMD seit Tonga (GCN 1.2 / GCN Generation 3). Die Losless Delta Color Compression wirkt sich nur auf den/die Frame Buffer aus, und nicht auf die Texturen - der Nutzen für die Speicherauslastung ist daher gering.

Für Texturen gibt es ein Dutzend, oder mehr, verschiedene Komprimierungsverfahren, alle mit gewissen Vor- und Nachteilen - da liegt es aber in der Hand der Spieleentwickler die zu nutzten, genauso wie das Texture-Streaming, etc. und wieviel Speicher dafür genutzt wird. Bei der CryEngine (z.B. Star Citizen) kann man z.B. die Größe für den Puffer einstellen, und Default ist da z.B. nur 1024 MB für Ultra Settings, egal in welcher Auflösung, und deswegen wird z.B. auch bei einer Titan X kaum etwas vom Speicher effektiv/automatisch genutzt..
 
MaLow17 schrieb:
Auf welchen "Benchmark" beziehst Du Dich? Also auf dem von CB gezeigten Bild sind es genau 5% mehr Performance bei 5% mehr Takt zwischen den beiden Karten.

Nicht wirklich, denn wenn du dir die erzielten Ergebnisse ansiehst, kommt man auf ca. 6,1% im Durchschnitt und über 11% als Maximalwert - wahrscheinlich in 4K. Da ist mehr passiert als nur 50Mhz mehr Takt und Speichertakterhöhung.
 
rofl...ich hätte doch lieber gleich den Artikel bei den Leuten, die sich besser auskennen lesen sollen. :evillol:
Joahr, Nivea ist ken Niveau oder so ähnlich...
 
Und dann noch mal 4 bis 6 Wochen bis die Fury im Handel erhältlich ist.
Bis dahin werden sich die 980ti custom designs wie geschnitten Brot verkaufen.
Ich dachte Ati ist wenigstens zum nv Preis drücken gut aber nicht mal das funktioniert.
 
mcsteph

Es ist nur total lustig zu sehen, dass Leute glauben, dass Qualität heutzutage noch was mit Beschaffenheit zu tun hat.
Besonders NV und AMD sind ein schlechtes Beispiel, weil beide bei TSMC als Fertiger, deren Chips fertigen lassen und das sogar im selben Prozess.
Was die Karten angeht, stammt nur der Chip von AMD selbst, der Rest vom Boardpartner. Und genau da beklagt man sich in letzter Zeit bei NV wegen Spulenfiepen, was mit paar wenigen Cent teureren Komponenten eindämmen könnte.

Aber hauptsache von mehr "Qualität" sprechen, besonders da es auch schon Treiber bei NV gab, die die GPU zum Schmelzen brachte.
 
Zuletzt bearbeitet:
GHad schrieb:
Mir egal was AMD macht, ich kauf und empfehl eh nur NVidea, da machste nie was falsch. Mit dem Billig AMD Dreck immer nur Ärger gehabt. Da zahl ich lieber 100 € mehr für die gleiche Leistung aber hab dann wenigstens keine Dritte Welt Discount Hardware.

Wenn ich sowas lese! Ich gebe auf an die Intelligenz der Menschheit zu glauben!

Alles nur noch Marketing Zombies! Manchmal habe ich das Gefühl die Leute wollen Reingelegt werden wenn ich so sehe was NVIDIA treibt und die Kunden dann trotzdem noch solche Sprüche Klopfen!
 
Zuletzt bearbeitet:
Necareor schrieb:
Ich bezweifle stark, dass es jemanden gibt, der deine Ansprüche nicht für überzogen hält.

OK.

Necareor schrieb:
Von "einigen wenigen" zu reden, das halte ich für sehr optimistisch.

OK. Dann hat AMD seine Zielgruppe erreicht.

Necareor schrieb:
Schade... hatte echt gedacht, dass das ein ziemlich intelligenter ironischer Beitrag war.

Tut mir Leid wenn ich Dich enttäuscht habe. :streicheln:


Necareor schrieb:
Aber wenn du ihn tatsächlich ernst gemeint hast, war es das genaue Gegenteil. :(

Jetzt mach Dich nicht verrückt wegen mir. (Einer muss ja den "Doofen" im Leben spielen). ;)

major_tom111 schrieb:
Das war mir klar ;-)

OK.

major_tom111 schrieb:
wozu brauchst du denn die 5-10 fache Leistung einer 295x2?

Für 6x 4K @ 120f/s, als Beispiel. Leider dürften die derzeit zur Verfügung stehenden 40 PCIe Lanes und die 8GB HBM nicht ausreichend dafür sein. :heul:

major_tom111 schrieb:
Was andere sagen wollten ist: bei solchen Erwartungen und Ansprüchen wirst du in dieser Welt dein Leben lang enttäuscht sein. Keine schöne Vorstellung.

Dann ist das mein ewiges Schicksal, kann ich mit Leben, wenn ich bedenke was ich alles bisher erleben musste. :baby_alt:

ampre schrieb:
Wenn ich sowas lese! Ich gebe auf an die Intelligenz der Menschheit zu glauben!

Tuh das nicht, sonst fehlt es Dir irgendwann selbst. ;)
 
Zuletzt bearbeitet: (alte Petze !!!!!)
Wurstpeller

Dann benötigst du sowieso ein CF oder SLI System und wie ich schon beschrieben habe, kann hier DX12 at least durchaus intersesant werden, weil hier Grafikkarten ihren vorhanden VRAM Pool im SFR Modus nützen können "sollen".
Aber ich denke, dazu werden wir wahrscheinlich auch am 16. etwas hören. Es muss nicht direkt von AMD stammen, aber ich nehme an, dass es bei der E3 PC Show erwähnt werden könnte.
 
cypeak schrieb:
das einzige was wirklich zählt ist die preisleistung und zwar in dem preissegment in dem es darauf ankommt...also gefühlt zw. 200-400 euro.

Seh ich genauso. Frage mich nur, warum genau in dem Bereich (zumindest 200-300 Euro) seit gefühlten Jahren, außer rebrandings, nichts passiert. Mal ne neue GTX 460 oder Radeon 5850 wären echt top.
 
smashen

3870, 4770, 5770 - 460 GTX, 5830-5850, 6870, 7870, 280(X) (alias 7970).

Es gab im Bereich ständig ein Preis-Leistungs Klasse. Die R9 280(X) wird nun mal für einige schon zu alt. Das liegt aber einfach an GCN1.0.
Alternativ gibt es jetzt die 960 GTX mit 2-4 GB. Von AMD fehlt lediglich ein guter Ableger der Tonga Pro und XT.
Besonders Tonga Pro konnte sich zur R9 280 nicht absetzten, weil hier mit 1GB mehr VRAM argumentiert wurde. Bei letztern Titel, konnte sich Tonga Pro oft aber von der R9 280 absetzten, auch teils von der 960 GTX. Bei the Witcher läuft sie sogar Schritt mit der R9 280X die eine Preisklasse höher ist.


derhell
Die Konsolen würden auch mit 4GB auskommen um für 1080p genug Resourcen zu haben. Hier kann man deutlich besser mit Ressourcen umgehen und es wurde auch von Entwickler schon erwähnt, dass Speicherverwaltung besser und gezielt eingestellt werden können.
Dass das System 2GB hat, liegt schlicht und einfach daran, dass selbst 6 GB aktuell mehr als genug ist. Die Vorgänger sind mit 256 und 512 MB als VRAM ausgekommen.
Wieviel das Betriebssytem zur Verfügung hat, kann über ein SDK schnell geändert werden, falls überhaupt der Bedarf gegeben ist.
Früher waren bei der XOne auch nur 6 Cores für Games verfügbar und mittlerweile kann man bei Bedarf seit einer neueren SDK auch den 7ten Core für Games nützten.
 
Zuletzt bearbeitet:
derhell schrieb:
auf der x1 und ps4 gibt es kein einziges spiel mit "ultra" texturen. des weiteren sind mind. 2 gb für das system reserviert und die restlichen 6 gb shared für die gpu/cpu einheit der apu.

der ewige konsolenvergleich beruht oft auf absolut schwachsinnigen vermutungen die durch die foren wandern.

4gb vram bei einer 700€ gpu ist schlichtweg ein scherz. 4gb vram bekommt man bereits bei gpus um die 200€ (960 4GB).

Kannst du das bitte ausführen?

Ich hab den Vergleich gemacht und würde gerne wissen warum die Vermutung Unsinn ist.
 
derhell schrieb:
4gb vram bei einer 700€ gpu ist schlichtweg ein scherz. 4gb vram bekommt man bereits bei gpus um die 200€ (960 4GB).

Man bekommt 4GB auch bei Karten die deutlich weniger kosten, so ab 70€ geht es los.
Das es keinen Sinn macht diese Low-Budget Karten so anzubieten sollte klar sein.
Die Karten nur wegen ihrem Speicherausbau zu verdammen oder hochzujubeln ist daher einfach sinnfrei.

Die Frage ist, was kommt hinten an Leistung raus. Und genau DAS kann keiner sagen, so lange es keine unabhängige, nachprüfbare Tests gibt.

Cunhell
 
Ach wenn wir schon beim Orakel sind! Das AMD erst mal mit 4Gb kommt ist garnicht schlimm. Spätestens zum Weihnachtsgeschäft wenn richtig Kasse gemacht wird haben sie 8Gb parat.

zum Thema:
1.) dafür das AMD kaum Geld hat und dieses auch noch weiter gestreut wird (Cup und Gpu) machen die einen Verdamt guten Job.
2.) 2 Jahre alte Karten hatten schon die richtigen Features für DX12 während die Konkurenz nicht mal 11.1 kann
3.) wo die alten Karten bei NVIDIA liegen sieht man nun genau! 780ti ist mitlerweile hinter 290x da bringt auch mehr Speicher nichts! Soviel zum Thema zukunftssicherheit Vram und Nvidia
4.) NVIDIA Nutzer sind schizophren: Bei der Gtx970 sind 3,5Gb noch genug bei AMD dann schon nicht mehr
5.) der Vram Verbrauch wird sinken. Shadow of mordor sind Ausnahmen da hier einfach nicht gut programmiert wurde und Leistung durch Vram erkauft wurde. Das sieht noch nicht mal Gut aus das Spiel. Was Geht zeigt Witcher 3 sieht gut aus verbraucht aber kaum Vram. Auf UHD waren es glaube ich 2,7 GB
 
Zuletzt bearbeitet:
pipip schrieb:
Wurstpeller


Dann benötigst du sowieso ein CF oder SLI System und wie ich schon beschrieben habe, kann hier DX12 at least durchaus intersesant werden, weil hier Grafikkarten ihren vorhanden VRAM Pool im SFR Modus nützen können "sollen".

OK. Ich dachte eher so an 4-7 Grafikkarten. Wird dann aber zu aufwendig.

pipip schrieb:
Aber ich denke, dazu werden wir wahrscheinlich auch am 16. etwas hören. Es muss nicht direkt von AMD stammen, aber ich nehme an, dass es bei der E3 PC Show erwähnt werden könnte.

Gibt es einen Live-Stream zu diesem Event ?

Thanok schrieb:
Hallo Wurstpeller,

du hast im ComputerBase Forum einen Hinweis erhalten.

Grund:
--------------
Spammen oder Flamen

Solche Beiträge stehen einer halbwegs sachlichen Diskussion nur noch im Weg. Ironie hin oder her, aber damit bist du etwas über das Ziel hinausgeschossen.
--------------

Kein Problem, wenn man seine Meinung nicht mal mehr frei Äussern darf und nur noch Roboterartig kontrolliert Antworten muss, dann werde ich meinen Account Morgen löschen. Falls also noch Jemand Fragen hat, dann bitte per PM.
 
Zuletzt bearbeitet:
ampre schrieb:
4.) NVIDIA Nutzer sind schizophren: Bei der Gtx970 sind 3,5Gb noch genug bei AMD dann schon nicht mehr

Top Aussage!
 
Krautmaster schrieb:
lol, selten so nen Haufen Müll auf 10 Posts verteilt gelesen... sry... aber was Kompressionen angeht und der Begrifflichkeit "lossless" solltest du dich nochmal schlau machen.
Naja, immerhin kann AMD die Daten bei HBM in der Tat als "raw" behandeln da die Bandbreite stimmt. ^^

Genau.

Lossless ersetzt locker 1, 2, 4, oder 8 oder welche GB Menge an Speicher auch immer.

Eigentlich braucht man nur 256 MB oder so (eher weniger).


lol

Speicher wird überschätzt.
 
Vorab: Ich schreibe diesen Text nur als User, nicht als Mod.

4GB für eine so genannte "Enthusiast"-Karte, und nichts anderes will Fiji bzw. die Fury ja sein, muten auf den ersten Blick schon ziemlich mau an. Das ist zwar genauso viel Speicher wie bei der 980 oder auch der 290X, aber die Karte hat ja mal eben 30+% Mehrleistung gegenüber selbiger. Und diese Leistung will oder eher muss ja auch gefüttert werden.

Pauschal die Karte als Speicherkrüppel zu bezeichnen ist sicherlich nicht gänzlich richtig, aber ein wenig erinnert das an die 4870 512MB. Der Speicher wird jetzt sicherlich nicht limitieren, zumal der Speicherbedarf in höhen Auflösungen ja nicht linear steigt (vor ein paar Seiten gab es da eine Beispielrechnung zu) und auch stark von der verwendeten Software abhängig ist. Aber, AMD wird beim Management des Speichers einiges anpacken müssen um sicher zu stellen dass das auch in einigen Jahren so bleibt, immerhin will niemand 650+€ für eine Grafikkarte ausgeben die er nicht voll quälen kann weil der Speicher zu schnell voll ist. Wer weiß wie, kann jede Karte in ein Speicherlimit treiben.

Dieses Problem wird dabei auch nicht wirklich von HBM entschärft, denn intelligentere Bandbreitennutzung und eine höhere Übertragungsrate zwischen GPU und Speicher sind nutzlos wenn der Speicher nicht ausreicht und die Daten umgelenkt werden müssen.

Werden Daten benötigt die gerade nicht im 4GB Speicher geladen wurden, müssen diese ja erst den Umweg über den langsamen PCIe Bus und den RAM nehmen - da der PCIe Bus der kleinste gemeinsame Nenner ist bricht die verfügbare Bandbreite dann auf <16GB/s ein; bei gleicher Größe ist das unproblematisch, aber bei "nur" 4GB kann das Mittelfristig Probleme verursachen. Sei es durch schlecht optimierte Titel oder durch UHD-Texturen. 4GB voll zu bekommen ist heutzutage keine Kunst, erst recht nicht mit der Rohleistung die "Fury" wohl haben wird.
Und genau da liegt der Hund begraben: Sobald der Speicher so voll ist dass Daten aus dem RAM oder noch schlimmer der Platte nachgeladen werden müssen die unmittelbar gebraucht werden gibt es Nachladeruckler. Die gibt es mit GDDR5 auch, aber aufgrund größerer Kapazität muss weniger on the fly geladen werden.

HBM mag dies durch intelligenteres Speichermanagement teilweise ausgleichen können, aber 4GB HBM werden wohl dennoch schneller gefüllt werden als 6GB GDDR5.
Wie gut AMD das Speichermanagement verbessert hat wird sich ja hoffentlich am Dienstag zeigen; dann werden wir auch sehen ob der fade Beigeschmack den die Karte bei mir derzeit hinterlässt angebracht ist oder nicht.

Zur Leistung sage ich nur: Da wo sie zu erwarten war. GCN scheint nicht gerade für hohe Taktraten wie Maxwell ausgelegt zu sein, was sich auch in dem Takt von 1,05GHz äußert. Wenn man davon ausgeht dass diese Ergebnisse wahr sind und dem Endprodukt entsprechen, dann zeigt das doch vor allem dass AMD es nicht sinnvoll schaffen konnte die 980Ti bzw. die X zu schlagen.
Dafür spricht ebenfalls das die Karte eine WaKü bekommen hat und trotz HBM mit 2 8-Pin Steckern ausgestattet wurde. Der Verbrauch soll ja noch einmal leicht über Hawaii liegen und deutet darauf hin dass der Chip schon nah am Limit läuft.

Ich vermute mal dass, unabhängig von der Leistung der Karte, die OC-Modelle der 980Ti flotter sein werden.
 
Zurück
Oben