News AMD Radeon Fury X: Fiji XT im 3DMark auf Augenhöhe mit GTX Titan X

Kulasko schrieb:
Theoretisch dürfte bei über dem Daumen 30+% weniger benötigte Bandbreite auch entsprechend weniger Speicher gebraucht werden.

Selben Gedankengang hatte ich auch bei der GTX970. Unser Experte Nai klärte allerdings auf. Da geht es nur um Bandbreite. Ähnlich wie bei Sektoren eine Platte die bei 3/4 Belegung nach außen halt voll sind. Theoretisch ist weniger belegt, pro Speicherzelle, aber da die nicht zusammengelegt werden effektiv gleich viel.
 
Kulasko schrieb:
Ist eigentlich schon jemand auf die Idee gekommen, dass sich die 4GB von Fiji unter anderem wegen der Speicherkompression, die man schon bei Tonga in Aktion erleben durfte, wesentlich effektiver nutzen kann als Hawaii seine. Theoretisch dürfte bei über dem Daumen 30+% weniger benötigte Bandbreite auch entsprechend weniger Speicher gebraucht werden.

Nai hatte schon einmal ausgeführt, dass es zu höheren Latenzen bei sowas kommt, da man ein "Texturenverzeichnis" benötigt.
Normalerweise wird wohl der Speicher in gleiche Teile geteilt (quasi wie die "Größe der Zuordnungsdateien" wenn man eine Festplatte formatiert).
Dadurch ist das Adressieren bedeutend schneller.
Da Dateien nicht immer gleichmäßig oder überhaupt komprimiert werden können bleibt der zugeordnete Speicher pro Datei der gleiche und man spart insgesamt nichts.

Ich hoffe ich habs nicht total falsch erklärt, man möge mich korrigieren.

Vielleicht ist das jedoch mit kleineren Latenzen und schnelleren HBM Speicher möglich...
 
also ich seh da keinen Grund warum man jetzt nicht eine 980ti kaufen sollte. viel preiswerter wird die Fury auch nicht, hat weniger Speicher, verbrauch mehr Strom. AiO Kühler is ein Vorteil aber sonst... bis man die Karte kaufen kann ist das Geschäft gelaufen, da viele nicht solang warten werden.
 
MikelMolto schrieb:
Hier wird von einigen erklärt, das eine 4GB Fury vollkommen ausreicht aber warum kommen dann die 390 und die 390X mit 8GB?
.

Man macht 8gb aus Marketinggründen. Die Mehrheit der Menschen hat zu wenig Ahnung von Technik und läßt sich von großen Zahlen blenden. Siehe TV´s mit 400Hz und Kameras mit 1Mrd Pixel...

also ich seh da keinen Grund warum man jetzt nicht eine 980ti kaufen sollte.

Ich sag Dir 2 Gründe: Man läßt sich nicht abzocken und man unterstützt keine Schwachsinnspreise.
Das fühlt viel besser an als schwach zu sein und alles zu kaufen was nicht bei 3 auf den Bäumen ist.
Das sind reine Langeweilekäufe,sowas hat keiner nötig.

Ihr bestimmt die Preise,nicht der Hersteller. Wenn es keiner kauft,dann sinkt der Preis schneller als du gucken kannst
 
Zuletzt bearbeitet:
Da aber doch jeder Stack (hoffe ich nehme jetzt den richtigen Begriff) einzeln geleert werden kann beim HBM, werden doch bei Texturpaketen einzelne Bereiche schneller verarbeitet (da sie kleiner sind) und andere Bereiche eben langsamer (da sie größer sind und 2 Stacks brauchen). Somit ist alleine schon der SingeBank Refresh etwas, was den HBM Speicher schneller arbeiten lässt als GDDR5 Speicher. Oder greife ich da komplett daneben?
 
Für mich macht keine der aktuellen Karten wirklich Sinn, noch dazu bei den Preisen. Wenn Fiji nicht deutlich höher noch übertaktbar ist, hat sie das komplette Nachsehen gegen die 980 TI oder Titan X. Meine übertaktete 980 hat schon bei Firestrike 7500 in Extreme und etwa 3650 Punkte in Ultra, was für mich heißt, dass die neuen Karten nur durch hohe Übertaktungen ordentlich Abstand gewinnen.
 
Die kommen durch nachschaufeln des viel schnelleren Grafikkartenspeichers und (für alle 4GB Portionen, die auch wegen der neuen Speicher-Aufteilung-Konstellationen flexibler belegt/ausgelastet werden) schnellere Übermittlung/kürzere Anbindung (durch HBM) an den Bus, denn in der Zeit in welcher bspw. 12 GB der Titan X übertragen und durch den Bus gelaufen sind, könnten durchaus 3X4GB durch HBM durchlaufen, insbesondere, wenn diese durch schnelleren Speicher an den Flaschenhals übermittelt werden, insgesamt mag sich das also mehr oder weniger nullifizieren anhand der limitierenden Busgeschwindigkeit. Es hat sicherlich mehr als nur energetische Gründe, weswegen nVidia ab der kommenden Generation auch unbedingt auf HBM(2) Speicher setzen will.
 
Zuletzt bearbeitet:
Boah, was sich die Leute hier zusammenreimen ist geiler als der Techno-Babbel aus Star Trek ;-)


Ich glaub ich lass mir jetzt das Ultra-Bit patentieren. Das ist so extrem über Ultra schnell, das ein einziges Bit als Speicher vollkommen ausreicht! Denn wir lernen ja hier aus dem Thread: je schneller der Speicher, desto weniger braucht man davon ;-)

Also: wozu in Zukunft PCs mit 8GB Hauptspeicher kaufen, dank DDR4 reichen 4!!!EINSELF
 
Jetzt muss ich auch etwas schwätzen zum Thema Auflösung.

Bei FHD werden ca. 8Megabyte für einen einfachen Bildschirmpuffer benötigt (4 Bytes pro Pixel), bei UHD sind es ca. 32Megabyte. Da es pro Rendervorgang mehre Puffer gibt (Frame, Z, diverse Passes,…), kommt natürlich ein gewisser Faktor dazu. Ich greif jetzt mal Faktor 20 aus der Luft, so wäre der Unterschied zwischen FHD zu UHD ~500 Megabyte. Das für die Texturen ihre eigene Auflösung haben, kommen diese, mit ihren Speicherverbrauch statisch dazu. Also hätte man jetzt bei 3Gigabyte Texturen bei FHD einen Verbrauch von ~3,2Gigabyte und bei UHD 3,7Gigabyte. D.h eine höhere Auflösung verändert den Speicherverbrauch nicht wirklich drastisch und im Umkehrschluss wenn es Speichermäßig für UHD nicht reicht, dann wird’s auch für FHD eng.


Die Anzahl der Pixel vervierfacht sich zwischen FHD zu UHD, d.h. es werden viermal so viel Pixel gerendert. D.h. aber nicht unbedingt, dass ein Spiel mit FHD nur ¼ der FPS unter UHD bringt, hier kommen viele Faktoren zusammen (Architektur, Caches, Speicherbandbreite, …).

Zu HBM muss ich auch noch etwas loswerden. AMD ist hier der Erste der es anbietet, die Technologie ist interessant (nicht nur für Grafikarten), ob es AMD hier (bei Fiji) etwas nützt, wir werden sehen. Fakt ist aber, dass in Zukunft an HBM kein Weg vorbei führt (besonders bei APUs könnte hier einige Bandbreitenprobleme gelöst werden).
 
@Chismon

Aber nicht durch PCI-E. Was meinst du, warum nvidia für seine HBM-Karten nvlink einführt?
Nochmal: HBM kann das so nicht leisten, was ihr euch wünscht. Die 4 GB können nicht wie 12 GB oder ähnlich wirken.
Für schnellen Austausch braucht es auch schnelle Anlieferung.
Deswegen ist Fury mit HBM auch - wie oft erwähnt - seiner Zeit voraus. Es verpufft sozusagen. Und auch nochmal: wenn mehr als 4GB Daten gleichzeitig gebraucht werden, wird die Karte stocken. Und das zu diesem Preis. Beispiele habe ich hier im Thread gepostet. Fragt halt HisN, wenn ihr geschriebene Worte anzweifelt. Es gibt genug Szenarien, in denen eine Fury mit 4GB ziemlich doof aussehen wird. 8GB sollte man sich definitiv gönnen, wenn man die Karte über FHD hinaus benutzen möchte.
Wenn sie für FHD angeschafft werden soll: https://www.computerbase.de/forum/t...-mit-gtx-titan-x.1483948/page-3#post-17494015
 
@goldmomo: korrekt, die Auflösung ist es gar nicht mal so sehr. Das was den Speicher verbraucht sind die Texturen. Und da sind wir noch lange nicht am Limit von dem was sinnvoll ist... vorhin wurde mal das Beispiel Crysis 3 gebracht von wegen gutem Speicherumgang... Crysis... war das nicht das Spiel das wegen zu schlechter Texturen zugeflamed wurde? ;-)
 
Tomislav2007 schrieb:
Wieso kann sich dann die Fiji XT nicht im 3DMark deutlich vor der Titan X platzieren ?


Grüße Tomi

Wo stehen eigentlich die Einstellung ? Welche Auflösung wurde da genützt, welche Treiber und welches Bios ? Wie sieht es mit DX 12 Spielen aus, wie laufen hier die Karten ?

Weiteres bin ich auch noch auf der E3 gespannt, ob es vllt auch Details zu DX12 gibt, speziell SFR, was von AMD und MS zu mindestens "gelobt" wurde (was aber nicht gleich viel bedeuten muss)
Aber in CF unter DX12 hätte man dann immerhin, wenn man Glauben schenken darf, nicht nur 4 sondern 8 GB HBM verfügbar.

Alufoliengrille schrieb:
bis man die Karte kaufen kann ist das Geschäft gelaufen, da viele nicht solang warten werden.

Von wievielen Käufer sprichst du ? Wieviele sind denn da noch übrig :evillol:


Konsolen :

Da ist doch bekannt, dass die PS4 nur 4 GB hätte haben sollen, was ja für FHD völlig ausreichend ist. Konsolen brauchen da weit aus weniger. Es sind aktuell nur 8 GB, weil MS DDR3 nützt und zwischen 4 und 8 GB preislich nicht viel Unterschied ist.
Hätte die PS4 nur 4GB GDDR5, hätte sie auch keine Nachteile gehabt. Eventuell hätten wir nur jetzt keine Games wie Schatten Mordor gehabt, das zwar technisch gut ist, aber scheinbar Ressourcen gespart wurde, weil die Konsolen aus aktueller Sicht mit 8 GB sowieso quasi "unendlich" viel Speicher haben.


@PCIE

Ich freue mich schon, wenn dann in den nächsten Monaten nach Fijii die Gespräche bezüglich Skylake und PCIE 4.0 Spezifikationen losgeht.

@tic-tac-toe-x-o
Ich denke dass die Karte zwischen 980 GTX und TI liegt. Der Preis unterhalb der TI verbrauch eventuell irwo bei R9 290 oder R9 290X. Man hat zwar nur 4GB dafür aber HBM.
Naja Tests werden es zeigen wie Fijii Pro sich aufstellt.
 
Zuletzt bearbeitet:
also, ich könnte mir vorstellen daß die "nur" 4 Gigabyte auf der Fury wesentlich effizienter genutzt werden können durch HBM. Dafür spricht auch ganz klar (wie so oft bei AMD Karten) daß bei extrem hohen Auflösungen, Fury sich an die Spitze setzt.

Scheinbar kann der Speicher einfach nicht so schnell zulaufen, da die Ein/Verarbeitungssgeschwindigkeit ungleich höher ist als bei DDR5. Ich würde jedenfalls, die Karte nicht gleich zum Teufel schicken nur aufgrund der 4 Gb Vram.
 
Eigentlich hatte ich vor solange zu warten bis die draußen ist, und eigentlich dachte ich auch das die besser abschneiden würde. Aber so ganz sicher bin ich mir jetzt auch nicht mehr ob die Karte mich in 4k glücklich machen wird. :(
 
Und ein Netter CB Redakteure sitzt gerade vor seinem Rechner Streichelt sein Testmuster und grinst wenn er all das hier ließt :D
 
Was ist denn jetzt eigentlich mit Karten für den normalen Gamer?
Also so 200-300€?
Kommt da von AMD auch bald mal was?
Habe weder Lust, mir für 330€+ ne GTX 970 mit 0,5GB RAM Betrug zu kaufen, noch eine GTX 960, die irgendwie weder Fisch noch Fleisch ist.

Also gibt's da bald mal Alternativen, oder muss ich noch ewig warten?
 
Fried_Knight schrieb:
@Chismon

Aber nicht durch PCI-E. Was meinst du, warum nvidia für seine HBM-Karten nvlink einführt?
Nochmal: HBM kann das so nicht leisten, was ihr euch wünscht. Die 4 GB können nicht wie 12 GB oder ähnlich wirken.
Für schnellen Austausch braucht es auch schnelle Anlieferung.
Deswegen ist Fury mit HBM auch - wie oft erwähnt - seiner Zeit voraus. Es verpufft sozusagen. Und auch nochmal: wenn mehr als 4GB Daten gleichzeitig gebraucht werden, wird die Karte stocken. Und das zu diesem Preis. Beispiele habe ich hier im Thread gepostet. Fragt halt HisN, wenn ihr geschriebene Worte anzweifelt. Es gibt genug Szenarien, in denen eine Fury mit 4GB ziemlich doof aussehen wird. 8GB sollte man sich definitiv gönnen, wenn man die Karte über FHD hinaus benutzen möchte.
Wenn sie für FHD angeschafft werden soll: https://www.computerbase.de/forum/t...-mit-gtx-titan-x.1483948/page-3#post-17494015

Naja, wes kommt auf die Lag-Zeiten zwischen den 4GB Portionen an, wenn Du eine Textur mit 12.1 GB hast, hat die Titan X auch ein zusätzliches Lag, weil 0.1 GB nicht mehr hineinpassen. Allerdings ist der HBM Speicher besser gestückelt und angepasst and die zu übertragenden Texturgrößen, somit flexibler. Fakt dürfte in jedem Fall sein, dass die ersten 4GB weitaus schneller am Bus sind mit dem besser angebundenem HBM als mit GDDR5, wie es mit 8 und 12GB aussieht, ist dann die Frage. Wie flexibel der Speicher verwaltet werden kann und auch mögliche Kompression ist bis dato ja nicht ersichtlich. Es wäre natürlich schön, wenn die Tester (CB, PCGH, etc.) Texturenübermittlung knapp unter 12 GB und leicht oberhalb 12 GB (in 4K) testen könnten für einen direkten Vergleich von Fiji (HBM) und Titan X (GDDR5).

Da die überwiegende Mehrheit der Texturen noch weit unter 4GB heutzutage liegen und wohl auch mittelfristig liegen dürften (durch mit AMD Chips bestückte Konsolen, etc.), sehe ich da kein Problem und auch wenn ich die "Hort-Mentalität" verstehen kann (lieber 6 oder besser noch 8 GB angebunden zu haben), ist es vielleicht ein Luxusproblem und m.E. total über proportioniert wie offensichtlich bei der Titan X, egal für welche Preisklasse (nicht nur die 290(X)/390(X), sondern auch Enthusiasten-Karten), aber sicherlich eine clevere Strategie (beider Hersteller) dem Kunden für vermutlich unausgereiztes Potential mehr Geld mit mehr Speicher aus der Tasche ziehen zu wollen (insbesondere bei Enthusiasten die alle 1 bis 2 Jahre sowieso wieder eine neue Karte wollen). Was glaubst Du wie viel Marge für die Hersteller in doppelt soviel Speicheranbindung liegt, sicherlich nicht der Marktpreis für den HBM Speicher, da wird kräftig zugelangt und weisst Du jetzt schon ob Du es brauchst für Spiele die momentan für maximal 4GB Auslastung programmiert wurden und werden. Die Spiele, die jetzt programmiert werden wie "The Bard's Tale 4", "Mass Effect 4" oder was weiss ich was, werden evt. nach zwischenzeitlichen Spezifikations-Upgrades schon HBM2 und vor allem die nächste/schnellere Chip-Generation benötigen um bei Maximaldetails gespielt werden zu können oder bei mittleren bis höheren Einstellungen und niedrigeren Detailstufen bestimmt auch noch vernünftig mit 4GB HBM gespielt werden können. Ich würde das davon abhängig machen wie groß der Sprung von 4GB zu 8GB anhand von Tests sein wird, wieviel für das Mehr an Speicher verlangt wird und wie lange man es sich leisten kann noch bis auf die 8GB Karten zu warten (um vorerst sowieso ernüchtert zu werden, da es so gut wie keine Programme zu dem Zeitpunkt geben wird, die diese 8GB HBM Speicher brauchen/ausnutzen ... für 8GB HBM2 Speicher im kommenden Jahr mag das dann schon anders aussehen), soviel nur meine Meinung dazu. Die angeführten Benchmarks, unter der Annahme sie sind glaubwürdig, zeigen eindeutig, dass derzeit die 4GB HBM mehr als ausreichend/ebenbürtig sind und die 12GB der Titan X ein schlechter Witz ist (höchste Kundenveräppelei der Marke nVidia sind ... sorry an die Käufer, aber anders kann man das nicht mehr bezeichnen, dagegen ist das was sie mit der GTX970 gemacht haben noch harmlos, auch wenn es sicherlich mehr Käufer betroffen hat) und die 2GB mehr der GTX980Ti machen den Braten - wie zuvor erwähnt - auch nicht fett bzw. das kann über die Treiber von AMD reguliert werden.
 
Kasmopaya schrieb:
.....Die 580 3GB wandert in den Office PC und ersetzt dort die 8800GTX. Da dieser nur ein paar mal im Monat eingeschaltet wird, spielt Stromverbrauch im Idle somit auch keine Rolle. Ergo ist die Erzeugung von Elektroschrott auf einem minimalen Level bei mir. Das könnte man mit einem 2 Jahres Rhythmus auch vergessen.

Also du holst dir dann die Titan X mit 12GB und pflanzt die 580GTX in den Office Rechner und den Ziklus machst du alle 4 Jahre? Ergo planzt du dann in 4 Jahren deine Titan X 12GB in den Office Rechner? Was für ein Gelaber!:D:freak:
 
Zurück
Oben