News AMD Radeon Fury X: Fiji XT im 3DMark auf Augenhöhe mit GTX Titan X

Wurstpeller schrieb:
Für 6x 4K @ 120f/s, als Beispiel. Leider dürften die derzeit zur Verfügung stehenden 40 PCIe Lanes und die 8GB HBM nicht ausreichend dafür sein. :heul:
Dann ist das mein ewiges Schicksal, kann ich mit Leben, wenn ich bedenke was ich alles bisher erleben musste. :baby_alt:

Tuh das nicht, sonst fehlt es Dir irgendwann selbst. ;)


Sorry was willst Du damit bitte ?

1. 5k Monitor anstelle von 4K (btw. in Japan startet schon das 16k Monitor Programm und Du willst 4k ? lol)
2a. 144 fps anstelle von 120 fps
2b. 3D
3. 40 lanes...Sorry da gibt Server Mainboard die mehr bieten und leisten.
z.b. InfiniBand oder OmniPath (http://www.golem.de/news/omni-scale...hi-ab-2015-optisch-verbunden-1406-107427.html)

Daher sind dein hohen Ansprüche schon völlig veraltet.

mfg
 
immerhin will niemand 650+€ für eine Grafikkarte ausgeben die er nicht voll quälen kann weil der Speicher zu schnell voll ist.

Interessant. Kann mich gar nicht daran erinnern, dass man bei der GTX 980 ebenfalls die Speichermenge kritisiert hätte und dies Karte hat lange Zeit ebenfalls 650€ + gekostet (Manche Modelle kosten immer noch so viel wenn nicht mehr). Ich finde es jedenfalls erstaunlich. Wenn Nvidia wie in der Vergangenheit regelmäßig zu wenig Speicher verbaut ... kein Problem weil braucht man nicht, umgekehrt wird aber schon jetzt ein Fail herbeigeredet obwohl die Karte noich nicht mal draußen ist. Manche gehen hier schon mit 2erlei Maß vor aber nun gut. Zumal man davon ausgehen kann dass die Karte noch 8GB bekommt sobald HBM 2 verfügbar ist. Die Begrenzung auf 4GB macht AMD ja nicht aus Jux und Tollerei.

Zu den 4GB. Bis 1440p imo ok. Für 4K zu wenig, aber hier sehe ich auch die Rohleistung nicht. Der Preis wird entscheiden ob die Karte ein Erfolg wird. Ich freu mich drauf. Entäuscht kann ich nach Release immer noch sein.
 
pipip schrieb:
Es gab im Bereich ständig ein Preis-Leistungs Klasse. Die R9 280(X) wird nun mal für einige schon zu alt. Das liegt aber einfach an GCN1.0.
Alternativ gibt es jetzt die 960 GTX mit 2-4 GB.

Klar ist der Bereich immer irgendwie abgedeckt. Aber ich meine diese legendären Karten, die das P/L-Verhältnis revolutionieren. Das ist eben in der Performanceklasse lange nicht mehr passiert. Bei nVidia war es zuletzt die GTX 970, davor die 680 (beides Oberklasse). Bei AMD war es die 7970 und demnächst wahrscheinlich Fiji (Oberklasse und Enthusiast). Dabei hätten beide die Möglichkeit dazu gehabt: AMD mit Tonga XT und nVidia mit ner 960ti. Das wären die Verkaufsschlager schlechthin gewesen.
 
cunhell schrieb:
Die Frage ist, was kommt hinten an Leistung raus. Und genau DAS kann keiner sagen, so lange es keine unabhängige, nachprüfbare Tests gibt.

Cunhell


naja, wenns nur auf das ankommen würde was hinten rauskommt gäbs keine 4 GB 70 € Karten oder? Den Marketing Technischen Nutzen sollte man nicht einfach unterschlagen. Selbst wenn die 6 zu 4 Gb bei der TI nix bringen sollten - sie geben dem Produkt nen "schöneren Anstrich". Und darauf kommts oft mehr an als auf die Leistung (siehe Apple). AMD gehts schließlich nicht darum Kunden zu beglücken, sondern Schwarze zahlen zu schreiben.

So gesehen gehen 4GB bei ner 700€ Karte in der Tat etwas am Markt vorbei und auch ich als Technik affiner Mensch mit Hintergrund Wissen lass mich eher von 6Gb als 4 GB locken, auch wenn die Leistung hinten raus erstmal gleich ist. Nicht zuletzt weil meine bisherigen GPUs in erster Linie immer mit dem VRam gestorben sind (schlicht zuwenig vorhanden...).

Würde wetten dass 3 von 4 potentiellen 700€ GPU Käufern pauschal die 6GB Karte bevorzugen würden, auch wenn der Balken der anderen 5% länger wäre. Und ich kann das unabh von der Farbe nicht mal verübeln. Wer 700€ ausgibt den jucken die weiteren +-50€ dann vermutlich weniger als 5% Leistung. Es geht längst nicht nur um P/L. Es gehört schon mehr dazu eine Firma erfolgreich über Wasser zu halten - dazu gehört es auch eine hohe Marge zu fahren.
 
aber bei "nur" 4GB kann das Mittelfristig Probleme verursachen. Sei es durch schlecht optimierte Titel oder durch UHD-Texturen
Da stellt sich mir die Frage warum die 4Gb Fury im Firestrike-Benchmark in UHD schneller als die Titan X ist. So zumindest in den Vorab-Benchmarks.
 
Wurstpeller schrieb:
OK. Ich dachte eher so an 4-7 Grafikkarten.
Kannst du gleich vergessen, 4 ist soweit ich weiß (vielleicht hat es sich ja zwischenzeitlich geändert) das Maximum.
Mehr geht zwar einzeln (z.b. für BOINC), aber nicht zusammen mit SLI oder Crossfire, was allerdings Vorraussetzung für Games ist.
Und 4 Highend GPU´s dürften nicht gerade billig sein, und brauchen auch noch potente Hardware. Eine ordentliche CPU+MB sowie eine schnelle (M.2) SSD sind da allerdings Pflicht!
Also wenn du nicht gerade einen Geldscheißer hast, dann schlag dir deinen Wunsch lieber wieder schnell aus dem Kopf (vorallem wenn du NVIDEA bevorzugst!!) Die Folgekosten und der Wertverlust der Hardware sind nicht gerade niedrig.

Zum Thema Speicher: 4GB sind jetzt zwar nicht gerade unbedingt viel, allerdings bei gutem Speichermanagment doch völlig ausreichend. Für UHD wäre zwar mehr Speicher nicht schlecht, ich gehe aber schlichtweg nicht davon aus, dass da vorher die Rechenleistung limitiert.

Ansonsten schön zu sehen, dass die Entwicklung langsam aber sicher weitergeht.
 
Epoxid66 schrieb:
Da stellt sich mir die Frage warum die 4Gb Fury im Firestrike-Benchmark in UHD schneller als die Titan X ist. So zumindest in den Vorab-Benchmarks.

kennst du eine Karte die bei Firestrike-Benchmark in UHD limitiert? Zur Zeit limitiert kaum was bei 4GB. Ergo -> Test = fail...

Kleine Gedankenstütze:

https://www.computerbase.de/2012-12...-i7-3970x/5/#abschnitt_leistung_mit_8xaa16xaf

Rating - 5760x1600, 8xAA
2x GTX 680 (2GB) skaliert mit 86% ganz ausgezeichnet. Ergo absolut 0 VRam Limit damals im Killer Setting.

Und jetzt schau mal wies heute um die GTX 680 / GTX 680 / 2GB Karten steht.
 
@Jesterfox

Alle Texturen die benötigt werden für ein Frame werden def. weit unter 4GB liegen. In den meissten Games liegt man deutlich darunter. Zudem wechseln die Texturen nicht von Sekund zu Sekunde, daher könnte man dynamisch Texturen nachgeladen aus dem Ram ohne das es auffällt, daher wo ist der Vorteil deiner Karte gegenüber einer 980Ti, der ist auf absehbare Zeit nicht vorhanden. Klar die 4GB wenn sie dann Kommen sind Sportlich für die Game dev.

Alleine da es Karten mit 4GB in grosser verbreitung gibt, ist/wird dynamisches nachladen implementiert werden, wodurch sich die Texturplatzverbrauch drastisch verringert im VRAM, denn Schliesslich viertelt sich mit verdoppeln der Distanz die notwendige Texturauflösung eines Objektes.

Der Gamentwickler braucht nur ein mal einwenig Grips zum implementieren wie die Texturen bestimmt werden, welche in den VRAM müssen.
Danach sollte eigentlich mit bis zu einem 4k Monitor keine Probleme wegen der VRAM Menge 4GB auftauchen. Hat der Game dev zuwenig grips wird er auch 48GB vollbekommen ohne Mehrwert.
 
Zuletzt bearbeitet:
Darknesss schrieb:
Also wenn du nicht gerade einen Geldscheißer hast,

Immer wieder witzig solche Kommentare ... als ob sich jeder der hier im Board was schreibt im Rahmen des Schüler- / Studentenbudgets bewegen müsste. Jeder noch so kleine Neuwagen kostet mehr. Kommt doch mal in der Realität an 5000 - 6000 EUR sind nicht die Welt wenn man einen vernünftigen Job hat und bereit ist das für sein Hobby auszugeben. Ende der Fahnenstage.

Was SLi und CF angeht, bei 4 Single-Chip-Karten (oder 2x Dualchip) ist schluss, bei 3 ist mindestens eine nur noch via 8 Lanes angebunden und bei 4 ist die Skalierung zum Teil wirklich sehr schlecht und die Konfigurationsprobleme können zunehmen. Habe Quad-SLi einmal getestet mit 2 Dual-Chip-Karten und davon schnell wieder Abstand genommen.
 
okay, würde bedeuten dass bessere Texturen in heutigen Games keine optischen Mehrwert mehr bringen würden oder?

Sind Texturen bereits am Limit für FHD? Wie sind sie für 4K? Ich denke die einzelne Textur selbst hat ja noch viel Spiel nach oben... rein über die Auflösung allein skaliert der VRam Verbrauch ja wohl eher unter-proportional.
 
think->write! schrieb:
Alle Texturen die benötigt werden für ein Frame werden def. weit unter 4GB liegen. In den meissten Games liegt man deutlich darunter. Zudem wechseln die Texturen nicht von Sekund zu Sekunde, daher könnte man dynamisch Texturen nachgeladen aus dem Ram ohne das es auffällt

LOD-Streaming ist meines Wissens nichts wirklich neues und wird doch schon jetzt eingesetzt? Jetzt müsste man mal tiefer analysieren ob Shadows of Mordor nur deswegen so viel verbraucht weil sie es nicht einsetzen. Oder ob sie nicht doch einfach auf höher aufgelöste und mehr verschiedene Texturen setzen.

Das Texturen nicht über 4GB kommen werden glaub ich halt nicht so recht... was die Qualität angeht ist noch Luft nach oben wenn man sich aktuelle Spiele anschaut.
 
Mit selbstgebastelten Texturen könnte ich ich euch für X-Plane Beispiele zeigen, die locker über 6 GB gehen und auch optisch aka qualitativ das Erlebnis verbessern.
 
xeonking schrieb:
@jerico

wann rafft solche leute wie du es endlich. die 4GB grenze ist noch lange nicht geknackt. hier läuft nichts in limit. sollte es irgendwann in den nächsten jahren mal soweit sein das die 4GB des öfteren limitieren,dann ist die grakka eh für deas meiste schon zu langsam und altbacken. und so wie es nach gerüchten ausschaut erscheint ja auch ein wenig später eine 8GB Version die Leute wie dich besser schlafen lassen.

gruß

das doch totaler dumbatz und dein kommentar liest sich nicht gerade freundlich ! na sicher gibt es schon etliche spiele die bei gewissen auflösungen (nicht nur 4k !) und details die 4GB knacken bzw. mehr benötigen für ein flüssiges spiel. um es dir noch mal klar zu machen. wenn otto normalos dann sich solche "vermutlich" teure grafikkarte kaufen und dafür ewig gespart haben, dann soll diese nicht bereits am limt laufen (speichertechnisch) und das ist FAKT ! ich sage nicht das damit nicht alles spielbar ist, das ist es aber auch mit einer alten r9XXX. die frage ist nur mit welchen einschnitten. wenn ich 600 € oder mehr ausgebe, möchte ich mich nicht wirklich mit einschnitten befassen müssen es geht um die tatsache, das solltest DU vielleicht raffen. wenn du links brauchst die dir das bestätigen kann ich dir gerne schicken.

thanok bringt es auf den punkt mit der aussage :

"Werden Daten benötigt die gerade nicht im 4GB Speicher geladen wurden, müssen diese ja erst den Umweg über den langsamen PCIe Bus und den RAM nehmen - da der PCIe Bus der kleinste gemeinsame Nenner ist bricht die verfügbare Bandbreite dann auf <16GB/s ein; bei gleicher Größe ist das unproblematisch, aber bei "nur" 4GB kann das Mittelfristig Probleme verursachen. Sei es durch schlecht optimierte Titel oder durch UHD-Texturen. 4GB voll zu bekommen ist heutzutage keine Kunst, erst recht nicht mit der Rohleistung die "Fury" wohl haben wird.
Und genau da liegt der Hund begraben: Sobald der Speicher so voll ist dass Daten aus dem RAM oder noch schlimmer der Platte nachgeladen werden müssen die unmittelbar gebraucht werden gibt es Nachladeruckler. Die gibt es mit GDDR5 auch, aber aufgrund größerer Kapazität muss weniger on the fly geladen werden. "

p.s. ich kann auch gut schlafen wenn sie nur 2gb hätte, die serie geht so oder so an mir vorbei, foren sind glaube ich zur meinungsäußerung gedacht oder nicht
 
Zuletzt bearbeitet:
Krautmaster schrieb:
okay, würde bedeuten dass bessere Texturen in heutigen Games keine optischen Mehrwert mehr bringen würden oder?

Sind Texturen bereits am Limit für FHD? Wie sind sie für 4K? Ich denke die einzelne Textur selbst hat ja noch viel Spiel nach oben... rein über die Auflösung allein skaliert der VRam Verbrauch ja wohl eher unter-proportional.

Nun das ist gleich mit den 400+ DPI Display, die bringen rein von der Anatomie des Auges nichts im üblichen Nutzungsabstand.
Mehr ist nur interessant für Kamerasucher oder VR Brillen.
IMHO halte ich es für warscheinlicher die einzelnen Pixel Unterscheiden zu können als ohne Vergleichsbild mich an den Texturen zu stören.

Die Konsolen haben zuviel RAM, eine Grafikkarte vergleichbarer Rechenleistung hatte vor 3 Jahren 1 GB für FHD und kam damit aus bei ähnlicher Framerate wie die Konsole jetzt.
4k hat das 4 Fache am Pixel und sollte demnach auch ausreichend VRAM haben.
 
Epoxid66 schrieb:
Da stellt sich mir die Frage warum die 4Gb Fury im Firestrike-Benchmark in UHD schneller als die Titan X ist. So zumindest in den Vorab-Benchmarks.

Weil du nicht verstehst, dass andere Programme/Spiele eine unterschiedliche Menge an VRAM belegen. Die 4GB HBM sind auf jedenfall schneller als GDDR5, wenn nicht mehr als 4GB benötigt werden.
 
ich finds lustig wie sich die Leute hier mukieren über 4GB Ram, fakt wird sein das die Spiele immer Leistungshungriger werden und wenn man betrachtet wo die vorherige NV Generation herumdümpelt (bezugnehmend auf 780,Titan) und das mit FullHD dann kann man wohl davon ausgehen das die aktuelle Generation (egal ob NV oder AMD) für die zukunft im bereich 4k wohl eher mau aufgestellt ist. Wenn der Leistungshunger weiter steigt wird wohl dieser Generation schneller die Puste ausgehen als die in das VRAM Limit laufen.

Wer weiterhin nur mit FullHD Spielt (was wohl der überwiegende Teil sein wird) der wird sich wohl eher darüber freuden eine Grafikkarte zu bekommen die wahrscheinlich im Preisbereich einer 980/ti ist (~ 650€) die aber Leistungsmässig einer TITAN Konkurenz bietet. Ich denke das die Fury zwar von AMD für die jagt nach der Leistungskrone konstruiert wurde aber Preislich eher für den High end User gedacht ist als für den Entusiasten. Diese Leute sind in einem Preisbereich indem geld keine rolle spielt da wird dann halt ein Titan SLI gekauft und fertig.
 
ampre schrieb:
2.) 2 Jahre alte Karten hatten schon die richtigen Features für DX12 während die Konkurenz nicht mal 11.1 kann

Maxwell ist zwar die erste und bisher einzige Architektur, die DirectX FL 12_1 bietet, während GCN nur mit Generation 1.2 überhaupt 12_0 unterstützt, aber wenn du sagst, dass die Konkurrenz nicht mal 11.1 kann, hast du sicherlich recht.
 
@iHabAhnung

stimmt ja auch Kepler z.b. kann FL 11.1 nicht

und weil Maxwell FL12.1 und die GNC Architektur nur FL12.0 heisst das nicht das GNC nicht die Features unterstützt die auch mit FL12.1 möglich sind.

so wie ich das verstanden habe sagt FL nur aus welche Features zwingend implementiert sind damit diese Version unterstützt wird, man kann aber diese Features verwenden ohne das FL zu unterstützen. (berichtigt mich wenn ich da falsch liege)
 
Benji18 schrieb:
@iHabAhnung

stimmt ja auch Kepler z.b. kann FL 11.1 nicht

und weil Maxwell FL12.1 und die GNC Architektur nur FL12.0 heisst das nicht das GNC nicht die Features unterstützt die auch mit FL12.1 möglich sind.

so wie ich das verstanden habe sagt FL nur aus welche Features zwingend implementiert sind damit diese Version unterstützt wird, man kann aber diese Features verwenden ohne das FL zu unterstützen. (berichtigt mich wenn ich da falsch liege)


Ums zu klarifizieren:

FL sind Marketing.

Mehr nicht.
 
Zurück
Oben