News AMD Radeon Fury X: Fiji XT im 3DMark auf Augenhöhe mit GTX Titan X

Fried_Knight schrieb:
@Mygeeto

Wer hat euch diesen Floh eigentlich ins Ohr gesetzt? War das Daedal? Wo sind die Folien dazu?
Wie kann schneller Speicher Platzmangel beheben, vor allem wenn er auf den langsamen RAM und die Festplatte angewiesen ist?
Dazu hätte ich gerne eine Quelle mit Seiten- und Zeilenangabe (nicht, dass wieder ein Spaßvogel einfach einen Link hinklatscht und "hier" sagt, ich das 30min durcharbeite und am Ende überhaupt nichts zum Thema drin steht).

Ich lasse mich da gerne vom Gegenteil überzeugen.

Nene, mir hat bisher keiner irgendwas ins Ohr gesetzt. Ich vermute, dass die Fury trotz 4 GB HBM genauso schnell sein wird wie die Titan X mit ihren 12 GB GDDR5. Wie gesagt, ich weiß es nicht. Aber genausowenig weißt du, dass die 4 GB nicht reichen werden. Zumal, das habe ich ja gesagt, dass momentan mehr als 4 GB auch Game-technisch gar nicht nötig sind. Selbst, wenn man mehr als FullHD spielt.
Der Unterscheid zwischen HBM und GDDR5 ist dir ja doch klar? Also mehr als 4 GB werden es "effektiv in GDDR5 umgerechnet" auf jeden Fall sein. Liegt eben an der effizienteren Speicherverwaltung, die durch HBM möglich wird. ALso während die Titan X einfach alles aus dem GDDR5 rausschmeißt und dann neu nachlädt, wirft AMD mit der Fury nur die wirklich nicht mehr benötigten Daten aus dem HBM-Speicher raus. Das bedeutet, dass eben öfter nachgeladen werden muss, aber dafür viel weniger Datenmengen. Das bedeutet jetzt nicht, dass man effektiv auf 12 GB GDDR5 kommt. Aber wie gesagt 12 GB braucht eh kein Mensch.
Wir sollten einfach auf die finalen Ergebnisse warten und dann kann man ja nochmal diskutieren.
 
Zuletzt bearbeitet:
the_ButcheR schrieb:
@buergerkneifer: Wer in 4K AAA Titel spielen will der holt sich zwei Grafikkarte und genau dann kackt das CF mit 4 GB VRAM total ab, die ganze theoretische Leistung verpufft durch zu wenig VRAM. Dafür gibt doch niemand ernsthaft 1500€ oder mehr aus.


MfG

Und genau deswegen ist die Fiji XT in diesem 4K Benchmark im CF knapp schneller als die Titan X im SLI :rolleyes:
 
Nene, also mehr als 4 GB ist momentan nicht nötig. Selbst auf mehr als FUllHD
Die Frage lautet eher, wer kauft sich eine GPU für hier und jetzt, meine Titan X EVGA Hybrid ( http://geizhals.de/evga-geforce-gtx-titan-x-hybrid-12g-p4-1999-kr-a1276989.html ) wird wieder ca. 4+ Jahre im Einsatz sein. Da interessiert es mich reichlich wenig wenn ein Witcher III sich ausnahmsweise mal weniger Vram genehmigt. Ich will in zig Jahren auch noch ausreichend haben.

Aber wenn ihr GPUs so oft wechselt wie eure Unterhosen, dann spielt das natürlich keine Rolle. Heute eine Fury X 4GB und morgen dann eine Pascal Titan. Und zack spielt Vram keine Rolle mehr. Wenn man Lust hat ständig zu verkaufen und neu zu kaufen kann man das ja machen. Ohne mich, ich hab meine 12GB VRam satt für die nächsten Jahre. Eine 4GB Karte für den Preis würde ich mir nie kaufen.
 
Zuletzt bearbeitet:
Dann hab ich wohl mit der R9 290X für 250 Euro alles richtig gemacht (falls das Preisniveau der Leistungsklassen ähnlich bleibt) :D
Ich befürchte, dass sich letztlich nichts ändern wird. Die GTX 970 bekommt allerdings Feuer unterm Arsch mit dem krüppeligen VRAM, aber auch das wird nichts an den Preisen ändern. Für FHD reichen auch "nur" 3,5GB prima.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Ohne mich, ich hab meine 12GB VRam satt für die nächsten Jahre. Eine 4GB Karte für den Preis würde ich mir nie kaufen.

Du kaufst also eine 1300 € Karte um damit 4 Jahre auszukommen? Ist das nun dein Ernst oder ein schlechter Versuch zu scherzen ?

In 4 Jahren wird vll. dein Speicher noch ausreichen, aber die Leistung der Karte einfach bei weitem nicht mehr zeitgemäß sein. Vor allem mit Hinsicht auf die kleiner gefertigte Karten und HBM Speicher.

Da wäre es sinnvoller sich alle 2 Jahre eine Karte im 400-500 € Bereich zu kaufen, statt 1300 € auszugeben und zu glauben das diese 4+ Jahre Leistungstechnisch genug bietet. :freak:
 
Kasmopaya schrieb:
Die Frage lautet eher, wer kauft sich eine GPU für hier und jetzt, meine Titan X EVGA Hybrid ( http://geizhals.de/evga-geforce-gtx-titan-x-hybrid-12g-p4-1999-kr-a1276989.html ) wird wieder ca. 4+ Jahre im Einsatz sein. Da interessiert es mich reichlich wenig wenn ein Witcher III sich ausnahmsweise mal weniger Vram genehmigt. Ich will in zig Jahren auch noch ausreichend haben.

Aber wenn ihr GPUs so oft wechselt wie eure Unterhosen, dann spielt das natürlich keine Rolle. Heute eine Fury X 4GB und morgen dann eine Pascal Titan. Und zack spielt Vram keine Rolle mehr. Wenn man Lust hat ständig zu verkaufen und neu zu kaufen kann man das ja machen. Ohne mich, ich hab meine 12GB VRam satt für die nächsten Jahre. Eine 4GB Karte für den Preis würde ich mir nie kaufen.

Ich will dir nichts schlecht reden. Die Titan X ist eine gute Karte. Aber sollte sich herausstellen, dass die 4 GB HBM genausoschnell sind wie die 12 GB GDDR5, dann wäre es auch für die Zukunft gedacht prinzipiell egal, ob du dann eine Fury 4 GB oder eine Titan X hast.

EDIT:
@ über mir: ja, dass stimmt. High End zu kaufen mit der Überlegung, dann günstiger wegzukommen über die Zeit. Das ist Quatsch. Weil die Entwicklung zu schnell ist. War bisher immer so. High End sollte man sich wirklich nur kaufen, wenn man auch High End haben möchte. Ansonsten lohnt es sich nicht. Denn dann wäre er besser gefahren mit einer GTX 980 oder einer GTX970 für 500 -600€. Und dann in 2 Jahren eine neue Karte für 600 € Damit könnte er jederzeit alles, was er will auf Max und mehr zocken.
 
Zuletzt bearbeitet:
sollte sich das bewahrheiten lasse ich diese generation karze definitiv links liegen. mindestens ein DIE shrink muss her damit "WIRKLICH" mal was passiert. hoffe Pascal wird bei NV sowas wie die gtx8800 "traeum" ;)
 
Mygeeto schrieb:
4 GB GDDR5 =/= 4 GB HBM

Ok, nehmen wir an das eine Szene mit 4GB Texturen in GDDR5 4GB RAM belegen und 8GB Texturen 8GB an GDDR5 RAM. Um wie viel muss HBM schneller sein damit 8GB an Texturen in 4GB HBM passen? Das kannst du Schlaumeier mir doch sicher ganz einfach herleiten...


Mygeeto schrieb:
Es gibt selbst in GDDR5 nichts, was mehr als 4 GB braucht

Aktuell. Uns selbst das ist falsch wenn man gemoddete Spiele mit einbezieht. Krieg ich von die mit Brief und Siegel ne Geld zurück Garantie dass das in den nächsten 2 Jahren auch nicht passieren wird? Ich zahl einfach ungern 600€ und mehr für ne Grafikkarte nur um dann die Details reduzieren zu müssen (vor allem die Texturqualität merkt man recht schnell)
 
@hrafnagaldr
Wahnsinn. Den verlinkten Thread gelesen? Spielst du für immer nur Witcher?

Mygeeto schrieb:
Nene, mir hat bisher keiner irgendwas ins Ohr gesetzt. Ich vermute, dass die Fury trotz 4 GB HBM genauso schnell sein wird wie die Titan X mit ihren 12 GB GDDR5. Wie gesagt, ich weiß es nicht. Aber genausowenig weißt du, dass die 4 GB nicht reichen werden. Zumal, das habe ich ja gesagt, dass momentan mehr als 4 GB auch Game-technisch gar nicht nötig sind. Selbst, wenn man mehr als FullHD spielt.
Der Unterscheid zwischen HBM und GDDR5 ist dir ja doch klar? Also mehr als 4 GB werden es "effektiv in GDDR5 umgerechnet" auf jeden Fall sein. Liegt eben an der effizienteren Speicherverwaltung, die durch HBM möglich wird. ALso während die Titan X einfach alles aus dem GDDR5 rausschmeißt und dann neu nachlädt, wirft AMD mit der Fury nur die wirklich nicht mehr benötigten Daten aus dem HBM-Speicher raus. Das bedeutet, dass eben öfter nachgeladen werden muss, aber dafür viel weniger Datenmengen. Das bedeutet jetzt nicht, dass man effektiv auf 12 GB GDDR5 kommt. Aber wie gesagt 12 GB braucht eh kein Mensch.
Wir sollten einfach auf die finalen Ergebnisse warten und dann kann man ja nochmal diskutieren.

Der Speicher hat nichts mit der "Schnelligkeit" an sich zu tun. Das ist Sache der GPU.
Speicher kann überlaufen und dann ist der Spaß vorbei. Vor allem bei hohen Auflösungen. Spiel halt mal Star Citizen an, Dying Light, Lords of the fallen, etc.
Speicher wird heute hauptsächlich für Texturen gebraucht, das SI hat sich bis dato im High-end nie limitierend auf die GPU ausgewirkt, so dass die Befüllung von GDDR5 noch kein Problem war.
Was aber schon ein Problem war, war eine zu gering bemessene Speichergröße z.B. bei der 780Ti. Das mies optimierte Watch Dogs lief dort nur - dank schlechter Speichernutzung - bescheiden, auf einer 780@6GB aber wunderbar.
Wer sagt dir, dass dieses angebliche rauskicken so gut funktioniert und Speicher ersetzen kann (was es nicht können wird, weil es letztendlich den selben Beschränkungen - nämlich langsamer Zulieferer - unterliegt)? Was ist, wenn gar nichts rausgekickt werden kann, weil zusätzlich zu den 4GB noch Daten benötigt werden?

Sich eine absolute High-end-Karte in diesem Gefüge zu kaufen und auf 4GB zu setzen, grenzt einfach an Wahnsinn.
 
Zuletzt bearbeitet:
MikelMolto schrieb:
Ich bleibe bei meiner GTX770 und FHD bis irgendwann 2016 Pascal kommt.

Wieso verstehst du das nicht ? Das Verhältnis deiner 770GTX bzw 680GTX mit 2 GB zu einer 7970 bzw R9 280X mit 3 GB ist das selbe wie jetzt bei der R9 Fury 4GB zu 980 GTX Ti 6 GB, welche preislich in der selben Liga spielen.

nämlich 0,6666 periodisch. Wieso war das damals bei NV okay ?
 
Hoffe das wir schnell Benchmarks sehen was die Karte wirklich in Spielen bei hoher Auflösung leistet, sonst wird es halt eine 980ti.
 
Fried_Knight schrieb:
@Moriendor
Wenn interessiert der blöde Benchmark? 4GB sind im realen Alltag zu wenig bei den Auflösungen > FHD.
Vielleicht mal ein wenig Sachkunde aneignen? Herrschaftszeiten.

Bitte um Belege! Das sind die absoluten Ausnahmen, wie Schatten of Mordor, ein schlecht optimiertes Spiel.
 
Naja ich finds Arm von AMD die neue Serie zu 90% wieder mit uralten Chips zu füttern. Ich war immer nen Fan von AMD/ATI aber seit 2 1/2 Jahren gibs keine neue Technik im <150W Bereich. Früher wurde Nvidia wegen den vielen Rebrands geflamt, inzwischen ist AMD schlimmer.

Bei NV gibts wenigst ne richtige Maxwell Generation mit GM200/204/206/207/208, das sind 5 Chips, bei AMD gibts einen. Jetzt werde ich wohl das erste mal seit 10 Jahren wieder auf NV setzten, (GTX 960)
 
Du kaufst also eine 1300 € Karte um damit 4 Jahre auszukommen? Ist das nun dein Ernst oder ein schlechter Versuch zu scherzen ?
Kaufe mir schon seit längerer Zeit den Vollausbau mit Vram satt und fahre mit der Taktik prächtig: https://www.computerbase.de/forum/threads/eure-grafikkarten-historie.235090/page-94#post-12391500

Zur Zeit ist die GTX 580 3GB von der Rohleistung und vom Vram am Absoluten Limit zb. bei Homeworld Remasterd mit 2,8GB VRam. Aber es läuft flüssig. Ergo perfektes Rohleistung/Vram Verhältnis, genau so wie bei der 8800GTX vorher. Darum gibts bei mir auch nix unter 12GB Vram für die nächsten Jahre.

Da wäre es sinnvoller sich alle 2 Jahre eine Karte im 400-500 € Bereich zu kaufen, statt 1300 € auszugeben und zu glauben das diese 4+ Jahre Leistungstechnisch genug bietet.
Würde es auch zig Gründen nicht anders machen wollen. Den Auftrüßtwahn mache ich nicht mit. Und mit der 8800GTX und 580GTX 3GB habe ich ja schon ausreichend Erfahrung gesammelt und weis das es wieder funktionieren wird.

Ich hab nun doppelt so lange keine Sorgen in Bezug auf "Feature Vram", Spulenfiepen, verkorkste Architekturen etc. Durch den 4 Jahres Zyklus halbiert sich mein Risiko irgend einen Mist zu erwischen. Noch dazu hab ich keinen Aufwand in Sachen GPU verkaufen und kaufen. Die 580 3GB wandert in den Office PC und ersetzt dort die 8800GTX. Da dieser nur ein paar mal im Monat eingeschaltet wird, spielt Stromverbrauch im Idle somit auch keine Rolle. Ergo ist die Erzeugung von Elektroschrott auf einem minimalen Level bei mir. Das könnte man mit einem 2 Jahres Rhythmus auch vergessen.

Perfekt ergänzt wird die Taktik durch EVGAs Garantie von einem Jahrzehnt. :)
 
Zuletzt bearbeitet:
@Haffelpuff
Lies den Thread weiter. Ich habe Spiele und sogar einen Link vorgetragen. Ich bin jetzt nicht noch dein Wasserträger und poste alle 30min dasselbe. :o

Und Kruzifix noch eins: Mordor ist nicht schlecht optimiert. Das ist einer der besten Ports, die ich je gesehen habe und lief von Tag 1 an bugfrei. Erzählt nicht immer so einen Mist.

Den einzigen "Fehler", den man gemacht hat, war ein freiwillig zu installierendes Texturpack für Groß-RAM-Karten zu veröffentlichen und zu glauben, die Leute wären dankbar. Schließlich schreien sie seit Jahren danach.
Falsch gedacht, dafür haben sie jetzt üble Nachrede am Hacken.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
wird wieder ca. 4+ Jahre im Einsatz sein. Da interessiert es mich reichlich wenig wenn ein Witcher III sich ausnahmsweise mal weniger Vram genehmigt. Ich will in zig Jahren auch noch ausreichend haben.

Aber wenn ihr GPUs so oft wechselt wie eure Unterhosen, dann spielt das natürlich keine Rolle.

Wer kauft schon alle 4 Jahre ne GPU für 1300 Euro, wenn man alle 2 Jahre mit ein paar Wochen Warten wohl erstmal ne genausoflotte Fijii kaufen kann und dann in 2 Jahren ne deutlich schnellere GPU kaufen kann, und du noch mit der ollen Titan X herumruckelst.
 
Zurück
Oben