News AMD Radeon Fury X: Fiji XT im 3DMark auf Augenhöhe mit GTX Titan X

Zuletzt bearbeitet:
Die Antwort hab ich dir bereits gegeben:

Man kann auch sagen dass es keine maximalen Details gibt, man kann es immer höher treiben, das was der Entwickler festlegt soll nur als Referenz dienen.
Ob die Ultra-Stufe sich noch lohnt ist immer ein subjektiver Fall, schau dir Hairworks bei Witcher 3 an... Tess-Faktor von x64 und 8xMSAA.
 
Weil "maximale Details" immer eine freie Interpretation der Spieleschmieden sind. Wie willst du das denn interpretieren? Was ist, wenn DICE auf die Idee käme, per Patch die "maximalen Details" auf irre Parameter hochzudrehen? Mit Texturen, die 15 GB VRAM fressen, mit Objekten mit derart hoher Polygonzahl, die jede Entusiastenkarte ins übelste Ruckepn brächte?

Unrealistisch übertrieben, ich weiß, aber "maximale Details" ist ein schwammiger und weit dehnbarer Begriff.
 
Zuletzt bearbeitet:
Maximale Details ist eben die vom Entwickler angedachte volle Pracht des Spiels (um Spitzfindigkeiten wollen wir uns jetzt nicht streiten). Und wenn dadurch im Spiel (das sind ja meist die typischen Vergleiche "sieht ja 1:1 auf den Bildern aus", im bewegten Bild merkt man aber eben doch weniger "Treppchenbildung" etc.) das Gras nur 5% schöner texturiert ist / schwingt... für 600€+ will ich das auch angezeigt bekommen (GameWorks mal außen vor, das muss/kann ja keine AMD können).
Wenn ich etwas anderes hinnehmen würde, wäre der Bezug zum Geld vollends verloren.
Ich bin da echt gespannt, ob da irgendwelche Techniktricks was ändern, aber momentan bin ich über die Gerüchte schon ein wenig traurig.
 
Zudem kann man nie vorher wissen wann eine Karte an ihre Grenzen kommt, bei Witcher 3 sind die 780 und Titan Classic auch nicht gut weggekommen (1.Benchmark, ich weiß dass seitdem ein Treiber kam), rund 30 FPS in FHD und max Details, da schafft selbst meine Karte noch rund 40-50% mehr, dabei hat die Titan 3 mal soviel gekostet.

Ich zock W3 mit VSR in 1440p und fast maxed, nur die Objektsichtweite und Schatten sind auf hoch (Hairworks aus + SSAO)
da hab ich immer 40-50FPS.
Man muss immer einen persönlichen Kompromiss zwischen FPS und Bildqualität finden und ich bin mir sehr sicher, dass man mit einer 980Ti oder TitanX auch in 1,5-2 Jahren Details reduzieren muss, oder auch jetzt schon wenn man in UHD mit 60FPS spielen will.

Sucht euch aus in was ihr eure Rechenleistung investiert.
 
Hbm hat laut den nvidia leuten also keinen vorteil ausser das grafikkarten kleiner werden.

Trotz verkleinerung ist die herstellung teurer quellen dazu waehren mal nett.

Und zu guter letzt verbraucht solcher speicher auch noch mehr energie.

Und da sich amd schon immer massiv schaden wollte haben sie dann diesen ausschlieslich negativen weg gewaehlt.

Das ist doch absurd. Bis anderes bekannt ist zeigen die daten das man bei allen spielen vorne ist oder gleich auf.

4k reichen heute 4gb die einzige einstellung die das aendert ist wenn man 8k berechnet und auf nen 4k monitor runterrechnet, weis den namen der option nicht mehr.

Billiger wird man sein ist auch klar, nur nicht wieviel billiger verkleinerungen machen sachen immer billiger das war immer so wieso sollte das bei dem hbm speicher andersrum sein

Zu guter letzt ist das eh der enthusiastenbereich die karte ist finanziell eh irrelevant da es wenige spinner auf der welt gibt die mehr als 300 und erst recht als 500 euro fuer ne grafikkarte aus geben.

Das ist doch ne reine prestige frage.
 
attachment.php


GDDR5 ist aber auch teurer als DDR3. Leider fehlt das in der Grafik. Kann mir aber gut vorstellen, dass 8 GB GDDR5 nicht zwingend deutlich biliger als 4 GB HBM sind.

Bringt nur Platzreduktion ?

hynix-hbm-pamiec-1.jpg


Allein, weil da nicht mehr so lange und viele BUS gibt, kann ja auch neben Platz, der Verbrauch gesenkt werden.

Fried_Knight
Ist nur abhängig, welchen Takt AMD für den HBM einstellt. 512 GB/s sind es ab 500 Mhz. Es waren auch mal schon von 640 Gb/s glaube ich die rede
 
Ja 640GB/s geisterten bei den Grüchten mal herum, aber bei den letzten News waren die 512 GB/s angegeben die wohl fürs erste Final zu sein scheinen .
Denke das die 512Gb/s auch locker ausreichen sollten wenn eine 980Ti und Titan von 330Gb/s nicht merklich ausgebremst werden.

Ich lehne mich hier jetzt mal weit aus dem Fenster und behaupte mal das ich als Profi Gamer mit einer Fiji wenn sie mehr Rohleistung hat als NV mehr anfangen kann.
Warum?
Weil Bildqualität hier nicht so wichtig ist. Somit kann ich locker mal die Texturen runterschrauben um 1 Stufe um nicht ins Vram limit zu laufen (sollte eines vorhanden sein) bekomme aber dank der besseren Rohleistung 144fps als minimum auf dem Asus swift den ich als Profigamer wohl benutzen werde.
Allerdings als Profigamer habe ich sowiso nicht das Problem wie viele das ich die Karte lange nutzen, sondern immer die aktuelle Top Karte kaufe.

Damit will ich nicht sagen das 8Gb der Karte nicht besser liegen würden, aber ich denke die Karte hat durchaus ihre Käuferschicht auch mit nur 4Gb Vram.

Und beim Übertakten hat sie eben den Vorteil das die Bandbreite nie limiteren wird da diese "massiv" oversized ist denke ich mal.
Bei GDDR5 sind die derzeit genutzen 7GHZ ja das maximum der spezifikation und real holt man hier so an die 1000MHZ raus wenn man gute chips erwischt danach dürfte aber absolut Ende sein.
Wobei ist etwas bekannt ob man HBM übertakten kann oder sind die 500 MHZ ein fixer wert? Den wenn das nicht so ist müsste die Karte ja nochmal zumindest Theoretisch super mit jedem MHZ nach oben skalieren durch das 1024 bit Si .
Und Fiji bietet mehr Rops und TMUs als die Titan was evtl wenn man davona usgeht das die Grundleistung der 3000 Shader der Titan den 4000 Shadern bei Fiji entsprechen bei Oc bei Fiji evtl die anderen Faktoren ebenfalls weniger bremsen als bei der Titan X und der 980Ti.

Allerdings ist der wechsel zu einer anderen Speichertechnologie unumgänglich,ob man es jetzt schon hätte machen sollen ist halt eine ander Frage aber spätestens mit 14/16nm Gen wäre GDDR5 wohl langsam an ein limit gestossen.
Vielleicht hätte AMD HBM auch mit Tonga bringen sollen.Da wären die 4Gb die jetzt bei der 380 spekuliert werden ausreichend und die Stromersparniss würde auch zu dem Chip gut passen.

Und ich gebe auch zu bedenken weil die Frage aufkommt ob HBM eben nur den Vorteil der Bandbreite/Stromersparniss hat dass man hier ca 30% Fläche quasi einspart.Das sorgt einerseits dafür das das PCB kleiner wird was etwas kosten spart , wobei sich das durch die Entwicklungskosten wohl relativiert,aber auch den Einsatz von weiteren Zusatzchips wie für Sound ermöglicht.
Wäre für mich dem Sound ebenfalls wichtig ist neben Grafik ein Kaufgrund pro AMD , wenn sie da in Zukunft Trueaudio weiterentwickeln.

Und Dual-Gpu Karten werden dank HBM ebenfalls viel einfacher was den Platzbedarf betrifft.
Natürlich ist hierfür HBM 1.0 absolut noch ungeeignet egal wie gut der Speicher nun bei der Verwaltung sein sollte.
Aber mit HBM 2.0 wäre das schon denkbar zumal ja hier auch der Stromverbauch 2x eingespart wird sich also bei einer Dual Gpu sicher bemerkbar machen könnte.

Neue Lage nur noch 4 Tage !
 
Zuletzt bearbeitet:
Vitec

Weißt du was wirklich interessant ist. Bis auf Cayman, gab es eigentlich immer abgespeckte Varianten der Pro und der XT, nämlich LE Chips. 7870 GHZ Boost Edition (Tahitii Chip), 5830, 4830, 3830.

Kommt eine R9 395X mit 4GB HBM, aber um die 3200 Shader auf den Markt, würde ich sie mir vermutlich sofort kaufen, insofern das PCB klein ist und man eine kleine Wasserkühlung oder Komplettwasserkühlung montieren könnte.
 
Necareor schrieb:
Sag mal, lest ihr denn überhaupt, oder kritisiert heute jeder nur noch blind drauf los? Er hat doch direkt dazu geschrieben:

Danke, genau dass ging mir auch manchmal durch den Kopf. Ich vermeide es eigentlich immer meine Meinung als die einzig wahre darzustellen sondern versuche stets meinen Gedankengang dahinter zu erläutern. Allerdings führt das zuweilen auch zu relativ unansehnlichen Textblöcken die sicherlich nicht die Motivation alles genau zu lesen fördern.

Dann noch kurz was zu den Rechenspielen: Natürlich sind diese extrem ungenau und dienen primär der Veranschaulichung denn dazu möglichst exakte Werte zu liefern.

Aber mal Back to Topic:
Laut den neuesten Leaks haben wir einige weitere Infos: So wird es in der Tat eine Fury und eine Fury X geben. Die X soll am 16.6 vorgestellt werden, Release soll 2 Tage später (also am 18.6) sein; angeblich darf es aber keine Tests vor dem 24.6 geben (vielleicht ist das dann auch das erste Auslieferungsdatum und das erste nur das Vorbestelldatum wie Apple das seit Jahren treibt?). Die non-X mit Luftkühlung
kommt aber wohl erst "später".

Des weiteren wird die X wohl nur mit WaKü erhältlich sein, die Non-X darf es dann auch mit eigenen Boards und anderen Kühlern geben. Als kleines Goodie gibt es dann noch etwas von einem angeblichen BestBuy Mitarbeiter: Der Preis der 390X ist bei denen im System derzeit mit 449$ hinterlegt.


Wie ich unsere Redakteure kenne wird eine passende News wohl auch demnächst kommen; mein Chinesisch ist für die Originale Chiphell Quelle leider nicht ausreichend da non-existent.

PS: Und der Lüfter auf den Leaks nicht ohne Grund immer ein anderer ist. So soll AMD die Chargen an Testsamples bewusst mit anderen Lüftern bestückt haben um den Leak zurückverfolgen zu können.

Das alles natürlich unter Vorbehalt da es natürlich nur auf Leaks basiert.
 
Zuletzt bearbeitet: (Wiederlegter Leak entfernt)
Thanok schrieb:
PS: Bei Videocardz heißt es auch dass die Fury X auf 30.000 Exemplare limitiert sei (für mich schwer zu glauben) und der Lüfter auf den Leaks nicht ohne Grund immer ein anderer ist. So soll AMD die Chargen an Testsamples bewusst mit anderen Lüftern bestückt haben um den Leak zurückverfolgen zu können.

Das alles natürlich unter Vorbehalt da es natürlich nur auf Leaks basiert.

Nur ein bereits widerlegtes Gerücht, laut:
http://wccftech.com/amd-fury-30k-units-2015-air-liquid-cooling/
 
Ich werde mir mal so eine Fury kaufen,sobald das passende Kleingeld vorhanden ist. Man muss auch mal den Mut zum Technologischen Fortschritt belohnen. Sonst macht niemand was in Sachen Fortschritt mehr. Mal davon abgesehen scheinen die Karte ja an sich schon recht Flott zu sein.

gruß
 
Danke für den Hinweis: Habe die entsprechende Zeile entfernt.
 
Fried_Knight schrieb:
Maximale Details ist eben die vom Entwickler angedachte volle Pracht des Spiels (um Spitzfindigkeiten wollen wir uns jetzt nicht streiten).
Naja da bleiben die variablen Auflösung und AA, was der User frei wählen kann. Und mit irrsinnigen Auflösungen (dank DSR auch 8k kein Problem) oder extreme AA Settings wie 32x SSAA bringt man jede Karte auf Low-Detail zu fall. Und mit hohen MSAA-Level bekommt man auch so gut wie jeden VRAM voll.
Aber ich würde generell nicht immer auf Max. Details pochen. Jeder Entwickler macht da andere Maßstäbe.
Bei Crysis haben alle rumgeheult, weill sie es ja nur auf High spielen konnten. Aber das ist das einzig richtige, die Settings so zu wählen.
1. Sieht das Bild nicht schlechter aus nur weil es "High" statt "Ultra" heißt und
2. Spielt man gute Spiele auch noch nach ein paar Jahren und dann ist es doch schön wenn man dem Spiel mit neuer Hardware auch noch ein bisschen schönere Grafik entlocken kann.

pipip schrieb:
Bis auf Cayman, gab es eigentlich immer abgespeckte Varianten der Pro und der XT, nämlich LE Chips. 7870 GHZ Boost Edition (Tahitii Chip), 5830, 4830, 3830.

Kommt eine R9 395X mit 4GB HBM, aber um die 3200 Shader auf den Markt, würde ich sie mir vermutlich sofort kaufen, insofern das PCB klein ist und man eine kleine Wasserkühlung oder Komplettwasserkühlung montieren könnte.
Weiß nicht ob das so realistisch ist. Fury wird nicht billig in der Herstellung und sofern man nicht wirklich irgendwie teildefekte Chips unterbringen muss, würde ich nicht gerade auf eine LE-version tippen.

Bezüglich des Speicherdurchsatzes bei Fury:
Ist zumindest das uninteressanteste an der ganzen Karte. Die wird sicherlich mehr als genug haben. Ob jetzt 512 GB/s oder 640 GB/s wird da denke ich keien Rolle spielen.
128 GB/s sind das was Hynix pro Stack in ihr Datenblatt schreibt. Aber den Takt kann man wohl problemlos in beide Richtungen maßvoll verändern.
 
bensen

Jene beschnittene Chips waren sowieso meist stark limitiert. Die 7870 Boost, gab es nicht lange auf den Markt und war irwann dann wieder "ausverkauft".
 
@bensen

Nochmal: mit solch betagtem Anspruch kaufe ich aber keine Karte zu diesen Preisen. Dein Vorschlag ist ja mehr die "Vernunftecke" und die ist Mittelklasse.
Die Fury (wie die Titan X) weckt jedoch andere Begehrlichkeiten, die gerade am Rande des Darstellbaren liegen und da behindere ich doch nicht die GPU durch zu wenig Speicher. Wer kauft das? Wofür? Für high-end-FPS auf medium (überspitzt formuliert, aber der Fall ist hier wesentlich wahrscheinlicher, als bei einer 980Ti oder gar einer Titan X)?
 
Fried_Knight schrieb:
@bensen

Nochmal: mit solch betagtem Anspruch kaufe ich aber keine Karte zu diesen Preisen. Dein Vorschlag ist ja mehr die "Vernunftecke" und die ist Mittelklasse.
Die Fury (wie die Titan X) weckt jedoch andere Begehrlichkeiten, die gerade am Rande des Darstellbaren liegen und da behindere ich doch nicht die GPU durch zu wenig Speicher. Wer kauft das? Wofür? Für high-end-FPS auf medium (überspitzt formuliert, aber der Fall ist hier wesentlich wahrscheinlicher, als bei einer 980Ti oder gar einer Titan X)?

Auch wenn das noch 100mal behauptet wird (inzwischen ja schon als Tatsache dargestellt und zum Belegen weiterer Thesen verwandt), kaum einer hier weiß inwieweit die kolportierten 4GB die Leistung bei anspruchsvollen Szenarien schmälern.

Die meisten hier bauen auf Ihre stark abstrahierte Vorstellung von Menge und Durchsatz, ohne den Hauch einer Ahnung von Strategien zur Speichernutzung/-optimierung zu haben, welche wohl schon im Treiber angewandt werden, bei GDDR5 wohl in anderer Weise sinnvoll als bei neueren Speichertechnologien. Was nützt Euch die Speicherauslastungsanzeige (d.h. Eure Erfahrungswerte), wenn z.B. aktuelle Treiber bestimmt Precaching-Strategien implementiert haben, um andere Nachteile zu kaschieren. Wert für die Projektion auf HBM = 0.

BTW, die Erde muss eine Scheibe sein, jeder Idiot weiß doch dass man sonst runterfallen würde... :freak:
 
Jap, finde ich auch. Nochmal: Wir sollten Benchmarks (mit großen Texturen und 4k) abwarten!
Dadurch, dass einige Wege für den Speichercontroller wegfallen und Durchsatz enorm ist,
kann der Speicher anders gehandhabt und die Daten besser komprimiert und verwaltet werden.
Mich würde nicht wundern, wenn einer Karte mit 8 GB GDDR5 der Speicher vor einer Karte mit
4 GB HBM ausgeht.
 
Menge kann nicht ersetzt werden. Man kann bis zu einem gewissen Grad mit Effizienz was drehen, aber trotzdem bleibt bei Speicher die Menge ausschlaggebend. Man bekommt einfach kein Auto in einen Umzugskarton. Egal wie effizient man es zerlegt. Irgendwo sollte man schon physikalisch korrekt bleiben.
 
Der vergleich bringt nichts, da die Daten für die Frames viel schneller in den Speicher
rein und raus gehen können, ergo nur noch Texturen ausschlaggebend sind, welche die
Grafikkarte wesentlich besser handhaben und komprimieren kann, als eine (noch) aktuelle
Karte, die den Umweg über einen komplexen Speichercontroller und langsameren BUS
gehen muss. Grafikspeicher ist kein statischer Karton, da drin ist einiges los. ;)

Anderer Vergleich: So klein Dein Bar (HBM) auch ist und so wenig Leute (Bytes) reinpassen
mögen, wenn Du sie effizient sowie schnell bedienen und wieder rausschmeißen kannst,
machst Du trotzdem mehr Gewinn als eine schlecht organisierte Großraumkneipe (GDDR5).
 
Zuletzt bearbeitet:
Zurück
Oben