Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

@Lübke82,.....

welche Games Zockst Du denn so wenn man mal fragen darf ?

Zocke selber Diablo 3 / Reaper of Souls - Crysis 3 MP an und ab (Hunter Game Mode) - Battlefield Hardline - Skyrim
 
Hier stand Mist was überhaupt nicht zum Thema passte.
 
Zuletzt bearbeitet:
ich hatte mal ne zeitlang bf4 auf einem 34" gespielt und das war übel und unübersichtlich, was macht dein bekannter auf ligen mit 3 monitoren und 4 way sli ??? sich an den m-rucklern erfreuen ? beim fliegen und fahren ergeben ja 3 monitore sinn, aber online shooter auf meisterschaften .... ehrlich, ich bitte dich ;)

ich kann mir ein ironisches lachen wirklich nicht verkneifen
 
Iscaran schrieb:
Fury X hat also ~ 65/Tag.

Die Karte ist ja demnach wirklich so schlecht wie viele hier reden....*ironie*

Mal sehen ob die Quoten so bleiben - aber 4x soviele am Tag wie 980 Ti ist schon ne ansage.

Die Ti/Titan gab es vor allem am Anfang in deutlich geringerer Stückzahl, die Leute haben teilweise Wochen gewartet. Die Fury hat den Vorteil/Nachteil das man nicht auf Customlösungen warten muss/kann weil es keine geben wird von den Boardpartnern während die wenigsten eine non-Custom ti kaufen werden (ausser SLI/Wasserlösungen).
 
Zuletzt bearbeitet:
Schaby schrieb:
[..] der hatte 4 Titan verbaut [..].
CPU limit detected.
welche shooter spielt er denn ? CS vielleicht noch....da ist meine gk bei 30% auslastung.
viele der pro's haben kaum ahnung von technik.
3 monitore mögens ja noch bringen, aber 4 titan.. :D
Ergänzung ()

-Xeon- schrieb:
[..]
Die Grafik Quali ist mir auch in Online Shootern sehr wichtig ![..]Schliesslich hat man dafür ja Bezahlt, oder etwa nicht ?[..]
Ich versteh deins nicht. Lass das (online-)zocken sein, du hast nicht gerafft worum es geht.
Es geht ums gewinnen, es geht ums schneller sein, es geht um die competition.
Und da schaltet man halt das gras ab, wenns geht und gegner dadurch verdeckt werden.
Wenn die hohe fps dafür sorgt, das ich 50ms mehr zeit hab bzw es schneller sehe und dann auch schneller reagiere, liegst du am boden und ich lauf weiter.
Aber du hast ja bezahlt ! ...
 
Zuletzt bearbeitet:
Nochmal was zur Übertaktbarkeit. Die Karte ist schlecht zu übertakten, klare Sache, aber was die schlechte Skalierung angeht, kann ich die Kritik nicht ganz nachvollziehen.

1130 vs. 1050 Mhz sind eine Steigerung von 7,6%
Das ergibt in den getesteten Spielen um die 4% mehr fps.

Wenn man sich diverse Benchmarks zur 980Ti anschaut, sieht man, dass die Steigerungen im ähnlichen Verhältnis stehen, je nach Spiel mal etwas mehr oder auch etwas weniger.
Siehe z.B. hier:
http://www.pcgameshardware.de/Nvidi...8/Tests/GTX-980-Ti-Test-Benchmarks-1159952/2/

Da wird die 980Ti mit 1000 vs. 1075 Mhz verglichen, eine Taktsteigerung von 7,5%.

In Bioshock sind das aber bspw. nur +3% mehr fps
GTA5 nur 1-4%
usw.

Das hängt auch stark vom verwendeten Setting ab und bewegt sich teilweise innerhalb der Messtoleranz. Da sollte man bei den mickerigen Taktsteigerungen wirklich die Kirche im Dorf lassen.
Die Fury X braucht mehr Spannung und satte Taktsteigerungen, fertig. Wie weit das mal möglich sein wird bleibt abzuwarten.
 
Zuletzt bearbeitet:
CochainComplex schrieb:
Du bist gut. Es gibt Leute die schreiben Dokorarbeiten darüber nur um Theoretische Ansätze für solche SoC Controller zu entwickeln siehe "http://support.dce.felk.cvut.cz/pub/kessoben/publications/pdf/akesson-dissertation.pdf" oder Messungen durchzuführen https://mediatum.ub.tum.de/doc/649227/649227.pdf Und hier haben wir noch garnicht über das Layout auf dem Halbleiter noch HF Eigenschaften des jeweiligen geredet - das ist eigentlich die Kunst und dabei noch eine möglichst geringe Streuung im Fertigungsprozess erziehlen. Mal schnell den Controller hochskalieren ist bei einem Sprung von 512 auf 4096 bit nicht so einfach. Hast du schon mal einen Digital/Analog Wandler gebaut mit I2C Signal auf 24bit. Das sind Standart IC's und das Kommunikationsprotokoll steht auch schon. Frequenzen bei ca 5Mhz also aus heutiger Sicht PillePalle ... mach das mal. http://www.dddac.com/dddac1794_design.html . Digitaltechnik auf dem Niveau was die großen Halbleiterhersteller betreiben ist nicht ganz ohne. Also Ruck zuck geht das leider nicht. Wie auch immer ...

Mal abgesehen davon, dass nicht jede Doktorarbeit qualitativ den gleichen Standard hat, der wissenschaftliche Gehalt dieser Arbeiten ist nicht die Implementierung des Ganzen. Das wird oft noch nicht mal von den Verfassern alles selbst gemacht. Dafür gibt es meist studentische Hilfskräfte, die darüber teilweise ihre Bachelor oder Masterarbeiten schreiben.
Mag sein, dass es in der Analog-Technik reicht einen Chip zu entwerfen, um einen Doktor zu bekommen, in der digitalen Schaltungstechnik reicht es aber normalerweise nicht.
Deswegen greift dein Beispiel mit dem D/A Wandler auch nicht ganz, denn es ist wesentlich komplizierter einen analogen Schaltkreis zu designen, als einen digitalen. Dass man den auch nicht mal eben schnell von 24bit auf 128 bit skaliert ist mir klar, aber wo ist denn jetzt der große Unterschied, ob ich einen Memorycontroller habe, der 512bit oder 4096 bit durchhauen kann? Das kann man doch wunderbar skalieren, wie man hier zB wunderschön sieht: http://codehackcreate.com/archives/444 Klar ist das jetzt noch kein Kontroller für modernen GDDR5 RAM, aber nur um mal zu zeigen wie viel Aufwand es ist einen breiteren Kontroler zu designen. Dafür musst du letztlich, wenn du deine Hardware Beschreibung schön generisch hältst fast nur ein paar Zahlenwerte ändern und fertig.

Und da sieht man zB auch, dass AMD mit Fiji nur sehr wenig wirklich verbessert hat. GPUs sind prinzipiell bei weitem nicht so komplex zu designen wie beispielsweise CPUs, denn viele komplexere Sachen, wo sich Ingenieure erst mal Gedanken drüber machen müssen wie Branchprediction, Register-Renaming etc. gibt es bzw. gab es bei der GPU bis vor kurzem nicht. Das Steuerwerk eines Prozessors benötigt in der Regel die meiste Arbeitszeit und gerade das fällt ja in der GPU klassischerweise fast komplett weg, weil die GPU eben nur ein Rechen-Tier ist. Für den Rest hab ich ja schon meine CPU.
Was AMD mit Fiji gemacht hat ist vorhandene Schaltungen zu nehmen und neu zusammenzustöpseln. Das sind prinzipiell auch nur ein paar Zahlendreher und du bist fertig. Die wiederum komplexere Aufgabe ist es die ganzen Schaltungen mit höherer Packungsdichte dann wieder in Hardware zu gießen, aber das ist weniger das Problem von AMDs GPU Designern als eher von TSMCs Werkstoff-Ingenieuren.
Ja letztlich macht NVidia auch nichts anderes, aber im Gegensatz zu AMD hat NVidia bei der GTX980 nicht einfach nochmal Kepler 2.0 zusammengeklickt, sondern wenigstens etwas mehr Zeit investiert. Deswegen stehen sie auch jetzt mit dem etwas besseren Produkt da, das sich noch unter Luft gut kühlen lässt, beim OC nicht gleich streikt und weniger aus der Steckdose zieht. Trotz ausgelutschtem 28nm Prozess.

Wenn man mal von HBM absieht, bin ich überzeugt, dass das Design von Fiji keine zwei Monate gedauert hat. Schwierig ist es bei HBM abzuschätzen, denn da stellt sich dann wirklich die Frage wie viel AMD tatsächlich selbst machen musste und wie viel sie von Hynix vorgegeben bekommen haben.

Und ja ich hab sowohl schon mal einen DAC als auch eine minimalistische MIPS CPU entworfen. Zumindest mir ist die CPU leichter gefallen, aber das mögen andere Leute anders sehen.
 
Ernüchterung macht sich breit.
Ich hätte deutlich mehr erwartet.
Die 980Ti ist schneller und verbraucht weniger. Wenn auch nur minimal.
Gegen eine 980Ti OC sieht sie kein Land.
Echt schade. Meinen Respekt hat AMD.
Dann müssen sies eben über den Preis regeln. 50-70€ günstiger dann passt das.
 
Zuletzt bearbeitet:
cruse schrieb:
Wenn die hohe fps dafür sorgt, das ich 50ms mehr zeit hab bzw es schneller sehe und dann auch schneller reagiere, liegst du am boden und ich lauf weiter.

Erklär mal bitte, wie es mit einem x-beliebigen Setup möglich sein soll, 50ms "mehr Zeit zu haben bzw. schneller zu sehen" :freak:
 
ToniMacaroni schrieb:
Da wird die 980Ti mit 1000 vs. 1075 Mhz verglichen, eine Taktsteigerung von 7,5%.

In Bioshock sind das aber bspw. nur +3% mehr fps
GTA5 nur 1-4%
usw.

Basistakt is egal, musst den Turbo Takt anschauen. Schau doch einfach bei CB...

Turbo is meist um 1100 Mhz, mit PT auf MAX laut Test genau bei 1177 Mhz konstant.
https://www.computerbase.de/2015-06...-nvidia-titan/3/#abschnitt_die_turbotaktraten

OC:
In Spielen agiert der 3D-Beschleuniger dann mit 1.437 MHz und wird durchs Power-Limit eingegrenzt, auch wenn dieses maximiert ist. Dennoch sind dies 260 MHz mehr als mit den Standardtaktraten.

daher die 260Mhz , denn 1437 -1177 gibt nach Adam Riese 260Mhz = 1437/1177 = 1,22 = 22% mehr Takt

Dabei skaliert die Karte sehr gut. Einmal 23%, einmal 20%, einmal 21% und damit exakt linear wie es auch zu erwarten ist.



CB gibt dabei die Basis Taktraten an, zählen tun aber die Turbo Taktraten.

Ein höherer Verbrauch geht damit einher

Allerdings erhöht sich auch die Leistungsaufnahme des Testrechners um 39 Watt auf 418 Watt

allerdings liegt man selbst mit diesen 20-23% Mehrleistung noch auf Fury X Niveau (leicht darüber) was Gesamtverbrauch angeht, bei eben >20% mehr Performance. OC ist die TI bisher klar die bessere Wahl.

Das CB Ergebnis ist da noch konservativ. Andere Seiten kommen teils auf mehr.

Die Gigabyte GTX 980 Ti G1 Gaming kommt bei 1341Mhz (1341/~1150 = 15% mehr Takt) auf genau diese 15% Mehrleistung zur Referenz GTX 980 TI.
 
Zuletzt bearbeitet:
AnkH schrieb:
Erklär mal bitte, wie es mit einem x-beliebigen Setup möglich sein soll, 50ms "mehr Zeit zu haben bzw. schneller zu sehen" :freak:

Er hat schon recht, wenn ein High-Details Grafikeffekt (Gras, Schatten etc) einen Gegner verdeckt und daher zusätzliche Zeit vergeht, die dieser braucht bis er sich in einen Bereich bewegt hat in dem er dann endlich unverdeckt ist und man auf ihn schiessen kann, dann hat der Low-Detail Zocker einen Vorteil, weil es diesen Effekt bei ihm nicht gibt und er den Gegner eben früher sieht. Ruck zuck ist der Gegner tot und beschwert sich über Cheater, Wallhacker etc :D In kompetitiven Online-Spielen hatte man als Low-Detail Zocker schon immer einen Vorteil. Ich erinnere mich noch an die Diskussion über die Blend- und Rachgranaten in CS in der Anfangszeit. Auf High Details sahen die toll aus aber die Low-Detail Zocker hatten erheblich früher wieder volle Sicht. Wurde dann irgendwann gefixt soweit ich mich noch erinnere.

Ich bin mittlerweile zu alt für sowas, ich spiele keine PvP-basierten Online-Games mehr. Ich genieße jetzt High-Detail Grafik in "ruhigeren" Spielen und bin sogar auch mit 40 fps noch zufrieden, wenn das Gesamterlebnis stimmig ist.
 
Zuletzt bearbeitet:
Wenn hier von einigen die Treibersituation für die eine oder die andere Fraktion ins Spiel gebracht wird, muss man m.E. auch dies nüchtern betrachten:

Unter Windoof mag mal AMD oder Nvidia vorn liegen. Da spielt sicher eine große Rolle, auf welchen der beiden Hersteller das Spiel zugeschnitten wurde und dort performanter (zumindest anfänglich) läuft.

Unter Linux galten die proprietären Nvidia-Treiber lange Zeit als deutlich besser im Vergleich zu dem proprietärem AMD-Treiber. Für linuxbasierte HTPC hatte Nvidia als Erster mit vdpau eine Lösung geliefert, die es ermöglichte den Rechner als TV-/Video-Aufnahme- und Wiedergabegerät so zu nutzen, dass Videos auch in FHD gpu-basiert flüssig und in hoher Qualität dargestellt werden konnten. Das alles aber eben nur in Verbindung mit deren proprietärem Treibergedöns, also closed-source. Was man davon hat, wenn es closed source ist, durfte ich unlängst erst erleben. Nvidia dreht nach eigenem Gutdünken an irgendeiner Stellschraube in deren Treiber. Jetzt bekomme ich jedesmal bei einem Kernelupdate von meinem einen Linuxrechner eine Fehlermeldung, weil sich der Nvidia-Treiber nicht passend zur neuen Kernelversion dranflanscht. Ich darf jedesmal händisch nachbessern. Danke Nvidia! Was die Zusammenarbeit von Nvidia mit den Kernelentwicklern anbelangt, hatte Linus Torvalds nicht ohne Grund irgendwann mal ein "Nvidia, fuck you" von sich gegeben.

AMD musste da im Vergleich für die GPU-basierte Videowiedergabe unter Linux deutlich nachholen. Die sind aber erfreulicherweise einen anderen Weg gegangen. Neben dem proprietärem Treiber gibt es von AMD mittlerweile einen open-source Treiber, der dank Unterstützung von AMD-Entwicklern mittels vdpau auch eine GPU-basierte Videowiedergabe unter Linux sicherstellt. Da open-source ist da aber niemand auf das Gutdünken von AMD angewiesen.

Welcher Weg da für den User der bessere ist, kann sich ja jeder selbst denken. Auch das gehört schlichtweg mal anerkannt.

Insoweit habe ich mir z.B. von AMD gern auch ein Board gekauft, wo eine passende GPU die das unterstützt onboard ist. Sowas gibt es nämlich zwischenzeitlich von Nvidia nicht mehr. Die damaligen Atom-Boards mit einer 9400er-Nvidia-Onboard gibt es schon lange nicht mehr. Das heisst, dass man für die Nvidia-Lösung bei diesem Einsatzszenario aktuell immer eine separate Grafikkarte stecken muss. Dafür braucht man dann zwingend einen PCIe-Steckplatz mehr, was den Bau von wirklich flachen und/oder kompakten HTPC erschwert.
 
AnkH schrieb:
Erklär mal bitte, wie es mit einem x-beliebigen Setup möglich sein soll, 50ms "mehr Zeit zu haben bzw. schneller zu sehen" :freak:

Kann er nicht, weil es Unsinn ist, der limitierende Faktor sind die Monitore.

60Hz= 16,6 ms Frametime
75Hz = 13,3 ms
120Hz = 8,3 ms
144Hz = 6,9 ms

Gehen wir mal davon aus, das er einen 144Hz Monitor hat und ihn auch auslastet und 50ms schneller ist als sein Gegner:

6,9ms + 50ms = 56,9ms
1000ms / 56,9ms = ~17,5

Dann müsste sein Gegner mit 17,5 fps spielen :P
 
Und dann kommt noch der "input lag"...den man gerne bei TV-Screens sieht die als "PC-Monitor" herhalten müssen.

wo dann einfach mal JEDER frame um 100ms verzögert wird zwischen Eingang zum Display bis Ausgabe als bild.

DAS wirkt viel störender als selbst die Differenz zwischen 30FPS vs 144 FPS.

Aber (Irr-)Glaube ist schwer zu bekämpfen - sieht man ja an all den Religiösen Fanatikern aller Art in der Welt.
 
Hmm zum Thema Übertaktbarkeit hab ich noch was ganz feines gefunden:
http://www.tomshardware.de/inno3d-gtx-980-ti-ichill-airboss-grafikkarte,testberichte-241842-4.html
Demnach kann die dort getestete inno3D GTX 980 Ti iChill X3 Airboss Ultra mit einem 3 Slot Riesenkühler auftrumpfen, der sehr leise sein soll. Die VRM`s sind unterdesse aber am verglühen.
Und das Beste ist: die Karte schafft nicht einmal den zugesicherten Basistakt von 1GHZ unter Volllast konstant zu halten. Und das mit dem Monster 3 Slot-Kühler. :freak:
 
Werde mir die Karte holen sobald es ein Mod BIOS dafür gibt um das Power Target weiter anzuheben (bzw. die ganze Geschichte @Treiber).
Kühlleistung gibts mehr als genug und Verbrauch spielt bei mir absolut keine Rolle wenn die Leistung passt :cool_alt:

mfg,
Max
 
Zurück
Oben