News AMD Radeon R9: Fury X kostet 649 US-Dollar und ist ab 24. Juni erhältlich

andere Frage: Wieso pappt AMD nicht an die PS4 APU (SOC) mit 8 Jaguar Kernen nen standard DualChannel DDR3 SI ran (hat es ja eig eh schon siehe XBone) und nen HBM Interface für 4 GB?

Wäre doch die perfekte SOC Kiste. 8 Kerne. Dualchannel DDR und 4GB HBM für die recht starke GPU. ^^
 
@Krautmaster
Ich denke sowas in der Art wird bei der nächsten Konsolengeneration auch gemacht, da führt eigentlich kein Weg drumherum.
 
Die wettbewerbsrechtlichen Verstöße von Intel sind gar nicht Thema in diesem Thread, kommt mal zurück auf die Ontopic-Straße...
 
@hrafnagaldr & Butschre:
Ich hab schon den halben Thread hier auf Ignore :D Wenn man die extremen Pro-nVidia und Pro-AMD Beiträge ausfiltert, dann ist es eigentlich ganz interessant. Wobei ohne offizielle Benchmarks ist das alles eh nur Glaskugelschüttelei und nachdem ich meine letztens versehentlich runtergeworfen habe kann ich da eh nicht mehr mitspielen :heul:

Ich freue mich jedenfalls auf die Benchmarks, auch wenn der Streit dann vermutlich von vorne losgeht, weil dann wieder einige die jeweilige Unparteilichkeit des Benchmarks in Frage ziehen wird, der ihm gerade nicht in den Kram passt ;)

Some things never change ;)
 
kisser schrieb:
HBM ist durch die JEDEC standardisiert und wird zukünftig auch von anderen Herstellern angeboten werden. Die Antwort auf deine Frage lautat also nein.

Ich weiß zwar nicht, ob irgendwer dafür etwas an AMD abdrücken muss, aber nur weil etwas standardisiert wurde, heißt es nicht, dass man keine Lizenzkosten hat, da auch bei Standards Patente von beteiligten Firmen angemeldet werden können. Die Lizenzkosten müssen allerdings fair ausfallen (FRAND).

AMD als innovationslos zu bezeichnen finde ich hart ... über die Strategie in Form von Marketing kann man allerdings AMD viele Fehler in den letzten Jahren vorwerfen. Ansonsten nutzen sie ihr vergleichsweise kleines Budget schon ganz gut ... nicht umsonst kann man GCN 1.x erneut verwursten und sich bis in den Semi-High-End Bereich gegen den Konkurrenten 'erneut' positionieren, während Unterschiede bei nvidia in den Architekturen deutlich werden und Einschränkungen nach und nach offen legen, performt GCN besser als früher.
Ob der Käufer einer R9 370 in seiner Budgetklasse nun Freesync vermisst, kann man natürlich in Frage stellen ... ein Kritikpunkt bleibts trotzdem. Verfehlungen gibts allerdings nicht nur bei AMD, was das Ganze für den Kunden aber nicht schöner macht. Allerdings sind die Einschränkungen bei AMD vor Launch bekannt und kommuniziert (Sorry einen kleinen Hieb konnte ich mir jetzt nicht verkneifen).
 
zeromaster schrieb:
Du hast die 980Ti verpasst, oder? Und die Tests zu den Modellen auf dem Markt?

Ne hab ich nicht, aber ich erhoffe mir von der R9 Fury X vieles, deswegen will ich noch warten.
 
PiPaPa schrieb:
Zu Bulldozer usw: AMD 1/10 des Forschungsbudget, 1 Team. Intel min 3 CPU Teams im RD... Nur so als Denkanstoß

Der Bulldozer ist ja jetzt nicht schlampig entwickelt worden, das ganze Konzept ist Mist. Und das hat AMD ganz alleine ohne äußere Einflüsse zu verantworten. Da hätten auch zehnmal so viele $ und Entwickler nichts daran geändert. Genauso wie jetzt diese fragwürdige 300 und Fury Vorstellung. Bin mal gespannt, was sich das AMD Marketing einfallen läßt um zu erklären, dass man im Highend-Segment unbedingt 8GB braucht aber im Superluxus-Segment 4GB ausreichen.
Ist genau so, als wenn VW für das Stadtauto Golf einen Allradantrieb als unbedingt notwendig bewerben würde, aber dann sagen würde, das superluxus SUV, welches nicht nur im 4k Gelände zu Hause sein soll, sondern auch im schwierigem 5k Gebirge, braucht keinen, da tun es einfach ein paar kW mehr.
 
@jbauer

niemand redet davon das man unbedingt 8GB braucht. Es ist einfach nur ein Nice2have! Bei der Fury reichen die 4GB anscheinend ja erstmal aus wenn man sich die bisherigen "Benches" anschaut. Man kann mal stark davon ausgehen das früher oder später eine Fury mit 8GB erscheinen wird.

gruß
 
Fassen wir mal zusammen:

AMD bringt mit der Fury (X) eine Karte, die mindestens gleichauf mit einer TitanX liegt, dabei wesentlich kühler und somit leiser arbeitet (zumindest WCE), immenses Übertaktungspotenzial bietet (die WaKü wurde gewählt, nicht um die Stock-Karte nicht zu heiß werden zu lassen, sondern um eben immense Temperaturreserven für das Übertakten zur Verfügung zu haben), dabei auch noch wesentlich kleiner ist, eine AiO-WaKü (zuminsest WCE) mitbringt, technisch innovativ ist (HBM) und dabei auch noch einige hundert Euros günstiger ist als eine TitanX.

Der einzige Punkt, der sich evtl. nachteilig auswirken könnte, sind die 4GB RAM der Karte, allerdings kann man durch geschicktes bzw. mutwilliges Ändern der Testbedingungen jede Karte an ihre Grenzen treiben, sei es Rohleistung, sei es RAM-Auslastung. 4GB sind Stand 06/2015 mehr als genug (abgesehen von irgendwelchen exotischen Übersettings/-auflösungen) und bis 4k wirklich flächendeckend Einzug in heimische Gefilde hält, ist HBM2 und damit mehr als 4GB (HBM1 ist nunmal technisch bedingt auf max. 4GB begrenzt) doch schon längst serien-/marktreif und auch verfügbar. Der Großteil der Zocker spielt doch auf 1080/1440, die paar Enthisiasten, die am liebsten heute schon in 16k an drölf Monitoren daddeln (wollen), sind ein verschwindend geringer Teil des Marktes, warum sich also an einer Minderheit von 5% orientieren, da bediene ich doch lieber den Markt der restlichen 95% mit einer Karte, die für dieses Klientel geradezu grandios ist (unter Vorbehalt endgültiger Benchmarks natürlich).

Es ist ganz normal, dass technische Innovationen zuerst in den High-End-Produkten eines Herstellers Eintritt in den Markt finden, das ist bei Autoherstellern genau das selbe: BMW/MB/AUDI baut das technisch aktuell machbare zuerst in ihre Luxus/High-End-Produkte (7er/S-Klasse/A8) ein und erst dann werden dann nach und nach die unteren Leistungs-/Produktbereiche damit ausgestattet (wenn überhaupt). Es ist auch nicht verkehrt, dass AMD zuerst Erfahrungen mit HBM1 sammelt, bevor dann HBM2 auf die gesamte Produktpalette übertragen wird (zumindest bis Mid-High-Range).

Des weiteren kann ich das "Rebranding-Gejammere" nicht mehr ertragen. Ein Produkt muss zuerst einmal entwickelt und zur Serienreife gebracht werden, das verschlingt erstmal immense Gelder für Forschung & Entwicklung. Jedes Jahr revolutionäre Entwicklungen im Sinne von "das Rad neu erfinden" auf den Markt werfen, dazu noch zu super-tollen "Geiz-ist-geil-Preisen" ist schlichtweg unmöglich und würde JEDES Unternehmen in kürzester Zeit untergehen lassen. Analog dazu wieder die Automobil-Branche: Alle Hersteller bringen ein neues Modell und meistens schon 1 Jahr später ein Facelift heraus, dabei unterscheidet sich der Facelift meistens nicht fundamental vom Ur-Modell, jedoch werden dabei kleine aber feine Änderungen/Verbesserungen umgesetzt. Und nach spätestens 2 Jahren steht dann das "neue" Modell beim Händler: andere Karosserie - dieselbe (mehr oder weniger verbesserte) Technik des Vorgängers. Da stört sich auch keiner dran, das sind eben die Gesetze des Marktes, das macht nVidia ganz genauso.

Wenn jetzt jemand Pawlow-reflexartig auf den Gedanken kommt, ich wäre ein AMD-Fanboy, den muss ich leider enttäuschen, in meinem Rechner steckt z.Zt. eine Gainward GTX770 4GB... Ich wäre doch schön blöd, mich mit Scheuklappen/Fanbrillen von vorn herein auf einen Hersteller festzunageln, ich schaue mir meinen Bedarf an, danach mögliche Kandidaten, welche diesen Bedarf decken könnten und entscheide mich dann ganz unvoreingenommen für das Produkt, welches meinen Bedürfnissen am besten entspricht, dabei ist es mir völlig egal, ob das Produkt von Hersteller A,B,C oder sogar Z ist.

Es ist für AMD leider sehr schwer gegen diesen großen indoktrinierten Fanboyhaufen an zu kommen, wie man hier im Forum ja deutlich sieht, ist dieser Gruppe mit rationalen Argumenten nicht bei zu kommen, da kann das Produkt (wie jetzt z.B. im Falle der Fury) noch so toll und innovativ sein, man erinnere sich noch an die zeiten, als AMD Karten mit viel VRAM (im Vergleich zu nVidia) auf den Markt gebracht hat, da hieß es aus dem nVidia-Fanboy-Lager sofort "nääääääää, soooo viel VRAM braucht kein Mensch!!!einself!!", jetzt bringt AMD eine Karte mit "wenig" VRAM und sofort wird dies vom nVidia-Lager zum Ausschlusskriterium #1 erklärt.

Ich hätte da einen Vorschlag: Ich löte euch auf eine Tseng ET4000 eine ISA-to-PCIE-Brücke, garniere dies mit 64GB EDO-RAM, (nein, besser gleich 128GB!! für ULTRA-MEGA-ROXOR-HD-TEXTURE-PACKS und 16k) und fertig ist der feuchte Traum eines jeden nVidia-Fanboys (Motto: "Die MUSS ja besser sein, weil die hat ja so viel VRAM!!").

Ihr findet den vorherigen Absatz bescheuert?! Gut, ich nämlich auch!! Allerdings spiegelt dieser bewusst provokativ gehaltene Absatz leider ganz gut die bescheuerte Argumentationsweise vieler User (egal ob AMD/nVidia/intel) wider und sollte viele User mal zum Nachdenken anregen...
 
Ich würde mal gerne wissen wie viele der 4k+ Motzkis denn überhaupt einen entsprechenden Bildschirm besitzen. Bis 4k etabliert ist, werden noch einige Jahre ins Land gehen. Zum einen ist die Verfügbarkeit der Panels noch nicht gewährleistet und zum anderen werden die ganzen Multiplattformtitel nur schlampig für 4k umgesetzt sein. Das Geld verdient man bei den Konsolen und da ist 4k noch nicht einmal ein Streif am Horizont.
 
Wieder einer, der an dem die 980Ti offenbar vorbei gegangen ist. Was bleibt gegen die 980Ti von deiner Argumentation übrig? Die Karte mag gut sein, das war es dann aber auch schon. Kein Game-Changer in Sicht.
 
Das tolle ist das in Shadows of Mordor und anderen Vram Konsortien selbst 6gb nicht ausreichen!!! Und nun?:stock:
 
Haha, da rechtfertigt jemand die "New Era of Rebranding" bis auf das letzte, welche die Entwicklung von Chips ja Jahre benötigen. Kennt wohl Moore's Law nicht. :evillol:

AMD verwurstelt hier 20 bis 36 Monate alte Chips in einer neuen Produktlinie. Davon kann keiner HDMI 2.0, unterstützt nicht das Feature Level 12_1 sowie Tiled Ressources tier 3 und zwei können nicht mal FL12_0, Freesync sowie VSR.
Dinge, die die Konkurrenz seit 9 Monate liefert. Und gegenüber der GTX960 fehlt auch ein neuzeitlicher Video-Dekoder.

Es gibt überhaupt kein Fortschritt nach 20 Monate zu Hawaii. Keinen. Und das wird hier als gut verkauft. Wozu überhaupt neue Karte entwickeln, wenn man das alte Zeug doch unendlich um labeln kann.

Am Ende verliert der Kunde, da der fortschrittlichere Konkurrent einfach nicht unter Druck gesetzt wird. 450€ für altes Zeug, wenn eine GTX980 50€ mehr kostet? Viel Glück damit.
 
Moors law is dead und wird sich wie jedes andere System auf dem Planeten auch in einer e-Funktion asymptodisch dem Stillstand annähern. Werde dir dem bewusst Sontin!
 
Zuletzt bearbeitet:
ampre schrieb:
Das tolle ist das in Shadows of Mordor und anderen Vram Konsortien selbst 6gb nicht ausreichen!!! Und nun?:stock:

Die Frage ist: Was treibt Shadows of Mordor damit? Ist das notwendig? Die Frage wurde auch schon im Test von CB gestellt.

So belegt die GeForce GTX Titan X in Assassin's Creed Unity 4.281 MB – ob dies schlussendlich wirklich notwendig ist, ist eine andere Frage.[...]Auch die AMD-Karten belegen in Assassin's Creed Unity maximal 3,5 Gigabyte und werfen Daten wieder aus dem Speicher, obwohl dies gar nicht nötig wäre.[...]Noch einen drauf setzt Mittelerde: Mordors Schatten, was bekannt dafür ist, so viel Speicher zu belegen wie möglich. Die GeForce GTX Titan X kommt auf 6.076 MB, während die restlichen Grafikkarten so viel belegen, wie vorhanden ist.

Quelle: https://www.computerbase.de/2015-05...leich/3/#diagramm-speicherverbrauch-3840-2160


Bleibt am Ende die Frage: Hat das Einfluss auf die Performance oder eben nicht? Wenn man sich die Performance-Werte aus dem Test ansieht, dann hat das scheinbar keinen großen Einfluss bzw. es kommt auf das einzelne Spiel an, wenn man den 4GB vs 8GB R290x Test dazu nimmt.

Allerdings gilt es anzumerken: Die Mehrleistung ist nur in zwei Spielen relevant. Grid 2 liefert auf der 8-GB-Hardware noch sehr gut spielbare 52 FPS und stottert in der 4-GB-Version mit nur noch zwölf FPS. Und in Company of Heroes 2 endet das Duell mit 3,6 FPS zu halbwegs spielbaren 28,5 FPS. In allen anderen Spielen sind entweder beide Grafikkarten zu langsam, oder ausreichend schnell genug. Ein Blick in die Einzelergebnisse lohnt sich.

Quelle: https://www.computerbase.de/2014-05...b-test/3/#diagramm-metro-last-light-3840-2160


Von daher: Tests abwarten, dann wissen wir mehr.
 
Sontin schrieb:
Haha, da rechtfertigt jemand die "New Era of Rebranding" bis auf das letzte, welche die Entwicklung von Chips ja Jahre benötigen. Kennt wohl Moore's Law nicht. :evillol:

Morre's law kannste mittlerweile vergessen. Die Hardware Limits der bisherigen Werkstoffe sind erreicht (Takt stagniert, Leckströme). Parallelisierung kann das nicht beliebig kompensieren. An GPUs sieht man was passiert, wenn man gnadenlos parallelisiert. Die Leistungsaufnahme von Grafikkarten ist unfassbar explodiert in den letzten 10 Jahren.

Zudem ist EUV Lithographie aufgrund der Absorption viel teurer und ungleich aufwändiger als bisherige Techniken. Wenn ich mir überlege was meine ehemaligen Kollegen, die an EUV geforscht haben immer für einen Aufstand gemacht haben wegen einem Experiment, da könnte ich noch heute schmunzeln. Während ich einfach die Kaffeetasse abgestellt hab und im Reinraum fröhlich Rumknallen konnte.
 
ampre schrieb:
Nun ja, 4GB nVidia != 4GB AMD bei den Grafikkarten. Wobei das auch nun etwas überholt sein könnte. Wenn man früher mal etwas sich umgeschaut hat und die Tests verfolgte, zeigte sich, dass ATI mit dem vRAM wesentlich besser umgeht und so etwas weniger benötigt als nVidia.

Das kann sich jedoch geändert haben.

Sontin schrieb:
Vor weg, ich will das Rebranding nicht rechtfertigen in dem Sinne. Jedoch habe ich durchaus Verständnis dafür:

AMD hat nicht mehr das Geld, um eine Forschung wie noch vor 3, 4 oder 5 Jahren zu fahren, sondern begrenzte Kapazitäten. Sie haben mit dem Bulldozer-Design im Endeffekt sich vollständig verkalkuliert und hatten Anfangs eine durchaus interessante Architektur - wenn man 2011 einigen Tests im Server-Bereich beachtet.

Im Endkunden- und Büro-Markt ist die Architektur jedoch grundlegend ein Griff ins Klo gewesen. Man sieht ja, dass die Intel-Prozessoren pro Watt besser sind und allgemein bessere Preformance. Also sind sie nun in den letzten 4 Jahren auf dem absteigenden Ast gewesen. Geld fehlt und die wenigen Ressourcen die sie haben, müssen sie aktuell bündeln.

Das Rebranding ist davon ein Nebeneffekt und AMD muss nun hoffen, dass sie mit der nun erfolgten Entwicklung wieder Fuß fassen. Ebenso nächstens Jahr mit Zen. Wenn sie damit im Endkunden und dem Markt für "Büromaschinen" wieder besser dastehen und sich dort Anteile sichern können, könnten sie auch weitere Entwicklungen angehen.

Als weiteren Nebeneffekt könnte sich wohl auch der HBM-Speicher herausstellen. Dieser ist aktuell noch sehr Limitiert. 1GB pro Stack mit 1024Bit-Interface. Dazu kommt, dass er vermutlich noch recht teuer ist. Vermutlich haben sie die Resourcen auf den neuen Fiji-Chip gelegt und können in diesen nicht einfach ein GDDR5 oder DDR3-Speicher-Interface einsetzten. Sobald HBM flexibler und günstiger wird, könnte sich es auch ändern und sie können die Architektur auch für kleinere Modelle umsetzten und anpassen.

Es wird sich nun zeigen, ob AMD mit den neuen FIJIs im Spielermarkt als auch im Profimarkt wieder mehr Fuß fassen kann. Die Zeit wird nämlich wirklich knapp.
 
Relaxo32 schrieb:
Bleibt am Ende die Frage: Hat das Einfluss auf die Performance oder eben nicht? Wenn man sich die Performance-Werte aus dem Test ansieht, dann hat das scheinbar keinen großen Einfluss bzw. es kommt auf das einzelne Spiel an, wenn man den 4GB vs 8GB R290x Test dazu nimmt.

Quelle: https://www.computerbase.de/2014-05...b-test/3/#diagramm-metro-last-light-3840-2160

Der Test zeigt doch schon ziemlich deutlich das bei 4k mit Hohen Details und AA etc. 4GB deutlich an ihre Grenzen kommen? oO
Immerhin wird hier teilweise nicht mal auf vollen Details bzw. höchsten AA Leveln agiert da die Karte schlicht zu schwach ist.
Bei der Karte mag es vielleicht nicht viel Sinn haben die 8GB Version zu nehmen aber Fury und Titan/980Ti haben ja deutlich mehr Grundleistung.

Und hey wer bitte kauft sich solche Karten um damit auf 1080p zu zocken, also ich finde es von AMD zwar schön mal neue Technik einzusetzen aber hier definitiv aufs falsche Pferd gesetzt zu haben.
Bin sehr gespannt auf die ersten 4k Tests und ganz besonders unter richtiger Volllast am besten noch als SLI/CrossFire Gespann, da wird die Luft vermutlich ziemlich dünn für die Fury.
 
Sontin schrieb:
Haha, da rechtfertigt jemand die "New Era of Rebranding" bis auf das letzte, welche die Entwicklung von Chips ja Jahre benötigen. Kennt wohl Moore's Law nicht. :evillol:

AMD verwurstelt hier 20 bis 36 Monate alte Chips in einer neuen Produktlinie. Davon kann keiner HDMI 2.0, unterstützt nicht das Feature Level 12_1 sowie Tiled Ressources tier 3 und zwei können nicht mal FL12_0, Freesync sowie VSR.
Dinge, die die Konkurrenz seit 9 Monate liefert. Und gegenüber der GTX960 fehlt auch ein neuzeitlicher Video-Dekoder.

Es gibt überhaupt kein Fortschritt nach 20 Monate zu Hawaii. Keinen. Und das wird hier als gut verkauft. Wozu überhaupt neue Karte entwickeln, wenn man das alte Zeug doch unendlich um labeln kann.

Am Ende verliert der Kunde, da der fortschrittlichere Konkurrent einfach nicht unter Druck gesetzt wird. 450€ für altes Zeug, wenn eine GTX980 50€ mehr kostet? Viel Glück damit.

warte erst mal tests ab, fanboy...

man mag von der Karte halten was man will, aber Mantle und HBM sind zb positive Entwicklungen, während NVIDIA in der Zeit 3,5 mit 4 verwechselt und nicht mal das als Fehler sondern tolles hyper krasses Feature darstellt. Oder damals dx 10(?) wurde auch hart verschwiegen das nvidia da nichts leisten kann. Man sollte erstmal Tests abwarten, denn wenn ein "20 bis 36 Monate" alter Chip mit deiner tollen Nvidia gleichziehen könnte spricht das auch nicht gerade für Nvidia
 
Zurück
Oben