News Flaggschiff: AMD zeigt Dual-Fiji-Grafiklösung zur E3 2015

Kasmopaya schrieb:

Ich weiss was du zu sagen versuchst. Aber bedenk doch bitte. Fiji ist nichts anderes als die jetztige GCN Karten bloss aufgeblasen (grob gesagt...).
Meinst du AMD wird die Architektur nicht optimieren können? Du setzt viel zu viel auf Pascal und wirst blind dabei.

Zudem sind die AMD Karten so schon unglaublich effizient. Nur halt unpassend für Spiele. Ich schätze AMD wird 2-gleisig fahren müssen, um bei den Spielen mithalten zu können. Aber im HPC Markt? Deutlich effizienter als die Nvidialösungen. Und das zählt mMn.
Nvidia fährt mit Maxwell schon etwas länger 2-gleisig. Meinste AMD kriegt das nicht auch hin? ;)
 
Zuletzt bearbeitet:
Pascal wird Kasmo sich auch nicht kaufen, mit maximal 32GB geht seine Rechnung nicht auf, zugeschlagen wird erst bei 48GB! :king:
 
Jetzt müssen sie ja erstmal Big Maxwell schlagen, das ist ja noch noch sicher, wir reden hier über ungelegte Eier. Erstmal abwarten ob sie Big Maxwell knacken, denn wenn nicht, dann schaffen sie Pascal auch nicht, das traue ich mich wetten. Da Big Maxwell noch mit ineffizienten GDDR 5(vorne und hinten alles vollgeklatscht mit dem Zeug) rum rennt und im Referenz Design ineffizient mit 85 Grad vor sich hinkocht.

Pascal wird Kasmo sich auch nicht kaufen, mit maximal 32GB geht seine Rechnung nicht auf, zugeschlagen wird erst bei 48GB!
So schauts aus, Kasmo kauft erst wieder bei Big Volta 48GB und überspringt Pascal einfach mal komplett. :D
 
Sind 48GB mit HBM eigentlich machbar? Bisher las ich nur von 2,4,8,16 und 32, dann müsste 64 kommen. :freaky:
Oder Kasmo nimmt den beschnittenen Big-Chip mit dem neuartigen Vram-Feature. :p
Aber eigentlich nimmt er auch nie was beschnittenes in die Hand... eine Zwickmühle!

Warum rede ich in der 3. Person? :Freak:

Ich will endlich Benchmarks zu Fiji sehen. :eek:
 
BiA Master schrieb:
Ich will endlich Benchmarks zu Fiji sehen. :eek:

Gibts schon geleakte, zumindest FireStrike :D
Bis inkl. 4k ist die Fury X schneller als die 980ti und die TitanX,
ab 5k überwiegt Nvidia, ab 8k liegt selbst die 390X vor Fiji.
D.h. kurz und bündig geht der Karte ab 5k der Speicher aus, im Vergleich zur Konkurrenz natürlich. Ob das dann aber auf beiden Seiten noch spielbare Framerates sind, das weiß nur die allmächtige Glaskugel.

Schade, ich wollte gerne via Projektor mal auf meiner Hauswand zocken, von Außen versteht sich. Ist ja Sommer.

mfg,
Max
 
max_1234 schrieb:
Ob das wirklich "ausschließlich" an den 2GB mehr VRAM liegt?

Denke ich nicht. Sonst müsste der Abstand zwischen 980 Ti und Fiji in 8K deutlich größer sein. Aber die liegen ja sehr eng zusammen. Während 390X beide um das 3x schlägt.
 
Sind 48GB mit HBM eigentlich machbar? Bisher las ich nur von 2,4,8,16 und 32, dann müsste 64 kommen.
Das ist kein Problem ich nehm auch 64GB wenns sein muss. Aber in 4 Jahren nicht weniger als 48GB. ;)

D.h. kurz und bündig geht der Karte ab 5k der Speicher aus, im Vergleich zur Konkurrenz natürlich. Ob das dann aber auf beiden Seiten noch spielbare Framerates sind, das weiß nur die allmächtige Glaskugel.
Lächerlich, du nimmst jetzt nicht wirklich einen Vram schonenden Benchmark als Referenz für die Vram Fresser die auf uns zurollen. Typischer Anfänger Fehler.
 
max_1234 schrieb:
4x ner 390X 8GB flüssig spielen lassen.


Ab einer 4. Karte skaliert CF doch nicht mehr, oder wurde das in der Zwischenzeit behoben?
 
48gb Vram in 4 Jahren? Ja ne ist klar und die 1TB großen Spiele dafür laden wir uns dann alle immernoch über 16k ADSL :lol:

Ne mal in ernst, irgendwann wird es zu einer deutlichen Verlangsamung kommen, so ähnlich wie wir es bereits bei RAM Größen und CPU's Kernen sehen.

Wir gurken schon seit 2007 auf 4 Kern CPU's und 8gb Ram rum. Warum? Weil zur Zeit nicht mehr benötigen und die Entwicklung wird durch andere Einflüsse gebremst.

Ich denke aber mal so 8gb wird über die nächsten 4 Jahren zum Standard werden. Bis zur nächsten Konsolengeneration werden aber noch locker 4GB reichen für 1080p.

Der nächste große Sprung kommt erst wenn sich 4k UHD im Heimanwender und TV, Medien Bereich durch gesetzt haben.
 
Zuletzt bearbeitet:
Fassen wir mal zusammen:

AMD bringt mit der Fury (X) eine Karte, die mindestens gleichauf mit einer TitanX liegt, dabei wesentlich kühler und somit leiser arbeitet (zumindest WCE), immenses Übertaktungspotenzial bietet (die WaKü wurde gewählt, nicht um die Stock-Karte nicht zu heiß werden zu lassen, sondern um eben immense Temperaturreserven für das Übertakten zur Verfügung zu haben), dabei auch noch wesentlich kleiner ist, eine AiO-WaKü (zuminsest WCE) mitbringt, technisch innovativ ist (HBM) und dabei auch noch einige hundert Euros günstiger ist als eine TitanX.

Der einzige Punkt, der sich evtl. nachteilig auswirken könnte, sind die 4GB RAM der Karte, allerdings kann man durch geschicktes bzw. mutwilliges Ändern der Testbedingungen jede Karte an ihre Grenzen treiben, sei es Rohleistung, sei es RAM-Auslastung. 4GB sind Stand 06/2015 mehr als genug (abgesehen von irgendwelchen exotischen Übersettings/-auflösungen) und bis 4k wirklich flächendeckend Einzug in heimische Gefilde hält, ist HBM2 und damit mehr als 4GB (HBM1 ist nunmal technisch bedingt auf max. 4GB begrenzt) doch schon längst serien-/marktreif und auch verfügbar. Der Großteil der Zocker spielt doch auf 1080/1440, die paar Enthisiasten, die am liebsten heute schon in 16k an drölf Monitoren daddeln (wollen), sind ein verschwindend geringer Teil des Marktes, warum sich also an einer Minderheit von 5% orientieren, da bediene ich doch lieber den Markt der restlichen 95% mit einer Karte, die für dieses Klientel geradezu grandios ist (unter Vorbehalt endgültiger Benchmarks natürlich).

Es ist ganz normal, dass technische Innovationen zuerst in den High-End-Produkten eines Herstellers Eintritt in den Markt finden, das ist bei Autoherstellern genau das selbe: BMW/MB/AUDI baut das technisch aktuell machbare zuerst in ihre Luxus/High-End-Produkte (7er/S-Klasse/A8) ein und erst dann werden dann nach und nach die unteren Leistungs-/Produktbereiche damit ausgestattet (wenn überhaupt). Es ist auch nicht verkehrt, dass AMD zuerst Erfahrungen mit HBM1 sammelt, bevor dann HBM2 auf die gesamte Produktpalette übertragen wird (zumindest bis Mid-High-Range).

Des weiteren kann ich das "Rebranding-Gejammere" nicht mehr ertragen. Ein Produkt muss zuerst einmal entwickelt und zur Serienreife gebracht werden, das verschlingt erstmal immense Gelder für Forschung & Entwicklung. Jedes Jahr revolutionäre Entwicklungen im Sinne von "das Rad neu erfinden" auf den Markt werfen, dazu noch zu super-tollen "Geiz-ist-geil-Preisen" ist schlichtweg unmöglich und würde JEDES Unternehmen in kürzester Zeit untergehen lassen. Analog dazu wieder die Automobil-Branche: Alle Hersteller bringen ein neues Modell und meistens schon 1 Jahr später ein Facelift heraus, dabei unterscheidet sich der Facelift meistens nicht fundamental vom Ur-Modell, jedoch werden dabei kleine aber feine Änderungen/Verbesserungen umgesetzt. Und nach spätestens 2 Jahren steht dann das "neue" Modell beim Händler: andere Karosserie - dieselbe (mehr oder weniger verbesserte) Technik des Vorgängers. Da stört sich auch keiner dran, das sind eben die Gesetze des Marktes, das macht nVidia ganz genauso.

Wenn jetzt jemand Pawlow-reflexartig auf den Gedanken kommt, ich wäre ein AMD-Fanboy, den muss ich leider enttäuschen, in meinem Rechner steckt z.Zt. eine Gainward GTX770 4GB... Ich wäre doch schön blöd, mich mit Scheuklappen/Fanbrillen von vorn herein auf einen Hersteller festzunageln, ich schaue mir meinen Bedarf an, danach mögliche Kandidaten, welche diesen Bedarf decken könnten und entscheide mich dann ganz unvoreingenommen für das Produkt, welches meinen Bedürfnissen am besten entspricht, dabei ist es mir völlig egal, ob das Produkt von Hersteller A,B,C oder sogar Z ist.

Es ist für AMD leider sehr schwer gegen diesen großen indoktrinierten Fanboyhaufen an zu kommen, wie man hier im Forum ja deutlich sieht, ist dieser Gruppe mit rationalen Argumenten nicht bei zu kommen, da kann das Produkt (wie jetzt z.B. im Falle der Fury) noch so toll und innovativ sein, man erinnere sich noch an die zeiten, als AMD Karten mit viel VRAM (im Vergleich zu nVidia) auf den Markt gebracht hat, da hieß es aus dem nVidia-Fanboy-Lager sofort "nääääääää, soooo viel VRAM braucht kein Mensch!!!einself!!", jetzt bringt AMD eine Karte mit "wenig" VRAM und sofort wird dies vom nVidia-Lager zum Ausschlusskriterium #1 erklärt.

Ich hätte da einen Vorschlag: Ich löte euch auf eine Tseng ET4000 eine ISA-to-PCIE-Brücke, garniere dies mit 64GB EDO-RAM, (nein, besser gleich 128GB!! für ULTRA-MEGA-ROXOR-HD-TEXTURE-PACKS und 16k) und fertig ist der feuchte Traum eines jeden nVidia-Fanboys (Motto: "Die MUSS ja besser sein, weil die hat ja so viel VRAM!!").

Ihr findet den vorherigen Absatz bescheuert?! Gut, ich nämlich auch!! Allerdings spiegelt dieser bewusst provokativ gehaltene Absatz leider ganz gut die bescheuerte Argumentationsweise vieler User (egal ob AMD/nVidia/intel) wider und sollte viele User mal zum Nachdenken anregen...
 
Schnixus schrieb:
Fassen wir mal zusammen:

...Der einzige Punkt, der sich evtl. nachteilig auswirken könnte, sind die 4GB RAM der Karte, allerdings kann man durch geschicktes bzw. mutwilliges Ändern der Testbedingungen jede Karte an ihre Grenzen treiben, sei es Rohleistung, sei es RAM-Auslastung. 4GB sind Stand 06/2015 mehr als genug (abgesehen von irgendwelchen exotischen Übersettings/-auflösungen) und bis 4k wirklich flächendeckend Einzug in heimische Gefilde hält, ist HBM2 und damit mehr als 4GB (HBM1 ist nunmal technisch bedingt auf max. 4GB begrenzt) doch schon längst serien-/marktreif und auch verfügbar....

Im Großen und Ganzen könnte man zustimmen, dem zitierten Absatz jedoch nicht. Der Test mit der 980TI der aktuellen PCGH wurde ebenfalls im Vergleich mit der 980 gemacht inklusive Frametimeverläufe. Und auf die kommts an, nicht die nackten fps.
4GB sind selbst bei dieser Karte schon in manchen Situationen zu wenig. Die Fury X liegt in der Leistung nachvollziehbar darüber und dürfte in mehr als einem Spiel Probleme haben, wenn man Settings nutzt, die für eine 730€ Karte zu erwarten sind. Da redet man nämlich nicht von 08/15 FHD daddeln, sondern mindestens 1440p und Ultra-Settings. Anderenfalls wäre es völlig schwachsinnig, diese Karte sich zuzulegen, nur um dann über v-sync 100+fps in den Wind zu schießen.

In meinen Augen ist die Fury X erst mit 8GB ab Herbst diesen Jahres vernünftig an den Mann zu bringen. Der Pawlowsche Effekt tritt eher bei anderen auf, wenn ich mir die jeweiligen Foren bei CB oder PCGH durchlese... (ja, dieser ist mir bekannt, hab auch Marketing studiert ;))
 
AMD bringt mit der Fury (X) eine Karte, die mindestens gleichauf mit einer TitanX liegt, dabei wesentlich kühler und somit leiser arbeitet (zumindest WCE), immenses Übertaktungspotenzial bietet (die WaKü wurde gewählt, nicht um die Stock-Karte nicht zu heiß werden zu lassen, sondern um eben immense Temperaturreserven für das Übertakten zur Verfügung zu haben), dabei auch noch wesentlich kleiner ist, eine AiO-WaKü (zuminsest WCE) mitbringt, technisch innovativ ist (HBM) und dabei auch noch einige hundert Euros günstiger ist als eine TitanX.

Die Fury X wurde noch nirgends wirklich ausgiebig getestet, diese Aussagen sind also für die virtuelle Mülltonne.
 
ich bin gespannt wie sie die Hitze abführen, besonders bei der Nano-Karte.


hat jemand die Liveshow gesehen? sie ging nach ihrem Auftritt hinter die Bühne aber ihr Mikro war noch angeschaltet und man hat gehört "We got it done" :) ist ja auch gut gelaufen die Präsentation. Auch wenn nicht 100% flüssig ;)
 
Zuletzt bearbeitet: (j)
D3Spieler schrieb:
Die Fury X wurde noch nirgends wirklich ausgiebig getestet, diese Aussagen sind also für die virtuelle Mülltonne.

Anders herum wird ein Schuh daraus: Auf Grund welcher Tests maßen sich den die ganzen nVidia-Fanboys an, die Karte jetzt schon als Müll bzw. Enttäuschung zu zerreißen?!
Ergänzung ()

Anders herum wird ein Schuh daraus: Auf Grund welcher Tests maßen sich denn die ganzen nVidia-Fanboys an, die Karte jetzt schon als Müll bzw. Enttäuschung zu zerreißen?!
 
Die PCB sieht ja verdammt kurz aus.
Wieso dann nicht gleich eine "normale" Länge (30-35cm) und dann 3 Chips, oder noch länger und 4 GPU´s wie bei der Voodoo :evillol:
Hätte doch mal wieder was, vorallem als Singleslot Design mit Wasserkühler (siehe Asus Ares 3)
 
Zurück
Oben