News AMD Fiji: Gezeigt zur Computex, vorgestellt zur E3

Ich hab noch nicht geschaut wie viel VRAM ein FFXIV Heavensward mit Downsampling brauchen wird... meine jetzige Karte würde das eh nicht packen ;-) die 7970GHz ruckelt schon bei FullHD etwas rum :-(

Außerdem werden ganz sicher nicht ab morgen nur noch DX12 Games kommen... und die meisten Spiele sind eben jetzt schon am 4 GB Limit. Wenn dann in nem halben Jahr eines kommt das mehr braucht kuckt man dumm aus der Wäsche... denn man hat viel Geld ausgegeben und dann geht trotzdem kein Full-Detail.

Zumindest mir wäre das zu knapp bemessen.
 
max_1234 schrieb:
Gehts noch oder brauchst du noch ne Tasche dazu?!
-> Bitcoin Mining? AMD hat alleine hierdurch in den ersten Wochen hundertausende Karten abgesetzt.
Das war auch der Grund schlechthin, wieso so viele Referenzmodelle auf den Markt geworfen werden mussten, da alle Margen der 290/290X sofort vergriffen waren!

Offensichtlich hast du überhaupt keine Ahnung, wovon du redest. Als die 290 erschien hat schon lange keiner mehr mit GPUs Bitcoins ge-mined, sondern mit FPGAs und ASICs.

max_1234 schrieb:
Nvidia Karten waren/sind für BTC Mining absolut unbrauchbar, da nicht genügend Computing Leistung bzw. fehlender Featuresets.

Eine GTX 750ti versägt jede 290 beim Minen von X11 Coins. Bei einem Bruchteil des Stromverbrauchs. Scheint also genügend Computing Leistung vorhanden zu sein.
 
Die einzige GPU die Probleme haben wird mit 4 GB ist die GTX 970. Solange die Konsolen nicht mehr Speicher nutzen ist das der Punkt auf den die Entwickler optimieren. Das sind die GPUs mit denen die jetzt arbeiten.

Davon ist weder die GTX980 noch die R9 290X betroffen. Künftige Spiele haben ein völlig anderes Rendermodell...z.B. Wird die Bildqualität durch Postprocessing deutlich Ressourcensparender mit den ACEs.

HBM wird deutlich später in ein RAM Limit laufen alleine wegen der nicht mehr nötigen gleichzeitigen Refreshzyklen des Gesamten Speichers. Wir werden ja sehen wie sich die Karten mit identischer RAM Größe im Speicherlimit verhalten.
 
Auf den Konsolen hat man aber auch nur FullHD. So ein DualGPU Monster holt man sich aber für höhere Auflösungen und/oder Downsampling. Das kostet auch nochmal Speicher. Davon abgesehen können PC Spiele trotzdem noch bessere Texturen erhalten und nicht alles wird auf Konsolen entwickelt (Star Citizen ist hier wohl trotzdem eher ein schlechtes Beispiel da davon auszugehen ist das es DX12 und/oder Vulkan Support bekommen wird). Für mich kann es halt auch nicht genug Texturqualität sein... diesen quasi texturfreien pseudo-Comiclook den viele Spiele mittlerweile leider haben kann ich irgendwie nix abgewinnen.
 
Ich weiss immer noch nicht was dich stört. Eine Dual-GPU mit HBM auf einem Interposer kann gemeinsam auf einen gemeinsamen Speicher zugreifen. HBM kann pro 128-bit Speichercontroller unterschiedlich getaktet werden und somit auch dynamisch auf die beiden GPUs verteilt werden, je nach dem welchen Modus das Crossfire nutzt. Es gibt mit HBM keine 2x4GB, sondern lediglich 8GB, da alle identisch angebunden sind am selben gemeinsamen Speichercontroller. Diese Technik nennt sich hUMA und wird bei Kaveri-APUs auch genutzt um mit der GPU und CPU auf gemeinsamen Speicher zuzugreifen.

Software dafür wird komen nachdem die Hardware auf dem Markt ist und ist jetzt noch nchit verfügbar. Also....wo ist dein Problem mit der Kaufentscheidung? Kauf jetzt was für aktuelle Dx11-Spiele oder warte auf die Hardware und Software die du dir wünschst. Aber welche Hardware der Zukunft macht die Software von Gestern besser?
 
Krautmaster schrieb:
Maxwell gewinnt vor allem durch die schnelleren Schaltzeiten zwingen verschiedenen Lastzuständen.

Sorry, da kann ich mir vieles aber auch gar nichts drunter vorstellen. Kannst Du es noch etwas ausführlicher darstellen? Oder hat vllt. Anandtech mal drüber berichtet (ich möchte jetzt jedoch nicht alle Maxwell-Testberichte selbst durchsuchen...)?


Krautmaster schrieb:
Ich denke das Stutzen von den GPU Features sparte aber auch keinen unerheblichen Teil an Transistoren ein (sind ja nur 12% mehr als GK110).

Gut, das reduziert die Wärmeentwicklung, da weniger Transistoren auch weniger Wärme erzeugen. Ich meinte jedoch eigentlich die Mehrperformance bei Maxwell. Wo kommst die her gg. Kepler & AMD?
 
Daedal schrieb:
Aber welche Hardware der Zukunft macht die Software von Gestern besser?

Eine mit genügend Rohleistung und VRAM für Texturemods und Downsampling? Die Rohleistung ist wohl da, aber (für DX11 nutzbare) 4GB sind zu wenig. Einfach alle DX11 Titel die mehr VRAM brauchen zu ignorieren oder mit schlechterer Qualität zu zocken ist keine Alternative wenn ich so viel Geld in eine Grafikkarte stecke. (wobei es realistisch gesehen bei mir eh nur eine Single-Chip Karte mit 8GB werden wird... das ganze ist also eher theoretischer Natur ;-) aber ich denke mal das andere vor der selben Problematik stehen wenn sie sich überlegen ob sie sich so eine Karte kaufen sollen)
 
Niemand ignoriert irgendwas. Es wird ja jetzt zukünftig nicht weniger RAM verbaut oder eine schlechtere Leistung für DX11 Titel erwartet.
8 GB kommt doch, also woher die Zahnschmerzen?
 
Aktuell würde wohl sogar eine günstige gtx960 mit 4GB Sinn machen, zumindest in 1080p.

Beste Preisleistung gibts bei der r9 290 non X ab 260 Euro.
 
Vendetta schrieb:
gtx960 mit 4GB Sinn machen, zumindest in 1080p. [...] r9 290 non X ab 260 Euro.

AMD hat(te) bisher das beste Preis-/Leistungsverhältnis. Mit den Spielebeigaben sind die Nvidias sehr interessant. Egal für welches Lager man sich entscheidet, Asus hat gerade eine interessante Cashback-Aktion am laufen -> Link
 
Die kommen rein aus der Diskussion um die Dual-Karte mit 4GB pro Chip und meiner Meinung das eine solche Karte in der Übergangszeit in der die meisten Spiele noch DX11 haben werden eher ungünstig sein wird (eben weil durch zu wenig VRAM limitiert)
 
Ich glaube ehrlich gesagt noch nicht daran, dass die 395X2 (dual Chip) nur mit 8GB insgesamt kommt.

Was sollte das auch für einen Sinn ergeben, wenn die 390X (relativ sicher) schon mit 8GB kommt, hUMA hin oder her.

Ich vermute wenn überhaupt eine 8GB dual chip Karte zusätzlich zur regulären 16GB Variante, aber nicht nur 8GB für alle. Dafür ist DX12 und das neue Speichermanagement noch zu weit in der Zukunft.
 
Zuletzt bearbeitet:
Daedal schrieb:
...
Was damals Maxwell war ist heute Pascal..ja ...ich weiss gar nicht ob ich darüber lachen soll oder dich eher bedauern soll für deine Fähigkeit Dinge schön zu reden. Würde mich doch sehr wundern, wenn Pascal nun in 20nm kommen sollte. 16nm sind hier angekündigt.

Volta wurde ja komplett gestrichen und steht wieder auf nach Pascal...*hüstel* Jetzt werden schon die internen Codenamen rebrandet für die Foren Fanboys.....

genau, Maxwell kam mindestens 1 Jahr zu spät, eher fast 2. Und überleg mal wieviel zu spät die Nachfolge Fertigung von 28nm kam. Selbst 28nm war schon zu spät.

Es ist doch recht klar wie es gelaufen ist. Keplers Tesla Chip GK110 kam schon verspätet. Auch der nächste Shrink hat Jahre auf sich warten lassen. Das übliche Tick Tock ging nicht mehr auf. Es brauchte noch eine Zischengeneration - eine Überarbeitung des GK110 in selber 28nm Fertigung um diese für etwa 12-24 Monate zu strecken.
Das ist das was du heute als GM200 siehst. Maxwell, für Consumer. Deswegen taucht in der 2014er Roadmap auch nur noch DX12 als Maxwell Feature auf.

Offensichtlich hat Nvidia "Pascal" als neue Generation eingesetzt da Maxwell aufgerückt war und auch in 28nm kommen musste (ohne Computing Ableger).

nvidia_kepler_maxwell_roadmap.jpg


OldRoadmap_575px.jpg


PascalRoadmap_575px.jpg



Zusammenfassend war es bei Nvidia logischerweise immer nur in jeweilige Fertigungszyklen eingeplant. Ein Full FAT Chip pro Fertigung. Und jeweils einen Computing Ableger davon.

Maxwell ist einfach "aufgerutscht"da noch dieser Ziwschenschritt in 28nm nötig war. Dass nach dem GK110 in 28nm kein weiterer Monster ComputingChip kam ist logisch und TSMC geschuldet.
In der ältesten Roadmap gibt es nur Maxwell als "Future Chip" und da ist er ganz klar als Computing Chip in kleinerer Fertigung wie Kepler geplant.

Bei der Zweiten Roadmap von 2013 kam Volta hinzu. Da wurde HBM absehbar. In welcher Fertigung der kommen sollte weiß keiner. Logisch wären der Roadmap nach Maxwell 20nm und Volta 16nm, alles andere wäre nicht realistisch bezüglich der Leistungs & Effizienzsteigerung.

Vergleicht man mit der neusten Roadmap sieht man doch klar dass Maxwell einfach aufgerutscht ist weil man noch nen 28nm Chip brauchte, den GM200.

Volta wurde ja komplett gestrichen und steht wieder auf nach Pascal...*hüstel* Jetzt werden schon die internen Codenamen rebrandet für die Foren Fanboys.....
Volta wurde doch nicht gestrichen, kommt aber nach Pascal.
Was vorher Volta war wurde Pascal. (Siehe auch Stacked DRAM als Feature in der 2013er Roadmap)

Beweis:
nvidia-pascal-roadmap-gpu.JPG


Vorher wars eben

Fermi 40nm
Kepler 28nm
Maxwell 20nm
Volta 16nm

und nun

Fermi 40nm
Kepler 28nm
Maxwell 28nm
Pascal vermutlich schon 16nm
Volta >10nm

Welcher Chip da wie heißt is eig vollkommen wayne. Die Fertigung gibt vor. Genauso wird man nicht mehr wie einst mit dem full fat Chip in neuer Fertigung gleich in die Vollen gehen sondern wie bei GK204 in 28nm erstmal kleinere Ableger als "High End" verkaufen. Sofern das die Konkurrenz zulässt.
 
Zuletzt bearbeitet:
Nein Volta wurde nicht gestrichen. Nur die gesamte GPU Generation die so hies in die Tonne getreten. Daher kann man den Namen Volta ja auch gerne in 5-6 Jahren wieder verwenden. Der Punkt bei der Namensschieberei? Es fehlt eine Generation im Gegensatz zu AMDs Produktzyklus seit Evergreen und 6 Monate verspätet Nvidias Fermi in 40nm.

Na die Kommentare würde ich gern mal lesen wenn AMD solche Roadmaps raus geben würde - dann lieber keine.
 
:P

Naja. AMD = eine Generation vorraus ist relativ. Hätte AMD einen 550mm² Chip in 28nm released als GK110 kam hätten se sicher nicht Fiji in jetziger Form nachgeschoben. Bei AMD ist es im Prinzip genau dasselbe, kein bisschen anders (außer dass man nun in 28nm meint schon HBM verwenden zu müssen). Wirkliche Vorteile hatte AMD nie von diesem "Vorsprung". Vielleicht ändert das HBM.

Speicher ist das eine, maßgeblich werden aber beide durch TSMC ausgebremst stand heute.

Edit:
Was siehst du denn alles als "AMD Generation"? Seit Evergreen zb
 
Faust2011 schrieb:
Sorry, da kann ich mir vieles aber auch gar nichts drunter vorstellen. Kannst Du es noch etwas ausführlicher darstellen? Oder hat vllt. Anandtech mal drüber berichtet (ich möchte jetzt jedoch nicht alle Maxwell-Testberichte selbst durchsuchen...)?

Der Testbericht bei Tomshardware ist das was du suchst ;)
link
Besonders interessant dabei ist, dass eine 980 auch mal 280 Watt zieht (!), wenn man sie von der Leine lässt und ihr was zu tun gibt (computing). Maxwell ist also hauptsächlich Spielen so effizient. Ich erwarte daher auch, dass unter DX12 oder Vulkan zusammen mit der Leistung auch die Leistungsaufnahme nochmal steigt, wenn das PT entsprechend eingestellt ist.
 
@eruanno

Danke :) das zeigt auch nochmal gut weshalb ein weiterer FatDIE Computing Chip in 28nm Maxwell Architektur 0 Sinn ergeben hätte.

Mit kleinerer Fertigung gibts dann auch nen neuen TESLA Ableger. Ich denke der kommt Sommer / Q3 2016 (als TESLA mit HBM) und dann als TITAN ~März 2017.

Kommt aber auf die Fertigung an.
 
Zurück
Oben