News AMD Fiji: Gezeigt zur Computex, vorgestellt zur E3

modena.ch schrieb:
Bitte?

Wo gibts denn Verzögerung?

Du glaubst doch nicht ernsthaft, dass der Release von Beginn an für Juni 2015 vorgesehen war, 9 Monate nach Maxwell!
Wieviel Verzögerung es gab wird man wohl nie sicher erfahren. Dass es aber Verzögerungen gab kann niemand bestreiten.
Ergänzung ()

zeedy schrieb:
Allein schon wegen HBM wird Fiji eine höhere Effizienz als Hawaii haben,

Der RAM ändert an der Effizienz der GPU überhaupt nichts.
 
zeedy schrieb:
Allein schon wegen HBM wird Fiji eine höhere Effizienz als Hawaii haben, also bitte keine unsinnigen Schlussfolgerungen.
Das stimmt - alleine das Single Bank Refresh und Dual Command Interface erhöhen die Effizienz der GPU, da eben nicht mehr der gesamte Speicher auf einmal refresht werden muss und jeder 128-bit Speicherchannel eigene Frequenzen fahren kann. Sozusagen ein Speicherturbo, der die max. TDP nutzen kann. Es kann der GPU mehr thermales Budget zu gesprochen werden und so höher takten, wenn weniger RAM gebraucht wird.
 
Evtl. brauch ich dann ja gar keine neue Plattform/CPU(hab ja einen 3570K), sondern nur ne neue GPU !?
Genau so schauts aus, die ganzen Quad zb. Sandy und co. oder auch die ersten Core I7 werden extrem beschleunigt und könnten Jahre länger durchhalten durch DX 12.

Investiert lieber in die GPU und vor allem den Vram wenn ihre eine gute langlebige Karte haben wollt. Mit 970er 3,5GB Vram Krüppel braucht ihr mir da gar nicht kommen. Deine 670 2GB hat zb. noch ordentlich Rohleistung, säuft aber gnadenlos ab...

Auch mein Ivy-E 6 Kerner wird irgend wann stark von DX 12 profitieren und Jahre länger durchhalten dank AMD. Denn die waren es mit Mantle die Microsoft mit DX 12 aus dem Dornröschenschlaf gerissen haben.
 
Zuletzt bearbeitet:
jk1895 schrieb:
Das haben wir den Leuten zu verdanken, die überteuerte Karten kaufen für über 1000€. Die Hersteller denken sich nur "HAHAHA es gibt immer einen der uns das Zeug abnimmt! $.$"

ne der ezb, 2008 bekam man für 1 € 12 ¥ heute sind es noch 7¥/€.
 
kisser schrieb:
Achso, deshalb verfünffachen sich die Drawcalls bei Kepler mit DX12: :rolleyes:

Das ist nur ein Aspekt. Hier geht es um das Auslasten der GPU durch die CPU. Meine Antwort war darauf bezogen, welche Chips im GPU-Limit besser auslastbar sind. Genau da setzt die neue Generation der Low-Level-APIs (Mantle / DX12 / Vulkan) an: durch keine direkten synchrone (d.h. blockierende) API-Aufrufe, sondern eine Entkopplung über Warteschlangen (Queues). Diese Queues können auf den AMD-Chips ab GCN und bei Nvidia ab Maxwell 2.0 parallel verarbeitet werden (zumindest insofern, als dass Grafik- / Compute- / Copy-Befehle parallel vorliegen).
 
modena.ch schrieb:
Bitte?

Wo gibts denn Verzögerung?

Ihr müsst nur nicht jede Spekulation jeder scheiss Newssite oder jedes Blogs als Fakt ansehen.

Bis vor ein paar Tagen gabs noch keine bestätigten Termine...

Ich glaube er meint die 980 Ti, ich meine wie schwer kann es sein "Ti" hinter den Namen zu schreiben und 2GB "feature Speicher" mit Heißkleber aufs PCB zu kleben *Ironie aus*

Ich bin gespannt auf HBM und vor allem auf die kleineren Karten.
Unbeschnittener Tonga als 370X für ~250€ mit 4GB wäre sicher schon etwas feines und ich gönne mir dieses Jahr vielleicht noch ein kleines Upgrade bis ~Q3 2016 dann ein komplett neuer Rechner kommt.

Zu den Pascal wird 4 mal so schnell wie Maxwell kann ich nur sagen "HA! Ihr Unwissenden, es wird 10x so schnell!" Hat sogar Jen-Hsun Huang bei der Vorstellung der Titan X gesagt! AMD Lügt nur und ist nur am hypen! *scnr*

AMD hyped sicher auch ihre Produkte, das macht jede Firma. Die Zahlen die zu Zen heraus gegeben sind scheinen aber nicht unbedingt unrealistisch zu sein, da die Konkurrenz bereits Produkte mit entsprechenden Werten auf dem Markt hat.
Die 50% mehr Leistung die sie bei BD genannt haben sind natürlich trotz allem bullshit und im besten Fall bei synthetischen Benchmarks gegen einen Phenom II drin gewesen...

Wie auch immer. Glaubt nicht alles was euch der Typ erzählt der eigentlich nur an euer Geld will.
Wartet ab und lasst ein paar andere Leute testen die sich das leisten können. Das gilt übrigens auch für Spiele, release-Tag vielleicht nem streamer zuschauen und ein bis zwei youtube Videos angucken und CB oder sonstwo lesen und vielleicht 60€ sparen. Geladen ist das Ding eh über Nacht.
 
kisser schrieb:
Du glaubst doch nicht ernsthaft, dass der Release von Beginn an für Juni 2015 vorgesehen war, 9 Monate nach Maxwell!
Wieviel Verzögerung es gab wird man wohl nie sicher erfahren. Dass es aber Verzögerungen gab kann niemand bestreiten.

Man sollte schonmal fair sein, kisser.
Fakt ist, AMD hat nirgends einen Releasetermin verkündet. Verspätung zu unterstellen, obwohl man es selbst eh nicht weiß, sollte man unterlassen.
Es war nie damit zu rechnen, dass HBM wirklich vor Q1 2015 überhaupt einsetzbar ist und jetzt sollen die Karten Q2 vorgestellt werden, ist doch in Ordnung.

Der RAM ändert an der Effizienz der GPU überhaupt nichts.

Ohne V-ram funktioniert eine GPU nicht.:rolleyes:, aber du stänkerst eh nur absichtlich, da kann man dir solche Brainfarts auch mal zugestehen.
 
Kasmopaya schrieb:
Genau so schauts aus, die ganzen Quad zb. Sandy und co. oder auch die ersten Core I7 werden extrem beschleunigt und könnten Jahre länger durchhalten durch DX 12.

Investiert lieber in die GPU und vor allem den Vram wenn ihre eine gute langlebige Karte haben wollt.

Super. Danke für denHinweis, Kasmopaya.
Dann hoffen wir mal auf baldige schöne neue GPUs, mit ordentlich Vram. :-)
 
smilefaker schrieb:
Du glaubst doch nicht ernsthaft, dass der Release von Beginn an für Juni 2015 vorgesehen war, 9 Monate nach Maxwell!
Man sollte schonmal fair sein, kisser.
Fakt ist, AMD hat nirgends einen Releasetermin verkündet. Verspätung zu unterstellen, obwohl man es selbst eh nicht weiß, sollte man unterlassen.
Es war nie damit zu rechnen, dass HBM wirklich vor Q1 2015 überhaupt einsetzbar ist und jetzt sollen die Karten Q2 vorgestellt werden, ist doch in Ordnung.
Das finde ich witzig. Weil AMD irgendwas danach geplant hat wie Maxwell erschienen ist - die kam 1 Jahr zu spät und schwer abgespeckt auf den Markt. Erst Maxwell 2.0 hat ein bischen daran verbessert. Das war nochmals 7 Monate nach der GTX 750. Na da hätte AMD ein Problem gehabt....

AMDs Maxwell Gegenspieler sind die jetzigen 2 Jahre alten Chips wie man gut sehen kann.
Fiji ist als Pascal Kontrahent konzipiert und kommt deutlich früher. Pascal sollte mit DX12 auf dem markt sein, kommt aber deutlich verspätet mit den DX12 relevanten Features. Hier sieht man wer technologisch auf der Höhe ist. Nvidia kann HBM nicht nutzen, da es noch keine 3D-Stacking Module gibt und Nvidia keine Interposer-Technologie hat um GPU und HBM in 2.5D zu verbauen.

Das wird auf Jahre hinaus Nvidias Problem werden, da AMD mit den fallenden HBM Preisen sehr kostengünstig 2.5D Stacking für kleinere GPUs realisieren kann, während bei Nvidia das 3D Stacking auf kleineren GPUs für schlechtere Yields und mehr Kosten sorgen wird. Dies wird auch ein Problem der grossen GPUs werden - die fertigung wird es zeigen, macht 3D-Stacking aber deutlich komplizierter und teurer. AMD hat eine gute Alternative bis in untere Preisbereiche und APUs.
 
Zuletzt bearbeitet:
haha glaubst du das ernsthaft ^^

Was Nvidia und AMD da mit ihren großen 28nm Chips getribeen hat war nie so vorgesehen, genauso wie die Verschiebungen nach hinten raus einfach Fertigungsbedingt sind. Fiji war vermutlich auch nie in 28nm geplant sondern wie Pascal in neuer Fertigung.

Was Nvidia da betreibt ist offensichtlich einfach die bessere Strategie und Kostenoptimierung. Schau einfach auf die Marge. Nvidia +50%, AMD ~35%, wobei Nvidia der Treiber durch den höheren Marktanteil ist was sich auch in Marge niederschlägt.
Als nächstes erzählst du dann dass Nvidia die GTX 980 TI nich nicht bringen kann weil ein GDDR5 Engpass besteht ^^

Beide, Nvidia wie AMD sind vorallem durch die Fertigung und deren Rentabilität ausgebremst, das war bei Grafikkarten die fast perfekt über die Transistoren skalieren noch nie wirklich anders. Der gegenseitige Druck hat nachgelassen, man begegnet sich nicht mehr im engen Preiskampf und macht sie die Margen kaputt. Das haben offensichtlich beide kapiert, zum Nachteil der Kunden. Beide werden genau wissen was der Gegner wann bringt und wie schnell es wird - nicht zuletzt da die Vorhersage da recht einfach ist.
Wenn sich mit 28nm mehr Asche verdienen lassen wird bringt Nvidia natürlich noch ne TITAN X Black mit ~1300Mhz Turbo Takt Ende des Jahres.

Diesen engen Konkurrenzkampf den die Fanboys hier offerieren gibt es lange nicht mehr. Der schadet auch nur beiden. Is dasselbe wie bei den Festplattenherstellern.
 
Zuletzt bearbeitet:
Was heisst "glaubst du das ernsthaft"?
Was hat GDR5 und die 980 Ti nun damit zu tun?

Maxwell 1.0 ist 1 Jahr zu spät und erst Maxwell 2.0 war für eine ganze Serie tauglich 7 Monate später. Und das mit vielen faulen Kompromissen.
http://heise.de/newsticker/meldung/Nvidia-Entwicklung-gebremst-Volta-wohl-noch-vor-2020-2160743.html
Die Entwicklung von Maxwell gleicht dabei einer Leidensgeschichte: Ursprünglich wurde die GPU im Jahr 2010 für 2013 angekündigt. Im Januar 2011 versprach Nvidias General Manager Michael Rayfield, dass Maxwell-Grafikchips sogar integrierte ARM-Rechenkerne mitbringen sollen. Dann kam 2013 der Umschwung: schließlich sollte erst Volta integrierte ARM-Kerne bieten und Maxwell erst 2014 statt 2013 herauskommen, aber mit Unified Virtual Memory und aus der 20-nm-Fertigung. Nun bieten die ersten "Maxwell"-Abkömmlinge nichts von alledem, arbeiten aber immerhin effizienter.
 
joa allesammt sehr faule Kompromisse ^^. Maxwell = ein Name = Schall und Rauch. Maxwell war ursprünglich in kleinerer Fertigung als Tesla Ableger ebenso geplant - den Chip gibts aber nicht da das kein Sinn macht mit 28nm. Nvidias Computing Chips orientieren sich an einer jeweils kleineren Fertigung (vollkommen logisch da man dann auch Faktor 2+ bei Computing performance erreicht).

Verschiebt sich die Fertigung, verschiebt sich die Roadmap. Bei AMD nicht anders - auch nicht bei Intel, nur das AMD und Nvidia eben auf TSMC angewiesen sind.

Was man heute als Maxwell nun bei 28nm sieht ist kein fauler Kompromiss, es ist schlicht der Chip der nötig war um das Gaming Segment bei Stange zu halten (und das gelingt hervorragend wie ich finde).

Ich denke Maxwell und Fiji waren in 20nm geplant (auch jahrelang von der Fachpresse so kommuniziert und diskustiert). Pascal in 14/16nm. 20nm wurde aber nie wirklich wirtschaftlich zu 28nm. Mit 14/16nm wirds zwar nicht günstiger, aber der Sprung den Pascal als Tesla Ableger machen kann, wird deutlich größer. Spätestens da wird Nvidia wieder recht früh mit einem extrem teuren großen Chip einsteigen und neue Tesla Karten vorstellen. Denke das wird aber eher Ende 2016 der Fall sein, im Desktop dann als Gaming Ableger gibts nur nen kleineren GP204 (Schätze Mitte 2016) und später ann ne neue TITAN mit Big DIE Pascal und GP100 (Schätze Anfang 2017) ;)
Namen wie gesagt Schall und Rauch ^^
 
Zuletzt bearbeitet:
Nein war es nicht. Lies das Zitat. 2013 war keine kleinere Fertigung geplant. Die Verschiebung sollte dann erst auf 20 nm erfolgen, doch auch das hat nicht geklappt. Maxwell hat weder DP Einheiten noch andere wichtige Hardware Features die AMD schon lange verbaut hat, nur um seine Effizienz zu erreichen - das ist ein fauler Kompromiss doch das muss jeder für sich wissen.

HBM Kann Nvidia nicht in Gen 1 nutzen, wegen fehlender IP zu 2.5D Stacking. Keine Interconnects um Interposer-Konfigurationen sinnvoll zu nuzen wie Fiji das macht. Das hat gar nichts mit Produktionsmengen zu tun. Nvidia braucht nun mal das 3D-Stacking onDie - auf der GPU. NVlink wurde nun mal auch nicht rechtzeitig fertig.

Maxwell wurde in 28nm geplant für 2013. Nix Fertigung hat sich verschoben. Schöne Story, nur leider frei erfunden. Hier wurden noch 4 mal so viele DP-GFLOPS versprochen von Kepler zu Maxwell - gestrichen um effizenter sein zu können:

nvidia_kepler_maxwell_roadmap.jpg
 
Zuletzt bearbeitet:
nVidia ist für mich nicht mehr interessant, seit man mit den Karten außer *blink, blink* *Gaming* nichts mehr anfangen kann. Auch mit der Titan x nicht.
Selbst für reine Gamingkarten muß man mittlerweile 500+ zahlen oder sich mit irgendwelchen faulen Kompromissen ala GTX 970 abspeisen lassen.
Lieber eine Karte, die sowohl gute Gamingperformance als auch Coputing z.B. für Boinc bietet und dabei unter 400 € kostet. Da gibt es leider nur eine Alternative und die heißt nicht nVidia.
Der Fehler, ein einziges mal zu nVidia gegriffen zu haben, wird nicht mehr passieren.
Ich übe mich einfach in Geduld und warte auf die Fiji's.
 
Daedal schrieb:
Maxwell hat weder DP Einheiten noch andere wichtige Hardware Features die AMD seit schon lange verbaut hat um seine Effizienz zu erreichen - das ist ein fauler Kompromiss doch das muss jeder für sich wissen.

Effizienz. Ja, gerade durch das Weglassen dieser Features ist Maxwell (der Gaming Maxwell) so effizient. Nvidia hatte nie vor bei HBM hier Gen 1 zu nutzen, wieso auch. Das braucht man (wenn überhaupt) erst mit neuem Computing Chip und folglich neuer Fertigung.
Genauso sind die ganzen tollen Features die heise da nennt nichts was auch nur ansatzweise beim Desktopableger eine Rolle spielen würde.

Es verdient sich mit vielm Geld, aber sicher nicht mit Computing im Consumerumfeld. ^^
(bestes Beispiel, AMD)

Edit:
wenn man sich die SOCs in 20nm TSMC anschaut weiß man auch wieso AMD und Nvidia darauf verzichtet haben
http://www.extremetech.com/computin...-plans-massive-16b-fab-investment-report-says
The node was reportedly poorly suited to the high-power requirements of discrete GPUs, which would explain why neither AMD or Nvidia has yet announced a product that used the process.
Schau dir mal die alte Roadmap von TSMC an...

https://www.computerbase.de/2011-11...f-aktuelle-28-und-anstehende-20-nm-fertigung/

1-1080.5326351.jpg


und vergleiche mit

OldRoadmap.jpg


Beide Roadmaps wurden im selben Zeitraum vorgelegt.

Und die neuere Roadmap
PascalRoadmap.jpg


-> Maxwell(Computing) = entfallen, genau wie alle 20nm Chip dessen Produktion 2013 massentauglich sein sollte.

P.S.: Kepler und Maxwell waren nach ursüprünglicher TSMC Roadmal ja beide min 1 Jahr früher geplant. Selbst 28nm war schon verspätet...
 
Zuletzt bearbeitet:
Krautmaster schrieb:
......
Es verdient sich mit vielm Geld, aber sicher nicht mit Computing im Consumerumfeld. ^^
(bestes Beispiel, AMD)

Nicht einfach so pauschalisieren. GPU Computing ist für viele Nutzer auch im Consumebereich ein Kriterium, was immer wichtiger wird. Da hat nVidia absolut nichts zu bieten, was auch nur annähernd interessant wäre, wohl gemerkt im Consumerbereich.
 
issenia schrieb:
nVidia ist für mich nicht mehr interessant, seit man mit den Karten außer *blink, blink* *Gaming* nichts mehr anfangen kann. Auch mit der Titan x nicht.

Damit stehst Du recht alleine hier im Forum. Die meisten wollen eien Graka, die beim Gaming gut abschneidet. Auf der anderen Seite haben allerdings viele Leute an der Technik der Chips ein ausgeprägtes Interesse :D

Krautmaster schrieb:
Effizienz. Ja, gerade durch das Weglassen dieser Features ist Maxwell (der Gaming Maxwell) so effizient.

Das hört man immer wieder. Was bedeutet das denn genau? Wie erreicht man hier die Effizienz und Performance, gerade auch in Abgrenzung zu AMD? Hast Du ein paar mehr Details dazu?
 
Was spielt das hier in der Diskussion für eine Rolle womit Nvidia Geld verdient? Geht nun wieder das halbgare BWL 1. Semester Geschwätz los? Das ist eine Technik Seite.

Natürlich hatte Nvidia nicht vor HBM der ersten Generation zu nutzen - schließlich schrieb ich das ja selber. Sie haben keine IP um das 2.5D mit Interposer zu nutzen, also warum sollten sie das dann wollen? Ihre Verhandlungen mit SKHynix die erste Generation unbedingt schon als 3D zu bringen sind gescheitert und damit war HBM der ersten Generation vom Tisch für Nvidia - sie können es halt nicht ohne NVlink. Pascal soll den bekommen und da wird sich zeigen ob sie direkt auf das 3D-Stacking setzen oder dann doch das günstigere 2.5 Stacking mit Interposer auflegen.

Hier ein Bericht warum NVlink so wichtig ist für Nvidia:
http://www.enterprisetech.com/2014/...l-gpus-pack-3d-memory-homegrown-interconnect/
Und erst mit dessen Fertigstellung ist Nvidia in der Lage das ursprünglich geplante HMC gegen HBM im 2.5D Stacking auszutauschen.
 
Zuletzt bearbeitet:
issenia schrieb:
Nicht einfach so pauschalisieren. GPU Computing ist für viele Nutzer auch im Consumebereich ein Kriterium, was immer wichtiger wird. Da hat nVidia absolut nichts zu bieten, was auch nur annähernd interessant wäre, wohl gemerkt im Consumerbereich.

eben AMD zeigt dass dem nicht so ist, zumindets nicht in großem Stil. Heute kann fast jede GPU Computing, aber nenne doch mal die typischen Szenarien bei denen eine R9 290X zb genau dadurch deutlich interessanter als eine aktuelle Maxwell Karte wird.

Nvidia hat ja genau deshalb immer diesen um Computing Anteil erleichterte GX204 Serie im Angebot, lightweight. Kleinere DIE, kostengünstiger, effizienter, auf Gaming abgestimmt.
Es ist schlicht nicht wirtschaftlich jedes Computing Feature und die COmputing Leistung bis in die kleineren Segmente runterzuschleppen und die Chips unnötig aufzublasen.
Ergänzung ()

Faust2011 schrieb:
Das hört man immer wieder. Was bedeutet das denn genau? Wie erreicht man hier die Effizienz und Performance, gerade auch in Abgrenzung zu AMD? Hast Du ein paar mehr Details dazu?

Maxwell gewinnt vor allem durch die schnelleren Schaltzeiten zwingen verschiedenen Lastzuständen. Ich denke das Stutzen von den GPU Features sparte aber auch keinen unerheblichen Teil an Transistoren ein (sind ja nur 12% mehr als GK110).
Die DP Leistung ist ja nicht ohne Grund beschnitten. Selbst bei der ursrünglichen TITAN. Nvidia bietet die Karte nicht als Alternative zur teuren Tesla Karte an bzw gräbt sich da selbst den Markt ab. Computing ist in Nvidias Augen nach wie vor was für Profisegment mit Asche. Vielleicht sogar eher zunehmen statt abnehmend.
 
Krautmaster schrieb:
eben AMD zeigt dass dem nicht so ist, zumindets nicht in großem Stil. Heute kann fast jede GPU Computing, aber nenne doch mal die typischen Szenarien bei denen eine R9 290X zb genau dadurch deutlich interessanter als eine aktuelle Maxwell Karte wird.

Nvidia hat ja genau deshalb immer diesen um Computing Anteil erleichterte GX204 Serie im Angebot, lightweight. Kleinere DIE, kostengünstiger, effizienter, auf Gaming abgestimmt.
Es ist schlicht nicht wirtschaftlich jedes Computing Feature und die COmputing Leistung bis in die kleineren Segmente runterzuschleppen und die Chips unnötig aufzublasen.

Ich rede hier nicht von günstigen Szenairien.
Mittlerweile kenn ich viele in meinem Umfeld, die Ihren Rechner nebenher eben für sinnvolle Zwecke nutzen um der Wissenschaft zu helfen. Es gibt nun mal Projekte, die DP leistung benötigen, aber auch welche, die das nicht tun. Beides können AMD karten, aber nicht nVidia Maxwell.
Was soll man denn machen, wenn man beides abdecken will? Eine Maxwell zum Gamen und eine Profikarte für Computing kaufen?
Die Ansprüche der Nutzer sind unterschiedlich und keinesfalls einfach so pauschalisierbar. Meinen Ansprüchen wird nVidia leider nicht mehr gerecht oder die Lösung ist einfach viel zu teuer.
 
Zurück
Oben