News AMD Fiji: Gezeigt zur Computex, vorgestellt zur E3

Krautmaster schrieb:
Nvidia hat ja genau deshalb immer diesen um Computing Anteil erleichterte GX204 Serie im Angebot, lightweight. Kleinere DIE, kostengünstiger, effizienter, auf Gaming abgestimmt.
Es ist schlicht nicht wirtschaftlich jedes Computing Feature und die COmputing Leistung bis in die kleineren Segmente runterzuschleppen und die Chips unnötig aufzublasen.

Nein sicherlich nicht. Doch wir reden darüber, dass es keine Heavyweight Maxwell gibt. Selbst die Titan hat keine DP-Einheiten und Teslas und Quadros wird es gar keine damit geben. Da wurde zu sehr ein Leichtgewicht aus Maxwell gemacht - mehr habe ich ja auch nicht geschrieben. Du findest das toll, die Profi Anwender die sich laut darüber beschweren kein Produkt zu haben das sie kaufen können wohl eher weniger.

Aber wie du treffend sagtest: Maxwell ist ein Leichtgewicht und jeder der sich eine gekauft hat um längere Zeit damit Freude zu haben wird sich wundern wenn DX12 schneller Fahrt aufnimmt als einige erwartet haben.
 
Krautmaster schrieb:
eben AMD zeigt dass dem nicht so ist, zumindets nicht in großem Stil. Heute kann fast jede GPU Computing, aber nenne doch mal die typischen Szenarien bei denen eine R9 290X zb genau dadurch deutlich interessanter als eine aktuelle Maxwell Karte wird.

Gehts noch oder brauchst du noch ne Tasche dazu?!
-> Bitcoin Mining? AMD hat alleine hierdurch in den ersten Wochen hundertausende Karten abgesetzt.
Das war auch der Grund schlechthin, wieso so viele Referenzmodelle auf den Markt geworfen werden mussten, da alle Margen der 290/290X sofort vergriffen waren!

Nvidia Karten waren/sind für BTC Mining absolut unbrauchbar, da nicht genügend Computing Leistung bzw. fehlender Featuresets.

Du packst zwar ab und zu brauchbare Infos in deine Beiträge, dafür schießt du aber auch regelmäßig den Vogel ab.

mfg,
Max
 
thegreatmm schrieb:
aber was soll das ganze r9 und r7...?

i3 < i5 < i7
g/gs < gt < gts < gtx
r5 < r7 < r9

Einfach nur ne grobe Einteilung in Leistungsklassen ;)
Ergänzung ()

pupsi11 schrieb:
glaubst du dran? und was soll die dann kosten? wie sehe es mitdem verbrauch aus?
aber 16gb wäre schon geil ....*sabber*

Na ist doch klar. Es gab bis dato in fast jeder Generation eine dualGPU Karte ;)
 
Zuletzt bearbeitet:
da gings ja auch um die 16gb hbm vram
 
Es sieht aus als sei der 24. Juni der offizielle Launchtermin des neuen Flaggschiffs. Der Rest der Serie soll etwas früher, am 18. Juni vorgestellt werden.

Aber was ich besonders interessant finde ist:
AMD promised that gamers will be able to choose from “multiple” Fiji powered boards with different form factors and cooling.
Und:
Custom AIB versions of Fiji are ready and waiting. We've been told that the reference air cooler for Fiji is actually quite good, and the water cooled version can operate without a radiator fan and still not overheat.
Sagt ein Moderator von WCCFtech
http://wccftech.com/amd-fiji-r9-390x-skipping-computex-debut-e3-separate-event/
Klar, die Seite hat nun wirklich nicht den besten Ruf, aber den hat CB zB auch nicht ;)
Jedenfalls wissen die Leute dort oft mehr als die anderen. Ich frage mich wie der Referenz Luftkühler von Fiji aussehen soll. Könnte mir vorstellen, dass mit Luft nur die teildeaktivierten Fiji Karten mit Luft gekühlt werden. Werweiß, vielleicht verbraucht Fiji XT ja doch weniger Energie als angenommen, denn bis zu 300W sind mit einem Luftkühler kaum einigermaßen leise zu kühlen, und einen 3-Slot-Axialkühler kann ich mir als Referenzdesign nicht vorstellen.
 
Jesterfox schrieb:
Ne Dual-Karte mit nur 2x4GB könnten sie eigentlich auch gleich behalten, die wäre einfach sinnfrei...

Nicht unbedingt. Beim SFR wird VRAM addiert ;)
Ergänzung ()

zeedy schrieb:
[...]und einen 3-Slot-Axialkühler kann ich mir als Referenzdesign nicht vorstellen.

na ja, einen dual Slot gab's zumindest schon mal :D
HD7990-AMD-1.jpg

Wenn die den auf die 390er packen (natürlich im neuen fancy design :p) wäre das wohl meist eine deutliche Verbesserung im Gegensatz zu den 290(X) Referenzkühlern :freak:
 
Zuletzt bearbeitet:
issenia schrieb:
Die Ansprüche der Nutzer sind unterschiedlich und keinesfalls einfach so pauschalisierbar. Meinen Ansprüchen wird nVidia leider nicht mehr gerecht oder die Lösung ist einfach viel zu teuer.

Sicher, pauschalisieren will ich da auch nichts aber man muss sich ja nur die Zahlen beider Unternehmen anschauen oder die Tatsache wie gut sie Maxwell verkauft um zu sehen dass die Karten zu 95% mit Fokus auf Gaming gekauft werden, nicht für wissenschaftliche Tätigkeiten.
 
max_1234 schrieb:
Nvidia Karten waren/sind für BTC Mining absolut unbrauchbar, da nicht genügend Computing Leistung bzw. fehlender Featuresets.

Hm so und nun machen wir ne Umfrage wie hoch der Anteil der Miner hier ist? Was hat das BC Mining mit DP Leistung zu tun? Das Mining lief noch am effizientesten auf 5D Shader Karten der HD58XX Serie und du willst mir jetzt nicht sagen dass oo Themen wie BC Mining >> Gaming gehen.
Wenn Mining der Anspruch wäre hätte AMD mal schnell ne Karte mit 4X RV870/Cypress aha HD5870 in 28nm auf einem PCB bringen müssen. Ist es aber nicht...
Ich mein... is ja schön dass AMD das höhere Computing P/L im ConsumerBereich bietet aber viel haben tun sie davon offensichtlich nicht. Das sollte man sich schon soweit eingestehen. Für die, wie dich, die das offensichtlich brauchen ... is doch super.
 
Da Maxwell aber eine komplette Architektur bezeichnet die übergreifend in allen Märkten zum Einsatz kommen sollte, ist das ausschließliche fokusieren auf das Gaming nun mal genau das was ich hier kritisiere. Toll für die gamer, doch vieles wird auch auch beim gaming vermisst werden. Die fehlenden Features des Chips lassen sich auf diese Weise nicht weg diskutieren.

Du hast Recht im Bezug auf GTX 970 und GTX 980 - ansonsten hast du nicht recht für Maxwell. Denn schon die Titan war bis zum Maxwell-Leichtgewicht keine Karte die ohne DP beworben wurde. Hier wurde einfach nicht geliefert. Man sieht das ja an dem Problem, dass man nun nicht mehr weiss wo man die GTX 980 Ti platzieren soll.
Ergänzung ()

Jesterfox schrieb:
Das funktioniert dann aber nur mit DX12 Games, oder wie ist da der Stand?

Das funktioniert wunderbar auch mit Mantle. Genutzt wird es z.B. bei Civ: Beyond Earth. Dazu gibt es reichlich Tests und Artikel die beschreiben welche Techniken dann auch in DX12 zum Einsatz kommen...ist ja eigentlich auch fast identisch.
 
@Psycho-Edge stimmt ja, AMD konnte mit dem Kühler bis zu 375W relativ leise und unter 80°C kühlen. Aber eine Referenz-Single-GPU-Karte mit Axiallüftern wäre trotzdem ungewöhnlich.
 
Daedal schrieb:
Nein sicherlich nicht. Doch wir reden darüber, dass es keine Heavyweight Maxwell gibt. Selbst die Titan hat keine DP-Einheiten und Teslas und Quadros wird es gar keine damit geben. Da wurde zu sehr ein Leichtgewicht aus Maxwell gemacht - mehr habe ich ja auch nicht geschrieben. Du findest das toll, die Profi Anwender die sich laut darüber beschweren kein Produkt zu haben das sie kaufen können wohl eher weniger.

Aber wie du treffend sagtest: Maxwell ist ein Leichtgewicht und jeder der sich eine gekauft hat um längere Zeit damit Freude zu haben wird sich wundern wenn DX12 schneller Fahrt aufnimmt als einige erwartet haben.

dann sind wir uns ja einig ;)

Ich bin selbst gespannt wie weit sich bei DX12 dieses Computing-Leichtgewicht negativ auswirkt. Es kommt auch immer drauf an wo beim Computing gespart wird. Ich denke zwischen selbst in der Computing Szene eher speziellen Dingen wie hoher DP Leistung und DX12 is noch ein breiter Graben, vorallem dann bis es wirklich aktiv die ausgegebenen FPS im Spiel bestimmt.

Wie schon gesagt, rein architekturell und vom Treiber ausgehend profitiert AMD vermutlich mehr von DX12 als Nvidia, auch einfach weil sie von der CPU Entlastung mehr profitieren. Erste einfache Portierungen auf DX12, wie zB 3D Mark, gibt es ja schon. Fiji wird dann zeigen wie es sich bei DX12 + Win10 + passender Hardware verhält und ob dabei konkret mehr bei rauskommt als zb beim Computing beschnittenen GM200.
Ergänzung ()

Daedal schrieb:
Man sieht das ja an dem Problem, dass man nun nicht mehr weiss wo man die GTX 980 Ti platzieren soll.

wie meinst du das? Dass ist doch in erster Linie von der R9 390X oder R9 390 abhängig.
Zum jetzigen Zeitpunkt wäre die Karte unnötige Konkurrenz für die teure TITAN X.

Nvidia wartet entweder Fiji komplett ab oder legt wie damals bei der GTX 580 kurz vor der neuen AMD Serie auf (damals HD69XX). Die GTX 980 TI ist dann auch direkt in hoher Stückzahl vorrätig. Die Performance passt man kurzfristig mit Bios an. Und klar, Computing technisch wird die kein Land gegen Fiji sehen.
 
Zuletzt bearbeitet:
Jesterfox schrieb:
Ok, d.h. aber das es mir bei DX11 Games nichts bringt. Darauf wollte ich hinaus. Denn die gibt's ja trotzdem noch und die brauchen bei entsprechenden Details und Downsampling auch gerne mehr als 4GB VRAM.
Wie denn auch. DX11 unterstützt keine gemeinsamen Speicherbereiche und auch kein SFR. Da musst du dann teure Single-GPUs kaufen anstatt 2 kleinere GPUs im Crossfire zu betreiben, oder eben auf die höhere Leitung verzichten.
Ergänzung ()

Krautmaster schrieb:
wie meinst du das? Dass ist doch in erster Linie von der R9 390X oder R9 390 abhängig.
Zum jetzigen Zeitpunkt wäre die Karte unnötige Konkurrenz für die teure TITAN X.

Nvidia wartet entweder Fiji komplett ab oder legt wie damals bei der GTX 580 kurz vor der neuen AMD Serie auf (damals HD69XX). Die GTX 980 TI ist dann auch direkt in hoher Stückzahl vorrätig. Die Performance passt man kurzfristig mit Bios an. Und klar, Computing technisch wird die kein Land gegen Fiji sehen.

Die GTX 980 Ti ist obsolet. Nvidia hat nicht geschafft die Karte rechtzeitig in den Markt zu positionieren um AMDs Fiji zu kontern oder vorher noch Umsätze zu machen. Schneller als eine Titan wird sie nicht werden können (etwas Takt-OC eventuell) und weniger Speicher hat sie dann auch noch. Ich sehe keinen sinnvollen Preispunkt für die "Ti" zwischen der Titan und der normalen 980. Die sind schon viel zu Nahe zusammen und zu teuer.
 
Daedal schrieb:
Maxwell wurde in 28nm geplant für 2013. Nix Fertigung hat sich verschoben. Schöne Story, nur leider frei erfunden. Hier wurden noch 4 mal so viele DP-GFLOPS versprochen von Kepler zu Maxwell - gestrichen um effizenter sein zu können:

nvidia_kepler_maxwell_roadmap.jpg

wo steht da was von 28nm?

Selbst (noch) 2014 wurde von 20nm geredet
https://www.computerbase.de/2014-03/nvidias-maxwell-gpu-kommt-in-20-nm/

Meinste ernsthaft Nvidia hätte die von dir hier gelinke Grafik gepostet und dabei Kepler wie Maxwell auf 28nm gesetzt?? 3x mehr Dampf in selben 28nm wie Kepler?
Fermi zu Kepler war ein Fertigungssprung, Kepler zu Maxwell in der damaligen Roadmap genauso. Ausgehend von der prognostizierten Leistung (du sagst ja selber 4x) eventuell sogar von 28 auf 16nm, nicht 20nm. (alles andere wäre ja Zauberei ^^)

Was damals Maxwell war ist heute Pascal.
Ergänzung ()

Daedal schrieb:
Die GTX 980 Ti ist obsolet. Nvidia hat nicht geschafft die Karte rechtzeitig in den Markt zu positionieren um AMDs Fiji zu kontern oder vorher noch Umsätze zu machen. Schneller als eine Titan wird sie nicht werden können (etwas Takt-OC eventuell) und weniger Speicher hat sie dann auch noch. Ich sehe keinen sinnvollen Preispunkt für die "Ti" zwischen der Titan und der normalen 980. Die sind schon viel zu Nahe zusammen und zu teuer.

auch das dein Ernst? Wie kann man Fiji kontern ohne dass er da ist? :p

Wieviel Speicher und wie viel Takt man so einer Karte gibt häng von der Konkurrenz ab. Logisch...
TITAN X hat 12 GB da die Fiji wohl 8 hat -> 6GB wären demnach zu wenig. Die GTX 960 TI hat 6 GB da das mehr wäre als eine Fiji mit 4GB und mehr als eine GTX 980 und Nvidia sich schon immer knausirger beim VRam verhalten hat (erhöht die wichtige Marge). Das Leben ist ja kein Wunschkonzert.

Obsolet ist sie allein deshalb nicht da AMD mit SIcherheit etwas zwischen R9 290X und R9 390X plazieren wird auf (Baiss Fiji) und genau da braucht es diesen leicht abgespeckten GM200, auch preislich schon.
 
Zuletzt bearbeitet:
Ich habe nicht gesagt da steht was von 28nm, sondern da steht, dass Maxwell zu spät ist ein ganzes Jahr. UNd erst Maxwell 2.0 7 Monate später war überhaupt ein Gamerchip. Oder ist die GTX 750 ein Gamerchip - viel mehr ein Testballon.

2013 war 20nm noch nicht geplant. Maxwell wurde dann verschoben auf 2014 und da mit 20nm angekündigt, doch das wurde dann auch wieder fallen gelassen, was deutlich zeigt was für ein Blödsinn das ist. Auch was CB geschrieben hat. Eine Architektur wechselt man nicht mal schnell von einem auf den anderen Prozess. Man kann vielleicht auf einen bewährten älteren Prozess zurückgreifen, doch meist mit Tradeoffs doch sicher nciht mal einen node überspringen. Die Architektur ist eng verbunden mit der Fertigungsgröße und den Produktionsverfahren die dafür nötig sind.

Was damals Maxwell war ist heute Pascal..ja ...ich weiss gar nicht ob ich darüber lachen soll oder dich eher bedauern soll für deine Fähigkeit Dinge schön zu reden. Würde mich doch sehr wundern, wenn Pascal nun in 20nm kommen sollte. 16nm sind hier angekündigt.

Volta wurde ja komplett gestrichen und steht wieder auf nach Pascal...*hüstel* Jetzt werden schon die internen Codenamen rebrandet für die Foren Fanboys.....
 
Daedal schrieb:
Wie denn auch. DX11 unterstützt keine gemeinsamen Speicherbereiche und auch kein SFR. Da musst du dann teure Single-GPUs kaufen anstatt 2 kleinere GPUs im Crossfire zu betreiben, oder eben auf die höhere Leitung verzichten.

Schon klar, aber damit steht dann wieder meine Aussage das eine 2x Fiji mit 2x4GB doch eher sinnfrei ist weil es einige Spiele gibt und geben wird die damit zu wenig VRAM haben werden. Um mehr ging es ja eigentlich nicht.
 
Ich finde nicht, dass etwas sinnfrei ist, nur weil es das früher nicht gab und ältere Sachen nicht kompatibel sind. Kommt darauf an ob du nur alte Spiele spielen willst. Doch dafür gibt es ja genügend gute GPUs, kauf dir eine von denen, denn die sind auch günstiger. Welche Aktuellen DX 11 Spiele brauchen denn eine neue GPU?

Welches DX11 Spiel braucht mehr als 4 GB?
Welches DX12 Spiel kann 2x4GB in SFR nutzen oder Unified Memory?
 
Zurück
Oben