News Radeon R9 390X WCE mit 8 GB HBM und Wasserkühler

Nvidia hat doch den geringeren Stromverbrauch bei Maxwell unter anderem durch eine feiner abgestimmte Stromversorgung realisiert. Ich hoffe mal, AMD wird die Zeit nutzen, um diese Technik abzukupfern und in ihren Karten zu implementieren, sonst haben sie wirklich versagt.
 
Na ja eigentlich kann man noch gar nicht so genau sagen wo sich die Leistung der Karten in Zukunft orientieren werden. Die Spiele für Fiji müssen ja erst mal geschrieben bzw. angepasst werden.

Ich schätze auch das bei Maxwell nicht mehr so großes Optimierungspotential vorhanden ist da man sich doch sehr stark an Kepler orientiert hat und Maxwell schon ein halbes Jahr am Markt ist.
 
als nächstes steht bei beiden neue Fertigung an.

Edit: Man muss keine Spiele auf Fiji anpassen. An der Architektur selbst dürfte AMD wie Nvidia wenig gedreht haben. Neu ist bei Fiji das SI, aber sonst gibt sich das wenig und man sieht auch wie die Karte fast 1:1 über die Shaderzahl skaliert - ergo stellt das Speicher Interface kein Flaschenhals dar und die Architektur auf Chipseite wird fast unverändert sein, quasi Tonga in groß...

Same für Maxwells GM200.
 
@Krautmaster

ich glaube es hat auch niemand erwartet, dass AMD in sachen effizienz mit NV gleichzieht. da macht NV einfach nen super job, wie sie vorhandene ressourcen nutzen.

edit:

vlt. ist es für AMD von vorteil jetzt schon HBM zu nutzen und sich nicht mit shrink + HBM gleichzeitig befassen muss. ähnlich des tic-toc prinzips von intel.
 
Zuletzt bearbeitet:
kisser schrieb:
Nun, dann mal ernsthaft: inwieweit ist die Steam-Statistik für die Zig-Millionen von reinen Office-PCs repräsentativ?
Wenn man den Gesamtmarkt betrachtet, dann kannst du nicht mit einer Statistik, die überwiegend nur Spiele-PCs erfasst, kommen.
Der Anteil an 970/980 am Gesamtmarkt wird irgendwo im Promille-Bereich liegen, d.h. statistisch sind die irrelevant.

Der Anteil an Tahiti-GPUs dürfte inzwischen gewaltig sein :evillol:
 
Krautmaster

Jup, die Effizienz hat NV eventuell Richtung HBM eventuell geschafft, trotzdem ist der HBM Speicher schneller.

Der Gm204 hat nur ein 256Bit Si (plus großen l2 Cache) und Texturkompression zur Kompensation gegenüber den Vorteilen von HBM.
Bei AMD war solche ähnliche Techniken gerade nur mal bei Tonga zu sehen und Hawaii hat ein 512 Si, welcher wir wissen, nicht gerade sparsam zeigt.
Ich könnte genauso fragen, wie wäre Gm204 mit dem Si von Hawaii Vergleich zu Hawaii ?

Oder wie wäre ein Hawaii-Refresh mit GCN 1.3 und HBM Speicher oder GCN 1.2 mit 386 Bit Si mit Texturkompression von Tonga.

Den wirklichen Vergleich wird man eben erst mit Artic Island und Pascal sehen.

NV optimiert noch das GDDR5 Si und AMD setzt scheinbar gleich auf HBM und nützt den zeitlichen Vorteil. Kann genauso sein, dass man sich am Ende Entwicklungskosten für ein besseres GDDR5 SI erspart.

Aber auch das ist nur Spekulation.
 
Zuletzt bearbeitet:
Der Landvogt schrieb:
Schade nur, dass dabei immer gewisse Limits überschritten werden müssen wo man sich schon nach dem Sinn fragt. Damit ist NV auch auf die Schnauze geflogen (480).

Ach was, welche LImits? Die Custom r9 290x Kühler können 300 Watt recht kühl und leise wegkühlen.
Und das werden sicherlich auch die Kühler können die auf die Karten ohne Wakü geschnallt werden.
AMD muss halt mal schauen, dass die Partner was gescheites verbauen und AMD selbst natürlich auch.

HBM soll ja ein Stromsparwunder sein. Was würde denn die Karte mit GDDR5 ziehen? 350W? Oder drehen wir den Spieß um: was würden 980 oder Titan X mit HBM ziehen? So viel wie auf den ersten Blick scheint sich in Sachen Effizienz des Chips ja nicht getan zu haben.

Soviel spart man mit HBM nicht ein. DAs dürften etwa 20 bis 30 Watt sein und keine 50 Watt.
AMD hat schon an der Effizienz geschraubt und zwar deutlich, das haben sie auch mit Tonga schon vor nem halben Jahr getan.
Und du vergisst auch immerwieder dass Nviidas Chips vorrangig nur in Spielen richtig effizient sind, darum gehts aber auch im professionellen Bereich.

3mal darfst du raten warum die Titan X ohne DP daherkommt. Die Effizienzverbesserungen von Maxwell werden wohl das gesteckte Ziel weit verfehlt haben, zumindest im professionellen Markt.





Zur Effizienz: HBM soll ja ein Stromsparwunder sein. Was würde denn die Karte mit GDDR5 ziehen? 350W? Oder drehen wir den Spieß um: was würden 980 oder Titan X mit HBM ziehen? So viel wie auf den ersten Blick scheint sich in Sachen Effizienz des Chips ja nicht getan zu haben.


Quelle oder einfach mal die Schnauze halten anstatt Lügen zu verbreiten.[/QUOTE]
 
klar aber am Ende kommt es auf das an was am TFT ankommt in Relation zur aufgenommen W. Und für AMD und Nvidia noch wichtiger - was kostet mich das Ganze in der Produktion.

Gut. HBM bei AMD hat den Vorteil dass sie damit Erfahrungen sammeln können und Nvidia hier einen Schritt voraus sind. Und du hast Recht, erst Pascal zeigt wie sich HBM vs. HBM schlägt.

Nvidia hat die letzten Jahre fast immer bei Speicherbandbreite bzw SI geknausert - dabei eher den Chiptakt in die Höhe getrieben. Warum? Weil der Takt nichts kostet wenn es die Architektur hergibt. Maxwell taktet sehr gut.
Ergo spar ich mir ein aufwendiges SI und komplexes PCB, und im Falle mancher Karten auch noch konkret Ram.

Genau wegen diesen Einsparungen bei Nvidia skalieren die AMD Karten seit Jahren bei 4K und hohen Auflösungen meist besser als die Nvidia Karten.

Die GTX960 ist ja bestes Beispiel. Da hat es Nvidia auf die Sitze getrieben. Eine 128 Bit SI Karte mit guter Kompression und hohem Takt sowie 4 GB Ram, hocheffizient und vorallem mit sicher extrem guter Marge. Man muss das auch wirtschaftlich sehen.
Nvidia ist da wie Intel, sehr gut in der Kostenoptimierung. Es geht eben darum nicht immer nur Technologieführer zu sein, sondern bestehende Technologie ausreizen, günstig zu bleiben. Auch wenn es teurer und aufwendiger vielleicht besser ginge.

Pascal und HBM dürfte bei Nvidia erstmal im Server Umfeld kommen, mit Gen2 dann und sicher um die 16GB. Pascall VullFat in 20 / 14 nm dann. Und wo kommt der... als Tesla. Und dann zu zig 1000€ Stück wo die HBM dann nicht mehr jucken.

Ich würde fast wetten dass Nvidia vielleicht sogar noch bei der nächsten Gen ohne HBM auskommt - wir HBM erst Ende 2016 oder 2017 sehen wenn es der "GP300" dann in den Desktopbereich schafft :D
Ergänzung ()

smilefaker schrieb:
3mal darfst du raten warum die Titan X ohne DP daherkommt. Die Effizienzverbesserungen von Maxwell werden wohl das gesteckte Ziel weit verfehlt haben, zumindest im professionellen Markt.

das ist jetzt aber auch nicht grad wenig spekulativ. Nvidias TITAN X kommt ohne DP daher? Was meinst du wieso? Vielleicht weil es eine Consumer Karte ist? Im Server Umfeld gibt es GM200 ja auch bald. Nvidia Quadro M6000 ist das Zauberwort.

Wieso so bescheuert sein sich die hohen Preise im Server Umfeld kaputt zu machen? Wird eher zeit dass AMD hier nen guten Ableger seiner Fiji bringt.

Naja, die M6000 hat wohl 24GB GDDR5. Bis HBM soweit ist sieht auch der im Server Umfeld erstmal alleine da.

Edit:
http://www.pcgameshardware.de/Grafi...dro-M6000-Bilder-und-Spezifikationen-1153572/

wohl doch erstmal "nur" 12 Gb wie die TITAN X
 
Zuletzt bearbeitet:
Krautmaster

Was wirtschaften angeht. Dafür ist AMD aber auch flexibler was ASICs angeht und besonders was Semi-Custom Designs angeht. Sie haben dafür recht flexible IPs die sie je nach bilieben in ein Chip zusammenschließen können.

Du kannst von AMD einen Chip haben der X86, ARM oben hat, mit GCN GPU oder sogar VLIW bei Bedarf (siehe Nintendo).

Ein Full-Custom Chip oder Optimierungen allein fressen viele Entwicklungskosten und die können auch so hoch ausfallen, dass man dann am Ende auch eine größere Die-Size zufrieden gibt.

Sie Konsolen Chips. Eine NV angepasster extra entworfener Chip hätte vllt schneller, kleiner sein können, wäre aber x mal teurer gewesen als ein schnell entworfener Costum-Design chip der im Schnitt ca 20% größer ist, weil Optimierungen möglich sind.
Diese Optimierungen holt MS und Sony dann in den nächsten Shrinke wieder ein.

Also Die-Size ist nicht anders. Jede Optimierung bedeutet Manpower und Know how und kostet auch sehr viel Geld.

Falls AMD also Glück hat, können sie ihre IP in den nächsten Jahren weiter ausbauen und ihre Ip dann auch für andere in Chips zusammenstellen. Das generiert dann sogar feste "Einnahmen".

Pascal und HBM dürfte bei Nvidia erstmal im Server Umfeld kommen, mit Gen2 dann und sicher um die 16GB. Pascall VullFat in 20 / 14 nm dann. Und wo kommt der... als Tesla. Und dann zu zig 1000€ Stück wo die HBM dann nicht mehr jucken.
Das gilt aber für Fijii doch jetzt schon, die können aufgrund des GK210 (ersetzt den damals geplanten Maxwel mit DP Einheiten) als einzige Konkurrenz auch jetzt zwei Fijii in eine Dual GPU Variante mit 16 GB HBM zusammen schustern und teuer verkauchen. Die Kosten für Gen1 wird dann auch dank der Performane niemanden mehr jucken.
Den Gamer gibt man anfangs eine limitierte 8 GB Version mit cooler Komplettwasserkühlung um 700 Euro und die anderen Karten (auch 390X Version) verkauft man günstiger mit nur 4GB HBM.
Wo ist da der Unterschied ? Ich meinte ja, Fijii wird für AMD in erster Linie im HPC Markt wichtig sein.
Diverse Partner konnten sich ja letztes Jahr bereits HSA durch Tonga begutachten, weil Tonga eine HSA 1.0 Karte ist.

Was ich damit aussagen will, das kann für AMD durchaus etwas Geld in die Kassen bringen.
 
Zuletzt bearbeitet:
XD-User schrieb:
Obwohl ich Fiji als das weitaus interessantere Paket empfinde.
Die Titan wirkt irgendwie so altbacken :D
Das ist aber oft das Problem von AMD. Sie kommen mit frischen Ideen, und versemmeln es auf dem letzten Metern bei der Umsetzung. Ich hoffe aber dennoch, dass es diesmal anders läuft.
 
Krautmaster schrieb:
das ist jetzt aber auch nicht grad wenig spekulativ. Nvidias TITAN X kommt ohne DP daher? Was meinst du wieso? Vielleicht weil es eine Consumer Karte ist? Im Server Umfeld gibt es GM200 ja auch bald. Nvidia Quadro M6000 ist das Zauberwort.

Wieso so bescheuert sein sich die hohen Preise im Server Umfeld kaputt zu machen? Wird eher zeit dass AMD hier nen guten Ableger seiner Fiji bringt.

man hat aber gesehen, dass die maxwell architektur im gpgpu bereich nicht so effizient ist, da sie vor allem darauf beruht nicht benötigte teile "etwas herunterzufahren" (zb spannung), das funktioniert im gpgpu bereich, der im professionellen bereich benötigt wird, leider nicht
man hat ja gesehen wie viel da die 980 und 970 brauchen (gerne mal an die 250 w und darüber)
im gpgpu bereich konnte nvidia fast keine effizienzgewinne im vergleich zu kepler machen, weshalb sie auch die titan x nicht mit dp einheiten ausstatten, da sie im gegensatz zur titan black bis auf die erhöte anzahl derer keinen nennenswerte vorteile bietet, nur im gamingbereich, der für die meisten hier relevant ist, hat man (große) fortschritte erziehlt
 
psYcho-edgE schrieb:
@Black&White, gerne - hätte ich das nötige Kleingeld, aber du kannst mir ja auch ein 390X CF spendieren - 850W Netzteil ist bereits vorhanden :p
Falls etwas Kleingeld übrig bleibt, kriegst du natürlich auch ein CF Gespann, geht auf´s Haus ;)

Kann es kaum erwarten bis die NDA fällt, R9 390X under water - some Special & überhaupt nicht abgeneigt. Habe mit der AIO Corsair H110 schon (sehr) gute Erfahrungen machen können.
Achja sie wird wahrscheinlich etwas mehr verbrauchen als eine GTX Titan, also haben die Nvidia Jünger einen Punkt gegen die neue AMD R9 390X zu argumentieren :D
 
@jownes

auf welche DP Werte berufst du dich da? Dass Maxwell GM200 in den gleichen 28nm wie Kepler da DP Technisch keine X-fache Leistung rausholt ist klar. Tesla Ableger gibts wohl keinen, aber ne Quadro was auch logisch ist.

Alte Folien zu der DP Leistung werden meist auf andere Fertigungen bezogen sein. Kaum einer hat vor 3 Jahren wohl mit Maxwell in 28nm gerechnet. Bisher skalierte die Leistung nunmal zu 90% über Shrinks und entsprechend mehr Shader.

Nvidia agiert nur logisch wenn sie der TITAN X die DP Leistung berauben.

Aber gut, ich denke keinen hier interessiert die DP Leistung auch nur annähernd, außer vielleicht Nai ;)

Edit: Ok du beziehst die Pipip auf das hier

http://wccftech.com/nvidia-planning...e-tesla-line-pascal-2016-volta-arriving-2017/

Edit:

ich denke der Schritt ist aber nur logisch eben angesichts der 28nm. Bisher waren die Tesla ableger jeweils der Full Fat Chip der nächst kleineren Fertigung was ja auch Sinn macht. Nicht umsonst stehen bei allen 2013 Roadmaps zu Maxwell eigentlich immer 20nm oder darunter im Programm.

@ Pipip siehe Ergänzung.

Zum FullFat Kepler Chip in 28nm kann man auch mit Maxwell nur unzureichend Leistung draufpappen.
 
Zuletzt bearbeitet:
ja durchaus möglich dass Nvidia hier das im Zuge des Umsattelns von 20nm auf 28nm bei Maxwell und dem Streichen des Maxwell Tesla Ablegers das gestrichen hat. Ich denke für den GM204 war es sicher nie geplant.

Eine Tesla Karte sehen wir wohl erst in kleinerer Fertigung wieder.

Edit: Ich denke AMD verfährt ähnlich oder ist da schon was bekannt. Auch im HPC Markt macht HBM Gen2 und kleinere Fertigung mehr Sinn.
 
kisser schrieb:
Nun, dann mal ernsthaft: inwieweit ist die Steam-Statistik für die Zig-Millionen von reinen Office-PCs repräsentativ?
Wenn man den Gesamtmarkt betrachtet, dann kannst du nicht mit einer Statistik, die überwiegend nur Spiele-PCs erfasst, kommen.
Der Anteil an 970/980 am Gesamtmarkt wird irgendwo im Promille-Bereich liegen, d.h. statistisch sind die irrelevant.

über was reden wir hier? über welche relevante zielgruppe?
office pc's sind für die hier angekündigte 390xyz derart irrelevant dass selbst diese buchstaben hier verschwendung sind.
insgesammt sind office pc's für amd und nvidia bestenfalls relevant in dem untersten segment, ansonsten dominiert dort intel mit den igp's.

übrigens ist bei steam die intel 4000er serie mit abstand die beliebteste grafikkaren sparte, gefolgt von der intel 3000er und 2000er igp serie - deswegen habe ich diese auch rausgerechnet. auch habe ich vom aib-mart geschrieben; was ist da also schwer verständlich?
 
cypeak schrieb:
über was reden wir hier?

Das solltest du dich fragen, denn ich zitiere dich:


cypeak schrieb:
noch 2011 hatte amd in aib- markt einen anteil von ca. 42% (nvidia ca. 57%, rest andere/matrox) - jetzt sind wir bei etwa 28% für amd und rund 71% nvidia. (fairerweise muss man sagen das hier die gtx 980/970 in die statistik reingehauen haben)


Ich kanns nur nochmal sagen: 980/970 sind statistisch nicht relevant für die 28% bzw 71% Marktanteil.
 
krautmaster schrieb:
Man kann davon ausgehen dass der fiji deutlich aufwendiger war, allein die produktion mit hbm ... Das neue si, die verdrahtung auf dem package und ein ram der heute rar ist ist garantiert teuer.
Da gehst du aber von falschem aus. HBM ist von Anfang an günstiger herzustellen als GDDR5 und ist auf dem Silizium pro GB 44x kleiner. Das SI ist auf dem RAM im Logic Die verbaut und AMD erhöht seine Marge, da der VRAM nun im Preis mit drin ist beim Verkauf an die Boardpartner.
smilefaker schrieb:
3mal darfst du raten warum die titan x ohne dp daherkommt. Die Effizienzverbesserungen von maxwell werden wohl das gesteckte ziel weit verfehlt haben, zumindest im professionellen markt.
So sieht's aus.

Maxwell kam 1 Jahr verspätet mit gestrichenen Features wie Unified Memory, und erst die Version 2.0 kann die geforderte Leistung bringen und noch viel später das Lineup ergänzen, doch nach wie vor nicht vervollständigen. Bei Version 1 hats ja nur zu einer GPU gereicht. Volta wurde auch völlig gestrichen und nun bekomm erst Pascal in 2016 - fast 2 Jahre nach AMD! - wichtige Memory Funktionen.

Und bis dahin wird der Profimarkt ohne Maxwell Generation auskommen müssen, wo eigentlich nur die Effizientesten GPUs eine Chance haben.
 
Quelle? Da spielen mehrere Sachen mit rein, auch zB das Package selbst und das Verfahren. Nur weil weniger "Platz" != günstiger.

Edit: Von der zu produzierenden Stückzahl mal ganz abgesehen.
 
Zuletzt bearbeitet:
Zurück
Oben