News Radeon R9 390: AMDs Fiji Pro von XFX abgelichtet

pipip schrieb:
Aja Paperlunch. Und wozu hätte das gereicht ? Um bei Benchmarks oben zu sein ?
GK110 ist übrigens eine Revision. GK100 hat es nie in den Consumer-Markt geschafft, weil er eben so "bescheiden" war und in nur wenigen HPC-Produkte vertickt wurde.

NV hat damals nur eines gesagt, sie hätten sich "mehr" von der Konkurrenz erwartet. Das ist das selbe wie, Konsolen bringen kein Geld, aber Shield dürfte ja ein voller Erfolg sein.
Aber auf genau solche Aussagen, werden dann immer Konstrukte aufgebaut, die NV "glänzen" lassen.


Das einzige was sich geändert hat, sind die Strategien die die Firmen verfolgen. AMD pflegt bei allen GPUs DP-Einheiten zu integrieren und NV pflegt es, nur dem größten Chip zu integrieren. Wieso ja jetzt Maxwell für den HPC Markt für DP-Aufgaben wertlos geworden ist.

Keiner von uns weiß, was bei NV oder AMD wirklich abläuft. Aber GK100 war seinerzeit nicht wirklich notwendig, deswegen hatte NV genug Zeit für ne Revision und dann den GK110 bebracht.

Ob man für Games in naher Zukunft double precision nötig ist, lässt sich am besten an der Hardware der aktuellen Spielekonsolen auslesen.
 
psYcho-edgE schrieb:
Weil es nun mal ne andere Architektur ist, da musst du nvidia fragen wieso :p

Ich fand das bei der Titan / Titan Black schon recht seltsam, dass man nur entweder das eine oder das andere haben konnte (muss im Treiber umgeschalten werden).
 
-jerico- schrieb:
Und ja ich bin von GTX980 auf die Titan X gesprungen, weil ich komplett auf eine höhere Auflösung ( Triple Monitor ) umgestiegen bin. Bereuen tue ich nicht wirklich, sicherlich ist das viel Geld aber wirklich noch mal ne Stufe höher und aktuell das Maximum im Single Bereich und auch teilweise über der R9 295x2. Preis ist Mist keine Frage , alternative mit großem Speicher ? Negativ ! Gerade jetzt wo so langsam die Auflösungen über Full HD steigen, wird die Speichermenge sehr wichtig.

Nein, die Speichermenge wird in Zukunft nicht mehr so wichtig sein.
Da Techniken wie HBM deutlich mehr Bandbreite zur Verfügung stellen und so mehr Daten je Sekunde bewegt werden können...
Und weitere Techniken ja kommen die in MultiGPU Systemen nicht mehr zwei seperate Speichereinheiten sehen werden sondern ein Speicherpool...
 
Novasun schrieb:
Nein, die Speichermenge wird in Zukunft nicht mehr so wichtig sein.
Da Techniken wie HBM deutlich mehr Bandbreite zur Verfügung stellen und so mehr Daten je Sekunde bewegt werden können...

Auch das hilft nicht gegen Speichermangel.
 
so wie ich es gelesen habe , bringt der HBM Speicher nur eine deutlich bessere Energieeffinzienz ( << ist das richtig geschrieben ;) ), bessere Speicherbandbreite und kleinere Die Fläche. Diese eingesparte Energie kann woanders ( GPU Takt) eingebracht werden. Der Takt ist so wie ich es gelesen habe bisher in der ersten Ausbaustufe (500Mhz) gleiche Leistung wie wesentlich höheren Takt bei GDDR5. Klingt ja nicht schlecht, aber dennoch glaube ich nicht an ein Wunder. Wenn dann reden wir hier sicherlich von 700-800 EURO.

@ pilstrinker, da stört mich aber folgende Aussage zu R9 390 : ...diese Entscheidung aber zugunsten von 8 GB Grafikkartenspeicher nunmehr umgestoßen haben. Dafür soll es zwei Gründe geben: Zum einen nVidias GeForce GTX Titan X mit gleich 12 GB Speicher – und zum anderen die Erkenntnis, daß unter der immer bedeutsameren 4K-Auflösung ein Speicherausbau von nur 4 GB wohl schnell zum Bremsklotz werden würde.
 
Zuletzt bearbeitet:
Was stört dich denn daran?

Die tollste Bandbreite nützt nichts, wenn der Speicher zur Neige geht. Ein übervoller Speicher bleibt übervoll, egal wie schnell er beliefert wird.

Und daher ist die Entscheidung, besser 8 als 4 GB einzubauen, sehr nachvollziehbar. So geht man dem Problem schon besser aus dem Weg.
 
Novasun schrieb:
Nein, die Speichermenge wird in Zukunft nicht mehr so wichtig sein.
Da Techniken wie HBM deutlich mehr Bandbreite zur Verfügung stellen und so mehr Daten je Sekunde bewegt werden können...
Und weitere Techniken ja kommen die in MultiGPU Systemen nicht mehr zwei seperate Speichereinheiten sehen werden sondern ein Speicherpool...

Speicherbandbreite als Ersatz für die Speichermenge? Da muss der Speicher aber verdammt flott sein, damit beim Berechnen eines Frames die Daten on-the-fly ausgetauscht werden... ;) Interessanter (und realistischer) ist da schon die Möglichkeit des SFR-Rendering statt des AFR-Renderings.
 
Faust2011 schrieb:
Interessanter (und realistischer) ist da schon die Möglichkeit des SFR-Rendering statt des AFR-Renderings.

Wenn das wirklich so toll funktioniert wie erwartet und dem Microruckeln den Garaus macht, wird das einer der ganz großen Pluspunkte der Karte werden.
 
Lars_SHG schrieb:
@ Herdware
grundsätzlich alles ok was Du geschrieben hast, aber ich würde da noch weiter gehen.....

Die GTX970 / 980 sind nie High-End gewesen! Chip ist ein GM204 und somit von der GPU-Bezeichnung UND der Chip-Größe her kein High-End Produkt!
Dieses Leid hat ja schon damals mit der GTX680 angefangen, als die Mittelklasse Karte ausreichte, um das AMD-Pendant zu schlagen und mal eben die Mittelklasse Karte zum High-End gehoben wurde mit dem dazu gehörigen Preis! Da dies so genial funktioniert hat, wurde es natürlich in der nächsten Saison wiederholt und noch schlimmer, AMD stieg auf den Zug mit auf und erhöhte für sein eigenes Top-Produkt ebenfalls die Preise im 3-stelligen Bereich! Genauso wie der Witz mit 7970 GHZ zu 500,00 € und mehr......

Diesen Käse kann man echt nicht mehr lesen, sorry. Nur weil Nvidia bestimmte Nummern für seine GPU Klassen hat, und AMD willkürliche Code Namen, achtet niemand mehr auf die eigentliche Grafikkartenbezeichnung. Wie die Klassen eigentlich definiert werden weiss aber niemand. Anscheinend ist die Größe der entscheidende Faktor.

Tja dann halt dich mal fest: AMD hat bisher noch keine einzige High End GPU releast!!! Und hat mit Nvidia bisher immer mit Mittelklasse GPUs konkurriert, und hat deshalb günstigere Preise verlangt. Der Tahiti in der HD7970 war auch ein Mittelklasse Chip, Nvidias aktueller ist ja auch ein ganzes Stück größer. Und ich hab noch was für dich: Hawaii ist auch nicht High End, ist ja nur 438mm² groß, und er hat die 551mm² GPU der Ur Titan geschlagen. Was sagt man dazu. Ich mein, dass die knapp 300mm² große GPU der GTX680 kaum langsamer war als die 365mm² von 7970 wird immer wieder erwähnt, nicht aber dass AMDs Hawaii ebenso kaum langsamer war als der über 100mm² größere GK110 im Vollausbau. Dabei sollte man auch beachten, dass GPUs nicht nur zum Zocken entwickelt werden. Die DP Leistung des Hawaii kann Nvidia zB nur mit 2 GK110 knapp schlagen...

Dieses ganze Klassengelaber ist also ziemlich unnötig. Die derzeit schnellste GPU des jeweiligen Herstellers ist sein High End, fertig. Und da kann man sie auch als High End Grafikkarte veröffentlichten, so wie GTX680/980. Herdware hat hier absolut Recht mit seiner Kritik.

Nvidia hat, um mehr Geld zu machen, einfach eine über High End Klasse eingeführt und für die ~35% höhere Leistung den Preis des bisherigen High End mal eben verdoppelt. Der Höhepunkt dieses Irrsinns war die 3000$ Titan Z. Dann kommen immer wieder irgendwelche Idioten mit ihren bescheuerten Autovergleichen, blabla ein Porsche ist auch viel teurer als ein VW...oder meinen, man findet die Preise blöd, nur weil man sie sich nicht leisten kann, und weiss der Geier was...warum sollte mich denn interessieren, was sich die anderen kaufen? Hab gestern einen ~11 jährigen mit einem iPhone6 in der Bahn gesehen, soll ich den auch beneiden? Weil ich mir kein iPhone leisten will? :freak:

Wie gesagt, was sich die Leute kaufen, ist ihre Sache. Mich stört nur, dass ein Hersteller, der völlig absurde Preise für ganz normale High End Grafikkarten verlangt, bestätigt bekommt, dass man solche Preise verlangen kann.
Und was hat Nvidia für die 200-250€ Preisklasse? Eine Gurke mit 2GB und 128bit Anbindung. Nein danke.
 
Zuletzt bearbeitet:
@Pilstrinker: SFR Rendering wurde bereits bei Sid Meiers Beyond Earth eingesetzt. Da kann ich mir auch gut vorstellen, wie man das Verfahren einsetzen kann, um den Grafikspeicher pro Graka zu einem großen Gesamtspeicher zusammenzuzählen. Wenn man allerdings Spiele wie FPS hat, bei denen Objekte recht schnell von einem Screenpart (den eine dedizierte Graka rendert) in den nächsten wandern, dann lässt sich der große Gesamtspeicher nicht erhalten, sondern man sollte wieder in das redundante Szeanrio der VRAM-Belegung wie bei AFR fallen, oder?

Naja, vielleicht liege auch komplett daneben mit meiner Einschätzung ;)
 
Pilstrinker schrieb:
Auch das hilft nicht gegen Speichermangel.

Doch, aber ich werde es für dich nciht noch mal erklären wieso... :D
Deine Aussage hat nur bestand, wenn zu einem festen Zeitpunkt X wirklich ein Überlauf entsteht...
Ergänzung ()

-jerico- schrieb:
so wie ich es gelesen habe , bringt der HBM Speicher nur eine deutlich bessere Energieeffinzienz ( << ist das richtig geschrieben ;) ), bessere Speicherbandbreite und kleinere Die Fläche. Diese eingesparte Energie kann woanders ( GPU Takt) eingebracht werden. Der Takt ist so wie ich es gelesen habe bisher in der ersten Ausbaustufe (500Mhz) gleiche Leistung wie wesentlich höheren Takt bei GDDR5. Klingt ja nicht schlecht, aber dennoch glaube ich nicht an ein Wunder. Wenn dann reden wir hier sicherlich von 700-800 EURO.

@ pilstrinker, da stört mich aber folgende Aussage zu R9 390 : ...diese Entscheidung aber zugunsten von 8 GB Grafikkartenspeicher nunmehr umgestoßen haben. Dafür soll es zwei Gründe geben: Zum einen nVidias GeForce GTX Titan X mit gleich 12 GB Speicher – und zum anderen die Erkenntnis, daß unter der immer bedeutsameren 4K-Auflösung ein Speicherausbau von nur 4 GB wohl schnell zum Bremsklotz werden würde.

Du vergisst - HBM hat mindestens 512Bit Speicherbandbreite - und die spätere Gen hat 1GBit Speicherbandbreite...
 
Zuletzt bearbeitet:
Doch, aber ich werde es für dich nciht noch mal erklären wieso...
Deine Aussage hat nur bestand, wenn zu einem festen Zeitpunkt X wirklich ein Überlauf entsteht...

Ich erklär's dir aber noch mal:

Wenn kein Überlauf besteht, braucht man auch nicht mehr Speicher. Den braucht man nur im Fall der Fälle. Aber sollte der Speicher nicht ausreichen, hilft auch eine noch so große Bandbreite nicht weiter, es ruckelt dann trotzdem.
 
Faust2011 schrieb:
Ich fand das bei der Titan / Titan Black schon recht seltsam, dass man nur entweder das eine oder das andere haben konnte (muss im Treiber umgeschalten werden).

Kann dir nicht sagen, wie es bei nVidia realisiert wurde, bzw. wie es bei GCN richtig funktioniert. Soweit ich weiß, hat nV eigene DP Einheiten, die auch entfernt werden können, AMD realisiert das über zwei bis 16 Recheneinheiten (zwei bei den FirePros bis runter zu 16 bei den Office Karten) die zusammen DP bearbeiten. Mehr kann ich auch nicht sagen :/
 
Jep, das hatte ich heute auch in der c't so gelesen ;)
 
max_1234 schrieb:
Und das ist AMDs - und nicht Intels oder Nvidias Schuld - weil ..... ?

...das "weil" ist mir so etwas von egal, ich will schnell Spielen und keine DIA-Show auf dem 4K Monitor haben. :o

max_1234 schrieb:
Außerdem traue ich mich zu wetten, Kompatibilität und ein entsprechendes CF Profil vorausgesetzt, dass 3x 390X jedes Spiel auf 4K@120FPS darstellen könnte.

Wenn das stimmt, dann dürfte AMD in kürze um 3 Grafikkarten ärmer sein. :D
Es fragt sich dann nur noch: welcher Prozessor hat genügend PCI-Lanes für die 3 Grafikkarten ?

max_1234 schrieb:
Und welchen Monitor-Hersteller verfluchst du nun, weils das noch nicht gibt ....... ? :D

Kommt bestimmt, abwarten. ;)
 
Hoffe die Karten kommen noch im April/ anfang Mai raus.
Gut wäre wenn zumindest bald ein Releasedatum/ offizielle technische Daten bekannt gegeben werden.
 
Gibt es neue Gerüchte zum Launchtermin?
 
Nein leider noch nix neues
 
Zurück
Oben