News Radeon R9 390(X): AMD spricht über den HBM-Grafikspeicher von Fiji

max_1234 schrieb:
Ich musste übelst lollen.
Echt jetzt? Lollen?

max_1234 schrieb:
Immerhin wird Kepler bald 2 Jahre alt. Wie lange laufen die AMD Rebrands schon mit vollem aktuellem Treibersupport & Optimierungen? 4 Jahre?
Was ist das für ein Vergleich? Egal in welchem Lager, es wird immer alles zurecht gebogen. Die Frage könnte auch so aussehen: Wäre die HD 7970 noch so gut supportet, wenn sie nicht heute noch als Rebrand neu verkauft werden würde?
 
Dieser Effekt ist doch mitlerweile dokumentiert. Kepler hat halb soviel PhysX Performance wie Maxwell und daher muss mehr auf der CPU berechnet werden. Dies bringt die verbaute CPU schneller ins Limit und lastet die GPU nciht mehr voll aus. Daher kommt der zusätzlich Rückstand - ich nenne es GameworX-Penalty. Es hat zum einen den Effekt eben die neue Generation schneller aussehen zu lassen, und gleichzeitig den, dass AMDs GPUs noch weiter zurück fallen und die Keplers nicht als ausgebremst erscheinen. Funktioniert ja wunderbar wie man bei einigen Kommentaren sieht.

Man könnte mal einen Benchmark-Parcour machen mit allen Titeln die "particel physik" aus GameworX nutzen (Project Cars, Witcher 3, Borderlands: The Pre-Sequel, Strife, und Warface laut dieser Quelle: http://www.anandtech.com/show/8546/nvidia-gameworks-more-effects-with-less-effort ) Und das mal mit einem Benchmark Parcour vergeleichen der keinerlei GameworX Optimierungen hat, aber auch keine AMD Titel enthält.

Man könnte sehen ob das die einzelnen Entwickler besser lösen oder ob das ein Frameworks-Bug ist der überall die Keplers weiter zurück liegen lässt im Schnitt und AMD ebenfalls stärker benachteiligt. Für so etwas hat man Testredaktionen IMHO.
 
Zuletzt bearbeitet:
Wäre die HD 7970 noch so gut supportet, wenn sie nicht heute noch als Rebrand neu verkauft werden würde?
Hab mal meinen Beitrag editiert. Kepler Karten gibts schon seit 2012.

Eigenzitat:
rebra-furbishe-polished.


Man könnte sehen ob das die einzelnen Entwickler besser lösen oder ob das ein Frameworks-Bug ist der überall die Keplers weiteer zurück liegen lässt im Schnitt und AMD ebenfalls stärker benachteiligt. Für so etwas hat man Testredaktionen IMHO.
Haben wir doch alles bald mit DX12, da gibts dann keine Ausreden mehr :D

mfg,
Max
 
Nilson schrieb:
@ Necareor
in einer Welt in dem das Modell "Marktwirtschft" ideal funktioniert, wäre das so. Aber nur ein Bruchteil der Käufer kauft "ideal". Der 08/15 Käufer denkt sich "Mhh meine Graka ist zu langsam aber sonst läuft meine Nvidia ja ohne Probleme (der weiß nix von Treiberoptimierungen und Speicherproblemen, die lesen keine Benchmarks etc.). Und der kauft dann auch wieder eine Nvidia (was der Bauer net kennt ...). Selbst die, die hier im Forum nach hilfe suchen schreiben oft ne Zeile wie "ich hatte bisher AMD/Nvidia, ich hätte gern wieder nie AMD/Nvidia).
Marketing-Abteilungen investieren viel Zeit und Geld eben diese Markenbindung herzustellen.
Nö bei zwei Herstellern ist Markenbindung eigentlich zu vernachlässigen. Bei Grafikkarten kauft man wie du richtig andeustet nach a) nach Budget (sprich für z.B. 150€ die effiziensteste) und ich ergänze b) die mit dem geileren Namen (seht mal ich hab eine 980TI oder Titan und kann 100 statt 70 Frames genieren^^)... wirklich Geld in die Kasse bringt aber nur b)

Daher ist es wie dein Zitat "nur ein Bruchteil der Käufer kauft "ideal".

Sprich es ist ist wie bei Opel: im unteren Markt Segmegnt gut vertreten, Geld wird aber trotzdem nicht verdient, weil es in der Mittel / Oberklasse keine kaufbaren Autos mit Prestige und Mehrwert gibt.

AMD sollte ihre Karten wirklich nach Inseln + Zahl, die sich nach dem Nvidia Pendant richtet, vermarkten. Also z.B. meine "Fiji 980" ist besser als deine "Tahiti 960 (aka Tahiti XTL aka Radeon R9 280X) bzw. Geforce GTX 960...

(weil die Fiji 980 hat u.a. ober geilen HBM Speicher mit dem wir auch gar nicht was vom GGDR5 Kuchen haben wollen sondern nur Performance erzeugen wollen ;) )
 
Zuletzt bearbeitet:
@Daedal: Hast du grad ne Quelle zum GameworX-Penalty zur Hand? Würde mich interessieren.
 
max_1234 schrieb:
Ich musste übelst lollen.
Das ist kein Kepler Problem, das ist Kastration bzw. schwächelnde Aufmerksamkeit via Treiber.
Kepler gibts seit 2012 .... rebra-furbishe-polished.

mfg,
Max

Ist doch egal, ob das durch den Treiber kommt oder nicht. Aktuell sind Grafikkarten, deren Chip auf der Kepler-Architektur basiert deutlich langsamer als sie seine sollten in The Witcher 3 (im Vergleich zu ihrem Raking über viele Spiele hinweg). Maxwell list davon nicht betroffen.
 
Zuletzt bearbeitet:
Necareor schrieb:
Ach was... so ein Blödsinn. Das macht überhaupt keinen Sinn! Zum einen geht's um die Nachfolger-Generation, eine absolute Minderheit steigt immer auf die nächste Generation um. Zum zweiten: Was glaubst du denn, welche Grafikkarte kauft sich ein enttäuschter GTX-780 Nutzer, weil seine Karte grad mal auf Niveau einer R9 285 performt? Die nächste Nvidia-Karte?
Also ehrlich, wie man auf so Ideen kommen kann... ich will Nvidia hier nicht generell verteidigen, aber Dummheit kann man denen nun auch nicht vorwerfen.

Ähm... Nvidia verkauft 3,5 GB Karten als 4GB Karten, verschweigt das "Feature", als es bekannt wurde bot man keinerlei Entschädigung oder gar Rücknahme den im Grunde verarschten Kunden an, stattdessen meinte man mehr oder weniger man würde dieses Feature nicht zu schätzen wissen. Der verärgerte Nvidia Kunde schickte seine 970 zurück und kaufte sich stattdessen eine GTX980 mit echten 4GB! :lol: Oder man zuckte bloß mit den Schultern, "ja okay, ist trotzdem eine gute Karte".

Der Nvidia Kunde ist halt ein bisschen anders ^^

Ich beobachte schon seit dem GTX900er Release, dass die bis dahin schnellere 780ti, immer öfter langsamer ist als eine 290X...
 
Nilson schrieb:
Korrigiert. Gewinn = Umsatz - Ausgaben. Und Ausgaben bestehen aus Fixen- und Variablen Kosten. ;)

Ähm.
Umsatz-Ausgaben= Marge
Marge=Gewinn pro Stück
Gewinn/Stück x Stückzahl = Unternehmensgewinn.

Wer interessiert sich an der Börse für den Gewinn an einem einzigen Produkt wenn es keine lohnesnwerte Stückzahlen davon gibt?
 
Und dieses Verhalten, dass Leute ihre GTX 970 zurückgeschickt und stattdessen eine GTX 980 gekauft haben, trat wie oft auf? Bei 2 - 3 Trollen im Forum? Dass das wirklich spürbar stattgefunden hat, glaube ich erst, wenn ich Statistiken dazu sehe.

zeedy schrieb:
Der Nvidia Kunde ist halt ein bisschen anders ^^
Ist er nicht, der ist genauso wie der AMD-Kunde. Der Nvidia Fanboy hier im Forum ist vielleicht etwas anders, aber auch nicht anders als der AMD-Fanboy hier im Forum.
 
Necareor schrieb:
Und dieses Verhalten, dass Leute ihre GTX 970 zurückgeschickt und stattdessen eine GTX 980 gekauft haben, trat wie oft auf? Bei 2 - 3 Trollen im Forum? Dass das wirklich spürbar stattgefunden hat, glaube ich erst, wenn ich Statistiken dazu sehe.

Dass die Geschichte keinerlei negative Auswirkungen auf die Quartalszahlen hatte, hast du aber schon mitbekommen oder?
Ein Freund von mir hat auch eine GTX970, den hat das Ganze quasi überhaupt nicht interessiert ^^
 
Necareor schrieb:
Ist er nicht, der ist genauso wie der AMD-Kunde. Der Nvidia Fanboy hier im Forum ist vielleicht etwas anders, aber auch nicht anders als der AMD-Fanboy hier im Forum.
Und das kann man Gott sei Dank unterschreiben :)
@Nilson - Schöne Stadt ;)
Leider wird sie durch diese Studie verunglimpft...
 
Locuza schrieb:
PhysX wird bei Project Cars bei allen GPUs auf der CPU berechnet.
Das ist Unsinn und stimmt nicht.

Daedal schrieb:
Ergänzung ()

Aber vielleicht hilft dir ja ein Video das CPU und GPU PhysX nebeneinander zeigt:

https://www.youtube.com/watch?v=Vb5qRJG0zFo
Kommmentare unter dem Video:
Frage: Wie hast du die GPU Physik abgeschaltet?
Antwort: im Nvidia Control Panel

Aber du wirst jetzt bestimmt wieder die zwei User finden, die nicht wisen wo das Control Panel ist - na wenn das keine Referenz ist auf die du dich die nächsten 4 Seiten stützen kannst.

Achja..einer der foglenden Kommentare dort:
Microstuttering when the PhysX run's by the cpu...
Also auch keine Magie mit Nvidias GPUs oder Treiber.

Edit:
In einem anderen Thread hat sich ein andere grüner Fan über den selben redit-Beitrag beschwert mit genau umgekehrtem Grund - witzig :)
Daher hier ein weitere Beleg dafür, dass GPU PhysX benutzt wird
noxon schrieb:
Das sind schon merkwürdige Ergebnisse in Anbetracht der Tatsache, dass GPU PhysX so einflussreich auf die Performance sein soll.
http://forums.anandtech.com/showpost.php?p=37388559&postcount=79
 
Zuletzt bearbeitet:
Necareor schrieb:
Dass man sich immer an einzelnen Benchmarks so aufhängen kann. Krautmaster wollte damit lediglich die allgemeine Problematik mit der Zukunftssicherheit aufzeigen, wenn man eine Karte mit "wenig" Speicher kauft, und diese dann auch länger als nur 1 - 2 Jahre nutzt. Dieses Beispiel hat er rausgesucht, weil es kaum andere Benchmarks gibt, die mehrere Jahre auseinander liegen und dennoch die selben Grafikkarten testen.
Aus diesem Benchmark lässt sich nämlich nicht ableiten, dass 2GB VRAM ordentliche Ergebnisse in Top-aktuellen Spielen erzielt, sondern nur, dass es in einem Spiel in einem Szenario ausreicht. Schaut man sich die Tests heutiger aktueller Spiele an, dann werden bereits 3GB VRAM knapp, hier und da sogar 4GB, und das mit Settings, mit denen eine heutige Grafikkarte mit 4GB Speicher genug GPU-Power für flüssige Bildraten hat. Also keine unrealistischen Screenshot-Settings, und auch keine VRAM-lastigen Mods.
...
Ich denke mal, dass Krautmaster deshalb gerne auf möglichst viel VRAM setzt. Und daher wäre auch eine Fiji-Karte mit nur 4GB Speicher (welcher auch immer) vollkommen fatal, wodurch es sehr unrealistisch ist, dass AMD das machen würde.

Ich glaube du hast nicht mitbekommen, dass es um seine 6950 2GB ging, die laut ihm wegen der nur 2GB limitieren würde. Das ist ganz klar nicht der Fall. Dieser eine und alle anderen Benchmarks genauso zeigen eben, dass man mit 2GB sehr wohl noch recht weit kommt und das, was bei seiner Karte limitiert, eben nicht der Speicher, sondern die Rechenleistung ist.
Dass 2GB für High-End außer Diskussion stehen ist klar. Genauso klar ist, dass es besser ist RAM zu haben, als ihn zu brauchen. Was heute aber immer gern verwechselt wird, ist aber RAM nutzen und RAM brauchen. Der RAM ist ein Frame-Buffer. Wie das mit Buffern so ist, kann man sie natürlich voll machen und sozusagen mehr Futter bereit halten. Ob man das muss, hängt aber davon ab, wie schnell die Grafikkarte dieses Futter wegfuttert. Wenn das Spiel riesige Datenmengen pro Frame braucht, dann passt halt nur Futter für eine bestimmte Menge an Frames rein. Das ergibt dann ein Problem, wenn die Grafikkarte diese Frames schneller abarbeitet als Futter nachgeschoben wird. Und genau das passiert heute ziemlich selten, was die Performance-Messungen bestätigen. Daher ist es nicht annähernd so wichtig wie viele denken, was denn nun Tool XY anzeigt, wie viel vom RAM belegt ist.
Wie weit man mit 4GB auch aktuell noch kommt, obwohl viele viele böse Tools sagen, dass der Speicher voll ist, sieht man z.B. hier: https://www.computerbase.de/artikel/grafikkarten/17-grafikkarten-von-amd-und-nvidia-im-vergleich.49266/seite-4#diagramm-watch-dogs-3840-2160
Allgemein sieht man in allen 4K-Single-GPU-Tests, dass erstens die Titan X nie einen Vorsprung hat, der sich nicht durch die deutlich höhere Rechenleistung begründen lässt und zweitens, dass zwischen 980, 980 OC, 290X und 290X OC auch in 4K noch in allen Spielen Leistungsunterschiede bestehen, die es nicht gäbe, wenn da alle im Speicherlimit hängen würden.

TheGreatMM schrieb:
du kannst auch eine 12 GB Karte haben. Der Treiber lädt den Ram der Karte eh erstmal voll. Vlt. braucht er diese Daten ja. Die Größe sagt also nicht viel aus.

2 GB sind bis 1920 ok, 3,5 (hust) bzw. 4 GB zukunftsicherer und für 2,5K unabdingbar...

Naja ganz voll lädt er den nicht. Aber wenn man daraus folgert, dass die reine Menge an verfügbarem und aktuell genutzten Speicher nicht entscheidend ist, dann ist die eigentliche Aussage schon richtig.
Richtig. Und 8GB als dringend notwendig darzustellen ist übertriebener Hype.
Klar, sie zu haben ist schön, aber auch ein 4GB-Fijii, der den Framebuffer dank HBM super schnell füllt, kann sehr viel Leistung bringen und kein Speicherproblem bekommen.



Allgemein liest man ja echt ziemlich sinnloses Zeug hier. "Wenn dann Karte XY mit Z GB kommt, macht die die 4GB-Fijii ja zum Speicherkrüppel"... Selten sowas blödes gelesen. Zum Speicherkrüppel kann eine Karte nur eins machen und das sind Spiele, die tatsächlich mehr RAM brauchen, als eine Karte hat, also auch mit dieser Speichermenge wirklich Leistungseinbußen haben (und nicht nur irgenden Tool zeigt, dass der Speicher voll ist, während ja bei einer Karte mit mehr Speicher auch mehr belegt ist). Alles andere ist Marketing, genauso wie der aktuelle 8GB-Hype.
 
Daedal schrieb:
Das ist Unsinn und stimmt nicht.

Achja..einer der foglenden Kommentare dort:
Also auch keine Magie mit Nvidias GPUs oder Treiber.
Natürlich ist es Unsinn, der ganze Beitrag strotzt vor Fehlern.
Da muss ich keine zwei Augen drauf halten, um zu sehen das es absolut unseriös ist.

Das YouTube Video ist natürlich auch fabelhaft.
Beide male läuft PhysX auf der CPU.
Die Einstellung im Control-Panel hat natürlich keine Auswirkung, solange nicht PhysX-Module verwendet werden, die auch per GPU berechnet werden.

Und den Kommentar würde ich am liebsten per FrameTimes bewiesen sehen und dann noch technisch erklärt.
 
Dir muss man die Grafik aus dem Link wohl noch auf die Haut tätowieren damit du einfach mal siehst wann du falsch liegst:
675ad0c6_CPUGPUPhysX_ann3.PNG

Willkommen auf meiner Ignoreliste^^

http://forums.anandtech.com/showpost.php?p=37388559&postcount=79
 
Zurück
Oben