Test AMD Radeon RX Vega im Test: Mit neuen Treibern und Spielen gegen Fiji

Da stimme ich dir vollkommen zu, aber IPC Steigerung und Treiberentwicklung sind halt zwei paar Stiefel.
Da bringt es nichts die eine Karte im Takt zu beschränken und dann zu schauen wie sich der Treiber im Vergleich zum Release entwickelt hat. Das macht unter anderem daher auch keinen Sinn, da es realitätsfern ist und wohl niemand seine Vega auf Fiji Niveau takten wird.

Man kann sich gerne einmal die Effizienzsteigerung anschauen, wobei man da halt auch den Stromverbauch mit reinnehmen muss, ansonsten find ich das nicht sehr zielführend.

Für einen reinen Treibervergleich hingegen macht es einfach keinen Sinn, wenn ich ein Produkt beschneide. Zum einen ist der Chiptakt stark abgesengt und zum anderen der HBM übertaktet. Sind wieder zwei Punkte die mit ins Ergebnis mit reinspielen und bei einem reinen Treibervergleich hat einfach OC oder heruntertakten nichts verloren.
 
  • Gefällt mir
Reaktionen: Strikerking
Moselbär schrieb:
Für den Preis einer günstigen 56er Vega gibt´s eine günstige 1080er.

Wär doch mal interessant zu sehen wie das "Gegeneinander" aussehen würde.

Na da würde die 1080 beim Mining kein Land sehen, oder warum meinst du ist die 56 so shietteuer? Amd hat halt ne Gamingkarte mit Computepower auf den Markt geworfen und alle wollten sie haben. Die 1080 eher nicht so, darum ist die so billig.

Die 56 ist der Gegenspieler der 1070. Ähnliche Performance und wäre das Mining nicht ähnlicher Preis. Alles Andere ist Bullshit, und wer sich eine 56 oder 64 nur zum Gaming holt hat einfach zu viel Geld über....

Also nein, Vergleich macht bei allen die für ihr Geld arbeiten 0 Sinn.
 
Takt bereinigt ist zwar interessant. Aber wenn Verbesserungen an der Architektur vorgenommen wurden, die es auf den neuen Karten erlauben deutlich höhere Taktraten als auf der alten Karte zu erreichen ist dies irrelevant. Einzig für den Stromverbrauch vielleicht nicht, wobei Nvidia Karten takten ja nochmal höher und verbrauchen weniger.

Für mich interessanter wäre ein aktueller Vergleich Vega / Pascal mit Vergleich zum Release von Vega. Aber wenn Turing "bald" kommt, bekommt man ja aktuelle Benchmarks.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
@ duskstalker

Was ist dein Problem ??? All diese aufgestellten Thesen, die du zitierst sind doch war. Lassen wir mal die künstlichen Mondpreise wegen Mining außen vor, muss man doch erkennen das Vega, dafür das sie erheblich später als Pascal Marktreif war, sich einfach als absoluter Rohrkrepierer dargestellt hat.

Zu keiner Zeit, hat mein Leistungs, sowie Preis/Leistungstechnisch Nvidia Paroli bieten können - in dieser Generation wohlgermekt.

Der Artikel macht übrigens total Sinn, denn gerade bei Vega war immer seitens AMD, auch von Teilen der Presse und eben der Community immer die Rede von eben besagtem "Fine Wine".
Also brachliegendes Potenzial, das nur sozusagen "aktiviert" werden müsse.
Mit diesem Artikel ist aber das Gegenteil bewiesen. Danke dafür CB !

Mir ist persönlich egal, ob meine Karte Rot oder Grün ist. Ich zocke in 4K, und will daher Leistung pur.
Am liebsten natürlich so günstig wie möglich.
Glücklicherweise habe ich eine 1080ti noch für um die 700 EUR erwerben können, kurz vor dem extremen Mining-Boom.
Und wenn ich bedenke wie lange ( über ein Jahr ), ich schon damit Spass habe....
Nee geh mir weg mit Vega.
 
Wadenbeisser schrieb:
@Gschwenni
Du hattest doch bezweifelt das es beim Vega einen Effizienz Fortschritt gegeben hätte und dennoch interessiert dich das Ergebnis eines entsprechenden Vergleiches nicht, welcher natürlich nur beim gleichen Chip Takt stattfinden kann? Interessant.

Klar gibts ne Effizienzsteigerung, halt das was Polaris schon gebracht hatte.
Ich vergleiche nur nicht den Stromverbrauch bei 1000 MHz weil 2 Shrinks dazwischen liegen.

Lese halt mal richtig.:)
Ergänzung ()

mambokurt schrieb:
Na da würde die 1080 beim Mining kein Land sehen, oder warum meinst du ist die 56 so shietteuer?

Das setzt sich aus drei Faktoren zusammen.
Die Allgemeine Knappheit von HBM, die noch leicht angespannte Nachfrage durch Mining und AMDs Fake UVP die jetzt passe is.

Wenn die 3 Sachen wegfallen müsste es die günstigsten Customs eigentlich für 400 Euro geben oder sogar leicht drunter.
 
Zuletzt bearbeitet:
Ist Computerbase nun auch im Nvidia presse programm?
Was hat sich zwichen Maxwell <-> Pascal denn an der "IPC" geändert?
Wie sieht die "IPC" denn bei Vega <-> Pascal aus?
 
janeeisklar schrieb:
Ist Computerbase nun auch im Nvidia presse programm?
Was hat sich zwichen Maxwell <-> Pascal denn an der "IPC" geändert?
Wie sieht die "IPC" denn bei Vega <-> Pascal aus?

Da hat sich gar nichts geändert, is schließlich nur ein Shrink mit mehr Takt.
AMDs Vega sollte gegenüber Polaris aber viel viel mehr sein und letztendlich haben alle Bemühungen im Schnitt nix gebracht.
 
BestinCase schrieb:
Warum wird hier AMD Vega immer dermaßen gebashed, für freesync. immer noch eine gute Alternative im Leistungsbereich einer GTX 1080.

Weil zu solchen Artikeln hier pünktlich die nVidianer aus Ihren Löchern gekrochen kommen, nichts wirklich neues ;). Dann wird wieder "Lederjacken"-Propaganda abgezogen, aber im nachhinein sich wieder über nVidia Preise beschwert und AMD/RTG der schwarze Peter dafür zugeschoben ... die übliche Kinderkartennummer der nVidia Jünger :lol:.

Natürlich ist RX Vega nicht die von einigen erhoffte Wundergabe und wenn ich dann noch an die überkandidelten Ansprüche einiger hier vor Marktstart von RX Vega denke ... woher soll das denn kommen, wenn pünktlich bei Erscheinen einer neuen GPU-Generation das Geld (mehrfach) zu nVidia getragen wird?

Genau, das geht eben nicht und erst der Erfolg bei den CPUs hat AMD/RTG wieder eine einigermaßen akzeptable finanzielle Position verschafft (dass man dort aus allen Nöten heraus ist und mit dem Budget herum prassen kann wie die CPU und GPU Marktführer, ist aber leider auch nicht der Fall).


Zum Artikel selbst, mir fehlt - wie schon beim FFXV Test - eine Beleuchtung von HBCC im Detail, stattdessen dieser künstliche Testansatz, der mangels Erhältlichkeit und großer Verbreitung von Fiji-GPUs wenig Relevanz hat und wo bleibt eigentlich der taktbereinigte Vergleich bei nVidia bzgl. Maxwell und Pascal (wird man damit in naher Zukunft noch rechnen können, so das passend vor dem Turing Marktstart die nVidia Lobhudelei und Rechtfertigung der vermutlich überzogenen Turing-GPU-Preise beginnen kann)?

Das was momentan AMD/RTG (neben dem Marketing-Disaster zum Martkstart) den RX Vega Absatz bei Spielern versalzt sind die horenden Marktpreise der Boardpartner/Händler (beflügelt durch den Mining-Boom), denn für angepeilte ca. 400 (RX56) - 500 (RX 64) wären die aktuellen Oberklasse-GPUs von AMD/RTG sicherlich ein faires, teilweise gar besseres Angebot als die altbackenen GP104 GPUs von nVidia.

Ein kompletter Flop sieht m.E. anders aus, ebenso wie die von einigen hier erwartete "eierlegende Wollmilchsau" (und selbst dann würden diese vermutlich treudoof immer noch zu den Vergleichsprodukten von nVidia greifen :rolleyes:), aber natürlich spielt bei AMD/RTG vieles hinein, was da nicht rund gelaufen ist und läuft.

Wieso @ CB Redaktion/andere sollte aufgrund der Entwicklung AMD/RTG Ihre knapp bemessenes Budget in die Optimierung der Gaming-Aspekte der RX Vega Architektur stecken, wenn die Karten zum Großteil nicht bei Spielern gelandet sind/landen?

Aus dem Grund sind einige der hier gezogenen Schlussfolgerungen nämlich nichtig/unangebracht, denn die Krypto-Mining-Entwicklung hat sich schon so früh nach Marktstart abgezeichnet, dass natürlich viele eine Nachbesserung und Optimierung bei den Architektur-Features schon länger begraben haben.

Eine "Fine Wine" Pflege wie in der Vergangenheit kam nicht wirklich in Frage bei den Absatzzahlen an Spieler aufgrund mangelnder Verfügbarkeit und Preispolitik.

Alleine ein ausbleibender Refresh von RX Vega in diesem Jahr ist doch schon ein Wink mit dem Zaunpfahl und dann wird hier so getan, als müsse AMD/RTG massiv Mittel dahinein investieren um eine Handvoll Gamer/AMD Fans glücklich zu machen (bzw. einige tun so verwundert, als ob die Testergebnisse nicht vorher schon so klar wie Kloßbrühe feststanden)?

So gesehen zeigt dieser Test ganz genau das, was schon vor Monaten erwartet werden konnte bzw. bekannt war.

Das 1-jährige RX Vega Jubiläum ist übrigens noch eine ganze Weile hin, wenn mich meine Erinnerung nicht täuscht, und steht nicht unmittelbar vor der Tür, wie hier im Artikel angedeutet wurde ... das noch als kleine Anmerkung meinerseits zu diesem m.M.n. eher überflüssigen (mit erwartbaren Ergebnissen gespickten) Artikel ;).

Ich hätte einen anderen/m.E. lohnenderen Testansatz (im Detail hinsichtlich der (brach liegenden?) RX Vega-Architektur-Features) besser/interessanter gefunden und die Zeit-/Arbeitsressourcen der CB Tester dort besser angelegt gesehen, aber natürlich ist das Geschmacks-/Ansichtssache.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: duskstalker, engramm und Casillas
Gschwenni schrieb:
:D Danke für den ersten Lacher heute morgen.

frost21 schrieb:
Lasst uns doch mal den Vergleich bei Nvidia wagen:
da Nvidias GPU-Konfigurationen der 1000er Serie nie mit denen der 900er Serie übereinstimmen, muss ich die geringste Differenz wählen. Wenn ich auf die Anzahl der Shader gehe, sind sich GTX980 und GTX1070 am ähnlichsten.
Verglichen habe ich anhand der Grafikkartenrangliste von PCGH.
GTX980GTX1070Differenz 1070 zu 980
ALUs20481920-6,25%
GPU-Takt1,17 GHz1,60 GHz+36,75%
Speicherbandbreite224,2 GBps256 GBps+14,18%
PCGH-PerformanceIndex38,253,3+39,5%

Ich finde wenn CB wirklich fair sein möchte und neutral, stellt es einen ähnlichen Test im Nvidia Lager an.
Einfach ein Vergleich der Generationen taktbereinigt. Da interessiert mich es auch nicht, dass die GTX1xxx gegenüber der GTX900er Fraktion vielleicht nur ein shrink ist.
So ein Test sollte doch auch für jeden interessant sein.

Berichtigt mich bitte wenn ich falsch liegen sollte, aber holen die Hersteller nicht schon immer das größte Performance Plus bei neuen Generationen aus Taktsteigerungen, bzw. mehr Shadern etc heraus, die durch eine verbesserte Fertigung oder kleinere Fertigung ergeben? Ich hab so das Gefühl, dass für einige das jetzt eine so große Überraschung ist, dass taktbereinigt mit gleicher CU bzw. shaderanzahl etc, keine großen Zuwächse da sind.

Ich kann mich dunkel an einen Test erinnern bei dem ein Intel 8700k bei 4 kernen und gleichem Takt nichtmal 2% Performance+ hat, gegenüber einem 6700k oder sogar 5675C ?
Also über was reden wir hier.

Nicht falsch verstehen, auch ich als AMD Fan bin von Vega enttäuscht, gerade im Hinblick auf die Ankündigungen im Vorfeld. Und so einige haben sich mehr erhofft. Man sollte sich mMn aber immer wieder vor Augen halten, dass AMD an zwei Fronten gegen übermächtige Gegner "kämpft". Ich denke mit Zen und Zen+ ist AMD ein guter Wurf gelungen, den kaum einer so erwartet hätte. Bei Vega ist es nun leider nicht so gekommen.
Ich persönlich finde den Erfolg in der CPU sparte aber bedeutend wichtiger.
Aber gut. ich schweife ab.



Kacha schrieb:
@frost21 Vielen Dank! Aber es wird die meisten nicht interessieren, heulen ist ziemlich beliebt gerade.

Fuer die anderen, die Heuler, die Ich-habe-es-schon-immer-gewusst, die Amd-ist-doof-Fraktion, ich wuensche euch wirklich, dass AMD sich aus dem Hochpreissegment zurueck zieht und Nvidia knallhart mit der xx70 Reihe auf 1000 Euro hochgeht. Ihr habt es euch verdient.

Gamer sind einfach nicht mehr das Hauptziel, das sollte allen so langsam mal klar werden. HPC, machine learning, da wird richtig Kohle gemacht. Und in die Richtung gehen die Hersteller, so einfach ist das. Von dem her, AMD hat alles richtig gemacht. Das Budget genutzt um eine Karte fuer HPC/machine learning zu entwickeln und die Restposten an die Gamer. Bitte weiter so. Das einzige was ich persoenlich noch gut finden wuerde ist ein guter Support fuer etablierte Frameworks. Und von da an heisst es dann "Du willst den laengsten? Zahl ordentlich. Du hast es verdient." Dieses Gamer Geheule geht einfach nur noch auf die Nerven...

Das kann ich fast so unterschreiben. Bis auf den Teil, dass AMD alles richtig gemacht hat. Das sicherlich auch nicht. Aber ich finde es definitiv auch richtig, dass sie sich jetzt bei Grafik aus dem Hochpreissegment zurück ziehen.

Wer weiß, vielleicht wünschen sich in 2 .. 3 .. 4 Jahren einige hier AMD in dem Segment wieder zurück. Nvidia wird melken, tut es ja jetzt schon. Und siehe Intel und Ryzen. Auf einmal sind 6 Kerner (und jetzt demnächst sogar 8?) von Intel im Mainstream möglich.
 
Ui! Was geht denn hier ab?

Klar, hat AMD extrem Erwartung geschürrt, aber die Community war auch stark beteiligt. Ich erinnere mich noch an die unzähligen AMD Threads hier auf CB. Es wurde immer wieder betont, wie schnell die Karte ist. Die Entwickler müssen diese nur richtig ausnutzen, AMDs Treiber werden nach Wochen Wunder bewirken und die Karte hat extrem viel Rohleistung die nicht auf die Straße gebracht wird, das aber bald passiert.

Nun ein Jahr später ist davon nichts eingetreten und die ganzen Propheten rechtfertigen sich jetzt hier im Thread und verteidigen die eigene Philosophie. Aus Sicht der Consumer bietet einfach AMD Karten aktuell kein gutes Gesamtpaket. Zu teuer, zu hoher Stromverbrauch, kein Alternative für die Masse.
Der Hardcore Gamer mit Geld wird sich die größte und schnellste Karte auf den Markt zulegen und der Rest kauft irgendwo bei 100-250€ ein.

Ich würde mich freuen, wenn AMD endlich mal konkurrenzfähig wird in alle Bereichen der Grafikkarten Sparte. Keine Experimente, kein Versuch eine Karte für alles zu produzieren, keine Besonderheiten die erst unterstützt werden muss und keine extrem überzogenen Versprechungen.

@ test

Sehr schöner Test mit nettem Fazit. AMD muss mit der nächsten Generation klotzen und nicht kleckern. Dennoch fehlen mir einige weiteren Aspekte. Stromverbrauch, Temperatur, Größe des PCBs (AMD Stock Karten), Lautstärke, usw... Ist ja nicht so als wenn AMD mit der Entwicklung stehen geblieben ist.

Nachtrag: Mich interessiert nur der Consumer Bereich und nicht der andere Kram. Man hat diese Karten auch explizit für Spieler beworben und nicht nur für wissenschaftliche Zwecke. Die Kritik ist also völlig berechtigt. AMD darf gerne exklusive Karten für Deep Learning, AI, was auch immer bringen, aber nicht die eierlegende Wollmichsau, die dann eh keine ist.
 
  • Gefällt mir
Reaktionen: Oneplusfan, Galatian und Gschwenni
Tja, bei Pascal haben einige User rumgemeckert, dass vom Maxwell auf Pascal fast nichts gemacht Wurde außer den Takt zu erhöhen.
Hier ist es nun das gleiche. Ich persönlich finde das aber überhaupt nicht schlimm. Zumindest, wenn die Taktsteigerung durch Verbesserungen an der Architektur erreicht wird und nicht durch stumpfes Erhöhen der Spannung und wenn es nicht nur ein paar Prozent sind. Aber da das hier der Fall ist, finde ich es überhaupt nicht schlimm, dass die Unterschiede bei Taktgleichheit nur gering sind.
Was ich schlimm finde ist, dass AMD so ewig lange für gebraucht hat. Denn für die großen Verzögerungen hätte man echt mehr erwarten können. Auch schade finde ich die Geschichte mit den primitive Shaders.
 
Wadenbeisser schrieb:
@Bärenmarke
Für einen Architektur Vergleich und einen Fortschritt bei der Treiberentwicklung ist ein Vergleich bei gleichem Chiptakt und gleicher Speicherbandbreite durchaus interessant. Das war wohl auch einer der Ansatzpunkte für den Test allerdings ist für solche speziellen Betrachtungen ein einheitliches Testfeld erforderlich und genau das war eben nicht gegeben.
Will man nur einen speziellen Punkt betrachten musss man eben andere Variablen ausschließen.

Ich finde um das Ergebnis dieses Tests wirklich bewerten und einordnen zu können, muss man diese Betrachtung auch bei aktuellen Karten des anderen Herstellers durchführen.

Gibt es hier nicht irgendwo Infos drüber?

Sternengucker80 schrieb:
Naja, nach bisherigen Aussagen, ist der GloFo Prozess nicht unbedingt Takt tauglich. Wenn Vega höheren Takt bei gleichem Verbrauch Leisten könnte, würde sie besser dastehen.
Um explizite Aussagen zu treffen, müsste ich den Beruf wechseln.
An Ryzen sieht man ja auch schön, das der Sweetpot unterhalb der Frequenz ist, mit dem er betrieben wird.
Es wird auch einen Grund geben, warum AMD den Fertiger gerne wechseln möchte.
Egal welcher Chip, er ist immer an der Kotzgrenze.
Zen, Polaris, Vega,.....
Das Loch muss endlich gestopft werden.
Ob das die Schuld am Prozess, Entwicklung oder sonst was ist, es muss endlich weg

.. Ja die Leistung von Zen, Polaris und Vega bei gleichem Taktbereich von Intel und Nvidia wäre mal interessant. Sicherlich ist der geringere Takt auch architekturbedingt. Aber sicherlich nicht nur.
 
mambokurt schrieb:
und wer sich eine 56 oder 64 nur zum Gaming holt hat einfach zu viel Geld über....

Mir fallen noch andere Gründe ein:
1. Man möchte NVIDIA nicht unterstützen
2. Nutzung von FreeSync
3. Man zieht den AMD Treiber vor
 
Pulverdings schrieb:
Takt bereinigt ist zwar interessant. Aber wenn Verbesserungen an der Architektur vorgenommen wurden, die es auf den neuen Karten erlauben deutlich höhere Taktraten als auf der alten Karte zu erreichen ist dies irrelevant. Einzig für den Stromverbrauch vielleicht nicht, wobei Nvidia Karten takten ja nochmal höher und verbrauchen weniger.

Für mich interessanter wäre ein aktueller Vergleich Vega / Pascal mit Vergleich zum Release von Vega. Aber wenn Turing "bald" kommt, bekommt man ja aktuelle Benchmarks.

Ich weiß ja nicht, aber ich glaube, einige wollen den Artikel einfach nicht verstehen und hängen sich dann an Treibern auf -die im Artikel aber nur ein Nebenschaukampf sind.

Was ich auch nicht verstehe ist, wie manche die Vega-Architektur mit allem was geht verteidigen. Für mich ist es völlig offensichtlich, dass da was schief gelaufen ist (und ich bin da längst nicht der einzige). Ich verstehe auch nicht, wie man Nvidia ankreiden will, dass sich mit Pascal auch nichts geändert hat. Da ist der Zustand doch ein völlig anderer.

Fangen wir bei Nvidia an:
Wie bereits geschrieben haben Maxwell und Pascal exakt dieselbe IPC. Das ist da aber auch nicht tragisch, denn die Situation zu AMD Vega ist eine völlig andere. Nvidia wollte mit Pascal auch nie die IPC erhöhen. Sie haben stattdessen den Takt deutlich erhöht und die GPUs deutlich breiter gemacht. Die GPUs sind dadurch deutlich schneller als Maxwell und benötigen zugleich noch weniger Energie.

Nun der Vergleich zu AMD: AMD wollte mit Vega die IPC erhöhen (das haben sie so oft auf dem Vega-Techday gesagt), den Takt steigern und auch die Energieffizienz. Herausgekommen ist, dass der Takt zwar deutlich höher geht und dadurch die Performance ansteigt. Allerdings ist die IPC eben nicht besser geworden und die Energieeffizienz auch nicht.

Ich verstehe nicht, wie man beide Zustände gleich setzen kann und irgendwie nicht die Unterschiede erkennen möchte. Nvidia wollte mit drei Dingen Pascal gegenüber Maxwell verbessern und hat alle drei erreicht. AMD wollte mit drei Dingen Vega gegenüber Fiji/Polaris verbessern und hat nur einen erreicht. Ja, Vega hat noch neue Features, die die Vorgänger nicht bieten. Aber über die geht es hier icht. Es geht um Features/Zustände, die die Performance verbessern sollen.


Erneut hinzu fügen möchte ich: Vega ist nicht schlecht. Wären die RX Vega 56/64 günstiger, wären sie ebenbürtige Gegener für die GTX 1070(Ti) / 1080. Aber sie sind eben nicht das geworden, was man (AMD & die Kunden) erwartet haben.
 
  • Gefällt mir
Reaktionen: Oneplusfan, Palmdale, Rock Lee und 2 andere
ralf1848 schrieb:
Der Artikel macht übrigens total Sinn, denn gerade bei Vega war immer seitens AMD, auch von Teilen der Presse und eben der Community immer die Rede von eben besagtem "Fine Wine".
Also brachliegendes Potenzial, das nur sozusagen "aktiviert" werden müsse.
Mit diesem Artikel ist aber das Gegenteil bewiesen. Danke dafür CB !
Die in diesem Artikel veröffentlichten Daten lassen keinerlei Aussage zur Entwicklung der Treiber zu, weil überhaupt nur Ergenisse mit einem Treiber enthalten sind.
Ergänzung ()

Casillas schrieb:
Berichtigt mich bitte wenn ich falsch liegen sollte, aber holen die Hersteller nicht schon immer das größte Performance Plus bei neuen Generationen aus Taktsteigerungen, bzw. mehr Shadern etc heraus, die durch eine verbesserte Fertigung oder kleinere Fertigung ergeben?
Meist aber nicht immer. Nvidia hat die Effizienz beim Schritt von Kepler auf Maxwell durch den Wechsel zu einem tile-based rasterizer deutlich verbessert.

Casillas schrieb:
Ich hab so das Gefühl, dass für einige das jetzt eine so große Überraschung ist, dass taktbereinigt mit gleicher CU bzw. shaderanzahl etc, keine großen Zuwächse da sind.
Wie überrascht man ist kommt wahrscheinlich sehr darauf an, wie die Erwartungen an die Vega-eigenen Leistungsmerkmale vor der Veröffentlichung war.
Ergänzung ()

Casillas schrieb:
Ja die Leistung von Zen, Polaris und Vega bei gleichem Taktbereich von Intel und Nvidia wäre mal interessant. Sicherlich ist der geringere Takt auch architekturbedingt. Aber sicherlich nicht nur.
Jedenfalls für Zen / Zen + / Skylake-X / Coffee Lake gibt es solche Tests, z.B. von HardwareUnboxed (zwei Links), wobei das halt ins akademische abdriftet eben weil die jeweiligen Implementierungen nicht für die gleichen Taktraten konzipiert sind.
Ergänzung ()

Wolfgang schrieb:
Nun der Vergleich zu AMD: AMD wollte mit Vega die IPC erhöhen (das haben sie so oft auf dem Vega-Techday gesagt), den Takt steigern und auch die Energieffizienz. Herausgekommen ist, dass der Takt zwar deutlich höher geht und dadurch die Performance ansteigt. Allerdings ist die IPC eben nicht besser geworden und die Energieeffizienz auch nicht.
Die Effizienz ist sehr wohl besser, schließlich liefert Vega bei gleicher Energieaufnahme mehr Leistung. (und im Umkehrschluss die gleiche Leistung bei geringerer Energieaufnahme)

AMD hat halt, weil die Leistung am Ende nicht gut genug war, um mit dem Produkt am Markt profitabel auftreten zu können, 100% oder mehr der Effizienzsteigerungen in rohe Takterhöhungen "investiert."
 
Zuletzt bearbeitet:
incurable schrieb:
Die Effizienz ist sehr wohl besser, schließlich liefert Vega bei gleicher Energieaufnahme mehr Leistung. (und im Umkehrschluss die gleiche Leistung bei geringerer Energieaufnahme)

AMD hat halt, weil die Leistung am Ende nicht gut genug war, um mit dem Produkt am Markt profitabel auftreten zu können, 100% oder mehr der Effizienzsteigerungen in rohe Takterhöhungen "investiert."

https://www.computerbase.de/artikel....60541/seite-6#abschnitt_performance_pro_watt

Gegenüber Polaris ist die Energieeffizienz kaum besser geworden. Gegenüber Fiji ein wenig. Wenn man die kleinere Fertigung bedenkt, ist das aber alles nur durch die Fertigung gekommen, nicht durch die Architektur. Und klar, Vega würde bei weniger Takt gut weniger Energie benötigen. Der Takt ist aber nunmal so wie er ist. Und weniger Takt trotz Optimierungen für mehr Takt und damit auch weniger Performance und damit hinter GTX 1070(Ti)/1080 zurück ist nun auch nicht so Dolle.
 
  • Gefällt mir
Reaktionen: Oneplusfan, Gschwenni und Nitschi66
incurable schrieb:
Ergänzung ()

Jedenfalls für Zen / Zen + / Skylake-X / Coffee Lake gibt es solche Tests, z.B. von HardwareUnboxed (zwei Links), wobei das halt ins akademische abdriftet eben weil die jeweiligen Implementierungen nicht für die gleichen Taktraten konzipiert sind.

Ja und dann sind wir wieder bei dem Punkt, bei dem man diskutieren ""kann"" in wie weit taktbereinigte Tests aussagekräftig sind.

CB hat es ja angedeutet. Interne Timings usw. : "interne Timings sind damit nicht optimal konfiguriert. Eine für den geringeren Takt optimierte Vega könnte also etwas schneller sein. "
Im Fazit des Tests ist davon keine Rede mehr.

Aber gut. Das wurde hier schon zu genüge zerpflückt.


trane87 schrieb:
Ui! Was geht denn hier ab?

Klar, hat AMD extrem Erwartung geschürrt, aber die Community war auch stark beteiligt. Ich erinnere mich noch an die unzähligen AMD Threads hier auf CB. Es wurde immer wieder betont, wie schnell die Karte ist. Die Entwickler müssen diese nur richtig ausnutzen, AMDs Treiber werden nach Wochen Wunder bewirken und die Karte hat extrem viel Rohleistung die nicht auf die Straße gebracht wird, das aber bald passiert.

Nun ein Jahr später ist davon nichts eingetreten und die ganzen Propheten rechtfertigen sich jetzt hier im Thread und verteidigen die eigene Philosophie. Aus Sicht der Consumer bietet einfach AMD Karten aktuell kein gutes Gesamtpaket. Zu teuer, zu hoher Stromverbrauch, kein Alternative für die Masse.
Der Hardcore Gamer mit Geld wird sich die größte und schnellste Karte auf den Markt zulegen und der Rest kauft irgendwo bei 100-250€ ein.

Ich würde mich freuen, wenn AMD endlich mal konkurrenzfähig wird in alle Bereichen der Grafikkarten Sparte. Keine Experimente, kein Versuch eine Karte für alles zu produzieren, keine Besonderheiten die erst unterstützt werden muss und keine extrem überzogenen Versprechungen.

@ test

Sehr schöner Test mit nettem Fazit. AMD muss mit der nächsten Generation klotzen und nicht kleckern. Dennoch fehlen mir einige weiteren Aspekte. Stromverbrauch, Temperatur, Größe des PCBs (AMD Stock Karten), Lautstärke, usw... Ist ja nicht so als wenn AMD mit der Entwicklung stehen geblieben ist.

Nachtrag: Mich interessiert nur der Consumer Bereich und nicht der andere Kram. Man hat diese Karten auch explizit für Spieler beworben und nicht nur für wissenschaftliche Zwecke. Die Kritik ist also völlig berechtigt. AMD darf gerne exklusive Karten für Deep Learning, AI, was auch immer bringen, aber nicht die eierlegende Wollmichsau, die dann eh keine ist.

Ja das ist das Problem. Vielleicht sollten wir alle einmal akzeptieren, dass AMD vielleicht auch einfach nicht mehr kann. Sie haben einfach nicht die Ressourcen, um extra Produkte bzw. Architekturen für Consumer Markt und Deep Learning, AI usw. zu entwickeln.
Da sind wir dann weit weg von "dürfen" und "müssen".



Wolfgang schrieb:
Ich weiß ja nicht, aber ich glaube, einige wollen den Artikel einfach nicht verstehen und hängen sich dann an Treibern auf -die im Artikel aber nur ein Nebenschaukampf sind.

Was ich auch nicht verstehe ist, wie manche die Vega-Architektur mit allem was geht verteidigen. Für mich ist es völlig offensichtlich, dass da was schief gelaufen ist (und ich bin da längst nicht der einzige). Ich verstehe auch nicht, wie man Nvidia ankreiden will, dass sich mit Pascal auch nichts geändert hat. Da ist der Zustand doch ein völlig anderer.

Fangen wir bei Nvidia an:
Wie bereits geschrieben haben Maxwell und Pascal exakt dieselbe IPC. Das ist da aber auch nicht tragisch, denn die Situation zu AMD Vega ist eine völlig andere. Nvidia wollte mit Pascal auch nie die IPC erhöhen. Sie haben stattdessen den Takt deutlich erhöht und die GPUs deutlich breiter gemacht. Die GPUs sind dadurch deutlich schneller als Maxwell und benötigen zugleich noch weniger Energie.

Nun der Vergleich zu AMD: AMD wollte mit Vega die IPC erhöhen (das haben sie so oft auf dem Vega-Techday gesagt), den Takt steigern und auch die Energieffizienz. Herausgekommen ist, dass der Takt zwar deutlich höher geht und dadurch die Performance ansteigt. Allerdings ist die IPC eben nicht besser geworden und die Energieeffizienz auch nicht.

Ich verstehe nicht, wie man beide Zustände gleich setzen kann und irgendwie nicht die Unterschiede erkennen möchte. Nvidia wollte mit drei Dingen Pascal gegenüber Maxwell verbessern und hat alle drei erreicht. AMD wollte mit drei Dingen Vega gegenüber Fiji/Polaris verbessern und hat nur einen erreicht. Ja, Vega hat noch neue Features, die die Vorgänger nicht bieten. Aber über die geht es hier icht. Es geht um Features/Zustände, die die Performance verbessern sollen.


Erneut hinzu fügen möchte ich: Vega ist nicht schlecht. Wären die RX Vega 56/64 günstiger, wären sie ebenbürtige Gegener für die GTX 1070(Ti) / 1080. Aber sie sind eben nicht das geworden, was man (AMD & die Kunden) erwartet haben.

Hier genau das gleiche. Situation im Allg. bei Nvidia und AMD sind einfach verschieden. Es ist vielleicht sogar so, dass, wie du sagst, Nvidia sich das leisten konnte, "nur" den Takt zu erhöhen.
Bei AMD war halt das "Gesamtpaket" an Verbesserungen dran, was sie halt nicht geliefert haben, bzw. vielleicht auch einfach nicht liefern konnten.

Ich bleib dabei. Ich bin froh das AMD mit Zen was gutes geschafft hat. Lieber mit Zen ein Erfolg und mit Vega im Consumerbereich nicht. Anders herum wäre es für AMD im Moment wohl nicht so gut (in Relation gesehen) bestellt.
 
  • Gefällt mir
Reaktionen: Chismon
Casillas schrieb:
Hier genau das gleiche. Situation im Allg. bei Nvidia und AMD sind einfach verschieden. Es ist vielleicht sogar so, dass, wie du sagst, Nvidia sich das leisten konnte, "nur" den Takt zu erhöhen.
Bei AMD war halt das "Gesamtpaket" an Verbesserungen dran, was sie halt nicht geliefert haben, bzw. vielleicht auch einfach nicht liefern konnten.
Natürlich hat es AMD bezüglich finanzen deutlich schwerer als Nvidia. Und natürlich muss AMD entscheiden, was sie tun wollen und was nicht, während Nvidia einfach "mal machen kann".

Aber das macht das ganze mit Vega ja noch viel auffälliger. Es wird viel geändert in der Architektur und es kommt nichts bei rum. Das spricht ja nur noch viel mehr dafür, dass da was nicht hin haut. Wenn ich wenig Geld habe, ändere ich doch nur so wenig wie möglich mit möglichst viel Effekt. Und nicht so viel wie seit langem nichts mehr und es kommt nichts bei rum. (Bevor es jetzt wieder los geht: Ich beziehe mich nur auf die Basis-Architektur abseits der Taktverbesserungen).
 
  • Gefällt mir
Reaktionen: Galatian und Gschwenni
Ich denke selbst Lisa Su würde vielen hier widersprechen, die sind mit Sicherheit sehr unzufrieden mit Vega, man darf nicht vergessen, zwischen Release der GTX 1080 bis zum Release zur Vega liegen 15Monate. AMD war noch nie so weit hinter den Konkurrenten, in den letzten Jahren ein paar Mal Anfangs vorne (zb. HD 7970) ansonsten dich an Nvidias HighEnd Chip dran und jetzt wirklich weit weg, daß konnte gar nicht im Sinne von AMD sein, nicht mit einen so teuren Chip. Das Raja Koduri so schnell weg war spricht ja auch Bände über die Zufriedenheit in der AMD Chefetage. Wenn jetzt Turing kommt, liegen sie noch abgeschlagener mit Vega da und aufholen wird dadurch nicht gerade einfacher.
 
  • Gefällt mir
Reaktionen: Gschwenni
Wolfgang schrieb:
Nun der Vergleich zu AMD: AMD wollte mit Vega die IPC erhöhen (das haben sie so oft auf dem Vega-Techday gesagt), den Takt steigern und auch die Energieffizienz. Herausgekommen ist, dass der Takt zwar deutlich höher geht und dadurch die Performance ansteigt. Allerdings ist die IPC eben nicht besser geworden und die Energieeffizienz auch nicht.
Da sagt dein Test aber was ganz anderes. Auch wenn es wenige Prozent sind, dennoch ist die IPC gestiegen.
Auch ist die Effizienz ebenfalls gestiegen denn bei Taktgeichstand arbeitet der Chip erheblich effizienter und wenn man beim gleichen Strom Einsatz mehr Rechenleistung raus bekommt steigt die Effizienz ebenfalls. Das die Effizienz mit dem Hochprügeln der Taktfrequenz wieder leidet weild er Strombedarf überproportial zunimmt ist nun wirklich nichts neues. Nur sehe ich zum Thema (Energie) Effizienz keinen Punkt in dem Test.
Unterm Strich macht der Test so für micht den Eindruck als wenn er das Ergebnis nur bestätigen sollte.
 
Zurück
Oben