News Radeon RX 500X: AMD verpasst Polaris für OEMs einen neuen Namen

Amd soll die High End Karten lassen und sich voll auf die Mittelklasse/Mainstream konzentrieren und da Nvidia ordentlich Druck machen.
Besser als in beiden Bereichen nichts auf die Reihe zu bekommen
 
damit amd "wieder was auf die reihe bekommt" müsste nvidia den quellcode für gameworks offenlegen, amd die gpus nach nvidias vorbild bauen und spieleentwickler für amd optimieren. alles was nicht nvidia ist, läuft einfach in einer nvidia dominierten spielelandschaft nunmal schlicht und ergreifend schlechter.

es liegt nicht daran, dass die hardware von amd schlecht ist, sie ist nur anders - die "nvidia software" läuft auf amd hardware einfach schlechter. die verluste aus der wollmilchsau-gcn-architektur sind relativ gering gegen die massiven verluste aus gameworks und einseitiger optimierung.

und da kann sich amd auf den kopf stellen - die können einfach nichts an der architektur ändern, was den spieleentwicklern die arbeit der optimierung abnimmt. ohne marktanteile wird amd nie wieder konkurrenzfähig zu nvidia sein. der bereich, in dem nvidia das groß des vorsprungs hernimmt, liegt außerhalb des handlungsbereichs von amd.

"amd muss halt mal wieder ne gute gpu entwickeln" ist kompletter blödsinn.
 
@duskstalker

Das ist mir etwas zu einseitig argumentiert. Gameworks lässt sich zumeist auch ausschalten...
 
duskstalker schrieb:
damit amd "wieder was auf die reihe bekommt" müsste nvidia den quellcode für gameworks offenlegen, amd die gpus nach nvidias vorbild bauen und spieleentwickler für amd optimieren. alles was nicht nvidia ist, läuft einfach in einer nvidia dominierten spielelandschaft nunmal schlicht und ergreifend schlechter.

es liegt nicht daran, dass die hardware von amd schlecht ist, sie ist nur anders - die "nvidia software" läuft auf amd hardware einfach schlechter. die verluste aus der wollmilchsau-gcn-architektur sind relativ gering gegen die massiven verluste aus gameworks und einseitiger optimierung.

und da kann sich amd auf den kopf stellen - die können einfach nichts an der architektur ändern, was den spieleentwicklern die arbeit der optimierung abnimmt. ohne marktanteile wird amd nie wieder konkurrenzfähig zu nvidia sein. der bereich, in dem nvidia das groß des vorsprungs hernimmt, liegt außerhalb des handlungsbereichs von amd.

"amd muss halt mal wieder ne gute gpu entwickeln" ist kompletter blödsinn.

Volle Zustimmung. So sieht leider die Lage am GPU & PC-Spiele Markt aus.
 
HaZweiOh schrieb:
Ist denn ein GDDR-Interface im Chip enthalten?

Vega funktioniert doch mit jedem Speichertyp dank HBCC. Raven Ridge ist doch der beste Beweis dafür. Da hängt die Vega an DDR4. Also sollte eine GDDR5 Vega umsetzbar sein. Gibt nur derzeit keine passend große GPU dafür. Die Vega Mobile mit 28 CUs (1792 Shader) ist ja noch nicht über einen Gerüchtestatus hinaus.
 
DonDonat schrieb:
Nur muss man dazu halt nicht alle Regler im Spiel auf ULTRA stellen sondern gerade im Punkto Kantenglättung (die in 4k eh nicht so wichtig ist, wie dir jeder Nutzer eines 4k Geräts mit potenter Grafikkarte bestätigen wird) vielleicht die zweit oder bei schlecht optimierten Spielen dritt-höchste Stufe wählen.
+1
Auf Kantenglättung kann ich in 4k locker verzichten, ich sehe mut meinen ü40jährigen Augen da keinen Mehrwert, wohingehend die fps deutlich profitieren!

Cities:Skylines und WOWS sind zwar nun keine Killer was die Grafikpracht angeht, 4k sieht aber deutlich besser aus als 2K. Und die 1070 macht das mit 60fps. Witcher hingegen ist mit der Karte nur bis WQHD sinnvoll.

Ich vermisse auch passende Monitore. Ich hätte zu gerne etwas in der 21:9 (o.ä. )-Klasse mit ????x2160. Und für das kleine Spielchen nach Feierabend gerne mit GSync...
 
Palmdale schrieb:
@duskstalker

Das ist mir etwas zu einseitig argumentiert. Gameworks lässt sich zumeist auch ausschalten...

Das Problem sind nicht die abschaltbaren Gameworks Effekte, sondern das Problem ist, dass die Spiele-Hersteller, oder noch schlimmer die ENGINE Hersteller hingehen und die Software für Nvidia Karten optimieren.
Macht ja aus deren Sicht auch Sinn, da in den meisten PCs eine Nvidia Karte drin ist.
Bei den meisten Leuten mit Intel CPU + Nvidia GPU läuft es dann auch gut, allerdings gibts es auch die Leute die eine AMD Karte oder AMD APU haben und bei DENEN läuft das ganze dann wesentlich weniger performant weil eben nicht für AMD optimiert.

Die AMD Karten sind an sich leistungsfähig genug, doch aufgrund fehlender optimierung können die ihre Leistung garnicht voll rüberbringen.
 
Die AMD Karten sind an sich leistungsfähig genug, doch aufgrund fehlender optimierung können die ihre Leistung garnicht voll rüberbringen.

Gab doch einige wenige Beispiele, wo auch mal für AMD-Karten optimiert wurde und die V64 direkt auf bzw. über 1080Ti Niveau war. Das neue Wolfenstein z.B. Wenn sich das auf dem Niveau die Waage halten würde, d.h. ebenso viele Spiele für AMD optimiert wären wie für NV dann wäre AMD mit den Vegas absolut konkurrenzfähig ggü. dem NV-Lineup.

Sieht man ja auch schön an der Rohleistung der Karten, die wird aktuell eben nur von Minern ausgenutzt, nicht aber von den Gamern.

In der Hinsicht hat duskstalker m.M.n. Recht, AMD müsste das Malus an Optimierung ja mit ~20-30% mehr Rohleistung ausgleichen, was wohl schlicht unmöglich ist ohne den Stromverbrauch und die Marge an die Wand zu fahren, denn für diese Rohleistung bräuchte man einen noch größeren Chip als es Vega schon ist.
 
Zuletzt bearbeitet:
Spieleentwickler?
Achso, Ihr meint die Leute die fertigen Code aus dem Gameworks-Baukasten zusammenfrickeln können :lol:

Duskstalker +1

Und an alle die über Radeon-GPU´s herziehen - macht euch erstmal ein eigenes Bild wie es sich aktuell auf einer Radeon spielt, anstatt das Spielgefühl einzig anhand der von Medien gezeigten FPS-Balkenlänge zu bewerten.

Mal als Anregung -> FreeSync2 vs G-Sync
Schönes Video zum Artikel gibbet auch noch:
https://www.youtube.com/watch?v=P4hRg6kfLoI&feature=youtu.be
 
@Duskstalker
Ich gebe dir in vielem Recht, möchte aber einwerfen, dass der Wechsel auf HBM ein verfrühter Fehlschuß war. Hätte klappen können, hätte gut werden können, aber die Technologie hält noch nicht, was sie verspricht. Und so hängt HBM nun ein bisschen wie ein zusätzlicher Klotz am Bein, der es nicht einfacher macht, Vega in guten Stückzahlen und zu konkurrenzfähigen Preisen in den Handel zu bringen. Und aus der Nummer kommt AMD nicht ohne umfassende Anpassungen an der Architektur heraus. Das muss AMD jetzt aussitzen, bis sich HBM durchsetzt.

Ansonsten gebe ich dir Recht, AMDs größtes Problem liegt in den APIs und in der Optimierung, und da kann AMD den Entwicklern nur auf halbem Wege entgegen kommen. Wenn die Entwickler nicht für Polaris und Vega optimieren wollen, dann kann AMD daran nicht viel ändern. Sollte AMD also NVidia kopieren, so wie man sich schon mit Zen das eine oder andere bei Intel abgeschaut hat?

Ich denke, wir sollten uns eher mit dem Gedanken abfinden, das PC-Gaming nur noch ein Businessbereich von vielen für AMD ist. Die Architekturen, die AMD entwickelt hat, reißen im High-End-Gaming vielleicht keine Bäume aus, aber dafür sind diese Architekturen im Computing sehr viel stärker und ansonsten auch überall dort gefragt, wo integrierte und effiziente Lösungen benötigt werden. AMD spielt vielleicht nicht die erste Geige, wenn es um High-End-Gaming geht, aber wenn alle anderen Geschäftsbereiche dank der vielseitigen Chip-Designs gut laufen, dann ist AMD vielleicht auch ganz zufrieden damit, im PC-Gaming-Bereich nur in der Mittelklasse mitzuspielen.
 
Dante2000 schrieb:
Bei welchen Spielen, wenn ich fragen darf? Ich spiele eigentlich alle aktuellen Spiele und habe dort, wie gesagt außer bei Final Fantasy 15, keinerlei Probleme diese in hohen Auflösungen mit meist maximalen Einstellungen zu spielen.

Spiele welche in der letzten desöfteren Spiele: 1920x1080p@120 Hertz und maximalen Einstellungen:
- Battlefield 1 - 60-75 FPS
- PUBG - Gute 50-70 FPS (Wobei hier tatsächlich nicht alles auf maximaler Einstellung ist)
- Far Cry 5 - 55 - 75 FPS
- GTA V - 50 - 70 FPS
- Fallout 4 - Vanilla konstante 60 FPS - Erst durch meine Mod- und ENB Kombi komme ich ins Strudeln und springe zwischen 25 bis 50 FPS (4K Texturen Pakete sowie die PRC ENB)

Ich habe mal die letzten CB-Ergebnisse abgetippert und die GTX970 in 1080p mit der GTX1080Ti in 2160p (und als Zwischenstufe die GTX1070 in 1440p) verglichen.

In den meisten Fällen bekommst du bei identischen Einstellungen und der höheren Auflösung gleiche oder bessere Ergebnisse:

970.jpg

Wer also mit einer GTX970 in 1080p zufrieden ist, sollte das auch mit einer GTX1070 in 1440p und einer GTX1080Ti in 2160p sein.
 
AMD spielt vielleicht nicht die erste Geige, wenn es um High-End-Gaming geht, aber wenn alle anderen Geschäftsbereiche dank der vielseitigen Chip-Designs gut laufen, dann ist AMD vielleicht auch ganz zufrieden damit, im PC-Gaming-Bereich nur in der Mittelklasse mitzuspielen.

Selbst hier muss man mal relativieren, die V64 und V56 sind ihren Gegenspielern GTX 1070 und GTX 1080 (zu normalen Preisen alá 400/500€) durchaus ebenbürtig, wenn man vom Stromverbrauch absieht. Die 1080Ti wird zwar nicht erreicht, aber mit 20-30% Vorsprung ist da auch keine allzu große Kluft.
 
Naja NVIDIA hat halt den Zahn der Zeit erkannt und ihren Software-Scheduler für DX11 herausgebracht. Da kann AMD noch so viele neue tollen Techniken bringen und einen noch so tollen Hardware-Scheduler haben, als Entwickler der auch nur gewinnorientiert arbeitet, nehme ich doch lieber DX11 mit null Aufwand (bei dem NVIDIA dank Software-Scheduler glänzt) als DX12 oder Vulkan, wo ich nochmal deutlich mehr Geld investieren muss. NVIDIA hat da das einzig sinnvolle gemacht, nämlich einen der größten Engpässe bei DX11 und dementsprechend auch bei einem Großteil der Spiele angepackt. Da kann AMD noch so viele neue Features raushauen, am Ende gewinnt eben die Architektur, welche mir am schnellsten Pixel zaubert.
 
@Galatian:

nVidia hält natürlich deshalb nur zu gerne an DX11 fest. Aber sie selbst treiben ja mittlerweile mehr die Entwicklung von DX12 voran, da sie nicht ewig ein totes Pferd reiten können -> Stichwort RayTracing.

Über kurz oder lang sehen wir dann auch vernünftige DX12 Spiele, die auch richtig umgesetzt werden, davon profitieren beide Hersteller.
 
Zuletzt bearbeitet:
Palmdale schrieb:
@duskstalker

Das ist mir etwas zu einseitig argumentiert. Gameworks lässt sich zumeist auch ausschalten...

zumeist? "manchmal teilweise" wäre eher die richtige formulierung. man weiß oft nichtmal, dass es überhaupt drin ist.

zumal hier das problem doch schon bei den reviewseiten wie computerbase anfängt. hier wird nämlich bspw. grundsätzlich mit maximaler "nvidia" tessellation gebencht und nicht mit dem amd standard "amd optimiert".

die letzte kontrollinstanz "presse" spielt nvidia in dem punkt vollgas in die karten. keiner weiß, wie amd karten in spielen ohne gameworks/begrenzter tessellation performen würden, weil das keiner bencht (bis auf wenige kritische artikel einzelner autoren oder seiten, bspw bei witcher 3 hairworks). jeder kennt nur die zahlen aus dem nvidia heimspiel. und das ist meiner meinung nach nicht nur unfair, sondern in der situation von amd mit ~10% marktanteilen in gaming rechnern auch noch konkurrenz- und verbraucherschädigend bzw. monopolfördernd.

aber die presse hats komplett verpennt hier nvidia über die letzten jahre mal ordentlich auf die finger zu klopfen.

man darf nie vergessen, dass gameworks nicht deshalb exisitert, weil nvidia für mehr freizeit für programmierer, engineentwickler und grafiker kämpft. nvidia ist nicht der good-guy von nebenan und verschenkt einfach so abertausende entwicklungsstunden an arbeit für effekte und libraries an bedürftige entwicklerstudios. gameworks hat einen preis, und das ist die standardmäßige bevorteilung von nvidia karten - anders würde das ganze programm nicht mal sinn machen. sollen doch die spieleentwickler selbst die effekte programmieren. ist doch nicht das problem von nvidia, wie "gut" das spiel aussieht, oder ob fremde programmierer überstunden machen.

gameworks ist ein instrument, unter dem deckmantel eines "features", wie physX oder GPP, um sich die vormachtstellung im gaming gpu markt zu sichern, was leider uneingeschränkt funktioniert hat. (nachdem man mit physX zunächst gescheitert ist)

sverebom schrieb:
@Duskstalker
Ich gebe dir in vielem Recht, möchte aber einwerfen, dass der Wechsel auf HBM ein verfrühter Fehlschuß war.

da stimme ich dir insofern nicht zu, weil ich HBM nicht als fehler sehe, sondern als innovation, die sich noch als mainstreamtauglich beweisen muss. die fury nano bot zu ihrer zeit ein noch nie dagewesenes verhältnis von größe zu leistung.

bis auf den preis hat HBM quasi nur vorteile. ich finde es richtig hbm einzusetzen und zu fördern. den platz, den DDR ics brauchen, kann man besser nutzen. hbm lässt sich besser kühlen und verbraucht weniger strom.

DDR speicher ist eigentlich nur eins: billiger (momentan nicht mal das). in so einem innovationslosen markt wie gaming gpus finde ich das als feature ziemlich dünn.

sverebom schrieb:
Und so hängt HBM nun ein bisschen wie ein zusätzlicher Klotz am Bein, der es nicht einfacher macht, Vega in guten Stückzahlen und zu konkurrenzfähigen Preisen in den Handel zu bringen.

das derzeitige hauptproblem ist weder hbm noch der gpu yield, sondern mining - die nachfrage aus dem mining segment hätte der gaming markt glaube ich niemals zustande gebracht. vega war über ein paar wochen zu wirklich guten preisen verfügbar und erst mit dem bekanntwerden der enormen mining leistung von vega haben sich die karten so verteuert und bis zur unauffindbarkeit verknappt. als reine gaming karte wäre die nachfrage möglicherweise gering genug gewesen um gerade so "flüssig" bedient werden zu können.
letztendlich war der mining hype um vega der absolute worst case. alle strategisch schmerzhaft günstig platzierten vega gaming karten sind zu schleuderpreisen in mining rigs verschwunden. dieser absurd niedrige mrsp von vega 56 lässt eigentlich nur den schluss zu: dass amd mit vega richtig um gaming anteile kämpfen wollte.

ich halte es für einen absoluten trugschluss aus dem ganzen vega-hate die vega verkäufe an miner als "glück" zu bezeichnen.

"es gibt keine schlechten grafikkarten, es gibt nur schlechte preise." vega als gaming gpu zu der mrsp hätte eine zukunft gehabt - und wenns nur die vega 56 gewesen wäre.

sverebom schrieb:
[...]dann ist AMD vielleicht auch ganz zufrieden damit, im PC-Gaming-Bereich nur in der Mittelklasse mitzuspielen.

das problem mit der optimierung betrifft ja nicht nur die high end karten, sondern alle. gerne wird polaris als zu stromhungrig oder als heizung bezeichnet.
aber was hier eigentlich bemängelt wird ist das verhältnis von fps zu verbrauch. und hier liegt der schlüssel ganz klar in den zu niedrigen fps aus dem "normalen" verbrauch der ansonsten weit potenteren hardware im vergleich zur gtx 1060. die gtx 1060 ist nur deshalb so effizient, weil nvidia für die selbe leistung weniger hardware braucht, weil nvidia nicht 20% der rechenleistung in software verheizt. würde also bspw. polaris einfach mehr fps aus der vorhandenen hardware bekommen, wäre das verhältnis von fps/verbrauch besser und polaris wäre auf einmal "effizient".

es gibt im CB parkour ein paar spiele, in denen die rx580 so weit vor der 1060 liegt, wie die 1070 vor der rx580 - also quasi in der mitte zwischen 1060 und 1070 - was eine extrem komfortable situation für die rx580 ist. da gibts auch am stromverbrauch absolut nichts mehr zu meckern.

und hier stellt sich ganz klar die frage: was ist die "echte" leistung der rx580 bzw. aller amd karten? wir wissen, dass die rx580 im mittel (mit nvidia spielen) ziemlich genau so schnell ist wie die gtx 1060. wo kommt dann das delta von 20% in manchen spielen her? wird nvidia hier gegimpt? oder amd karten ohne softwarebremse?
 
Ja klar irgendwann...ich versteh nicht wie man do vernarrt in einen Hersteller sein kann, dass man die Optimierung für DX11 blöd findet. Da sind schließlich tausende Spiele von betroffen. Und wollen wir mal ein zwei Händen die Spiele abzählen wo der DX12 Modus durchweg mehr Leistung bringt?
 
@ Galatian
Nvidia hat nichts anderes gemacht als den verrotteten Zahn der Zeit zu verblenden anstatt ihn zu behandeln.
Die CPUs haben mehr und mehr Kerne die bei DX11 immer nutzloser werden und du singst Lobeshymnen darüber das man an den Symptomen rumdoktort anstatt das grundlegene Problem anzugehen. Den lausigen bis kaum vorhandenen multicore Fähigkeiten von DX11, welche mit Sicherheit auch mit dafür verantwortlich sind das der CPU Markt so lange stagnierte.
Der einzige der das Problem wirklich angegangen waren nicht die beiden Marktführer mit einem vielfachen des Entwicklungsbudgets sondern ausgerechnet der kleine Rivale der gegen beide gleichzeitig an 2 Fronten bestehen muss.

Hier wird Stagnation durch Gewinnmaximierung der Marktführer bejubelt, mich als Kunde interessiert das herzlich wenig, ich will das meine teuer erkaufte Hardware auch effektiv genutzt wird und darauf kann man bei den Platzhirschen wohl lange warten.
 
Fast 2 Jahre sind auch eine lange Zeit ohne was neues. Klar, dass sich "neue" Hardware auf dem Papier immer gut macht, zumindest bei den Medion Kunden.
 
Zuletzt bearbeitet von einem Moderator:
Quatsch. Was zu optimieren, heißt ja nicht, dass das neue nicht unterstützt wird. Irgendwann wird DX12 mal durchstarten und auch dann wird NVIDIA genauso wie AMD ordentlich DX12 implementiert haben. Läuft ja heute auch auf Pascal zumindest. ohne Leistungseinbruch. Was bleibt ist die schlechtere Umsetzung von DX11 bei AMD. Ist schon ein bisschen schizophren sich dann hinzustellen und zu sagen NVIDIA ist der böse, weil DX11 gepusht wird.

Die Lösung liegt ja hier klar auf der Hand...
 
Zurück
Oben