News Radeon RX 500X: AMD verpasst Polaris für OEMs einen neuen Namen

Vielerorts wird ein shrink auf 12nm erwartet, ist ja auch sinnvoll da so mehr Cores auf einen Wafer passen. Vielleicht garniert mit ein paar kleineren Verbesserungen im Design/Architektur - who knows.
Vielleicht versteckt sich ja auch eine abgereicherte Vega irgendwo im Lineup.
Daß die nicht als RX600 kommen ist überraschend - da haben wohl die Techniker die Marketingfuzzies überstimmt nachdem RX400 -> RX500 in der Presse nicht wirklich gut aufgenommen wurde.
 
ja, vielleicht wird es eine auf GCN5 Funktionseinheiten aktualisierte RX, aber eben noch mit GDDR5 RAM. Wäre P/L mäßig sicher ideal im mittleren Leistungssegment.
 
Zum Thema Nvidia nutzt AMDs Schwäche aus.

GTX980 _ 2014
GTX1080 _ 2016
GTX1180 _ 2018

Nvidia ruht sich nicht auf ihren Lorbeeren aus.
Ist der Normale Rhythmus.

Hab bis jetzt fast jeden Sprung miit gemacht und der Mehrwert war immer gewaltig.

Obwohl man beim Sprung von 980 auf 1080 dem mal Mehrwert nur noch an den Fps Zähler gesehen hat.
 
Andregee schrieb:
Nicht allgemein sondern realistisch. Aber Hey wenn deine 970 für Fullhd ausreicht, dann tut es auch eine 1080ti in 4k. Dann frage ich mich wo das Problem liegt. Schlechte Software gab es immer und wird es immer geben. Die Entwicklung der Leistung ist von der Fertigung abhängig da AMD und Nvidia lediglich Auftraggeber sind ist hier eine vorsätzliche Zurückhaltung nicht zu erkennen. Selbst wenn man die Intention verfolgen würde, wäre es unmöglich mit aktueller Technologie mehr zu leisten. Die kommende Architektur befindet sich in der Entwicklung. Außerdem, 8k halte ich eh für ausgemachen Unfug da die Optinaldistanz bei 100 Prozent Sehvisus mal gerade 50 cm auf 50 Zoll beträgt.
16k wird dann richtig albern

Albern hin oder her. Fakt ist, das meine alte 2014er GPU in FullHD Spielen keinerlei Probleme hat. Die "neuste 2017" 1080 TI, für 4K gebaut, jedoch bis heute das eben versprochene nur bedingt erfüllen kann. Zwischen den GPUs liegen gute 3 Jahre, lass es zwei Jahre für die Entwicklung, sein.

Was genau ist deiner Meinung nach "Unmöglich"? Das sich die Technik realistisch weiterentwickelt? Das es 4K, Thema seit 2013, endlich mal im Jahre 2018 für jeder Mann in vernünftigen Preislagen geben sollte? 8K GPUs sind längst überfällig, bzw. werden in den nächsten Jahren gefordert / benötigt werden. Laut Nvidia sind 4K+ technisch für sie auch kein Hindernis mehr, jedoch gibt's von keiner Seite einen Druck für eine Leistungssteigerung.

Bezüglich der 8K vs 16K Aussage. Einen Unterschied zum aktuellen FullHD Standard im direkten Vergleich sieht man sofort. Gleiches ist bei FullHD und 4K der Fall und wird bei den noch höheren Auflösungen immer sichtbar bleiben. Leider leben wir in Europa technisch jedoch in der Steinzeit. Wer einmal nach Japan gefahren ist oder sich mal informiert hat, was technisch dort "Alltag" ist, wird sich wundern.

Hier werden 1080i als "High End" verkauft, in diesem Jahr strahlt man in Japan bereits flächendecken in 8K ihre Programme aus. Wir brauchen in dem Fall jedoch nicht weiter diskutieren. Ich verstehe durchaus was du meinst, jedoch erwarte ich halt mal einen gewissen Durchbruch und vor allem einen mindest Standard im Grafikkarten-Markt. Seit zig Jahren wurde von 4K gesprochen und nichts entwickelt.

Diese "es geht gerade nicht besser" Aussagen sind meiner Meinung nach zwiespältig. Natürlich gibt es Grenzen - Aber seitwann lässt man sich denn dadurch aufhalten? Ich schätze durchaus das die neue Nvidia Reihe endlich 4K@60 FPS lauffähig machen wird. Aber darauf warte ich seit 2014...
 
Zuletzt bearbeitet:
Marcel55 schrieb:
Und wann man endlich wieder eine anständige Oberklasse-Grafikkarte für maximal 350€ kaufen kann, so wie immer eigentlich bis vor 2 Jahren...

Oberklasse-GPUs waren schon immer Teuer... 350 € hat man dafür 2 Jahre später bezahlt. Aber dann waren es keine Oberklasse-GPUs mehr.

Schau dir mal die 8800 GTX an:

https://www.computerbase.de/preisvergleich/eu/?phist=225997&age=9999

High End Karten waren schon immer bei 500+ €. Im Gegenteil zu früher bekommt man aber heute mehr für sein Geld.
 
Ich versteh den Aufschrei hier wirklich nicht.

Es war schon eine ganze weile absehbar das sie in der Mittelklasse bei Polaris bleiben werden und vieles auf Navi in 2019 hindeutet.

nVidia wird auch frühestens was in Q4 bringen, vll. auch nicht. Warum sollte man also jetzt nicht Polaris neu auflegen, evtl. in leicht besserem Fertigungsprozess um die Marge zu erhöhen? Es ist doch schon lange bekannt das Navi 2019 erscheinen soll. Natürlich muss man dann auch mal leicht verbesserte Produkte auf den Markt werfen, macht nVidia ja ebenso mit den ganzen Abstufungen.
 
DocWindows schrieb:
Vielleicht bieten sie ja etwas mehr Leistung bei signifikant weniger Leistungsaufnahme.

Der war gut.

Amd hat sich um Stromsparen noch nie den großen Kopf gemacht. Lieber nochmal 150 Mhz draufgekloppt und dafür etwas mehr Strom auf den Chip. Beispiele: 290x, 380x, 390x, 480, 580 -> alle über dem Sweet Spot geliefert.

Dass Amd freiwillig auf Leistung verzichtet und eine Karte im Sweet Spot liefert muss ich erst sehen um es zu glauben.

(Eh das Geflame losgeht: ich hab kein Problem damit, 50 Watt hin oder her machen bei mir auf der Stromrechnung nicht die Welt aus und wer mag kann ja immer 100 Mhz runtergehen und undervolten. Verstehen die NVidia Fanboys nur nicht wenn sie rumflamen Amd würde ja ach so viel Strom ziehen....)
 
Botcruscher schrieb:
Eure Auflösungsdiskussion ist lustig. Richtig fette, übersättigte Wohlstandskinder die keinen Regler bedienen können. Der Optikgewinn durch den höheren Informationsgehalt ist weit höher als jeder "ultra" Regler. Bei gefühlt 90% der Spiele reicht die Leistung eh aus.

Keine Ahnung wie damals eine 3d-Rvolution mit einer kack Voodoo möglich war. 640*480 und nicht mal 200Hz... :freak:


Gab es vor 6/17 wie Heu. Failga hat den Titel viel mehr verdient.

Was hat das mit "übersättigten Wohlstandskindern" zu tun? Du laberst einen Quatsch :Freak
Liegt doch wohl in der Natur der Sache, dass ich 4k auch ausnutzen möchte, wenn die Geräte schon zu Hause stehen. Oder kaufst Du Dir auch gern einen Ferrari, den Du dann mit 30 Km /h bewegst, weil die Straßen nicht mehr her geben, aber eigentlich 350 km/h erlaubt wäre? Wenn Du den Unterschied nicht siehst, dann ist das Dein Problem. Ich jedenfalls habe keinen Bock mehr auf die 10-15 Jahre alte Technologie, die uns immer wieder im neuen Aufguss serviert wird. Wofür unser aller Ressourcen der Welt verschwendet werden, ohne dass ein wirklicher Mehrwert damit einher geht.
 
Ne AMD Karte im Sweetspot ab Werk(vorgaben) wäre schön, das ganze Turbo-/OC-Geraffel kann man dann ja den Anbietern überlassen.
 
Pizza! schrieb:
Ziemlich viel Aufwand und Ressourcen für ein paar Prozent.

kommt drauf an. wenn amd nur den takt hochschraubt, weil die verbesserte fertigung es mitttlerweile zulässt, ist das nicht viel aufwand ;).
 
dante schrieb:
Verdammt, ich würde sogar 1,3K für solch ein Teil ausgeben...und dann auch komplett auf 4K upgraden...aber es gibt defakto nichts vernünftiges.

Eine 1080 Ti kostet 900€ - also nichtmal annähernd 1,3k.

Aber jemand der mit einer 970 auf fullHD rumturnt und meint die reicht völlig aus für FullHD aber eine 1080 Ti wäre nicht mal annähernd gut genug für 4k muss ich zum Glück nicht ernst nehmen.
https://www.computerbase.de/artikel...487/#diagramm-performancerating-fps-1920-1080
Das deine 970 im 4k - Index nicht mehr zu finden ist ist verständlich:
https://www.computerbase.de/artikel...487/#diagramm-performancerating-fps-3840-2160

Eine 1080 Ti Strix = 2.5x schneller als deine 970.

4k = 4x die Pixelzahl von FullHD und braucht in der Regel deswegen ca. Wurzel (4) mehr Leistung für "gleiche" FPS, also circa 2x soviel wie @FullHD.

Deine 970 ist nach deiner Aussage/eigenen Erfahrung @FullHD schnell genug. Demnach müsste tie 1080 Ti auch schnell genug für 4k sein. Gleiche Anforderung wie für deine 970@FullHD vorausgesetzt.
 
Nach dem CryptoBoom wird AMD ganz schön dumm aus der Wäsche schauen, wenn keiner mehr die ollen Kamellen haben will.
 
@nebulus

Der "Boom" wird aber nicht weg gehen. Crypto ist fester Bestandteil vor allem da fast täglich neue Coins kommen.
 
latexdoll schrieb:
Auch der Nachfolger von der 1080ti wird für 4k nicht ausreichen. Nicht jeder möchte bei 60fps/60hz kleben bleiben. Es gibt ja auch schon Monitore die 144/165/240 Hz haben

Könnt ihr BITTE mal aufhören die Auflösung 4k als Kombination von Auflösung+Maximalen Grafikeinstellungen+maximaler Bildwiederholrate zu sehen? 4k ist nur eine Auflösung und es gibt schon lange Grafikkarten die 4k-spieletauglich sind.

4k-Spieletauglichkeit ist kein Linseneintopf der nur schmeckt wenn alle Zutaten auf Anschlag sind.

Warum kann ich bitteschön Witcher 3 mit einer 1070 in 4k mit 60FPS spielen? Weil es keine Grafikkarten gibt die 4k-spieletauglich sind?
Dann wird eben das AA zurückgefahren um die Speichertransferrate nicht durch die Decke schießt und ein paar andere Effekte werden auf Mittel oder nur auf Hoch gestellt. Hairworks aus und ab dafür.

mambokurt schrieb:
Amd hat sich um Stromsparen noch nie den großen Kopf gemacht. Lieber nochmal 150 Mhz draufgekloppt und dafür etwas mehr Strom auf den Chip

Dass Amd freiwillig auf Leistung verzichtet und eine Karte im Sweet Spot liefert muss ich erst sehen um es zu glauben.

Ich hoffe halt immer noch, dass irgendwann ein Umdenken stattfindet.

Ich finde auch dass z.B. -20% Leistungsaufnahme mehr Eindruck macht und mehr Interesse weckt als +8% Leistung.
 
Zuletzt bearbeitet:
Iscaran schrieb:
Eine 1080 Ti kostet 900€ - also nichtmal annähernd 1,3k.

Aber jemand der mit einer 970 auf fullHD rumturnt und meint die reicht völlig aus für FullHD aber eine 1080 Ti wäre nicht mal annähernd gut genug für 4k muss ich zum Glück nicht ernst nehmen.
https://www.computerbase.de/artikel...487/#diagramm-performancerating-fps-1920-1080
Das deine 970 im 4k - Index nicht mehr zu finden ist ist verständlich:
https://www.computerbase.de/artikel...487/#diagramm-performancerating-fps-3840-2160

Eine 1080 Ti Strix = 2.5x schneller als deine 970.

4k = 4x die Pixelzahl von FullHD und braucht in der Regel deswegen ca. Wurzel (4) mehr Leistung für "gleiche" FPS, also circa 2x soviel wie @FullHD.

Deine 970 ist nach deiner Aussage/eigenen Erfahrung @FullHD schnell genug. Demnach müsste tie 1080 Ti auch schnell genug für 4k sein. Gleiche Anforderung wie für deine 970@FullHD vorausgesetzt.

"Nichtmal annähernd gut" - Bitte höre auf mich falsch zu zitieren.

Ich schreibe die ganze Zeit über eine 4K fähige Karte die Problemlos mit 4K@60 FPS umgehen kann. Alle 1080 TI Ableger brechen stark unter 50FPS, teils sogar auf unter 40 FPS, ein.

Deine Rechnung ist relativ, da eine Asus Strix 1080 TI aktuell gut 1150€+ und keine 900€ kostet. Und selbst im Vergleich: Die Asus GTX 970 Strix OC schafft in der Regel die 60 FPS in Spielen in Full HD problemlos und kostet aktuell gebraucht um die 250-300€.

Auch das die 1080 TI stärker als eine GTX 970 ist, stelle ich nicht in Frage. Fakt ist jedoch, das die Preisdifferenz enorm ist und man trotz einer 1080 TI in der nativen 4K Auflösung Einschränkungen in Kauf nehmen muss.

Und natürlich spiele ich "nur" in Full HD und teilweise auch problemlos in 4K mit Downsampling (Hier jedoch eher Spiele ala This War of Mine, Mittelerde Modors Schatten und den Telltale Games), da ich, wie bereits öfters beschrieben, keine Hardware sehe, die 4K vernünftig versorgen und darstellen kann.

Die GTX 970 ist in Full HD erschreckend gut aufgestellt und kann noch zig Spiele in maximalen Einstellungen darstellen. Die 1080 TI sollte der 4K-Schlüssel werden - Und das ist meiner Meinung nach nicht gänzlich erfüllt worden.

So oder so: Ich bin mit der Diskussion schon zu weit weg vom eigentlichen Thema. Daher werde ich nun nichts mehr bezüglich der Grafikkarten-Geschichte posten.
 
Iscaran schrieb:
Aber jemand der mit einer 970 auf fullHD rumturnt und meint die reicht völlig aus für FullHD aber eine 1080 Ti wäre nicht mal annähernd gut genug für 4k muss

Also ich habe schon von mehreren meiner Leuten gehört die von 4k wieder runter sind weil die 10X0 Serie nicht schnell genug ist für 4k. Nur weil das mal in ein paar Testsituationen ausreichend ist, heißt das ja nicht das das auch für den dauerhaften Gamingalltag reicht.
 
Dante2000 schrieb:
Albern hin oder her. Fakt ist, das meine alte 2014er GPU in FullHD Spielen keinerlei Probleme hat. Die "neuste 2017" 1080 TI, für 4K gebaut, jedoch bis heute das eben versprochene nur bedingt erfüllen kann. Zwischen den GPUs liegen gute 3 Jahre, lass es zwei Jahre für die Entwicklung, sein.

Du widerspricht dir hier aber schon massiv. Eine 1080ti ist mal eben ca 2,7 mal schneller als deine GPU, dann sollte die die wohl für deine Spiele ausreichen in 4k. Alle Regler stur nach rechts hat noch nie im Summe funktioniert und das wird es auch nie. Wobei ich mich eh frage, welche SPiele das sind. Selbst meine 1070 kommt in FullHd schnell an ihre Grenzen und die ist mal eben bis zu 70% schneller als die 970.
Dante2000 schrieb:
Was genau ist deiner Meinung nach "Unmöglich"? Das sich die Technik realistisch weiterentwickelt? Das es 4K, Thema seit 2013, endlich mal im Jahre 2018 für jeder Mann in vernünftigen Preislagen geben sollte? 8K GPUs sind längst überfällig, bzw. werden in den nächsten Jahren gefordert / benötigt werden. Laut Nvidia sind 4K+ technisch für sie auch kein Hindernis mehr, jedoch gibt's von keiner Seite einen Druck für eine Leistungssteigerung.

Die Fertigungsstruktur wird von den Auftragsfertigern vorgegeben im Falle Nvidia TSMC und die bieten aktuell eben nur 16nm im bezahlbaren Bereich an. Turing wird auch nur im optimierten Prozess genannt 12nm angeboten, wobei es aber nichts mit echten 12nm zu tun hat. Wie soll Nvidia oder AMD die LEistung steigern, wenn die Fertigung nicht mehr Transistoren pro Fläche was überwiegend für die Leistungssteigerung zuständig ist, zulässt. Das eine reine Größensteigerung den Energiekonsum massiv steigen lässt, sollte wohl bewußt sein, ebenso das mit steigender Fläche der Ausschuss steigt und somit auch der Preis pro mm² und das exponentiell. Wenn man das ganze realistisch betrachtet, darf man hier eben keine Wunder erwarten.

Dante2000 schrieb:
Bezüglich der 8K vs 16K Aussage. Einen Unterschied zum aktuellen FullHD Standard im direkten Vergleich sieht man sofort. Gleiches ist bei FullHD und 4K der Fall und wird bei den noch höheren Auflösungen immer sichtbar bleiben. Leider leben wir in Europa technisch jedoch in der Steinzeit. Wer einmal nach Japan gefahren ist oder sich mal informiert hat, was technisch dort "Alltag" ist, wird sich wundern.

Klar erkennt man einen Unterschied aber eben nicht unter allen Umständen. ES kommt immer auf die BEtrachtungsgröße und den Betrachtungsabstand an. Auf 55 Zoll erkenne ich zwischen 4k und FullHD bei 2,5 Meter Distanz keinen Unterschied, meine LEbensgefährtin nicht, mein Schwager nicht, die Schwägerin nicht und deren 18 jährige Tochter nicht. Allesamt keine Brillenträger und mit 100% Sehleistung versehen. Alles wurde getestet ohne das der Befragte wußte, was gerade zugespielt wird und natürlich wurde identisches Material getestet, einmal in 4k und einmal herunterskaliert in 1080p verglichen und nicht irgendwelche unterschiedlichen Quellen, die nicht miteinander vergleichbar sind.

Auch für das Auge gelten sinnesphysiologische Grenzwerte, was nur logisch ist, sonst könnte man Ameisen noch in 10km Entfernung erkennen.
http://www.frag-den-neudeck.de/Archive/312


http://carltonbale.com/1080p-does-matter/

Dante2000 schrieb:
Hier werden 1080i als "High End" verkauft, in diesem Jahr strahlt man in Japan bereits flächendecken in 8K ihre Programme aus. Wir brauchen in dem Fall jedoch nicht weiter diskutieren. Ich verstehe durchaus was du meinst, jedoch erwarte ich halt mal einen gewissen Durchbruch und vor allem einen mindest Standard im Grafikkarten-Markt. Seit zig Jahren wurde von 4K gesprochen und nichts entwickelt.


TV Austrahlungen lassen sich wohl kaum mit dem Rendering von 3d Grafiken vergleichen, wobei 8K ganz besonders im TV Sektor nichts weiter als eine Sau die durchs Dorf getrieben wird , darstellt, um dem dummen Konsumenten unsinnige Kaufanreize zu setzen, da wahre Innovationen im TV Sektor nicht vorhanden sind, aber weiterhin Absatz generiert werden muss.( Siehe verlinkte Optimalabstände)
 
Cool Master schrieb:
High End Karten waren schon immer bei 500+ €.

Nicht immer. Die GTX 285 gabs z.B. zur Markteinführung für schlanke 330€ und sank dann schnell weiter im Preis. Was aber an der Konkurrenz lag. AMDs/ATi Topmodel Radeon HD 4870 gabs bei Erscheinen der GTX 285 für 200€ und auch der Preis fiel schnell weiter. Die folgende 4890 kostete bei Marktstart auch nur etwas über 200€ und die 285 zu dem Zeitpunkt nur noch 285€.
Und dann kam die geniale HD 5870 und wischte für 350€ Startpreis mit allem den Boden auf. usw. :D

Damals gab es einen richtig harten Konkurrenzkampf (in Leistung und Preis) zwischen Nvidia und AMD/ATI. Den Kunden/Gamer konnte es freuen. Wäre toll, wenn solche Zeiten nochmal wieder kommen würden. Aber ich bezweifele es. Letztlich haben beide Hersteller nicht wirklich ein Interesse an sowas.
 
Cl4whammer! schrieb:
Also ich habe schon von mehreren meiner Leuten gehört die von 4k wieder runter sind weil die 10X0 Serie nicht schnell genug ist für 4k.

Ich würde eher sagen sie war nicht schnell genug für die Leute... Wie gesagt 4k ist ein Spiel des Reglers. Kann ich erwarten in einem AAA-Titel in 4k und alles nach rechts haben? Nein! Ich schrieb ja aber schon dass man das nicht brauch da durch die höhere Auflösung vieles schon verbessert wird und man unter anderem auf AA verzichten kann. Gleiche gilt für Schatten das ist auch ein Performance-Killer hoch 5 da statt Ultra einfach ein Medium und 4k ist kein Problem.

@Herdware

Stimmt die hatte ich vergessen :D Ich hatte selber eine 285 SSC von EVGA. Aber das war in den letzen ~10 Jahren die einzige Ausnahme.
 
Zuletzt bearbeitet:
Zurück
Oben