News AMD Polaris: Next-Gen-Radeon mit 14-nm-FinFET kommt Mitte des Jahres

Die Entwicklung im Allgemeinen geht wieder in die Richtung, wo sich ein neuer Rechner lohnt - in meinen Augen.

Für mich müssen sich immer mehrere substantielle Dinge verändern, ehe ich mich an einen neuen Rechner wage.
Zum Beispiel von DDR3 auf DDR4, gleichzeitig von USB 3.0 auf 3.1, gleichzeitig von SATA auf M.2, gleichzeitig von 32nm auf 14nm (CPU) und so weiter und so fort. Das nennt man dann wirklich einen Leistungssprung. ;)

Einzig die Grafikkarte bekommt eine günstige Zwischenlösung. Meine nvidia GTX 570 ist doch etwas sehr betagt. Da wird vorerst eine AMD 380X reingeschoben. Der Rest reicht allemal noch zwei Jahre, bis 2017 die Produkte und Preise sich präsentiert und stabilisiert haben und ich ein hoffentlich gutes AMD-System zusammensstellen kann. ;)
 
Sorry, aber für mich hört sich das einfach nur nach Marketing-Geblubber an, um die Aktie auf Kurs zu halten.
Hätten sie wirklich solch ein gutes Produkt, würden sie auch mal ein paar ordentliche Referenzwerte hergeben.

Auch komisch finde ich, warum sie die Leistung nicht preisgeben. SW: Battlefront läuft auf einer GTX 950 auch auf High mit 60+ FPS, warum also Medium? Erkaufen sich AMDs kommende Karten die gute Performance/Watt auf Kosten der Leistung? Wenn man eine 950 massiv untervoltet/-clockt, kann man da vermutlich auch noch eine ganze Menge rausholen.
 
Glub schrieb:
Wie sich die neue Generation gegen ne GTX 950 (lol) in Sachen Verbrauch schlägt find ich jetzt nicht so spannend.

:daumen:

Das war auch mein erster Gedanke. Wieviel FPS die Karte dann wohl bei 4K Gaming auspuckt... so nach dem Motto: Unspielbar, aber schau dir den Verbrauch an...

Ich für meinen Teil wünsche mir eine Karte die 4k und 120Hz bei vollen Details packt und keine Energiesparlampe, äh Karte. Die (damit meine ich AMD und Nvidia) sollen anfangen die gewonnene Effizienz in Leistung umzusetzen. Für mich als Gamer zählt Leistung.
 
un4given schrieb:
Wen 2 Bildschirme Digital angeschlossen sind, fängt das Bild im 2D Modus nach einer Zeit zu flackern/schlieren. Es gibt ein Paar Workarounds, die mir aber auf Dauer einfach viel zu mühsam waren. Eindeutig Treiber Problem. Habe meine Karte sogar zum RMA eingeschickt und eine ganz neue bekommen - gleiches Problem.

Ich hab bei uns in der Firma mehrere Rechner mit ner R7 250, zwei Displays digital dran und nirgendwo Probleme, immer der aktuellste Crimson. Mein Kumpel mit Bildschirm und TV ebenfalls nicht. Wenn ich den Beitrag lese, dann scheint das Problem am DP zu liegen. Du sagst hingegen, 2x digital angeschlossen. Bei mir in der Firma und bei meinem Kumpel ist jeweils DVI + HDMI. Und da gibts keine Probleme.

Also bitte keine solchen Pauschalaussagen wie "2x digital". Wenn das der Fall wäre, gäbs wohl hunderte Meldungen.

Wenn ich den Artikel weiterlese und so die Änderungen der Treiberversionen mit bedenke, würde ich sogar sagen, das hat was mit dem Powermanagement / ZeroCorePower am Displayport zu tun.

Aber so genau scheinst Du Dich eher nicht mit dem Problem beschäftigt zu haben. Bei zwei Monitoren vorläufig mal auf den DP zu verzichten ist aber schon ein harter Workaround.

Ach was, es steht sogar was Offizielles dazu im Thread:
"The issue you’re observing is documented here, along with the appropriate fixes. The technical reason for this lies in how DVI and DisplayPort communicate with connected displays: DVI uses “TMDS”, whereas DisplayPort uses discrete packetized signals.

The DP-connected display exhibits tearing because it is not using the same protocol, timing or interface as the two TMDS displays (which are using the same protocol+timing+interface). It’s difficult/impossible to synchronize the picture on three displays utilizing different display interfaces without some of external framelock/genlock solution.

Switching all displays to a common interface will alleviate this problem, either through a GPU with multiple DP outputs or via a DisplayPort hub. DisplayPort is the answer in this case as DisplayPort only requires one source device to drive any number of displays up to the limit of the graphics card. If all monitors are on DisplayPort, then they’re speaking to the same source and will be synchronized. Tearing will be eliminated."

Demnach tritt das Problem bei Mischbestückungen mit DP auf. Also DP allein oder gar kein DP machen keine Probleme. Ja, Du hast Dich wirklich mit dem Problem beschäftigt.

Jeder mit dem Problem in dem Thread hatte ne DP / DVI Mischbestückung und bei jedem wars weg, nachdem Sie die Mischbestückung abgeschafft hatten.
 
Zuletzt bearbeitet:
verdammt, die produzieren ja immer noch kein strom wie die nvidia gpu's, dann muss ich wohl zu grün greifen :evillol:!

das wird doch seid vielen jahren mal wieder richtig spannend.

gruß
 
Zaptek schrieb:
Immer wieder dieses Stromspar Argument.... das sind bestimmt auch die Leute, die wärend des zockens den Fernseher laufen lassen ;)

Kann sein, dass das oft der Fall ist.

Trotzdem bedeutet weniger Stromaufnahme niedrigere Temperaturen, kleinere Kühllösungen, weniger Lautstärke und dass im DesktopBereich endlich das ankommt, was im mobilen Bereich schon seit Jahren Priorität hat: Energieeffizienz !
 
Zuletzt bearbeitet:
S.Kara schrieb:
Sorry, aber für mich hört sich das einfach nur nach Marketing-Geblubber an, um die Aktie auf Kurs zu halten.
Hätten sie wirklich solch ein gutes Produkt, würden sie auch mal ein paar ordentliche Referenzwerte hergeben.

Auch komisch finde ich, warum sie die Leistung nicht preisgeben. SW: Battlefront läuft auf einer GTX 950 auch auf High mit 60+ FPS, warum also Medium? Erkaufen sich AMDs kommende Karten die gute Performance/Watt auf Kosten der Leistung? Wenn man eine 950 massiv untervoltet/-clockt, kann man da vermutlich auch noch eine ganze Menge rausholen.
Naja die 950 schafft die hohen Einstellungen mit 60 fps eher/nur mit voller Auslastung. Da kommt die mittlere Einstellung beiden Karten entgegen.

Solche Tests sind immer Marketing Vorführungen: Seht her wir schaffen dieses Spiel flüssig mit wenig Stromverbrauch. War schon immer so 😉

Das die auch die sparsamste Karte präsentieren, passt zur aktuellen Situation: die meisten Käufer kaufen bestimmt keine fury oder Titan usw. Sondern eben Mittelklasse und wollen natürlich voll ökologische Varianten haben 😆 Diese Karte ist wohl auch für Notebooks gedacht und wäre perfekt dafür.
 
@hrafnagaldr: Es ist einfach ärgerlich, wenn man 2x U2515H vor sich stehen hat, und die in Kombination mit einer PowerColor R9 390 einfach nicht stabil zum Laufen bekommt. Ständig dieses horizontale Flimmern. DVI-Anschlüsse haben die Monitore nicht, mit meinem HDMI-DVI-Adapter bekomm ich nur 1080p hin und kein 1440p. Es läuft immer auf eine Belegung von min. einem DP-Anschluss hinaus.

Und DP allein machen das Problem nicht?! Wirklich nicht? Da erzählen mir die 2 U2515H, die jetzt per daisy chain hintereinander an einem DP hängen aber was anderes - flimmert trotzdem! Bestimmt kauf ich mir nicht einen DisplayPort-Hub für 100€. Unter früheren Treibern wie 15.6 o.ä. gabs die Probleme wohl nicht - aber dafür hab ich mir keine R9 390 gekauft. Man könnte es wohl beseitigen, indem man die Karte im 2D nicht runtertakten lässt. Aber dafür hab ich mir auch keine moderne Karte gekauft. :/

Bei zwei Monitoren vorläufig mal auf den DP zu verzichten ist aber schon ein harter Workaround.

Ja, out of the box bei vielen Multi-Monitor/GPU-Kombinationen nicht möglich. Ich find das schon ziemlich "hart" fürn Workaround. Optionen: Neue Monitore oder neue Grafikkarte. Zweiteres wird mich günstiger kommen.
 
Zuletzt bearbeitet: (Typo)
eVolutionplayer schrieb:
Optimismus in einer Kapitalistischen Welt ist nicht besonders hilfreich , die können ja schreiben und erzählen was Sie wollen ich denke jedoch das die Karte max. 30% schneller sein wird als die aktuellen und vielleicht ebenso 30% weniger Strom benötigt . Warum sollten Sie ihr Vorhaben ändern wenn es schon seit Jahren so läuft - AMD ist auch nur eine Firma die versucht Geld zu generieren.

30% Performancesteigerung bei 30% weniger Stromverbrauch wären fantastische Werte. Was willst Du denn mehr!? :rolleyes:

NuminousDestiny schrieb:
Nach dieser Ankündigung sind meine Erwartungen:

Effizienzsteigerung: Faktor 2, ergo 50% weniger Verbrauch
Rechenleistung: Faktor 2, also 100% mehr Performance

Und schon wieder so einer. Habt ihr einen Clown gefrühstückt, oder meint ihr das tatsächlich ernst!? So funktioniert das nun einmal nicht!
 
Hört sich doch schon mal gut an, aber Papier ist geduldig. Man wird sehen was hinten rauskommt, also erst mal Tee trinken und abwarten.

Zu den Treibern. Es wird viel rum gesponnen - sowohl bei AMD als auch bei NV (Configs mit mehreren Monitoren mal ausgenommen). Ich hatte schon Grafikkarten mit NV und AMD und bei beiden hatte ich nie (wirklich NIE) irgendwelche Treiberprobleme - wohlgemerkt mit einem Monitor. Dabei setze ich aber auch nie BETA Treiber ein. Zur Zeit werkelt in meinem Desktop eine Radeon 380 und diese wird ihren Dienst auch noch 8-12 Monate mehr versehen.

​Aus meiner Erfahrung als Admin kann ich sagen das der Fehler meist vor dem Rechner sitzt :evillol: Nicht immer, aber meistens schon!
 
S.Kara schrieb:
Sorry, aber für mich hört sich das einfach nur nach Marketing-Geblubber an, um die Aktie auf Kurs zu halten.
Hätten sie wirklich solch ein gutes Produkt, würden sie auch mal ein paar ordentliche Referenzwerte hergeben.
Schon mal darüber nachgedacht, dass AMD hier noch an Taktraten, Kühllösungen usw tüftelt und sie daher noch gar keine endgültigen Werte benennen können?

Zudem würde ich auch nicht 4-6 Monate vor Release nichts davon veröffentlichen. Wieso sollte ich vor der Konkurrenz mir in die Karten gucken lassen?
 
@sudfaisl: ich sag ja nicht, dass das nicht ärgerlich ist. Dennoch sieht man bei un4givens Kommentar, dass er sich nicht wirklich damit beschäftigt hat, sonst würde er nicht so nen pauschalen Mist schreiben.

Und wie ich auch schon sagte, das Problem schaut mir irgendwie zeitgleich mit ZeroCorePower für den DP aus.
 
Es soll sich um den größten Sprung des Performance-Pro-Watt-Verhältnisses bei GPUs in der Geschichte des Unternehmens handeln – ATi eingeschlossen.

Das hört sich doch sehr gut an. Macht den Mund wässrig. ;)

HBM bleibt den größeren Modellen beziehungsweise wahrscheinlich nur deren Umsetzung auf einem Flaggschiff vorbehalten.

Wird spannend zu sehen, in wie weit sich da was tut, von wegen HBM v2 und wie viel Speicher dann zur Verfügung steht. 16GB ?
Vielleicht sind ja auch mal flüsterleise Karten, nur per Luft gekühlt, bei Top Leistung möglich, wenn der Stromverbrauch niedriger wird.

Naja, ich muss leider bis zu meinem nächsten HDR Monitor warten(34", 21:9 ?), denn man kann ja mittlerweile keine GPU mehr kaufen, ohne zu wissen, was für einen Monitor man sich holt.
Wer weiß, was es ab den HDR Monitoren so für syncs gibt ...


bedunet schrieb:
Hört sich doch schon mal gut an, aber Papier ist geduldig. Man wird sehen was hinten rauskommt, also erst mal Tee trinken und abwarten.


So isses.
 
Zuletzt bearbeitet:
Neben der FinFET-Fertigung sollen laut AMD auch große Verbesserungen in der GPU-Architektur dafür zuständig sein. Und das nicht ohne Grund: Raja Koduri hat in einem Gespräch zugegeben, dass Polaris die erste GPU-Architektur ist, bei der AMD explizit auf eine verbesserte Energieeffizienz geachtet hat. Bei den vorherigen Designs wollte man eher nur einen gewissen Maximalwert nicht überschreiten, mehr Optimierungen gab es dann nicht beziehungsweise kaum noch.
Dieser Teil aus der News finde ich besonders interessant. Ließt sich wie ein Eingeständnis, dass man einen wichtigen Faktor total vernachlässigt hat. Und wenn AMD diese Versäumnisse alle ausbessert, könnte es in dieser Generation weit spannender werden.

Ansonsten bin ich wirklich gespannt was uns im Bereich GPU erwartet, von beiden Lagern.
 
Klingt erstmal sehr gut. Allein dass man mal wieder auf Effizienz achtet ist schon ein Fortschritt.

Wer hier nach Leistung schreit, dem sei gesagt dass höhere Effizienz in aller Regel auch höhere Leistung erlaubt. Es ist nur eine Frage der Ausnutzung. Also keine Angst, es wird auch immer große Karten mit viel Leistung geben.

Ich wünsche mir allerdings vor allem Effizienzsprünge im Preisbereich um 200€. Da tut sich seit Jahren nichts wirklich. Ich würde meine 7870 gerne in Rente schicken bzw. weitergeben, aber was da momentan so am Markt ist, ist nicht akzeptabel. Viel zu hungrig, zu laut und zu heiß. Die Architektur ist einfach am Limit.

Hoffen wir mal, dass AMD mit Polaris wieder nen Kracher liefert. Aber man darf nicht vergessen, dass NV auch auf kleinere Fertigung umsteigt und demnächst HBM bietet. Erst dann wird sich zeigen wer wirklich die bessere Architektur hat.
 
Ich freue mich drauf. Ich setze schon länger auf AMD und war bisher immer zufrieden.
 
hrafnagaldr schrieb:
Ich hab bei uns in der Firma mehrere Rechner mit ner R7 250, zwei Displays digital dran und nirgendwo Probleme, immer der aktuellste Crimson. Mein Kumpel mit Bildschirm und TV ebenfalls nicht. Wenn ich den Beitrag lese, dann scheint das Problem am DP zu liegen. Du sagst hingegen, 2x digital angeschlossen. Bei mir in der Firma und bei meinem Kumpel ist jeweils DVI + HDMI. Und da gibts keine Probleme.

Also bitte keine solchen Pauschalaussagen wie "2x digital". Wenn das der Fall wäre, gäbs wohl hunderte Meldungen.

Wenn ich den Artikel weiterlese und so die Änderungen der Treiberversionen mit bedenke, würde ich sogar sagen, das hat was mit dem Powermanagement / ZeroCorePower am Displayport zu tun.

Aber so genau scheinst Du Dich eher nicht mit dem Problem beschäftigt zu haben. Bei zwei Monitoren vorläufig mal auf den DP zu verzichten ist aber schon ein harter Workaround.

Ach was, es steht sogar was Offizielles dazu im Thread:


Demnach tritt das Problem bei Mischbestückungen mit DP auf. Also DP allein oder gar kein DP machen keine Probleme. Ja, Du hast Dich wirklich mit dem Problem beschäftigt.

Jeder mit dem Problem in dem Thread hatte ne DP / DVI Mischbestückung und bei jedem wars weg, nachdem Sie die Mischbestückung abgeschafft hatten.

Genau!
Bei mir wars auch der DP->hdmi Adapter, der meiner Fury beilag. Mit ordentlichem DP Kabel und jetzt Crimson Treiber unter Win10 keinerlei Probleme mehr. Die Fury Tri-X ist einfach nur perfekt!
 
S.Kara schrieb:
Auch komisch finde ich, warum sie die Leistung nicht preisgeben. SW: Battlefront läuft auf einer GTX 950 auch auf High mit 60+ FPS, warum also Medium? Erkaufen sich AMDs kommende Karten die gute Performance/Watt auf Kosten der Leistung? Wenn man eine 950 massiv untervoltet/-clockt, kann man da vermutlich auch noch eine ganze Menge rausholen.

Mehr Effizienz ist mir eigentlich auch nicht wirklich wichtig, jedenfalls nicht so wichtig wie AMD. Aber ich denke dass man in Folge der höheren Effizienz dann auch die Taktraten höher treiben kann usw. und damit hat man dann mehr Leistung. Das Flaggschiff wird sicherlich keine Energiesparlampe.
 
Zurück
Oben