News AMD Polaris: Next-Gen-Radeon mit 14-nm-FinFET kommt Mitte des Jahres

Also Aussagen wie "nvidia/AMD hat miese Treiber weil mein 1337-System abschmiert" finde ich immer wieder höchst amüsant. Die beiden Hersteller verkaufen zwar nur ein paar Millionen GPUs im Jahr, aber natürlich sind die Treiber kaputt und total sch*isse weil bei 5 Usern das System abschmiert. Wenn irgendeine Teiberversionen tatsächlich fehlerhaft wäre, würden einige hundert Hardware-Seiten der Sache nachgehen und darüber berichten. Und die Foren dieser Welt würden vor entsprechenden Threads überlaufen. Ist dem so? Nein!

Merke: Wenn du von 1000 Leuten mit 999 nicht klar kommst, liegt es nicht an den 999.

Solange die Treiber bei 99% der Systeme rund laufen, liegen etwaige Systemprobleme mit sehr hoher Wahrscheinlichkeit nicht am Treiber. Ich kann diesen Käse nicht mehr lesen....
 
eVolutionplayer schrieb:
Optimismus in einer Kapitalistischen Welt ist nicht besonders hilfreich , die können ja schreiben und erzählen was Sie wollen ich denke jedoch das die Karte max. 30% schneller sein wird als die aktuellen und vielleicht ebenso 30% weniger Strom benötigt . Warum sollten Sie ihr Vorhaben ändern wenn es schon seit Jahren so läuft - AMD ist auch nur eine Firma die versucht Geld zu generieren.

Da frage ich Diich doch gleich mal,was daran denn so schlecht wäre? Hää?
30 % mehr Leistung bei 30 % weniger Verbrauch ist ein mittelschwerer Traum.
 
Zuletzt bearbeitet:
haha schrieb:
Danke! Am Ende des Videos steht, das die neue GPU mit nur 0,8375V Core-Spannung läuft.
Das sieht ganz danach aus, als wenn AMD ordentlich Undervolting betrieben hat.
Da ist es kein sicherlich kein Wunder, dass das System so sehr viel weniger verbraucht.
Diese polaris Karte ist für ein Notebook gedacht, deswegen wohl so niedrig getaktet. Dafür diese Leistung finde ich genial (natürlich wird nvidia ähnlich abliefern ;)).
 
seas888 schrieb:
Ich finds ja schon lustig wie AMD auf der einen Folie richtig schön diese "NEW"-Sticker verteilt. Als hätten sie Angst ihnen würde niemand Glauben. Ansonsten hört sich das doch Prima an. Scheint doch ein aufregender Sommer zu werden. Pascal gegen GCN4 zeitlich scheints ja zu passen. Hoffentlich entsteht ein ordentlicher Preiskampf.

Ich möchte auch lernen, wie man aus solch unglaublich unwichtigen Details solche Schlüsse ziehen kann. Faszinierend!
 
Prima. Bin auch gespannt auf den Nvidia-Konter.
Dann wirds vielleicht zu Weihnachten nächstes Jahr was mit einer "bezahlbaren" Karte für WQHD mit hohen Details und >100FPS.
Dann wird auch mein oller 24" Monitor gegen einen 27" mit entsprechender Auflösung getauscht. *träum* :D
 
Bestimmt wieder nur 3xDisplay-port und 1xHDMI.

Da wird man als DVI user mit 144Hz Monitor ja richtig zu Nvidia getrieben, kein problem dann bekommt halt das grüne Lager mein Geld.
 
Mygeeto schrieb:
30 % mehr Leistung bei 30 % weniger Verbrauch ist ein mittelschwerer Traum.
Frag ich mich auch manchmal, wenn ich so Sachen lese. Das wären einfach mal 86% mehr Performance pro Watt, fast verdoppelt.

Am besten fand ich aber den Kommentar:
NuminousDestiny schrieb:
meine Erwartungen:

Effizienzsteigerung: Faktor 2, ergo 50% weniger Verbrauch
Rechenleistung: Faktor 2, also 100% mehr Performance

Alles andere ist eine Enttäuschung.
300% mehr Performance pro Watt, als minimale Erwartung..? :D
 
trane87 schrieb:
Völliger Quatsch. Ich kann das genau so bestätigen. Ich hatte Wochenlang Probleme mit Treibern und meine Freundin hat auch ihre 270X nun 4x getauscht. Von flackern, Grafikfehlern und Co war alles dabei. Die erste Karte war eine MSI 270X Hawk, und nun eine Gigabyte 270X Windforce. Beide Karten haben die Probleme aufgewiesen. Und das obwohl Mainboard, CPU und RAM komplett getauscht wurden.
Ich kann auch was bestätigen: den Anwenderfehler
Ein AMD Komplettsystem für Jemanden zusammgestellt. Dieser ruft mich 2 Wochen später an, flucht und zetert, was hätte ich ihm fürn Scheiss empfohlen etc.. Gerade das dritte Board mit FX-CPU verbaut und beides ohne Funktion, jedesmal. Er hätte dem Support des Herstellers (Asrock) auch schon die Hölle heiss gemacht. Bin dann natürlich sofort hin, habe kurz in den Rechner des Ich-hab-das-jahrelang-gemacht-Typen geguckt. Ihn ausgelacht und ohne Worte nach Hause gefahren.
Per SMS habe ich ihm dann mitgeteilt, er solle es doch mal mit Abstandhaltern unterm Mainboard versuchen. Scheiss AMD?!

@Topic
ICh habe zwar erst (notgedrungen) auf einen i3-6300 gewechselt, aber nach 8 Jahren Intel/Nvida mal wieder ein schönes AMD System, ich bin nicht abgeneigt.
Und nebenbei, die Hersteller pushen Effizienz NICHT, damit ihr 0,65€ 8,42€ oder 45,32€ an Stromkosten spart. Die Chips MÜSSEN einfach aus Platzgründen effizienter werden. Damit man bei ähnlicher Grösse mehr Leistung heraus bekommt. Das was hier immer abläuft ist reiner Fanboy-Effizienzporopagandakrieg.
Ja, AMD Chips sind ineffizenter, aber die hauen nicht so in den Jahresverbrauch wie immer suggeriert wird. Das kann man mit jedem Stromzähler, der den gesamten Testparcour mitläuft, überprüfen.

Aber ich bin gespannt was passiert, sollte AMD in allen Punkten mit Nvidia gleichziehen.... :D

Dann sind AMD Chips....mmmh.. hässlich!

@CB Kümmert euch um ein neues Abo-Modell, die Userklicks im Forum werden deutlich nachlassen.
 
Zuletzt bearbeitet:
Wen die GPU 4k mit 60 FPS wiedergeben kann und dabei weniger als 400€ kostet, wird es gekauft. :D Naja, man wird ja träumen dürfen.... hauptsache DP 1.3 und eine 5k wiedergabe :D bei Spielen drehe ich auch gerne mal Runter. :D
 
Mir ist der Verbrauch reichlich wumpe, egal ob jetzt 100, 200 oder 300Watt, solange es sich kühlen lässt und _dementsprechend_ Leistung gebracht wird...
Leistung, dass will ich. GPU ist kein Auto wo Sparsamkeit gleich mehrere € pro Fahrt spart und nicht im Jahr 10€.


ColonelPanic schrieb:
Btw. sind es 14 nm, brauch man nur zu lesen.

Aber hör bitte auf, so ne Sch****e zu posten.
Dabei steht im Text sogar 14nm UND 16nm, braucht man nur zu lesen. ;)
 
Max007 schrieb:
Komisch, dass sich hier viele kritisch über diese Ankündigung äussern, aber in 8 von 10 Fällen wird in den Kaufberatungs-Threads zu einer 380/390 geraten. Da scheint AMD doch einiges richtig gemacht zu haben.
AMD hat gute Produkte zu guten Preisen, das ist ihre Stärke. Ja, eine 390X kommt nicht an eine 980Ti ran, dafür an eine 980 GTX und dies für schlappe 350€. Eine differenzierte Sichtweise wäre hier angebracht.

Spricht von differenziert aber vergleicht Empfehlungen für 380/390 mit dem aus jüngerer Vergangenheit berechtigterweise vorhandenen Zweifel an AMDs Marketingversprechen...
390X für 350€ weil es ein schrottiges Modell für 350€ gibt, aber alle anderen Modelle sofort bei 400€ sind. Erneut äußerst differenziert.
Anschließend noch weiter schön zum vollkommen falschen Konkurrenzprodukt hindifferenziert (wer vergleicht denn 390X und 980Ti? Fury (x) gegen 980Ti ist der sinnvolle Vergleich).
 
Bible Black schrieb:
Mir ist der Verbrauch reichlich wumpe, egal ob jetzt 100, 200 oder 300Watt, solange es sich kühlen lässt und _dementsprechend_ Leistung gebracht wird...
Leistung, dass will ich. GPU ist kein Auto wo Sparsamkeit gleich mehrere € pro Fahrt spart und nicht im Jahr 10€.



Dabei steht im Text sogar 14nm UND 16nm, braucht man nur zu lesen. ;)

Endlich einer der's versteht.
Die, die immer über die hohen Watt angaben meckern sollen anfangen woanders zu sparen...
Gibt so viele möglichkeiten!
Steigt um auf LED leuchten
Fahrt 120km/h und kein 160
Kauft 6 packungen weniger zigaretten im quartal (besser wäre aufhören!!)
Stellt den Kühlschrank auf 8 grad und die Truhe auf -15
Duscht ab und an mal kälter
....
Sich wegen 43Watt mehr aufzuregen macht übertrieben wenig sinn!
Vielleicht sollte man sich auch einfach ein anderes Hobby suchen? (achtung: Die meisten Hobbys kosten eindeutig mehr!!)

2016 kann Polaris und Zen kommen! Egal wieviel Watt se Verbrauchen! Hauptsache LEISTUNG
Ebenso wie 4K Free-Sync Monitore!
 
Tja damit haben wir die Bestätigung, dass eine der beiden neuen GCN2.0 GPUs, die dieses Jahr erscheinen ein sehr kleiner Chip ist. Der andere ist ja Greenland, das kommende Flaggschiff. Damit dürfte ein geshrinkter Fiji mit möglicherweise 2 4GB HBM2.0 Stacks die Performance Klasse darstellen. Hat AMD überhaupt bestätigt, dass die komplette R7/R9 400er Serie aus 14 bzw 16nm FF GPUs besteht?
 
Zotac2012 schrieb:
Wieso sollte HBM2 der limitierende Faktor sein?

1. teuer 2. wann kommt HBM 2.0?

-> HBM 1 konnte man Ende 2014 bestellen. Von HBM 2.0 fehlt da noch jede Spur.
 
Conceptions schrieb:
Schon mal darüber nachgedacht, dass AMD hier noch an Taktraten, Kühllösungen usw tüftelt und sie daher noch gar keine endgültigen Werte benennen können?
Das gilt auch für die Leistungsaufnahme und trotzdem wurde sie demonstriert.

Conceptions schrieb:
Zudem würde ich auch nicht 4-6 Monate vor Release nichts davon veröffentlichen. Wieso sollte ich vor der Konkurrenz mir in die Karten gucken lassen?
Marketing.

Beitrag schrieb:
Mehr Effizienz ist mir eigentlich auch nicht wirklich wichtig, jedenfalls nicht so wichtig wie AMD. Aber ich denke dass man in Folge der höheren Effizienz dann auch die Taktraten höher treiben kann usw. und damit hat man dann mehr Leistung. Das Flaggschiff wird sicherlich keine Energiesparlampe.
Das denke ich auch. Gerade bei den High-End Modellen wird der Gewinn ja auch am größten sein.
Bin echt gespannt was da in einem halben Jahr rauskommt.
 
Hatte AMD bei der Vorstellung der Fury nicht gesagt, dass HBM 2.0 Ende 2015 kommt oder irre ich mich da?
 
ich meine das bei HBM2 die Massenfertigung Q1 2016 starten soll...

Naja, ich gehe von aus dass die kleineren Karten auch kein HBM 2.0 sehen werden sondern GDDR5, imho rechnet sich da HBM 2,0 kaum außer man hat die Architektur seit je her auf HBM ausgelegt, dann wäre ein Umschwenken zu teuer.

Ich hoffe AMD haut richtig dicke Karten raus, hät Lust meine GTX 980 TI gern auch schon gegen Ende des Jahres zu verscherbeln und auf Polaris zu setzen (bei min 50% Mehrleistung), aber ich warte mal ab wie sich das entwickelt. Das Video gefällt mir.
 
Mygeeto schrieb:
30 % mehr Leistung bei 30 % weniger Verbrauch ist ein mittelschwerer Traum.
DrToxic schrieb:
Frag ich mich auch manchmal, wenn ich so Sachen lese. Das wären einfach mal 86% mehr Performance pro Watt, fast verdoppelt.
Ist das so abwegig? Wir stehen hier vor einem großen Wechsel der Lithografie. Dazu kommen dann architektonische Verbesserungen.
Beim letzten Wechsel von 40nm auf 28nm haben wir auch mindestens +50% Performance bei gleichem Vebrauch gesehen. Ist ja nicht so, als wären bisher nur Minisprünge gemacht worden.

Der Vorteil durch den Wechsel von 28HPM auf 14/16 Finfet ist riesig. Von Huawei gibts ne Folie die ein paar Eckdaten zeigt. Bezieht sich zwar aus deren Sicht eher auf mobile SoCs, aber ganz grob kann das schon als Anhaltspunkt dienen.
Huawei-Chipfertigung-im-Vergleich.jpg

Zudem sind architektonisch auch große Änderungen drin. Was hat denn Nvidia von Kepler auf Maxwell hinbekommen? Ist jetzt auch nicht gerade wenig gewesen. Warum soll AMD dort nichts erreichen?
 
Zuletzt bearbeitet:
eben. Hallo... 28nm -> 16/14nm. Man sollte nicht vergessen, dass der eigentliche 20nm Schritt komplett übersprungen wurde. Genau deswegen steht bei 14/16nm extrem viel in Haus. Gerade deswegen kann man bei AMD mit diesen Zahlen um sich werfen.

Wenn ich die Sildes eben richtig interpretiere sieht man etwa die doppelte Density zu 28nm = doppelt so viele Shader auf gleicher Fläche - das ganze bei etwa 60% des Verbrauchs. Ergo doppelte Leistung bei 60% des Ausgangsverbrauchs oder auch selbe Leistung und nur 1/3tel des Verbrauchs. Quasi eine Fury Nano bei etwa 60W oder eine GTX 980 TI bei 80W.

Kommt hin, ist aber auch ein gewaltiger Sprung. Bei Density hätte ich eigentlich mehr erwartet, aber die 16nm bei TSMC kommen dahingehend wohl eher dem übersprungenen 20nm Prozess gleich.
 
Zurück
Oben