Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD Polaris: Next-Gen-Radeon mit 14-nm-FinFET kommt Mitte des Jahres
- Ersteller Wolfgang
- Erstellt am
- Zur News: AMD Polaris: Next-Gen-Radeon mit 14-nm-FinFET kommt Mitte des Jahres
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.420
kayD schrieb:Gut dass AMD zumindest am Papier vorlegt damit nVidia den Pascal-Release besser timen kann und AMD zuvor kommt, wovon ich stark ausgehe.
Wovon ich ausgehe, ist eher die Tatsache, dass NV beim HPC Markt nachziehen muss, weil der olle Hawaii Chip weiterhin richtig Druck macht.
Das heißt, NV kann durhcaus einen BIG Chip in der Mache haben und seine Ressourcen auf diesen Richten um im Server Markt seinen Partner entgegenzu kommen. Das bedeutet man benötigt schon mal ordentlich Kapazitäten von TSMC.
Bei AMD kommt noch der Vorteil, dass man laut der News 2 Fertiger hat, TSMC und GF. Theoretisch könnte es passieren, dass AMD sogar einen weiteren Chip an Samsung vergeben könnte, welche den 14nm Prozess an TSMC lizenziert. Das heißt, ich glaube eher, dass AMD der erste sein wird, was bei den vorherigen Generationen, 28nm, 40nm und 55nm der Fall war.
wahlmeister schrieb:Ob da wirklich in nächster Zeit soviele Verbesserungen im Bezug auf die Effizienz möglich sind? Also mehr als einstellige % Werte? Kann ich mir nicht wirklich vorstellen, wünschenswert wäre es aber.
AMD hat ja seit der ersten GCN Generation ja kaum was neu aufgelegt. Das bedeutet aber nicht, dass sie an nichts mehr entwickelt haben. Man sollte die Rebands von AMD in den jeweiligen R200 und R300 Serie nicht loben, aber bedenken, dass eine neue Maske für eine neue GPU mehrere Millionen Dollar kostet. Das ist alles Geld und Zeit, dass eventuell in Polaris und Zen geflossen ist. Wenn man das beachtet, ist das nicht so unrealistisch.
Aber klar ist, Skepsis ist nichts schlechtes !
Zuletzt bearbeitet:
Wenn das der kürzlich gezeigten AMD-Logik folgt und die Werte stimmen... Gleiche Leistung bei tatsächlich deutlich weniger Stromverbrauch... da steht schon wieder was von ach so tollen Formfaktoren... GTX 950 macht so ~165€... Dann kostet das AMD-Gegenstück wahrscheinlich 300€... weil ist ja klein und sparsam...
Hat denn jemand Vergleichswerte, was man so auf Mittel in Star Wars für Frameraten schafft? Genau 60 bei beiden klingt mir etwas auffällig nach Framelimiter... Der ist ja auch bei AMD nicht mehr neu... Vielleicht ist alles was uns da gezeigt wird auch nur, dass AMDs Framelimiter tut was er soll während die GTX auf voller Leistung fährt... Ohne weitere Infos mal wieder vollkommen unbrauchbar, so wie alle Herstellerangaben.
@CB
Mich hat das gerade auf eine Idee gebracht. Gib es eigentlich Tests wo Frame-Limiter über unterschiedliche Karten in den selben Spielen für die selben Frameraten getestet werden? Sprich man nehme Spiel X, wähle ein Setting, wo alle Karten im Feld Framerate Y dauerhaft erreichen und stelle diese als Framerate-Limit ein, um dann die Leistungsaufnahme zu messen? Fänd ich interessant mal zu sehen, ob z.B. eine mittelklasse-Karte bei hoher Last vielleicht mehr verbraucht als eine weniger ausgelastete High-End-Karte.
Hat denn jemand Vergleichswerte, was man so auf Mittel in Star Wars für Frameraten schafft? Genau 60 bei beiden klingt mir etwas auffällig nach Framelimiter... Der ist ja auch bei AMD nicht mehr neu... Vielleicht ist alles was uns da gezeigt wird auch nur, dass AMDs Framelimiter tut was er soll während die GTX auf voller Leistung fährt... Ohne weitere Infos mal wieder vollkommen unbrauchbar, so wie alle Herstellerangaben.
@CB
Mich hat das gerade auf eine Idee gebracht. Gib es eigentlich Tests wo Frame-Limiter über unterschiedliche Karten in den selben Spielen für die selben Frameraten getestet werden? Sprich man nehme Spiel X, wähle ein Setting, wo alle Karten im Feld Framerate Y dauerhaft erreichen und stelle diese als Framerate-Limit ein, um dann die Leistungsaufnahme zu messen? Fänd ich interessant mal zu sehen, ob z.B. eine mittelklasse-Karte bei hoher Last vielleicht mehr verbraucht als eine weniger ausgelastete High-End-Karte.
Woher nimmst du das? Ich habe Kontakt zu einem Direktor eines großen deutschen HPC-Instituts, der durchaus weiß wovon er redet. Es gibt laut ihm bei den CPUs aktuell praktisch nur Intel und bei den Coprozessoren Praktisch nur Nvidia und Intel, wobei Intels Knights-.... aktuell ganz gut auf dem Vormarsch ist. AMD ist laut ihm in beiden Bereichen so gut wie tot. Kannst ja auch mal die Top500 checken, gibt schöne Statistiken, nur ist AMD da (fast) nicht zu sehen.pipip schrieb:Wovon ich ausgehe, ist eher die Tatsache, dass NV beim HPC Markt nachziehen muss, weil der olle Hawaii Chip weiterhin richtig Druck macht.
Zuletzt bearbeitet:
nato44
Lieutenant
- Registriert
- Mai 2008
- Beiträge
- 842
Wenn die Produkte halten, was der Artikel verspricht, dann ist der Name "Polaris" durchaus gerechtfertigt.
Schade, dass bisher nur 2 Karten dieses Jahr angekündigt worden sind..sicherlich wie immer eine Einsteiger- und eine Top-Karte.
Muss ich wohl auf einen neuen P/L-Sieger á la 8800GT noch warten..
Schade, dass bisher nur 2 Karten dieses Jahr angekündigt worden sind..sicherlich wie immer eine Einsteiger- und eine Top-Karte.
Muss ich wohl auf einen neuen P/L-Sieger á la 8800GT noch warten..
Zitat von Zuckerwatte Beitrag anzeigen
HDMI kommt eher aus dem Heimkino / TV Bereich. DP vom PC Bereich. Ich wäre auch dankbar einen Standard zu haben ( bitte DP ^^).
Wie ich gelesen habe müssen Hersteller für HDMI anders als für DP auch noch Lizenzgebühren zahlen. Da stellt sich mir die Frage, warum HDMI nicht schon ausgestorben ist. Aus welchem Bereich der Anschluss kommt, sollte doch keine Rolle spielen, wenn DP das selbe kann wie HDMI und auch noch ein paar kleine Vorteile liefert.
AFAIK ist HDMI wegen des "unknackbaren" Kopierschutzes HDCP entwickelt worden und wird von der "kino-medien-Raubmordkopierer-sind-Diebe-Mafia" gepusht damit der klingelbeutel mit DVDs und blurays besser klingelt.
Abgesehen davon kann DP alles besser als HDMI - mehr Datenübertragungsrate, besser Signal, billigeres Kabel, einfacherer Stecker etc.
Schon erstaunlich was man alles besser hinkriegt wenn man die antiquierte Vorstellung von "Kopierschutz ist das absolut wichtigste feature" einfach mal in die Tonne kickt.
https://de.wikipedia.org/wiki/DisplayPort
EDIT: Achso, die Lizenz bei HDMI wird AFAIK für den Support von HDCP gezahlt - der bei HDMI ein verpflichtender Bestandteil ist bei Displayport afaik optional ist.
un4given
Lt. Junior Grade
- Registriert
- Sep. 2008
- Beiträge
- 442
k0ntr schrieb:Hm, ich könnte meinen, dass man 2015 mehr schlechtes von Nvidia gelesen hat anstatt von AMD ^^
Kannst du mir bitte deine Probleme auflisten? Es wundert mich nur, da ich nie irgendwelche Probleme mit Treibern hatte (jedenfalls grosse Probleme). Wie gesagt, ich bin nur neugierig mehr nicht.
Ergänzung ()
Oder in einem Wort: Massiv
klar, das Thema wurde eh ausführlich in den AMD Foren besprochen. Ist auch ziemlich spezifisches Thema. Bis 15.6 Version war noch alles OK. Danach nicht mehr. Kurz beschrieben. Wen 2 Bildschirme Digital angeschlossen sind, fängt das Bild im 2D Modus nach einer Zeit zu flackern/schlieren. Es gibt ein Paar Workarounds, die mir aber auf Dauer einfach viel zu mühsam waren. Eindeutig Treiber Problem. Habe meine Karte sogar zum RMA eingeschickt und eine ganz neue bekommen - gleiches Problem.
https://community.amd.com/thread/185472 (nur einer der mehreren Threads)
Palmdale
Captain
- Registriert
- Apr. 2009
- Beiträge
- 3.159
pipip schrieb:Wovon ich ausgehe, ist eher die Tatsache, dass NV beim HPC Markt nachziehen muss, weil der olle Hawaii Chip weiterhin richtig Druck macht.
Das heißt, NV kann durhcaus einen BIG Chip in der Mache haben und seine Ressourcen auf diesen Richten um im Server Markt seinen Partner entgegenzu kommen. Das bedeutet man benötigt schon mal ordentlich Kapazitäten von TSMC.
Bei AMD kommt noch der Vorteil, dass man laut der News 2 Fertiger hat, TSMC und GF. Theoretisch könnte es passieren, dass AMD sogar einen weiteren Chip an Samsung vergeben könnte, welche den 14nm Prozess an TSMC lizenziert. Das heißt, ich glaube eher, dass AMD der erste sein wird, was bei den vorherigen Generationen, 28nm, 40nm und 55nm der Fall war.
Mehrere Fertiger für das gleiche Produkt kann aber auch Nachteile haben, siehe Apple mit ihrem im iPhone verbauten Chip, welcher unterschiedliche Güte, Größe und Leistung hatte. Bei verschiedenen Produkten wärs mMn allerdings kein Problem.
Was ich vorhin vergessen hab, ist die positive Erwähnung der offenen Kommunikation. Es bleibt zu hoffen, dass AMD von Ihrem Stillschweigen, NDA Maskeraden etc. pp. abrückt und weg von der bisher schlussendlich übrig gebliebenden weltweiten Gift-Gerüchteküche mit unregelmäßigen, jedoch offiziellen Newsupdates die Interessenten bei der Stange hält.
r4yn3
Admiral
- Registriert
- Mai 2006
- Beiträge
- 7.692
@pipip: Naja dass die News logisch ist, ist logisch
Ja ne also mit meinem verwundert meinte ich eher ein überrascht sein, im positiven Sinne. Und was ich sagen wollte ist, dass es sicher nicht verkehrt ist, für Mobile den Chip fertigungstechnisch nochmal mehr auf Effizienz zu trimmen.
Zugegeben weiß ich nicht wie es aktuell um mobile Versionen steht, nur dass sie kaum verfügbar sind. Denke aber, wenn man da Nvidia in Sachen Effizienz übertrifft, mit Sicherheit mehr Modelle sehen wird.
Im Desktop wird man ohnehin auf ein paar % wieder beisammen sein. Interessant find ich zudem auch, dass man über HBM kein Wort verloren hat. Oder hat man?
Zumindest wars noch bei Fiji ein kleiner Heilsbringer. Ich dachte dass würde auch bei Polaris einen großen Einfluss haben.
Edit: Schade finde ich jedoch das mit Mitte 2016. Hatte eher auf ein frühes Q2/2016 gehofft.
Ja ne also mit meinem verwundert meinte ich eher ein überrascht sein, im positiven Sinne. Und was ich sagen wollte ist, dass es sicher nicht verkehrt ist, für Mobile den Chip fertigungstechnisch nochmal mehr auf Effizienz zu trimmen.
Zugegeben weiß ich nicht wie es aktuell um mobile Versionen steht, nur dass sie kaum verfügbar sind. Denke aber, wenn man da Nvidia in Sachen Effizienz übertrifft, mit Sicherheit mehr Modelle sehen wird.
Im Desktop wird man ohnehin auf ein paar % wieder beisammen sein. Interessant find ich zudem auch, dass man über HBM kein Wort verloren hat. Oder hat man?
Zumindest wars noch bei Fiji ein kleiner Heilsbringer. Ich dachte dass würde auch bei Polaris einen großen Einfluss haben.
Edit: Schade finde ich jedoch das mit Mitte 2016. Hatte eher auf ein frühes Q2/2016 gehofft.
Zuletzt bearbeitet:
Jenergy
Rear Admiral
- Registriert
- Dez. 2008
- Beiträge
- 5.447
Du meinst wohl die HD 5870, denn mit einer GTX 280 konnte die HD 4870 nicht mithalten, war aber deutlich günstiger.stoneeh schrieb:[...] Bei der HD4870 gab's ja auch keine grossen Ankündigungen im Vorhinein, da gab's einfach nur einen extrem potenten Chip, der die Konkurrenz in den Benchmarks total deplatziert hat.
Vergleicht man die R9 Fury mit der R9 290X, so wurde die Effizienz der GPU (ohne den HBM) um mehr als 20% gesteigert. Und beide GPUs werden in 28nm gefertigt. Dass mit 14nm-FinFET eine noch grössere Effizienzsteigerung möglich ist, liegt auf der Hand.wahlmeister schrieb:Ob da wirklich in nächster Zeit soviele Verbesserungen im Bezug auf die Effizienz möglich sind? Also mehr als einstellige % Werte? Kann ich mir nicht wirklich vorstellen, wünschenswert wäre es aber.
un4given
Lt. Junior Grade
- Registriert
- Sep. 2008
- Beiträge
- 442
roterhund07 schrieb:Also von nVidia habe ich wesentlich mehr schlechtes 2015 gehört als von AMD, ich sag nur GTX 970...
eben eine Nvidia GTX 970 geholt. Wenns nicht besser kann, dann verkaufe ich halt den ganzen Rechner
w0mbat schrieb:Hör doch mit diesen BS Lügen auf! Schon seit mehreren Jahren sind sie AMD Treiber besser als die von Nvidia.
kann ich nicht beurteilen, da keine NVIDIA Karte seit 10 Jahre mehr besessen. Für mich und mein Konsumverhalten sind die Treiber leider nicht OK. Ich sagte auch nicht, dass die Treiber von NVIDIA besser sind, ich erhoffe mir, dass die besser sind.
MaverickM schrieb:Vielleicht sollte man mal das Problem bei sich selbst suchen. Andere - inklusive mir - haben jedenfalls keine Probleme. Jedenfalls nichts, was nicht durch neue Treiber-Versionen oder (Spiele-)Patches in relativ kurzer Zeit behoben wird. Hast Du denn konkrete Beispiele für Deine Aussagen und kannst diese belegen!? Ansonsten klingt das einfach nur nach unqualifiziertem Unsinn.
siehe Posting #87
Das Problem ist nicht nur bei mir aufgetreten. Und wie gesagt, ist ein spezielles Problem, das aber direkt auf die Treiber zurückzuführen ist. Auch bekanntes Problem, das leider nicht gelöst wird.
- Registriert
- Jan. 2011
- Beiträge
- 2.628
Lars_SHG schrieb:Hmm wundert mich das keiner was sagt das AMD mit dieser News eine Absage von HBM bei den kleinen Karten bzw. iGPU erteilt hat - und diese Karten wären genau die gewesen, die davon am meisten profitieren!
Der hier gezeigte Chip ist nach Schätzungen von Ryan von Anandtech wahrscheinlich kleiner als 120mm². Dies ist in der Größenordnung von Cape Verde, der bei der Einführung der 28nm Chips der kleinste Chip war. Der Chip wird also auf die kleinsten und billigsten Karten der FinFET Generation drauf kommen. Da kann man also von einem 128-bit Interface ausgehen. Da macht die 2. Generation von HBM einfach keinen Sinn, da schlicht zu teuer und kein Vorteil in Sachen Effizienz (Bei Einsatz von HBM wäre die Bandbreite viel höher als für so einen kleinen Chip nötig und man würde sinnlos Strom verbraten).
iGPU bekommt mit den ZEN-APUs HBM, die kommen aber erst 2017.
Tommy64
Lt. Junior Grade
- Registriert
- Nov. 2004
- Beiträge
- 345
Fliz schrieb:AMD hat wohl endlich wieder was im Köcher.. Bin schon sehr gespannt, was dann die ersten Testmuster wirklich können.
Kann ich dann hoffentlich meinen Stromschlucker R9 380 in Rente schicken..
Die hab ich auch. Bin zufrieden damit, da ich "nur" in HD zocke.
Werde die Ende 2016 trotzdem verkaufen, wenn die neuen wirklich so gut sind.
@un4given:
http://support.amd.com/en-us/kb-articles/Pages/Screentearingwithmultipledisplays.aspx
Liest sich für mich so als ob das ein nicht-lösbares Problem bei der Verwendung des TMDS (HDMI, DVI, etc.) transferprotocols und gleichzeitig des DP-Transferprotocols sind, da diese unterschiedlich funktionieren und mit unterschiedlichen Kommunikationsmethoden mit den "Displays" arbeiten so dass keine Synchronizität hergestellt werden kann, es sei denn man verwendet einen art "aktiven" Scheduler der alle diese Protokolle gleichschaltet.
So ein scheduler scheint wohl nicht in den Karten verbaut zu sein sonst wäre das Problem gar nicht existent.
Also kann man sich nur mit der oben beschriebenen Methode helfen.
Alle Anschlüße auf DP legen....oder alle Anschlüße durch einen aktiven Adapter jagen der die Signale synchronisiert.
=> 2x/3x DP Kabel kaufen und deine displays so an die Karte anschliessen sollte das problem lösen. (ggf. am Ende noch nen DP/DVI bzw. DP/HDMI adapter für dein Bildschirm wenn er kein DP-Port hat.)
http://support.amd.com/en-us/kb-articles/Pages/Screentearingwithmultipledisplays.aspx
Liest sich für mich so als ob das ein nicht-lösbares Problem bei der Verwendung des TMDS (HDMI, DVI, etc.) transferprotocols und gleichzeitig des DP-Transferprotocols sind, da diese unterschiedlich funktionieren und mit unterschiedlichen Kommunikationsmethoden mit den "Displays" arbeiten so dass keine Synchronizität hergestellt werden kann, es sei denn man verwendet einen art "aktiven" Scheduler der alle diese Protokolle gleichschaltet.
So ein scheduler scheint wohl nicht in den Karten verbaut zu sein sonst wäre das Problem gar nicht existent.
Also kann man sich nur mit der oben beschriebenen Methode helfen.
Alle Anschlüße auf DP legen....oder alle Anschlüße durch einen aktiven Adapter jagen der die Signale synchronisiert.
=> 2x/3x DP Kabel kaufen und deine displays so an die Karte anschliessen sollte das problem lösen. (ggf. am Ende noch nen DP/DVI bzw. DP/HDMI adapter für dein Bildschirm wenn er kein DP-Port hat.)
/root
Lt. Commander
- Registriert
- Okt. 2007
- Beiträge
- 1.286
un4given schrieb:Leider zu spät für mich nach 10 Jahre AMD bin ich auf NVIDIA umgestiegen, weil AMD einfach nicht in der Lage ist passable Treiber für ihre Produkte auf den Markt zu bringen.
bin aus dem gleichen Grund auf nVidia gewechselt und bereue es nicht
Palmdale
Captain
- Registriert
- Apr. 2009
- Beiträge
- 3.159
Vielleicht noch eines als Ergänzung. Die Verbesserungen basierend auf der Verkleinerung der Strukturbreite sind kein Alleinstellungsmerkmal von AMD, sondern stehen der Konkurrenz auch vollumfänglich zur Verfügung. Die Weiterentwicklung von GCN allein wird zeigen müssen, ob man die Performance/Watt erneut auf Basis der Architektur verbessern kann. Anderenfalls ist das ein Nullsummenspiel...
Flinxflux
Lt. Junior Grade
- Registriert
- Apr. 2011
- Beiträge
- 308
Lasst die Spiele beginnen.
Das letzte Jahr war ein totaler Reinfall für mich was Hardware angeht .
Wollte mir die GTX 970 kaufen hatte sie auch schon im Einkaufswagen, am selben Tag kam
das Speicher Debakel ans Licht. Also den Kauf widerrufen.
Dachte mir wartest du einfach auf die Nano und hast dann was kleines verbrauchsgünstiges im Rechner.
Dann kam die Preisansage von 700 €, ok zu Teuer für mich .
Intel Skylake zu wenig Mehrleistung fürs Geld.
Nun habe ich einen 4K Fernseher , kann ihn in 4K nur mit 30HZ befeuern.
Htpc Desktop mit 60 HZ geht also auch nicht.
Zur Amd Nvidia Treber Debatte will ich noch sagen das meine Amd 7870 GHZ besser gealtert ist als
meine GTX 770.Bis Mitte letzten Jahres lag fast immer die GTX770 von der Spieleleistung vorne, nun ist es bei neueren Spielen
meist die AMD HD HD7870 GHZ.
Das letzte Jahr war ein totaler Reinfall für mich was Hardware angeht .
Wollte mir die GTX 970 kaufen hatte sie auch schon im Einkaufswagen, am selben Tag kam
das Speicher Debakel ans Licht. Also den Kauf widerrufen.
Dachte mir wartest du einfach auf die Nano und hast dann was kleines verbrauchsgünstiges im Rechner.
Dann kam die Preisansage von 700 €, ok zu Teuer für mich .
Intel Skylake zu wenig Mehrleistung fürs Geld.
Nun habe ich einen 4K Fernseher , kann ihn in 4K nur mit 30HZ befeuern.
Htpc Desktop mit 60 HZ geht also auch nicht.
Zur Amd Nvidia Treber Debatte will ich noch sagen das meine Amd 7870 GHZ besser gealtert ist als
meine GTX 770.Bis Mitte letzten Jahres lag fast immer die GTX770 von der Spieleleistung vorne, nun ist es bei neueren Spielen
meist die AMD HD HD7870 GHZ.
noxon
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 7.570
Ja, besonders hier wieder der Eindruck erweckt wird, als ob die Karte unheimlich wenig Energie verbrauchen würde, aber letztendlich wird die Karte genau so viel Energie benötigen wie alle anderen Karten bisher auch. Ihr Energie/Leistungsverhältnis mag besser sein, aber der Energiebedarf an sich sinkt sicherlich nicht besonders stark.luda schrieb:Aber am Ende nicht wieder enttäuscht sein.
Hier wird immerhin eine relativ schwache 950 mit einer sehr leistungsstarken Polaris bei Full HD @ 60 fps verglichen.
Die 950 wird das Spiel gerade mal so bei voller Auslastung und ihrem maximalen Powertarget darstellen können und wird dabei knüppelheiß.
Die Polaris kann so ein spiel locker flockig mit halber Taktung darstellen und wird dabei höchstens lauwarm. Da kommt man natürlich leicht auf 84 Watt. Das heißt aber nicht, dass die Karte bei einem 4K Spiel auch nur 84 Watt verbrauchen wird. Da braucht man sich also keine falschen Hoffnungen machen.
Mhhhhh ... 150% der Leistung einer FuryX würde mir bereits reichen.
Das wären dann 9/10 Games für 4K@60Fps und mindestens 5/10 Games für 4k@100Fps.
Dann noch 1000€ für nen gescheiten 34" 4k 144Hz NoBoarder IPS Monitor und ich hab wieder 4, 5 Jahre Ruhe.
mfg,
Max
Das wären dann 9/10 Games für 4K@60Fps und mindestens 5/10 Games für 4k@100Fps.
Dann noch 1000€ für nen gescheiten 34" 4k 144Hz NoBoarder IPS Monitor und ich hab wieder 4, 5 Jahre Ruhe.
mfg,
Max
Ähnliche Themen
- Antworten
- 83
- Aufrufe
- 22.764