News AMD Polaris: Next-Gen-Radeon mit 14-nm-FinFET kommt Mitte des Jahres

m.Kobold schrieb:
Bestimmt wieder nur 3xDisplay-port und 1xHDMI.

Da wird man als DVI user mit 144Hz Monitor ja richtig zu Nvidia getrieben, kein problem dann bekommt halt das grüne Lager mein Geld.

Wo ist das Problem sich einen Passiven Adapter zu besorgen ? Gut OK 10€ Zusatzkosten - aber grundsätzlich ?

DVI ist schon sooooo lange kein Maßstab mehr für displays dass ich kein einziges Gerät seit 5 Jahren über DVI angeschlossen habe.

https://www.allcomnet.de/product_in...--24-5-.html?gclid=CPH48MTlksoCFcm6GwodZbkC7Q

Evtl. lohnt sich dann auch ein Display update für ~150-200 € auf ein 23" IPS full HD panel z.B. mehr als noch geld in die Graka zu stecken.

Manche Leute versteh ich beim besten willen nicht.
 
DVI ist mittlerweile auch eine sehr alte Schnittstelle, da muss man leider Adapter kaufen. Gut das es welche gibt

Was sollen den die Leute sagen die ein TFT Display mit VGA haben? Die könnte ihre Displays mittlerweile wegwerfen weil neue Karten keine analogen Signale mehr ausgeben und wenn überhaupt nur noch DVI-D Anschlüsse besitzen wo ein VGA Adapter nicht mehr funktioniert.

Das ist wirklich ärgerlich. Aber ein paar passive DP Adapter kaufen ist nun nicht die Welt.
 
Krautmaster schrieb:
Die Fat Chips auf neuer 16nm Fertigung dürften beide nicht 2016 rauskloppen. Am ehesten noch NVidia im HPC Markt, Anfang 2017 als TITAN. Außer AMD zwingt sie dazu...

Das die Fat Chips von Pascal später kommen, da bin ich mit Deiner Meinung absolut konform. Da glaube ich auch das der Nachfolger der TitanX wie auch der GTX 980Ti mit Pascal HBM2 wohl erst 2017 kommen wird. Aber eine HBM2 mit Pascal im Bereich einer GTX 970/980 muss aber noch 2016 erscheinen, allein deswegen schon, weil ich nicht glaube das wenn AMD wirklich mit Polaris im 2./3. Quartal kommt wie angekündigt, Nvidia einfach nur zuschaut. Dazu kommt ja auch noch, das AMD mit Freesync und den deutlich günstigeren Monitoren die so etwas jetzt schon anbieten, ein wirklichen Trumpf in der Hand hat. Auch im Bezug auf Gsync muss Nvidia reagieren, will man an diesem Standard festhalten müssen die Monitore günstiger werden, oder es muss ein Modul her, das man im Nachhinein zwischen jedem Monitor und der Grafikkarte zwischenschalten kann. Sonst werden früher oder später die Kunden Nvidia davon laufen, das kann sich auch Nvidia nicht leisten. ;)
 
Ich fänd's schön, wenn AMD zur Mitte des Jahres richtig gute und effiziente Karten raushaut und ne Masse an neuer, guter HDR Freesync Monitore rauskäme, evtl. mit DP 1.3(?), denn dann wären sie wirklich richtig vorne, wenn Nvidia das verschläft und erst so ab 2017 richtig aus dem Quark kommt.

Auch ist dieses gsync eher n Nachteil, weil teurer, teilweise sogar deutlich teurer.
Hab da Preisunterschiede nur beim Monitor von 250€, gleicher Monitor nur Unterschied free/gsync, gesehen.

250€ nur für den Unterschied ! Guck mal was Du für 250€ schon für gpus kriegst(bei AMD), oder nimm die 250€ und pack das gleiche nochmal drauf. Da kriegt man schon richtig schöne gpus bei AMD. :)

Würd' mich freuen.
 
tek9 schrieb:
Was sollen den die Leute sagen die ein TFT Display mit VGA haben?
Ein HDMI -> VGA-Adapter kostet 10€ und funktioniert ohne Probleme.

Manchmal muss sich die Hardware eben weiterentwickeln, das ist auch gut so, sonst hätten Mainboards heute noch IDE-Anschlüsse und AGP-Steckplätze.
 
@Zotac2012: Bis nVidia Gsync aufgibt muss einiges passieren. NVidia halten in der Regel an ihrem proprietären Kram fest. So lange AMD mit Gsync benachteiligt werden kann bleibt Gsync so wie es ist.

PhysiX war auch total nutzlos und wurde sehr lange von nVidia gepusht und nie für AMD geöffnet. Heute redet nur keiner mehr von PhysiX weil Gameworks die Aufgabe von PhysX übernommen hat, Rechner mit AMD Karten auszubremsen.
 
Zuletzt bearbeitet von einem Moderator:
@Zotac2012

richtig, die Frage ist halt auch wie AMD die neuen Karten positioniert. Zb als R9 390X Ablöse oder als Fury Ablöse ...

14/16nm lassen hier extrem viel Spielraum, und auch der Takt ist noch vollkommen offen. Kann sein dass man 100% auf Fury draufpackt, oder aber auch "nur" 40%. Ich denke dass machen beide auch von der zu erwartenden Zeit bis 10nm fix, klar ist aber dass selbst bei einer Staffelung auf 3 Generationen in 16nm die Performance Sprünge gut ausfallen dürften.

Aber eine HBM2 mit Pascal im Bereich einer GTX 970/980 muss aber noch 2016 erscheinen, allein deswegen schon, weil ich nicht glaube das wenn AMD wirklich mit Polaris im 2./3. Quartal kommt wie angekündigt, Nvidia einfach nur zuschaut.

geht man mal von "normalen" Karten also 50% einer R9 390X aus die auch eine GTX 980 TI hinter sich lässt, dafür deutlich sparsamer agieren (zb R9 490X) - dann kann das Nvidia und auch AMD durchaus noch mit GDDR5 bewerkstelligen ohne sich größere Sorgen um Bandbreite machen zu müssen. Aber wie gesagt, kommt auch auf das Alter des Chip Designs an und ob mit GDDR5/6 oder HBM kalkuliert wurde. Ich denke gerade Nvidia wird so lang es geht den wirtschaftlicheren Weg nehmen, der vermutlich GDDR5 lautet. Auch wenn sie dafür ein 384 Bit SI im neuen Mainstream um 300€ brauchen sollten. Und 512 Bit sind ja auch durchaus wirtschaftlich machbar, siehe R9 390 Serie. Da lässt sich mit 512 Bit + 4Ghz GDDR5 noch gut +50% Chipleistung verkraften.

Klar, oben raus kann durchaus eine HBM2 Karte mit Pascal kommen, würde mich aber auch nicht wundern wenn man 2016 noch bis auf den HPC Markt keine einzige HBM Karte von Nvidia sehen würde.

Edit. Ich bin kein Fan von effizienten Karten (wenn dann idle). Bei mir muss nen fetter Chip drauf sein, gern niedrig getaktet mit viel OC Spielraum. Ich würde 2016 gern die 100% Mehrleistung zu 2015 sehen.
 
Zuletzt bearbeitet:
Ach das wird wie bei jeder neuen Generation 25 bis 30 Prozent oben drauf geben mehr nicht.

Das war immer so.
 
@tek9

Du meinst mit "immer" seit 2011.
Bis da hin waren bei einem Wechsel von Architektur und Fertigungsprozess in der Regel mehr als das drin. Manchmal sogar über 50%.

Ich erwarte mir deshalb schon einen größeren Sprung als wir es zuletzt gewohnt waren. Wobei wahrscheinlich erstmal nur kleinere Chips kommen. Also nichts, was die derzeitigen Big-Chips (Fury und GTX980Ti/TitanX) so deutlich übertrumpfen könnte. Darauf werden wir wohl noch etwas länger warten müssen.
Aber sparsame Performance-Karten mit der Leistung des vorherigen High-End-/Enthusiasten-Modelle sind ja auch nichts schlechtes. :)
 
naja, Sprung von 55 auf 40nm waren es 60% +

https://www.computerbase.de/artikel/grafikkarten/test-nvidia-geforce-gtx-480.1201/seite-21

Der Sprung 28 -> 16nm is deutlich größer. Genau genommen sind es 2 Sprünge in einem. Ich denk aber auch dass man die Effizienzkeule schwingt, einen auf "öko" macht und die Mehrleistung einteilt. Wer weiß wann wir den nächsten Fertigungssprung sehen...

Bei AMD genauso:

https://www.computerbase.de/artikel/grafikkarten/test-ati-radeon-hd-5870.1085/seite-23

Die GTX 680 war eher ne Ausnahme, da Mainstream Chip. Wenn dann müsste man eher GTX 780 und GTX 580 vergleichen. (40nm vs 28nm) - und da sind es auch wieder um 60-70%

@Herdware

ich will aber nen FatDIE mit FinFET sehen :D
 
Zuletzt bearbeitet:
Die gehen doch nicht hin und holen auf Teufel komm raus alles was geht heraus mit den Neuen GPU's. Der Vorteil von 14-nm wird uns scheibchenweise verkauft, weil 2017 oder 2018 sollen ja auch wieder neue GPU's verkauft werden. Klar wünschen wir uns das aber so wird es (leider) nicht kommen.

Das war ja mit ein Grund, warum ich GPU mäßig mindestens bis Ende 2016 gut versorgt bin um dem Marketing treiben von AMD und NVidia aus der Ferne und ohne Druck zuschauen zu können.
Die News die jetzt und in den nächsten Monaten kommen sind nichts anderes als uns Kunden für den Kauf der Neuen GPU's zu animieren. Apple ist ja Weltmeister darin, wenn man beim Verkaufsdatum die Schlangen vor den Geschäften sieht.

Was welche GPU leistet und kostet wissen wir sowieso erst kurz vor dem Verkaufsstart. Dieses Spiel sollte doch mittlerweile jeder von uns hier kennen.
 
oldmanhunting schrieb:
Das war ja mit ein Grund, warum ich GPU mäßig mindestens bis Ende 2016 gut versorgt bin um dem Marketing treiben von AMD und NVidia aus der Ferne und ohne Druck zuschauen zu können.

Sehe ich bei mir genauso. Aber ich freue mich auf die vielen bunten Balken in den Testberichten und werde mich für die Lektüre der zugehörigen Threads rechtzeitig mit Popcorn eindecken :daumen:
 
Da ich meine R9 in diesem Jahr in Rente schicken möchte bin ich schon auf Polaris und Pascal gespannt. HBM, 8GB und dann entscheidet das P/L. Aber bitte nicht AiO - da hab ich ne Allergie gegen. Aber bei den Leckstömen sollte ja auch eine vernünftige Kühling mit Luft drinne sein - am besten die Hersteller von custom- Kühlern kommen langsam in die Puschen und bringen etwas das auf die neuen HBM-Desings passt.
 
oldmanhunting schrieb:
Die gehen doch nicht hin und holen auf Teufel komm raus alles was geht heraus mit den Neuen GPU's. Der Vorteil von 14-nm wird uns scheibchenweise verkauft, weil 2017 oder 2018 sollen ja auch wieder neue GPU's verkauft werden. Klar wünschen wir uns das aber so wird es (leider) nicht kommen.

joa so denk ich auch, aber kommt auch drauf an wie weit die 10nm bei TSMC weg sind.
 
Ich seh schon die Headline....

"Pistolenduell: prescht Polaris (p)vor Pascal?" :D

Man darf gespannt sein. Jetzt noch ne 980Ti zu kaufen wäre also reichlich dumm und rausgeschmissenes Geld. Die wird man wohl in nem halben Jahr dann nicht mehr los. Hmpf.
 
@Krautmaster 100% Mehrleistung? :lol: kannst du vergessen. Nicht vor 2017. Rechnet mal eher mit 30% bei geringerem Energiebedarf, ich erwarte dieses Jahr <450mm² Chips die hat die aktuellen Flaggschiffe bei unter 200W TDP eindeutig schlagen.

Und was hast du bitte von einem zu niedrig getakteten Chip? Hätte AMD seine GPUs mit 850 MHz Takt gebracht wäre es für dich tolles OC Potenzial? Man sollte GPUs einfach im Sweet spot veröffentlichen, jeder kann dann entscheiden wie viel OC er braucht.
 
Wäre schön wenn diese AMD Fanboys endlich mal begreifen könnten, das es bei Effizienz nicht um Stromkosten sondern um Kühlung/Lautstärke/Platzersparnis geht.

Was bringt mir die beste Leistung wenn ich sie nicht in einem ITX Gehäuse verbauen kann?
Klar, die Gamingheadsetfraktion hat kein Problem wenn nebenan ein Staubsauger rumsaugt - anderen ist ein leises System was trotzdem Power hat wichtig.

Aber schon klar, ihr kauft eure HiFi Boxen auch nur aufgrund der Lautstärke und nicht des Schalldrucks wegen. :P
 
Zurück
Oben