News Next-Gen-GPUs: Grafikkarten überspringen 20 nm für 14/16 nm

Dann nenn mir eine Grafikkarte von AMD die HBM Speicher verbaut.
Nicht nur das, als ob die Speichergeschwindigkeit bei irgendeiner der letzten High-End Generation mal relevant für die fps waren!?!

Evtl. wird es Vorteile bei der Produktion geben, aber für den Nutzer? Warten wir es ab, ich sehe hier wenig Potential schließlich wird durch schnellen Speicher auch keine Grafikchip schneller......
 
Weniger Verbrauch->MehrPowerbudget->Mehr Transitoren->Mehr Shader->mehr FPS.
Also ja, HBM bringt in jedem Fall mehr Effzienz und FPS - das ist doch das was sämtliche Maxwell-Käufer als den heiligsten aller heiligen Grale deklariert hatten mit erscheinen von Maxwell. Davor waren Nvidias Karten zwar immer hintendran damit, doch das hindert ja nun nicht die Fans einfach mal die Prioritäten so zu wählen wie sie gerade passen ;)
 
Simanova schrieb:
Dann nenn mir eine Grafikkarte von AMD die HBM Speicher verbaut.
Der cmt war ironisch gemeint und HBM bezog sich auf die kommenden relase der 390 ;-)
 
Wieso das Geschrei? Diese Information gab es schon vor geraumer Zeit, daß AMD erst mal bei 28nm bleiben wird, der 20nm-Techknoten dann jedoch übersprungen werde, direkt zu 16 bzw. 14 nano.
Zumal, eine kleinere Fertigung macht eine GPU nicht schneller, sondern erst mal nur effizienter.:eek:
Eine geshrinkte GPU ist nicht schneller als ihr Vorgänger, sondern sparsamer. Grafikleistung ist eine Frage der Architektur, nicht der Fertigungsgröße.
Daher wird die kommende R300-Serie sehr wohl schnell sein können - trotz 28nm.:cool_alt:
Und jetzt über die R400 zu spekulieren, die vielleicht Ende 2016 vorgestellt wird, wo noch nicht mal Spezifikationen der R300 raus sind, ist schlicht nur dämlich. Noch dämlicher, diese zukünftige Serie gar zu kritisieren...:freak:

Meine 7950 rennt immer noch immens gut, selbst mit meinem neuen großen Monitor, und ich danke AMD rückwirkend dafür, mit Tahiti eine so grandiose und zukunftssichere GPU entwickelt zu haben! Damit haben sie mein Vertrauen für die R300 verdient.

:king: Tahiti is King! :king:
 
Cherrycoce schrieb:
AMD Grafikkarten sind definitiv die, die auch länger durchhalten. Die 7000er Reihe ist noch heute bei Spielen sehr gut dabei. Die 600 und 700er Reihe von nvidia kann man hingegen praktisch vergessen. Können ja nichtmal dx12.

AMD entwickelt immer mit einem Blick in die Zukunft und das gefällt mir sehr. Nvidias Karten mögen für den Moment immer gut sein, aber für die jenigen welche wie ich vorhaben ihre gpus 3+ Jahre zu nutzen sind sie nichts.

Das ist wohl der unqualifizierteste Beitrag, den man hier so lesen kann.
Bitte woran machst du das fest, dass AMD "mit Blick auf die Zukunft" entwickelt? DX12 ist noch in "naher" Ferne, die finalen Spezifikationen sind noch nicht bekannt. Egal ob 680 oder 7970, es gibt bereits jetzt wesentlich schnellere und effizientere Karten zu kaufen und für den Enthusiasten sind beide zu alt und lahm.

Eine geshrinkte GPU ist nicht schneller als ihr Vorgänger, sondern sparsamer. Grafikleistung ist eine Frage der Architektur, nicht der Fertigungsgröße.

Doch, auch schneller, einfach weil mehr Platz für mehr Transistoren vorhanden ist. Und die größten Steigerungen gibt es über: Mehr Shader. Also im Endeffekt wird durch eien Strukturverkleinerung auch die nächste Generation schneller.
 
Zuletzt bearbeitet von einem Moderator:
Bible Black schrieb:
Und ich wollte endlich von meiner HD7950 wechseln, war wohl nix mit Pirate Island. Sehe schon kommen das Nvidia direkt mit HBM2 einsteigt und das AMD dann noch bei HBM1 ist. Wird's halt vielleicht 'ne Pascal.

das glaubst auch nur du
bloß gut das amd 1 jahr vorrecht auf HBM hat wenn überhaupt wird nv 2016 HBM1 benutzen dürfen
 
johnniedelta schrieb:
Wieso das Geschrei? Diese Information gab es schon vor geraumer Zeit, daß AMD erst mal bei 28nm bleiben wird, der 20nm-Techknoten dann jedoch übersprungen werde, direkt zu 16 bzw. 14 nano.

Also laut einigen News über das Thema auch aus der von Computerbase, sagt die Info folgendes. Nämlich dass AMD Greenland bei GF im 14nm FinFet Prozess fertigen könnte und NV selbst den 16nm FinFet Prozess von TSMC benützt.

Und jetzt über die R400 zu spekulieren, die vielleicht Ende 2016 vorgestellt wird, wo noch nicht mal Spezifikationen der R300 raus sind, ist schlicht nur dämlich. Noch dämlicher, diese zukünftige Serie gar zu kritisieren...
Jup, genauso sinnlos ist es über Pascal zu spekulieren oder ? Aber die Spekulation, dass AMDs 14nm im Endeffekt ein Shrinke von Fijii sein könnte ist nicht so abwegig oder ?

nurmalkurz schrieb:
Bitte woran machst du das fest, dass AMD "mit Blick auf die Zukunft" entwickelt?

Bisher gab es bei AMD immer mehr VRAM als zum Lunch aktuell nötig, im Gegensatz zu NV meist. Auch hat AMD mit GCN viele Features (die für HSA auch notwendig sind) die NV erst mit der nächsten Generation ungefähr nachziehen wird.
Von GCN gibt es verschiedene Ausbaustufen, aber die GPUs werden weder beschnitten noch für die jeweilige Klasse angepasst beschnitten.

ACE, Virtual Memory, Zero Copy ect das alles kann schon Gen 1.0. Durch HSA 1.0 könnte eine AMD GPU theoretisch ja sogar auf den VRAM anderer GPUs und der CPU zugreifen. Um hier nachzukommen, will NV NV-Link einführen (soviel ich verstanden habe). Mit welchem Hardwarefeature ist denn NV AMD aktuell voraus ? Kompression, der große L2 Cache bei Maxwell ? Tonga kann ebenso bereits Kompression. L2 Cache ist hingegen unbekannt. Aber mit HBM wird das eventuell nicht mehr so wichtig sein, die nächste Zeit.
 
Zuletzt bearbeitet:
Helli85 schrieb:
das glaubst auch nur du
bloß gut das amd 1 jahr vorrecht auf HBM hat wenn überhaupt wird nv 2016 HBM1 benutzen dürfen

So ist es,
die Vereinbarung von Amd und Hynix sieht vor das NV Gen. 1 nutzen kann/darf sobald Amd Gen 2. verwendet
 
Woher nehmt ihr diese Vereinbarung und was hat diese bei einem JEDEC-Standard zu sagen? Man korrigiere mich aber was soll andere daran hindern, z.B. Samsung, entsprechende Chips zu fertigen?
 
nVidia verwendet HBM2 mit Pascal. Hynix war auf der GTC und hat HBM2 schon vorgestellt.
 
nurmalkurz schrieb:
Das ist wohl der unqualifizierteste Beitrag, den man hier so lesen kann.
Bitte woran machst du das fest, dass AMD "mit Blick auf die Zukunft" entwickelt? DX12 ist noch in "naher" Ferne, die finalen Spezifikationen sind noch nicht bekannt. Egal ob 680 oder 7970, es gibt bereits jetzt wesentlich schnellere und effizientere Karten zu kaufen und für den Enthusiasten sind beide zu alt und lahm.
Und das ist die unqualifizierteste Beurrteilung einer Qulifikation die ich heute lesen durfte. Ich denke du solltest dich beser informieren.

Seit wann ist DX12 der Masstab für AMDs Innovation und bessere Aufstellung in Zukunft? DX12 ist 2 Jahre hinter Mantle und wird in grossen Teilen genau das machen was AMD vorgelegt hat. Kommt DX12 nicht in die pushen kräht bald kein Hahn mehr nach DX12 Logos. Hier sind neben Mantle auch noch Vulkan die Plattformübergreifend funktionieren.

Kommen bei DX12 nicht endlich auch die Hardwarefeatures zum tragen die AMD eingereicht hat, wird Mantle raus geholt und damit umgesetzt um zu zeigen wie schlecht DX12 ist. Das war eine lohnende Investition in mehr Marktmacht und Einfluß. Einige Bremsen die noch Dx10 und Dx11 auf das schwerste behindert haben sind damit gelöst wiorden und die Konkurrenz dazu gezwungen worden da mit Schritt zu halten - die Blockadepolitik bei Features in DX, bei OpenGL, OpenCL und anderen wurde umgangen mit sehr viel Aufwand.
Ergänzung ()

zeromaster schrieb:
Woher nehmt ihr diese Vereinbarung und was hat diese bei einem JEDEC-Standard zu sagen? Man korrigiere mich aber was soll andere daran hindern, z.B. Samsung, entsprechende Chips zu fertigen?

Nichts. Aber bis die Produktion steht sind die HBM2 von Hynix auf dem Markt. Das ist nun mal so wenn ich etwas erfinde und produziere, was ab dann Standard wird wenn ich es auf den Markt bringe. Bis die anderen diesen Rückstand erst einmal aufholen, sobald sie die Standard Spezifikationen bekommen. Das sorgt einerseits dafür dass es breit in der Industrie verfügbar wird und andererseits dafür, dass weiter entwickelt wird um den Vorsprung möglichst lange in Geld zu wandeln.

Niemand ist daran interessiert Samsung daran zu hindern. Es fragt sich ob Samsung das will.
 
Wäre ja schön, wenn AMD nicht immer nur ankündigen würde. Die werden noch Ankündigungsweltmeister. Nvidia hat Maxwell bald vollständig im Markt. 2016 rollt bereits Pascal heran...
 
Will-it-Blend? schrieb:
Das möchte ich doch arg bezweifeln ;)

Ich nehme mal an du hast eine 670 mit 2GB VRAM?
Was zockst du denn so für Games und in was für Einstellungen?

Um das Ziel von min. 100 FPS zu erreichen stelle ich logischer Weise Details runter. Das reicht aber oftmals nicht aus. Obwohl die GPU nur noch bei 70 % Last hängt.

Planet side 2 habe ich schon aufgegeben. Bei Crysis 3 bringt es nur bis zu einen bestimmten Punkt was Details zu vermindern. In Warface bekomme ich auch nicht mehr FPS sowie bei Borderlands 2 und Transmissions: Element 120. weitere fallen mir jetzt ohne davor zu sitzen nicht ein. Oft platzt irgent ein Kern der CPU bei Crysis auch die ganze.

Solange die Spiele mit Single Core power durch die Lande krauchen und eine übertakte 4 Kern CPU nicht reicht um eine "2 GB schnelle GPU" auszulasten, brauche ich auch keine neue.
Da muss erst einmal DX 12 her.
Und für > 350 € habe ich auch keine Lust eine Grafikkarte zu kaufen, nm hin oder her. Nur was NV so schlau hinter high End noch eine entusiasten klasse einzuführen, die ordentlich mehr Asche kostet.
 
Ja, die sollen nur mal machen. Da haben sich AMD und NVIDIA selbst überholt & gleich wieder ausgebremst.
Wobei bei mir die Zeiten schon lange vorbei sind, wo ich noch alle 2 Jahre nen neuen PC gekauft habe, weil der alte vollkommen veraltet war.
1997 --> 1999 --> 2002 --> 2004 --> 2009 --> habe immer noch das Notebook von 2009...

Es muss schon was brachiales kommen, dass ich mir was neues zulege...
 
Mr.Seymour Buds schrieb:
Wäre ja schön, wenn AMD nicht immer nur ankündigen würde. Die werden noch Ankündigungsweltmeister. Nvidia hat Maxwell bald vollständig im Markt. 2016 rollt bereits Pascal heran...

Besser Sachen ankündigen als Dinge zu bewerben, die es nicht gibt.
 
Mr.Seymour Buds schrieb:
Wäre ja schön, wenn AMD nicht immer nur ankündigen würde. Die werden noch Ankündigungsweltmeister. Nvidia hat Maxwell bald vollständig im Markt. 2016 rollt bereits Pascal heran...
Maxwell wurde 1 Jahr zu spät und ohne dem angekündigteem Unified Memory in den Markt entlassen. Da langte es gerade mal für einen Mittelklasse Chip der noch nicht mal für die Performanceklasse taugte und schon veraltet bei erscheinen war. Erst mit einem Refresh konnte ein zweiter Maxwell gebaut werden der ebenfalls nicht alle angekündigten Features hattte und ebenfalls noch veraltetes Featureset. Erst der dritte Maxwell mit GM 200 konnte mal mit AMDs DX11 Feature nachziehen bleibt aber immer noch ACEs und Unified Memory schuldig, welches beides DX12 deutlich beschleunigt. Von fehlenden DP Einheiten um auch nur in die Nähe der Performance zu kommen gar nicht zu sprechen - der gesamte Profisektor wurde damit verärgert und Kunden wandern zu AMDs aktuellen FirePros.
 
Von GCN gibt es verschiedene Ausbaustufen, aber die GPUs werden weder beschnitten noch für die jeweilige Klasse angepasst beschnitten.

Was ist dann mit der DP-Performance bei Radeon-GPUs? Wieso gibt es auch OpenCL-extensions, die auf Radeon-GPUs deaktiviert sind? (Interessanterweise sind es ähnliche Funktionalitäten die NVIDIA auch beschneidet, wie DMA über mehrere PCIE-Devices)

ACE, Virtual Memory, Zero Copy ect das alles kann schon Gen 1.0. Durch HSA 1.0 könnte eine AMD GPU theoretisch ja sogar auf den VRAM anderer GPUs und der CPU zugreifen. Um hier nachzukommen, will NV NV-Link einführen (soviel ich verstanden habe). Mit welchem Hardwarefeature ist denn NV AMD aktuell voraus ?

Gibt es NUMA-Funktionalitäten schon bereits für aktuelle diskrete AMD-GPUs? Bei NVIDIA gibt es sie schon seit Fermi.
Außerdem:
Naja man vergisst relativ viel, gerade der reine GPGPU-Teil wird von vielen Consumer-Seiten gerne mal vernachlässigt. Viele Features sind sogar so alt, dass kein Hahn mehr danach kräht, wie ECC nicht nur für DRAM sondern auch für Register und SMEM, Warp-Vote Warp-Shuffle, malloc auf der GPU, Pointer-Support, gutes Profiling Tool mit Hardwaremetriken, uvm, wobei ich dort eingestehen muss, dass ich nicht 100 \% weiss wie weit AMD das bereits hat; ich verliere bei der Vielzahl an Featueres allgemein langsam den Überblick.
 
Zurück
Oben