News AMD Fiji: Vom ersten Schritt zum fertigen Produkt in 8,5 Jahren

@Zotac2012
Das mit dem nochmal darüber nachdenken empfehle ich eher dir.
Im Laptop Bereich scheint nvidia es ja schon unter dem gsync Label zu nutzen.

Das dir der freie Standard nichts bringt weil du dich an nvidia und ihr DRM Modul gebunden hast => selbst Schuld.
 
Unnu schrieb:
Auch hieraus hat AMD nicht wirklich kapital geschlagen. Also im Sinne von PR oder anderen "öffentlichkeitswirksamen" Massnahmen.

AMD wäre wegen der Geschichte damals fast hopps gegangen - geninge Einnahmen; massig Gerichtskosten; .... Die mussten am Schluss eben nehmen, was sie bekommen konnten.
 
HBM2 wird der riesige Sprung von GDDR5 werden:
Mehr Brandbreite und mehr Speicher bei niedrigem Verbrauch.

Und vor allem gleichermaßen für AMD und Nvidia.

Bis es soweit ist, sollte Nvidia versuchen, ihre grottenschlechte DX12-Prformance zu verbessern. Dann hätten sie die Zeit wenigstens sinnvoll genutzt.
 
5654 schrieb:
Ohne Witz, zwar habe ich selber die letzten Jahre nvidia verbaut aber AMD entwickelt und forscht mehr als Nividia kommt mir so vor.
Um ein paar Beispiele zu nennen: 64Bit CPU, Mantel, FreeSync, HMB. Von Nvidia habe ich bisher keine solche News lesen können.
Das kann nicht sein. Weil das schon alleine vom Budget begrenzt wird. Der Grund für den Eindruck ist lediglich: die anderen lassen sich nicht unnötig in die Karten schauen.

strex schrieb:
Nvidia kann sich auch anders entscheiden und statt HBM von Hynix auf MCDRAM von Micron setzen. Siehe Intel Phi KNL. Hat ähnlich Datenraten von +400GB/s und lässt >16GB heute schon zu. Ist ja nicht so als hätte AMD exklusiv schnellen Speicher.
So schnell kann man in laufenden Entwicklungen nix drastisch ändern. Die nächste GPU Generation ist quasi schon fertig.

Sontin schrieb:
Es ist nVidia die "HBM"-Leistung mit GDDR5 ermöglichen, indem sie mit der "Color-Compression" einen von euch AMD-Mitarbeiter als "veralterten" Speicher betitelten zu neuen Höhenflügen vermitteln haben. Und dank GDDR5 ist man nicht auf 4GB beschränkt.
Die billigsten Trolle erkennt man schon daran, dass sie von der Materia nicht den geringsten Plan haben. Einfach mal drei Schlagwort, die etwas mit Speichertechnologie zu tun haben, in den Raum werfen und einen komplett aus der Luft gegriffenen Zusammenhang konstruieren - was genau bezweckt ihr Billigtrolle eigentlich damit?


Sontin schrieb:
Was hat AMD zu bieten? Eine gefailte Architektur, eine gefailte Speichertechnologie und einen Monitorstandard, dem man nVidia zu verdanken hat, da AMD keinen Wert auf den PC-Markt legt.
GCN war seiner Zeit technologisch weit voraus, nur hat man tatsächlich, wie immer, versäumt, das voll auszufahren.

Erzähl das mit den "gefailten" Technologien lieber mal den anderen Spielern wie NV, Samsung usw.. Die müssen ihre in Entwicklung befindlichen Produkte schnellstmöglich einstampfen und zurück zu GDDR kehren, weil's sonst ein "fail" (was immer das auch heißen soll) wird.

Relaxo32 schrieb:
Mittagspause bei der PR-Abteilung von NVidia, Sotin?
Man kann NV anhand ihrer Firmenpolitik ja vieles zutrauen, sich allerdings im Internet durch stumpfsinnigste, also wirklich hohlköpfigste Möchtegern-Propaganda zu verteidigen, das nicht.



Relaxo32 schrieb:
Ist aber allgemein ein AMD'sches Problem, dass man selten bis überhaupt kein richtiges Kapital daraus schlagen kann. Siehe Mantle, siehe 64bit, wird auch mit HBM so verlaufen. Ist zwar nett für uns Kunden beider (dreier) Lager, aber am Ende bringt es AMD selbst wenig bis überhaupt nichts bisher.
Scheint wohl (unfreiwillig?) Firmenphilosophie zu sein.

dgschrei schrieb:
Das mit der mixed Precision liegt garantiert nicht an AMD. Dass man jetzt mal wieder eine Chipreihe rausbringen muss, die auch DP Leistung hat bedingt sich schlichtweg daraus, dass man auch mal wieder neue Quaddro und Tesla Karten rausbringen muss und da die DP Leistung eben zählt. Dort sind nach wie vor die alten Fermi Karten mit der hohen DP Leistung der King und Nvidia muss da schlichtweg neue Produkte bringen.
Meines Wissens sind die letzten DP-starken Profikarten Kepler-basierend.
 
Unnu schrieb:
Man stelle sich vor, MS hätte damals schon, als Intel noch immer 32bit Brötchen gebacken hat, massiv 64bit promotet und WIN entsprechend angepasst.
1. Hat Intel weit vor AMD mit 64bit auf dem Markt agiert (IA-64)
2. Hat MS x86_64 massiv promotet (Unter anderem dadurch, dass sie verkündeten keine alternative 64bit x86-Erweiterung zu unterstützen. Damit haben sie Intel gezwungen eine AMD-Erweiterung in ihre Prozessoren einzubauen => bis heute der einzige Fall für eine nicht-Intel-Erweiterung von x86, welche bei beiden Herstellern verfügbar ist...)

Prozessor Knox schrieb:
Bis es soweit ist, sollte Nvidia versuchen, ihre grottenschlechte DX12-Prformance zu verbessern.
Hab ich was verpasst? Dachte die wäre im selben Bereich wie die von AMD (https://www.computerbase.de/2015-08...diagramm-ashes-of-the-singularity-1920-x-1080).
Würde eher sagen AMD sollte endlich mal ihre miserable DX11-Performance verbessern...
 
Prozessor Knox schrieb:
Bis es soweit ist, sollte Nvidia versuchen, ihre grottenschlechte DX12-Prformance zu verbessern. Dann hätten sie die Zeit wenigstens sinnvoll genutzt.

Naja, bisher gibt es einen Test (der Draw Call Benchmark bei 3DMark ist ja nicht sonderlich aussagekräftig), in denen die NV Karten gegenüber AMD Karten nicht so gut dastehen. Das sagt nicht viel aus bis jetzt und kann auch nicht wirklich als "Blick in die Zukunft" genutzt werden.
Ich gehe mal davon aus, das NV an einem passenden Treiber für DX12 arbeiten wird und bei genügend verfügbaren DX12 Titeln wird man sich dann ein passendes Bild von den jeweiligen Karten machen können.
 
Zotac2012 schrieb:
@wosch666
Sorry. leider hast Du gar keine Ahnung, das zeigt schon die Aussage, das GSync eine Nutzlose Lösung sei. Gsync ist nicht Nutzlos sondern erfüllt seinen Zweck sehr wohl, man kann darüber streiten, ob den Weg den Nvidia dabei geht der richtige ist. Adaptive Sync mag ja ein VESA-Standard sein den es schon seit Jahren gibt, aber erst nachdem Nvidia sein ganz eigene probitäre Lösung mit Gsync auf den Markt gebracht hat, hat AMD sich mit Nachdruck dem Thema angenommen und den VESA Standard [Adaptive Sync] aus der Bedeutungslosigkeit geholt und als Freesync zur Marktreife gebracht.

Du scheinst zu vergessen das AMD Freesync schon kurz nach der Ankündigung von G-Sync selbst angekündigt hat. Was bedeutet das deine Aussage schon mal schlichtweg falsch ist.

Desweiteren hat Nvidia behauptet das die Lösung von AMD nicht funktionieren würde, da eben kein Scaler im normalen Monitor verbaut wird und das während Nvidia selbst bei der Entwicklung vom neuem VESA Standart Displayport 1.2a mitgewirkt hat.

http://www.3dcenter.org/news/amd-kontert-nvidias-g-sync-mit-freesync
http://www.3dcenter.org/news/nvidia-will-mit-g-sync-alle-vsync-probleme-loesen
 
Wadenbeisser schrieb:
@Zotac2012
Das mit dem nochmal darüber nachdenken empfehle ich eher dir.
Im Laptop Bereich scheint nvidia es ja schon unter dem gsync Label zu nutzen.

Das dir der freie Standard nichts bringt weil du dich an nvidia und ihr DRM Modul gebunden hast => selbst Schuld.

Bevor man irgendwelche Empfehlungen ausspricht und daher Plappert, sollte man vorher mal gelesen haben, was ich dort geschrieben habe. Das ich Nvidia Hardware nutze liegt auch daran, das AMD im Moment keine Alternative für mich ist, außer vielleicht die Fury [ohne X], aber ganz sicher nicht zu dem derzeitigen Preis. Selbst wenn ich jetzt mit meiner Nvidia Grafikkarte Freesync nutzen könnte, wären mir die entsprechenden Monitore mit der Technik noch viel zu teuer. ;)

@Belerad
Nö, für mich ist entscheidend was wer auf den Markt bringt, nicht was mal irgendwann Angekündigt wurde und vielleicht mal Erscheinen wird. Und das Nvidia nicht begeistert ist über Freesync und dagegen wettert, das wundert einen doch nicht wirklich, oder?
 
Zuletzt bearbeitet:
cirrussc schrieb:
Man kann NV anhand ihrer Firmenpolitik ja vieles zutrauen, sich allerdings im Internet durch stumpfsinnigste, also wirklich hohlköpfigste Möchtegern-Propaganda zu verteidigen, das nicht.

War nur ein Gegenschlag auf dem selben Niveau wie Sontins. Ich glaube auch nicht, das NV sowas nötig hat. Genauso wie AMD es nicht nötig hat, ihre Produkte und Co. in jedem x-bliebigen Forum verteidigen zu müssen.

Scheint wohl (unfreiwillig?) Firmenphilosophie zu sein.

Hab ich auch öfters das Gefühl und ist ja für uns Kunden ganz gut. Aber auf Dauer kann davon AMD nicht leben, es dürfte ja immer schwieriger werden solche Projekte zu bezahlen.
Daher hoffe ich ja, dass AMD mit der nächsten Generation an Karten wieder etwas bringt auf dem Niveau von der HD 4000/5000er Serie. Möglichst günstig in der Produktion (HBM V1/2 dürfte bis dahin doch gut und günstig verfügbar sein) und relativ günstig im Verkauf an die Kunden, Leistung ausreichend um mit NVs Mittel/obere Mittelklasse mithalten zu können.
Damit AMD einfach erstmal Gewinn wieder macht. Mit der 4000er/5000er Serie scheint das ja gut geklappt zu haben.
 
Ergänzung ()

Zotac2012 schrieb:
@Belerad
Nö, für mich ist entscheidend was wer auf den Markt bringt, nicht was mal irgendwann Angekündigt wurde und vielleicht mal Erscheinen wird. Und das Nvidia nicht begeistert ist über Freesync und dagegen wettert, das wundert einen doch nicht wirklich, oder?

ist ja auch nett, habe ich kein Problem mit. Aber dann behaupte keinen Müll.
 
Neue angebliche Benchmarks:
AMD-Radeon-R9-Nano-Performance-635x188.jpg
Quelle: http://wccftech.com/amd-radeon-r9-nano-performance-unveiled/
Ergänzung ()

Zotac2012 schrieb:
@Belerad
Warum behaupte ich Müll, Fakt ist das GSync Monitore vor Freesync Monitore auf dem Markt waren. Mehr brauch man dazu nicht mehr sagen ;)
Das stimmt so ganz genau. Und die werden genau so schnell wieder vom Markt verschwinden oder eine Nischendasein fristen dank Intels schlauer Entscheidung.
 
Zuletzt bearbeitet:
Zotac2012 schrieb:
@Belerad
Warum behaupte ich Müll, Fakt ist das GSync Monitore vor Freesync Monitore auf dem Markt waren. Mehr brauch man dazu nicht mehr sagen ;)

Das ist Fakt ja

Zotac2012 schrieb:
aber erst nachdem Nvidia sein ganz eigene probitäre Lösung mit Gsync auf den Markt gebracht hat, hat AMD sich mit Nachdruck dem Thema angenommen

Das ist eine ganz andere Aussage. Und falls das kein Müll ist, belege das bitte.
 
yummycandy schrieb:
...
Nur (!) Zotac fällt wirklich alls einer der auf, die vollkommen in diese Schublade passen. Lies dir dochmal die, sagen wir mal, letzten 100 Kommentare von ihm durch?
Ich nehme Dich mal beim Wort, denn Zeit für 1000 Kommentare habe ich keine. ;) Allerdings sagt er ja selbst, dass er vor der 970 eine AMD hatte?

Chismon schrieb:
Das zeigt wie viel Ahnung Du von Forschung hast, nämlich gar keine.
Nah, nicht so hart. Das ist eine ökonomische Sicht, und wie wir alle wissen bringt uns die Ökonomie viiel weiter als Gesellschaft. ... oder so. ;)
 
Ich habe ja immer noch den Verdacht das die VESA Mitglieder über die technische Umsetzung von Adaptive Sync diskutiert haben und nvidia einfach im Alleingang am Konsortium vorbei ihren proprietären Mist auf den Markt geworfen hat.

AMD hat ja nicht einfach so kurzfristig (kaum 2,5 Monate zwischen G-Sync und FreeSync Ankündigung) mal eben was aus dem Ärmel geschüttelt...
 
cirrussc schrieb:
GCN war seiner Zeit technologisch weit voraus, nur hat man tatsächlich, wie immer, versäumt, das voll auszufahren.
Was war mit voll auszufahren gemeint? Ob die Spiele Hersteller die von der Hardware zur verfügung gestellten Funktionen nutzen ist immernoch in ihrer Verantwortung, auch wenn viele diese liebend gern auf die GPU Hersteller abwälzen wollen.

Meines Wissens sind die letzten DP-starken Profikarten Kepler-basierend.
Kommt drauf an. Der Fermi hatte laut Angaben der Tesla Karten bei Wikipedia wie AMDs Hawaii 1/2 DP Leistung. beim Kepler ging man bereits auf 1/3 DP Leistung runter, wobei der GK110 natürlich deutlich mehr Rohleistung besitzt.
Ergänzung ()

QDOS schrieb:
1. Hat Intel weit vor AMD mit 64bit auf dem Markt agiert (IA-64)
2. Hat MS x86_64 massiv promotet (Unter anderem dadurch, dass sie verkündeten keine alternative 64bit x86-Erweiterung zu unterstützen. Damit haben sie Intel gezwungen eine AMD-Erweiterung in ihre Prozessoren einzubauen => bis heute der einzige Fall für eine nicht-Intel-Erweiterung von x86, welche bei beiden Herstellern verfügbar ist...)

Der Hintergrund war eher die lausige x86er Performance des Itanium, der Chip der schließlich mit IA-64 daher kam.
Alte, verbreitete Software lief auf dem Chip mies und keine hatte Bock sich auf eine neue Programmierung einzustellen oder in neue Programme zu investieren.
 
PiPaPa schrieb:
Bei HMC Speicher gibt es aber eine Leistungsaufnahme von ca 11W bei 1.2V bei einem 4GB Modul, weshalb nvidia sich davon u.a. abgewandt hat. Dazu kein JEDEC Standard.
Dazu kommt das nvidias Pascal dazu scheinbar eine mixed Precision Architektur, wie GCN, werden soll und sich zeigen muss inwieweit es da mit der Effizienz steht.

Auch wenn ich das schon öfters gepostet habe, sind diese drei Bilder selbsterklärend, wieso NV zu HBM gewechselt hat.
Klar ist HMC eine sehr spannende und gute Technologie, aber im Endeffekt, ist diese Technik "mehr" Zukunftstechnik als HBM (weit aus den Fenster lehnend).
HBM ist genau das, was AMD eigentlich oft vorgeworfen wird, selten zu machen. Ein Mittelweg, der die Aufgaben erfüllt, günstig ist und "einfacher" zu bewerkstelligen
DRAMs-640x801.jpg


Memory-Bandwidth.jpg


Memory-Bandwidth.jpg


Wie ihr sieht, ist HBM günstiger und effizienter als HMC. Bei HPC Beschleunigungskarten, wird das wohl eher egal sein, deshalb wird es bei Intel auch bei deren MIC Beschleunigungskarten verbaut. Wenn man aber Grafikkarten, APUs ect so einen schnellen Speicher verbauen möchte, dann ist wohl HBM der bessere Weg, weil die Technologie offensichtlich diese Schwerpunkte hatte.

Früher oder später wird HMC sicherlich so ausreifen, dass man dann den kompletten Umschwenker auch im Consumer Bereich machen könnte. Ich glaube aber, dass es noch länger dauern wird, bis wir HMC bei den Desktop Intel Prozessoren sehen werden. Man bedenke wie lange es gedauert hat, nur den eDRAM im Desktop zu sehen. Der ist im Vergleich relativ einfach zu implementieren (nehme ich stark an).
Weiteres, wird es wohl bei Consumer Hardware noch lange dauern, bis man überhaupt die Bandbreite von HBM auslasten kann. Ich würde behaupten, dass selbst HBM 1.0 für die nächste Generation ausreichen würde, wenn man nicht mehr VRAM verbauen möchte/müsste.

Zotac2012
Adaptiv Sync wird schon seit Jahren bei Notebooks verwendet und das auch per Software gelöst.
Tatsache ist sogar, dass selbst NV bei Notebooks die Software-Variante verwendet.
 
Zuletzt bearbeitet:
Zotac2012 schrieb:
Bevor man irgendwelche Empfehlungen ausspricht und daher Plappert, sollte man vorher mal gelesen haben, was ich dort geschrieben habe. Das ich Nvidia Hardware nutze liegt auch daran, das AMD im Moment keine Alternative für mich ist, außer vielleicht die Fury [ohne X], aber ganz sicher nicht zu dem derzeitigen Preis. Selbst wenn ich jetzt mit meiner Nvidia Grafikkarte Freesync nutzen könnte, wären mir die entsprechenden Monitore mit der Technik noch viel zu teuer. ;)

Wenn ich dich kurz zitieren darf:
Ich habe auch nie gesagt das ich diese Lösung von Nvidia richtig finde, ich würde mir vielmehr eine Lösung wünschen die Hersteller übergreifend ist...
Genau diese Lösung gibt es mit adaptive sync/Freesync, eine Lösung die nvidia offensichtlich im Desktop Bereich nicht unterstützen will.
Natürlich kann man als Kunde Einfluss auf die Firmenpolitik des Hersteller nehmen indem man einfach die Produkte nicht kauft. Spätestens wenn die Absatzzahlen und Marktanteile einbrechen und bei der Konkurrenz hoch gehen setzt der Umdenkprozess ein.

Damit bleibe ich bei meiner Aussage das du selbst dran schuld bis das du eine Technik hast die nur bei diesem einen GPU Hersteller nutzen kannst denn es ist ziemlich egal ob du einen g-sync Monitor hast oder nicht. Das ändert nichts daran das du mit deiner Karte adaptive sync/Freesync nicht nutzen kannst OBWOHL es nvidia offen steht es zu unterstützen.
Ergänzung ()

pipip schrieb:
Zotac2012
Adaptiv Sync wird schon seit Jahren bei Notebooks verwendet und das auch per Software gelöst.
Tatsache ist sogar, dass selbst NV bei Notebooks die Software-Variante verwendet.

Das ist so nicht ganz korrekt.
Das grundlegene Feature gibt es zwar schon seit Jahren allerdings wurde es ursprünglich anders verwendet.
Es sollte dafür sorgen das nur dann ein neues Bild übertragen wird wenn auch ein neues Bild da ist damit Strom gespart werden kann.
 
Zurück
Oben