psYcho-edgE
Admiral
- Registriert
- Apr. 2013
- Beiträge
- 7.600
rentex schrieb:Wow 8,5 Jahre. Ich möchte mal wissen, mit was Nvidia und Intel jetzt schon experimentieren.
Bzw natürlich auch womit AMD aktuell experimentiert
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
rentex schrieb:Wow 8,5 Jahre. Ich möchte mal wissen, mit was Nvidia und Intel jetzt schon experimentieren.
Unnu schrieb:Auch hieraus hat AMD nicht wirklich kapital geschlagen. Also im Sinne von PR oder anderen "öffentlichkeitswirksamen" Massnahmen.
HBM2 wird der riesige Sprung von GDDR5 werden:
Mehr Brandbreite und mehr Speicher bei niedrigem Verbrauch.
Das kann nicht sein. Weil das schon alleine vom Budget begrenzt wird. Der Grund für den Eindruck ist lediglich: die anderen lassen sich nicht unnötig in die Karten schauen.5654 schrieb:Ohne Witz, zwar habe ich selber die letzten Jahre nvidia verbaut aber AMD entwickelt und forscht mehr als Nividia kommt mir so vor.
Um ein paar Beispiele zu nennen: 64Bit CPU, Mantel, FreeSync, HMB. Von Nvidia habe ich bisher keine solche News lesen können.
So schnell kann man in laufenden Entwicklungen nix drastisch ändern. Die nächste GPU Generation ist quasi schon fertig.strex schrieb:Nvidia kann sich auch anders entscheiden und statt HBM von Hynix auf MCDRAM von Micron setzen. Siehe Intel Phi KNL. Hat ähnlich Datenraten von +400GB/s und lässt >16GB heute schon zu. Ist ja nicht so als hätte AMD exklusiv schnellen Speicher.
Die billigsten Trolle erkennt man schon daran, dass sie von der Materia nicht den geringsten Plan haben. Einfach mal drei Schlagwort, die etwas mit Speichertechnologie zu tun haben, in den Raum werfen und einen komplett aus der Luft gegriffenen Zusammenhang konstruieren - was genau bezweckt ihr Billigtrolle eigentlich damit?Sontin schrieb:Es ist nVidia die "HBM"-Leistung mit GDDR5 ermöglichen, indem sie mit der "Color-Compression" einen von euch AMD-Mitarbeiter als "veralterten" Speicher betitelten zu neuen Höhenflügen vermitteln haben. Und dank GDDR5 ist man nicht auf 4GB beschränkt.
GCN war seiner Zeit technologisch weit voraus, nur hat man tatsächlich, wie immer, versäumt, das voll auszufahren.Sontin schrieb:Was hat AMD zu bieten? Eine gefailte Architektur, eine gefailte Speichertechnologie und einen Monitorstandard, dem man nVidia zu verdanken hat, da AMD keinen Wert auf den PC-Markt legt.
Man kann NV anhand ihrer Firmenpolitik ja vieles zutrauen, sich allerdings im Internet durch stumpfsinnigste, also wirklich hohlköpfigste Möchtegern-Propaganda zu verteidigen, das nicht.Relaxo32 schrieb:Mittagspause bei der PR-Abteilung von NVidia, Sotin?
Scheint wohl (unfreiwillig?) Firmenphilosophie zu sein.Relaxo32 schrieb:Ist aber allgemein ein AMD'sches Problem, dass man selten bis überhaupt kein richtiges Kapital daraus schlagen kann. Siehe Mantle, siehe 64bit, wird auch mit HBM so verlaufen. Ist zwar nett für uns Kunden beider (dreier) Lager, aber am Ende bringt es AMD selbst wenig bis überhaupt nichts bisher.
Meines Wissens sind die letzten DP-starken Profikarten Kepler-basierend.dgschrei schrieb:Das mit der mixed Precision liegt garantiert nicht an AMD. Dass man jetzt mal wieder eine Chipreihe rausbringen muss, die auch DP Leistung hat bedingt sich schlichtweg daraus, dass man auch mal wieder neue Quaddro und Tesla Karten rausbringen muss und da die DP Leistung eben zählt. Dort sind nach wie vor die alten Fermi Karten mit der hohen DP Leistung der King und Nvidia muss da schlichtweg neue Produkte bringen.
1. Hat Intel weit vor AMD mit 64bit auf dem Markt agiert (IA-64)Unnu schrieb:Man stelle sich vor, MS hätte damals schon, als Intel noch immer 32bit Brötchen gebacken hat, massiv 64bit promotet und WIN entsprechend angepasst.
Hab ich was verpasst? Dachte die wäre im selben Bereich wie die von AMD (https://www.computerbase.de/2015-08...diagramm-ashes-of-the-singularity-1920-x-1080).Prozessor Knox schrieb:Bis es soweit ist, sollte Nvidia versuchen, ihre grottenschlechte DX12-Prformance zu verbessern.
Prozessor Knox schrieb:Bis es soweit ist, sollte Nvidia versuchen, ihre grottenschlechte DX12-Prformance zu verbessern. Dann hätten sie die Zeit wenigstens sinnvoll genutzt.
Zotac2012 schrieb:@wosch666
Sorry. leider hast Du gar keine Ahnung, das zeigt schon die Aussage, das GSync eine Nutzlose Lösung sei. Gsync ist nicht Nutzlos sondern erfüllt seinen Zweck sehr wohl, man kann darüber streiten, ob den Weg den Nvidia dabei geht der richtige ist. Adaptive Sync mag ja ein VESA-Standard sein den es schon seit Jahren gibt, aber erst nachdem Nvidia sein ganz eigene probitäre Lösung mit Gsync auf den Markt gebracht hat, hat AMD sich mit Nachdruck dem Thema angenommen und den VESA Standard [Adaptive Sync] aus der Bedeutungslosigkeit geholt und als Freesync zur Marktreife gebracht.
Wadenbeisser schrieb:@Zotac2012
Das mit dem nochmal darüber nachdenken empfehle ich eher dir.
Im Laptop Bereich scheint nvidia es ja schon unter dem gsync Label zu nutzen.
Das dir der freie Standard nichts bringt weil du dich an nvidia und ihr DRM Modul gebunden hast => selbst Schuld.
cirrussc schrieb:Man kann NV anhand ihrer Firmenpolitik ja vieles zutrauen, sich allerdings im Internet durch stumpfsinnigste, also wirklich hohlköpfigste Möchtegern-Propaganda zu verteidigen, das nicht.
Scheint wohl (unfreiwillig?) Firmenphilosophie zu sein.
Zotac2012 schrieb:@Belerad
Nö, für mich ist entscheidend was wer auf den Markt bringt, nicht was mal irgendwann Angekündigt wurde und vielleicht mal Erscheinen wird. Und das Nvidia nicht begeistert ist über Freesync und dagegen wettert, das wundert einen doch nicht wirklich, oder?
Das stimmt so ganz genau. Und die werden genau so schnell wieder vom Markt verschwinden oder eine Nischendasein fristen dank Intels schlauer Entscheidung.Zotac2012 schrieb:@Belerad
Warum behaupte ich Müll, Fakt ist das GSync Monitore vor Freesync Monitore auf dem Markt waren. Mehr brauch man dazu nicht mehr sagen
Zotac2012 schrieb:@Belerad
Warum behaupte ich Müll, Fakt ist das GSync Monitore vor Freesync Monitore auf dem Markt waren. Mehr brauch man dazu nicht mehr sagen
Zotac2012 schrieb:aber erst nachdem Nvidia sein ganz eigene probitäre Lösung mit Gsync auf den Markt gebracht hat, hat AMD sich mit Nachdruck dem Thema angenommen
Ich nehme Dich mal beim Wort, denn Zeit für 1000 Kommentare habe ich keine. Allerdings sagt er ja selbst, dass er vor der 970 eine AMD hatte?yummycandy schrieb:...
Nur (!) Zotac fällt wirklich alls einer der auf, die vollkommen in diese Schublade passen. Lies dir dochmal die, sagen wir mal, letzten 100 Kommentare von ihm durch?
Nah, nicht so hart. Das ist eine ökonomische Sicht, und wie wir alle wissen bringt uns die Ökonomie viiel weiter als Gesellschaft. ... oder so.Chismon schrieb:Das zeigt wie viel Ahnung Du von Forschung hast, nämlich gar keine.
Was war mit voll auszufahren gemeint? Ob die Spiele Hersteller die von der Hardware zur verfügung gestellten Funktionen nutzen ist immernoch in ihrer Verantwortung, auch wenn viele diese liebend gern auf die GPU Hersteller abwälzen wollen.cirrussc schrieb:GCN war seiner Zeit technologisch weit voraus, nur hat man tatsächlich, wie immer, versäumt, das voll auszufahren.
Kommt drauf an. Der Fermi hatte laut Angaben der Tesla Karten bei Wikipedia wie AMDs Hawaii 1/2 DP Leistung. beim Kepler ging man bereits auf 1/3 DP Leistung runter, wobei der GK110 natürlich deutlich mehr Rohleistung besitzt.Meines Wissens sind die letzten DP-starken Profikarten Kepler-basierend.
QDOS schrieb:1. Hat Intel weit vor AMD mit 64bit auf dem Markt agiert (IA-64)
2. Hat MS x86_64 massiv promotet (Unter anderem dadurch, dass sie verkündeten keine alternative 64bit x86-Erweiterung zu unterstützen. Damit haben sie Intel gezwungen eine AMD-Erweiterung in ihre Prozessoren einzubauen => bis heute der einzige Fall für eine nicht-Intel-Erweiterung von x86, welche bei beiden Herstellern verfügbar ist...)
PiPaPa schrieb:Bei HMC Speicher gibt es aber eine Leistungsaufnahme von ca 11W bei 1.2V bei einem 4GB Modul, weshalb nvidia sich davon u.a. abgewandt hat. Dazu kein JEDEC Standard.
Dazu kommt das nvidias Pascal dazu scheinbar eine mixed Precision Architektur, wie GCN, werden soll und sich zeigen muss inwieweit es da mit der Effizienz steht.
Zotac2012 schrieb:Bevor man irgendwelche Empfehlungen ausspricht und daher Plappert, sollte man vorher mal gelesen haben, was ich dort geschrieben habe. Das ich Nvidia Hardware nutze liegt auch daran, das AMD im Moment keine Alternative für mich ist, außer vielleicht die Fury [ohne X], aber ganz sicher nicht zu dem derzeitigen Preis. Selbst wenn ich jetzt mit meiner Nvidia Grafikkarte Freesync nutzen könnte, wären mir die entsprechenden Monitore mit der Technik noch viel zu teuer.
Genau diese Lösung gibt es mit adaptive sync/Freesync, eine Lösung die nvidia offensichtlich im Desktop Bereich nicht unterstützen will.Ich habe auch nie gesagt das ich diese Lösung von Nvidia richtig finde, ich würde mir vielmehr eine Lösung wünschen die Hersteller übergreifend ist...
pipip schrieb:Zotac2012
Adaptiv Sync wird schon seit Jahren bei Notebooks verwendet und das auch per Software gelöst.
Tatsache ist sogar, dass selbst NV bei Notebooks die Software-Variante verwendet.