vatikan666 schrieb:Muss bei solchen Kommentaren immer lachen. [...]
Es freut mich, dass du so ein froher Mensch bist.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
vatikan666 schrieb:Muss bei solchen Kommentaren immer lachen. [...]
Faust2011 schrieb:Schaut man sich das Vega Architecture White Paper an und vergleicht es mit diverse Twitter- und sontigen Aussagen, u.a. auch von Entwicklern und AMD-Mitarbeitern, dann fehlt eigentlich nur noch das Feature NCU / Primitive Shader. Leider wurden diese zuerst im Januar 2018 reduziert von "wir-integrieren-das-automatisch-in-die-Spielprofile-im-Treiber auf ein das-muss-ein-Entwickler-selbst-implementieren" und dann im Sommer komplett abgekündigt. Es hat einfach nicht sollen sein.
Alles andere ist jedoch aktiv, insbesondere: HBCC, Rapid Packed Math und Draw-Stream Binning Rasterizer.
Ja, die Bandbreite (über 1 TB/sec!) hats mir auch angetanIch bin sehr gespannt, wieviel Performance da wirklich dran hängt, allein wenn ein Direktvergleich zwischen Vega 10 und Vega 20 mal von irgendeiner Redaktion durchgeführt wird.
Nvidia verbaut 16 GB HBM2 auf der Titan V und auch nur dort - und das zum Mondpreis von 3000 US-$.
musst ihn aber auch verstehen, 16GB sind doch keinesfalls am Markt vorbeientwickelt.Sun-Berg schrieb:Es freut mich, dass du so ein froher Mensch bist.
Palmdale schrieb:Wie schon im anderen Thread erläutert, eigentlich enttäuschend, wenn das alles ist, was AMD aus 7nm machen konnte.
Sun-Berg schrieb:Massiv VRAM den man wahrscheinlich nicht braucht, deswegen etwas zu hoher Preis um endlich mal etwas in Bewegung zu setzen.
Cool Master schrieb:Bei der 2060 wird gemeckert es ist zu wenig hier wird gemeckert es ist zu viel... Am besten wir stellen einfach alle Grafikkarten ein und setzen nur noch auf iGPU die auf den normalen RAM aufbauen da kann sich dann jeder selber so viel rein stecken wie er will :X
Sun-Berg schrieb:Es freut mich, dass du so ein froher Mensch bist.
Blade0479 schrieb:Ich feiere einfach heimlich die gefühlten 100 Posts der letzten Monate ala "..Ich warte drauf wenn Navi im Januar erscheint" und ".. AMD wird Nvidia wieder zeigen wie günstig geht".
Nicht mit OC (!), sondern mit Standardtakt-Boost, aber bei vollem Power-Target von vll 200W.XD-User schrieb:Laut Golem soll der mit maximalen OC gearbeitet haben, man hatte rund 2040 Punkt und ein normaler gedrosselter I9 schafft gerade mal 1900 PKT laut Benches. Also müsste der Intel schon an seine Grenzen gegangen sein.
Faust2011 schrieb:... Vega Architecture White Paper an und vergleicht es mit diverse Twitter- und sontigen Aussagen, u.a. auch von Entwicklern und AMD-Mitarbeitern, dann fehlt eigentlich nur noch das Feature NCU / Primitive Shader. Leider wurden diese zuerst im Januar 2018 reduziert von "wir-integrieren-das-automatisch-in-die-Spielprofile-im-Treiber auf ein das-muss-ein-Entwickler-selbst-implementieren" und dann im Sommer komplett abgekündigt. Es hat einfach nicht sollen sein.
Alles andere ist jedoch aktiv, insbesondere: HBCC, Rapid Packed Math und Draw-Stream Binning Rasterizer.
Ja, die Bandbreite (über 1 TB/sec!) hats mir auch angetanIch bin sehr gespannt, wieviel Performance da wirklich dran hängt, allein wenn ein Direktvergleich zwischen Vega 10 und Vega 20 mal von irgendeiner Redaktion durchgeführt wird.
Nvidia verbaut 16 GB HBM2 auf der Titan V und auch nur dort - und das zum Mondpreis von 3000 US-$.
Cpt.Willard schrieb:Ich möchte mal festhalten, dass eine Rechtfertigung höherer Preise aufgrund von "den immer komplexeren Herstellungsmechanismen", keine richtige Rechtfertigung ist.
Die Frage ist warum die Leute das dann für die turing Preise nicht akzeptieren wollen, für die r7 ist es dann aber okay als Nachfolger der 64 einfach den Preis anzuheben.Cool Master schrieb:Doch ist es, weil das entsprechend mehr kostet, auch für die Fabs. Die Maschinen und Technik wird halt immer komplexer und alles muss deutlich feiner und kleiner werden und genau das kostet halt ein Schweine Geld. Es ist nicht wie früher so einfach ein DIE Shrink durchzuführen oder eine völlig neue Architektur einfach so zu entwickeln vor allem weil wir langsam aber sicher auch am Ende von Silizium ankommen. Wenn wir also nicht bald neue Materialien finden mit denen es weiter gehen kann wird das alles noch teurer oder die Software skaliert endlich besser mit Kernen, sei es GPU oder CPU. Vieles könnte man heute ohne Probleme deutlich verbessern wenn man einfach die SW mal richtig optimieren würde, aber das kostet halt auch Geld und die Leute wollen es nicht ausgeben.