Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAMD-Grafikkarten im Test: Radeon 5870, 6970, 7970, 290X, Fury und Vega 64 im Vergleich
wenn ich meinen 4k shader cores mit hbm so anschaue, ist der ziemlich genau so groß wie das monster, was die dame da in der hand hat.
kA was die da in 7nm zu testzwecken gebaut haben. aber das teil in ihrer hand ergibt für mich aktuell gar keinen sinn. evtl eine 1:1 test studie ohne transistor shrink. <- evtl. doch. die frau hat wohl einfach nur kleine hände
hier ein schönes bild, bin immer noch unschlüssig.
OK wenn die Dinger mit Crimson Treiber laufen und gut sind für Gaming wäre das ein genitaler Schachzug von AMD Marketing braucht nur noch darauf hin zu weisen, dass die Dinger auch auf Gaming getestet werden können.
Bedenke, was daran sind den echte 14 oder 7nm das gilt auch für Prozessoren... irgendwelche Zwischenlagen der Rest ist noch bei 45 oder 60nm, irgendwo gabs da mal eine nette Tabelle.
Diese zahlen und das Aufgeilen daran sind reine Blender!
Mir fehlt hier die deutliche interessantere Vega 56.
Bei der Mittelklasse war sie nicht dabei und bei High-End nun auch nicht. Was ist sie denn?
Die Vega 64 ist eine bis aufs letzte geprügelte GPU um in die Nähe der GTX 1080 Referenz zu kommen.
Von Effizienz braucht man hier gar nicht erst reden.
Super "Vergleichstest der Generationen", thx Wolfgang .
Achja, die gute alte HD5870^^. Die BESTE "ATI/AMD Radeon-Referenz-Graka", welche längerfristig in meinem Rechenknecht verweilen durfte. (danach nur noch Grakas mit NV-GPU). Übrigens lüppt die HD5870 heute noch beim Bekannten im (Zweit)Rechner .
Die Karten werden immer energiehunriger. Darum verpufft der Leistungsgewinn von über 500% auf 280%. Aber zugleich muss man sich fragen, ob dies eine schlechte Entwicklung ist. Da die GPU eh 99% im Idle läuft, sind heutige Karten vermutlich trotzdem sparsamer. Man muss es halt nur gekühlt bekommen.
Wart mal auf das Nvidia Roundup. Das wird für dem geneigten ATI/AMDler den Schweiß auf die Stirn treiben.
Damals Fermi (452Watt Gesamtsystem, GTX 480 ), heute Pascal (290 Watt Gesamtsystem, GTX 1080).
So geht Performance pro Watt, im Roundup Anfang 2017 hat mans schon gut gesehen.
Turing wird spannend, aber mit den vielen neuen Recheneinheiten wird das eher mehr als bei Pascal sein.
Auch hier wieder, wie bei der HD6870, weiche die Idle-Werte der Leistungsaufnahme bei der HD5870 um ca. 100% von denen der alten Tests ab. Statt ca. 20W sind es jetzt 43W. Eine vernünftige Erklärung dafür? Wo liegt der Fehler?
Anmerkung: Ich zitiere mal den Autor, der damals auch den ersten Test der HD5870 verfasste: "So zieht die Radeon HD 5870 unter Windows gerade einmal 134 Watt aus der Leitung (gemeint ist der gesamte PC)," und der Abstand Last zu Idle lag damals bei 331W zu 134W. Gemessen von Wolfgang Andermahr.
AMD ist damit nicht aus dem Rennen aber dafür wir eine neue Architektur benötigt. GCN wir auch noch in NAVI zum Einsatz kommen und damit keine Konkurrenz für Nvidia. Frühestens 2020 könnte AMD wieder aufschließen. Harte Jahre bis dahin ohne Konkurrenz im High End Bereich.
Naja ganz so fest würde ich nicht auf die Tränendrüse drücken.
Ich und viele andere nutzen aus gutem Grund seit eh und je AMD.
Ich hatte noch nie einen Ausfall einen Schaden oder selbst wenn man die Ohren aufhält und in Spielen und Foren zuhört bin ich mir oft nicht so sicher ob NVIDIA so gut ist wie das was auf dem wie wir wissen geduldigen Papier steht.
Deine Karte ist sicher der Hammer keine Frage und kostete als ich mich dafür interessierte ü er 900 Öcken.
Im direkten Vergleich würde ich sie heute dennoch gerne sehen.
Hast du in Doom im ultra 4k setting auch 90 fps im Schntt? Oder noch 65 auf 5k?
Ich selbst habe https://www.computerbase.de/artikel...istungsaufnahme-der-grafikkarte-the-witcher-3
diese Karte. Könnte die schnellste und Ausdauerndse sein von AMD zur Zeit.
Umso spannender was AMD machen wird und wann erste Gerüchte zu Navi auftauchen werden. Eigentlich müssen sie die Shader Zahl weiter erhöhen aber zugleich die Auslastung deutlich verbessern.
Ich würde gerne wissen was da intern der Stand ist. Das Design sollte eigentlich seit längerem fix sein, die Frage ist ob wie bei Nvidia auch ein Tensor Ähnlicher Ansatz oder Raytracing bereits includiert ist oder keine Beachtung findet, was durchaus auch Vorteile haben kann.
Solange diess Bereiche der Die bei Nvidia brach liegen und wenig genutzt werden kann AMD ggf einen Vorteil bei Marge und Effizienz rausholen.
An AMD's Stelle würde ich RT-Shader noch außen vor lassen und vorerst voll auf Performance setzen. Auch wenn es einige AMD-GPU-Fans vll. ärgert, aber am besten für eine Gaming-Karte den ganzen Compute-Kram rauswerfen, dann passt das auch mit der Effizienz.
Die 290X ist hervorragend gealtert, leider ein kleiner Hitzkopf und die meisten Kühllösungen waren absoluter Dreck, dennoch konnte die Karte über Jahre gut mithalten. Meine GTX 1070 ist da, wenn man das Alter betrachtet, erstaunlich lahm.
Bedenke, was daran sind den echte 14 oder 7nm das gilt auch für Prozessoren... irgendwelche Zwischenlagen der Rest ist noch bei 45 oder 60nm, irgendwo gabs da mal eine nette Tabelle.
Diese zahlen und das Aufgeilen daran sind reine Blender!
Ist auch dann kein Upgrade...
Da ziehst du höchstengleich
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.