Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

Unnu schrieb:
Auch als AMD besser als nVidia war

"Besser" definiert sich nicht allein aus "Preis/Leistung". AMD hatte immer mal wieder Leistungsmäßig (also bei fps) die Nase vorn, relativ zum Preis sogar fast durchgängig.

Aber zu "besser" gehört eben mehr als das. Die Investitionen in neue Technologien und Innovationen, der Support von Spieleentwicklern etc. gehört eben auch dazu.

Auch da hat NVidia nicht immer geglänzt und ATI den einen oder anderen guten Vorstoß gemacht. Unter dem Strich aber, ist die Dominanz von NVidia gut begründbar. Und hat weitestgehend mit einer falschen Sparpolitik von AMD zu tun.

Forschung, Entwicklung und Support der Entwickler hatte bei NVidia immer und zu jeder Zeit deutlich mehr Budget als bei ATi und AMD. Und das merkt man halt auch.
 
  • Gefällt mir
Reaktionen: indy1138
Taxxor schrieb:
Welche anderen Spiele außer BFV nutzen denn aktuell RTX, um das zu beurteilen?

Wenn es um die Optik geht, dann sollte man diese doch auch wahrnehmen, oder etwa nicht?
Also einerseits soll RTX einen derart heftigen Unterschied in der Optik ausmachen, aber das ist dann auch nicht so sehr wahrnehmbar, aber es reicht ja, dass es vorhanden ist? Widerspricht sich.

Und auch bei einem MP-Action-Shooter nehme ich schärfere Texturen, bessere Beleuchtung, höhere Sichtweite, weniger Aliasing ect. wahr.



Inwiefern ist die 290X denn mit der VII zu vergleichen? HBM2 ist hier das Stichwort, somit kann man sie bei der Preisentwicklung nur mit den Vegas vergleichen.

Ich denke, er meint damit die Thematik, dass man damals die 290x mit 8gb ins Rennen warf, es aber keine bis wenige Titel gab, die von der Speichermasse profitieren würden.

Wenn ich mich recht erinnere, hatte man da doch mehr oder weniger 4gb als "ausreichend" bezeichnet.

Hatte selbst eine von Sapphire.

Jetzt macht man eben das gleiche wieder nur mit wesentlich teureren Speichermodulen.

Rechnet man hbm2 raus, kostet die Karte mal eben fast die Hälfte.
 
So wie ich das mitbekommen habe soll von AMD in den nächsten Woche eine neue BIOS Version rauskommen. Diese soll dann die aggressive Lüfterkurve anpassen. Wenn der Preis sich bei 500-600€ einpendelt + noch etwas UV und die Karte wird dann durchaus interessant.
Für mich sowieso uninteressant da ein Upgrade von meiner 1070 zu gering ist.
 
Zuletzt bearbeitet:
Unnu schrieb:
Hier kann man darauf hinweisen, dass das falsch ist. Einige wenige Individuen, bevorzugt die Spezies, die sich z.B. in Foren wie diesen rumtreibt, mögen so gestrickt sein. Der große Rest, also das Gros der Käufer, kauft Markenfixiert.
Auch als AMD besser als nVidia war (für die Jüngeren Leser: Das gab‘s tatsächlich), wurden mehr nVidia verkauft als AMD.
Um eine derartige Struktur aufzubrechen müsste AMD wahrscheinlich einen 2080Ti-Killer für 699,- raushauen. Und das wird nicht passieren.

Was AMD allerdings getan hat, ist, die Konsolen „zu unterwandern“, und somit eine gemeinsame Technologie-Plattform zu schaffen.
Das kann tatsächlich Früchte tragen, in dem Sinne, dass sich nVidia echt strecken muss um den Vorsprung zu halten. Und der Konter mit RT ist ja auch nicht schlecht, nur wird er sich auszahlen?
Die nähere Zukunft wird es zeigen.
R VII ist Resteverwertung für Fans mit zuviel Geld. Und VIEL zu laut. 51dB? Es gibt mittlerweile Staubsauger, die sind leiser. (Jaja, plakativ und so. Na und? Clickbait! ;) )
Interessant wird’s wieder ab Navi.
Interessant für wen? Nicht für 1080ti besitzer. Navi wird die Radeon 7 nicht schlagen sonst hätten sie auf die verzichtet. Navi wird wahrscheinlich 1080 niveau bezahlbarer machen. Wobai alle auf ein ryzen 2.0 von am hoffen. Es kann auch ein Bulldozer 2.0 werden. Nvidia kann sich zurücklehnen und bei gefahr wieder eine 2070 ti rausbringen bis sie anfang nächsten jahres 7nm rausbeingen. Ich vermute die wird richtig gut wie die 1000er reihe.
 
Cr@zed^ schrieb:
Schade, dass bei CB nicht wenigstens ein wenig über den Tellerrand (Linux) gebencht wird.
Wozu? Eine komplette Nische, bei der AMD nur deshalb glänzt, weil sie dort ihre Treiber im Gegensatz zu Nvidia pflegen. Der Hoax, Vega würde dort zeigen was es könnte ist völlig an der Realität vorbei, die dort lautet, dass Nvidia massiv in der Leistung sinkt, weil sie es nicht einsehen, für die Handvoll Linuxzocker überproportional viel Arbeit in die Treiber zu stecken. Nvidia schafft es viel mehr, seine Ressourcen auf die Gebiete zu konzentrieren, die relvant und vor allem Prestige und Umsatzträchtig sind. Linux Zocker gehören nicht dazu. (Ps: muss man nicht gut finden, man kann AMD dafür Anerkennung zollen aber unter wirtschaftlichen Gesichtspunkten nachvollziehbar)

Ich kann es nicht mehr lesen von den Fanboys. CB sei parteiisch/unfair (CB ist nicht die Marketing Abteilung AMDs, sie sind nicht für deren Imagepflege zuständig!), die Treiber werden es richten (wie bei Vega ne?), der Preis sinkt um 30% binnen 3-4 Wochen, etc. pp. Herr Gott könnt ihr die Karte nicht kaufen, ohne dass sie jeder toll findet und lobt? Seid ihr dermaßen auf die Anerkennung und Billigung, die richtige Karte gekauft zu haben, von anderen angewiesen. :rolleyes:
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: tomasvittek, indy1138, teufelernie und 5 andere
hamju63 schrieb:
"Nur in GTA 5, das AMD-Karten nicht so gut liegt, zieht die GeForce mit rund 56 zur 46 fps etwas davon."

Man kann 20% (!) Unterschied natürlich auch mit 'etwas' erklären anstelle 'deklassieren' zu sagen :D
20% in einem Spiel ist eine Ausnahme und keine Deklassierung. Es deutet eher auf ein Problem hin als ein gültigen Benchmark.
Und der Unterschied zur 2080 beim Stromverbrauch nicht so gewaltig ist. Die 2080 Verbraucht nur 17% weniger laut CB Test. Es gibt auch Spiele und Anwendungen, bei denen die 2080 mehr verbraucht als die R7, wobei die Spitzen bei der R7 immer höher liegen.
Ergänzung ()

Mustis schrieb:
Wozu? Eine komplette Nische, bei der AMD nur deshalb glänzt, weil sie dort ihre Treiber im Gegensatz zu Nvidia pflegen.
Der Professionelle 3D Bereich findet unter Linux statt. Dort sind mehr als 50% der Rechner mit Linux ausgestattet, laut Aussage von NVidia. Wobei man dort eher FireGL bzw. Quadros einsetzt.
 
ebird schrieb:
Der Professionelle 3D Bereich findet unter Linux statt. Dort sind mehr als 50% der Rechner mit Linux ausgestattet, laut Aussage von NVidia. Wobei man dort eher FireGL bzw. Quadros einsetzt.
Es ging, wie man dem zitierten Beitrag zu 100% entnehmen könnte, wenn man nicht komplett selektiv zitiert, ums ZOCKEN. Nicht um professionelle Anwendung, für die Nvidia eine eigene Treibersuite hat! Und das 50% der Rechner im Produktivbereich auf Linux laufen ist ne völlig übertriebene Behauptung. Auf Workstations läuft mehrheitlich noch immer Windows... Was du meinst sind ggf. Server.
 
Aus mITX-Sicht stimmt der Titel noch mehr. Wenn auf kleinstem Raum höchste Performance gewünscht ist, sucht man immer den Sweetspot zwischen Leistung, Wärmeentwicklung und Lautstärke.

Für mich wäre die Leistung gerade noch so ok, aber ca. 50 Watt mehr Wärme und über 10db mehr Krach in meinem Case hätten direkte Einbußen auf die Gesamtperformance... nein danke :)

Ich freue mich sehr auf Zen2, AMD macht tolle CPUs. Aber ihre neue "High-End"-Karte finde ich mehr als enttäuschend. So wird das nix im oberen Segment.
 
  • Gefällt mir
Reaktionen: Chaos Theory
EchoeZ schrieb:
Danke für den superpünktlichen Test

Und was hälst Du von der Karte, dem Testverfahren und insbesondere vom Verbrauch der Karte? Warst nicht Du einer Vorkämpfer für mehr Objektivität bzgl. Leistungsaufnahme der AMD-Karten?

Es scheint, als habe AMD einiges (zum Guten) weiterentwickelt. Leider ist jedoch weiterhin diese eklatante UV-Lücke vorhanden... zumindest bei der Karte, die hier bei CB getestet wurde :o
 
Mustis schrieb:
Es ging, wie man dem Zitat 100% entnehmen kann, ums ZOCKEN. Nicht um professionelle Anwendung, für die Nvidia eine eigene Treibersuite hat!

Es werden die gleichen Treiber verwendet und NVidia steckt extrem viel Geld in die Entwicklung der Treiber, da in den Quadro Karten das Geld steckt. Auch Rechen Cluster verwenden den Treiber und diese laufen auch unter Linux. Performance ist da extrem wichtig. Also kann Deine Aussage nicht stimmen.

Mustis schrieb:
Und das 50% der Rechner im Produktivbereich auf Linux laufen ist ne völlig übertriebene Behauptung. Auf Workstations läuft mehrheitlich noch immer Windows... Was du meinst sind ggf. Server.

Die Aussage kam nicht von mir, sondern wurde von einem Verantwortlichen von NVidia bei einem Interview geäußert. Wenn man in Youtube nach gesagten Text suchen könnte, würde ich das Video wiederfinden.
 
Na endlich 16GB HBM. Dann können die ganzen "mimimi ich will aber HBM" und "mimimi ich will aber mehr als 8GB" Jammerlappen zuschlagen. Ich fürchte nur sie werden trotzdem nicht verstummen.
 
gut zu wissen, dass amd die Leistung einer 1080ti nach ganzen 2 Jahren erst erreicht.

Wahnsinn.
 
  • Gefällt mir
Reaktionen: Project-X und Langsuan
Langsuan schrieb:
Ich freue mich sehr auf Zen2, AMD macht tolle CPUs. Aber ihre neue "High-End"-Karte finde ich mehr als enttäuschend. So wird das nix im oberen Segment.
Die müssen wahrscheinlich erstmal Geld einnehmen mit ihren Ryzen CPUs, um dann später genug Manpower zu haben für eine konkurrenzfähige High-End GPU :daumen:
Ich bin schon froh das sie wenigsten den blauen Agenten in den Arsch treten.
 
  • Gefällt mir
Reaktionen: Project-X
ebird schrieb:
Es werden die gleichen Treiber verwendet und NVidia steckt extrem viel Geld in die Entwicklung der Treiber, da in den Quadro Karten das Geld steckt. Auch Rechen Cluster verwenden den Treiber und diese laufen auch unter Linux. Performance ist da extrem wichtig. Also kann Deine Aussage nicht stimmen.
Also wenn ich auf die Treiber Seite von Nvidia gehe, sehe ich wenn ich Quadros anwähle, eine andere Treibersuite als wenn ich die RTX oder Geforce anwähle...

ebird schrieb:
Die Aussage kam nicht von mir, sondern wurde von einem Verantwortlichen von NVidia bei einem Interview geäußert. Wenn man in Youtube nach gesagten Text suchen könnte, würde ich das Video wiederfinden.
Na Gott sei dank is dir die Quelle entfallen und du musst nix beweisen. Na dann glaube ich das jetzt sofort! :rolleyes:

Komisch ist auch, wenn man sich so die Marken Hersteller für Workstations anschaut, diese mit Win ausgeliefert werden... Beispielsweise HP oder Lenovo.
 
Zuletzt bearbeitet von einem Moderator:
rZx schrieb:
gut zu wissen, dass amd die Leistung einer 1080ti nach ganzen 2 Jahren erst erreicht.

Wahnsinn.
under nächste der erwartet hat das AMD an die ran kommt...
CB ändert bitte die überschrift. Troll Alert.
 
  • Gefällt mir
Reaktionen: VoAlgdH
Schön das es diesen Test gab, hier wurde im Gegensatz zu anderen Foren auch ein passender Newstitel gemacht der nicht nur für ein Klickbait sorgen soll. Schade aber das manche ihre Fanboykriege hier ausüben müssen. Aber das ist ja immer so.

Ich hatte mir von der Radeon 7 keine Wunder erwartet aber was sie jetzt raushaut ist echt erbärmlich. Vor allem weil AMD richtig gas gegeben hat was die Karte erreichen wird. Davon sind die meilenweit weg. Dafür nen Preis von 730€ aufzurufen finde ich echt frech. Der 16 GB Grafikspeicher "Bonus" macht das ganze auch nicht besser.

Zumindest weis ich jetzt welche Karte ich mir nicht kaufen werde. Zurzeit stehe ich in der Überlegung bei einem guten Angebot einer Custom 2080 zuzuschlagen. Die 8GB Grafikspeicher merke ich auf WQHD nicht ( selbst bei The Divsion 2 übrigens nicht ) und die Leistung ist deutlich besser.

shortex schrieb:
under nächste der erwartet hat das AMD an die ran kommt...
CB ändert bitte die überschrift. Troll Alert.

hat sich mal einer von euch roten jüngern gedanken darüber gemacht das diese Erwartung nur deshalb aufkommt weil AMD aufn Tisch gehauen hat und gesagt hat wir haben eine Karte mit RTX 2080 Leistung die sogar 16 GB Grafikspeicher hat ? Die Leistung ist jetzt nichtmal bei der "schlechteren" 1080 TI. Also ist diese Aussage von der Community auch völlig gerechtfertigt.
 
  • Gefällt mir
Reaktionen: tomasvittek, Project-X, dettweilertj und 2 andere
Freue mich schon drauf wenn die Mainstreamkarten 3000€ kosten :D


Naja schade das es nix geworden ist, aber so kann ich noch mehr Geld für die Nitro+ bekommen.
Schlechtester RMA Austausch ever.
Für eine Vega 64 LC hätte man ja ruhig eine Vega VII geben können.
 
shortex schrieb:
under nächste der erwartet hat das AMD an die ran kommt...

Ich vermute was du schreiben wolltest, aber erwartet hat jemand mit Ahnung von der Materie schon die ganze Zeit nur eine Notlösung.

AMD tanzt auf 2 Hochzeiten, Nvidia nicht - dieser Vorteil wird immer bestehen bleiben.
"Mag sein, aber das sind doch völlig verschiedene Entwicklerteams und Sparten..."
Jaein, .. Je weiter man in der Chefetage nach oben geht, vermischen sich eben nun mal Strategien, Marketing, Ziele, Gewinne und Verluste, Veröffentlichungsdruck, Zeitpläne usw. - die werden dann von wenigen Leuten an der Spitze ausgefochten und am Ende bleibt immer irgendwas auf der Strecke, so sehe ich das.
AMD macht unheimlich viel gut - aber das unheimlich viel in verschiedenen Geschäftsfeldern.
Wenn jetzt auch noch Intel dazu kommt, könnte AMD nur noch übrig bleiben sich auf das Midrange zu konzentrieren (im GPU Massenmarkt) und das High End Monopol bleibt bei Nvidia (die dort alles rein investieren an Entwicklung was sie haben und das zig Jahre vor Veröffentlichungen) - was ein Super Gau auf Dauer für jeden Privat Zocker wird.

Wer kein Fanboy ist, und seit Fiji die Entwicklung bei AMD GPUs objetiv beobachtet, rechnet schon lange nicht mehr damit, dass man Nvidia irgendwann das obere Segment "weg ballert".
AMD hat die Konsolen, das läuft sehr gut, die CPUs das läuft sehr gut, die Frontiers, das läuft gut, und noch viele weitere Möglichkeiten vor allem im Server Bereich die uns hier gar nicht groß jucken.
Nvidia im High End Segment bei GPUs zu bekriegen würde dem Unternehmen zwar Aufmerksamkeit bringen, verbraucht aber viel zu viel Unternehmensressourcen (RX 480-RX590 zeigt wie sparsam man da momentan ist, oder auch Vega nochmal neu zu bringen mit der Ra7 vor Navi).
Ich glaube, rein aus dem Bauch raus, dass man bei AMD auf dem Standpunkt ist, nie wieder Kriege zu führen die man nicht gewinnen kann.
Im CPU Sektor gegen Intel (vor allem bei Servern aber mittlerweile auch wieder beim Consumer) hat man da ganz andere Chancen, oder auch bei Konsolen durch Nutzung von GPU und CPU im Verbund.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: engramm, shortex und DeadEternity
@ebird

Ich kenne mich da nicht genügend aus - also nicht als Angriff werten aber ist Linux wirklich führend im Visualisierungsbereich? KI, Supercomputer ja aber die Leute, die ich kennengelernt habe, die mit 3D Bearbeitung ihr Geld verdienen (halt ein sehr schwammiger Begriff, weiß jetzt nicht genau was du meinst) nutzen zu 80% Mac, dann Linux und auch Windows.



Mir geht es auch nicht um Wertung, welches OS besser ist - mich interessiert es einfach.
 
Zurück
Oben