Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

Rockstar85 schrieb:
[...]Sinnig und Sachlich diskutieren ist kein Fanboytum[...]

Was sinnig und sachlich ist, ist allerdings wiederum sehr subjektiv und im Auge des Betrachters.
 
PTS schrieb:
dann undervolted man die geforce auch und schwupps ist die nvidia wieder vorne.... was bringt dein kommentar also? ;D

Du solltest Dich etwas mehr mit dem Thema UV auseinandersetzen, insbesondere mit den Pascal- und Turing-Chips von Nvidia, dann müsstest Du nicht so einen Kommentar absetzen.

Aber ich kann Dich gerne kurz darüber aufklären: Nvidia hat Mechanismen, durch die jede ausgelieferte Karte bereits sehr individuell auf ihren Chip abgestimmt ist und damit das UV-Potential i.d.R. (fast) nicht mehr vorhanden ist.
 
  • Gefällt mir
Reaktionen: znarfw, Iscaran, Rockstar85 und 4 andere
Wie oft es hier plötzlich wieder heißt: "Gebt den Karten und den Treibern Zeit, die Preise werden sich auch einpendeln..!"

Hab ich nicht anders erwartet bei nem AMD Produkt. Dem nVidia Produkt gönnt man sowas natürlich nicht und es musste sofort perfekt auf den Markt kommen um nicht "scheiße" zu sein und um die neue Technologie nicht gleich im Sand zu begraben.

Da muss ich einfach direkt wieder lachen. xD Die Karte ist halt nicht so nice geworden, kommt damit klar. ^^

Und immer wieder dieses UV Zeugs... Leute, der normale Kunde will sich ne Karte kaufen, die einbauen oder eingebaut bekommen und zocken. Nicht an irgendwelchen Spannungen usw. rumfummeln bis die Karte ordentlich eingestellt ist usw.

Für mich ist diese Karte enttäuschend, da hätte mehr kommen können, können müssen..!
 
  • Gefällt mir
Reaktionen: indy1138
@Faust2011
Ich spare durch UV bei gleicher Leistung auch so 30-40 Watt ein, ist das nix?
Dazu wissen wir nicht wieviel Glück CB mit ihrer Radeon VII hatten, vielleicht schaffen die Meisten keine -0,1V sondern nur -0,05V.
 
Faust2011 schrieb:
Aber ich kann Dich gerne kurz darüber aufklären: Nvidia hat Mechanismen, durch die jede ausgelieferte Karte bereits sehr individuell auf ihren Chip abgestimmt ist und damit das UV-Potential i.d.R. (fast) nicht mehr vorhanden ist.

Was freilich ein absolutes Argument pro-Vega und contra-Turing ist.

(Ich weiß, ist nicht so von Dir gemeint, Faust2011, aber viele werden es sich genau so hindrehen... ;) )
Ergänzung ()

Pizza! schrieb:

Verglichen mit dem Aufwand, das das UV macht: Mir wäre es das nicht wert.
 
@Grestorn
So groß ist der Aufwand auch wieder nicht. Ich finde 10-20% weniger Stromverbrauch nicht wenig, dazu leiser und einfacher zu kühlen.
 
  • Gefällt mir
Reaktionen: bares.wahres
Ohne hier bashen zu wollen. Wäre schon toll zu sehen, wie die RTX 2080 FE am ersten Tag performed hat, damit man hier eine saubere Linie ziehen kann. Nichtsdestotrotz ein super Test, auch wenn sich hier nicht jeder benimmt :freak:
 
  • Gefällt mir
Reaktionen: rolandm1
eLdroZe schrieb:
Und immer wieder dieses UV Zeugs... Leute, der normale Kunde will sich ne Karte kaufen, die einbauen oder eingebaut bekommen und zocken. Nicht an irgendwelchen Spannungen usw. rumfummeln bis die Karte ordentlich eingestellt ist usw.

Eigentlich wie der rest deines Kommentars nur Fanboy-Getue vs AMD.
Was stellst du dir denn unter einem normalen Kunden vor, der 700 Euro ausgibt für eine 16 GB VRAM Karte? Ich halte das nicht weit her geholt, dass man dann noch in der Lage ist UV zu betreiben... man könnte auch so weit gehen und sagen der normalo kauft keine Graffikarte jenseits der 500 Euro, aber das kann ja jeder für sich beurteilen was er noch als normal empfinden, btw reden wir hier nur um Gaming, ja Gaming. Das kann ich auch mit einer gebrauchten Konsole machen und habe ausreichende Qualität, die Games sind alle die gleichen....
 
  • Gefällt mir
Reaktionen: Rockstar85 und .Sentinel.
Pizza! schrieb:
@Grestorn
So groß ist der Aufwand auch wieder nicht. Ich finde 10-20% weniger Stromverbrauch nicht wenig, dazu leiser und einfacher zu kühlen.

Ich hab mich nur kurz damit beschäftigt, aber diese Kurve in Afterburner einzustellen ist ein Pain-in-the-Ass. Ich ziehe die einfache OC Möglichkeit über den Inspector vor.

30 Watt bedeutet pro Stunde rund 1 Cent. Also pro Tag rund 5-10 Cent, wenn ich viel spiele. Das werde ich mir leisten. Zumal ich Dank Wasserkühlung nicht mit Lärmproblemen zu kämpfen habe.
 
Faust2011 schrieb:
Aber ich kann Dich gerne kurz darüber aufklären: Nvidia hat Mechanismen, durch die jede ausgelieferte Karte bereits sehr individuell auf ihren Chip abgestimmt ist und damit das UV-Potential i.d.R. (fast) nicht mehr vorhanden ist.

Egal ob Nvidia oder AMD, der Chip muss UV auch zulassen.
Wenn ich mir meine Nvidia GPU ansehe, dann kam die mit 1,05V bei 1890Mhz.
Der Chip läuft jetzt mit 0,901V bei 1950Mhz. Das sind schon fast 0,15V weniger und die Karte verbraucht weniger als die Radeon VII bei noch mehr Leistung.

Daher muss man AMD auch für ihre miserable Energie-Effizienz kritisieren, gerade bei einem Produkt, dass mit 7nm nicht einmal mit 16nm des Konkurrenten mithalten kann. Man muss aber auch anerkennen, dass der Kontrahent das bessere Produkt auf dem Markt hat.

Man kann auch bei AMD einen Chip erwischen, der schon ab Werk mit dem läuft was er benötigt.
 
Pizza! schrieb:
@Faust2011
Ich spare durch UV bei gleicher Leistung auch so 30-40 Watt ein, ist das nix?
Dazu wissen wir nicht wieviel Glück CB mit ihrer Radeon VII hatten, vielleicht schaffen die Meisten keine -0,1V sondern nur -0,05V.
0,1V dürften alle schaffen. Ich habe noch von keiner Vega gehört, die nicht mit 1-1,05V stabil war, meine Vega56 läuft selbst auf dem Standardprofil teilweise mit 0,95V, die Werkseinstellung ist 1,2V.
Und die Radeon VII soll sich beim UV ja nochmal etwas besser anstellen als die Vega.
Wenn du 30-40W rausholst mit deiner 2080 landest du beim Verbrauch ja nur etwas unterhalb dessen, wo die Radeon 7 von CB mit UV liegt.
Es ist also nicht so, wie hier manche meinen, dass man den Effizientunterschied komplett gleich halten kann, wenn man beide Karten undervoltet.

Stock liegen die beiden Perf/Watt ca 30% auseinander, wenn man bei beiden UV betreibt, bleiben davon vielleicht noch 10% übrig.
 
  • Gefällt mir
Reaktionen: Iscaran
eLdroZe schrieb:
Wie oft es hier plötzlich wieder heißt: "Gebt den Karten und den Treibern Zeit, die Preise werden sich auch einpendeln..!"

Weil es einfach immer so ist. Das ist die Regel und nicht die Ausnahme. Es sind nur immer die Fanboys der unterschiedlichen Lager, die meinen gleich auf alles draufhauen zu müssen.

UVPs und Releasepreise waren schon immer volatil (meist richtung aufwärts zeigend).
Der Schnittpreis ist zu 99% einfach ganz ein anderer, esseidenn der nächste Minig- boom schlägt ein.

Dann entgleisen aber die Preise am gesamten Markt, wie man in jüngerer Vergangenheit sehen konnte.


Hab ich nicht anders erwartet bei nem AMD Produkt. Dem nVidia Produkt gönnt man sowas natürlich nicht und es musste sofort perfekt auf den Markt kommen um nicht "scheiße" zu sein und um die neue Technologie nicht gleich im Sand zu begraben.
Ja- Wiederum ein Problem der Fanboy- Lager. Man hängt sich an allem auf, um das eigene Lager überlegen darzustellen und die "gegnerische Mannschaft" als schlecht. Da nehmen sich beide Seiten NICHTS.

Da muss ich einfach direkt wieder lachen. xD Die Karte ist halt nicht so nice geworden, kommt damit klar. ^^
Da wieder die Frage- Nicht so nice für wen?
Für den Bastler, den Content Creator, den Texturmodfetischisten, den der darauf wettet die 16GB in naher Zukunft zu benötigen etc.?

Die Karte hat unbestreitbar ihre Vorzüge.

Und immer wieder dieses UV Zeugs... Leute, der normale Kunde will sich ne Karte kaufen, die einbauen oder eingebaut bekommen und zocken. Nicht an irgendwelchen Spannungen usw. rumfummeln bis die Karte ordentlich eingestellt ist usw.
Die meisten beschäftigen sich mit den Dingen, gerade wofür sie unverhältnismäßig viel Geld ausgeben.
Derjenige, der sich eine R7 oder RTX 2080 TI zulegt weiss in der Regel ganz genau, was er dafür erhält.

Zudem wird auch der breiten Masse, sollte sie sich nicht dafür interessieren, ein Werkzeug an die Hand gegeben, mit dem man ohne viel Tamtam Verbesserungen (seis OC oder UV) herbeiführen kann, ohne dass man Raketenwissenschaftler sein muss.

Für mich ist diese Karte enttäuschend, da hätte mehr kommen können, können müssen..!
Genau diese Einstellung ist aber doch inzwischen notorisch. Egal was kommt es wird IMMER gemeckert.
Es ist z.B. immer grundsätzlich zu teuer.

Selbst als Ryzen mit seinem hammer Preis-/Leistungsverhältnis erschienen ist, gabs genug Leute die gemeckert haben, dass es VIEL zu teuer sei, weil man ja früher High- End Prozessoren wie z.B. den 2600K für 250€ bekommen hätte.
Die Konsumenten sind genau das, was sie den "bösen" Firmen vorwerfen. Sie sind unersättlich, gierig und geizig.

Man sollte einige Dinge einfach nicht immer so eindimensional sehen, sondern auch mal ein bißchen versuchen die unterschiedlichen Interessenslagen zu sehen auch im Zusammenhang mit explodierenden Kosten in Entwicklung und Fertigung.

HBM2 ist einfach der absolute Hammer und daher kostet das ganze einfach nunmal mehr. Die Kosten können weder weggezaubert werden noch werden die Hersteller einen Teufel tun und ihren Gewinn dadurch schmälern, indem sie dem Kunden nicht die gestiegenen Selbstkosten weiterreichen.

LG
Zero
Ergänzung ()

acc schrieb:
inwiefern ist das ein problem für nvidia? wenn nvidia die anteile nicht selbst gekauft hat (wovon ich mal ausgehe) , hat man in der gesamtsumme nichts verloren.
Exakt- Dadurch diversifiziert man seine Werte. Ist eher ein Vorteil als Nachteil, wenn große Konzentrationen des Kapitals wegfallen.
 
  • Gefällt mir
Reaktionen: duskstalker, Taxxor, bares.wahres und 2 andere
eLdroZe schrieb:
Wie oft es hier plötzlich wieder heißt: "Gebt den Karten und den Treibern Zeit, die Preise werden sich auch einpendeln..!"

Hab ich nicht anders erwartet bei nem AMD Produkt. Dem nVidia Produkt gönnt man sowas natürlich nicht und es musste sofort perfekt auf den Markt kommen um nicht "scheiße" zu sein und um die neue Technologie nicht gleich im Sand zu begraben.

Da muss ich einfach direkt wieder lachen. xD Die Karte ist halt nicht so nice geworden, kommt damit klar. ^^

Und immer wieder dieses UV Zeugs... Leute, der normale Kunde will sich ne Karte kaufen, die einbauen oder eingebaut bekommen und zocken. Nicht an irgendwelchen Spannungen usw. rumfummeln bis die Karte ordentlich eingestellt ist usw.

Für mich ist diese Karte enttäuschend, da hätte mehr kommen können, können müssen..!
warum versuchst du gegen das Gequatsche anzukommen? Du hast keine Chance. Die AMD Fans denken seid gestern komplett anders als noch letzte Woche weil sie jetzt einfach die Fakten sehen bzgl. der Karte und ihre Prioritäten ändern müssen weil sie Nvidia halt nicht unterstützen wollen.

Das sieht man doch schon daran wie kaputt manche sind wenn sie sagen die Radeon 7 ist gleichauf mit aktuellen karten und hat trotzdem mehr grafikspeicher. Die karte wird teilweise von einer 2070 gepackt.

Einfach gut sein lassen :) wir haben hier seid gestern Mittag eh nur noch Fanboy gegen Fanboy. Der Markt wird das ganze schon regeln.
 
  • Gefällt mir
Reaktionen: indy1138
Kenny35 schrieb:
Das sieht man doch schon daran wie kaputt manche sind wenn sie sagen die Radeon 7 ist gleichauf mit aktuellen karten und hat trotzdem mehr grafikspeicher. Die karte wird teilweise von einer 2070 gepackt.

Was ist für dich eine 2070? Eine Low Budget Einsteiger-Karte die sich jeder holt? :freak:

Also ich zocke jedes Game auf Konsole und gebe da nur ein paar Euro aus, die Qualität ist völlig ausreichend, die Games sind die gleichen und in der Mehrheit genau dafür entwickelt, hihi

Wer ist so verblendet mehr als 300-400€ auszugeben nur für eine Komponente mit der Begründung Gaming?
Am PC wird weder optimiert auf High-End, noch werden die meisten Games für diese Plattform entwickelt.

Vielleicht hast du es nicht mitbekommen, aber Navi wird primär für die Konsolen entwickelt und was da aktuell released wurde ist ein Profi Chip den man halt als "Gaming" vermarktet, mehr, aber auch nicht weniger, kann man da AMD vorwerfen. Ich finde immer nur lustig was für Kommentare dann hier kommen von wegen Fail und so weiter.

Ich lache laut!



:D
 
Wie sich hier Leute zerfleischen, von denen 95% keine der beiden Karten in diesem Leistungsspektrum besitzen(werden). Bisschen peinlich.
Zum Thema CB Schlagzeile: Ich denke der geneigte Leser ist durchaus in der Lage gewisse Aussagen in Perspektive zu setzen.
"Zu laut für Leute, die nicht Wasserkühlen wollen. Zu Teuer für die gebotene Leistung und langsamer als in cherry gepickten games." => würde doch kein vernunftbegabter Autor als Titel wählen.
Seid mal dankbar dass die UV ergebnise inkludiert sind. Die andern Reviewer, die ich kenne, haben das noch nicht mal nachgereicht.
Wenn über Kinderarbeit in Bangladesch berichtet wird, erzeugt das weniger emotion, als ne Schlagzeile zu ner sau teuren Grafikkarte. Reevaluiert mal eure Prioritäten. Diese 1. Welt Problems sollten wenigstens mit ein wenig Augenzwinkern diskutiert werden können.
Wem die Vega gefällt, dem vergönn ich sie 1000 mal. Ich find sie dagegen nicht so richtig gelungen, aber ich kauf mir sowieso keine Graka um das Geld. Dazu verdiene ich meines Erachtens zu wenig.
 
  • Gefällt mir
Reaktionen: Oneplusfan
t3chn0 schrieb:
Da hatte die Lederjacke absolut recht. Go AMD....

Nvidia ist schon echt unverschämt!11!11 Lachhaft was AMD da auf die Beine gestellt hat. Performance zwischen 2070 und 2080, dafür aber deutlich teurer, verbraucht mehr Strom und ist um WELTEN lauter. Das ist ja fast unerträglich.

Böses, böses RTX....wie un-innovativ und unnötig. Lieber eine 16GB Karte die kaum jemand nutzen kann. Ich hoffe, dass die AMD-Lemminge jetzt auch ordentlich diesen Technologieträger kaufen, denn die Lederjacke ist ja zu böse und korrupt =D.

Kompletter Fail...
Naja 16gb sind für meinen anwendungsfall gerade genug... aber als reine gamingkarte diese zu deklarieren ist schon hart da diese mehr ist... aber diese ist Karte als nenne ich mal hybriden aus gaming+anwendungs fähigkeit fantastisch und nvidia voraus
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bares.wahres
RB6istGut schrieb:
"Zu laut für Leute, die nicht Wasserkühlen wollen.
lol genau, denn es ist ja bekannt das luftkühler gerne mal mit 5,2 Sone laufen :) Unfassbar was für Kommentare hier kommen. Ich lach mich tot

HtOW schrieb:
aber sonst ist diese Karte absolut fantastisch und nvidia voraus

worin? Außer 16 GB hat die Karte genau garnix das besser ist als bei Nvidia oder gar fantastisch und das kann man nicht als "voraus" sehen.
 
  • Gefällt mir
Reaktionen: SyntaX
Für eine Grafikkarte, diese für einen völlig anderen Zielmarkt entwickelt wurde ist, dass Ergebnis dennoch, trotz aller unerfüllter Erwartungen, ein solides und vorallem, konkurrenzfähiges Produkt.

Bei dem Thema bestehend, ermittelte Leistungsaufnahme und Undervolting Potential denke ich, dass es möglicherweise eine recht Breite Serienstreuung im Bezug auf Yield Rate und Güte geben könnte, diese eine derartige Energie Zuweisung notwendig erscheinen ließ.

Ich habe mich generell nochmals etwas intensiver versucht mit der Radeon 7 zu befassen, daher betrachte ich die Grafikkarte nun etwas weniger negativ.
 
  • Gefällt mir
Reaktionen: Esenel und bares.wahres
Ich verstehe diese Grafikkarte nicht.

1) 16GB HBM2 kosten 320$. -8-12 GB wären sinnvoller gewesen und die Grafikkarte hätte erheblich günstiger verkauft werden können

2) Der in Relation zur geboteten Leistung erzielte Stromverbrauch (das ergab sich ja schon beim Vorgänger) ist in erster Linie ein Taktproblem. Die Karte läuft nicht im Sweetspot. Mit gesenkten Taktraten hätte man diese drastisch senken können. Statt Takterhöhung hätte man dann massiv die Anzahl der Shader ausbauen können und die 7nm wirklich effizient nutzen können. Vor allem weil der Chip durch 7nm ja recht klein ist.

Dann hätte man eine Karte gehabt, die sogar die 2080 Ti locker überflügelt hätte. Doch warum hat man das nicht gemacht????
 
Zurück
Oben