Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

@Taxxor hast recht, lediglich die News zu den Turing Notebooks war weniger positiv, da hat mich meine Erinnerung getäuscht.
 
  • Gefällt mir
Reaktionen: Sennox
Ben81 schrieb:
Zu laut, zu langsam, und zu teuer wo ist das nicht angebracht? Genau das spiegelt die Radeon 7 wieder nicht mehr und nicht weniger. Hört auf euch jeden Mist schön zu reden.
Es ist nicht angebracht weil es eine pauschalisierte Ausage ist und die Punkte offensichtlich bei der Bewertung der Konkurrenz keine Rolle gespielt hatten. Wo war die Kritik als die RTX2080 mit einem höheren Preis, einem ähnlichen Verbrauch und deutlich weniger Speicher die GTX1080Ti ablösen sollte? Statt dessen wurden in der Überschrift zu dem Zeitpunkt nutzlose Features gefeiert. Auch blieben vergleichbare Kritiken bei der Verschlechterung der Bildqualität mit DLSS und die bereits heute grenzwertige Performance von RTX aus.
Zweierlei Maß, du verstehst?
 
  • Gefällt mir
Reaktionen: Rambo5018, Sennox, iceshield und 3 andere
Spätestens seit dem Nividia NDA ist das Thema eh probelamtisch. Wenn man sich alle Artikel ansieht (auch von nicht NDA Unterzeichnern), dann kriegt man nen gutes Bild.. Wie schon gesagt wurde, es kommt stark aufs Spiel an, den DX11 Overhead bekommt AMD aber bis heute nicht auf die Reihe.

Hier sieht es ja auch nicht schlecht aus:
https://www.techspot.com/review/1789-amd-radeon-vii/
https://www.eurogamer.net/articles/digitalfoundry-2019-02-07-amd-radeon-7-review

Kommt eben stark aufs Game an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: syntanic
Wadenbeisser schrieb:
Es ist nicht angebracht weil es eine pauschalisierte Ausage ist und die Punkte offensichtlich bei der Bewertung der Konkurrenz keine Rolle gespielt hatten.
Ja, genau das ist das Problem.
Der Artikel mit Turing im Notebook war "etwas" weniger positiv/wohlwollend formuliert.
Aber das ist mir schon seit längerem aufgefallen. Ich finde ja, wenn man solche Mittel anwendet um Clicks zu generieren oder einfach Stimmung zu machen sollte man auch so ehrlich sein, dass man das tut, und es einfach zugeben.
Könnte ironischerweise die Wogen etwas glätten. Unterschwellig schwelt dieses Thema hier ja schon seit gefühlt langer Zeit, und irgendwann bricht die ganze Thematik womöglich richtig auf... :(
 
Wadenbeisser schrieb:
Wo war die Kritik als die RTX2080 mit einem höheren Preis, einem ähnlichen Verbrauch und deutlich weniger Speicher die GTX1080Ti ablösen sollte?
Das hätte so eine schöne Überschrift werden können:
Nvidia RTX2080 im Test: Teure 1080Ti mit 3GB weniger VRAM und ungenutztem Raytracing
 
  • Gefällt mir
Reaktionen: Sennox, iceshield, Iscaran und 5 andere
Taxxor schrieb:
Das hätte so eine schöne Überschrift werden ...

Na das darf man aber doch nicht.. Nvidia ist doch Technologieführer :D RTX On und so
 
  • Gefällt mir
Reaktionen: Sennox und McTheRipper
fragemann schrieb:
Naja, bei GCN bleiben, aber auf massiv mehr Shader statt Takt setzen. Die Die-Size ist doch gerade mal 300 und ein paar zerquetschte. Die 2080 TI kommt auf 750!
Nun ja, man beleibt jetzt seit nunmehr 3 Generationen bei der gleichen Anzahl an Recheneinheiten, es kann gut sein das die GCN Architektur, zu der auch die Vega Chips zählen, einfach nicht mehr kann und würde man den Chip in einem so neuen Prozess auf eine ähnliche Größe aufblasen kommt mit hoher Warscheinlichkeit nahezu nur Schrott dabei raus.
 
  • Gefällt mir
Reaktionen: fragemann
Taxxor schrieb:
Extrem angenommen wir hätten unter den 20 meist gespielten Titeln 17 Nvidia Titel und 3 AMD Titel.
Jetzt müsste man 7 der meist gespielten und damit relevantesten Titel rausschmeißen, nur um weniger bekannte Titel reinzunehmen damit man 10 Nvidia und 10 AMD Spiele drin hat.
Nur ist das Performancerating dann für die meisten nicht relevant.

es wird zeit, dass der parcours mal thematisiert wird. das ist nämlich ein extrem wichtiger punkt.

fortnite ist eines der meistgespielten spiele - gebaut in der UE4, die selbst bei entwickler EPIC absichtlich schlecht auf radeon läuft, da nvidia und epic partner sind und das auch so auf der homepage steht.

"Epic developed Unreal Engine 4 on NVIDIA hardware, and it looks and runs best on GeForce."
Tim Sweeney, founder, CEO and technical director of Epic Games.
https://developer.nvidia.com/unrealengine

jetzt gibts hier zwei optionen:

  1. nvidia empfehlen, weil amd schlecht läuft.
  2. epic games an den karren fahren, was die offensichtliche bevorzugung von nvidia in der meist verbreitetsten engine soll. kann man wirklich azeptieren und unterstützen (durch eine nvidia empfehlung), dass hier die einzige konkurrenz schon auf softwarelevel chancenlos ausgebootet wird?

wir haben derzeit eine gefährlich starke marktmacht bei nvidia. nvidia mauert mit technologie. nvidia hat versucht mit physx zu mauern, mit gameworks, gsync, unreal engine und jetzt mit RTX.

wenn man option 1. wählt, zieht sich zwangsläufig die schlinge zu, weil immer mehr spiele auf nvidia besser laufen, nvidia wird mehr empfohlen, nvidia bekommt mehr marktanteile, mehr spiele laufen auf nvidia besser, nvidia wird mehr empfohlen, nvidia bekommt mehr marktanteile und mauert mauert mauert bis nvidia alle fäden in der hand hat.

schlussendlich wird nvidia jede engine und jedes spiel mit ihrem proprietären kram beherrschen. wenn es keine konkurrenz gibt, wirds halt physx statt havok, hairworks statt tress fx, gameworks tessellation statt direct x und dlss statt dx12 und dx12 statt vulkan.

und wenn das mal passiert, hat nur nvidia die passende hardware für diese software und jeder andere ohne nvidia hardware hat keine chance mehr, weil alles gemauert ist.

wehret in den anfängen - was am schluss kommt, ist offensichtlich.
 
  • Gefällt mir
Reaktionen: Rambo5018, Aza*, Sennox und 5 andere
ich will mich zum thema überschrift eigentlich nicht äußern. wozu auch? alles wurde mehrfach gesagt. aber manche kommentare wie Zb. der hier:
Taxxor schrieb:
Das hätte so eine schöne Überschrift werden können:
Nvidia RTX2080 im Test: Teure 1080Ti mit 3GB weniger VRAM und ungenutztem Raytracing
sind nicht schlecht. ich musste ehrlich gesagt lachen.
 
  • Gefällt mir
Reaktionen: Sennox, McTheRipper, DarkerThanBlack und eine weitere Person
Faust2011 schrieb:
Das war sogar schon beim Fiji-Chip der Fall: Der erste Chip im GCN-Vollausbau mit 4.096 Shadereinheiten, aber die Geometrieverarbeitung ist mehr oder weniger bereits auf Hawaii-Basis mit den 4 Pipes stehen geblieben.
Es kündigte sich sogar bereits beim Hawaii Chip der 290er Reihe an denn die Leistungssteigerungen durch die gestiegene Kompläxität blieb am Ende auch etwas hinter den Erwartungen der User zurück. Die Karten boten zwar dennoch viel für das Geld, vor allem in der 8 GB Ausführung, aber das grundlegene Problem bleibt. Deshalb vermute ich auch dass die Architektur nicht mehr als den Fiji/Vega Stand schafft und es deshalb so wichtig war Navi zu pushen.
 
Wadenbeisser schrieb:
und es deshalb so wichtig war Navi zu pushen.

Und was ist Navi? Was unterscheidet diesen Chip von Vega?

Man sieht ja hier am Vega20 der Radeon VII, dass er nur durch den Takt (hallo 7nm Prozeß!) und Speicherbandbreite (hallo 4 HBM2-Stacks!) performt. Navi muss demnach ein Umbruch / Neuanfang sein?!
 
macht echt was her.
ov und oc hab ich noch nicht probiert. wird dann morgen gemacht.

IMG_20190209_145508_DRO.jpg
IMG_20190209_151837_DRO.jpg
IMG_20190209_161430_DRO.jpg
 
  • Gefällt mir
Reaktionen: Sennox, McTheRipper, Rynn1894 und 3 andere
Faust2011 schrieb:
Und was ist Navi? Was unterscheidet diesen Chip von Vega?

Man sieht ja hier am Vega20 der Radeon VII, dass er nur durch den Takt (hallo 7nm Prozeß!) und Speicherbandbreite (hallo 4 HBM2-Stacks!) performt. Navi muss demnach ein Umbruch / Neuanfang sein?!
Es hieß doch dass dieser eine neue Architektur bekommen würde oder hat sich daran etwas geändert?
Sollte bei Fiji und Vega wirklich die Architektur selbst limitieren dann wäre es natürlch oberste Priorität an der Nachfolgearchitektur zu arbeiten die dieses Problem nicht mehr hat, sofern man mittel bis langfristig noch im Geschäft bleiben will.
 
Wadenbeisser schrieb:
Es hieß doch dass dieser eine neue Architektur bekommen würde oder hat sich daran etwas geändert?
Es gibt keine allgemein verbindliche Aussage zu irgendetwas, was NAVI betrifft. Auch diese Konsolengeschichte ist nur eine Vermutung. Wenn es gut läuft, dann ist NAVI aber eine entschlackte GCN-ISA, die weniger Compute-lastig und mehr Gaming-orientiert ist. (Man, was für Kunstwörter) Arcturus liefert erst eine Architektur nach GCN, zumindest laut der jetzt noch gültigen Roadmap.

amd-gpu-roadmap_2797967[1].jpg
 
  • Gefällt mir
Reaktionen: NMA, McTheRipper und Faust2011
yummycandy schrieb:
Es gibt keine allgemein verbindliche Aussage zu irgendetwas, was NAVI betrifft.

Leider nicht nur zu Navi, sondern einfach zu allem zukünftigem. Auch das mit Arcturus war nur ein Codewort in einem Treiber für Linux von AMD. Da wurde anschließend die Aussage auch wieder korrigiert. Aber nicht nur AMD, auch Nvidia und Intel lassen sich immer weniger in die Karten schauen und präsentieren keine allzu weit in die Zukunft reichenden Roadmaps mehr.

Ich kann das aber auch verstehen, weil inzwischen an allen Ecken die Luft einfach dünn wird für weitere Fortschritte: Lithographie ausgelutscht (man denke nur an Intel Kampf mit den 10nm), Architektur hat sich das letzte Mal grundlegend mit den Unified Shader vor 10 (?) Jahren geändert, usw. usf.
 
  • Gefällt mir
Reaktionen: NMA und yummycandy
Frage zum HBCC:

Wann ist das überhaupt sinnvoll? Wenn ich jetzt meiner Vega 64 8GB für HBCC zuweise und nur 16GB RAM habe, ist das überhaupt sinnvoll? Hab ich dann nur 8GB für mein System übrig oder wird das eher dynamisch zugewiesen? Wäre es dann sinnvoller gar nichts oder nur 4GB zuzuweisen, falls das geht? Oder ist das ohnehin erst ab 32GB System-RAM sinnvoll?

Außerdem hab ich gelesen, dass der HBCC-Controller mit der Zeit lernen sollte, wie Spiele den Speicher verwenden und damit das Speichermanagement effektiver wird. Stimmt das und wenn ja, wurde das beim Nachtest berücksichtigt oder kann es sein, dass nur ein Mal getestet wurde und der HBCC sozusagen "unoptimiert" lief?

Ich halte den jetzt zwar auch nicht für die "Wunderlösung", es würde mich in Bezug auf den Nachtest und die eigene Karte nur mal interessieren.
 
Taxxor schrieb:
Das hätte so eine schöne Überschrift werden können:
Nvidia RTX2080 im Test: Teure 1080Ti mit 3GB weniger VRAM und ungenutztem Raytracing

Jein. Die Punkte werden ja im Text aufgegriffen. Liest man eigentlich nur noch Überschriften?

bares.wahres schrieb:
Damit bist du in der Nische der Enthusiasts die solche Karten kaufen nochmal in einer Nische die sich damit technisch nicht beschäftigt und einfach nur spielen möchte, da würde sich wohl eher etwas wie eine Premium Konsole anbieten, findest nicht? Bist da irgendwie falsch, insbesondere wenn du mit der Karte nichts besonderes machst.

Ich zähle mich dazu, High-End Hardware zu kaufen und ggf. ein bisschen OC zu machen. UV gehört nicht dazu (und ist auch bissl ein gefummel), ebenso keinerlei Umbauten bei Grafikkarten. Hätte meine MSI 1080Ti nen bescheidenen Kühler gehabt, hätte ich sie nicht gekauft. Je teurer etwas ist im Vergleich zum Durchschnittspreis dieser Produktkategorie, umso geringer wird mein Toleranzlevel.

Nur weil man teure Hardware kauft, wäre es ein Trugschluss anzunehmen, dass das gleichzeitig Hardware-Nerds sind. Wie Thorsten im Forum bei PCGH schrieb gabs schon zahlreiche RMA, nur weil die teuersten Karten eben WaKü-Modelle waren, die ohne Wasseranschluss halt nicht kühlen (dies aber nicht bemerkt wurde in der Annahme, das teuerste wird scho das beste luftgekühlte Modell sein).
 
Palmdale schrieb:
Jein. Die Punkte werden ja im Text aufgegriffen. Liest man eigentlich nur noch Überschriften?
Text ist aber nicht Überschrift und gerade letzteres ist entscheidend für den Ersteindruck. Und bei nicht gerade wenigen auch schon für eine (vor)entscheidende Meinungsbildung. Reißerische Überschriften ziehen Leser an, auch wenn sie sich u.U. gar nicht für den Artikel/das Produkt als solches interessieren.

Ansonsten würde ich mich mal fragen, warum CB komplett allein auf weiter Flur mit solch einer negativen Überschrift ist und der Rest der Fachpresse es geschafft hat, diese neutral(er) zu gestalten. Eigentlich das, was man von seriösen Medien erwarten kann. Die Überschrift ist reißerisches BILD-Niveau und wie schon mehrfach erwähnt: Es fehlen schlicht die Bezugspunkt.

Laut CB war/ist die 2060 "schnell", warum ist die Radeon VII also zu langsam? In der Überschrift steht zu teuer, im Test dann etwas zu teuer. Was denn nun?

Kühlsystem und Lautstärke sind in der Tat katastrophal, da braucht es keine anderen Bezugspunkte. Das bleibt auch für sich gesehen schlicht so.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sennox, McTheRipper, Taxxor und 2 andere
Zurück
Oben