News Radeon VII: AMD publiziert Benchmark­-Ergebnisse von 26 Spielen

Das Fallout so gut performed dürfte am RAM liegen, war bei der Engine in der Vergangenheit ja auch immer der Top-Booster.
 
  • Gefällt mir
Reaktionen: CMDCake
domian schrieb:
... Allein die Kosten für 16GB HBM lässt mich bei dem Verkaufspreis schon an AMDs wirtschaftlichen Absichten zweifeln. Mit 699$ ist die Karte nämlich schlichtweg zu billig...
Da hab ich auch schon dran gedacht. Vielleicht ist die 7nm-Fertigung im Rahmen des Gesamtpakets doch billiger als gedacht und die Preise für das 8GB-HBM2 Package sind evtl. seit Mai 2018 auch weiter gesunken.
 
Xeljaga schrieb:
Irgendwie beschleicht mich das Gefühl, dass in der Grafikkartenbranche es auch mal Zeit wäre für einen "Elon Musk", der hier mal aufräumt und anständige Mehrleistung/Preis bringt...

Ich wäre eher für ein Xiaomi als einen Musk. Bevor ich mir ein Auto für 55.400,-€ kaufe friert die Hölle ein. :cool_alt:
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, ro///M3o, CMDCake und eine weitere Person
Mal abwarten was am Ende mit Undervolting und OC rauszuholen ist.
Mit einer Vega 56 im System werde ich wohl diese Generation überspringen, sollten am Ende nicht 50% Mehrleistung rauszuholen sein.

Steht und fällt ähnlich wie bei der Vega wohl mit den Partnerkarten und der HBM-Lotterie :D

Die 16GB RAM sind natürlich sehr fein, aber ich persönlich spiele lieber mit >144FPS in FHD als mit etwas über 60FPS in 4k.
 
  • Gefällt mir
Reaktionen: Acedia23
domian schrieb:
legt man diesen Artikel zu Grunde, reserviert AMD für 8GB sogar zwischen 40 und 50Watt für den Speicher.

Und nvidia Karten würden mit 8 GB zusätzlichen GDDR6 keinen extra Strom verbrauchen?

Hier werden wieder Äpfel mit Birnen verglichen.
 
flappes schrieb:
Und nvidia Karten würden mit 8 GB zusätzlichen GDDR6 keinen extra Strom verbrauchen?

Darum geht es doch überhaupt nicht. Wenn aber behauptet wird, HBM würde weniger Energie als GDDR6 verbrauchen, (und das ist unabhängig von NVIDIA oder AMD, oder willst du einen Fanboykrieg anzetteln?) dann ist das schlicht weg falsch.
 
Ich hab das Gefühl das ganze wird als ernsthafter Versuch von AMD, einen guten Grafikchip unter (voller?) Ausnutzung der neuen 7nm-Fertigung zu bringen, missverstanden. Das einzige, was hier passiert, ist: nVidia wird das High End nicht völlig überlassen, weil AMD zufälligerweise sowieso ne GPU gebaut hat, die eben etwa GTX 1080Ti-Leistung erreicht. Das hier ist vermutlich sogar ein Minusgeschäft für AMD, um sich ein bisschen Zeit zu verschaffen, um eine hoffentlich überzeugende Navi-Generation vorzustellen (natürlich auch ohne Raytracing und DLSS).
 
  • Gefällt mir
Reaktionen: dister1, Rockstar85, Transistor 22 und 5 andere
mkdr schrieb:
Naja HBM2 Speicher verbrät halt ziemlich viel Strom
Weiß nicht, ob das mittlerweile geklärt ist, aber habe grade durch Zufall einen Gegen"beweis" gefunden:

HBM2 is more expensive but enables lowers power consumption
(Quelle)


Edit:
domian schrieb:
dann ist das schlicht weg falsch
und das hier ist falsch ;)Hier wird gezeigt, dass die anliegende Spannung niedriger ist. P=U*I , I konstant, U niedriger=>P niedriger (weniger Leistung geht rein)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1, dister1, GERmaximus und eine weitere Person
Für Schritt von 12nm auf 7nm könnte mehr drin sein, die Resultate sind sogar eher enteuschend.
Obwoll hier kann eventuell mit optimierten Driver mehr rausgehollt werden.
 
domian schrieb:
Darum geht es doch überhaupt nicht. Wenn aber behauptet wird, HBM würde weniger Energie als GDDR6 verbrauchen, (und das ist unabhängig von NVIDIA oder AMD, oder willst du einen Fanboykrieg anzetteln?) dann ist das schlicht weg falsch.


Was verbrauchen denn 16GB GDDR6 mit 1TB/s? Also wirklich alles inklusive, inkl. dem entsprechenden Speichercontroller? Um das zu erreichen bräcuhte Nvidia eine Grafikkarte mit mindestens 512 Bit Speicherinterface und müsste zusätzlich schnelleren (Stromhungrigeren) Ram verwenden, als bei den aktuellen Karten.

Wichtig ist nicht nur der gesamtverbrauch, sonder auch der verbrauch bei gleichen Eckdaten.
 
Shoryuken94 schrieb:
Wichtig ist nicht nur der gesamtverbrauch, sonder auch der verbrauch bei gleichen Eckdaten.

Dem stimme ich nicht, natürlich ist für mich als Käufer der Gesamtverbrauch und die daraus resultierende Verlustleistung, die abgeführt werden muss ein Thema.

Wie bereits mit Link aufgeführt, erreicht AMD eine Begrenzung der Leistungsaufnahme von HBM nur durch Kompressionsverfahren. Andernfalls würde der Vebrauch ausufern.
 
7hyrael schrieb:
Vermutlich einfach wegen der Verbreitung. Es geht ja irgendwo drum ein Beispiel zu liefern, wie sich die Karte in einem für die Kunden vergleichbaren System verhält, der 7700K ist halt sehr verbreitet und daher ein guter Vergleichskandidat.
Ja, war auch nur als kleiner Scherz gedacht. Aber dennoch, warum nicht Flagge zeigen? Threadrpper & Vega VII hätte ein Bild gegeben was ohne Intel/nVidia geht. Versuchen ja auch die meisten User die sich von Intel und/oder nVidia befreien wollen.
Und ich selbst, nach dem Erfolgreichen Aufbau des PCs für mein Sohn mit dem kleinen Ryzen R5 1600X & R9 390, werde diesen Weg auch gehen. Der läuft echt gut. Wenn ich finanziell kann evtl. ein oder zwei Nummern größer bei der CPU als beim Sohnemann... Jedenfalls auch full AMD
 
STEz3ro2 schrieb:
und das hier ist falsch ;)Hier wird gezeigt, dass die anliegende Spannung niedriger ist. P=U*I , I konstant, U niedriger=>P niedriger (weniger Leistung geht rein)

Das ist doch totaler Quatsch, eine niedrigere Spannung muss doch gar nichts über den Vebrauch sagen.
 
v_ossi schrieb:
Zudem dürfte die Herstellung mit ~330mm^2 und 16GB HBM nicht gerade günstig sein.

1. Wissen wir die Größe von Radeon VII noch nicht
2. Eine RTX 2080 hat 545 mm^2
3. Ob also die Fertigung von 545 mm^2 mit 12nm wirklich deutlich billiger ist als die Fertigung eines beinahe nur halb so großen chips in 7nm ist nicht so einfach zu sagen:
https://www.3dcenter.org/news/der-7...die-fertigungskosten-auf-gleicher-chipflaeche
nehme ich das als Basis und sage 545mm^2 kosten 1 dann ergäbe sich dass 272.5 mm^2 in 7nm auch 1 Kosten.
Oder wenn wir annehmen die 330 sind richtig und ebenso die obige Annahme der verdoppelung der Kosten dann ist der Preisnachteil der 330mm^2 nicht so hoch denn: 330/272.5*1 = 1.21. Also ~20% "Teurer"...
Allerdings ist beim 3DC-Link der Vergleich von 14nm/16nm auf 7/10nm...und nicht von 12nm auf 7nm.
12nm ist sicher etwas teurer als 14/16....

Nehmen wir alternativ diese Kostenbeispielrechnung:
https://www.3dcenter.org/abbildung/fertigungskosten-pro-gate-von-90nm-zu-7nm?size=preview
100 Mio Gates kosten ~ 1.31 $ in 7/10 nm und 1.49$ in 14/16nm

Eine RTX 2080 hat 13.6 Mrd. also 13600 Mio. Transistoren (~Gates) => mit 14/16nm 1.49*13600/100 ~ 203 $
Leider wissen wir die Transistorenzahl der VII nicht - aber mal angenommen das ist im wesentlichen ein Shrink von Vega64 => der hat 12.5 Mrd Transistoren.
Gerüchteweise soll VII wohl 13.2 Mrd haben ( https://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units#Radeon_RX_Vega_Series )


Das ergibt also für Vega64 in 14/16nm: 12500/100*1.49 $ ~ 186$
Und für VII in 7/10nm mit 13200/100*1.31 $ ~173 $

Ein VII dürfte wegen der simplen "Shrinkung" des Chips also sogar eher GÜNSTIGER werden als die Fertigung in 14/16nm.
 
domian schrieb:
Das ist doch totaler Quatsch, eine niedrigere Spannung muss doch gar nichts über den Vebrauch sagen.
Nach dem Satz für die elektrische Leistung (die ich dir da unverblümt hingeschrieben habe und die du mit zitiert hast) schon ;) Spannung und Leistung sind voneinander abhängig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus und Rockstar85
Die Karte find ich recht interessant für UHD. Die 16GB VRAM machen sie schon sehr attraktiv. Man sagt sich ja, dass ne 1080ti für UHD eine gute Lösung ist und der 2080 vorzuziehen sei. Die Leistung stimmt.
Mehr Auswahl ist immer gut: 1080ti (EOL), 2080ti und VII.
 
  • Gefällt mir
Reaktionen: p4z1f1st
leider ist das problem bei amd das immerwärende warten auf eine bessere graka.
wenn ein hersteller heute mit seiner stärksten graka kommt und die leistung auf dem niveau einer karte der konkurrenz von vor zwei jahren liegt, ist das einfach zu wenig.
natürlich könnte man jetzt auch sagen, die 2080 liegt auch nur auf dem niveau einer 1080 ti, aber die 2080 ist ist halt nicht die stärkste karte von nvidea.
ich möchte mir dieses jaht auch ein neues system zusammenstellen und ich tendiere zu amd. aber leicht machen sie es mir nicht.
 
Zurück
Oben