News Radeon VII: AMD publiziert Benchmark­-Ergebnisse von 26 Spielen

  • Gefällt mir
Reaktionen: LyGhT und Fraggball
Iscaran schrieb:
Nehmen wir alternativ diese Kostenbeispielrechnung:
https://www.3dcenter.org/abbildung/fertigungskosten-pro-gate-von-90nm-zu-7nm?size=preview
100 Mio Gates kosten ~ 1.31 $ in 7/10 nm und 1.49$ in 14/16nm

Eine RTX 2080 hat 13.6 Mrd. also 13600 Mio. Transistoren (~Gates) => mit 14/16nm 1.49*13600/100 ~ 203 $
Leider wissen wir die Transistorenzahl der VII nicht - aber mal angenommen das ist im wesentlichen ein Shrink von Vega64 => der hat 12.5 Mrd Transistoren.
Gerüchteweise soll VII wohl 13.2 Mrd haben ( https://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units#Radeon_RX_Vega_Series )

Das ergibt also für Vega64 in 14/16nm: 12500/100*1.49 $ ~ 186$
Und für VII in 7/10nm mit 13200/100*1.31 $ ~173 $

Mit diesen Kosten kann vielleicht TSMC kalkulieren, aber nicht dessen Kunde. Wenn die 7nm Fertigungskapazitäten knapp werden, zahlt der Kunde garantiert mehr. Angebot und Nachfrage halt.

Da kann es durchaus passieren dass sich der Kostenvorteil für den Kunden in einen Kostennachteil dreht.
 
Shoryuken94 schrieb:
Der Unterschied ist ganz einfach. Turing ist teuer und die neuen Features kann man kaum nutzen. Bis man Sie nutzen kann, sind die Karten eh zu langsam. Wer Spaß an Early Adopter Tests hat und gerne neue Sachen ausprobiert, den wird es sicherlich freuen. Dazu gab es einen Speicherausbau, der teils sehr fragwürdig ist!

Bei der Radeon VII gibts es keine solche Spezialfunktionen, dafür eine Architektur, welcher mit modernen APIs sehr gut umgehen kann und 16GB sehr schnellen Ram. Damit ist die Karte ziemlich zukunftssicher ausgestattet. Die 2080 hat zwar Raytracing, aber ob man das je so wirklich damit im großen Stil nutzen kann?

abgesehen von einigen sonderfällen wie leuten die exzessiv texturemods spielen sind die 16gb hmb2 momentan genauso nutzlos wie rtx features.
sofern in zukunft 16gb vram für 4k gaming genutzt werden ist die r7 wohl zu dem zeitpunkt auch zu lahm um ordentliches 4k gaming darzustellen.
die argumentation funktioniert in beide richtungen.
 
@Iscaran Hast du dir deine eigenen Links eig. mal durchgelesen?

Rein beim Speicher vergleichen wir hier eine Nvidia Karte mit 8GB GDDR6 mit einer AMD Karte mit 16GB HBM2.

Laut deiner eigenen Quellen sind das ~90$ vs. 240-300$. Nur für den Speicher.
Sind wir mal großzügig und nehmen das untere Ende der Preisspanne an und rechnen noch die 20$ für den HBM Interposer dazu, dann sind wir bei (ganz grob) 100 vs. 250 Dollar. Das sind 150$, die beim gleichen Preis direkt von der Marge runter gehen.

Wenn ich dann noch sehe, dass die Berechnungsgrundlage beim DIE eine Schätzung aus dem Herbst 2017 ist, ziehe ich das auch in Zweifel.

Aber hey, selbst wenn deine Rechnung passt und der Nvidia Chip teurer ist, als Vega 20 (nehmen wir der Einfachheit halber mal sogar 50$), ist die RTX 2080 immer noch 100$ günstiger herzustellen, als die Radeon VII.

Keine Ahnung, wieso da so erpicht darauf bist, die Kosten bei AMD klein und bei NVidia groß zu rechnen.

Und nebenbei, all meine Annahmen sind gerade extrem pro NVidia gewählt.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi, Herr Melone, Cpt.Willard und 4 andere
Moriendor schrieb:
Aber der Rückschluss, dass der 7nm Prozess so wahnsinnig gut laufen würde, entbehrt jedweder Logik.
Wenn das so wäre, dann würde AMD (und nVidia direkt hinterher) sofort ein komplettes Line-Up von Einstieg bis HighEnd auf 7nm produzieren.

Deine Argumentation entbehrt auch jeglicher Logik... Wieso soll er schlecht laufen, nur weil man nicht sofort das ganze Line UP swappt? Es gibt halt auch langfristige Verträge die es einzuhalten gibt und dass man komplett die ganze alte Produktlinie geswappt hat, gab es zumindest in der neueren Vergangenheit nicht.
Würde eher sagen die Kosten zu einem Vega 7 DIE und dem einer RTX 2080 dürften sich nicht großartig unterscheiden.

Moriendor schrieb:
Stattdessen ist die erst sehr kürzlich veröffentlichte RX 590 eine 12nm Karte. Warum wohl? Weil 7nm so toll flutscht, aber man wollte halt in 12nm produzieren, weil der Chip dann schöner aussieht? Also bitte, Leute...

Vermutlich weil man bei GF noch Verträge zur Abnahme von Wafern hat und so Strafzahlungen vermeidet?
 
  • Gefällt mir
Reaktionen: Schranz0815 und Acedia23
Shoryuken94 schrieb:
Der Unterschied ist ganz einfach. Turing ist teuer und die neuen Features kann man kaum nutzen. Bis man Sie nutzen kann, sind die Karten eh zu langsam. Wer Spaß an Early Adopter Tests hat und gerne neue Sachen ausprobiert, den wird es sicherlich freuen. Dazu gab es einen Speicherausbau, der teils sehr fragwürdig ist!


Ab wann kann ich 16GB in jedem Game voll nutzen? Wenn ich nicht gerade Midder bin wo dann vollgeklatscht die GPU zu langsam wird?

Woher willst denn wissen ob Jemand nicht 3-4 Raytracing Games reichen die nächsten Monate um es als sinnvoll zu empfinden?
Auf Konsole bekomme ich Grafikkracher auch nur alle 6-8 Monate präsentiert durch Exklzsiv während die Multi oft nicht gut optimiert abfallen. Ist deswegen die Anschaffung einer PS4 sinnlos?

Wir können doch gar nicht abschätzen was wie oft zum Einsatz kommt und auch was bringt. Das kann weder 1 Game mit Raytracing noch 1 Spiel was mal 16GB füllt.


Bei der Radeon VII gibts es keine solche Spezialfunktionen, dafür eine Architektur, welcher mit modernen APIs sehr gut umgehen kann und 16GB sehr schnellen Ram. Damit ist die Karte ziemlich zukunftssicher ausgestattet. Die 2080 hat zwar Raytracing, aber ob man das je so wirklich damit im großen Stil nutzen kann?

Ach, Vega hat keine speziellen Funktionen die extra vom Entwickler angesprochen werden müssen um was zu bringen?
Wäre mir komplett neu.
Es wird immer vom Entwickler abhängen ob er zusätzliche Funktionen einer aktuellen Architektur nutzt.
Gilt auch für spezielle Ultraeinstellungen. Ein Game hat eine spezielle Umgebungsverdeckung, nächste volumetrisches Licht oder Wolkendarstellung usw.

Zukunftssicher ist gar nichts Heutzutage.
Wenn sich Architekturen komplett ändern fallen Alte schnell etwas ab.
 
@Fraggball Texturen benötigen allerdings keine Rechenleistung, haben aber enormen Einfluss auf die Darstellungsqualität. Da sind mir Mediumsetting mit Ultra Texturen in 4K deutlich lieber, als wie bei der 780Ti in vielen aktuellen Spielen Hohe - Maximale Details mit Matschtexturen.


Schon in 1080p sind 6GB heute eher die Untergrenze für eine neue Karte, da einige wenige Titel bei Maximaltexturen die auch belegen und gut nutzen. Aber auch bei weniger hübschen Spielen sind in 1080p heute schon 6GB von Vorteil. Z.B. in Ark. Auf ner 4GB Karte wird das fliegen über ein bebautes gebiet zur Ruckelorgie.

Und der Unterschied ist auch, dass man mit einer RTX 2080 wohl niemals Raytracing (in vernünftigen Settings) und 4K kombinieren kann, wenn man nicht ganz hart gesotten bei den FPS ist.

Neben dem größeren Speicher ist ja auch die bandbreite ein wichtiges Thema. Sieht man ja gut, wie gut Vega und Turing auf Speicher OC reagieren
 
  • Gefällt mir
Reaktionen: GERmaximus
cypeak schrieb:
weil 16gb hmb2 speicher kostenlos vom himmel fallen?
Was sie tun mussten um auf 16GB zu kommen kann uns doch egal sein. Oder stellst du dich hier hin und willst uns näher bringen, warum die Titan RTX mit 24GB so teuer ist und das gerechtfertigt sei? Schlimm wie sich alle an solchen Eckdaten aufgeilen.

Ich sage nur, dass wir erneut keine P/L Besserung bekommen, obwohl das in den letzten ~15 Jahren immer der Fall war. (Weiter zurück kann ich nicht mitreden) Und müsste ich heute erneut eine Karte mit 1080 Ti Leistung kaufen, wäre es auf jeden Fall keine 2080 mit lächerlichen 8GB, das kannst du mir glauben. So wie es aussieht darf man hier [CB] keiner der beiden kritisieren und etwas an ihren Produkten bemängeln. Und wenn doch, ist man ein Neider oder Fanboy. :)
 
  • Gefällt mir
Reaktionen: v_ossi und Acedia23
Eigentlich spricht doch für UHD Nutzer, oder auch allgemein, nichts mehr dafür sich eine 2080 anstatt einer Vega VII zu kaufen. Beides im momentan gleichem Leistungsspektrum, wobei der AMD Treiber noch nicht final ist. Der große Unterschied liegt eigentlich bei 4 Punkten:

PRO Nvidia spricht eigentlich nur Raytracing. Wobei die 2080 für eine effektive Nutzung der Technologie sowieso zu langsam ist.

PRO AMD sprechen viel mehr Punkte nach derzeitigen Stand. Einerseits das + an Speicher der ebenfalls auch noch die schnellere Bandbreite hat. Sicherlich zum jetzigen Zeitpunkt nicht das Totschlagargument, aber desto höher die Auflösungen der Spiele und deren Texturen, desto mehr wird sich das als Vorteil heraus stellen. Gerade in einem Jahr wenn die 2080 an der Kotzgrenze vom Speicher ankommt, hat die Vega hier noch enorme Reserven.
Zusätzlich noch der weitaus größere Support von Adapti-sync kompatiblen Monitoren und der Möglichkeit der AMD Karten, diese wirklich für die Arbeit nutzen zu können, da diese keine reine gaming Karte ist.

Also bis auf early adopter Raytracing sehe ich keinen Kaufgrund für die 2080.
 
  • Gefällt mir
Reaktionen: Inxession, pupi, directNix und 2 andere
Was man von den ersten GPUs im 7nm Prozess erwarten würde können und was sich hinter VEGA 20 verbirgt, ist doch bereits seit Radeon Instinct MI60 und MI50 und somit seit einigen Monatem bekannt.

Bis kurz vor der CES war doch noch hoch umstritten, ob AMD überhaupt einen Gamingableger der VEGA 20 bringen wird.

Es ist ein simpler Shrink, zudem mit weniger CUs und höherer Effizienz und dafür ist ein Leistungsplus von 25%+ absolut in Ordnung.

Natürlich sind $699.- erst einmal eine Hausnummer, aber ich erwarte die Custom Modelle ziemlich rasch bei 600,— Euro.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, msv und Shoryuken94
OZZHI schrieb:
Was sie tun mussten um auf 16GB zu kommen kann uns doch egal sein. Oder stellst du dich hier hin und willst uns näher bringen, warum die Titan RTX mit 24GB so teuer ist und das gerechtfertigt sei? Schlimm wie sich alle an solchen Eckdaten aufgeilen.
Ich finde das Argument von @cypeak aber schon richtig. Die reinen Hardwarekosten kann (!= muss) man schon mal als Basis für eine Argumentation hernehmen. Ob man die dann überhaupt braucht, sollte natürlich jeder selbst einschätzen.
OZZHI schrieb:
Ich sage nur, dass wir erneut keine P/L Besserung bekommen, obwohl das in den letzten ~15 Jahren immer der Fall war. (Weiter zurück kann ich nicht mitreden) Und müsste ich heute erneut eine Karte mit 1080 Ti Leistung kaufen, wäre es auf jeden Fall keine 2080 mit lächerlichen 8GB, das kannst du mir glauben.
Sehe ich auch so.
OZZHI schrieb:
So wie es aussieht darf man hier [CB] keiner der beiden kritisieren und etwas an ihren Produkten bemängeln. Und wenn doch, ist man ein Neider oder Fanboy. :)
Leider stimmt das für einen gewissen lauten Prozentteil der Nutzer. Aber es gibt durchaus auch sinnvolle Kommunikation um so manches laute Geplärre herum.

Außerdem finde ich, dass du ein Neider und Fanboy bist. :-P
 
Für mich ist klar, dass diese Karte gar nicht als Consumer Karte kommen sollte, war auch nirgends vorgesehen und jeder war überrascht, denn eigentlich hatte jeder Navi erwartet. Da aber Nvidia dankenswerterweise den Preis nach oben getreiben hat, 7nm wohl besser läuft als angenommen und noch Kapazitäten frei waren hat man eben kurzerhand die Karte auf den Markt geschmissen. Somit wird man wohl nicht allzuviel Verlust machen und man hat trotzdem was Neues auf dem Markt. Einen großen Impact wird die Karte freilich nicht haben aber ich denke das ist AMD bewusst. Ist halt eigentlich ne HPC Karte.
 
  • Gefällt mir
Reaktionen: Herr Melone, Baal Netbeck, directNix und 6 andere
Shoryuken94 schrieb:
@Fraggball Texturen benötigen allerdings keine Rechenleistung, haben aber enormen Einfluss auf die Darstellungsqualität. Da sind mir Mediumsetting mit Ultra Texturen in 4K deutlich lieber, als wie bei der 780Ti in vielen aktuellen Spielen Hohe - Maximale Details mit Matschtexturen.


Schon in 1080p sind 6GB heute eher die Untergrenze für eine neue Karte, da einige wenige Titel bei Maximaltexturen die auch belegen und gut nutzen. Aber auch bei weniger hübschen Spielen sind in 1080p heute schon 6GB von Vorteil. Z.B. in Ark. Auf ner 4GB Karte wird das fliegen über ein bebautes gebiet zur Ruckelorgie.

Und der Unterschied ist auch, dass man mit einer RTX 2080 wohl niemals Raytracing (in vernünftigen Settings) und 4K kombinieren kann, wenn man nicht ganz hart gesotten bei den FPS ist.

Neben dem größeren Speicher ist ja auch die bandbreite ein wichtiges Thema. Sieht man ja gut, wie gut Vega und Turing auf Speicher OC reagieren
sehe ich anders, natürlich gibt es immer beispiele wier ark die schlichtweg mies programmiert sind, allerdings nutzen 99% aller titel 6gb auf 1080p nicht ansatzweise aus. nur weil eine engine den vram reserviert heisst das nicht das er tatsächlich gebraucht wird.
das rtx in 4k nicht nutzbar sein wird mag sein, höchstens in kombination mit dlss.
das für mainstream games unter 4k die 8gb die nächsten 3-4 jahre nicht reichen bezweifle ich doch stark, schliesslich arbeiten gute entwickler daran ressourcen effektiv zu nutzen und orientieren sich an der marktverbreitung von produkten.
es ist natürlich möglich das ich 2021 blöd dastehe und mich ärgere nur 8gb vram zu haben, ausschliessen kann ich das nicht, aber für sehr wahrscheinlich halte ich es auch nicht.
2021 wird meiner meinung nach eher das problem sein das sowohl r7 als auch 2080 für enthusiasten nur noch unzureichend leistung aufbringen.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC
Sehr schön vor allem der Battelfield V ist für mich interessant, mir der Karte könnte ich dann meinen Monitor gut befeuern, es bleibt spannend....
 
@Shoryuken94 nicht falsch verstehen, ich finde die r7 in ordnung. aber der grosse wurf ist sie auch nicht.
es gibt eben sowohl gründe sich ne 2080 als auch ne r7 zu kaufen. je nach eigenem anspruch.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC
Meiner Meinung nach enttäuschend.
Wenn man beispielsweise annimmt, dass die V64 eine Referenzkarte mit einer Kühllösung am Limit läuft
und die Vega VII mit einem "fetten" Kühler mit 3 Lüftern ausgestattet ist, kann allein das schon einen gewissen Performanceunterschied ausmachen.:rolleyes:
Da bleibt nur Abwarten bis tatsächlich solche GPUs im Umlauf sind.
 
Ich finde die Karte sehr ansprechend. Die gebotenen 16GB sind doch genau das, was man bei den Turing Karten immer bemäkelt. Kein RT? Mir egal, brauch ich noch nicht.
Die Leistung finde ich für einen bloßen Shrink schon beachtlich, auch wenn hier viele davon ausgehen das der 7nm Prozess Wunder vollbringen kann, frei nach dem Motto: 50% weniger Struckturbreite müssen auch 50% Mehrleistung liefern.
AMD will mit dieser Karte zeigen das sie den Anschluss nicht verlieren wollen und NVIDIA auf der Pelle bleiben.
Ich bin gespannt auf unabhängige Tests und vor allen Dingen auf den Stromverbrauch, denn hier hat Vega den größten Nachholbedarf.
 
  • Gefällt mir
Reaktionen: Sennox und cypeak
HardRockDude schrieb:
man stelle sich eine Art Radeon VII Ti vor mit nicht weniger Computeunits als vorher, sondern eher noch ein paar mehr :)
Wird leider nicht viel bringen. Wenn man die Vega 64 auf denselben Takt wie Vega 56 bringt, ist der Leistungsunterschied in Spielen kein vorhanden. Die die Rops machen kaum einen Unterschied. Vii ist der wirtschaftliche und leistungsfähige sinnvolle Kompromiss. Und dafür wird er in Ordnung sein. Nicht richtig gut, nicht richtig schlecht. Aber den Vollausbau werden wir nicht sehen, da er kaum mehr Leistung in Spielen bringen würde.
 
  • Gefällt mir
Reaktionen: directNix
Fraggball schrieb:
das für mainstream games unter 4k die 8gb die nächsten 3-4 jahre nicht reichen bezweifle ich doch stark, schliesslich arbeiten gute entwickler daran ressourcen effektiv zu nutzen und orientieren sich an der marktverbreitung von produkten.

Oh ja das sieht man ja, wie sehr sich effiziente Low Level APIs verbreiten. Die MArktverbreitung seht halt auch so aus, dass die Mittelklasse seit Jahren nun 6-8GB Vram anbieten. Ehemalige High End Modelle, die jetzt auch in der Klasse spielen, kommen auch mit 6-8GB vram an.

Natürlich verlangsamt sich das etwas durch Karten wie die 2060, spätestens mit den neuen Konsolen wird es wohl wieder sprunghaft ansteigen, wie damals mit PS4 und Xbox One.

Gerade bei den Texturen sehe ich noch massiven Spielraum, wie man mit relativ wenig Mehrleistung massiv an der Qualität noch etwas rausholen kann. Aktuell setzen die Konsolen hier noch die Limits, dass wird sich wohl im nächsten Jahr auch ändern.

Fraggball schrieb:
2021 wird meiner meinung nach eher das problem sein das sowohl r7 als auch 2080 für enthusiasten nur noch unzureichend leistung aufbringen.

Und wo ist das Problem? Leute die das letzte Quentchen leistung wollten, hatten eh nie eine 2080 /R7 im rechner. Die meisten Karten werden dann ja nicht in den Schrank gelegt und verstauben da.

Sieht man der R9 390(x) noch heute eine sehr gute Karte, mit der man eine Menge Spaß haben kann. Dank 8GB keinerlei Probleme bei aktuellen Spielen in 1080P und bei angepassten Settings in 1440p. Mit einigen Einbußen geht damit auch noch 4K.

Schaut man sich dagegen eine 3,5GB 970 an, sieht es schon trauriger aus... oder die 3GB 780Ti. Es gibt genug Leute, die eine Grafikkarte durchaus 2-4 oder manche auch 4 Jahre nutzen. Bei den hutigen langen Produktzyklen werden da sogar eher mehr als weniger.

Sicher haben in 2 Jahren Enthusiasten eher eine RTX 3080Ti etc. im Rechner. Sie sind aber auch nur ein kleiner Markt! 4K hingegen setzt sich auch immer mehr im Mainstream durch, da relativ günstig. Wenn man den Mark nicht künstlich einschränkt, kann sich hier auch deutlich mehr entwickeln.

Ob ein spiel durch Mods, schlechte Portierung oder sonst was viel Vram verbraucht ist mir in der Situation wo ich zu wenig habe auch relativ egal.

Ich kann mich ärgern wenn das Spiel ruckelt und auf den Entwickler schimfen, ändert aber nichts am miesen Spielgefühl.

Und wer der Meinung ist, ihm sind 8GB bei einer 600-800€ Karte genug, der kann doch ohne sich Gedanken zu machen zugreifen und akzeptieren, dass andere da vielleicht andere Ansprüche haben, als so viel Vram wie eine 170€ Mittelklasse Karte zu haben.
 
  • Gefällt mir
Reaktionen: Sennox und SIR_Thomas_TMC
@OZZHI
der "fehler" - falls man es so nennen kann - liegt in der erwartungshaltung dass ein besseres P/L ein naturgesetz bzw. marktgesetz ist.
und selbst bessere preisleistung ist den allermeisten nicht gut genug: wenn amd eine vega xyz vorgestellt hätte die für 300€ die leistung einer 500€ kostenden vega ermöglicht hätte, so würden die meisten beklagen dass garkein performancefortschritt da ist und amd an der gleichen stelle tritt wie vor 2 jahren.

was "man" will ist, salop gesprochen, eine karte mit der leistung einer rtx2080 zum kostenpunkt einer rtx2060, dem verbrauch einer rx570 und der (speicher)ausstattung einer titan irgendwas.
ich weiß, etwas überzogen, aber im grunde ist das der grundtenor bei vielen kritikern: zuwenig leistung, zu teuer und zu stomhungrig.
(teilweise gibt es nichtmal vollständige specs und reviews und jetzt schon faseln manche was von undervolting und oc..)

allein schon die tatsache dass 7nm (noch) relativ teuer ist und hbm2 mit sicherheit schon bei ek-preisen reinhaut, ist es genau das was man hier oft lesen kann: überzogene erwartungshaltung.
(wenn man dazu erwähnt dass vega20 nichteinmal fürs gaming vorgesehen war, steht das ganze nochmals in einem anderen licht...)

ich bin immer wieder erstaunt dass etliche forumsuser offenbar schlicht nicht in der lage sind fakten und tech-specs halbwegs vernünftig zu bewerten und einzuordnen und sich ihre "bewertungsskala" an extrema wie "mehr!", "zuwenig!", "zuspät", "zu teuer!" erschöpft...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Herr Melone, Benji18, Sennox und 3 andere
Zurück
Oben