News Radeon VII: AMD publiziert Benchmark­-Ergebnisse von 26 Spielen

OZZHI schrieb:
Sie haben sich in die neue Preisgestaltung eingefügt anstatt ein besseres Preis/Leistungsverhältnis zu liefern. Immerhin kann man nun seit über zwei Jahren fast durchgehend 1080 Ti Leistung für ~700€ einkaufen. Beeindruckend.
SirSilent schrieb:
30% Mehrleistung für 60% Aufpreis...

wieso?
weil 16gb hmb2 speicher kostenlos vom himmel fallen?

erwartungshaltung bezüglich des technischen fortschritts ist eine sache, überzogene erwartungen an leistung und preis sind etwas anderes.
 
  • Gefällt mir
Reaktionen: Herr Melone, Benji18, Schranz0815 und 4 andere
@Moriendor

Ernsthaft: Das ist doch offensichtliche Resteverwertung. Der 7nm Prozess wird teuer genug sein.

Wie gesagt da wäre ich mir nicht so sicher mit der Aussage:
https://www.computerbase.de/forum/t...gebnisse-von-26-spielen.1848028/post-22156867

Nehmen wir alternativ diese Kostenbeispielrechnung:
https://www.3dcenter.org/abbildung/fertigungskosten-pro-gate-von-90nm-zu-7nm?size=preview
100 Mio Gates kosten ~ 1.31 $ in 7/10 nm und 1.49$ in 14/16nm

Eine RTX 2080 hat 13.6 Mrd. also 13600 Mio. Transistoren (~Gates) => mit 14/16nm 1.49*13600/100 ~ 203 $
Leider wissen wir die Transistorenzahl der VII nicht - aber mal angenommen das ist im wesentlichen ein Shrink von Vega64 => der hat 12.5 Mrd Transistoren.
Gerüchteweise soll VII wohl 13.2 Mrd haben ( https://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units#Radeon_RX_Vega_Series )

Das ergibt also für Vega64 in 14/16nm: 12500/100*1.49 $ ~ 186$
Und für VII in 7/10nm mit 13200/100*1.31 $ ~173 $

Ein VII dürfte wegen der simplen "Shrinkung" des Chips also sogar eher GÜNSTIGER werden als die Fertigung in 14/16nm.

Dazu kommen halt noch die ~250$ für 16 GB HBM2.
https://www.hardwareluxx.de/index.p...se-fuer-gddr-speicher-und-hbm-analysiert.html
http://www.pcgameshardware.de/RAM-H...uer-GDDR6-RAM-sollen-moderat-steigen-1256228/

Wohingegen 16 GB GDDR6 nur 180$ kosten...

Vergleichen wir das mit der RTX2080 die bei größerem Die und ähnlich viel Transistoren so um die 200$ kosten dürfte trotz 12nm....

VII ist sicherlich nicht billig in der Produktion und man ruft deswegen auch denselben Preis auf die Performance-Konkurrenz. Aber querfinanzieren muss AMD hier wohl eher nichts. Und an Abfall MI50 glaub ich erst recht nicht.

Wahrscheinlicher ist dass AMD dies ganz bewusst macht um
1.) nicht völlig den Anschluss auch im Hochleistungssegment zu verlieren und
2.) um Fertigungserfahrung für NAVI zu ziehen - bevor sie mit dem Next-Gen Produkt in die Massenfertigung reingehen.
 
  • Gefällt mir
Reaktionen: Benji18, Schranz0815 und SIR_Thomas_TMC
Rein theoretisch müsste die Karte doch gut zum Rendern geignet sein, auch wegen des großen Speichers.
Wird eigentlich VEGA von Cinema 4D unterstützt?
 
domian schrieb:
Davon abgesehen vermute ich jedoch, dass eine "wirtschatliche" Navi Karte nicht die Leistungs haben wird, wie so mancher hier erwartet. Die Leistungssteigerung des Shrink der Radeon VII lässt das schon vermuten.

Vom Shrink der Vega zur VII auf Navi schließen zu können halte ich für nicht möglich.
Es ist ja nicht einmal bekannt welche Architektur bei Navi verwendet wird. (GCN oder neues Design)
 
  • Gefällt mir
Reaktionen: Rage, Schranz0815 und Acedia23
cypeak schrieb:
wieso?
weil 16gb hmb2 speicher kostenlos vom himmel fallen?

erwartungshaltung bezüglich des technischen fortschritts ist eine sache, überzogene erwartungen an leistung und preis sind etwas anderes.
also sind für dich die turing preise auch in ordnung gewesen da man ja auf gddr6 gewechselt, und ne neue architektur entwickelt hat?
 
  • Gefällt mir
Reaktionen: Schranz0815
Sennox schrieb:
aber warum zur Hölle nimmt man den ollen 7700k?

Wegen dem Verbreitungsgrad des i7-7700K, ganz einfach. Es geht darum Vergleichbarkeit herzustellen.

Man zeigt ganz einfach ein typisches Szenario auf, nicht mehr und nicht weniger.
 
  • Gefällt mir
Reaktionen: Schranz0815, Shoryuken94 und SIR_Thomas_TMC
Roche schrieb:
Dass das natürlich nicht der tolle Bringer sein kann und eher etwas halbgar ist, ist dann doch vollkommen klar.
Und das weiß auch AMD selbst.
Es ist vielmehr überraschend, dass sie überhaupt eine Gamerkarte auf Vega20 Basis bringen. Bisher ging man davon aus, dass AMD gar nichts mehr mit Vega für Spieler bringt.

Das ist alles längst bekannt und ging schon vor Monaten durch die Presse und Foren. Habt ihr alle unter nem Stein gelebt, oder was?
Ist ja nicht auszuhalten.

dem kann ich nur zustimmen und muss auch nichts hinzufügen.
 
  • Gefällt mir
Reaktionen: cele
Fraggball schrieb:
also sind für dich die turing preise auch in ordnung gewesen da man ja auf gddr6 gewechselt, und ne neue architektur entwickelt hat?

HBM2 ist teurer und effizienter, von daher sogar besser als GDDR6. Das Problem ist halt bloß, dass der Speicher "noch" zu teuer ist.
Das MSRP von 699$ sagt im endeffekt rein garnichts aus. Das MSRP der 2080 liegt bei 699$ und sie ist trotzdem teilweise günstiger, bei AMD kann es genauso gut der Fall sein.

Mich würd gerne mal interessieren wie viel Watt GDDR5, GDDR6, HBM1 und HBM2 so im Vergleich ziehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus und Schranz0815
Fraggball schrieb:
also sind für dich die turing preise auch in ordnung gewesen da man ja auf gddr6 gewechselt, und ne neue architektur entwickelt hat?

preise sind nicht billig, gehen aber in ordnung.
solange einem niemand eine pistole an den kopf hält und zum kauf zwingt, ist alles ok.
 
  • Gefällt mir
Reaktionen: Schranz0815, Fraggball und LyGhT
LyGhT schrieb:
Das MSRP von 699$ sagt im endeffekt rein garnichts aus. Das MSRP der 2080 liegt bei 799$ und sie ist trotzdem teilweise günstiger, bei AMD kann es genauso gut der Fall sein.
das ist falsch, der preis der 2080 FE liegt bei 799 $, der msrp der 2080 liegt bei 699 $.
 
  • Gefällt mir
Reaktionen: LyGhT
Find ich immer noch okay für die Karte, aber nicht für 750€ ungefährerer angepeilter Verkaufspreis in D.
Warum okay für die Karte? - Weil es oft genug hieß, dass AMD wenigstens mal eine Karte mit der Leistung einer 1080ti bringen sollte und die scheint jetzt da zu sein, nur ist der Preis bischl hoch dann.
Mit der Leistung einer 2080 wäre es in Ordnung am Anfang, trotzdem werden diese Karten schon mittlerweile verscherbelt um die 650? verscherbelt.
Dann halt noch ein wenig abwarten.
 
Ich bin eher positiv überrascht und die~30% plus Speicher sind auf jeden Fall ein besseres Angebot als die RTX Karten. Die Lederjacke tobt ja nicht ohne Grund. Dazu kommt das ganze Potential von 7nm. Der Chip hat nur wenig mehr Transistoren. Verbrauch sollte eigentlich wunderbar sein und genug Potential für OC haben. Die Karte könnte der Wakü-OC Geheimtipp des Jahres werden.
 
  • Gefällt mir
Reaktionen: GERmaximus, directNix und Schranz0815
Fessai schrieb:
Für Schritt von 12nm auf 7nm könnte mehr drin sein, die Resultate sind sogar eher enteuschend.
Obwoll hier kann eventuell mit optimierten Driver mehr rausgehollt werden.

entäuschend nach welchen maßstäben?
 
  • Gefällt mir
Reaktionen: GERmaximus und Schranz0815
Fraggball schrieb:
das ist falsch, der preis der 2080 FE liegt bei 799 $, der msrp der 2080 liegt bei 699 $.
Stimmt mein Fehler, ändert nichts daran, dass die Karte trotzdem teils billiger ist ^^
 
  • Gefällt mir
Reaktionen: Fraggball
@Moriendor
Glaubst du wirklich AMD würde mit so großen Stückzahlen bei HPC Karten rechnen?

Niemals.

Das muss besser laufen als angenommen.
 
LyGhT schrieb:
Stimmt mein Fehler, ändert nichts daran, dass die Karte trotzdem teils billiger ist ^^
klar! und das ist auch gut! die r7 muss sich aber halt auch in dem bereich einordnen, eher was drunter um konkurrenzfähig zu sein.
 
  • Gefällt mir
Reaktionen: LyGhT
Project-X schrieb:
Ich weis nicht warum manche hier so Euphorisch Wirken, für mich ist die Karte jetzt schon eine Enttäuschung.
Gehen wir mal davon aus, dass die Karte an die Leistung des RTX 2080 ran kommen würden, aber was soll daran so rühmend sein, wenn die Karte ~1 Jahr länger braucht als die RTX 2080
Woher kommt ständig dieses Märchen von einem Jahr?
Die 2080 ist nicht mal annährend so lange am Markt!
 
  • Gefällt mir
Reaktionen: Herr Melone, DarkerThanBlack, Benji18 und 6 andere
Was mir noch auffällt, wenn das überhaupt zum Tragen kommt - der Bench der Karte (nicht ingame) wurde mit einem neuem Ryzen PCIE4.0 getätigt?!
Der Spielebench wurde ja verständlicherweise auf nem PCIE3.0 durchgeführt, ob es da Unterschiede geben wird?
 
  • Gefällt mir
Reaktionen: LyGhT
Cpt.Willard schrieb:
Was mir noch auffällt, wenn das überhaupt zum Tragen kommt - der Bench der Karte (nicht ingame) wurde mit einem neuem Ryzen PCIE4.0 getätigt?!
Der Spielebench wurde ja verständlicherweise auf nem PCIE3.0 durchgeführt, ob es da Unterschiede geben wird?
pcie 4.0 verdoppelt die bandbreite gegenüber pcie 3.0, bedeutet du brauchst weniger lanes als bei pcie 3.0 für die selbe datenmenge.
pcie 3.0 mit 16 lanes an die gpu angebunden ist für heutige architekturen aber mehr als ausreichend, einen unterschied wirst du da wahrscheinlich nicht bemerken, ausser das du evtl mehr lanes für anderen kram übrig haben kannst, wenn du das brauchst sofern die gpu pcie4.0 supported.
 
  • Gefällt mir
Reaktionen: Schranz0815 und Cpt.Willard
Fraggball schrieb:
also sind für dich die turing preise auch in ordnung gewesen da man ja auf gddr6 gewechselt, und ne neue architektur entwickelt hat?

Der Unterschied ist ganz einfach. Turing ist teuer und die neuen Features kann man kaum nutzen. Bis man Sie nutzen kann, sind die Karten eh zu langsam. Wer Spaß an Early Adopter Tests hat und gerne neue Sachen ausprobiert, den wird es sicherlich freuen. Dazu gab es einen Speicherausbau, der teils sehr fragwürdig ist!

Bei der Radeon VII gibts es keine solche Spezialfunktionen, dafür eine Architektur, welcher mit modernen APIs sehr gut umgehen kann und 16GB sehr schnellen Ram. Damit ist die Karte ziemlich zukunftssicher ausgestattet. Die 2080 hat zwar Raytracing, aber ob man das je so wirklich damit im großen Stil nutzen kann?

Sind zwei verschiedene Ansätze. Muss jeder selbst wissen, was ihm wichtiger ist. Ich würde lieber 16GB HBM2 4 Stack nehmen, als RTX. Wenn man in 4 K Spielt noch viel eher, da Raytracing da eh nur schwer umsetzbar ist, da zu leistungshungrig.
Cpt.Willard schrieb:
Der Spielebench wurde ja verständlicherweise auf nem PCIE3.0 durchgeführt, ob es da Unterschiede geben wird?

Denke das wird keinen Unterschied machen. PCI-E 3.0 8 Lanes vs 16 Lanes macht in den meisten Spielen nur wenige Prozent (Einstellig) aus. Auch PCI-E 2 16 Lanes macht kaum was aus, außer in Ausnahmen. Da wird der Grafikkarte wohl pcie 4 kaum spürbare Vorteile bringen
 
  • Gefällt mir
Reaktionen: GERmaximus, Herr Melone, directNix und 5 andere
Zurück
Oben