News Radeon VII: AMD publiziert Benchmark­-Ergebnisse von 26 Spielen

Xeljaga schrieb:
Irgendwie beschleicht mich das Gefühl, dass in der Grafikkartenbranche es auch mal Zeit wäre für einen "Elon Musk", der hier mal aufräumt und anständige Mehrleistung/Preis bringt...

Das Stichwort ist die Architektur.

Radeon 7 ist nichts weiter als ein Re-Re-Refresh von Fiji.
Erst 28 nm, dann 14 nm und jetzt 7 nm.

Ebenso dasselbe bei Nvidia.
Nur dass es sich da schon seit Kepler so hinzieht.
Pascal ist schließlich auch nur der X-te Refresh der Kepler Architektur mit nur minimalen Änderungen.
Und Turing setzt eben noch ein paar Shader Einheiten drauf um zu kaschieren, dass der 12 nm Prozess jetzt keine so großen technischen Sprünge mit sich bringt.

Edit: Vergleicht man Kepler mit Pascal zB. die GTX 680 und die GTX 1080, dann stellt man schnell fest, dass der Leistungszuwachs ziemlich gut mit den zusätzlichen Shadereinheiten und dem höheren Takt zu erklären sind.
In dem Fall sind es 1536 Shader @ 1 GHz gegen 2560 Shader @1,8 GHz , das ist fast 70% Zuwachs nur bei den Shadern und 80% Zuwachs beim Takt.

Rechnet man nun Milchmädchenhaft :D die theoretische Leistung der Kepler Architektur und skaliert sie nach oben bekommt man alleine mit 70% mehr Shadern theoretische 70% mehr Leistung also würde man theoretische 170% Leistung erhalten ausgehend davon dass 100% die Basis für die GTX 680 darstellen.

Fügt man jetzt noch 80% Takt drauf kommt man auf 306 % Leistung die Pascal in der Theorie haben müsste, wenn man nur die Kepler Architektur auf denselben Takt und dieselbe Shader Anzahl hochskaliert.

Vergleicht man nun diese theoretischen 306% Leistung mit dem Performancerating der beiden Karten diesem Test:
https://www.computerbase.de/artikel...8206/seite-2#diagramm-the-witcher-3-2560-1440

Dann sieht man in folgender Grafik den Rest selbsterklärend. ich denke auch nicht dass das Zufall ist :D :
Performance.PNG




Die ziehen alle nur ihre Vorteile aus den Shrinks.
Hoffentlich wird mal Navi was an der Gesamtsituation am Markt verändern...^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1 und paulinus
Bin auf die Benchmarks zu Forza Horizon 4 gespannt, da ist ja eine Vega 64 gleichauf mit einer 1080ti. Mal sehen was die R7 so reisen wird mit optimierten Treiber@4K. Oder besser gesagt mal sehen wie nah sie an die RTX 2080ti kommen wird :evillol:
 
Zuletzt bearbeitet:
@domian Dann ist es aber kein fairer Vergleich. Ich vergleiche ja auch keinen Ferrari mit einem Diesel Smart. Na klar verbraucht der Smart weniger und der Ferrari mehr. Aber dafür leistet der Ferrari auch mehr.

Wenn ich mehr Speicher und dazu einen schnelleren Speicher habe, dann darf der natürlich auch mehr Strom verbrauchen.

Ich kann als Kunde natürlich entscheiden, ob ich das brauche oder nicht. Wenn mir der Gesamtverbrauch wichtiger ist, dann nehme ich halt den Smart. Wenn ich aber Leistung will, dann muss ich halt ein gewisses Maß an Energie reinstecken!

16GB @ 1024 GB/s gegen 8GB @ 448GB/s ist halt ein massiver Unterschied.

Ich weiß auch nicht, warum jetzt alle plötzlich über HBM meckern. Er ermöglicht in der Radeon VII einfach eine Leistung, die ich mit GDDR6 nur mit massiven Aufwand umgesetzt bekomme.
 
@Iscaran Natürlich wissen wir die Größe; die vorgestellte Vega VII ist eine teildeaktivierte Radeon Instinct Mi60, die auf dem Vega 20 Die basiert.

Und dessen Maße sind seit November 2018 bekannt:
The new GPU comes in at 331mm2, packing in 13.2B transistors.
Quelle

Der Rest sind Spekulationen, zugegeben, begründete Spekulationen, aber auch teilweise nicht mehr ganz aktuell. Der 12nm Prozess wird aber selbst in deinem 3DCenter Link als Billig-Anwandlungen von 14/16nm bezeichnet.

Und das HBM ein gewaltiger Kostentreiber sein dürfte, zumal davon doppelt so viel verbaut ist, als GDDR6 bei NVidia, ist eigentlich recht offensichtlich.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi, cypeak und Shoryuken94
Schön dass es weitergeht im HighEnd Bereich, auch abseits der Grünen.
Für mich und 90 Prozent der Gamer leider in der Form nicht besonders relevant (700 Steine).
Würd ich mir aber lieber einbauen als eine 2080!
 
  • Gefällt mir
Reaktionen: Shoryuken94
goringo schrieb:
Soweit ganz nett, dachte aber, mit 7nm wäre mehr drin. Heißt es wohl weiter auf Navi warten...

Immerhin hat AMD mal wieder eine Karte, die im oberen Bereich mitspielt und überlässt das Feld Nvidia nicht allein. Kann sich mittelfristig nur positiv auf den Markt auswirken, auch wenn Lederjacken-Johnny erst mal was anderes behauptet. :D

Die Radeon VII ist für den Highend Markt bestimmt, mit Navi wird „nur“ die Mittelklasse angepeilt, mehr Leistung ist dort also nicht zu erwarten.

Shoryuken94 schrieb:
. Aber da wir nicht wissen, mit welchen Taktraten gebencht wurde und welche Settings im einzelnen, kann man daraus nicht die finale Leistung schließen. Aber AMD hat mit genannten Leistungsangaben in der letzten Zeit eher unter- als übertrieben.

Selbstverständlich Hersteller, allem voran AMD und Nvidia, geben immer weniger Leistung an, als im Nachhinein erbracht wird, dann ist die Freude umso größer :rolleyes: ... so funktioniert Marketing :freaky:
 
Cl4whammer! schrieb:
Stell dich hinten an, gammel noch auf einer 980ti rum weil selbst die 10X0 Reihe für mich unintressant war :D:freak:
Bei GPU's ist ja auch unter 100% Leistungszuwachs einfach Geld aus dem Fenster werfen und lohnt sich kaum. Bin auch von einer GTX 580 auf ne GTX 1070 gewechselt und Mal eben 420% Mehrleistung habe ich gerne mitgenommen. Diese werde ich noch locker 2-4 Gens nutzen.
 
  • Gefällt mir
Reaktionen: Pry_T800 und cele
FCK-THIS schrieb:
Selbstverständlich Hersteller, allem voran AMD und Nvidia, geben immer weniger Leistung an, als im Nachhinein erbracht wird, dann ist die Freude umso größer :rolleyes: ... so funktioniert Marketing :freaky:

Bei Ryzen hat AMD beispielsweise auch tiefer gestapelt, offen kommuniziert wurden 40% IPC Verbesserungen gegenüber den Vorgängern, am Ende waren es im Schnitt über 50%. Wie sehr man mit überschwinglichen Marketing aufs Maul fliegen kann, hat AMD ja auch selbst gemerkt, ohne konkrete Zahlen zu nennen. Ich sage da nur Vega. Aber auch hier wurden keine Zahlen genannt, die am Ende nicht stimmten.

Marketing muss nicht immer zwangsläufig aus lügen bestehen. Das sehen Nvidia und Intel etwas anders, aber in anderen Branchen gehts auch ohne. Das man sein Produkt bestmöglich repräsentiert ist wenig verwerflich. Aber irgendwelche Zahlen zu würfeln oder den Gegenpart aktiv schlecht zu machen hat in meinen Augen schon eher etwas von Kundenbetrug zu tun. Man kann es aber auch nett als Marketing bezeichnen.

Ich habe mal geschaut, ich konnte auf die schnelle keine AMD Angaben in den letzten Jahren finden, die nicht der Realität entsprochen haben. Wo einige schon daran scheitern die Spezifikationen ehrlich anzugeben, finde ich bei AMD tatsächlich nichts in die Richtung. Aber du hast sicher ein par Beispiele.

Viele Produkte leiden heute leider stark unter Ihrem Marketing, da nur Hypes aufgebaut werden und die fertigen Produkte nicht abliefern. Aber Die meisten Kunden haben ein Goldfischgedächtnis und vergessen es schnell wieder, wenn sie im nächsten Hypetrain gefangen sind.
 
  • Gefällt mir
Reaktionen: cele
Die Karte 100€ güsntiger und es würden sich sicherlich so einige Abnehmer finden. Für nen shrink ist die Leistung ja ok. Richtig mitspielen wird AMD aber erst wieder mit einer neuen Architektur (2020?)
 
v_ossi schrieb:
@Iscaran Natürlich wissen wir die Größe; die vorgestellte Vega VII ist eine teildeaktivierte Radeon Instinct Mi60, die auf dem Vega 20 Die basiert.
Und dessen Maße sind seit November 2018 bekannt:
Quelle

OK. Na gut - aber auch dann siehe Beispielrechnung würde ich nicht davon ausgehen dass VII teurer is als Vega64.

Und das HBM ein gewaltiger Kostentreiber sein dürfte, zumal davon doppelt so viel verbaut ist, als GDDR6 bei NVidia, ist eigentlich recht offensichtlich.

Dass HBM noch was extra kostet ist auch klar - aber rein der Chip ist bei AMD wohl sogar etwas billiger als ein RTX 2080 und ob Stand heute 16 GB HBM wirklich so viel Teurer als 16 GB GDDR6 ist ... ?
 
Xeljaga schrieb:
Zeit wäre für einen "Elon Musk", der hier mal aufräumt und anständige Mehrleistung/Preis bringt...
Bisher kostet das Modell 3 immer noch über 50.000€. Die Autopilotsysteme der Konkurrenz sind nicht schlechter, auch die Verarbeitung ist nicht außergewöhnlich. Auf jeden Fall hat er den Markt mit einem Hype umgekrempelt. Das schaffen nicht viele, aber die klassischen Hersteller müssen halt auch Ergebnisse liefern. Die steigen ein, wenn sich Geld damit verdienen lässt. Die Akkupreise sinken und ab nächsten Jahr lohnt es sich für manche auch von den Kosten her Elektroauto zu fahren. Deswegen finde ich die Analogie falsch. Musk ist eher ein John Carmeck, der für Etablierung notwendiger Entwicklung verantwortlich ist und Proof of concepts liefert. Jemand, der sinnvoll zehnmal schnellere Quantencomputer für Grafikberechnung einsetzt, auch wenn es in erster Generation noch 2000€ pro GPU kostet. Nvidia würde die Technik ein Jahr nach Release aufkaufen und AMD zwei Jahre später eine eigene Variation davon rausbringen.
 
knacker3 schrieb:
wenn es jetzt zb ein 9900k oder 9700k/8700k wäre würde ich dir ja zustimmen
aber ein 7700k ist im durchschnitt in spielen eben nicht schneller als ein 2700x

wenn du schon fullquotes machst, lies auch die letzten beiden Absätze ;)
 
Dai6oro schrieb:
Die Karte 100€ güsntiger und es würden sich sicherlich so einige Abnehmer finden. Für nen shrink ist die Leistung ja ok. Richtig mitspielen wird AMD aber erst wieder mit einer neuen Architektur (2020?)
Lustig, hier scheinen ja doch so einige Leute mit der Preisgestaltung von nvidia bei der 20er Serie einverstanden zu sein.
Sonst müsste sich in diesem thread doch viel mehr Kritik darüber finden lassen das die r7 als direkter Nachfolger der vega 64 nicht denselben msrp von 499$ hat.
Ich erinnere mich das im 2080 und 2080ti thread massives Geschrei war das die Karten teurer sind als die Vorgängermodelle 1080 und 1080ti.
Oder wird manchmal mit zweierlei Maß gemessen?
Ziemlich wenig Kritik hier das die angekündigten rund 35% von r7 zu v64 nicht auch preisneutral verkauft werden oder?
 
  • Gefällt mir
Reaktionen: v_ossi
Der Performancesprung ist ja nicht schlecht, und Konkurrenz belebt das Geschäft. Aber ist lohnt (finanziell) dieser Aufwand für AMD? 7nm ist bestimmt nicht billig, 16GB HBM2 kostet auch einiges und dann schafft man es gerade so mit der 2080 gleichzuziehen? Für mich ein langweiligre Shrink, mich haut das jetzt nicht aus den Socken. Ich hätte da schon mehr erwartet, lassen wir mal die 2080 außen vor, da schafft es AMD gerade mal so mit der 1080 TI gleichzuziehen und die ist ja nun schon ne gaaaanze Weile auf dem Markt
 
Also wenn ich diese ganzen Meckerer und Nvidia-Fanboy-AMD-Hater hier sehe, dann kann ich nur Lachen. Ich habe sowohl die 1080 als auch die Vega64 in Gebrauch. Ich muss ganz klar sagen, dass es mit der Vega ein klar besseres Spielerlebnis ist. Vorallem in Ego Shooter. Die Leistung ist nahezu identisch, aber die meisten Spiele laufen mit HBM2 Speicher durch High Bandwidth einfach flüssiger. Besonders wenn man die volle Grafikpracht einschaltet, kommt der DDR Speicher an seine Grenze. Und ja 8 GB kann man auch schon mit WQHD ausreizen mit MSAA 8! In 4k sind die 16GB schon jetzt eine feine Sache. Ich finde die Karte hat durchaus ihre Berechtigung und wird ihre Käufer finden.

RT Cores werden frühestens mit der nächsten Highendgeneration interessant. Bis dahin ist AMD auch dabei und hoffentlich mit HBM3 Speicher.

Die NVIDIA Trolls hier schimpfen doch hauptsächslich weil AMD den Enthusiasten Markt nicht bedient und die 2080ti weiterhin sehr teuer bleiben kann. Ich glaube dieses Feld überläst AMD gern den Grünen, weil diese Gamer sowieso nur selten die Marke wechseln und immer das Topprodukt von Nvidia kaufen. Also, wozu sollte man dafür Geld investieren, wenn der geringe Marktanteil ohnehin dazu führen würde das es ein Missgeschick wird? Dieses Modell ist für den Computingmarkt gedacht und reicht durch die schwache Performance der 8 GB RTX 2080 sogar um im Highendmarkt mitzuhalten. Dazu hat AMD mehr und besseren Speicher und die Produktion dee kleinen 7nm Chips ist auch günstiger als die aufwändigen riesigen Chips mit RT Codes von Nvidia. Besser geht es doch garnichts für AMD. Aber von guten kostenneutralen Wirtschaften, gerade für Unternehmen mit kleinen Marktanteil und tollen eigenen Ideen und Produkten haben hier anscheint die wenigsten Ahnung.

Geht weiter euren Weg AMD, ihr könnt nicht alles mit einmal erreichen, aber ihr seid auf dem richtigen Weg. Im CPU Bereich ist AMD schon weiter, aber im GPU Bereich verliert man zumindest nicht den Anschluss.
 
  • Gefällt mir
Reaktionen: Sheeep53, Rockstar85 und Sennox
W
Steini1990 schrieb:
Warum testet AMD eigentlich alles auf einem System mit Intel i7-7700K? Grafikkartentreiber, Spielebenchmarks...

Weil sie diese Konfiguration auch bei ihren Treiberprüfungen wohl schon etwas länger verwenden. Man findet es in den Fußnoten zur Treiberbeschreibung.
 
  • Gefällt mir
Reaktionen: Sennox
Blade0479 schrieb:
Ok, tolle Liste, also Werte die gleichauf mit einer A Chip 2070 im OC Modus sind.. Schlägt für mich keine 2080 erst Recht nicht wenn man diese übertaktet.
Gut bin ich doch nicht der einzige, der die Aussage "so schnell wie ne 2080" schon jetzt stark gefährdet sieht. Wenn die Werte stimmen, war das mal wiede rnur blankes Marketinggewäsch.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi und Blade0479
Rage schrieb:
Das hier ist vermutlich sogar ein Minusgeschäft für AMD, um sich ein bisschen Zeit zu verschaffen,....

Seh es mal so, das der 7nm Prozess schon so gut abwirft, das auch eine Gamer Version der Instinct Karten möglich ist.

Verdienen wird AMD mit Vega nicht die große Menge, das ist wohl wahr.
Aber quer subventionieren werden Sie auch nicht.

Eigentlich ist Vega 7 eher ein Titan Konkurrent. Eine Karte die "sowohl-als auch" genutzt werden kann.
Aber in einem Preisbereich der für dieses "Genre" interessant ist, und wohl auch nicht viel tiefer angesetzt werden kann, wegen der hohen HBM Preise.

Ich finde es toll, das AMD immerhin eine Karte nachschiebt und man die Auswahl hat.

Für mich außerhalb des preislich attraktiven Rahmens, aber trotzdem gut, das es Alternativen gibt.

Kann mir auch gut vorstellen, das Vega 7 eher ein Paperlaunch wird zum Release.
AMD wird wohl selber nicht mit dem Riesen Ansturm rechnen.

Kurios das sich die Leute über 2x8pin aufregen.
Die 30% schnellere 2080ti von MSI die blinkt und glitzert wie eine Bordelltür, hat ganze 3 x8pin Stecker. Da juckts niemanden.

Um nochmal den Tatsachen ins Auge zu blicken ...
- AMD hat nicht die Mittel um "hex-hex" eine 120 Watt Karte gegen die 2080ti zu stellen bei 350 €uro Preis.
- AMD kämpft an beiden Fronten ...
- Neue Architekturen Marktreif zu bekommen dauert nun mal ...
- Dafür gibt es nun glücklicherweise eine Zwischenlösung, um die Auswahl zu haben...
- Weiter sollte man bedenken, das wohl auch die Next-Gen Konsolenchips, bereits in der Entwicklung bei AMD sind.

Finde es immer noch beachtlich wie der kleine Laden doch immer wieder versucht mit zu halten.

Zum Thema 7700k als Testunterbau ...
Das Gebashe wäre sichtlich größer, wenn man einen Ryzen 2700x genommen hätte, und die Vergleichbarkeit dann dahin wäre, weil Intel ja die perfekten "GamerCPUs" schlechthin baut.
Warum es kein 8700/9900k geworden ist, sollte geklärt werden.

Aber ich finde es mehr als fair, die CPU der Konkurrenz zu nehmen, die sowieo in 90% aller Testparcours verwendet wird.

Hier zur Klarheit ..
Intel CPU + GPU für Benchmarks = längster Balken
AMD CPU + GPU ... reicht für dich zuhause auch locker aus!
 
  • Gefällt mir
Reaktionen: TheBear1517, Bänki0815, Herr Melone und 5 andere
Huey schrieb:
Weil sie diese Konfiguration auch bei ihren Treiberprüfungen verwenden und das wohl schon etwas länger. Man findet es in den Fußnoten zur Treiberbeschreibung.
Das ist mir bewusst. Ansonsten hätte ich nicht in meinem Post auf die Tests der Grafikkartentreiber verwiesen. Aber trotzdem danke für den Hinweis :).
Ist aber trotzdem interessant das sie weiterhin nach ein paar Jahren noch immer diese CPU verwenden. Eigentlich könnte man langsam das Testsystem für alle Tests auf eine modernere CPU mit mehr Kernen aktualisieren. Das würde vermutlich auch die Ergebnisse der Treibertests verändern und zu besseren Werten führen. Irgendwann muss man doch mit der Vergleichbarkeit brechen.
 
Zuletzt bearbeitet:
Zurück
Oben