News Radeon VII: AMD publiziert Benchmark­-Ergebnisse von 26 Spielen

Ich würde ja gerne Hoffnung haben, dass noch eine 8GB-Version nachgeschoben wird (einzig und allein zugunsten eines günstigeren Preises), jedoch wird es wohl tatsächlich so sein, dass das rein hardware-technisch ausgemusterte Radeon Instinct MI50-Karten sind.
Sonst hätte man wohl von Anfang an gesagt "kommt als 8GB und 16GB-Version".

Naja, mal sehen wie sich die Preise einpendeln und wo sie in den Tests landet - finde die Karte trotzdem recht interessant, sofern der Preis nicht auf den 699$ kleben bleibt (wovon ich jetzt mal nicht ausgehe, dass die RTX2080 auch bei 650€ inkl. Steuern anfängt).
 
@DenMCX

was für einen günstigeren preis erwartest du dir davon?
so teuer wie hier alle tun ist der hbm speicher nun auch wieder nicht
ab man jetzt 650 oder 700€ zahlt macht den braten auch nicht mehr fett hat aber derbe nachteile
selbst bei einer deutlich langsameren gtx 1080 haben die 8gb teilweise kläglich versagt
 
Shoryuken94 schrieb:
Oh ja das sieht man ja, wie sehr sich effiziente Low Level APIs verbreiten. Die MArktverbreitung seht halt auch so aus, dass die Mittelklasse seit Jahren nun 6-8GB Vram anbieten. Ehemalige High End Modelle, die jetzt auch in der Klasse spielen, kommen auch mit 6-8GB vram an.

Natürlich verlangsamt sich das etwas durch Karten wie die 2060, spätestens mit den neuen Konsolen wird es wohl wieder sprunghaft ansteigen, wie damals mit PS4 und Xbox One.

Gerade bei den Texturen sehe ich noch massiven Spielraum, wie man mit relativ wenig Mehrleistung massiv an der Qualität noch etwas rausholen kann. Aktuell setzen die Konsolen hier noch die Limits, dass wird sich wohl im nächsten Jahr auch ändern.



Und wo ist das Problem? Leute die das letzte Quentchen leistung wollten, hatten eh nie eine 2080 /R7 im rechner. Die meisten Karten werden dann ja nicht in den Schrank gelegt und verstauben da.

Sieht man der R9 390(x) noch heute eine sehr gute Karte, mit der man eine Menge Spaß haben kann. Dank 8GB keinerlei Probleme bei aktuellen Spielen in 1080P und bei angepassten Settings in 1440p. Mit einigen Einbußen geht damit auch noch 4K.

Schaut man sich dagegen eine 3,5GB 970 an, sieht es schon trauriger aus... oder die 3GB 780Ti. Es gibt genug Leute, die eine Grafikkarte durchaus 2-4 oder manche auch 4 Jahre nutzen. Bei den hutigen langen Produktzyklen werden da sogar eher mehr als weniger.

Sicher haben in 2 Jahren Enthusiasten eher eine RTX 3080Ti etc. im Rechner. Sie sind aber auch nur ein kleiner Markt! 4K hingegen setzt sich auch immer mehr im Mainstream durch, da relativ günstig. Wenn man den Mark nicht künstlich einschränkt, kann sich hier auch deutlich mehr entwickeln.

Ob ein spiel durch Mods, schlechte Portierung oder sonst was viel Vram verbraucht ist mir in der Situation wo ich zu wenig habe auch relativ egal.

Ich kann mich ärgern wenn das Spiel ruckelt und auf den Entwickler schimfen, ändert aber nichts am miesen Spielgefühl.

Und wer der Meinung ist, ihm sind 8GB bei einer 600-800€ Karte genug, der kann doch ohne sich Gedanken zu machen zugreifen und akzeptieren, dass andere da vielleicht andere Ansprüche haben, als so viel Vram wie eine 170€ Mittelklasse Karte zu haben.
Shoryuken94 schrieb:
Oh ja das sieht man ja, wie sehr sich effiziente Low Level APIs verbreiten. Die MArktverbreitung seht halt auch so aus, dass die Mittelklasse seit Jahren nun 6-8GB Vram anbieten. Ehemalige High End Modelle, die jetzt auch in der Klasse spielen, kommen auch mit 6-8GB vram an.

Natürlich verlangsamt sich das etwas durch Karten wie die 2060, spätestens mit den neuen Konsolen wird es wohl wieder sprunghaft ansteigen, wie damals mit PS4 und Xbox One.

Gerade bei den Texturen sehe ich noch massiven Spielraum, wie man mit relativ wenig Mehrleistung massiv an der Qualität noch etwas rausholen kann. Aktuell setzen die Konsolen hier noch die Limits, dass wird sich wohl im nächsten Jahr auch ändern.



Und wo ist das Problem? Leute die das letzte Quentchen leistung wollten, hatten eh nie eine 2080 /R7 im rechner. Die meisten Karten werden dann ja nicht in den Schrank gelegt und verstauben da.

Sieht man der R9 390(x) noch heute eine sehr gute Karte, mit der man eine Menge Spaß haben kann. Dank 8GB keinerlei Probleme bei aktuellen Spielen in 1080P und bei angepassten Settings in 1440p. Mit einigen Einbußen geht damit auch noch 4K.

Schaut man sich dagegen eine 3,5GB 970 an, sieht es schon trauriger aus... oder die 3GB 780Ti. Es gibt genug Leute, die eine Grafikkarte durchaus 2-4 oder manche auch 4 Jahre nutzen. Bei den hutigen langen Produktzyklen werden da sogar eher mehr als weniger.

Sicher haben in 2 Jahren Enthusiasten eher eine RTX 3080Ti etc. im Rechner. Sie sind aber auch nur ein kleiner Markt! 4K hingegen setzt sich auch immer mehr im Mainstream durch, da relativ günstig. Wenn man den Mark nicht künstlich einschränkt, kann sich hier auch deutlich mehr entwickeln.

Ob ein spiel durch Mods, schlechte Portierung oder sonst was viel Vram verbraucht ist mir in der Situation wo ich zu wenig habe auch relativ egal.

Ich kann mich ärgern wenn das Spiel ruckelt und auf den Entwickler schimfen, ändert aber nichts am miesen Spielgefühl.

Und wer der Meinung ist, ihm sind 8GB bei einer 600-800€ Karte genug, der kann doch ohne sich Gedanken zu machen zugreifen und akzeptieren, dass andere da vielleicht andere Ansprüche haben, als so viel Vram wie eine 170€ Mittelklasse Karte zu haben.
Nicht direkt so angegriffen fühlen. Das ist genau das Problem in diesen Foren.
Ich sehe das eben anders als du, wer damit recht behält wird sich zeigen.
 
  • Gefällt mir
Reaktionen: SVΞN
Hatte nicht AMD eine "lizenzfreie" Alternative zu Nvidia Grid? Das würde die Karte für Linux nochmal interessanter machen.
 
Achim_Anders schrieb:
Wird leider nicht viel bringen.
So sieht es aus. Bei Vega limitiert massiv das Frontend. Ob die Karte nun 3500 oder 4000 Shader hat ist egal. Auch mit 8000 Shadern wäre sie nicht viel schneller, da sie eh nie wirklich gut ausgelastet werden.

Die VII macht in ihrer Form schon Sinn. Man kann teildefekte Chips unterbringen, die Leistung ist die gleiche.
 
AMD testet mit nem 7700K. Sehr geil - made my day.


Wollten halt auch mal massive Hochfrequenzkerne haben. :D

Wobei die haben sie jetzt wohl scheinbar auch. Wollen sie nur noch nicht zeigen.



Für 599€ (inkl. Steuern) wäre die Karte für Spieler interessant, so leider nicht.
 
knacker3 schrieb:
@DenMCX

was für einen günstigeren preis erwartest du dir davon?
so teuer wie hier alle tun ist der hbm speicher nun auch wieder nicht
ab man jetzt 650 oder 700€ zahlt macht den braten auch nicht mehr fett hat aber derbe nachteile
selbst bei einer deutlich langsameren gtx 1080 haben die 8gb teilweise kläglich versagt
Ist der Preis für HBM2-Implementierung so niedrig, dass da nicht mal ein Hunni rauspringen würde?

Erst hieß es Ewigkeiten HBM1/2 wäre unverhätlnismäßig teuer und jetzt ist es wieder preislich "vernachlässigbar"? :freak:
 
@DenMCX Du brauchst ja trotzdem einen Interposer für 4x2GB HBM Stacks, wenn du die Bandbreite behalten willst und der macht schon einiges vom Preis aus.
Wenn du nur 2x4GB Stacks einsetzt, hast du die gleiche Bandbreite wie Vega64 und verlierst mindestens die Hälfte der Mehrleistung gegenüber dieser.
 
  • Gefällt mir
Reaktionen: directNix
v_ossi schrieb:
@Iscaran Hast du dir deine eigenen Links eig. mal durchgelesen?
Keine Ahnung, wieso da so erpicht darauf bist, die Kosten bei AMD klein und bei NVidia groß zu rechnen.

Will bzw. tue ich doch gar nicht. Aber die Aussagen dass ein derart kleiner 7nm Chip Teurer zu fertigen sei als die "Monster"-Klopper von nVidia dürfte so einfach nicht stimmen.

Klar der HBM bei AMD kostet mehr. Allein schon wegen der 16GB vs nur 8GB vermutlich ca. das doppelte (rein VRAM betrachtet).

Aber der 330mm^2 Chip von AMD ist sicherlich billiger wenn nicht sogar deutlich billiger zu fertigen als der 550mm^2 Chip von nV.

RAM außen vor.
 
@Iscaran Da wir die genauen Fertigungspreise nicht kennen, kann das keiner sagen. Zudem wissen wir nicht, wie die Yield Raten sind. Da wir keine Vertragsdetails zwischen TSMC und AMD / Nvidia kennen, ist es alles reine Spekulation. Vieles ist ja auch Verhandlungssache. Alleine der Zeitpunkt wann man produziert hat schon massiven einfluss. Am Anfang wird 7nm z.B. deutlich teurer sein, da man den Prozess nicht einfach so überall fertigen lassen kann. Der Andrang dürfte recht groß sein, womit die Slots aktuell wohl recht teuer sind.
 
Wie zu erwarten...
Bei den gezeigten Werten war klar, dass man im Schnitt eher knapp dahinter liegt.

Wenn wie laut AMD 25% mehr Leistung bei selbem Verbrauch aus dem Prozess kommen, dann kann man es ja ziemlich gut grob einschätzen...
Bis zu 25% aus dem Prozess, der Rest im Bestfall aus Architekturverbesserungen, im schlechtesten Fall aus höherem Stromverbrauch. Also geht die Leistungsaufnahme höchstens minimal runter im Vergleich zur V64. Dafür spricht auch der größere Kühler und dass AMD ansonsten kein Wort zur Leistungsaufnahme verloren hat.
Das macht dann grob eine 1080Ti von AMD. Release: März 2017
Um wie im ersten Post des Threads stehend auf ein halbes Jahr Rückstand zu kommen, muss man mMn schon echt einiges ausblenden. Für mich sind das knapp 2 Jahre Rückstand.
AMD kann mMn von Glück reden, dass NVidia sich für RT entschieden hat. Mit einem 2000er-Lineup ohne RT und dafür günstigeren Preisen könnten sie wohl vor Navi nicht mithalten.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC
Dai6oro schrieb:
Für mich ist klar, dass diese Karte gar nicht als Consumer Karte kommen sollte, war auch nirgends vorgesehen und jeder war überrascht, denn eigentlich hatte jeder Navi erwartet. Da aber Nvidia dankenswerterweise den Preis nach oben getreiben hat, 7nm wohl besser läuft als angenommen und noch Kapazitäten frei waren hat man eben kurzerhand die Karte auf den Markt geschmissen. Somit wird man wohl nicht allzuviel Verlust machen und man hat trotzdem was Neues auf dem Markt. Einen großen Impact wird die Karte freilich nicht haben aber ich denke das ist AMD bewusst. Ist halt eigentlich ne HPC Karte.

Dem schließe ich mich an, weils der wohl wahrscheinlichste Hintergrund ist. Ihr fehlt auch das RX Kürzel ähnlich wie GTX bei der Titan Reihe. Wie wirtschaftlich an sich die Fertigung ist, dürfte man wohl anhand der Custom Auswahl festmachen können
 
Hopsekäse schrieb:
AMD kann mMn von Glück reden, dass NVidia sich für RT entschieden hat. Mit einem 2000er-Lineup ohne RT und dafür günstigeren Preisen könnten sie wohl vor Navi nicht mithalten.
Ich sehe es nicht nur an dem Geschriebenen, sondern auch an deiner Signatur, hier schreibt ein nvidia-Fanboy. ;-)
 
  • Gefällt mir
Reaktionen: SVΞN
Banned schrieb:
AMD testet mit nem 7700K. Sehr geil - made my day.

Wollten halt auch mal massive Hochfrequenzkerne haben. :D

Wobei die haben sie jetzt wohl scheinbar auch. Wollen sie nur noch nicht zeigen.

Für 599€ (inkl. Steuern) wäre die Karte für Spieler interessant, so leider nicht.

Aber nur für so [behalte ich für mich] wie dich...

Was würde ein GPU Benchmark mit einer leistungstechnisch unbekannten CPU Sinn machen?

By the Way AMD testet schon lange auf diesem Grafiktestsystem (inkl. Intel 7700K). Von daher sehr löblich von AMD, dass die Basis gleich bleibt und Benchmarks von AMD unter einander vergleichbar bleiben...
Bzw. man Aussagen über z.B. unterschiedliche Treiber über die Zeit bekommt....

Aber noch besser da AMD weiß was sie tun - dank neuer Treiber etc pe. pe. hat AMD seine eigenen Grafikkarten wirklich durch den kompletten Parcours geschickt [und nicht einfach Vega64 FPS von anno dazio genommen]...
 
  • Gefällt mir
Reaktionen: Sennox
@Iscaran Ganz ehrlich, ich weiß nicht, worauf du überhaupt hinaus willst. :confused_alt:

Ich teile deine Vermutungen bezüglich der Produktionskosten des DIEs zwar nicht, aber selbst wenn die stimmen, ist die Produktion der Radeon VII immer noch teurer, als die Herstellung der 2080er Turing. Gemäß deiner Quellen und Berechnungen. Das habe ich in meinem letzten Post glaube ich ganz nachvollziehbar durchgerechnet.

Was bringt es dir jetzt noch mal darauf herum zu reiten, dass der DIE selber evtl. für NVidia teurer in der Produktion ist?

PS.: @Shoryuken94 Wo siehst du bei Texturen eigentlich das riesige Verbesserungspotential? Oder, dass in Zukunft großartig mehr Speicher benötigt wird?
Mir fällt so spontan kein Spiel ein, das hier getestet wurde, welches mit 8GB nicht die höchste Texturstufe fahren konnte.
 
Novasun schrieb:
By the Way AMD testet schon lange auf diesem Grafiktestsystem (inkl. Intel 7700K). Von daher sehr löblich von AMD, dass die Basis gleich bleibt und Benchmarks von AMD unter einander vergleichbar bleiben...


Cool, in 10 Jahren dann wahrscheinlich auch noch mit dem 7700K...

Wen juckt denn schon, wie es im internen Vergleich aussieht? Man will sich doch mit der Konkurrenz messen, oder wie?

Also sollte man doch am besten mit einer CPU testen, die auch in aktuellen Testkonfis vorkommt, also 8700K oder 9900K oder zumindest mit einer eigenen CPU (2700X). Meine Meinung.


Ich finde es trotzdem irgendwie lustig, dass man mit ner Intel-CPU testet. Aber es haben eben nicht alle Sinn für Humor. ;)

Novasun schrieb:
Aber nur für so [behalte ich für mich] wie dich...
 
Warten wir es mal ab, wenn der Test in etwa stimmt war es genau das was ich voraus gesagt habe, die Vega VII könnte sogar schneller werden, da der neue Treiber nicht verwendet wurde, wird sie evtl. schon etwas schneller sein wie ne 2080.

Ich werde es mir überlegen wenn der Preis etwas runter geht hole ich sie mir, allein schon wegen den 16GB HBM2, was soll man denn jetzt noch mit 8GB VRAM, das gab es schon vor ca. 3 Jahren :)
 
Im April '17 habe ich für meine MSI 1080ti Gaming X 753€ bezahlt... und knappe 2 Jahre später kommt nun also AMD mit gleicher Leistung für 700$ ums Eck. In meinen Augen hoffnungslos überteuert.
 
@daniel 1301
Das ist zwar wahr, ist aber vorallem Nvidias PReistreiberei geschuldet ;)
Außerdem hat die neue Vega 16 GB HBM RAM!
Ob man das nun braucht oder nicht ist erst mal egalaber DAS gab es damals nicht für das Geld.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC
Zurück
Oben