News AMD Vega: Eindeutige Hinweise auf GPU mit 4.096 Shadern

stoneeh schrieb:
Damals hat man schon von jeder Seite gehört "nein, 64mb reicht nicht, du brauchst 256mb, dass das Spiel flüssig läuft". Dass die GPUs nicht schnell genug waren, um ein Spiel in der Auflösung in den Details zu berechnen, in der es soviel VRAM belegt hätte, hat man nicht geschnallt.

Bei der GTX 970 ist es aber eben genau so der Fall.
~50fps Durchschnitt, aber unsägliche Frametimes.
Der Chip könnte mehr, als der VRAM zulässt.
Höher aufgelöste Texturen belegen nämlich mehr VRAM als sie die GPU stärker auslasten.
 
Zuletzt bearbeitet:
stoneeh schrieb:
Es gibt derzeit kein Spiel, das mehr als 8GB benötigen würde - zmd nicht bei Settings, bei denen die besten aktuellen GPUs mehr als 60 FPS schaffen würden. Und trotzdem gibt's anscheinend noch genug User, die 32GB auch kaufen würden.

Zumindest nicht auf FHD.
Aber wir reden hier nicht über heutige Anforderungen auf FHD, sondern um kommende Anforderungen für Auflösungen wo eine Vega Sinn macht. Ich mein, man kann sich auch für FHD ne 1080ti kaufen, macht aber wenig Sinn.
Und niemand redet hier von ner Low End Karte mit 16GB VRam.
Ausserdem fressen Epic Texturen nur VRam und keine GPU-Leistung, aber das raffen viele bis heute nicht.
 
Ap2000 schrieb:
Bei der GTX 970 ist es aber eben genau so der Fall.
~50fps Durchschnitt, aber unsägliche Frametimes.
Der Chip könnte mehr, als der VRAM zulässt.

Ich hab ne 390, die ca die gleichen FPS wie die 970 macht. 8GB. Und nen Freesync Monitor. Also die Frametimes bzw Darstellung am Monitor dementsprechend besser. Und weisst du was ich mache, wenn bei mir die FPS unter 60 gehen? Ich dreh die Details runter.

Sorry, aber wer the f... spielt bei unter 60FPS?
Ergänzung ()

Chillaholic schrieb:
Zumindest nicht auf FHD.
Aber wir reden hier nicht über heutige Anforderungen auf FHD, sondern um kommende Anforderungen für Auflösungen wo eine Vega Sinn macht.

Jep, und in höheren Auflösungen ist die GPU wieder nicht schnell genug. Wie schon von mir gesagt. Man sollte halt auch lesen und verstehen, was man zitiert.

Schau dir mal die Benchmarks der 1080 Ti in 4K an.
 
8 GB? Hahaha dass ich nicht lache! Was ein Speicherkrüppel. Wäre jemand so nett und verlinkt hier den "Zettel"? Dann sieht jeder, dass eine High End Karte schon nächstes Jahr 24 GB haben sollte.
 
Popey900 schrieb:
Alleine die Fury ohne änderungen in 14nm und 8GB HBM wäre schon eine Rakete.

8GB HBM2 sind wahrscheinlich effektiver wie 12GB DDR5 Ram.

Öhm nein, die wäre in 14nm noch exakt genau so schnell wie vorher (ausser man könnte sie viel höher Takten, was nicht automatisch gegeben ist), und Geschwindigkeit von Ram kann niemals Einfluss auf dessen Menge haben. Wenns zu wenig ist, ists zuwenig. Zumal große scharfe Texturen quasi keine Leistung kosten. Die benötigen einfach nur Platz.
 
stoneeh schrieb:
Schau dir mal die Benchmarks der 1080 Ti in 4K an.

Und zwischen FHD und 4K hast du eben bestimmt WQHD vergessen, wa?
Man sollte vielleicht nicht all zu voreilig seinem Vorposter ans Bein Pissen und lieber mal sein Hirn einschalten. :lol:
 
cruse schrieb:
War das bei AMD jemals der Fall ?

Ja, zum Beispiel bei der HD5000 Serie hat das funktioniert.

zeedy schrieb:
8 GB? Hahaha dass ich nicht lache! Was ein Speicherkrüppel. Wäre jemand so nett und verlinkt hier den "Zettel"? Dann sieht jeder, dass eine High End Karte schon nächstes Jahr 24 GB haben sollte.

Ja ne is klar, aber sonst gehts dir gut? :lol:
 
stoneeh schrieb:
Sorry, aber wer the f... spielt bei unter 60FPS?

"fuck"?

Da ich einen normalen 60Hz Monitor habe, ist für mich der Unterschied zw. 50 und 60Hz nicht allzu groß. Zumal es darum natürlich sowieso überhaupt nicht ging.

zeedy schrieb:
8 GB? Hahaha dass ich nicht lache! Was ein Speicherkrüppel. Wäre jemand so nett und verlinkt hier den "Zettel"? Dann sieht jeder, dass eine High End Karte schon nächstes Jahr 24 GB haben sollte.

Bitte, hör auf ihn auch noch heraufzubeschwören! :D
 
Um es mit den Worten der NV-Fanboys zu sagen: Was interessiert mich DX12 ich brauch heute die Leistung bei DX11.
Oder anders gesagt: Was interessieren mich 12GB VRAM, heute reichen doch 8GB völlig.
Ihr solltet euch mal entscheiden was ihr wollt! Leistung jetzt sofort oder für die Zukunft? Wenn die Vega mit 8GB kommt reicht sie fürs hier und jetzt. Wenn sie mit 16GB kommt ist sie auch für die Zukunft.
Als die GTX980 mit ihren 4GB kam haben sich die grünen Trolle gefreut und dann kam die R9 390X mit 8GB und es wurde gebasht was das Zeug hält. Wozu 8GB, die braucht kein Mensch. Sehr euch mal die Benches bzw. Frametimes beider Karten im Vergleich bei UHD an.
So und jetzt könnt ihr jammern.
 
zeedy schrieb:
Wäre jemand so nett und verlinkt hier den "Zettel"? Dann sieht jeder, dass eine High End Karte schon nächstes Jahr 24 GB haben sollte.

Bitteschön: https://www.computerbase.de/forum/attachments/12052015492-jpg.495986/
:rolleyes:

12052015492-jpg.495986
 
@KodeX
Das die Radeons in höher fordernden bzw. auflösenden Szenarien offtmals merklich nochmal ein gutes zusätzliches Stück Leistung auf die Straße bringen konnten ist richtig.

Bei Polaris ist das aber nicht mehr in dem Maße der Fall, da die Auslastung der einzelnen Bereiche des Chips deutlich effizienter vorliegt.
Das wurde auch im CB Rx480 Test bemerkt.

Ich gehe davon aus, dass ein möglicherweise ähnliches Verhalten auch bei Vega zu beobachten sein könnte.

Thema "Zukunftsicher" und GPU.
Es gibt sicher eine ganze Menge an Beispielen, in dieser einzelne GPU Modelle sehr lange die Zeit überleben konnte, aus welchen Gründen auch immer und gerade in den letzten Jahren konnte sich dies häufuger vorallem auf den Speicherausbau zurückführen lassen.
Oftmals jedoch geht zuerst der GPU die Puste aus, noch ehe ein wirklich breitgefächertes Speicherlimit erreicht wird, in diesen ein Großteil der möglichen im Alltag erwerbbaren Anwendungen nurnoch mit starken Defiziten ausgeführt werden können.

Für mich gibt es da kein "Zukunftsicher" sondern den Erwerb zum Zeitpunkt des Erwerbswunsches mit dem Wissen auch eventuell nicht alles an Spielen über Jahre hinweg mit stehts maximalen Einstellungen spielen zu können.
 
tensai_zoo schrieb:
"Das wäre mehr als Polaris 10 schafft, aber immer noch geringer als der Takt von Nvidias GP104- oder GP102-GPU."

Der Laie würde jetzt denken AMD < NVidia. Der Experte weiß. Takt ist nicht alles.

12,5 TFlop sind 12,5 TFlop.Lol
 
So, bitte als Dual GPU, mit guter Spannungsversorgung und Anschlüsse nur 1 Blende belegend, sodass die @Wakü perfekt für GPGPU Aufgaben wäre. Weiss einer gerade auch, wie viel DP Leistung sie haben wird? Meine MilkyWay@Home läuft böse gut auf ner HD6990 während ne GTX970 schlechter als ne HD5850 performt.
 
Wenn es so kommt wie angekündigt in Sachen HBCC:

https://www.youtube.com/watch?v=zAIM-EGYa14

mache ich mir wenig Sorgen darum, ob 8GB HBM2 ausreichen werden, denn für mich wird das mit Sicherheit so sein.

Nun gut, ich habe auch nicht vor auf 4K/UHD in naher Zukunft zu spielen, da es mir verfrüht und wenig lohnend erscheint (zumal ja jetzt zum Marktstart schon eine GTX 1080Ti in Maximaleinstellungen die neueren Titel wie Ghost Recon Wildlands und Deus Ex - Mankind Divided oder selbst ein schon älteres Rise of the Tomb Raider nicht flüssig (mit 60 fps) zum laufen bringt, m.E. also immer noch eine WQHD GPU ist).

Für Full-HD und WQHD(-Downsampling) sollte das dann eigentlich für 4+ Jahre reichen (wenn HBCC so gut funktioniert wie angekündigt, zumal da sicherlich noch über die Zeit per Treiber optimiert werden wird).

Was die Leistung von RX Vega angeht, so könnte ich mir vorstellen, dass das ähnlich wie damals zu Fiji-Zeiten ausfallen wird, also eine RX Vega Fury (Vega10 Vollausbau) knapp unterhalb einer GTX 1080Ti zu Marktstart (aber - auch wegen der neueren/vollwertigen 14/16nm Architektur im Gegensatz zu nVidias getuntem Maxwell Shrink Pascal) und in ca. 1-2 Jahren dann schon oberhalb einer GTX 1080Ti platziert sein dürfte.

Eine RX Vega 590 (Vega10 beschnitten) dürfte dann knapp oberhalb (ca. 10%, so wie damals Fury vor einer GTX 980) einer GTX 1080 ansetzen, eine RX Vega 580 (Vega11 Vollausbau) zu Beginn zwischen einer GTX1070 und GTX 1080 (als R9 390X Nachfolger) positioniert sein, später dann auf GTX 1080 Niveau, und eine RX 570 Vega (Vega 11 beschnitten) dürfte leicht unterhalb einer GTX 1070 (als R9 390 Nachfolger) zum Marktstart zu finden sein was die Leistung angeht, aber bald wegen der Architekturvorteile deutlich davor zu finden sein.

Dass die Vega Architektur mittel- bis langfristig der Pascal Architektur klar überlegen sein wird, daran habe ich keinerlei Zweifel zumal die XB Scorpio ja auch mit Vega Technik kommen dürfte (somit die Marschrichtung vorgeben dürfte) und da wird nVidia auch mit Volta nachziehen müssen, was eine vollwertig neue Architektur angeht.
 
Zuletzt bearbeitet:
Hatte AMD nicht ein Speichetcontroller vorgestellt, der den Speicherbedarf reduziert? Dann würden 8Gb voll ausreichen.
 
Jannis G. schrieb:
Hatte AMD nicht ein Speichetcontroller vorgestellt, der den Speicherbedarf reduziert? Dann würden 8Gb voll ausreichen.

Der 2 post über dir.
 
Chillaholic schrieb:
Fury mit 4GB HBM Flaschenhals, Vega mit mindestens 8GB HBM2.
Die Fury war nicht scheiße und wie man in Doom und AOTs gesehen hat auch ne Rakete unter Vulkan, hatte nur halt dank der zu großen Fertigung keine gute Effizienz und der 4GB VRam eine Designschwäche.

die 4gb hbm waren schon, laut der fachpresse und experten der branche, pre-release ein flaschenhals. zwei jahre nach release der karte sucht man immernoch vergleblich nach dem enormen performancedefizit der karte wegen den 4gb hbm :rolleyes: gut, dass man in der zwischenzeit mit halbgaren behauptungen genug gegen die fury gehetzt hat, dass sie wie blei in den regalen liegt - applaus an die "fachpresse". aber vielleicht erfüllt sich ja der wunsch des 4gb hbm "krüppelspeichers" nach dem release vom nachfolger, irgendwann muss es doch endlich mal soweit sein. ich freu mich schon auf die schlagzeile anfang 2018: "Wie man schon 2015 wusste, geht der R9 Fury in BF0815 mit unkomprimierten 4k texturen in UHD die VRam-Puste aus, 4GB waren einfach zu wenig." Wäre echt besch..., wenn zu den 25 FPS der fury auchnoch einbrüche vom vram dazukommen - UNSPIELBAR.

mit einem undervolt von den üblichen -96mv liegt die fury im mittel bei einem verbrauch von ganz grob 230w und wo liegen 980ti, 1080 ti und titan? 230w? die 230w verbrauch bei nvidia sind aber viel effizienter :freak: noch nie hat sich jemand bei nvidia über den stromverbrauch beschwert (ok thermi ist ne ausnahme, aber das ding war eher ein fön als ne graka) - wieso auch.
aber die fury mit dem selben verbrauch ist natürlich ein stromfresser. der einzige unterschied ist, dass man bei der fury im wattman (vormals afterburner, sapphire trixx) von der höchsten zahl -96 rechnen muss - ist zwar nicht einfach, aber man kanns mit einem guide durchaus schaffen.

übrigens sind die 4gb HBM1 keine "designschwäche", sondern das einzig technisch machbare, wenn man HBM1 verbauen möchte.


@Der Zettel: LOL :D kannte ich noch garnicht
 
Zuletzt bearbeitet:
tensai_zoo schrieb:
"Das wäre mehr als Polaris 10 schafft, aber immer noch geringer als der Takt von Nvidias GP104- oder GP102-GPU."

Der Laie würde jetzt denken AMD < NVidia. Der Experte weiß. Takt ist nicht alles.

Der Laie würde jetzt denken AMD < NVidia. Der Experte weiß AMD < NVidia. Wäre es anders, könnte sich Nvidia nicht diese Preispolitik leisten, die uns allen so weh tut.
Ich glaube keiner hier erwartet ernsthaft, dass AMD in der Lage ist Nvidia in Sachen Performance zu überholen.
Insgeheim hofft man einfach, dass sie eine zukunftsfähige Leistung, vielleicht auf Niveau einer 1080TI hinbekommen und halt deutlich weniger kosten.
 
Zurück
Oben