News AMD Vega: Eindeutige Hinweise auf GPU mit 4.096 Shadern

duskstalker schrieb:
übrigens sind die 4gb HBM1 keine "designschwäche", sondern das einzig technisch machbare, wenn man HBM1 verbauen möchte.

Das war mir bewusst, es war aber auch eine Designentscheidung vom AMD, HMB1 zu verbauen. :D

Und willst du mir erzählen, ich soll manuelles Undervolten mit Stockvoltag vergleichen?
Und dass man Nvidia Karten nicht undervolten kann? Mach dich nicht lächerlich. Polaris kann man auch oftmals undervolten, aber halt nicht immer, sonst würde AMD die Stockvoltage niedriger ansetzen.

Es ging mir eher darum, kleinerer Fertigungsprozess bringt üblicherweise weniger Stromverbrauch und höherer Takt.
 
Ich denke Vega wird in etwa so schnell wie eine GTX 1080 Ti. Dafür gibt es folgende Anhaltspunkte:

- Der Chip ist ziemlich genau so groß
- Eine neue Architektur die mit Sicherheit min. 15% Leistung bringt
- HBM2 Speicher und damit eine extrem hohe Speicherbandbreite
- Ein weiter ausgereifter 14nm Prozess den AMD seit der RX 480 kennt -> Daraus erfolgt ein hoher Takt
________________

Wenn man sich das ganze mal in Ruhe anschaut, dann kann man doch mal überlegen.

Man nimmt zwei RX 480 die zusammen auf 4600 Shader kommen. Die 600 extra Shader kann man für die Architekturverbesserungen einrechnen. Des Weiteren wird der Takt wohl noch eine Ecke höher sein und man hat halt den HBM2 Speicher.

Man kann also min. mit einer Leistung von 200% der RX 480 rechnen. Damit kommt sie ziemlich exakt in den Bereich einer GTX 1080 Ti +/- 5%. Eine GTX 1080 Ti bietet etwa 205% der Leistung einer RX 480.
 
nach der HD2900 serie und der mittelmäßigen hd3000 serie hat man auch geglaubt amd ist vor die hunde gegangen, dann kamen HD4000 und schließlich der "nvidia sargnagel" HD5000 und nvidia hat sich gleichzeitig mit thermi blamiert. sogar ne onchip crossfirekarte (glaub die HD5970 wars?) hat weniger verbraucht als die gtx 480 :evillol:

soll heißen - alles ist möglich. ich traue amd/radeon durchaus nochmal einen großen wurf zu. ob das unbedingt vega ist, weiß ich nicht.

Chillaholic schrieb:
Und willst du mir erzählen, ich soll manuelles Undervolten mit Stockvoltag vergleichen?

ja genau, weil die fury mit zu viel core voltage ausgeliefert wird. an einem regler ist noch niemand gestorben :rolleyes: außerdem brüllen die grünen fanboys immer nach oc ergebnissen, weil stock die karte "viel" langsamer ist. da kann man doch wohl auch undervolt einfließen lassen?

Chillaholic schrieb:
Und dass man Nvidia Karten nicht undervolten kann? Mach dich nicht lächerlich.

ja, genau das:

Wer sich jetzt ärgert und Gleiches auch von der GeForce-Karte verlangt, wird leider enttäuscht zurückgelassen. Eine Spannungsabsenkung ist derzeit nicht vorgesehen, denn dies geschieht nur intern über die Absenkung des Power Targets. Da Boost ein sehr fragiles Mikrosystem ist, ist jede Absenkung auch mit den Einschränkungen beim tatsächlich erreichbaren Boost-Takt verbunden, was zum Teil erhebliche Performance-Einbußen mit sich bringt.

Traurig muss man deshalb natürlich nicht sein, denn dieses System ist bereits so filigran ausbalanciert, dass es eh kaum Optimierungsspielraum gibt. Deshalb ist diese Option im Afterburner auch nicht vorhanden, da nur eine Anhebung angeboten werden kann
http://www.tomshardware.de/radeon-r...-effizienzsteigerung,testberichte-242015.html

@odst: fangen wir jetzt auch noch an generationenübergreifend zu vergleichen? maxwell ist der gegner von fiji, und nicht pascal. wie wärs dann mal mit einem showdown der 480er? gtx 480 vs rx480?
 
Zuletzt bearbeitet:
@duskstalker
Du musst dich nochmals mit dem OC & UV Fähigkeiten von Pascal Grafikkarten ausseinander setzen. UV geht schon seit Release der neuen 10X0 Generation problemlos.
 
Er liest offenbar nur Tests aus 2015, das musst du ihm verzeihen. :D

duskstalker schrieb:
@odst: fangen wir jetzt auch noch an generationenübergreifend zu vergleichen? maxwell ist der gegner von fiji, und nicht pascal. wie wärs dann mal mit einem showdown der 480er? gtx 480 vs rx480?


Lustig, sobald AMD ne Vega auf den Markt wirft können wir die gerne vergleichen.
Bis dahin ist die Fury X immer noch die stärkste AMD-Karte und tritt damit gegen Pascal an.
Die RX 480 habe ich übrigens auch als Beispiel gebracht, AMDs neuste Architektur auf dem Markt.
Lässt sich auch oft undervolten, aber nicht immer gleich gut.
Trotzdem geht es um die Stockvoltage, da nur die repräsentativ für die ganze Serie ist.

Wie gesagt, ich wollte auch eigentlich nur darauf hinaus, dass AMD mit 14nm im Vergleich zu 28nm weniger Verbrauch und höhere Taktzahlen schafft. Wieso du das als Angriff auf AMD siehst nur weil in meiner Sig ne Nvidia drin ist versteh ich nicht :D
 
Zuletzt bearbeitet:
die meisten karten, so auch bei nvidia, kommen nicht mit einer unnötig hohen vcore aus der fabrik - das ist aber bei fury halt der fall.
deshalb kann man fury so gut undervolten, und die anderen karten nicht, weil die eben schon viel näher am sweetspot laufen.

warum das bei der fury so ist, kann man nur mutmaßen, fakt ist halt, dass die fury dahingehend extrem viel luft hat und man den undervolt immer mitnehmen sollte - so wie man auch bei einer custom gtx 1080 noch viel luft beim takt hat.

ich wollte nur aufzeigen, dass fury mit einer optimierten vcore den selben verbrauch wie eine gtx980ti hat, und die beiden liegen auch leistungstechnisch gleich auf. von daher gibts keinen grund den verbrauch der fury zu bemängeln.


ja der artikel ist die eine sache - ich habe hier ne aktuelle sapphire r9 nitro - und die hat genau die selbe vcore von 1,25v wie die ersten karten auch - nur dass die mit einem 1050mhz oc läuft und trotzdem -96v macht - das ding kommt komplett von sapphire, und vor der nitro gabs noch ne tri-x, und die nitro ist mittlerweile selbst nochmal gereift. es wäre absolut kein problem für sapphire die stock vcore um mindestens -48mv zu senken.
 
Zuletzt bearbeitet:
Steht sogar oben in deinem Artikel, dass sich ältere Modelle nicht gut undervolten lassen.
AMD hat da einfach keine Lust gehabt, Karten auszuliefern die evtl. Bluescreens verursachen und später trotz optimiertem Prozess wohl nicht mehr an den Schrauben gedreht.
 
Nun denn - warten wir mal ab was denn jetzt wirklich kommt - und was das Ding dann kann.
 
Dann vergleichen wir mal mit dem Vorgänger:

FuryX: 28nm, 4.096 Shader, 1.050MHz, 8.601 GFLOPS, 4GB HBM Gen1
Vega: 14nm, 4.096 Shader, 1.500MHz(?), 12.500 GFLOPS, 8GB HBM Gen2

Selbe Menge Shader, ~50% mehr Leistung.
Das klingt doch ganz gut. Erzielt nur durch (stumpfe) Takterhöhung?
 
Zuletzt bearbeitet:
DjangOC schrieb:
Meine MilkyWay@Home läuft böse gut auf ner HD6990 während ne GTX970 schlechter als ne HD5850 performt.
wenn du danach gehst hol dir ne 280x ^^
http://milkyway.cs.rpi.edu/milkyway/forum_thread.php?id=3551&sort_style=&start=160
das Programm als Benchmark kannst du vergessen. einfach nur schlecht programmiert.

Austrokraftwerk schrieb:
kram den bitte nicht nochmal raus. die Schreibschrift stammt von nem 10 jährigen. kann man ja keinem antun ...

d3nso schrieb:
Ja, zum Beispiel bei der HD5000 Serie hat das funktioniert.
du wolltest wohl sagen ATI HD5000er Serie ^^
 
Zuletzt bearbeitet:
cruse schrieb:
kram den bitte nicht nochmal raus. die Schreibschrift stammt von nem 10 jährigen. kann man ja keinem antun ...

So alt wie das Bild ist, ist der aber heute auch schon erwachsen. :D
Es gibt einfach Memes hier die sind älter als dein Registrierungsdatum.
 
Einhörnchen schrieb:
Der vergleichsweise geringe Preis beim GTX 1080 Ti Launch lässt hoffen, dass Vega stark wird :-)

Das denke ich auch so, vor allem der Preis des 1080ti kamm unerwartet mit 829,- viel zu niedrig! In meisten foren wurde preislich um nicht unter 999,- geschäzt.

MfG
 
@cruse

sag bloß du kennst DEN zettel nicht? :D ... absolut legendär

topic:

vega oder 1080ti, das wird bald meine sorge sein ^^

gegen die 1080ti spricht nur, dass sie kein adaptive sync kann und ende des jahres ein 4k Freesync monitor angeschafft wird. ich hoffe einfach mal, dass vega nah an der 1080ti dran ist und mir somit die entscheidung erleichtert wird. sollte vega aber im bereich der 1080 non-ti landen ... muss es wohl eine NV karte bei mir werden.
 
Kann oder darf AMD keinen GDDR5X RAM benutzen?
Ich schätze, sie verwenden ihn nicht, weil sie damit gegen Nvidia untergehen würden.
 
Einhörnchen schrieb:
Der vergleichsweise geringe Preis beim GTX 1080 Ti Launch lässt hoffen, dass Vega stark wird :-)

Naja ca. 900€, vielleicht sogar noch mehr für ein vernünftiges Custommodell ist nicht gering.
Ich hoffe auf eine gute Vega im besseren Preisbereich unterhalb 600€.
 
Hoffe sie wird gut, wollte im Herbst auf einem reinen AMD-System umsteigen. Mal schaunen was es wird und ob es sich überhaupt bei meinem Hauptspiel (wow) auszahlt umzusteigen.
 
Das ist mathematisch richtig. Allerdings scheinst du bewußt ignorieren zu wollen, dass die Fury X mit 4GB HBM wunderbar klar kommt unter 4K. Texturkompression, Caching, whatever, bin kein Grafikkarteningenieur und kein Informatiker.

Ich glaube auf den Test kann ich jede 3. Seite verweisen. Natürlich wäre es Marketingtechnisch besser, wenn der Mainstream Vega 8GB hat, die Highend-Vega 12 oder 16GB
 
Zurück
Oben