News ve.ga: Offizielle Vorschau auf AMD Vega am 5. Januar

Ja gut, wenn teure Hardware Menschen glücklich macht dann kann ich das nachvollziehen, ich freue mich ja auch wenn ich High-end nach jahren zu spottpreisen bekomme :p

Nur das man dann noch irgendwelche Unterschiede sehen können will wenn man seinen Charakter schnell durchs Spiel bewegt ist schlicht nicht argumentierbar. Bei Deus Ex wurde das ja auch von Cbase gut dargestellt, dass Unterschiede zwischen very high und Ultra in der Bewegung unmöglich zu erkennen sind, der VRAM-Verbrauch aber dafür exorbitant steigt.

Da gehts wohl doch eher um die Genugtuung das Silizium im Gehäuse zu haben.
 
@Schnitz

Liegt ja natürlich nicht nur an den PC-Komponenten. Oftmals ist der falsche Monitor der Grund. Vorher sind mir viele Feinheiten nicht aufgefallen mit DSR bei 3440x1440 @21:9 sieht man schon oftmals Unterschiede zwischen High und Ultra. Bringt ja nichts wenn man 2000 Euro PC rumstehen hat, aber auf einem alten 4:3 mit 800x600 Auflösung spielt.
Klar es gibt einige Sachen die sieht man nicht immer, oder es gibt auch viele Effekte die einfach nur nervig sind (Bloom, Depth of Field, Motionblur, usw)
 
AMD ist auf jeden Fall jetzt schon König der Vorankündigungen... hail to the :king:
 
Herdware schrieb:
Texturqualität ist so eine Sache. Man kann sie relativ problemlos reduzieren und hat immer noch gute Qualität. Deswegen wird es nicht vorkommen, dass Grafikkarten mit 3 oder 4GB in absehbarer Zeit völlig nutzlos werden.

also da muss ich dir widersprechen
texturen gehören zu den grafikeinstellungen die sich am deutlichsten bemerkbar machen
stell mal alles in einem spiel auf hoch und dann mittlelere oder niedrige texturen
das sieht furchtbar aus
aber das aller tollste an texturen ist dass sie so gut wie keine leistung kosten

übrigens gibt es jetzt schon spiele wo 3gb und 4gb karten nicht mal mehr mittlere texturen schaffen
selbst 6gb reichen bei inzwischen mehreren spielen nicht mehr für die höchsten einstellungen aus wo man den unterschied doch sehr deutlich sieht (cod und deus ex)
selbst die 8gb einer 1080 reichen zb bei ark nicht mehr aus

meiner meinung nach sid auch 12gb vram nicht zukunft sicher
ich bin mir sicher dass noch dieses jahr dass ein oder andere spiel an die 12gb ran kommen wird
und wenn eine karte nicht mal mehr 1 jahr ausrichend vram besitzt ist dass für mich nicht zukunft sicher

meine nächste karte wird 16gb ram haben sonst kaufe ich keine neue
 
Schnitz schrieb:

Wir reden hier nicht von Autos, sondern von Grafikkarten. Einstiges highend ist nach einigen Jahren kein highend mehr, sondern Mittel, wenn nicht sogar Einsteigerklasse. Ich persönlich könnte mit deiner 780 so rein gar nichts anfangen.Wenn ich mit 1080p spielen würde, mir Frames und Texturen egal wären, ok, dann kann man die vielleicht noch nutzen. Aber es gibt nunmal Leute, die wollen PC-Spiele in bester Qualität, hoher Auflösung und mit >120fps genießen. Ich betreibe einen 2560x1440 Monitor und möchte auch die 144 HZ nutzen. Und das schaffe ich selbst mit meiner bis an die Schmerzgrenze übertakteten 1080 nicht.
 
motul300 schrieb:
meine nächste karte wird 16gb ram haben sonst kaufe ich keine neue

Ganz schön anspruchsvoll der feine Herr! :D
 
Black&White schrieb:
Eigentlich erinnern Sie an die Gtx 480...Mega heiß, Mega laut und um sie zu betreiben braucht man einen eigenen Generator :D

Mal gucken was es wird ne vega mit 8gb hbm oder ne gtx 1080 ti mit 8gb + 2gb Speicher.

So ein Käse.
Der Stromverbrauch wurde im Gegensatz zum Vorgänger Antigua Pro schon ordentlich gesenkt und die Red Devil z.B. ist ziemlich leise und kühl. ~20% mehr Stromverbrauch ist jetzt nicht die Welt und auch von der 1060 gibt es zum Vergleich auch schlechte Kühlmodelle.
 
Herdware schrieb:
..weil weniger bei HBM2 rein technisch nicht geht. (Ein Stack besteht aus 8x1GB.)
Stimmt so nicht, er kann auch aus 4GB bestehen. Was man aber "weiß" ist, dass Vega auf 2 Stacks setzt. Was eben 8GB und 16GB zulässt. Technisch könnte ein Stack auch nur 1GB haben, nur produziert das niemand.
 
r4yn3 schrieb:
Stimmt so nicht, er kann auch aus 4GB bestehen.
Darüber hinaus nennt sie einen verdoppelten Durchsatz pro Takt und acht mal so viel Speicher pro Stapel. Das kann als Bestätigung für den Einsatz von HBM2 mit acht Mal 1.024 MB statt vier Mal 256 MB pro Stapel bei HBM1 für Fury angesehen werden. Vega verfügt damit mindestens über 8 GB Speicher, HBM2 sieht aber maximal vier 8-GB-Stapel vor.

Hast du das übersehen?
 
Prophetic schrieb:
Ich persönlich könnte mit deiner 780 so rein gar nichts anfangen.Wenn ich mit 1080p spielen würde, mir Frames und Texturen egal wären, ok, dann kann man die vielleicht noch nutzen. Aber es gibt nunmal Leute, die wollen PC-Spiele in bester Qualität, hoher Auflösung und mit >120fps genießen. Ich betreibe einen 2560x1440 Monitor und möchte auch die 144 HZ nutzen. Und das schaffe ich selbst mit meiner bis an die Schmerzgrenze übertakteten 1080 nicht.

Ich dachte immer Spiele sollen Spaß machen und nicht nur gut aussehen?! Sind deswegen nicht auch 2D Indie Spiele zur Zeit so erfolgreich? :p

Ich meine ich schrieb ja schon das RTL2 in 4k auch nicht besser wird :/

Meine 780 hat bisher bei mir nirgends geschwächelt und ich Spiele alles auf max, 4AA 16 AF auf FHD :confused_alt:

Okay ich spiele auch nicht die 2016er Kracher da die zu teuer im einkauf sind - man spart wo man kann :evillol:

Und zum Auto-Vergleich: Der Audi A8 W12 im Vergleich zum Tesla S - schwer zu sagen ob der Audi jetzt altes Eisen ist oder nicht?
 
Zuletzt bearbeitet:
motul300 schrieb:
übrigens gibt es jetzt schon spiele wo 3gb und 4gb karten nicht mal mehr mittlere texturen schaffen
selbst 6gb reichen bei inzwischen mehreren spielen nicht mehr für die höchsten einstellungen aus wo man den unterschied doch sehr deutlich sieht (cod und deus ex)
selbst die 8gb einer 1080 reichen zb bei ark nicht mehr aus

Dabei handelt es sich aber doch eher um Umbenennungen bei den Texturstufen. Es sind halt aufgrund der bei euen High-End-Karten verfügbaren großen VRAMs am oberen Ende des Spektrums neue Stufen dazugekommen, so dass das, was vorher als "high" durchging, jetzt nur noch "medium" oder sogar "low" heißt. Deshalb sehen sie aber nicht auf einmal schlechter aus.

Dass ein Spiel auf einer 3-4GB-Karte gar nicht mehr oder nur noch komplett unansehnlich läuft, wird sicher nicht so bald vorkommen. Das wäre dann ja ein krasser Rückschritt gegenüber dem, was man vorher mit diesen VRAM-Mengen hinbekommen hat.
Klar darf man die Schlampigkeit von Entwicklern nicht unterschätzen. Ein gewisser, verschwenderischerer Umgang mit Ressorcen, "weil sie halt da sind", kann einreißen. Aber in dem Ausmaß wie von dir beschrieben sind sie halt doch noch lange nicht vorhanden.

Bei PC-Spielen können es sich die Entwickler nicht leisten, mal eben >90% des Marktes auszuschließen, die noch keine Karte mit min. 8GB haben. Und noch schwerer wiegt, dass ja die Konsolen in aller Regel auch mit bedient werden wollen und die können auch nur deutlich weniger als 8GB von ihrem Shared Memory als VRAM abzwacken. In der Regel dürften es eben um die 3-4GB sein, die dafür zur Verfügung stehen.

Ich will natürlich keinen überreden, sich heutzutage noch eine neue High End-Karte mit weniger als 8GB zuzulegen, aber umgekehrt muss auch niemand mit einer seit Jahren treue Dienste leistenden 3-4GB-Karte in Panik geraten und Angst haben, dass er nächstes Jahr keine Spiele mehr darauf spielen kann, ohne Augenkrebs zu bekommen.

Mein "alte" 780Ti wird für mich jedenfalls noch locker ausreichen, um noch mindestens eine Grafikkartengeneration zu überspringen. Wie gesagt, dann werde ich bei der neuen Karte wohl eher zu 16GB als zu 8 greifen wollen, um wieder das Optimum herauszuholen und etwas zukunftssicher zu sein, aber bis da hin sind auch die 3GB ausreichend.
 
Nur weil es im Artikel steht, stimmt es nicht automatisch. Die Angabe 8x Capacity/Stack ist ein "bis zu" Wert. Wenn man 512GB/s Bandwidth hat, müssen es 2 Stacks sein. Hätte nun ein Stack garantiert 8GB, müsste Vega automatisch mit 16GB kommen. Du kannst das drehen wie du willst.
 
Ist jetzt nur noch wichtig wer den größten und schnellsten vram hat? D: Richtig traurig. Kann man sich dann jetzt jedes Jahr neue Karte kaufen weil man wieder mehr vram braucht für die schlecht optimierten Konsolenports. Glaub ich bau mir ne 8800 gtx ein :S. Wenn der blöde Vram jetzt immer höher werden muss, warum zur hölle gibt man uns nicht wenigstens pci-e karten wo nur vram drauf ist. Schau ich mir nicht mehr lange an.

ps: das teil hat 8gb hbm2, warum sollten sie jetzt 16 haben wenn es eh schon super teuer ist 8gb draufzuknüppeln...abgesehen davon ist die gpu gerade so stark wie eine 1080...aber ja vramvramvram sabber*** ...
 
Zuletzt bearbeitet:
zero389 schrieb:
Ist jetzt nur noch wichtig wer den größten und schnellsten vram hat? D: Richtig traurig. Kann man sich dann jetzt jedes Jahr neue Karte kaufen weil man wieder mehr vram braucht für die schlecht optimierten Konsolenports.

Das ist eher nur Enthusiasten-Gequatsche - die Spieleindustrie wird sich nicht die Kunden wegrasieren, klar mit 32GB VRAM kannste dann supa-dupa-ultra als setting nutzen aber auf high kommste auch mit bescheidener Hardware aus ;)

Herdware schrieb:
Mein "alte" 780Ti wird für mich jedenfalls noch locker ausreichen, um noch mindestens eine Grafikkartengeneration zu überspringen. Wie gesagt, dann werde ich bei der neuen Karte wohl eher zu 16GB als zu 8 greifen wollen, um wieder das Optimum herauszuholen und etwas zukunftssicher zu sein, aber bis da hin sind auch die 3GB ausreichend.

Dito, ich hol mir Vega oder ne 1080 wenn die auch für 100 in der Bucht zu ergrabbeln sind :D
 
Zuletzt bearbeitet:
GreatEvil schrieb:
Das betrifft aber dann auch jeden, der ne GTX 1080 hat und damit versucht 4K zu befeuern.
Deine Sichtweise ist sehr sehr einseitig.

Hab ich was verpasst? Wo reichen denn die 8GB der 1080 denn unter 4k nicht? Lol
 
Schnitz schrieb:
Das ist eher nur Enthusiasten-Gequatsche - die Spieleindustrie wird sich nicht die Kunden wegrasieren, klar mit 32GB VRAM kannste dann supa-dupa-ultra als setting nutzen aber auf high kommste auch mit bescheidener Hardware aus ;)

Ich bin glücklich über meine 8GB, während Nvidia immer noch in der Preisklasse nach 2 Jahren nur maximal 6 Gb liefert. Und nein, für COD oder Deus Ex reichen 3-6GB nicht mal mehr für mittlere Details mit anständigen Frametimes. Und genau das ist halt das Problem. Dass die Fury mit ihren 4Gb zu niedrig bestückt war sollte jedem klar sein, deshalb wären >8GB halt dieses mal wirklich angemessen wenn die Karte länger als ein Jahr anständige Leistung auf WQHD und 4K liefern soll.
 
Bei der ganzen VRAM-Diskussion frage ich mich gerade, warum es bis heute keine Grafikkarten gibt, bei denen man den VRAM bei Bedarf einfach aufrüsten könnte, wie z.B. bei einem Mainboard mit RAM, anstatt eine neue Grafikkarte kaufen zu müssen.
 
Es geht ja nicht darum, dass Karten mit weniger VRam auf einmal keine Spiele mehr darstellen können. Es geht viel mehr eher darum, dass Karten mit mehr VRam neue Spiele schöner/länger schöner und mit besseren Frametimes darstellen werden. Wer bereits eine Karte mit x-VRam besitzt, der passt seine Einstellungen an. Bei einem Neukauf hingegen nur auf die Rohleistung zu schauen und den VRam zu vernachlässigen zahlt sich (schon seit längerem) nicht mehr aus. Hervorragende Grafik besteht mittlerweile viel zu sehr aus detaillierten Texturen als zehntausenden Shader-Effekten, bei ähnlicher Rohleistung/Preis sollte man mittlerweile einfach immer zur Karte mit mehr VRam greifen um ein zukunftssichereres Paket zu bekommen.

Denn wofür kauft man Grafikkarten? Für mehr Leistung und bessere Optik, die Karten mit mehr VRam eben länger bieten. Für den hohen Preis will man bei einem Enthusiasten-Produkt sowieso immer einen VRam-Puffer haben.

Ich verstehe die Leute, die damit zufrieden sind für ihre Karten, die sie bereits besitzen die Texturen anzupassen. Ein Neukauf nur des VRam willens lohnt sich (unter 4GB) eigentlich nicht. Wenn jemand auch wirklich nur Indie-/ alte Titel spielt, dann natürlich auch nicht. Aber bei einem Neukauf bereitwillig zu dem Produkt greifen, dass schlechtere Optik bieten kann/weniger langlebig ist? Vollkommener Schwachsinn mMn. Genau wie die Aussage, dass VRam-Betrag x bei Vega/nVidia-Pendant (oder anderen Karten) schon reicht. Ein zu geringer VRam beschränkt die Karte nicht in der Rohleistung. Aber andersrum könnte man mit einem VRam-Puffer eben kostenlos (ja, zum zehntausendsten Mal, bessere Texturen kosten keine Leistung und schlechtere setzen keine frei!) Texturen hochdrehen und bessere Optik länger geniessen. Das finde ich eindeutig besser so, als zu knapper VRam.
 
Chillaholic schrieb:
Und nein, für COD oder Deus Ex reichen 3-6GB nicht mal mehr für mittlere Details mit anständigen Frametimes.

Irgendwie fällt es mir schwer das zu glauben. Jedenfalls wenn "niedrige Details" in diesen Spielen wirklich schlechter aussehen, als in anderen Spielen mittlere oder sogar hohe. Wie gesagt, es gab schließlich schon vor Jahren Spiele, die mit in 3-4GB passenden Texturen sehr gut aussahen. Das können die Entwickler der neusten COD und Deus Ex-Titel doch nicht über Nacht verlernt haben.

Außerdem müssten die Entwickler von ihrem Publisher die Köpfe abgerissen bekommen haben, wenn sie wirklich ein Spiel abliefern, das nur bei einem winzigen Prozentsatz der potentiellen Käufer vernünftig funktioniert. Ich bin nicht ganz auf dem Laufenden, wie es mit dem Marktanteil von 8GB oder mehr VRAM derzeit aussieht, aber ich wäre überrascht, wenn der zweistellig wäre.
Und vor allem müssten die Entwickler dann ja bewusst extra Arbeit da rein gesteckt haben, die PC-Version mit "nur" 3-4GB VRAM nicht mehr auskommen zu lassen, wo es doch für die Konsolen schon Versionen gibt, die das können und dabei immer noch gut aussehen. Das ließe sich nicht mal mit Schlampigkeit erklären. Das wäre bewusste Sabotage des Markterfolges ihres eigenen Produktes.

Bitte nicht falsch verstehen. Wie gesagt bin ich auch der Meinung, dass es am besten mehr 8GB sein sollten, für heutige (und zukünftige) absolute High End-Grafikkarten. Und ich habe nichts dagegen, dass immer mehr aktuelle Spiele so großes VRAM auch ausnutzen und zu sichtbaren Qualittäsverbesserungen nutzen können. Im Gegenteil!
Aber es wäre absolut fatal, wenn dabei die Unterstützung für kleinere VRAM-Größen, die immer noch den riesigen Löwenanteil des Marktes ausmachen (Konsolen wie gesagt eingeschlossen) hinten runter fallen würde. Ich kann mir auch überhaupt nicht vorstellen, dass sowas passiert. Jedenfalls nicht bei Spielen, die ein kommerzieller Erfolg werden sollen. (Also inoffizielle oder optionale Textur-Mods mit extremen Anforderungen außen vor gelassen.)
 
Zuletzt bearbeitet:
tic-tac-toe-x-o schrieb:
Aber aufhören zu lügen sollte Nvidia trotzdem endlich mal. Aufhören zu lügen um so die Kunden zu täuschen.

Das sind doch keine Lügen. Jen-Hsun Huang lebt nur in seiner eigenen Wirklichkeit :D
 
Zurück
Oben