News ve.ga: Offizielle Vorschau auf AMD Vega am 5. Januar

@ MaLow17
Mechanische Beschränkungen: Ein Hersteller muss irgendwie die Leiterbahnen auf dem PCB zu den Kontakten/Halterungen der RAM-Slots verlegen. Deshalb gibt es bei CPUs idr auch nur 2 Speicherkanäle mit 64 Bit Breite (128 Bit insgesamt). Mainboards die 4 Speicherkanäle (insgesamt 256 Bit) unterstützen sind unter anderem deshalb bereits deutlich teurer. Schnellere GPUs haben aber meist 256, 384 oder sogar 512 bit.
Elektrische Beschränkungen: Bei Steckmodulen gibt es immer einen höheren elektrischen Widerstand an den Kontaktflächen, der die maximale Bandbreite deutlich reduziert.
 
Zuletzt bearbeitet:
War Kasmopaya eigentlich schon hier mit seinem Zettel? :D
Wenn nicht, übernehme ich das für ihn: 8GB dass ich nicht lache! Ein Speicherkrüppel wie die Fury X einer ist! 8GB sind das absolute Minimum für Mittelklasse Karten! Meine GTX580 mit 3GB war genau richtig, ebenso wie meine Titan X Maxwell mit 12 GB. Im Jahre 2017 müssen High End Karten eigentlich 24GB haben. 16GB sind das absolute Minimum! Wer mir nicht glaubt dem ist nicht zu helfen! Mein Zettel müsste eigentlich allen die Augen geöffnet haben!
:D
 
Herdware schrieb:
Irgendwie fällt es mir schwer das zu glauben. Jedenfalls wenn "niedrige Details" in diesen Spielen wirklich schlechter aussehen, als in anderen Spielen mittlere oder sogar hohe. Wie gesagt, es gab schließlich schon vor Jahren Spiele, die mit in 3-4GB passenden Texturen sehr gut aussahen. Das können die Entwickler der neusten COD und Deus Ex-Titel doch nicht über Nacht verlernt haben.

Beim Hardwarekauf orientiert man sich am besten aber nicht an seiner perfekt optimierten Software, sondern an seiner am miesesten optimierten. Hardware am Minimum zu kaufen und auf den Entwickler hoffen, dass die Software dennoch gut läuft geht meistens schief. Zum Beispiel sieht man, dass auch alte/langsame CPUs unter DX12 (und Vulkan) noch vollkommen gut laufen. Dennoch empfehle ich niemanden auf Verdacht einen billigen 8350 zu kaufen, weil unter dem verminderten Overhead von DX12 und verbessertem Multithreading er dann mal für sein Geld gut laufen könnte. Schliesslich bringen es bis dato nur gute Studios hin DX12 mit Vorteilen über DX11 zu programmieren. In der Analogie ist es also genau so Schwachsinn sich eine Karte mit weniger VRam zu kaufen und auf den Entwickler zu hoffen, dass man mit diesem geringen VRam immer noch gute Texturen fahren kann. Selbst BF1 mit bester Engine und Photogrammetie -> mMn nach die besten Texturen bis jetzt hat einen „recht hohen“ VRam-Verbrauch. Der VRam-Verbrauch wird in neuen Titeln auch nicht mehr magischerweise sinken.

Ich glaube, dass die Spieleentwickler tatsächlich „dank“ Konsolen die Karten mit <4GB rausfallen lassen. Sicher, sie bieten Textur-Optionen, die auch mit 3GB -zurechtkommen, aber die Optik dort wird deutlich schlechter (vielleicht sogar tatsächlich schlechter als in älteren Spielen mit ähnlichem VRam-Verbrauch, da in alten Spielen meist ein stärkeres Mip-Map-System angewendet wurde als in heutigen -> heutzutage sind die nahen Texturen schlechter als in ein bisschen älteren Spielen, dafür die Mip-Maps hochauflösender.
 
Herdware schrieb:
Irgendwie fällt es mir schwer das zu glauben. Jedenfalls wenn "niedrige Details" in diesen Spielen wirklich schlechter aussehen, als in anderen Spielen mittlere oder sogar hohe. Wie gesagt, es gab schließlich schon vor Jahren Spiele, die mit in 3-4GB passenden Texturen sehr gut aussahen. Das können die Entwickler der neusten COD und Deus Ex-Titel doch nicht über Nacht verlernt haben.

also wenn du so etwas schreibst frage ich mich wie lange du dich schon mit pc spielen beschäftigst
es war doch schon fast die regel dass alte spiele auf hohen einstellungen besser aussehen als neue spiele auf niedrigen details
nehmen wir mal besipielsweise crysis
läuft auf alter hardware gut und sieht auch immernoch gut aus
da können heutige spiele auf hdready mit low einstellungen nicht mithalten (bei gleicher gpu)

Herdware schrieb:
Dass ein Spiel auf einer 3-4GB-Karte gar nicht mehr oder nur noch komplett unansehnlich läuft, wird sicher nicht so bald vorkommen. Das wäre dann ja ein krasser Rückschritt gegenüber dem, was man vorher mit diesen VRAM-Mengen hinbekommen hat.
Klar darf man die Schlampigkeit von Entwicklern nicht unterschätzen. Ein gewisser, verschwenderischerer Umgang mit Ressorcen, "weil sie halt da sind", kann einreißen. Aber in dem Ausmaß wie von dir beschrieben sind sie halt doch noch lange nicht vorhanden.

das war auch hier schon mehr oder weniger immer so das man pro leistung immer weniger raus holt
was ich beschrieben habe sind tatsachen die auch in test zu cod und deus ex auf computerbase nach zu lesen sind
ich sage auch nicht das 3 oder 4gb bei jeden spiel scheiße aussehen
aber es gibt diese spiele wo das der fall ist zumindest wenn ich ohne nachladeruckler spielen möchte
und da für mich zumindest nachladeruckler nicht in frage kommen muss ch die textur stufe runterstellen
andere können damit vielleicht leben aber ich nicht

Herdware schrieb:
Außerdem müssten die Entwickler von ihrem Publisher die Köpfe abgerissen bekommen haben, wenn sie wirklich ein Spiel abliefern, das nur bei einem winzigen Prozentsatz der potentiellen Käufer vernünftig funktioniert.

genau das ist doch der fall bei cod und wenn ich mich recht erinnere war das vorletzte cod auch schon so eine vramschleuder
die spiele werden hauptsächlich auf den konsolen verkauft
deshalb gibt diese beschissenen umsetzungen
 
Zuletzt bearbeitet:
Chillaholic schrieb:
Ich bin glücklich über meine 8GB, während Nvidia immer noch in der Preisklasse nach 2 Jahren nur maximal 6 Gb liefert. Und nein, für COD oder Deus Ex reichen 3-6GB nicht mal mehr für mittlere Details mit anständigen Frametimes. Und genau das ist halt das Problem. Dass die Fury mit ihren 4Gb zu niedrig bestückt war sollte jedem klar sein, deshalb wären >8GB halt dieses mal wirklich angemessen wenn die Karte länger als ein Jahr anständige Leistung auf WQHD und 4K liefern soll.

Seh ich auch so. Ich mein ja klar kann ich die texturen reduzieren und bin auch mit 2,7gb vram bei bf1 ausgekommen. Ich bin ja auch nicht der der nach vram schreit und sagt boa 8gb ist aber heute schon wenig. Ich kritisiere ehr, diese leute welche auf den 4kmonitoren keine 30fps mehr zusammenbekommen und irgendwie 7gb vram verbrauchen, weil es muss alles auf ultra stehen. Natürlich reiben sich da nvidia und bestimmt auch amd dort die hände. Also vram steht zurzeit sowas von über der gpu. Das freut alle nur uns oder mich nicht. Denn das heißt nur mehr verkaufte stück für nv und amd und weniger arbeit für die dev teams, weil die müssen ja nichts mehr optimieren, wird ja eh gekauft.
 
Ich würde auch keine Karte mehr kaufen unter 8 GB Grafikspeicher, aber ich denke solange die Konsolen nicht mehr als 8 GB Speicher haben ist man gut gerüstet, schließlich müssen die AAA Spiele auch auf Konsolen laufen (besser gesagt die Entwickler bevorzugen Konsolen sowieso leider:mad:). außer Xbox Scorpio bekommt mehr Grafikspeicher.
 
BookerDeWitt schrieb:
Beim Hardwarekauf orientiert man sich am besten aber nicht an seiner perfekt optimierten Software, sondern an seiner am miesesten optimierten.

Es fällt mir aber trotzdem schwer zu glauben, dass die heutigen Spiele so miserabel entwickelt werden, dass sie auf allem außer exotischer High End-Hardware, die nur einen winzig kleinen Marktanteil ausmacht, wesentlich schlechter aussieht, als ältere Titel. Ganz besonders nicht bei AAA-Titeln, die sich in rieisgen Mengen verkaufen müssen, um die Entwicklungskosten wieder reinzuholen. Dafür reichen die paar High-End-Enthusiasten mit >8GB-Karten nicht annähernd aus.

Solche Schlamperei könnte doch kein Publisher durchgehen lassen. Nicht aus Mitleid mit Spielern mit kleinerem Geldbeutel, die sich nicht jedes Jahr eine neue Grafikkarte für >500€ kaufen können, sondern aus eigenem Profitinteresse.

Oder ist die Masse der Kundschaft so bescheuert, dass sie auch neue Spiele massenweise kaufen, die auf verbreiterter Hardware immer schlechter und schlechter aussehen, weil sie unverständlicherweise nur auf exotischstes High End optimiert wurden?

Was für eine Logik steckt dahinter?

Ich glaube, dass die Spieleentwickler tatsächlich „dank“ Konsolen die Karten mit <4GB rausfallen lassen.

Aber mehr als 4GB haben doch auch die aktuellen Konsolen nicht für VRAM über. Eher weniger.
Die 8GB von PS4 und XBoxOne sind ja shared. Da geht also auch der normale Arbeitsspeicher (Spiel + Betriebssystem inkl. diverser Hintergrundprozesse) von ab.
Das Spielkonsolen heutzutage auch nichts groß anderes mehr sind als PCs, fällt es mir schwer mir vorzustellen, dass der Bedarf an Arbeitsspeicher bei aktuellen Konsolenspielen deutlich kleiner als 4GB ist.

Aber um es nochmal zu betonen:
Ich bin völlig an Bord, bei der Aussage, dass man bei Neuanschaffungen von High End-Grafikkarten nicht an VRAM geizen sollte.
Nur sehe ich halt nicht, dass wir auf absehbare Zeit mit nennenswert vielen Spielen rechnen müssen, die auf "älteren" Karten mit 3-4GB überhaupt nicht mehr vernünftig oder halbwegs ansehnlich laufen.
Klar wird es oft deutliche Abstriche in der Darstellugnsqualität geben, sonst wäre mehr VRAM ja sinnlos. Aber auf Augenkrebsniveu wird es sicherlich in den seltensten Fällen runter gehen. Man kann es also durchaus noch das eine oder andere Jahr aufschieben, sich ein neue Grafikkarte zu kaufen, auch wenn man noch keine 8GB hat.
 
Zuletzt bearbeitet:
mastertier79 schrieb:
habs schon mehrfach erwähnt aber Intel und AMD gehören den selben Anteilseignern.
Damit Intel keine Monopolstellung hat (was wettbewerbswidrig wäre) muss AMD gepuscht werden.
Geld spielt dabei keine Rolle.
So entsteht ein gesteuertes Oligopol (wenige Anbieter, viele Konsumenten), was quasi einem Monopol (ein Anbieter, viele Konsumenten) gleich kommt.
So kann man die Preise hochhalten - auch wenn AMD dabei wahrscheinlich als billigerer "Partner" fungieren wird.
Ich bin gespannt wann das mal untersucht wird ;)

Hey Verschwörungstheoretiker - wer sollen diese Anteilseigner sein? Komm mal mit was Input rüber...
 
Herdware schrieb:
Oder ist die Masse der Kundschaft so bescheuert, dass sie auch neue Spiele massenweise kaufen, die auf verbreiterter Hardware immer schlechter und schlechter aussehen, weil sie unverständlicherweise nur auf exotischstes High End optimiert wurden?

Nein, die Masse der Kundschaft ist so bescheuert, dass sie immer wieder Grafikkarten mit zu wenig VRam kaufen. Und das wiederholt sich alle 1-2 Jahre mit ner neuen Generation. Dann sind wieder alle geschockt, wie viel VRam aktuelle Spiele so verbraten, es wird über schlechte Konsolenports gemeckert und der Spass fängt von vorne an. Nvidias großer Marktanteil und zu geringe VRam Bestückung (Abgesehen von den Enthousiasten-Karten) ist hier natürlich mitverantwortlich. Muss jeder selber wissen ob der Geiz 20-50€ weniger für die halbierte VRam Bestückung auszugeben angemessen ist oder nicht. Aber hinterher meckern ist halt nicht so schlau, wenn der Trend schon seit Jahren offensichtlich ist. Ja, BF1 brauch wenig VRam, aber das ist nunmal auch eine saugeile Engine die ziemlich gut auf fast jeder Hardware läuft und super optimiert ist.


Just my two cents.


Herdware schrieb:
Nur sehe ich halt nicht, dass wir auf absehbare Zeit mit nennenswert vielen Spielen rechnen müssen, die auf "älteren" Karten mit 3-4GB überhaupt nicht mehr vernünftig oder halbwegs ansehnlich laufen. Klar wird es oft deutliche Abstriche in der Darstellugnsqualität geben, sonst wäre mehr VRAM ja sinnlos. Aber auf Augenkrebsniveu wird es sicherlich in den seltensten Fällen runter gehen. Man kann es also durchaus noch das eine oder andere Jahr aufschieben, sich ein neue Grafikkarte zu kaufen, auch wenn man noch keine 8GB hat.

Du wirst dich halt mit Niedrig/Mittel und ggf. höheren Frametimes zufrieden geben müssen, währen ich die UHD Texturenpakete installiere. Für mich sind scharfe Texturen wichtig und mit genügend VRam kann man die halt auf Ultra knallen.
 
Zuletzt bearbeitet:
Geht das jetzt übermorgen nur um die neuen GPUs oder auch um die neuen CPUs(APUs?).
Ich wäre tierisch an einer neuen APU interessiert! Reicht vollkommen für das was ich mache.
(Ihr werdet es nicht glauben aber mit meiner A10-7850K kann ich sogar ARK auf "mittel" spielen o_O)

Liebe Grüße <3
 
Grumpy schrieb:
(Ihr werdet es nicht glauben aber mit meiner A10-7850K kann ich sogar ARK auf "mittel" spielen o_O)

Glaube ich dir in der Tat nicht, jedenfalls nicht mit >40 FPS.
 
@Chillaholic

das glaube ich auch nicht^^
er wird mit sicherheit die entscheidenden einstellungen nicht auf mittel haben
 
Die ganze Vram Debatte hier wird total überbewertet. Ich habe mir vor Jahren für teuer Geld eine GTX 780 mit 6GB gekauft, weil damals auch jeder sagte mehr ist besser. Trotzdem kann ich bei neueren Spielen keinen Gewinn mehr daraus ziehen, weil die Karte einfach nicht mehr schnell genug ist. Das Geld hätte ich mir damals sparen können und stattdessen lieber heute in eine neue GPU investieren sollen.
 
@ motul300
natürlich kannst du einen gewinn daraus erzielen
du kannst die texturen meistens voll aufrehen währen während sich die anderen welche die 3gb variante haben mit niedirg und mittel begnügen müssen
texturen fressen so gut wie keine leistung
leider spricht auch noch der nvidia treiber support gegen dich
wenn du schon vorher weißt dass du deine karte so lange behalten wirst
würde ich dir in zukunft empfehlen eine amd karte zu kaufen
zumindest wenn es dort etwas gibt dass dich anspricht
 
Zuletzt bearbeitet:
MrBackslash schrieb:
Die ganze Vram Debatte hier wird total überbewertet. Ich habe mir vor Jahren für teuer Geld eine GTX 780 mit 6GB gekauft, weil damals auch jeder sagte mehr ist besser. Trotzdem kann ich daraus bei neueren Spielen keinen Gewinn mehr daraus ziehen weil die Karte einfach nicht mehr schnell genug ist. Das Geld hätte ich mir damals sparen können und stattdessen lieber heute in eine neue GPU investieren sollen.

Die GTX 780 ist auch eine der Karten, die schlagartig keinen Treibersupport mehr bekommen hat und auf einmal in einigen Spielen sogar von ner GTX 960 überholt wurde. Das Teil hat Nvidia totgegimpt, siehe dem Fallout Gameworks Update, wo auf einmal 30% FPS futsch waren. Sollte aber so langsam jedem bekannt sein, dass AMD Karten reifen und Nvidia zu schnell den Support verliert. Die Karte kann aber immer noch im Schnitt fast mit ner RX 470 mithalten und hat zumindest mehr VRam als die 4GB Version und reicht in vielen Spielen für die maximale Texturstufe.
 
Yop die masse ist so bescheuert. Da bringt keine belehrung was. Es heißt friss oder stirb. Ich schau mir nun noch an was auf der ces passiert und vielleicht ist es das letztemal wo ich upgrade. Vernünftig wird wohl weder die masse(käufer) noch der hersteller. So muss jeder selber entscheiden.
 
Jeder streitet sich hier nun rum ob 8GB GrakaRam zu wenig sind oder man doch 16GB oder gar 24GB+ braucht, das wahre VERBRECHEN fängt mit den Spiele Entwicklern an, spiele immer größer und/oder schlechter Programmiert, da würde auch eine Graka mit 128GB HBM5 oder GDDR7x+ an ihre Grenzen kommen :D:D
Also sollen die Entwickler sich erstmal wieder anstrengen bevor, 16GB in FHD zu wenig werden!!! :rolleyes:

LG Bo
 
Egal wie gut Vega wird - AMD hat anscheinend gelernt Werbung zu machen oder sie haben endlich mal eine ordentliche Werbe-Agentur engagiert. Ich bin über dieses Video auf jeden fall erstaunt. Die sollen ruhig weiter solche Werbung betreiben, dann bleibt AMD auch in den Köpfen hängen. Dann müssen aber auch die Produkte stimmen - woran ich allerdings doch schon glaube.

Sonst heißt es am Schluss wieder: "Hätten die ihr Budget mal lieber in die Entwicklung anstatt in die Werbung gesteckt!" - wobei ... sowas wird man auch lesen, wenn Vega (und Zen) gut werden.

Edit:
Novasun schrieb:
Hey Verschwörungstheoretiker - wer sollen diese Anteilseigner sein? Komm mal mit was Input rüber...

Ich glaube er mein "The Vanguard Group" / "Blackrock Fund Advisors" / etc. . Hier mal die Anteilseigner von Intel und von AMD.
 
Zuletzt bearbeitet:
Zurück
Oben