Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.461
R1c3 schrieb:... ist das schlicht ein schlechtes Design von AMD. Mag ja sein dass Entwickler noch sparsamer mit Vram umgehen können, tun sie aber nicht und daran muss sich AMD orientieren, nicht nach dem Wunschdenken wie es sein könnte/sollte.
... woran man sieht dass Nvidia in dem Fall alles richtig gemacht hat weil sie eine günstigere UND flottere Graka geliefert haben und sie dann trotzdem so teuer und mit höherer Gewinnspanne verkaufen konnten. Ist ja nicht so als ob AMD dazu gezwungen war HBM so früh zu verbauen ... natürlich gibt es schlecht optimierte Spiele die zu hohe Anforderungen stellen, aber hoch aufgelöste Texturen fressen nunmal mehr Vram, das ist eine völlig normale Entwicklung und zu behaupten dass wenn ein Spiel 6GB Vram benötigt nicht optimiert sei ist halt auch eine Verallgemeinerung die man so einfach nicht stehen lassen kann. Und so sehr ich DOOM auch liebe und die Optik auch durchaus sehr gut finde, gerade die Texturen sind teilweise doch recht matschig... genauso AMDs Schuld dass ihr Treiber im Vergleich zu Nvidia einfach massiv viel mehr Overhead erzeugt, sieht man ja wunderbar wenn auf Dx12 oder Vulkan umgeschalten wird, dann geht speziell die Fury ab wie Schnitzel. Und das ist jetzt die Schuld der Spieleentwickler oder von AMD ? Sorry aber du stellst es ja gerade so dar als ob sich Spieleentwickler gegen AMD verschworen hätten ... Wie gesagt, es gibt Fälle in denen schlecht auf AMD optimiert wurde, absolut ...
Eben nicht, es ist schlicht und einfach schlechtes Design der Spieleentwickler, die an einem Teil der Kundschaft vorbei entwickelt haben und die man deswegen nicht noch mit einem Kauf der verkorksten Produkte (ohne welche man sicherlich auch gut leben kann) belohnen sollte, was diese vielleicht zu einem Umdenken bewegen könnte, wenn die Gewinne einbrechen .
So schaut's aus, denn AMD kann wohl kaum im Voraus genau abschätzen, was in 2 Jahren an Speicher bei irgendwelchen extrem ressourcenverschwendenden Entwicklern (Ubisoft, WB & Co. lassen grüßen) verlangt wird für ein oft wenig berauschendes 08/15 Spielvergnügen und noch weniger beindruckende technische Umsetzung in Sachen Grafik, Animationen, Spielfluss/-geschwindigkeit, etc..
Ach ja, nVidia hat bei der GTX 970 Speicherbeschneidung, Gamesworks, G-Sync, der bis heute softwareseitigen Emulierung von AsyncCompute durch den Pascal-Chip, Preistreiberei mit Einführung der Titan-Luxusklasse, Daten-Abgriff/-Handel per GeForce Experience, etc. alles richtig gemacht (?) ... weswegen viele auch nVidia seit der Maxwell-Generation so "unheimlich lieb gewonnen" haben, außer natürlich die treuen Fans, die auch noch "Danke" dafür sagen sich von Huang & Co. durch den Kakao ziehen zu lassen, schon klar .
Wie von IBISXI richtig schon angeführt, ist es erstaunlich, wie gut sich AMD noch gegenüber der Konkurrenz schlägt und wie innovativ man ist, trotz des vergleichsweise mageren Budgets (im Vergleich zu nVidia, ganz zu schweigen von Intel). Wo sind denn die echten Innovationen/Meilensteine des Marktführers nVidia seit den Maxwell-Chips, davon ist nämlich (bspw. bei dem getunten Maxwell-Shrink Pascal) weit und breit nichts zu sehen.
HBM(2) und HBCC werden sicherlich als allgemeine Meilensteine in Sachen GPU-Architektur eingehen, bei nVidia in den letzten Jahren leider gar nichts mit der rückwärts gewandten/Marktmacht ausspielenden DX11 Treiberpolitik, aber die Hoffnung stirbt ja bekanntlich zuletzt (mit den kommenden, jetzt schon als deutlich teurer als Pascal angekündigten Volta GPUs ... na das sind doch wirklich "tolle" Aussichten).
Und ja, Vega wird - wie üblich bei AMD - beim Kunden reifen, da von heute auf morgen alle Architekturneuerungen mit Sicherheit nicht eingesetzt/ausgereizt werden .
Zu bedenken ist auch, dass HBM über Jahre in Entwicklung war und nicht von heute auf morgen aus Jux und Tollerei Ihren Weg in die dazu passende Fiji-Architektur gefunden hat.
Trotz anfänglicher Unzulänglichkeiten/Einschränkungen wie dem 4GB Limit von HBM1 ist es - AMD-typisch - eine Investition in die Zukunft (vergleichbar vielleicht mit der Entwicklung von Mantle) die sich hoffentlich auch spätestens bei den Navi GPUs vollends bezahlt macht.
Vielleicht wird es aber auch schon früher deutlich wegen HBCC (evt. aus der Speichermengennot von HBM1 geboren) mit RX Vega, wo sich dann die wahre Stärke von HBM-Speicher zeigt, wer weiss (?), wir werden es sehen ... wer nichts riskiert, der gewinnt auch nichts, insbesondere, wenn man weder in GPUs noch in CPUs der Marktführer und einzige verbliebene Konkurrent ist.
Was Doom (unter Vulkan Low Level API) angeht, so gebe ich Dir Recht, dass es der Vorzeige-Titel für AMD derzeit ist und eben nicht die Leistungsfähigkeit von RX Vega wahrheitsgemäß/realistisch widerspiegelt.
Dahingegen erfüllt Star Wars Battlefront 1 (auch in Anlehnung an das ähnlich per Frostbite Engine entwickelte Battlefield 1) das aber schon, mit aktuell immer noch höchsten grafischen Ansprüchen sowie guter technischer Optimierung und einer einigermaßen neutralen Gewichtung (wenn auch mit etwas Tendenz zugunsten von nVidia GPUs ... ich denke das kommende Call of Duty - WWII könnte ein sehr realistischer und fordernder Indikator-/Benchmark-Spieletitel werden als leicht zu AMD GPUs tendierendes Gegenstück zum kommenden Star Wars Battlefront 2).
In dem Spiel hat eine RX Vega (im Vollausbau?) scheinbar unoptimiert/im Frühstadium mit Fiji-Treiber eine GTX 1080 vernascht.
So einfach mit Deinen (pro-nVidia) Ausführungen - wie Du es Dir ausmalst - wird es in Hinblick auf RX Vega mitnichten aussehen und Du wirst sicherlich schon nach einer "winzig kleinen Fliege in der Suppe" Ausschau halten müssen, um (wie es zuvor bei den Polaris GPUs bei einigen nVidia-Fans gängig war) die neuen Vega GPUs nach Erscheinen mies reden zu können ... traurig, aber etwas anderes war ja wohl auch nicht zu erwarten.
Falls sich HBCC als Windei entpuppen sollte, wäre Kritik an AMD natürlich in hohem Maße berechtigt, aber im Voraus schon davon auszugehen ...
Zumal, was hier einige Träumer für eine "Über-GPU" erwarten/hypen, führt dann sowieso nur zu maßloser Enttäuschung der nicht erfüllten exorbitanten Erwartungshaltung ... bleibt doch 'mal bitte etwas auf dem Boden/realistisch, das "Rad" kann/will AMD damit nicht neu erfinden.
Mit Hinblick auf die "Schuld" ist mit Sicherheit nicht AMD zu nennen, sondern das (z.T. evt. bezahlte/gewollte) Unvermögen der Spieleentwickler sowie deren Ignoranz der gesamten Kundschaft oder zeitgemäßer Programmierung.
Diese Entwickler kann man dann wohl als AMD Kunde zukünftig auch gut aussortieren/boykottieren, anstatt sich mit deren suboptimal entwickelten Produkte aus einander zu setzen, so einfach, konsequent und besser für den Markt insgesamt ist das .
Über mangelnde Weitsicht AMDs konnte man sich jedenfalls in der Vergangenheit nicht beschweren, denn deren GPUs haben sich oft durch Ihre Ausstattung als langlebiger heraus gestellt als die vergleichbaren nVidia Pendants.
Zuletzt bearbeitet: