News AMD Vega 10: Linux-Patch offenbart große Ähnlichkeit mit Fiji

Eben nicht, es ist schlicht und einfach schlechtes Design der Spieleentwickler, die an einem Teil der Kundschaft vorbei entwickelt haben und die man deswegen nicht noch mit einem Kauf der verkorksten Produkte (ohne welche man sicherlich auch gut leben kann) belohnen sollte, was diese vielleicht zu einem Umdenken bewegen könnte, wenn die Gewinne einbrechen.

So schaut's aus, denn AMD kann wohl kaum im Voraus genau abschätzen, was in 2 Jahren an Speicher bei irgendwelchen extrem ressourcenverschwendenden Entwicklern (Ubisoft, WB & Co. lassen grüßen) verlangt wird für ein oft wenig berauschendes 08/15 Spielvergnügen und noch weniger beindruckende technische Umsetzung in Sachen Grafik, Animationen, Spielfluss/-geschwindigkeit, etc..

Aber Nvidia kann das ? AMD hat doch die gleichen Informationen wie Nvidia zur Hand was aktuelle Titel so verbrauchen und dass die Tendenz immer zu MEHR nicht weniger geht war halt schon immer so, wenn man dann eine Karte herausbringt die bereits beim Release weniger Vram als die Konkurrenz bietet muss man sich schon fragen wer sich den Murks ausgedacht hat, der Spieleentwickler ist da nicht (immer) schuld, der optimiert nur so viel wie er muss damit es läuft. Das mag nicht löblich, toll oder optimal sein, so sieht aber die Realität aus und an der muss AMD sich orientieren, was ja nach der Fury auch geschehen ist indem dann flott Karten mit 8GB kamen.

Ach ja, nVidia hat bei der GTX 970 Speicherbeschneidung, Gamesworks, G-Sync, der bis heute softwareseitigen Emulierung von AsyncCompute durch den Pascal-Chip, Preistreiberei mit Einführung der Titan-Luxusklasse, Daten-Abgriff/-Handel per GeForce Experience, etc. alles richtig gemacht (?) ... weswegen viele auch nVidia seit der Maxwell-Generation so "unheimlich lieb gewonnen" haben, außer natürlich die treuen Fans, die auch noch "Danke" dafür sagen sich von Huang & Co. durch den Kakao ziehen zu lassen, schon klar .

Hab ich gesagt dass Nvidia super toll und unfehlbar sind ? Nein, das interpretierst du hier rein weil ich es gewagt habe meine Sorgen über Vega zu äußern ... Mir ist ehrlich gesagt scheißegal ob ich eine Nvidia oder AMD oder eine Matrox oder was weiß ich verbaut habe, das Produkt muss stimmen und sonst nix, ich habe keine emotionale Bindung zu einer Firma (was ziemlich idiotisch ist), ich bin ein Konsument der schlicht das beste Produkt kaufen will wenn ich eines kaufen möchte, wer das grade anbietet geht mir am Popo vorbei.

Dass Nvidia ziemlich unsympathisch ist mit ihrem proprietären Scheiß, der 970 Vram Krüppel Aktion und anderem Murks find ich auch alles andere als toll, nur weil ich das in einem Thread über AMDs neue Vega GPU nicht explizit genannt habe heißt nicht dass ich sowas gut heiße ...

Wie von IBISXI richtig schon angeführt, ist es erstaunlich, wie gut sich AMD noch gegenüber der Konkurrenz schlägt und wie innovativ man ist, trotz des vergleichsweise mageren Budgets (im Vergleich zu nVidia, ganz zu schweigen von Intel). Wo sind denn die echten Innovationen/Meilensteine des Marktführers nVidia seit den Maxwell-Chips, davon ist nämlich (bspw. bei dem getunten Maxwell-Shrink Pascal) weit und breit nichts zu sehen.

HBM(2) und HBCC werden sicherlich als allgemeine Meilensteine in Sachen GPU-Architektur eingehen, bei nVidia in den letzten Jahren leider gar nichts mit der rückwärts gewandten/Marktmacht ausspielenden DX11 Treiberpolitik, aber die Hoffnung stirbt ja bekanntlich zuletzt (mit den kommenden, jetzt schon als deutlich teurer als Pascal angekündigten Volta GPUs ... na das sind doch wirklich "tolle" Aussichten).

Innovation ist schön und gut (ganz im Ernst), nur ist AMD erstmal ein Unternehmen und muss Geld verdienen und gute Produkte abliefern, es ist absolut egal ob sie mit ihren Produken innovativ sind oder nicht, wenn das Endergebnis schlechter als bei der Konkurrenz ausschaut bringt einem die größte Innovation nichts. Innovation um der Innovation Willen ist halt leider sinnlos, es muss schon was bei rumkommen. Nvidia profitiert doch aktuell nur davon dass AMD so früh Dinge wie HBM einsetzt, weil sie dann 1-2 Generationen später das ausgereifte und deutlich billigere Produkt verbauen und sich ins Fäustchen lachen dass AMD mit hohem Kostenaufwand den Betatester gespielt hat.

Innovation bei Nvidia ist aktuell halt einfach nicht groß nötig weil man auch so die Leistungskrone inne hat, das gleiche sieht man doch bei Intel, bis Ryzen um die Ecke kam war da Schneckentempo angesagt bei den Neuerungen, seit Ryzen haben sie auf einmal ihre nächste Generation vorgezogen und werden jetzt doch deutlich früher 6 Kerner im normalen Sockel anbieten. Gleiches war doch mit Directx 12, erst als AMD mit Mantel ankam und zeigte wie man den Overhead massiv reduzieren kann kam öffentlich Bewegung in die Sache und jetzt haben wir neben Dx12 auch noch Vulkan als offene API, nur wenn Druck herrscht kommt Bewegung in die Sache und aktuell ist der bei Nvidia (noch) nicht gegeben.

Ich finds toll dass AMD so viele Innovationen in ihren Produkten liefert, nur muss es halt auch zum gewünschten Ergebnis führen, sonst bringt es eben nix außer der Konkurrenz und genau das ist meine Sorge mit AMD, das heißt doch nicht dass ich es schlecht finde. Nur um es nochmal ganz deutlich zu machen, ich hoffe dass Vega einschlägt wie eine Bombe und in allen Bereichen den aktuellen Nvidias überlegen ist, denn nur so gerät Nvidia in Zugzwang und es bewegt sich wieder was am Markt, ich habe nur SORGEN dass dem nicht so sein könnte, deswegen HOFFE ich aber doch trotzdem dass meine Sorgen sich nicht bewahrheiten ...

So einfach mit Deinen (pro-nVidia) Ausführungen - wie Du es Dir ausmalst - wird es in Hinblick auf RX Vega mitnichten aussehen und Du wirst sicherlich schon nach einer "winzig kleinen Fliege in der Suppe" Ausschau halten müssen, um (wie es zuvor bei den Polaris GPUs bei einigen nVidia-Fans gängig war) die neuen Vega GPUs nach Erscheinen mies reden zu können ... traurig, aber etwas anderes war ja wohl auch nicht zu erwarten.

Wie weiter oben geschrieben, bin ich weder pro Nvidia noch pro AMD, ich bin pro Konsumer, mir geht am Arsch vorbei wer von beiden das bessere Produkt liefert, ich bin nur an guten Produktion zu guten Konditionen für mich als Kunde interessiert und dafür braucht es Konkurrenz am Markt welche aktuell nur bedingt gegeben ist und ich eben Sorgen habe dass AMDs Vega nicht genug liefern wird um Nvidia wirklich unter Druck zu setzen.

Traurig ist dass du dich anscheinend persönlich angegriffen fühlst dass ich es gewagt habe meine Sorgen zu äußern welche weder pro Nvidia noch anti AMD sind aber gleich als solche ausgelegt werden ... Wie bereits in meinem allerersten Post in diesem Thread geschrieben (sinngemäß): Ich lasse mich gerne durch Tests eines Besseren belehren, bis dahin bleibe ich skeptisch. Diese Haltung habe ich gegenüber allen noch nicht veröffentlichten Produkten, egal von wem sie stammen, da ist nix mit pro XY, das ist kindisch hoch 10.

Mit Hinblick auf die "Schuld" ist mit Sicherheit nicht AMD zu nennen, sondern das (z.T. evt. bezahlte/gewollte) Unvermögen der Spieleentwickler sowie deren Ignoranz der gesamten Kundschaft oder zeitgemäßer Programmierung.

Diese Entwickler kann man dann wohl als AMD Kunde zukünftig auch gut aussortieren/boykottieren, anstatt sich mit deren suboptimal entwickelten Produkte aus einander zu setzen, so einfach, konsequent und besser für den Markt insgesamt ist das .

Über mangelnde Weitsicht AMDs konnte man sich jedenfalls in der Vergangenheit nicht beschweren, denn deren GPUs haben sich oft durch Ihre Ausstattung als langlebiger heraus gestellt als die vergleichbaren nVidia Pendants.

Sorry aber das klingt alles so dermaßen einseitig und fast wie eine globale Verschwörung gegen AMD :freak:. Ich hab ja bereits gesagt dass sicher AMD nicht immer und an Allem schuld ist, aber so einfach jegliche Verantwortung für das schlechtere Abschneiden des eigenen Produkts auf Andere zu schieben ist schon ziemlich verblendet. Fakt ist nunmal dass AMD einen größeren CPU Overhead duch den Treiber hat und die Leistung ihrer Karten nicht immer gut auf die Straße bringen kann, das wurde mit Polaris ja bereits verbessert und zeigt ja eindeutig dass vorher was im Argen lag, Mantle und Dx12/Vulkan haben das ja ebenfalls bewiesen.

Zumal, was hier einige Träumer für eine "Über-GPU" erwarten/hypen, führt dann sowieso nur zu maßloser Enttäuschung der nicht erfüllten exorbitanten Erwartungshaltung ... bleibt doch 'mal bitte etwas auf dem Boden/realistisch, das "Rad" kann/will AMD damit nicht neu erfinden.

Natürlich sollte man seine Erwartungen nicht zu hoch setzen, aber wenn AMD es über 1 Jahr nach Release von Pascal nicht schafft zumindest mit dem (fast) Vollausbau wenigstens gleichzuziehen dann ist Vega doch gefloppt, denn dann ist ja wieder keine echte Konkurrenz gegeben und Nvidia muss höchstens mal den Preis ein wenig anpassen, das kann man sich als Kunde doch nicht ernsthaft wünschen ... dann bringt Nvidia ein paar Monate später Volta raus und wir haben wieder keine echte Wahl und High-End kostet weiterhin Mondpreise ....

Aber ganz ehrlich, wir spammen hier den Thread mit riesen Posts zu, entweder wir diskutieren dass über PNs weiter, oder wir lassen es bleiben und gehen unserer Wege, ich werd jedenfalls nach diesem Post nicht weiter den Thread zumüllen.
 
Zuletzt bearbeitet:
Exar_Kun schrieb:
Es ist kaum vorstellbar [...]

Wieso nicht?
Hast du schon Infos, die das zeigen?

Sorry, aber solche Kommentare sind naja...
 
@R1c3

schön geschrieben ;) stimm dir weitestgehend zu. Gerade bei dieser Innovations Thematik. Oft ist Time to Market wichtiger, bei nur 2 Playern sowieso.

Umso wichtiger dass die HBM Sache mal Früchte trägt.

@ Volta

Da erwarte ich kaum was sofern Nvidia wieder auf 16 nm TSMC setzen sollte. Bzw ich erwarte das was im Rahmen von 470 mm² GP102 zu ~max 600mm² halt noch wirtschaftlich machbar wäre. Wirklich viel mehr Leistung pro mm² erwarte ich innerhalb einer Fertigung nicht. Da war Maxwell ne absolute Ausnahme dank Tiled Rendering.

Vega hat das deutlich größere Release vor sich.
 
Zuletzt bearbeitet:
Hoffentlich dauert es dann nicht zu lange bis die Custom Modelle im Handel verfügbar sind. Ich kann es kaum erwarten meine GTX 970 mit der Vega zu ersetzen. Wenn die Karte doppelte Leistung von einer RX 480 bringt und dann auch nur das doppelte einer RX 480 kostet sprich ~ 450€ dann ist die Karte sehr lecker. Schneller als 1080 und günstiger. Das ist alles was wir brauchen. Nvidia kann meinetwegen weiterhin den Thron mit der 1080 TI für sich beanspruchen.
 
Zuletzt bearbeitet:
Chismon schrieb:
der bis heute softwareseitigen Emulierung von AsyncCompute durch den Pascal-Chip

Das ist grosser Fanboy-Bloedsinn. Pascal kann Async compute und Asynchronitaet ist nicht gleichzusetzen mit Nebenlaeufigkeit. Im Gegensatz zu Maxwell, wo das Scheduling voellig statisch war und die ganze Maschine bei einem context switch erstmal komplett stehen bleibt ist das ein grosser Fortschritt. Auch wenn Pascal hier nicht so weit ist wie GCN gibt es keinen Grund ihm die AC-Faehigkeit abzusprechen.

Wuerdest du den HBCC eigentlich auch feiern, wenn er von Nvidia kaeme?
IMHO sollen die Devs gefaelligst um ihren Code und ordentliches Streaming kuemmern und nicht alles einfach unnoetigerweise in den VRAM pappen, nur weil die Konsolen halt nur einen Speicherpool haben. Da mit Hardware gegenzuhalten ist eigentlich die voellig falsche Richtung, zumal noch voellig unklar ist, wie es am Ende funktioniert. Kan gut sein, dass es dadurch die Frametimes erstmal ordentlich zerhagelt.

Krautmaster schrieb:
Bin ich auch mal gespannt da es oft ausreichen dürfte. Bei Nvidia hat auch nur das Computing Top-Modell P100 die doppelte FP16 Leistung zu FP32. Andere Chips wie GP104 sind dahingehend massiv entschlankt.

Das Schoene an half floats ist, dass man einfach nur im Shader den Variablentyp aendern muss. Da die PS4 Pro ziemlich sicher genutzt wird, kann man es auch problemlos am PC bringen. Bevor es aber relevante Verbreitung hat, ist es kein Problem fuer NV nachzulegen. Schon Volta kann 2xFP16 bringen, zur Not deaktiviert man das Feature erstmal "weich" und schaut wie es sich entwickelt.

Krautmaster schrieb:
Da erwarte ich kaum was sofern Nvidia wieder auf 16 nm TSMC setzen sollte. Bzw ich erwarte das was im Rahmen von 470 mm² GP102 zu ~max 600mm² halt noch wirtschaftlich machbar wäre. Wirklich viel mehr Leistung pro mm² erwarte ich innerhalb einer Fertigung nicht. Da war Maxwell ne absolute Ausnahme dank Tiled Rendering.

Maxwell hat mehr Neuerungen gebracht als nur den tiled renderer, auch wenn man sagen muss dass das Kepler Design etwas kaputt war.
Pascal ist fast nur ein Shrink, dabei sind beide Generationen urspruenglich sehr spaet auf der Roadmap aufgetaucht. Volta koennte schon wieder mehr Aenderungen bringen. Und natuerlich hat man wie du selbst sagst ja auch noch ordentlich Spielraum bei der die size.
 
Zuletzt bearbeitet:
Che-Tah schrieb:
Ich hasse dieses Sprichwort.... Es steht für Stillstand ohne Inovationen.

Ja richtig, zeugt von fehlender Innovation. Aber auch an einer "Ausentwicklung". Was will man an einem Rad noch an Innovationen bringen. Wenn man fliegen will, braucht man eh Flügel. Oder die Neuerungen sind einfach nicht ökonomisch vereinbar.

Oder mal so gefragt. Was gab es denn an Innovationen in den letzten Jahren im GPU-Sektor? Es ist alles schneller, höher, breiter usw. geworden. Aber so richtig neu ist da nichts. Oder mir ist es einfach entgangen.


@Bigfoot29

Super Wortwitz :D
Ja abwarten ist klar, aber ich rate auch gern mal.
 
Chismon schrieb:
HBM(2) und HBCC werden sicherlich als allgemeine Meilensteine in Sachen GPU-Architektur eingehen,
Wie ich schon mal geschrieben habe, ist das ganze nichts neues, sondern Jahre alte, neu verbuzzwortete Technik, damals unter den Namen Turbocache bzw. Hypermemory bekannt. Das ganze ist kein Meilenstein sondern nur ein Krücke für Billiglösungen, man hat halt jetzt sogar auch bei AMD bemerkt, das HBM2 schweineteuer ist und versucht nun, Speicher und damit Kosten zu sparen, ohne allzu dramatisch an Leistung zu verlieren. Neu daran ist nur, daß AMD etwas Speicher zwischen Controller und PCIe-Bus geschraubt hat. Im Westen also nichts neues, hier kannst da ganze noch bei Anandtech nachlesen.

Trotz anfänglicher Unzulänglichkeiten/Einschränkungen wie dem 4GB Limit von HBM1 ist es - AMD-typisch - eine Investition in die Zukunft (vergleichbar vielleicht mit der Entwicklung von Mantle) die sich hoffentlich auch spätestens bei den Navi GPUs vollends bezahlt macht.
Oder etwas realistischer ausgedrückt: AMD-typisch am Markt vorbei entwickelt und man hofft, daß man es vielleicht später mal gewinnbringend einsetzen kann.

duskstalker schrieb:
ich war mal texture artist / skinner in einer source engine mod, und ich kann dir sagen, dass die kompression und die kluge verwaltung von ressourcen den speicherbedarf für texturen mindestens um den faktor 4 (!!!!!) verringern.
Offenbar aber den Verbrauch von "!" verfünffacht. Wie ich es liebe, wenn angebliche Experten über ihre vorgeblichen Kollegen herziehen und diese für dumm verkaufen, alles besser zu wissen glauben, aber noch nicht mal in der Lage sind, Groß- und Kleinschreibung zu benutzen.
 
Zuletzt bearbeitet:
jbauer schrieb:
Wie ich schon mal geschrieben habe, ist das ganze nichts neues, sondern Jahre alte, neu verbuzzwortete Technik, damals unter den Namen Turbocache bzw. Hypermemory bekannt. Das ganze ist kein Meilenstein sondern nur ein Krücke für Billiglösungen, man hat halt jetzt sogar auch bei AMD bemerkt, das HBM2 schweineteuer ist und versucht nun, Speicher und damit Kosten zu sparen, ohne allzu dramatisch an Leistung zu verlieren. Neu daran ist nur, daß AMD etwas Speicher zwischen Controller und PCIe-Bus geschraubt hat. Im Westen also nichts neues, hier kannst da ganze noch bei Anandtech nachlesen.
Genau, man hat ganz urplötzlich bemerkt, wo die Kosten liegen. So völlig aus dem Nichts. Wahrscheinlich hält man zu SK Hynix auch gar keinen Kontakt, so eine enge Partnerschaft ist ja nichts wert.

Leute, die überhaupt noch keine Ahnung haben können, sich aber schön weit mit vollem Körper aus dem Fenster lehnen und wissen wollen, wie gut oder schlecht etwas funktionieren wird. Sowas muss man lieben.

jbauer schrieb:
Oder etwas realistischer ausgedrückt: AMD-typisch am Markt vorbei entwickelt und man hofft, daß man es vielleicht später mal gewinnbringend einsetzen kann.
Stimmt. So sehr am Markt vorbei entwickelt, dass selbst bei nVidia schon HBM2 zum Einsatz kommt. :freak:
Ansonsten braucht man sich bei den großen Vorteilen, die HBM bietet gar keine Sorgen machen und auf irgendwas hoffen. Die Frage ist nicht ob, sondern wann es sich in größerem Maße durchsetzt.
Mal ganz unabhängig davon eben auch im Zusammenhang mit diesem "am Markt vorbei"-Geschwafel: AMD hat nicht die Ressourcen dafür, um mal eben mehrere Chips im vorbeigehen aus dem Ärmel zu schütteln. Aber wahrscheinlich erwarten einige sogar noch den Weltfrieden von AMD, überraschen würde mich das nicht.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
ich denke die Ähnlichkeit kann letztendlich weit weniger groß sein als man rein von den Zahlen her mutmaßen würde.

Gehen wir von rein davon aus würde es bei weitem keinen 500mm² Chip erklären. Ein Fiji Shrink in 14 statt 28nm wäre nur ~300mm² groß. Wenn überhaupt. Da müsste AMD die Density schon massiv nach unten drehen , ggf um den Takt zu erhöhen. Aber so viel? Wohl kaum.

Die Anzahl der diversen Units mag gleich sein, aber die meisten davon dürften schon deutlich überarbeitet worden sein. Gerade um auch mit 4096 Shader noch gut zu skalieren.

DANKE! Aber erstaunlich daß bei sovielen Bertiebswirtschafts-Marketing-Marktanalyse-ArchitekturDesign-DiplomPhysik-Experten hier erst bei #70 dies benannt wird.
Vega wird 'n Haufen mehr Transistoren trotz 4096 Shadern auf dem Chip haben. Das das nicht nur Füllstoff ist sollte doch Jedem hier klar sein.
Das kommt der eigentlichen Funktionalität eines Shaders zu gute und die Leistung pro Takt wird erhöht. Dazu kommt dann noch der höhere Takt.


Naff schrieb:
Wenn alle über Fury so meckern, ich würde sofort eine für 200€ kaufen, 250 für die X.
Yo.. seh' ich genauso. Ich würde ne 1080 für 300€ und ne 1080Ti für 350€ nehmen.. TitanXp für schlappe 450€:stacheln:
 
Mit der Größe des Dies sinkt ja die Ausbeute. Bei dem riesigen Die von Vega kein gutes Zeichen, v.a. für den Preis. Einen ähnlichen "Kompromiss" hatten sie ja damals schon beim K6-III eingehen müssen. Der war zwar verdammt schnell aber für AMD auch ziemlich teuer. Bin mir auch nicht so sicher ob das mit HBM die richtige Entwicklungsrichtung war. Bei den Fury's hatte man ja kaum Benefit davon und die kompakte Bauform kommt nur wenigen ITXlern zu Gute. Ich denk mal erst wenn Nvidia mit auf den Zug aufspringt wird das ganze zumindest preislich attraktiver.
 
Eine reguläre Fiji Karte liegt irgendwo zwischen 980 und 1070. Das haben in den letzten Wochen genug moderne Spiele Benchmarks und richtige GPU Benchmarks wie Superposition ja deutlich gezeigt.

Vega dürfte mit dem GCN Upgrade sowie der Polaris Strukturbreite noch einen guten Sprung nach vorne machen was den Takt und die Effizienz angeht. Ich schätze hier erhalten wir eine Leistung ähnlich der 1080 Ti. Im Großen und Ganzen sehe ich die Vega in der Tat auch selbst als eine verbesserte Fiji Karte mit HBM2 und den evolutionären Neuerungen aus der Polaris Generation.
 
Meine Hoffnung:

VEGA wird schon gut werden, sonst hätte AMD Nvidia nicht ein Jahr lang den High-End Markt überlassen.

Meine Angst:

die Verzögerung lag ausschließlich am HBM. :rolleyes:
 
duskstalker schrieb:
dafür hast du ja sicherlich zahlreiche beispiele. gerne auch aus dem releasejahr von fiji, weil auch da waren sich experten schon einig, dass 4gb zu wenig sind.

also bitte. die 4 GB waren imho der hauptgrund wieso die karte damals gefloppt ist. heutzutage eine highendkarte mit 8 GB rausbringen ist den selben fehler wieder machen.

die allermeisten leute die so viel geld für ne karte in die hand nehmen wissen sehr wohl wie wichtig vram ist... wie jemand, heute, NACHDEM man weis wie böse die 4 GB ram karte gefloppt ist kommen kann und sie immernoch verteidigt bleibt mir ein rätsel...
 
Zuletzt bearbeitet:
R1c3 schrieb:
Aber Nvidia kann das ? AMD hat doch die gleichen Informationen wie Nvidia zur Hand was aktuelle Titel so verbrauchen ... wenn man dann eine Karte herausbringt die bereits beim Release weniger Vram als die Konkurrenz bietet muss man sich schon fragen wer sich den Murks ausgedacht hat, der Spieleentwickler ist da nicht (immer) schuld, der optimiert nur so viel wie er muss damit es läuft. Das mag nicht löblich, toll oder optimal sein, so sieht aber die Realität aus und an der muss AMD sich orientieren, was ja nach der Fury auch geschehen ist indem dann flott Karten mit 8GB kamen.

Nein, nVidia hat die große Marktmacht. Ohne sich nach nVidia zu richten können die Entwickler/Studios einpacken, weil sie dann Ihre Produkte nicht verkaufen können, das hat man doch bei der GTX 970 gesehen, wie lange man dort speichertechnisch festhing und wie viel Arbeit da hinein gesteckt wurde, damit es auf dieser GPU auch ja gut läuft bis man dann mit Pascal neu verdienen wollte.

Natürlich haben beide Chipentwickler die gleichen Informationen, aber die meisten Spieleentwickler - ob mit zusätzlichen Anreiz oder nicht - haben keine Wahl und müssen schauen, dass Ihr Produkte einigermaßen zufriedenstellend zumindest die High End GPUs von nVidia bedienen, bei AMD sind Ober- und Enthusiastenklasse-GPUs ja momentan (noch) nicht gegeben seitdem man bei 14nm angekommen ist.

Dass man aber auch genügsam entwickeln kann zeigen doch etliche Beispiele wie ein Witcher 3 oder selbst ältere Spiele wie Ryse oder Crysis 3, die optisch immer noch vor vielen aktuellen AAA Titeln liegen, somit liegt es in erster Linie natürlich an den Spielentwicklern (dass diese z.T. grundlos Speicherressourcen verballern) und nicht den GPU-Entwicklern, insbesondere, wenn seitens ersterer technisch kein großer Wurf mehr gelingt und Fortschritt spürbar ist, Star Citizen 'mal ausgenommen.

Demnach bleibe ich dabei, dass es alleinig die Verantwortung der Spielentwickler ist sich an der aktuellen Hardware auf dem Markt und deren Verteilung zu orientieren und so effizient wie möglich zu programmieren bzw. sich nach der Mehrzahl der Spieler zu richten und nicht nach dem was technisch machbar wäre und was einem einer der GPU-Entwickler nahelegt.

Es artet mit nicht wirklich sinnvollen Einstellungen in Spielemenüs doch seit Jahren immer mehr aus und alles wird künstlich aufgeblasen und am Ende ist kaum ein Unterschied sichtbar zwischen ultra und high Einstellungen, aber seitens der Industrie und Presse wird einem ständig erzählt man müsse aufrüsten ... gesund ist diese Entwicklung schon lange nicht mehr.

Wenn HBCC so funktionieren sollte wie angedacht, dürfte die verbaute Speichermenge keinerlei Probleme bieten und man wäre effizienter und stünde mit 8 GB HBM2 (dadurch angeblich äquivalent zu 16 GB GDDR5 in min. fps) besser als jede andere aktuelle nVidia Pascal GPU auf dem Markt (mit Ausnahme der P100 GPUs im Profi-Segement) da.

Warten wir doch erst einmal ab, wenn HBCC ein Flop sein sollte, werde ich auch keine RX Vega(10)-Karte kaufen, darauf lege ich mich auch gerne fest, denn veräppeln lasse ich mich von AMD auch nicht und ich bin in erster Linie auch Kunde.

R1c3 schrieb:
Hab ich gesagt dass Nvidia super toll und unfehlbar sind ? Nein, das interpretierst du hier rein weil ich es gewagt habe meine Sorgen über Vega zu äußern ... Mir ist ehrlich gesagt scheißegal ob ich eine Nvidia oder AMD oder eine Matrox oder was weiß ich verbaut habe, das Produkt muss stimmen und sonst nix ... dass Nvidia ziemlich unsympathisch ist mit ihrem proprietären Scheiß, der 970 Vram Krüppel Aktion und anderem Murks find ich auch alles andere als toll, nur weil ich das in einem Thread über AMDs neue Vega GPU nicht explizit genannt habe heißt nicht dass ich sowas gut heiße ....

Von unfehlbar redet keiner, ich nutze jetzt gerade selber eine (betagte) nVidia GPU und nur weil viele dem Verein die Bude immer noch einrennen, heißt das nicht, dass diese alles richtig gemacht haben, das diente nur der Klarstellung wie viel Mist die seit Maxwell verzapft haben. Gut, dann sind wir uns ja einig, dass das Kundeninteresse oberste Priorität genießt.

Momentan sehe ich Deine "Sorgen" nicht als begründet an, denn das Produkt ist weder offiziell auf dem Markt noch getestet worden, von mir aus kannst Du danach auch kein gutes Haar mehr daran lassen, aber jetzt schon wieder grundlos AMD negativ zu konnotieren, finde ich nicht gerechtfertigt, so einfach ist das und genau das klang bei Dir eben durch.

Dass AMD nicht die Wohltäter sind ist schon klar, aber das Unternehmen hat schon genug zu kämpfen (teils berechtigt wegen eigener Fehleinschätzungen, teils aber auch unverschuldet), da braucht man nicht noch (aus welchem Grund auch immer) schon im Voraus etliche Bedenken anmelden, aber vielleicht ist das auch eine Mentalitätsfrage.

R1c3 schrieb:
Innovation ist schön und gut (ganz im Ernst), nur ist AMD erstmal ein Unternehmen und muss Geld verdienen und gute Produkte abliefern, es ist absolut egal ob sie mit ihren Produken innovativ sind oder nicht ...
Innovation bei Nvidia ist aktuell halt einfach nicht groß nötig weil man auch so die Leistungskrone inne hat ... nur wenn Druck herrscht kommt Bewegung in die Sache und aktuell ist der bei Nvidia (noch) nicht gegeben.

Wenn man so denkt und AMD eben nicht HBM, Mantle und HBCC angestoßen hätte, dann gäbe es auch keinen signifikanten Fortschritt mehr, ähnlich wie seit Jahren bei den Intel CPUs und wenn AMD nichts riskiert, dann werden sie auch nicht gleichziehen können, denn vom Budget her und von der Marktmacht haben sie klar das Nachsehen gegen Intel und nVidia.

Natürlich werden letztere AMDs Innovationen einfach kopieren für einen Bruchteil des Aufwands bzw. der Kosten, so ist das nun einmal und solange die Kundschaft nicht umdenkt und das auch noch belohnt wird sich da nichts tun. Mit Deiner "einfachen Strategie" würde AMD irgendwann ausbluten bzw. in der Versenkung verschwinden, wie schon viele andere Grafikkarten-Hersteller/ehemalige Konkurrenten davor.

Druck kommt eben nur durch Innovationen und nach Leistungskrone kaufen, ernsthaft, das ist das Kriterium (?) ... bei mir nicht, ich kann auch mit ein paar Prozent weniger Leistung gut leben ohne das mein Selbstwertgefühl darunter leiden würde, zumal ich sowieso aus Prinzip schon nicht lächerlich überteuerte Enthusiastenklasse-GPUs kaufen würde.

Genau wegen dieser oberflächlichen/kurzsichtigen "Leistungskronen-Denkweise" geht es auch AMD so dreckig (nicht ausschließlich, aber es spielt eine große Rolle) und genau diese Denkweise hält sich immer noch hartnäckig bei einigen hier in den (Ry-)Zen Threads, obwohl es kaum einen vernünftigen Grund gibt, derzeit noch Intel CPUs zu kaufen bei dem vermurksten Preis-Leistungs-Verhältnis und wie hat AMD zu Intel aufgeschlossen bzw. diese sogar z.T. überholt (?) ... genau, mit komplett neuer CPU-Architektur/Innovation.

R1c3 schrieb:
Nur um es nochmal ganz deutlich zu machen, ich hoffe dass Vega einschlägt wie eine Bombe und in allen Bereichen den aktuellen Nvidias überlegen ist, denn nur so gerät Nvidia in Zugzwang und es bewegt sich wieder was am Markt, ich habe nur SORGEN dass dem nicht so sein könnte, deswegen HOFFE ich aber doch trotzdem dass meine Sorgen sich nicht bewahrheiten ... wie weiter oben geschrieben, bin ich weder pro Nvidia noch pro AMD, ich bin pro Konsumer und dafür braucht es Konkurrenz am Markt welche aktuell nur bedingt gegeben ist und ich eben Sorgen habe dass AMDs Vega nicht genug liefern wird um Nvidia wirklich unter Druck zu setzen.

Du hoffst oder Du erwartest? Das liest sich meiner Meinung nach eher wie einer Erwartungshaltung (mit dazugehörigen "Sorgen"/Konditionen)und nicht wie eine Hoffnung. Ich hoffe auch auf's beste, knüpfe aber eben vorweg keine Ansprüche daran, die AMD mit den verfügbaren Ressourcen unmöglich erfüllen kann.

Vielleicht sollte man AMD daran messen, was diese aus den verfügbaren Mitteln (noch) schaffen können und nicht daran was nVidia mit deren Mitteln schaffen kann und das gleiche oder mehr von AMD erwarten.

Vielen geht es doch nur darum, dass AMD die Preise für die nVidia Produkte senken kann und diese haben noch nicht begriffen, dass AMD sich davon abgekoppelt hat und nicht mehr den Preissenker für die Konkurrenzprodukte spielen will und Ihr eigenes Ding machen.

Deswegen sind zahlreiche nVidia-Fans ja auch so frustriert über AMD (und deren neue GPU-Halbgenerationen-Politik) und sehen dort die Schuld, dass sie deswegen tiefer in Tasche greifen müssen, obwohl diese selber durch Ihre einseitiges Kaufverhalten dazu beigetragen haben und z.T. für die Schieflage im Markt verantwortlich sind.

R1c3 schrieb:
Traurig ist dass du dich anscheinend persönlich angegriffen fühlst dass ich es gewagt habe meine Sorgen zu äußern welche weder pro Nvidia noch anti AMD sind aber gleich als solche ausgelegt werden ... Wie bereits in meinem allerersten Post in diesem Thread geschrieben (sinngemäß): Ich lasse mich gerne durch Tests eines Besseren belehren, bis dahin bleibe ich skeptisch.

Persönlich angegriffen nicht, zumal Du mich nicht kennst und sich das somit sowieso ausschließt, nur finde ich es nicht hilfreich, im Voraus grundlos Bedenken anzumelden und das Produkt dadurch schlecht zu reden, bevor es überhaupt eine Chance hat sich zu etablieren.

Ja, mich nervt die lange Wartezeit und dürftige Informationspolitik von AMD ebenso und nein, ich werde nicht sofort nach ersten (positiven) Tests mir eine Karte (im Referenzdesign) kaufen, aber ich suche auch nicht großartig schon vorher nach der Fliege in der Suppe, insbesondere, wenn es komplett vage ist und nicht absehbar ist, ob der verbaute Speicher ausreichen wird oder nicht.

Wenn Du handfeste Spezifikationen und Daten hättest - dass der Speicher nicht reichen wird, HBCC nicht funktioniert, meinetwegen der Preis zu hoch ist, was auch immer, ok, aber die jetzigen Unkenrufe müssen echt (noch) nicht sein.

Dann tue das, bleibe skeptisch und warte wie alle anderen auch auf erste Tests - solange dauert es ja nicht mehr - anstatt jetzt schon die Speicherausstattung von 8GB HBM2 als unzureichend anzuprangern.

Letzteres kannst Du liebend gerne machen, wenn es für RX Vega-Käufer in Sachen Speicher dann nicht mehr reichen sollte, vielleicht finden sich ja in den kommenden Jahren ein oder mehrere miserabel programmierte AAA Titel, für die die Vega-Speicherausstattung dann nicht mehr langt und für die sich der Kauf einer GTX 1080 Ti oder besser noch der vermutlich (fast) doppelt so teure Titan Xp dann richtig gelohnt haben (wer's glaubt :lol:), denn andere Alternativen des Marktführers mit mehr verbautem Speicher gibt es zum Marktstart von RX Vega nicht ... warten wir es ab ;).

R1c3 schrieb:
Natürlich sollte man seine Erwartungen nicht zu hoch setzen, aber wenn AMD es über 1 Jahr nach Release von Pascal nicht schafft zumindest mit dem (fast) Vollausbau wenigstens gleichzuziehen dann ist Vega doch gefloppt ... dann bringt Nvidia ein paar Monate später Volta raus und wir haben wieder keine echte Wahl und High-End kostet weiterhin Mondpreise .... ganz ehrlich, wir spammen hier den Thread mit riesen Posts zu ...

Na, davon gehe ich auch nicht aus, schon in Doom und Quake Champions (mit Vulkan Renderpfad) erwarte ich eigentlich, dass RX Vega im Vollausbau der GTX 1080Ti und der Titan Xp den Schneid abkaufen wird und wenn idSoftware oder Bethesda erst einmal auf FP16 optimieren sollten, dann dürften zumindest für Spiele dieses Entwicklers/Publishers alle AMD Vega GPUs eindeutig die erste Wahl sein.

Wie viel in einem Jahr bewerkstelligt werden kann und die Vega-Optimierung einfließen kann, ist natürlich wieder einmal von den Entwicklern abhängig. Da ich genügsamer bin und auch kein wassergekühltes Flaggschiff kaufen wollen würde, ist mir das im Endeffekt vollkommen egal wer in einem Jahr die schnellste GPU/Leistungskrone hat (darum dreht sich meine Welt nicht bzw. das gibt mir keine Genugtuung und ich werde nicht in Tränen ausbrechen, wenn die Leistung einer GTX 1080Ti nicht durch die Bank/in so gut wie allen Spielen dann übertroffen wird vom RX Vega Flaggschiff).

Hauptsache die GPU reicht für meine Ansprüche die nächsten 4+ Jahre und wenn HBCC passt, wird sie das mit Sicherheit tun und gefloppt ist die GPU für mich dann bestimmt nicht, zumal ich glücklicher Weise kein Hobby-Enthusiast oder Early-Adopter bin :).

Mir würde in etwa GTX 1080 Leistung zu Beginn mit neuer/besserer Vega-Architektur vollkommen ausreichen, solange der Preis stimmt und HBCC einigermaßen gut funktioniert, zumal UHD/4K Gaming m.E. sowieso noch viel zu unausgereift und teuer aktuell (und für mich mindestens bis zum Erscheinen der danach folgenden Navi-GPU-(Halb-)Generation von AMD in 2019) ist.

Respekt in jedem Fall für Deine ausführliche Antwort bzw. dass Du Dir so viel Zeit genommen hast und ja, ich denke ich habe meinen Standpunkt ebenfalls klar gemacht, Du Deinen zuvor und belassen wir es einfach dabei ;).
 
Zuletzt bearbeitet:
tomasvittek schrieb:
also bitte. die 4 GB waren imho der hauptgrund wieso die karte damals gefloppt ist. heutzutage eine highendkarte mit 8 GB rausbringen ist den selben fehler wieder machen.

die allermeisten leute die so viel geld für ne karte in die hand nehmen wissen sehr wohl wie wichtig vram ist... wie jemand, heute, NACHDEM man weis wie böse die 4 GB ram karte gefloppt ist kommen kann und sie immernoch verteidigt bleibt mir ein rätsel...

Ich spiele mit meiner Fury Nano grundsätzlich auf 5760x1080 und auch mit der HTC Vive geht alles recht stressfrei. Kann dir da versichern, dass man auch trotz "nur" 4GB unter Eyefinity Einsatz und bei Einstellungen um High~Ultra herum ziemlich alles im 60FPS Frame Limiter spielen kann.
Bei 20% Powertarget und 1025 Mhz liegt die Nano in meinem Fall auch grundsätzlich vor der 980er.
 
flmr schrieb:
Das ist grosser Fanboy-Bloedsinn ... wuerdest du den HBCC eigentlich auch feiern, wenn er von Nvidia kaeme?
IMHO sollen die Devs gefaelligst um ihren Code und ordentliches Streaming kuemmern und nicht alles einfach unnoetigerweise in den VRAM pappen, nur weil die Konsolen halt nur einen Speicherpool haben. Da mit Hardware gegenzuhalten ist eigentlich die voellig falsche Richtung, zumal noch voellig unklar ist, wie es am Ende funktioniert.

Nur kurz dazu, zumal Du Dich mit Deinem ersteren Satz ja fast schon selbst disqualifiziert hast für eine Antwort :p, Pascal hat keine hardwareseitige AsyncCompute Unterstützung (als lediglich getunter Maxwell-Shrink), das ist Fakt, sondern kompensiert dieses softwareseitig (falls Du den Begriff Emulation nicht mögen solltest).

Ja, natürlich würde ich es auch feiern wenn nVidia HBCC als erste einführen würden, weil ich - im Gegensatz zu Dir vermutlich - in erster Linie Kunde bin und nicht Markenfan und weil die Speicherpreise sich absolut abartig derzeit entwickeln und kräftig die Kosten der Karten ansteigen lassen.

Speicherpreise sind viel zu hoch im Verhältnis zu Mainboards und CPUs derzeit - was auch die riesigen Gewinne bei Samsung (bei angeblicher Knappheit) erklärt und dass man Intel an der Spitze als Halbleiterhersteller mit den höchsten Verkäufen nach langer langer Zeit (24 Jahren) abgelöst hat (wie vor kurzen in diesem CB Artikel zu lesen war).

Durch HBCC wird nämlich die Preistreiberei durch kontinuierlich steigende Speichermengen ein wenig eingedämmt, zugleich ist mehr Platz für den Chip da, wobei da HBM auch hineinspielt und auch wieder klar die Überlegenheit gegenüber der veralteten - aber immer noch von nVidia bevorzugten, weil noch gewinnträchtigeren - GDDR-Speichertechnik (von welcher GDDR6 hoffentlich die letzte Iteration wird) aufzeigt und der Verbraucher wird bisher jedenfalls nicht z.T. durch Exklusivdeals (etwa bzgl. GDDR5X zwischen nVidia und Micron) ausgeschlossen.

Man bekommt also mehr Leistung durch HBCC Effizienz und HBM-Ausstattung und kann die noch höheren HBM-Speicherpreise durch eine kleinere benötigte Menge kompensieren, ist doch prima und damit hätte sich wohl auch die HBM-Entwicklung zusammen mit SK Hynix für AMD ausgezahlt und sogar nVidia nutzt HBM2 im Profisegment, angeblich weil HMC noch nicht bereit/entwickelt (evt. auch viel zu teuer) war von Micron. nVidia war schon immer gut im optimieren, abkupfern und Marketing, aber nicht sonderlich beeindruckend, wenn es um Kreativität und echte Innovationen geht, da ist AMD nVidia besonders in den letzten Jahren weit voraus gewesen ;).

Streaming kann man sicherlich zum Teil nutzen um die Last zu senken, aber nicht vorwiegend/alleinig einsetzen (insbesondere bei der Netzinfrastruktur außerhalb von Ballungsräumen dürften Lags und niedrige Frames verlässliches Streaming ausschließen) und zudem macht man sich von den Anbietern durch Streaming total abhängig (als ob durch DRM und die jetzigen Always-Online Spieleanbieterplattformen wie Steam, UPlay, etc. man nicht schon abhängig genug wäre), da finde ich Hardwarelösungen schon die deutlich bessere Lösung.

Die von AMD im professionellen (Kino-)Bereich eingeführten GPU-Lösungen mit SSD-Speicheranbindung könnten irgendwann auch im Consumer-Bereich landen.
 
resonic schrieb:
Ich spiele mit meiner Fury Nano grundsätzlich auf 5760x1080 und auch mit der HTC Vive geht alles recht stressfrei. Kann dir da versichern, dass man auch trotz "nur" 4GB unter Eyefinity Einsatz und bei Einstellungen um High~Ultra herum ziemlich alles im 60FPS Frame Limiter spielen kann.
Bei 20% Powertarget und 1025 Mhz liegt die Nano in meinem Fall auch grundsätzlich vor der 980er.

ich habe behauptet das die karte gefloppt ist. das DU sie dir (offensichtlich;-)) gekauft hast und glücklich mit ihr bist ändert 0,0 an dieser tatsache.

die meisten leute glauben der grund waren die 4 GB. was denkst du soll AMD jetzt machen? aus ihren fehlern lernen und das nächste mal nicht wieder zu wenig RAM bringen oder sollen sie sich denken: hej, kuck mal, ein "resonic" hat unsere karte in nem abverkauf gekauft bei dem wir praktisch nix verdienen und ist glücklich mit ihr, deshalb lassen wir alles so wie es war!
 
Faust2011 schrieb:
Genau das hier bringt alle Spekulation auf den Punkt:

Entsprechend ist quasi schon gesichert, dass die neue Architektur durch eine massiv verbesserte Effizienz das Ruder herum reißen muss. Das ist nichts schlechtes, denn Rohleistung hat bereits Fiji eine Menge – die die GPU aber nicht in tatsächliche Performance umzusetzen vermag. Und genau hier wird die Vega-Architektur ansetzen.

Wie gut ist die neue Ausbaustufe der GCN-Architektur wirklich? Was bringen die NCUs gegenüber den bisherigen CUs?

Wenn dem so ist, dass Vega auf Fiji aufbaut und man Vega deutlich beschleunigen wird können, wird man dann auch für Fiji-basierte Karten nochmal mit mehr Leistung rechnen dürfen?
 
Zeigt wieder wie Kurzsichtig die Menschen hier sind. Vega ist nicht nur ne Gaming Karte. Fijii war zwar mehr eine Gaming Karte, aber auch ein Testbalon und auch das nicht nur für das Gaming alleine. Überall wo ein Fijii eingesetzt wurde, könnte man somit ein Vega Chip erwarten, der seine Aufgabe besser und gerichteter vollzieht.
Das betrifft auch die 8K Beschleuniger Karte für Videos mit der SSD auf der Platine.
Im Gegensatz zu Fiji ist man bei Vega für den Professionellen Markt nicht auf max 4GB beschränkt, sondern es sind 16 GB und als Dual Variante 32 GB möglich. Dazu folgt das bis 512 TB Adressierung, was nicht nur Arbeitsspeicher sondern eben auch eine SSD auf der Platine betreffen kann. Aber Hauptsache jeder weiß, wie schlecht doch Vega ist. Kauft eure NV Karte wenn ihr keine AMD wollt, aber lasst die beschränkten Aussagen, wenn ihr nichts mit Infos anfangen könnt.
Genauso wie es schon wieder peinliche GFLOPs Vergleiche gibt, die sich wieder auf die Bremse DX11 beschränken.

@Über mir
Nur beschränkt, da Vega einen anderen Compiler hat und bei gewissen Sachen auch direkt angesprochen werden kann, was zukünftige AMD Karten betreffen würde. Vega wird durch neue Features/Optimierungen/Neuheiten und durch den Compiler, welche das Erwähnte ansprechen kann effizienter. Dazu braucht man nur den verlinkten Artikel lesen.
 
Zuletzt bearbeitet:
Zurück
Oben