News AMD Radeon RX: Vage Gerüchte um Polaris 30 in 12 nm im 4. Quartal

duskstalker schrieb:
fällt dir wirklich nicht auf, dass vega immer dann schlecht ist, wenn ALLE radeonkarten schlecht sind - und vega immer dann gut ist, wenn ALLE radeonkarten gut sind?

Wie erklärst du dir dann die Benchmark-Schwäche von Fiji? Es gibt genug Beispiele, in denen Fiji trotz guter Optimierung für AMD im Vergleich zu den restlichen Radeonkarten leistungstechnisch abschmiert. Liegt das auch an irgendeiner Verschwörung? Oder könnte es sich um Treibergeschichten, Spieleengines, Features, die unterliegende Architektur oder um sonstwas handeln?

Das blendest du alles aus und gehst in die typische schwarz-weiß Denkweise über. Eine andere Perspektive würde da helfen.

duskstalker schrieb:
schaus dir bitte selber an:

https://www.computerbase.de/artikel...487/#diagramm-performancerating-fps-2560-1440

in 19 von 21 spielen verliert vega 64 gegen die gtx 1080, wenn die rx580 gegen die gtx 1060 verliert, und gewinnt gegen die gtx 1080, wenn die rx580 gegen die 1060 gewinnt.

von wegen unbeständig - das ist extrem konsistent.

Warum betrachtest du die Mittelklasse in 1440p? Weder die RX580 noch die 1060 sind dafür ideal. In dieser Auflösung rutschen viele Spiele in unspielbare FPS. Im Mittel schenken sich beide Karten nicht viel. Ausreißer gibt es sowohl in die eine oder andere Richtung - für beide Hersteller.

Du vergleichst übrigens Prozente. Spielst du in Prozenten oder in FPS? Prozente sind relativ. Der nächste Test oder Patch kann das alles u.U. wieder richten. Die Ergebnisse sind also nicht in Stein gemeißelt. Deshalb machen CB und Co. ja dieselben immer wieder.

duskstalker schrieb:
also zuerstmal sind 14% delta keine "minimalen ausreißer", für sowas launcht nvidia gern auch mal ne neue gpu.

ja, das liegt an den spielen. wie oft noch :lol:

Vielleicht solltest du einmal auf 1080p anstatt 1440p übergehen. Da sind die Karten wesentlich näher zusammen. Außerdem liegt es nicht an den Spielen, sondern an deiner selktiven Wahrnehmung. Trau keiner Statistik, die du nicht selbe gefälscht hast. Damit beindruckst du höchsten die leichtgläubigen hier. Der Rest wird sich davon jedenfall nicht sonderlich beindrucken lassen.

duskstalker schrieb:
also der teil deines postings ist offensichtlicher noch weiter unterentwickelt. das ist doch reines nvidia-fanboy-gebashe.

Ich liebe solche Verallgemeinerungen. Je nach Moderator bekommt man da evtl. die berühmte Verwarnung / Sperrung für "persönlicher Angriff". Über Befangenheit musst du gerade reden.

duskstalker schrieb:
woher willst du eigentlich wissen, dass bei GCN nichts mehr geht? das sind doch vollkommen unhaltbare, aus der luft gegriffene behauptungen.
pascal ist maxwell mit mehr takt - vega ist "fiji" mit behobenen fehlern mit mehr takt.

Du kannst dir gerne unzählige Tests durchlesen, in denen das nicht nur ich, sondern namhafte Spieleredakteure ansprechen. Mit momentaner Ausrichtung ist bei GCN einfach die Luft raus. Ohne große Änderungen wird AMD mit GCN auf der Stelle treten. Das ist ein Fakt und du kannst noch so gerne wie Rumpelstilzchen auf die Erde klopfen, es ändert nichts.

duskstalker schrieb:
für ne taktoptimierte architektur ohne irgendwelche ipc gains wird nvidia in den himmel gelobt, und wenn amd beim takt von fiji ansetzt (der mit 1.0ghz sehr niedrig ist) wird rumgeflennt, wieso es nur geringe IPC gains gibt - wo man doch offensichtlich in den takt investiert. und das war zu 1000% die richtige entscheidung. nirgends kann man so viel leistungsplus rausholen wie bei 50-60% mehr takt.

deine äußerungen hierzu sind einfach nur biased.

Fiji war eine Totbeburt auf ganzer Linie. Da stimmt weder das Verhältnis im Backend noch die ROPs, noch die RAMbestückung, noch der Preis/Leistung. Technisch gesehen verdienst du für die Aussage eine Ohrfeige. Man kann sehr wohl etwas unter der Haube ändern. IPC gibt es im Grafikkartenbereich übrigens nicht.

Du kannst bei GPUs viele Bereiche verbessern. Z.B:
-Shaderleistung
-Dreiecksleistung
-Pixelfüllrate
-GPU/Speichertakt
-Features wie Tesselation / Filtertechniken
....

Die Liste ist theoretisch endlos. Das ist dir aber zu kompliziert und due fährst lieber mit dem Kamm drüber. Takt ist nur eine von vielen Möglichkeiten. Wenn am Ende das Verhältnis und die Leistung stimmt, warum denn nicht?

duskstalker schrieb:
woher willst du wissen, dass konsolen nur mit GCN funktionieren? das ist wieder eine komplett aus der luftgegriffene behauptung. gibts für den schmarrn auch irgendwelche belege?

AMD wird die Entwickler wohl kaum jahrelang dazu überredet haben GCN-spezifischen Features und Eigenschafen für die Konsolen zu optimieren und es dann willkürlich ändern. Das ist gesunder Menschenverstand. Wofür brauchst du da Belege?

duskstalker schrieb:
ja, wieso soll amd bitte den node-vorsprung mit 7nm nutzen, wenns nvidia eh auch macht. bei so einer argumentantion fehlen mir die worte - ehrlich. sowas blödsinniges. natürlich muss amd die 7nm so schnell wie möglich für einen node-vorsprung nutzen, weil nvidia nicht so schnell nen 7nm refresh bringen kann. turing kommt in 12nm, und das nicht vor Q3/Q4 2018 - die 7nm von amd kommen nicht so viel später, evtl handelt es sich nur um wochen. wann soll nvidia bitte turing in 7nm refreshen? 2 monate nach release?

Mach da noch Q3/4 2019 für 7nm draus und es wird eher etwas daraus. Die 7nm sind ersten technisch noch nicht vollständig ausgereift und zweitens nicht gerade günstig in der Produktion. Es muss sich etwas an der Architektur ändern, nicht an der Fertigung alleine! Alle AMD GPUs für 2018 kommen nur für die instinct-Serie (Professionell) oder als irgendeine APU.

Polaris 3.0 wäre da nur ein weiterer Rebrand/Refresh, aber nichts neues. Die 7nm-Träume kannst du dir vorläufig abschminken. Das sind übertriebene Hoffnungsblasen wie damals für Vega vor Release.

duskstalker schrieb:
ich finde ich hab hier schon genug gemacht - wäre doch sicherlich auch ne schöne aufgabe für nen grünen fanboy wie dich. aber achtung - falls du das differenziert mit gut optimierten spielen machen willst und nicht die gegimpten fps aus den nvidia spielen für die performance/watt analyse heranziehst, könnte es sein, dass der letzte notnagel für so ein peinliches amd-gebashe etwas rost ansetzt.

Von angeblichem Fanboy zu einem anderen:
-Was ist denn Optimierung?

Verbesserung auf eine spezifische Eigenschaft oder Umgebung hin. Wenn du irgendetwas "optimierst", tust du das in einem spezifischen Rahmen. Du kannst nie alles gleich optimal für alle Szenarien entwickeln. Das ist nämlich technisch unmöglich. Man kann natürlich versuchen es so gut wie möglich für alle zu machen. kostet letztendlich Zeit und Budget, die irgendjemand aufbringen muss. Ob diejendigen das können oder wollen, ist eine andere Sache.

Falls das für dich "gebashe" ist ... komm bitte wieder runter und bleib auf dem Teppich. Die Scheuklappen stehen dir nicht!

AMD wird mit Sicherheit von den Käufern gebasht, falls sie es wagen Polaris 3.0 in 2018/2019 nochmals zu releasen. Damit wären sie sicher sowohl bei den Spielern als auch Redakteuren unten durch.
 
Zuletzt bearbeitet:
ich hab noch nix konkretes von dir gesehen. links, zahlen, fakten immer fehlanzeige - nur geschwätz im nebel.

welche spiele betreffen denn die "benchmarkschwäche" von fury?

wieso soll wqhd nicht geeignet sein? für gpu benchmarks brauchts n gpu bottleneck mit maximaler auslastung und hier ist wqhd der optimale kompromiss. uhd spuckt zu wenig fps aus - da hast du recht - aber wqhd ist vollkommen in ordnung. fhd neigt zu cpu bottlenecks. wenn du der meinung bist, dass wqhd nicht geeignet ist, dann wäre deine aufgabe das nachvollziehbar zu belegen.

wenn ich einen vergleich in % mache, isses komplett wurst, was die karten an fps ausspucken, solange messungenauigkeit hier keinen zu großen einfluss nimmt, und das ist bei wqhd meiner meinung nach nicht der fall. wenn du der meinung bist, dass die messungenauigkeit zu groß ist, kannst du das gerne rechnerisch / statistisch nachweisen.

für deine ganze restlichen aussagen gibts wieder keine belege.

was sind denn diese gcn spezifischen eigenschaften, die für die konsolen so einen großen programmieraufwand darfstellen?

woher willst du wissen, dass 7nm erst ende 2019 verfügbar ist, wenn im herbst schon die 7nm compute vega kommt? amd hat die 7nm produkte noch extra vorgezogen, weil der prozess so gut läuft.
https://www.computerbase.de/2018-06/vega-20-instinct-7nm/

ja, die 7nm node ist (jetzt noch) teuerer, aber die chips sind auch wesentlich kleiner. wie die rechnung hier aussieht, wenn höhere fertigungskosten auf einen ~40% kleineren chip treffen, kann ich nicht beurteilen. aber das sind zwei faktoren, die gegeneinander arbeiten. ob ne 484mm² 14nm vega oder ne 280mm² 7nm vega teurer ist, kann ich nicht abschätzen, aber das kann ja jeder mal für sich selbst überlegen. bei hbm preisen von 160$+interposer für 8gb isses wurst ob der core 80$ oder 120$ kostet. das machen die ram preise am tag mit kursschwankungen. zudem spart man mit einer viel sparsameren vega am vrm und dem kühler.

und was ich unter optimierung verstehe: der krempel muss auf amd und nvidia gleich gut laufen. das geht sogar in dx11 mit tessellation und gameworks effekten für die fury - wie man in star wars battlefront 2 sieht. doom läuft auch auf jeder kartoffel hervorragend. negativbeispiele sind shadow warrior 2 und ghost recon wildlands.

abseits davon heißt optimieren: keine unnötige geometrie, anständig komprimierte texturen, sinnvolle aufteilung der texturgrößen, standards nutzen, die auf jeder hardware performant laufen (keine intel only compiler, keine gameworks tessellation).

das fängt schon mit der engine an: bei der cryengine und unreal engine hat nvidia knöcheltief die finger drin - da geht auf amd karten von haus aus einfach nix. jedes spiel auf der unreal engine ist potentiell ne mittlere katastrophe: pubg, fortnite, hellblade, sea of thieves, styx: shards of darkness, die liste ist quasi endlos lang, bis man mal ein UE4 spiel findet, das akzeptabel auf amd karten läuft - und da stellt man sich die frage: wieso? bei anderen engines gehts doch auch?!

es ist ein witz mit anlauf, dass epic scheinbar nen feuchten rettich drauf gibt, dass ihre engine, die so bekannt und so weit verbreitet ist, auf amd out of the box schlechter läuft als ein software-playstation 2 emulator.

wenn ich sowas lese:

"Epic developed Unreal Engine 4 on NVIDIA hardware, and it looks and runs best on GeForce."
Tim Sweeney, founder, CEO and technical director of Epic Games.
https://developer.nvidia.com/unrealengine

und nen benchmark sehen muss, in dem eine vega 64 gegen eine 1070 verliert:

http://www.pcgameshardware.de/Fortn...attle-Royale-Benchmarks-Technik-Test-1248970/

kann ich kaum genug essen um so viel zu kotzen.

das was epic und nvidia hier betreiben ist ne ganz miese masche. nicht strafbar - aber genug für meinen persönlichen mittelfinger richtung epic games. von nvidia ist man ja nichts anderes gewohnt, wie wir auf den letzten zwei seiten festgestellt haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
duskstalker schrieb:
wieso soll wqhd nicht geeignet sein? für gpu benchmarks brauchts n gpu bottleneck mit maximaler auslastung und hier ist wqhd der optimale kompromiss. uhd spuckt zu wenig fps aus - da hast du recht - aber wqhd ist vollkommen in ordnung. fhd neigt zu cpu bottlenecks. wenn du der meinung bist, dass wqhd nicht geeignet ist, dann wäre deine aufgabe das nachvollziehbar zu belegen.

Weil die Mittelklasse um Polaris 1080p-Karten sind, keine 1440p. Dass das am Ende die Ergebnisse verfälscht, sollte doch mitunter klar sein. Bei der High-End-Klasse ab 1070/-Vega 56 kann man über 1440p reden. Die haben in der Regel immerhin genug Rohleistung dafür.

Jetzt vergleichst du alles Querbeet und wunderst dich über wundersame Ergebnisse. Überlass das den Profis, die es beruflich und seit längerem tun.

duskstalker schrieb:
wenn ich einen vergleich in % mache, isses komplett wurst, was die karten an fps ausspucken, solange messungenauigkeit hier keinen zu großen einfluss nimmt, und das ist bei wqhd meiner meinung nach nicht der fall. wenn du der meinung bist, dass die messungenauigkeit zu groß ist, kannst du das gerne rechnerisch / statistisch nachweisen.

Die Messgenauigkeit ist per Definition bei Tests nicht gegeben. Deshalb muss man diese auch immer und immer wiederholen. Jeder Test ist nur eine Momentaufnahme in bestimmtem Maßstab. Um Abweichungen auszugleichen, macht Computerbase unter anderem ein Rating. Nicht Die perfekte Lösung, aber immerhin ein Anhaltspunkt. Du hingegen gehest hin und machst aus dem diesem Durchschnittsrating nochmal ein Durchschnitt. Mehr kann man eine Statistik nicht verfälschen.

Nimmt man eine größere Menge an getesteten Spielen würde sich das Ergebnis auch wieder verändern. Das sind keine abosluten Zahlen. Deshalb bekommen wir immer FPS und Prozente.

duskstalker schrieb:
für deine ganze restlichen aussagen gibts wieder keine belege.

Dreh dich im Kreis. Das ist irrelevant! Du machst ein paar an den Haaren herbei gezogene Benchmarkanalyse und leitest dir Verschwörungsphantasien daraus ab.

duskstalker schrieb:
was sind denn diese gcn spezifischen eigenschaften, die für die konsolen so einen großen programmieraufwand darfstellen?

Die Entwicklugnstools arbeiten mit bestimmten Einstellungen und Parametern. Änderst du diese, kommt am Ende nur Chaos heraus. Stell dir einfach vor die Programmierung für GCN wäre eien Ampel. Bei einer neuen Generation würdest du dann plötzlich sagen: OK, ihr fahrt jetzt alle bei rot und haltet bei grünem Signal.

Jetzt übertrag das auf tausende programmspezifische Befehle und voila ... nichts geht mehr. Die Programmierer müssten all das Wissen von Grund auf neu erlernen. Die Leistung würde einbreichen etc etc....
AMD und die Entwickler müsste alles komplett umschreiben. Für was denn? Ein paar Prozent mehr? Das macht keiner!

duskstalker schrieb:
woher willst du wissen, dass 7nm erst ende 2019 verfügbar ist, wenn im herbst schon die 7nm compute vega kommt? amd hat die 7nm produkte noch extra vorgezogen, weil der prozess so gut läuft.
https://www.computerbase.de/2018-06/vega-20-instinct-7nm/

Die 7nm Vegas sind Profikarten, die in geringer Stückmenge, aber höherer Marge kommen als die gewöhnlichen Konsumerprodukte. Du kannst überall nachlesen, dass die echte Massenproduktion nicht vor der 2. Hälfte 2019 wirklich startet. Kommen Produkte vorher, hast du wieder Monate lang keine vernünftige Verfügbarkeit.

Zwischen Massenproduktion / Fertigugnsprozess "startet" und "läuft gut" liegen Welten.

Alleine dass gerüchteweise Polaris in 12nm noch in 2018 kommt, sollte dir doch zu denken geben.

duskstalker schrieb:
ja, die 7nm node ist (jetzt noch) teuerer, aber die chips sind auch wesentlich kleiner. wie die rechnung hier aussieht, wenn höhere fertigungskosten auf einen ~40% kleineren chip treffen, kann ich nicht beurteilen. aber das sind zwei faktoren, die gegeneinander arbeiten. ob ne 484mm² 14nm vega oder ne 280mm² 7nm vega teurer ist, kann ich nicht abschätzen, aber das kann ja jeder mal für sich selbst überlegen. bei hbm preisen von 160$+interposer für 8gb isses wurst ob der core 80$ oder 120$ kostet. das machen die ram preise am tag mit kursschwankungen. zudem spart man mit einer viel sparsameren vega am vrm und dem kühler.

Die Chips sind nicht kleiner, sonder man kann mehr Transistoren bei gleicher Chipflächer unterbringen. Wie groß die Chips entsprechend werden hängt von AMD und Nvidia ab. Das ist keine Magie, sondern langjährige technische Entwicklung.

Betriebswirtschaftliche Einflüsse gibt es ebenfalls. Das ganze Thema ist sehr komplex und nicht so einfach wie du dir das vielelicht vorstellst. Zwischen 80 und 120$ ist aber ein gewaltiger Unterschied. Das muss der Käufer am Ende draufzahlen. Teilweise ist das preislich eine ganz andere Leistungsklasse.

duskstalker schrieb:
und was ich unter optimierung verstehe: der krempel muss auf amd und nvidia gleich gut laufen. das geht sogar in dx11 mit tessellation und gameworks effekten für die fury - wie man in star wars battlefront 2 sieht. doom läuft auch auf jeder kartoffel hervorragend. negativbeispiele sind shadow warrior 2 und ghost recon wildlands.

So funktioniert es nicht!
Man kann nicht ewig für alles optimieren. Die Spiele werden so gut wie möglich optimiert ... zumindest im Bestfall. Als Spieleentwickler wird für die größte Käufergruppe optimiert. Für die Nische der Nische strengt sich sicherlich niemand übermäßig an.

duskstalker schrieb:
abseits davon heißt optimieren: keine unnötige geometrie, anständig komprimierte texturen, sinnvolle aufteilung der texturgrößen, standards nutzen, die auf jeder hardware performant laufen (keine intel only compiler, keine gameworks tessellation).

Das ist Wunschdenken!
Ein Designer packt die Levels voll mit Objekten und macht alles optisch in eine real wirkende Illusion. Wie die Endergebnisse laufen sieht man oft erst in den Tests. Die meisten Entwickler sehen vom eigentlichen Gamecode nicht viel. Dafür sind oft andere Kollegen zuständig.

duskstalker schrieb:
das was epic und nvidia hier betreiben ist ne ganz miese masche. nicht strafbar - aber genug für meinen persönlichen mittelfinger richtung epic games. von nvidia ist man ja nichts anderes gewohnt, wie wir auf den letzten zwei seiten festgestellt haben.

Aha, und warum beschwerst du dich nicht, wenn ganze Engines wie die "Frostbyte Engine" von EA besser mit AMD läuft? Nennt sich das evtl. Messen mit zweierlei Maßstäbe?
Du wirst niemals alles mit jedem perfekt zum Laufen bekommen. Es gibt unterschiede in so vielen Bereichen. Tut man es doch, hat man nur Mittelmaß.
 
duskstalker schrieb:
ich finde ich hab hier schon genug gemacht - wäre doch sicherlich auch ne schöne aufgabe für nen grünen fanboy wie dich. aber achtung - falls du das differenziert mit gut optimierten spielen machen willst und nicht die gegimpten fps aus den nvidia spielen für die performance/watt analyse heranziehst

Na, ists jetzt schon Zeit für die Fanboykeule mangels passender Sachargumentation?
Ja, du hast hier schon genug gemacht. Allerdings ohne Substanz, weil du Dinge bewußt wegläst die dir nicht in die Argumentation passen und vorgebliche Unstimmigkeiten die du dir nicht erklären kannst immer versuchst mit "nVidia ist Schuld" zu begründen. Vielleicht zieht das ja im Computerbild-Forum. Kann ich mir hier aber nicht vorstellen.

Meine Performance/Watt Analyse ist übrigens aus dem gleichen CB-Artikel entnommen aus dem du eine deiner Grafiken hast (nVidia Gemaworks vs. AMD Benchmarks). Sind deine Behauptungen die darauf Bezug nehmen valide, sinds meine auch. Viel gibts da eh nicht mehr zu analysieren (oder besser schönzurechenen?). Die Aussage ist zu eindeutig.

duskstalker schrieb:
wenn ich sowas lese:

https://developer.nvidia.com/unrealengine

und nen benchmark sehen muss, in dem eine vega 64 gegen eine 1070 verliert:

http://www.pcgameshardware.de/Fortn...attle-Royale-Benchmarks-Technik-Test-1248970/

kann ich kaum genug essen um so viel zu kotzen.

das was epic und nvidia hier betreiben ist ne ganz miese masche. nicht strafbar - aber genug für meinen persönlichen mittelfinger richtung epic games. von nvidia ist man ja nichts anderes gewohnt, wie wir auf den letzten zwei seiten festgestellt haben.

Was würde dich denn vom Kotzen abhalten? Wenn EPIC auf AMD entwickelt und AMD-exklusive Features nutzt? Oder vielleicht auf etwas neutralerem wie ner Intel IGP? Vielleicht wäre auch ein Softwarerenderer am Besten, aber nur wenn er nicht mit einem Intel-Compiler erstellt wurde, gell?
 
Zuletzt bearbeitet:
duskstalker schrieb:
ja, die 7nm node ist (jetzt noch) teuerer, aber die chips sind auch wesentlich kleiner. wie die rechnung hier aussieht, wenn höhere fertigungskosten auf einen ~40% kleineren chip treffen, kann ich nicht beurteilen. aber das sind zwei faktoren, die gegeneinander arbeiten. ob ne 484mm² 14nm vega oder ne 280mm² 351mm² 7nm vega teurer ist, kann ich nicht abschätzen, aber das kann ja jeder mal für sich selbst überlegen.

Fiji und Vega kranken am zum Teil vermurksten Powergating und der fehlenden (optimalen) Treiberbalance besonders unter dx11. Mit der Architektur hat das weniger zu tun.
 
Um das ganze hier mal etwas sachlicher zu beurteilen, mir sagt die statistische Analyse von @duskstalker sehr zu. Er benutzt alle Datenpunkte, erklärt nachvollziehbar die Unterteilung in zwei Gruppen, zeigt Trends nicht für einzelne Karten, sondern für das relative Verhalten innerhalb der Produkte eines Herstellers etc. Außerdem zeigt er genau, woher er die Daten nimmt, so dass jeder seine Darstellungen nachvollziehen und überprüfen kann!
(Ich arbeite übrigens in der Messtechnikentwicklung und mache statistische Analysen häufiger.)

Die Argumente von @Hardware_Hoshi kann ich nicht nachvollziehen und sie gehen größtenteils an der Faktenlage vorbei. Das fängt schon an, dass der Chip "nicht kleiner ist", aber die Transistoren auf dem Chip "nur dichter gepackt sind". Wo ist denn da die Logik?
Da ist das Argument von @DocWindows mit der Effizienz noch deutlich besser. Wäre schön, wenn er dazu mal Vergleiche aufstellen würde, aber dafür bräuchten wir natürlich die Effizienz in jedem getesteten Spiel. Die Datengrundlage haben wir nicht.
Mit dem allgemeinen Vorwurf der schlechteren Effizienz von AMD kann ich mich anfreunden, das kann man aber unabhängig von der Frage nach der Spieleoptimierung stellen.
 
Colindo schrieb:
Um das ganze hier mal etwas sachlicher zu beurteilen, mir sagt die statistische Analyse von @duskstalker sehr zu. Er benutzt alle Datenpunkte, erklärt nachvollziehbar die Unterteilung in zwei Gruppen, zeigt Trends nicht für einzelne Karten, sondern für das relative Verhalten innerhalb der Produkte eines Herstellers etc. Außerdem zeigt er genau, woher er die Daten nimmt, so dass jeder seine Darstellungen nachvollziehen und überprüfen kann!
(Ich arbeite übrigens in der Messtechnikentwicklung und mache statistische Analysen häufiger.)

OK, ich erkäre es hier noch einmal ausführlich:

@duskstalker ker macht eine Pseudoanalye anhand der falschen Annahmen. Er unterteilt von vorne herein Spiele in Kategorien wie "AMD-Spiele" "Nvidia-Spiele", was eigentlich Unsinn ist. In der Vergangenheit gab es zwar Titel, die eher für die eine oder andere Seite vorteilhaft waren. Trotzdem waren da z.B. AMD-Titel, in den Nvidia trotz allem besser abgeschnitten hat als AMD ... und natürlich auch umgekehrt. Mann kann das also nicht verallgemeinern und die Spieleengines oder Entwickler dafür verantwortlich machen.

Darüber hinaus lässt @duskstalker zu viele externe Einflüsse aus. Neben der Auswahl der Spiele und der Auflösung gibt es unzählige andere Faktoren wie:
-(Qualitäts)Einstellungen
-benutzte Hardwarekonfiguration
-Benchmarkszene
-Patches und Bugfixes der Spielehersteller
-Stand des Treibers von jeweils AMD/Nvidia

Also kurz gesagt die ellenlange Erklärung der Testredakteure vor jedem Test. Das lässt er alles Weg und nimmt nur diesen spezifischen Test. Wenn man jetzt hinget und andere Seiten benutzt, evtl. mit ähnlicher Testmethodik, können ganz andere Ergebnisse kommen. Selbst wenn wir das selbst bei uns zu Hause testen.

Das ist ihm aber scheinbar alles egal und er nimmt die relativen Prozentzahlen von bereits gemittelten Werten und macht daraus absolute Ergebnisse.

Ich könnte hier jetzt noch ewig weiter machen ... sparen wir uns die Zeit. Kurz gesagt es ist nicht so wie er es sagt.

Colindo schrieb:
Die Argumente von @Hardware_Hoshi kann ich nicht nachvollziehen und sie gehen größtenteils an der Faktenlage vorbei. Das fängt schon an, dass der Chip "nicht kleiner ist", aber die Transistoren auf dem Chip "nur dichter gepackt sind". Wo ist denn da die Logik?

Hier ein weiteres Beispiel:
-Da ist nichts an der Faktenlage vorbei, sondern es fehlt manchem Leser lediglich am erforderlichen Hintergrundwissen um die Aussagen zu verstehen.

Die ganze Nanometerfertigung ist mittlerweile vollgepackt mit Marketingbegriffen der Foundries verseucht. Die 16nm Finfet in aktuellen Grafikkarten sind in wirklichkeit 20nm Fertigung mit Finfets - also quasi einem kleinen Dach darüber.

Die angeblichen 7nm hier sind in technich eher vergleichbar mit Intels 10nm Fertigung. TSMC, Samsung und Globalfounds wollten ihre Technik nur besser darstellen und nutzen den reinen Marketingbegriff dafür.

Die echten 7nm Fertigung in Zukunft wird dann entweder marketingtechnisch 5nm heißen oder irgendein Kunstbegriff wie 7nm+. Das wird absolutes Chaos und kein Mensch wird mehr durchblicken. Die entsprechenden Verbesserungen sind daher verwirrend und ich packe jetzt keine Tabelle oder ähnliches hinzu.

Du hast bei einer kleineren Fertigung meistens mehr Transistoren bei gleicher Fläche wie zuvor, weniger Energieverbrauch oder gleiche Transistoren auf kleinerem Raum (kleinerer Chip). Das sind teilweise ENTWEDER/ ODER Entscheidungen. Technisch kann man sie als Kompromisse mischen, erreicht damit aber nie den theoretischen Bestwert wie zuvor bei einer Wahl.

@duskstalker nimmt den 7nm Prozess und leitet aus den bisher bekannten Schätzwerden die bestmöglichen Wert ab, also hier z.b. immer die -40% kleiner. Ich glaube das war Chipgröße?

Ohne meinen genauen Kommentar nachzulesen, bin ich wohl nicht einverstanden gewesen und habe ich mitgeteilt, das der Chip nicht immer automatisch -40% ist, sondern auch andere Werte einschließen sollte. Klingt als wäre ich da auf die Transistoren pro Fläche eingegangen.

Tatsächlich sollte AMD aber eher an geringerem Verbrauch interessiert sein. Dieser Bereich bricht Vega ja aktuell das Genick. Es wird also irgendein Wert herauskommen, der sich aus komplexer technischer Zusammensetzung ergebit. Den kann man nicht simpel mit dem Taschenrechner heraus bekommen.

Eine GPU ist komplex und die Finfets, also die Dachgeschichte, macht die ganze Sache noch einmal komplizierter.

Ein 7nm Vega mit beispielsweise -40% Energiebedarf wäre toll, wenn man das mit 16nm Pascal von Nvidia vergleicht. Wäre zu schön, aber so funktioniert es am Ende doch nicht. Das ist Wunschdenken, den sich die AMD-Fans als letzten Strohhalm greifen und es überall in jedem Forum verkünden.

Bis 7nm ausgereift und für die wirklich Massenfertigung bereit ist, wird es leider noch viele Quartale dauern. Daher bringt AMD wohl erst die Profireihe, weil man dort mehr Geld pro verkauften Chip/Karte bekommt.

Colindo schrieb:
Da ist das Argument von @DocWindows mit der Effizienz noch deutlich besser. Wäre schön, wenn er dazu mal Vergleiche aufstellen würde, aber dafür bräuchten wir natürlich die Effizienz in jedem getesteten Spiel. Die Datengrundlage haben wir nicht.
Mit dem allgemeinen Vorwurf der schlechteren Effizienz von AMD kann ich mich anfreunden, das kann man aber unabhängig von der Frage nach der Spieleoptimierung stellen.

Spieleoptimierung mag ein Faktor sein, aber nicht der Hauptgrund für die Ergebnisse. @duskstalker macht für alles entweder die Spieleentwickler oder Nvidia verantwortlich. Dabei lässt er weg, dass AMD in allen stationären next-Gen Konsolen ist (Xbox / Playstation). Dafür wird zuerst optimiert, also für AMD. Wir bekommen dann die oft schlechten PC ports.

Die Spielehersteller optimieren nicht endlos. AMD müsste eigentlich von den Konsolen profitieren, weil da leistungstchnisch auch sehr ähnlich Grafikchips verbaut sind wie bei Polaris.

Meiner Meinung nach konzentriert sich AMD nur noch auf die Konsolen und lässte den PC Gamer links liegen. Das erkärt für mich auch die Gerüchte, die neue Architektur NAVI würde hauptsächlich für die Playstation 5 entwickelt. Falls das stimmt bräuchte sich AMD nicht zu beschweren, wenn die zukünftigen Desktopkarten dieser Architektur am PC nicht so gut läuft wie bei Nvidia.

Polaris ist im letzten Produktstadium. Stimmen die Gerüchte, kommen da 10-20% drauf und das war es dann. Was das heißt, werden wir demnächst wohl sehen!
 
Das erkärt für mich auch die Gerüchte, die neue Architektur NAVI würde hauptsächlich für die Playstation 5 entwickelt. Falls das stimmt bräuchte sich AMD nicht zu beschweren, wenn die zukünftigen Desktopkarten dieser Architektur am PC nicht so gut läuft wie bei Nvidia.
Warum soll eine GPU-µArch, die für Gaming entwickelt wurde, auf dem PC für den Einsatzzweck Gaming nicht gut geeignet sein?

Stimmen die Gerüchte, kommen da 10-20% drauf und das war es dann.
Nein, das war es dann nicht.
Zumindest ist mir nicht bekannt, daß Navi gestrichen wurde!
 
Whiskey Lake schrieb:
Warum soll eine GPU-µArch, die für Gaming entwickelt wurde, auf dem PC für den Einsatzzweck Gaming nicht gut geeignet sein?

Weil Konsolen immer dieselbe Hardware haben. Das Konzept ist simpler als auf dem PC, wo man unendlich viele Kombinationen und Hardwareeinflüsse hat. Konsolen sind generell minimalistisch, während PCs auf grafischen Maximismus fokussieren.

Whiskey Lake schrieb:
Nein, das war es dann nicht.
Zumindest ist mir nicht bekannt, daß Navi gestrichen wurde!

Einen Satz vor der zitierten Stelle habe ich deutlich über Polaris geredet! Die 10-20% nach 2 Jahren sind zu wenig und kommen daher zu spät. Ich habe auch nirgendwo behauptet Navi würde gestrichen werden. Es sieht eher so aus als käme Navi evtl. später. Vielleicht Ende 2019 bis schlimmstenfalls Anfang 2020?

Leistungstechnisch ist man mit NAVI laut Gerüchten eh nur auf Vega / 1080 Niveau. Der Knaller wird das also nicht (falls wahr!).
 
Weil Konsolen immer dieselbe Hardware haben.
Toll, ist mir aber egal!
Navi kommt auch als PCIe-Karte, man bekommt für den PC also die selbe GPU-µArch wie für eine Gamingkonsole.
Warum soll das jetzt schlecht für Gamer sein?

Die 10-20% nach 2 Jahren sind zu wenig und kommen daher zu spät.
Warum sollen 10-20% zu wenig sein, wenn eh noch schnellere Karten kommen?

Es sieht eher so aus als käme Navi evtl. später. Vielleicht Ende 2019 bis schlimmstenfalls Anfang 2020?
Warum soll es so aussehen?

Leistungstechnisch ist man mit NAVI laut Gerüchten eh nur auf Vega / 1080 Niveau. Der Knaller wird das also nicht (falls wahr!).
Ja, dieses dumme Gerücht kenne ich.
Der Autor des Gerüchtes weiß offensichtlich nicht, daß in der Konsole keine PCIe-Grafikkarte, sondern ein Custom-SOC verbaut wird.
Tut mir leid, aber so ein Gerücht kann und will ich nicht ernst nehmen...
 
Whiskey Lake schrieb:
Toll, ist mir aber egal!
Navi kommt auch als PCIe-Karte, man bekommt für den PC also die selbe GPU-µArch wie für eine Gamingkonsole.
Warum soll das jetzt schlecht für Gamer sein?

Was soll eine PCIe-Anbindung an der Programmierung und den Fähigkeiten ändern? Außer vielleicht mehr VRAM gibt es bei PCIe nichts was den Aufbau und die Programmierung darunter ändert.

Es ist außerdem schlecht für Gamer, wenn du wegen den beschränkten Hardwarefähigkeiten der Konsolen ebenfalls auf dem PC eingeschränkt bist. Als PC-MASTERRACE willst du die besten Texturen, Auflösungen, Qualiätseinstellung noch und nöcher sowie jeden erdenklichen Effekt.

Das hat man bei Konsolen halt nicht und es wird entsprechend nicht darauf optimiert. Dies kann sich negativ für PC Gaming auswirken.

Whiskey Lake schrieb:
Warum sollen 10-20% zu wenig sein, wenn eh noch schnellere Karten kommen?

Weil die direkte Konkurrenz von Nvidia, also Turing Mittelklasse, laut momentanem Stand mehr als doppelt so schnell wird wie dieser 3. Aufguss von Polaris.

Whiskey Lake schrieb:
Warum soll es so aussehen?

Wenn NAVi wirlich nur für die PS5 entwickelt wird und diese angeblich erst 2019/2020 kommt, dauert es noch eine weile die Architektur fertig ist.

Whiskey Lake schrieb:
Ja, dieses dumme Gerücht kenne ich.
Der Autor des Gerüchtes weiß offensichtlich nicht, daß in der Konsole keine PCIe-Grafikkarte, sondern ein Custom-SOC verbaut wird.
Tut mir leid, aber so ein Gerücht kann und will ich nicht ernst nehmen...

Ignoranz ist manchmal ein Segen. Verdrängung hilft manchmal. In diesem Fall bin ich mir nicht so sicher.
 
Zuletzt bearbeitet:
weil ich wusste, dass hier von unseren 2 grünen kollegen nix konstruktives mehr kommt, gieße ich jetzt nochmal etwas öl ins feuer:

performance / watt analyse

Computerbase vs. TomsHardware

GTX 1080 vs GTX 1080 TI vs Vega 56 vs Vega 64 vs Fury X

@DocWindows hat sich ja schon freudig die hände gerieben ob der unglaublich überlegenen effizienz von nvidia karten, nachdem die schlechte performance in nvidia spielen offensichtlich etwas aufs gemüt gedrückt hat.

nun ist es ja aber so, dass die zusammenhänge hinter den kulissen offensichtlich nicht wirklich erkannt werden - hauptsache nvidia hat den längeren balken - da wird auch nichts mehr hinterfragt.

die zwei maßgeblichen einheiten hinter dem tollen "effizienz graphen" sind:

FPS und leistungsaufnahme - daraus wird Watt/FPS berechnet - wieviel kostet auf karte x in spiel y ein frame an watt. CB verkuddelt das dann alles in eine % grafik auf basis des besten werts.

wie kann eine karte in diesem system gut bewertet werden? viel fps und wenig leistungsaufnahme im verhältnis zum rest. alternativ: extrem viel fps und viel leistungsaufnahme - hier muss nur watt/fps niedriger sein als bei der konkurrenz. ob nun 10 fps 10 watt kosten oder 100 fps 100 watt ist egal, 100 fps bei 90 watt aber nicht.

wie effizient eine karte ist, hängt also maßgeblich davon ab, wie viele fps in einem spiel herauskommen, und wieviel leistungsaufnahme dabei gemessen wird.

zum einstieg die grafik von CB zum vega test:

perf-watt-cb.PNG


https://www.computerbase.de/2017-08...st/6/#diagramm-performance-pro-watt-3840-2160

das sieht ja schonmal toll aus für nvidia - doppelt so effizient ist einfach ein buzzword - aber stimmt das auch?

ursachenforschung:

welche stelle mit wieviel fps hier CB bencht, kann ich nicht nachvollziehen, aber die leistungsaufnahme sehr wohl.

und wenn man das mal mit tomshardware vergleicht, die ihre verbrauchsmessungen per oszilloskop machen, wirds interessant.

stromverbrauch.jpg

https://www.computerbase.de/2017-08...itt_leistungsaufnahme_bei_leerlaufyoutubelast

https://www.tomshardware.com/reviews/amd-radeon-rx-vega-64,5173-17.html

wieso hat die gtx 1080 bei computerbase, mit einer tdp von 180w und einem powerlimit von 180w, eine leistungsaufnahme von 157w? hätte nvidia bei der typischen leistungsaufnahme von 157w nicht eine tdp von 165w statt 180w angegeben?

und wieso hat die vega 64 15 watt mehr auf der uhr? das gibt zusammen ein delta von 31w, und das ist extrem viel für eine sog. messungenauigkeit.

und jetzt erinnern wir uns mal kurz an die zwei größen für eine performance/watt berechnung: Leistungsaufnahme und FPS - und eine größe weicht offensichtlich schon mal ziemlich heftig ab.

weil mich aufregt, dass immer wieder auf dieses mistding von CB verwiesen wird, das aber offensichtliche fehler drin hat - und weil ich auch aufzeigen will, wieviel die zweite größe - fps (d.h. spiel) - hier ausmacht, habe ich mir auf basis von diesen daten:

https://www.tomshardware.com/reviews/nvidia-geforce-gtx-1080-ti,4972-6.html
https://www.tomshardware.com/reviews/nvidia-geforce-gtx-1080-pascal,4572-10.html
https://www.tomshardware.co.uk/radeon-rx-vega-56,review-33997-21.html
https://www.tomshardware.co.uk/radeon-rx-vega-56,review-33997-21.html
https://www.tomshardware.com/reviews/amd-radeon-r9-fury-x-power-pump-efficiency,4215.html#p5

und DOOM vs Ghost Recon Wildlands benchmark aus dem V56 review

https://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-7.html
https://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-11.html

selbst eine performance/watt grafik gebastelt.

ich will direkt vorher darauf hinweisen, dass ich für alle spiele die selbe leistungsaufnahme genommen habe, weil ich keine anderen daten habe - quervergleiche haben aber gezeigt, dass die leistungsaufnahme unter volllast in unterschiedlichen spielen maximal um +- 5 watt abweicht - in den häufigsten fällen aber viel weniger, im bereich von +- 1-2 watt. hier werden ausschließlich powerlimitierte referenzkarten verglichen, die ihr powerlimit immer voll machen, desseidenn es liegt thermal throttling vor.

ich weiß auch nicht, wie computerbase intern die daten verrechnet hat, deshalb will ich jetzt mal nicht garantieren, dass die daten 1:1 vergleichbar sind, ich nehme aber an, dass die abweichungen in der methode nicht sehr groß sind.


perf watt.png


jetzt stellt man hier fest, dass auf einmal die 1080 ti die effizientere karte ist, und nicht die 1080.

dafür gibts zwei gründe: erstens rennt die 1080 ti fe bei ~250w verbrauch in ein thermisches limit, das die 1080ti auf 213 watt drosselt - d.h. die 1080 ti kommt in der FE version nach 2 minuten last mit weniger verbrauch und weniger fps daher, was das ganze etwas verschiebt - ich vermute weniger fps, dafür effizienter.

würde man die 1080 ti nun ohne thermisches limit mit durchgehend 250w benchen, würde die zwar etwas mehr fps bringen, aber die effizienz würde vermutlich etwas leiden. ich bin hier mit den 213w gegangen, weil das vermutlich auch der verbrauch in den benchmarks war.

der zweite punkt ist die hanebüchene verbrauchsmessung von CB für die gtx 1080 - die liegt nämlich bei doom bei gerade mal angeblichen 148w.
https://www.computerbase.de/2017-08...agramm-leistungsaufnahme-der-grafikkarte-doom

wie soll das gehen? in der zeile verrutscht?

und dann kann man sich noch anschauen, wie ghost recon wildlands die effizienz der radeon karten in den keller drückt, indem mehr watt pro fps (bzw. weniger fps pro watt) herumkommen.

"denkt immer dran kinder, es ist die architektur, nicht das spiel. klingt komisch, ist aber so!"

und bevor hier wieder "amd benchmark" geschrien wird, will ich mal darauf hinweisen, dass doom nicht unbedingt das beste spiel für vega ist - aber für fury.

man könnte das ganze jetzt noch mit wolfenstein oder star wars battlefront 2 wiederholen - hier liegt vega 56 stock vs stock 10-15% vorne, d.h. 15% mehr stromverbrauch ist wieder ein gleichstand. undervolt + hbm oc oben drauf und es wird auf einmal ziemlich finster für die gtx 1080.
aber das ist auch das absolute optimum für vega - da will ich jetzt nicht drauf rumreiten.

mir gings hier hauptsächlich darum zu zeigen, dass nvidia zwar effizienter ist, aber mit "realistischeren" zahlen lange nicht so viel, wie hier immer getan wird. man spart sich mit einer nvidia gpu nicht reich.

spielt man gerne spiele, die auf amd gut laufen, und legt selbst noch etwas hand an, kann man das argument "effizienz" getrost von der kriterienliste streichen.

die erhobenen daten aus den benchmarks hier in einer grafik:
fps watt.png
 
Zuletzt bearbeitet:
duskstalker schrieb:
weil ich wusste, dass hier von unseren 2 grünen kollegen nix konstruktives mehr kommt, gieße ich jetzt nochmal etwas öl ins feuer:

performance / watt analyse

Computerbase vs. TomsHardware

GTX 1080 vs GTX 1080 TI vs Vega 56 vs Vega 64 vs Fury X

Wer die Kurzfassung haben will...

Nvidia hat:
-Mehr FPS
-Weniger Stromverbrauch
-geringerem Anschaffungspreis

Ergo:
-AMD hat in der Regel weniger FPS bei geringerer Effizienz (=höherer Stromverbrauch) und höherem Anschaffungspreis

Jetzt folgte die Reihe:
Wie argumentiere ich gegen Fakten mit Pseudowissenschaft von @dusktalker

duskstalker schrieb:
nun ist es ja aber so, dass die zusammenhänge hinter den kulissen offensichtlich nicht wirklich erkannt werden - hauptsache nvidia hat den längeren balken - da wird auch nichts mehr hinterfragt.

Ich wette die CB-Redaktion ist ganz heiß darauf deine Verbesserungsvorschläge bezüglich des Testings zu hören. Was gibt es außer Lautstärke, Wärmeentwicklung, FPS/Leistung und Preis denn noch für Kritieren? Wir sind gespannt....

duskstalker schrieb:
zum einstieg die grafik von CB zum vega test:

Anhang anzeigen 692174

https://www.computerbase.de/2017-08...st/6/#diagramm-performance-pro-watt-3840-2160

das sieht ja schonmal toll aus für nvidia - doppelt so effizient ist einfach ein buzzword - aber stimmt das auch?

Ja, denn man kann es wissenschaftlich / mathematisch nachvollziehen. Daher gilt es als Beweis. Es ist ein einfacher Dreisatz. Sollte man in der Schule gelernt haben.

duskstalker schrieb:
ursachenforschung:

welche stelle mit wieviel fps hier CB bencht, kann ich nicht nachvollziehen, aber die leistungsaufnahme sehr wohl.

und wenn man das mal mit tomshardware vergleicht, die ihre verbrauchsmessungen per oszilloskop machen, wirds interessant.

Du nimmst also zwei verschiedene Test mit unterschiedlicher Testmethodik und würfelst diese dann so zusammen wie es dir passt? Genial! Was könnte da schief gehen? Wie wäre es damit, dass es die Datengrundlage sehr wackelig macht ...

duskstalker schrieb:
weil mich aufregt, dass immer wieder auf dieses mistding von CB verwiesen wird, das aber offensichtliche fehler drin hat - und weil ich auch aufzeigen will, wieviel die zweite größe - fps (d.h. spiel) - hier ausmacht, habe ich mir auf basis von diesen daten...

Niemand hat an den Artikeln von CB gezweifelt. Wie ich bereits sagte, ist die Spieleauswahl aufgrund aktuellem mangel an hochwertigen Spielen leider beschränkt. In 2018 gibt es keine Sahestücke wie einst Crysis 1-3 oder Witcher 1-3, die man durch den technischen Reißwolf drehen kann. Problematisch ist auch, dass wir leider mit einer 2-jährigen Generation unterwegs sind. Es gibt kaum Bedarf an neuen Tests, die man 100x vorher von jeder Redaktion der Welt ausgeführt hat.

Das tut uns Spielern genau so weh wie CB. Wo also liegt bitte dein Problem?

duskstalker schrieb:
ich weiß auch nicht, wie computerbase intern die daten verrechnet hat, deshalb will ich jetzt mal nicht garantieren, dass die daten 1:1 vergleichbar sind, ich nehme aber an, dass die abweichungen in der methode nicht sehr groß sind.

Meine ehemaligen Physiklehrer und Professoren würde dich mit dieser Aussage in Stücke reißen!

duskstalker schrieb:
der zweite punkt ist die hanebüchene verbrauchsmessung von CB für die gtx 1080 - die liegt nämlich bei doom bei gerade mal angeblichen 148w.
https://www.computerbase.de/2017-08...agramm-leistungsaufnahme-der-grafikkarte-doom

wie soll das gehen? in der zeile verrutscht?

Ganz einfach:
Doom fordert die Karten nicht zu 100%. Daher drosseln diese intern den Stromverbrauch. Hätte das Spiel mehr spezifisch fordernde Features, wäre auch der Verbrauch höher. Das passiert in einigen anderen Spielen.

Eine fordernde Szene wird sicher den Verbrauch hochtreiben, aber letztlich im Endergebnis nicht viel ausmachen. Dann hätte man höchstens einen kurzen Ausreißer in der Lanzeitmessung. Je länger dies passiert, destö höher der Gesamtverbrauch der jeweiligen Karte im Test.

duskstalker schrieb:
und dann kann man sich noch anschauen, wie ghost recon wildlands die effizienz der radeon karten in den keller drückt, indem mehr watt pro fps (bzw. weniger fps pro watt) herumkommen.

"denkt immer dran kinder, es ist die architektur, nicht das spiel. klingt komisch, ist aber so!"

Ein Spiel kann die Effizienz nicht drücken, da es darüber direkt keinen Einfluss hat. Sämtliche Grafikkarten regeln ihren Stromverbrauch selbst. Vega ist darin zum Beispiel unterirdisch, weshalb auch dessen Verbrauchswerte derart schlecht ist.

Polaris z.B. verbraucht mit weniger Rohleistung und kleinerem Chip mehr als eine GTX 1080. Der Grund dafür ist, dass AMD aktuell keine gleichwertige Archtiktur gegenüber Nvidia hat. Dafür kannst du nicht die Spiele verantwortlich machen.

duskstalker schrieb:
mir gings hier hauptsächlich darum zu zeigen, dass nvidia zwar effizienter ist, aber mit "realistischeren" zahlen lange nicht so viel, wie hier immer getan wird. man spart sich mit einer nvidia gpu nicht reich.

Den Unterschied von 50-100W Mehrverbrauch merkt man mit der Zeit trotzdem auf der Stromrechnung. Vor allem wenn im Haushalt mehr als 1 Spiele-PC genutzt wird.

Auf die Punkt mit "mehr Verbrauch = mehr Kühlbedarf = mehr Lautstärke" gehen wir besser nicht ein.

duskstalker schrieb:
spielt man gerne spiele, die auf amd gut laufen, und legt selbst noch etwas hand an, kann man das argument "effizienz" getrost von der kriterienliste streichen.

Nennst du uns auch den Grund, warum man das bei Nvidia-Karten nicht auch tun könnte? Undervolting, Untertaktung & Co. funktionieren da auch, weißt du?! Das würde deren Verbrauch bzw. die Effizienz sogar weiter verbessern.

Technische Effizienz ist für viele Käufer nach wie vor ein wichtiges Kriterium. Du kannst das für deinen eigenen Kaufpräferenzen gerne streichen. Es ist ja durchaus subjektiv.

Sich die Schwächen der Lieblingsprodukte wegzureden nennt man Schönreden. Das ist mitunter eine der Achillisversen von AMD. Es kommt produkttechnisch nichts nach, das man ohne Kompromiss gutheißen kann.

Polaris 3.0 wäre der Punkt in dieser Liste. Wenn das weiterhin passiert, vergrault sich AMD den letzten treuen Kunden, weil von ihnen nichts mehr kommt, auf das es sich aufzurüsten lohnt. Die 10-20% Mehrleistung bekäme ein Besitzer der alten Polaris oder Hawaii Grafikkarten auch mit etwas Overclocking und leicht verringerter Effizienz hin.

Viele Spieler tun das wahrscheinlich sogar bereits. Daher sage ich weiterhin: Dieser Refresh/Rebrand/Mini-Shrink wird ein absoluter Fehlschlag!
 
Colindo schrieb:
Um das ganze hier mal etwas sachlicher zu beurteilen, mir sagt die statistische Analyse von @duskstalker sehr zu. Er benutzt alle Datenpunkte, erklärt nachvollziehbar die Unterteilung in zwei Gruppen, zeigt Trends nicht für einzelne Karten, sondern für das relative Verhalten innerhalb der Produkte eines Herstellers etc. Außerdem zeigt er genau, woher er die Daten nimmt, so dass jeder seine Darstellungen nachvollziehen und überprüfen kann!
(Ich arbeite übrigens in der Messtechnikentwicklung und mache statistische Analysen häufiger.)

Das Problem sind nicht die versuchten Analysen, sondern die eigenen Mutmaßungen und Annahmen die mit reingemischt werden. Gerade auch wieder in der letzten Wall-of-Text. Und es werden dann Zusammenhänge hergestellt die nicht beweisbar sind und auf eben jenen Mutmaßungen und Annahmen besieren. So macht man keine glaubhaften Analysen. Wenn du Messtechniker bist, wirst du sicherlich deine Messungen als Grundlage für Analysen nehmen und nicht noch irgendwas dazu dichten damit am Ende dein Analyseergebnis einer vorherigen Erwartung entspricht.

Zu meinem Einwurf bezüglich Effizienz: Die Tabelle, bzw. den Artikel zu der allgemein schlechteren Effizienz von AMD Karten habe ich ja bereits verlinkt. Datengrundlage sind die Benchmarks die in dem Artikel gemacht wurden.
Und warum die Effizienz ein wichtiger Punkt, auch abseits von Lüftergeräuschen und Stromkosten, ist: Weil er auf die bessere Technik hinweist.
Wenn man 2 Produkte hast die das gleiche kosten und das gleiche leisten, ein Gerät dies aber mit der halben Energie bewerkstelligt, dann kann man es als das bessere Produkt ansehen.

duskstalker schrieb:
weil ich wusste, dass hier von unseren 2 grünen kollegen nix konstruktives mehr kommt, gieße ich jetzt nochmal etwas öl ins feuer:

Brauchst du auch nicht erwarten. Hab keine Lust deinen ganzen Wall-of-Text Sermon auseinanderzupflücken. Und es bringt ja eh nix. Du rührst munter weiter in deinem Beweisführungseintopf herum und schmeißt weiter wild Zutaten hinein die nichts miteinander zu tun haben.
Beschränkt dich doch mal auf 1-2 Punkte, stell deine These auf und dann kann man darüber reden.
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Leistungstechnisch ist man mit NAVI laut Gerüchten eh nur auf Vega / 1080 Niveau. Der Knaller wird das also nicht (falls wahr!).
Es wird aller Voraussicht nach nicht "den" Navi-Chip geben. Gibt ja auch Vega 10(56 & 64) und 11(APU). Sowie Polaris 10 (480 & 470), sowie Polaris 11 (460)

Der Chip, der Gerüchten zufolge auf 1080-Niveau ist, wird wohl ein Navi 11-Chip mit weniger als 64 CUs werden, dafür aber mit weitaus mehr Takt aufgrund der besseren Fertigung.
Vega 10 hat 64 CUs und ist in 14nm ~auf 1080-Niveau. Vega 20 ist ein Shrink in 7nm und dürfte auch eine 1080ti schlagen, wenn man es als Gaming-Karte rausbringt, was man aber nicht macht ;) aufgrund Yields und Verfügbarkeit.
Größere 7nm-Chips für Gamer (>200mm²), werden wohl erst rauskommen, wenn EUV kommerziell funktioniert und die Fertigung dadurch deutlich günstiger wird. Oder AMD bringt sowas wie eine "Titan" für ~1000 EUR, welcher dann nach 1,5 Jahren einfach in Navi XY umbenannt wird, wie Titan X und 1080ti.
Dann könnten Spieler auch früher an High-End AMD-Karten kommen, die mit den besten Nvidia Produkten konkurrieren.
 
Rock Lee schrieb:
Es wird aller Voraussicht nach nicht "den" Navi-Chip geben. Gibt ja auch Vega 10(56 & 64) und 11(APU). Sowie Polaris 10 (480 & 470), sowie Polaris 11 (460)

Die Navi Architektur wird nicht endlos skalieren. Sie muss in einem bestimmten Leistungs- und Preisbereich angesiedelt sein. Eine jeweiliger Chip deckt in der Regel grob 2 Varianten ab. Damit kann man nicht das ganze Spektrum abdecken.

Rock Lee schrieb:
Der Chip, der Gerüchten zufolge auf 1080-Niveau ist, wird wohl ein Navi 11-Chip mit weniger als 64 CUs werden, dafür aber mit weitaus mehr Takt aufgrund der besseren Fertigung.
Vega 10 hat 64 CUs und ist in 14nm ~auf 1080-Niveau. Vega 20 ist ein Shrink in 7nm und dürfte auch eine 1080ti schlagen, wenn man es als Gaming-Karte rausbringt, was man aber nicht macht ;) aufgrund Yields und Verfügbarkeit.

Vega 20 wird primär für die HPC-Bereiche entwickelt. Diese Architektur wird wohl niemals für Gamer kommen. AMD wird alle Gamingfeatures wie beispielsweie die Grafikpipeline entfernen und eine reine Beschleunigerkarte daraus machen. Die AMD-Führung versucht damit den bisher übermächtigen Tesla V100 von Nvidia anzugreifen. Dort ist der Gegner, nicht die 1080 Ti.

Das macht für AMD wirtschaftlich mehr Sinn als Gaming, auch wenn das den Gamern nicht gefallen wird. Der Businessbereich zahlt einfach besser. Wir stehen vor einer weiteren Dürreperiode bei AMD Grafik bevor ähnlich wie es die AMD CPU-Sparte gegenüber Intel zuvor gemacht hat. Es wird schlicht eine Zeit lang keine Enthusiastensegment bei AMD mehr geben. Die alten Zeiten sind vorbei bis sich AMD wieder erholt hat.

Rock Lee schrieb:
Größere 7nm-Chips für Gamer (>200mm²), werden wohl erst rauskommen, wenn EUV kommerziell funktioniert und die Fertigung dadurch deutlich günstiger wird. Oder AMD bringt sowas wie eine "Titan" für ~1000 EUR, welcher dann nach 1,5 Jahren einfach in Navi XY umbenannt wird, wie Titan X und 1080ti.

In dem Abschnitt ist viel Fantasie. Realistisch ist das allerdings nicht!

EUV wird eine ganze Weile auf sich warten lassen. Danach wird es nochmal dauern bis das die ganze Fertigung wirtschaftlich geworden ist. Ich kann mir nicht vorstellen, dass die kleineren Fertigungsgröße sich so problemlos bewerkstelligen lassen.

Und das AMD eine Konkurrenz in der Titanklasse bringt, glaube ich erst, wenn ich es sehe. Bei Vega haben sie bereits die Klappe allzuweit aufgerissen und sich dann in die Nesseln gesetzt.

Rock Lee schrieb:
Dann könnten Spieler auch früher an High-End AMD-Karten kommen, die mit den besten Nvidia Produkten konkurrieren.

Also verstehe ich das richtig?
Du meinst AMDs 7nm in 2019+ wird dann mit Nvdias EOL 16nm Enthusiastenkarte GTX 1080 Ti von Q1/2017 konkurrieren? Ähm, glaubst du Nvidia bleibt auf den Stand stehen und bringt z.B. die Turing-Generation nicht?

Soweit bisher bekannt ist, steht eben dieser Generationssprung bei Nvidia aktuell vor der Tür. Sie bleiben also nicht stehen wie Intel, sondern geben Gas. Außer Vega 20 für die neue Radeon Instinct ist nichts in 7nm für 2018 angekündigt. Wenn es stimmt, Turing käme noch in Q3/2018, könnte es sein AMD ist wieder 8-12 Monate zu spät wie bei Vega zuvor.

Die 7nm-Fertigung alleine ändert nichts an der Archtiektur von GCN, die dringend überarbeitet gehört. Ich kann kein Szenario erkennen, in dem AMD gut davon kommt. Polaris 30 wird nur ein verzweifelter Stopper umd die Blutung zu stillen, sollte deshalb nicht großartig erwähnt werden.
 
@DocWindows
Dann kauf doch eine nVidia Karte (also eine der neuen dann), erfreue dich an der Leistung und angeblichen Energieeffizienz (Die bei Custom Karten die man auch noch selber OCed auch nicht mehr gegeben ist, aber das interessiert nicht) und lass die armen Irren die lieber eine AMD Karte haben wollen oder haben einfach in Ruhe.
Denn scheinbar bist du auf deinem Standpunkt so festgewachsen, das du es einfach nicht akzeptieren kannst, wenn es andere eben nicht so sehen wie du.

Das schöne ist ja, jeder empfindet es anders was für ihn eine effiziente Karte ist bzw. ob der Verbrauch für ihn passt oder nicht.
Wenn man jetzt noch bedenkt, das der Verbrauch einer GPU bis vor Maxwell so ziemlich allen egal war bei den High-End Karten und erst seit dem ja Energieeffizienz "Cool" ist, immer darauf rum geritten wird. Ist es in jedem AMD Thread eine leidige Diskussion mit Anhängern des nVidia Kultes.

Aussagen wie: Wenn 2 Karten dasselbe Leisten und Kosten und die eine nur halb so viel verbraucht, ist sie besser; ist zwar schön und gut. Aber dabei wird so viel an wichtiger Info einfach unter den Teppich gekehrt, das eine Aufführung wohl einen ähnlichen Wall of Text ergeben würde wie der Versuch von @duskstalker hier nVidianern auf zu zeigen das eben nicht alles so einfach ist wie es dargestellt wird.

Kurz gesagt: Erfreue dich an den GPUs von nVidia und akzeptiere es, dass es eben Menschen gibt die lieber AMD haben wollen. Und lasse diese doch einfach in Ruhe.
 
Hardware_Hoshi schrieb:
Die Navi Architektur wird nicht endlos skalieren. Sie muss in einem bestimmten Leistungs- und Preisbereich angesiedelt sein. Eine jeweiliger Chip deckt in der Regel grob 2 Varianten ab. Damit kann man nicht das ganze Spektrum abdecken.

Verwechselst du grade Chips mit Architektur? Ich rede hier die ganze Zeit von der Architektur, die in mehrere Chips aufgeteilt werden kann, welche wiederum verschiedene Varianten haben können. Die Anzahl der Varianten ist natürlich begrenzt, je nachdem wie es Yield-mäßig Sinn ergibt.
Nvidia hat ja auch die Pascal-Architektur mit 6 verschiedenen Chips von GP100 bis GP108 in mindestens 15 Varianten.

Was die Skalierbarkeit der Architektur als solches angeht: Es es kein Geheimnis, dass GCN schon bei 64 CUs nicht richtig ausgelastet ist. Hawaii hatte noch 44 CUs, dann Fiji 64, dann Vega ebenfalls 64. Mehr hat bisher keinen Sinn ergeben. An Polaris 10 (32), Hawaii (44) und Vega 56 sieht man, dass der Sweetpot von GCN irgendwo bei 40-44 CUs ist. Es wird vermutet, dass dieses Problem der Auslastung mit Navi angegangen wird. Ist aber natürlich nur ein Gerücht.
bLXCAt7.jpg
"Scalability" kann natürlich auch was anderes bedeuten.

Hardware_Hoshi schrieb:
Vega 20 wird primär für die HPC-Bereiche entwickelt. Diese Architektur wird wohl niemals für Gamer kommen.
Danke für deine Zustimmung.

Hardware_Hoshi schrieb:
Die AMD-Führung versucht damit den bisher übermächtigen Tesla V100 von Nvidia anzugreifen. Dort ist der Gegner, nicht die 1080 Ti.
Ich habe lediglich die Leistungsfähigkeit einer potentiellen Consumer-Vega 20 im Bereich Gaming eingeschätzt. Ich habe nicht von konkurrieren gesagt. Wie auch: Ich sagte bereits, dass das Produkt nie erscheint.
Das war auch lediglich ein Vergleich, da du gesagt hast: "Leistungsmäßig ist Navi auf 1080-Niveau, also ein Knaller ist das nicht". Also nochmal: Navi ist 7nm. Wenn er leistungsmäßig auf 1080-Niveau ist, dann ist dies vermutlich ein eher kleiner Chip, der sich wohl noch am einfachsten fertigen lässt, deutlich weniger CUs hat als Vega im Vollausbau, aber dafür deutlich höher taktet. Das ist dann aber lediglich der erste Chip. Wenn 7nm eine bessere Ausbeute bietet, dann wird es sicherlich auch einen größeren Chip geben. Und der konkurriert dann mit was ganz anderem.

Hardware_Hoshi schrieb:
Das macht für AMD wirtschaftlich mehr Sinn als Gaming, auch wenn das den Gamern nicht gefallen wird. Der Businessbereich zahlt einfach besser.
Margentechnisch macht es Sinn, aber der Business-Bereich spielt immer immer noch einere kleinere Rolle. Der Großteil des Umsatzes wird mit Gaming gemacht. Und der Bereich wächst.
gaming-hardware-market-645x285.png
6965821-14982751496479325_origin.png

Natürlich werden die anderen Bereiche immer wichtiger. Aktuell stellt es sich aber nicht so dramatisch dar, wie du glaubst. Wenn der Split in Gaming und professionelle Architekturen bei AMD mit dem Navi-Nachfolger kommt, ist man meiner Meinung nach spät, aber nicht zu spät. (ca. 2020)
AMD-Grafikchip-Generationen-Roadmap-2017-2020.jpg

Hardware_Hoshi schrieb:
Wir stehen vor einer weiteren Dürreperiode bei AMD Grafik bevor ähnlich wie es die AMD CPU-Sparte gegenüber Intel zuvor gemacht hat. Es wird schlicht eine Zeit lang keine Enthusiastensegment bei AMD mehr geben. Die alten Zeiten sind vorbei bis sich AMD wieder erholt hat.
Das hängt ganz davon ab, wann Nvidia auf 7nm umsteigen will. Turing kommt in 12nm, was ein verbesserter 16nm-Prozess ist
https://en.wikichip.org/wiki/16_nm_lithography_process
Ich erwarte daher von Turing erstmal relativ wenig. Man wird den Prozess denke ich, was Chipgröße und Takt angeht sofort voll ausreizen, um einen signifikanten Performance-Vorteil zu erzielen.




Hardware_Hoshi schrieb:
EUV wird eine ganze Weile auf sich warten lassen

https://www.elektroniknet.de/elektr...l-arm-chips-auf-3-ghz-hochtreiben-155357.html
TSMC wird 7nm zwar ohne EUV beginnen, aber dann fließend umstellen, wenn es kostenmäßig Sinn ergibt.
TSMC ist Technologieführer. Wenn Samsung direkt mit EUV fertigt, wird es bei TSMC auch nicht allzulange dauern.

Hardware_Hoshi schrieb:
. Danach wird es nochmal dauern bis das die ganze Fertigung wirtschaftlich geworden ist.
Wie gesagt: Es wird fließend umgestellt.
https://techreport.com/news/33843/report-tsmc-ceo-says-7-nm-production-is-ramping-up
Ich erwarte von TSMC ~Q3 2019 EUV-Produkte.

Hardware_Hoshi schrieb:
Und das AMD eine Konkurrenz in der Titanklasse bringt, glaube ich erst, wenn ich es sehe. Bei Vega haben sie bereits die Klappe allzuweit aufgerissen und sich dann in die Nesseln gesetzt.
Ich glaube selbst nicht dran. Ich meine nur, dass die Titan eigentlich ein cleverer Move ist, den "Big-Chip" trotz noch schlechter Yields am Anfang einer neuen Grafikkarten-Generation zu bringen. Dafür muss der Preis aber auch entsprechend hoch sein. Wenn die Fertigung dann besser geworden ist, kann man den gleichen Chip nochmal günstiger rausbringen.
Die Hauptgründe warum VEGA von der reinen Performance nicht funktioniert hat sind meiner Meinung:
64CU-Skalierung gegenüber Fiji nicht in den Griff bekommen
Viele Features, die kaum Performanceauswirkungen haben
TSMC-Fertigung > Globalfoundries. Zu wenig Takt bzw. zu hoher Stromverbrauch.

Dazu kommt der Preisnachteil aufgrund der hohen HBM2-Nachfrage. Du kannst das Ding quasi gar nicht günstiger machen. Ich hab mir auch von VEGA mehr erhofft.


Hardware_Hoshi schrieb:
Also verstehe ich das richtig?
Du meinst AMDs 7nm in 2019+ wird dann mit Nvdias EOL 16nm Enthusiastenkarte GTX 1080 Ti von Q1/2017 konkurrieren? Ähm, glaubst du Nvidia bleibt auf den Stand stehen und bringt z.B. die Turing-Generation nicht?

Ähh nein, du hast meinen Beitrag unglücklich auseinandergerissen ;)
Eine AMD Titan kommt ja nicht. Das habe ich selbst gesagt.
Ich sagte nur ein 7nm-Big-Chip ~400mm² könnt mit einem 12nm-Nvidia Big-Chip konkurrieren, was die Performance angeht. AMD macht das natürlich nicht, da Nvidia den Yield- und damit Margenvorteil, trotz größerer Chips, weil 7nm einfach so viel teurer ist. Zur Not würde Nvidia einfach mit dem Preis runtergehen, bis AMD nicht mehr mithalten kann.


Hardware_Hoshi schrieb:
Soweit bisher bekannt ist, steht eben dieser Generationssprung bei Nvidia aktuell vor der Tür. Sie bleiben also nicht stehen wie Intel, sondern geben Gas. Außer Vega 20 für die neue Radeon Instinct ist nichts in 7nm für 2018 angekündigt. Wenn es stimmt, Turing käme noch in Q3/2018, könnte es sein AMD ist wieder 8-12 Monate zu spät wie bei Vega zuvor.
Aktuell ist das erstmal so. Ja. Wenn auch mit nicht ganz so krasser Verzögerung.

Hardware_Hoshi schrieb:
Die 7nm-Fertigung alleine ändert nichts an der Architektur von GCN, die dringend überarbeitet gehört. Ich kann kein Szenario erkennen, in dem AMD gut davon kommt. Polaris 30 wird nur ein verzweifelter Stopper umd die Blutung zu stillen, sollte deshalb nicht großartig erwähnt werden.
GCN wird ja wie bereits dargelegt überarbeitet, was die Auslastung angeht. Wie gut das funktioniert, muss man dann sehen. Danach wird was neues kommen, siehe Roadmap.

Polaris 30 ruft auch keine Begeisterungsstürme bei mir hervor ;)
VEGA kam ja zu spät, weil die ganzen Teams abgezogen wurden für Zen aufgrund von AMD begrenzten Mitteln.
Ich hoffe, dass durch Zen zusätzlich Kapazitäten bei der RTG geschaffen werden können, damit solche Verzögerungen nicht nochmal eintreten und zumindest der erste kleine Navi-Chip pünktlich kommt. Grob 1H 2019.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hill Ridge
Rock Lee schrieb:
Verwechselst du grade Chips mit Architektur? Ich rede hier die ganze Zeit von der Architektur, die in mehrere Chips aufgeteilt werden kann, welche wiederum verschiedene Varianten haben können. Die Anzahl der Varianten ist natürlich begrenzt, je nachdem wie es Yield-mäßig Sinn ergibt.
Nvidia hat ja auch die Pascal-Architektur mit 6 verschiedenen Chips von GP100 bis GP108 in mindestens 15 Varianten.

Nvidia hat sich über die Jahre das Vielfache an Forschungs- und Entwicklungsgeldern erwirtschaftet und dasselbe direkt wieder in neue Produkte gesteckt. Die Trennung von Konsumenten und Profisegment ist bei Nvidia bereits vor Jahren erfolgt. Der Tesla Pascal P100 und Volta V100 sind das krasse Beispiel dafür.

AMD hingegen hat das wenige Geld, das sie hatten in Ryzen und Threadripper gesteckt. Dabei wurde die RTG, also die Grafiksparte vernachlässigt und unterfinanziert. Die Entwicklung von Vega musste darunter leiden. Die letzten Aussagen von AMD besagen sogar, dass man viele wichtige Ingenieure für Navi und die PS5 Entwicklung und Ryzen abgezogen hat.

In den letzten Jahren hat die RTG kaum noch Chip-Varianten pro Segement gebracht. Jetzt wo Vega quasi aus dem Rennen ist und Polaris angeblich ein drittes mal neu aufgelegt wird ... wie viele Varianten erwartest du denn da bei dieser Vorgeschichte?

Rock Lee schrieb:
Was die Skalierbarkeit der Architektur als solches angeht: Es es kein Geheimnis, dass GCN schon bei 64 CUs nicht richtig ausgelastet ist. Hawaii hatte noch 44 CUs, dann Fiji 64, dann Vega ebenfalls 64. Mehr hat bisher keinen Sinn ergeben. An Polaris 10 (32), Hawaii (44) und Vega 56 sieht man, dass der Sweetpot von GCN irgendwo bei 40-44 CUs ist. Es wird vermutet, dass dieses Problem der Auslastung mit Navi angegangen wird. Ist aber natürlich nur ein Gerücht.
http://i.imgur.com/bLXCAt7.jpg "Scalability" kann natürlich auch was anderes bedeuten.

GCN wurde über die Jahre zu sehr aufgeblasen. Wie du richtig sagst, bekommt AMD die Architektur nicht mehr wirklich ausgelastet. Anstatt das zu beheben, doktort man an den Symptomen herum. Spielchen wie HBCC und Asynchronous Compute sehen auf dem Papier gut aus, sind jedoch nur in Nischenszenarien zu gebrauchen.

Die CUs sind auch nicht da einizige Problem. Das ganze Verhältnis innerhalb der Chips stimmt nicht mehr. Seit Fiji krankt es am Backend und die Anzahl der ROPs ist nach wie vor zu niedrig. Vega hat diese Schwächen geerbt und sogar verschlimmert. Da stimmt überhaupt nichts mehr!

Genau wie Vega ein Fiji-Klon mit höherem Takt und HBM2 statt HBM1 ist, wird Navi viel von Vega mitnehmen oder schlimmsten Falls sogar die Marotten der Konsolen annehmen. Ich bezweifle nach wie vor, dass es sich dabei um eine komplette Neuentwicklng handelt.

Ich bin daher in Sachen Navi sehr vorsichtig. Glaub bei AMD alles erst, wenn du es final siehst. Die gnadenlose Übertreibung vor Polaris und Vega Launch ist in gnadenlose Enttäuschung übergeganben. Nochmal vertraue ich der Bande nicht blind, bevor sie Ergebnisse liefern.

Rock Lee schrieb:
Ich habe lediglich die Leistungsfähigkeit einer potentiellen Consumer-Vega 20 im Bereich Gaming eingeschätzt. Ich habe nicht von konkurrieren gesagt. Wie auch: Ich sagte bereits, dass das Produkt nie erscheint.

Zustimmen würde ich nur bezüglich des Chipdesigns. Vega ist von Grund auf verkorkst. Da ist nicht mehr viel zu retten. Anstatt das tote Pferd mit shrinks weiter zu reiten, sollte man Vega beerdigen oder halt wie AMD damit komplett auf die Profischiene gehen.

Rock Lee schrieb:
Das war auch lediglich ein Vergleich, da du gesagt hast: "Leistungsmäßig ist Navi auf 1080-Niveau, also ein Knaller ist das nicht". Also nochmal: Navi ist 7nm. Wenn er leistungsmäßig auf 1080-Niveau ist, dann ist dies vermutlich ein eher kleiner Chip, der sich wohl noch am einfachsten fertigen lässt, deutlich weniger CUs hat als Vega im Vollausbau, aber dafür deutlich höher taktet. Das ist dann aber lediglich der erste Chip. Wenn 7nm eine bessere Ausbeute bietet, dann wird es sicherlich auch einen größeren Chip geben. Und der konkurriert dann mit was ganz anderem.

Das ist kompletter Unsinn!
Bei 7nm (=10nm Finfet) TSMC ist garnichts einfach. Die Strukturen werden derart klein, das neue Probleme vorprogrammiert sind. Die kleineren Finfet-Strukturen werden immer empfindlicher im Vergleich zu den höheren Verfahren. Sie sind so fain, dass sie immer weniger Spannung vertragen und anfangen Leckströme wild umher zu schicken.

Man kann das Chipsdesign nicht einfach 1:1 übernehmen und muss stattdessen die gesamte Spannungsversorgung und deren Steuerung massivst verbessern. Vega hat eindeutig ein Verbrauchsproblem, da die Karten regelrechte Schluckspechte sind. Das auf einen verträglichen Level zu bekommen und gleichzeitig den Chip zu verkleinern ist unrealistisch ohne Ende. In der Technik herrschern physikalische Gesetze und Regeln. AMD kocht auch nur mit Wasser und hat in den letzten Jahren kaum bewiesen, dass sie es technisch noch drauf haben wie in der nostalgischen Vergangenheit.

7nm ist nur das nächste "Buzzword", das durch die Foren geht. Genau wie bei der "Wundertechnik HBM" wird sich das alles als nicht derart grandios entpuppen wie sich das so mancher Forist denkt. AMD soll aufhören sich hauptsächlich auf ein paar wenige Kerntechnologien zu konzentrieren und stattdessen das Gesamtpaket von Grund auf verbessern.

Rock Lee schrieb:
Natürlich werden die anderen Bereiche immer wichtiger. Aktuell stellt es sich aber nicht so dramatisch dar, wie du glaubst. Wenn der Split in Gaming und professionelle Architekturen bei AMD mit dem Navi-Nachfolger kommt, ist man meiner Meinung nach spät, aber nicht zu spät. (ca. 2020)
[IMG]http://www.3dcenter.org/dateien/abbildungen/AMD-Grafikchip-Generationen-Roadmap-2017-2020.jpg[/IMG]

Die Roadmap kannst du ehrlich gesagt verbrennen!

Ähnlich ungenaue Angaben habe ich selten bei einem Technikunternehmen gesehen. Das Ding kann dir jeder Praktikant erstellen. Ich sehe darin eher Wunschdenken, aber keine echten Ziele.

Der Split zwischen Gaming und Business ist bereits erfolgt und zwar zu lasten von Gaming. Anstatt etwas konkurrenzfähiges zu bringen, hat AMD den hybriden Vega erschaffen, der weder das eine noch das andere gut kann. Die Oberklasse wurde dafür aus Finanzgründen komplett gestrichen. Jetzt gilt für AMD die Businessseite irgendwie zu retten. Dafür wird höchstwahrscheinilch der Gamingbereich erneut leiden müssen. Außer Konsolen und APUs interessiert sich AMD wohl nicht mehr sonderlich dafür.

Das wird langfristige Folgen haben. Vor 2020 bis 2022 rechne ich nicht mit einer Erholung. Dann sind evtl. die Folgeprojekte fertig und man kann mit komplett frischem Konzept durchstarten. Die Frage ist, ob Nvidia bis dahin nicht unter Umständen zu weit davon zieht. Anders als Intel scheint Nvidia ihre hohen Gewinne weiter massivst in die Entwickung zu stecken. Damit kann AMD leider nicht mithalten.

Rock Lee schrieb:
Das hängt ganz davon ab, wann Nvidia auf 7nm umsteigen will. Turing kommt in 12nm, was ein verbesserter 16nm-Prozess ist
https://en.wikichip.org/wiki/16_nm_lithography_process
Ich erwarte daher von Turing erstmal relativ wenig. Man wird den Prozess denke ich, was Chipgröße und Takt angeht sofort voll ausreizen, um einen signifikanten Performance-Vorteil zu erzielen.

Anders als AMD ist Nvidia nicht zwangsläufig auf Fertigungsshrinks angewiesen. Sie helfen zwar, dennoch sind sie nicht unbedingt nötig. Der Zuwachs bei Maxwell erfolgte in der gleichen Feritungsgröße - damals 28nm. Über die letzten Generationen hat Nvidia außerdem die Effizienz jeder Architektur deutlich verbessert.

Der 12nm-Prozess mag sich zwar nicht so knackig anhören als 7nm. Man sollte bedenken wie lange Nvidia im Profbereich schon auf diesem Verfahren ist. Diese Erfahrungen und der Kostenvorteil sollten nicht unterschätzt werden.

Alleine die Verbesserungen unter Volta war im Bereich von 60-100% gegenüber dem gleichwertigen Business-Pascal (P100 vs V100). Auch wenn man techniken wie den Tensor-Cores weglässt, steckt da genug Potential dahinter um eine neue goldene Generation zu werden.

Klar, die 7nm werden für Nvidia früher oder später auch kommen. Erwarten sollte man die Fertigungsgröße jedoch als refresh bzw. shrink einer 2. Generation.
 
Hardware_Hoshi schrieb:
AMD hingegen hat das wenige Geld, das sie hatten in Ryzen und Threadripper gesteckt. Dabei wurde die RTG, also die Grafiksparte vernachlässigt und unterfinanziert. Die Entwicklung von Vega musste darunter leiden. Die letzten Aussagen von AMD besagen sogar, dass man viele wichtige Ingenieure für Navi und die PS5 Entwicklung und Ryzen abgezogen hat.

Und die PS5 ist jetzt eine Spielekonsole, oder ein Mini-Computer fürs professionelle Segment?
Kann sich doch nur positiv auswirken?
Jetzt kann natürlich das Argument kommen, warum Nvidia trotzdem beim PC-Gaming besser performt, obwohl in der PS4 und Xbox One ein AMD-Chip werkelt.
Hier ging es in erster Linie wohl nur um Semi-Custom und deren Kostenvorteile. Die Architektur dahinder war wohl nebensächlich solang der Preis stimmt.

Hardware_Hoshi schrieb:
In den letzten Jahren hat die RTG kaum noch Chip-Varianten pro Segement gebracht. Jetzt wo Vega quasi aus dem Rennen ist und Polaris angeblich ein drittes mal neu aufgelegt wird ... wie viele Varianten erwartest du denn da bei dieser Vorgeschichte?
Kommt drauf an in welchem Zeitraum. In den nächsten 1,5 Jahren mindestens 2.


Hardware_Hoshi schrieb:
GCN wurde über die Jahre zu sehr aufgeblasen. Wie du richtig sagst, bekommt AMD die Architektur nicht mehr wirklich ausgelastet. Anstatt das zu beheben, doktort man an den Symptomen herum. Spielchen wie HBCC und Asynchronous Compute sehen auf dem Papier gut aus, sind jedoch nur in Nischenszenarien zu gebrauchen.
Die CUs sind auch nicht da einizige Problem. Das ganze Verhältnis innerhalb der Chips stimmt nicht mehr. Seit Fiji krankt es am Backend und die Anzahl der ROPs ist nach wie vor zu niedrig. Vega hat diese Schwächen geerbt und sogar verschlimmert. Da stimmt überhaupt nichts mehr!

Vega hat zwar nichts verschlimmert, aber wenn der generelle Architekturaufbau gleich bleibt, kann auch nicht wirklich was verbessert werden. Volle Zustimmung!
Hardware_Hoshi schrieb:
Genau wie Vega ein Fiji-Klon mit höherem Takt und HBM2 statt HBM1 ist, wird Navi viel von Vega mitnehmen oder schlimmsten Falls sogar die Marotten der Konsolen annehmen. Ich bezweifle nach wie vor, dass es sich dabei um eine komplette Neuentwicklng handelt.
Quelle? Und warum ist Konsole = schlecht?



Hardware_Hoshi schrieb:
Zustimmen würde ich nur bezüglich des Chipdesigns. Vega ist von Grund auf verkorkst. Da ist nicht mehr viel zu retten. Anstatt das tote Pferd mit shrinks weiter zu reiten, sollte man Vega beerdigen oder halt wie AMD damit komplett auf die Profischiene gehen.

So wie es aussieht wird man das wohl auch. Vega und dessen Nachfolger wird weiter in Richtung Profi-Segment fixiert und spätestens der Navi-Nachfolger wird wohl die professionellen Eigenschaften zugunsten von Gaming-Performance verlieren.


Hardware_Hoshi schrieb:
Das ist kompletter Unsinn!
Bei 7nm (=10nm Finfet) TSMC ist garnichts einfach. Die Strukturen werden derart klein, das neue Probleme vorprogrammiert sind. Die kleineren Finfet-Strukturen werden immer empfindlicher im Vergleich zu den höheren Verfahren. Sie sind so fain, dass sie immer weniger Spannung vertragen und anfangen Leckströme wild umher zu schicken.
Man kann das Chipsdesign nicht einfach 1:1 übernehmen und muss stattdessen die gesamte Spannungsversorgung und deren Steuerung massivst verbessern. Vega hat eindeutig ein Verbrauchsproblem, da die Karten regelrechte Schluckspechte sind. Das auf einen verträglichen Level zu bekommen und gleichzeitig den Chip zu verkleinern ist unrealistisch ohne Ende. In der Technik herrschern physikalische Gesetze und Regeln. AMD kocht auch nur mit Wasser und hat in den letzten Jahren kaum bewiesen, dass sie es technisch noch drauf haben wie in der nostalgischen Vergangenheit.
Warum ist es kompletter Unsinn zu erwarten, dass es H1 2019 einen ~200mm² Chips fürs Consumer-Segment geben wird, wenn jetzt schon ein ~300mm² Vega 20 fürs Profi-Segment in 7nm gezeigt wurde?

Hardware_Hoshi schrieb:
Die Roadmap kannst du ehrlich gesagt verbrennen!
Ähnlich ungenaue Angaben habe ich selten bei einem Technikunternehmen gesehen. Das Ding kann dir jeder Praktikant erstellen. Ich sehe darin eher Wunschdenken, aber keine echten Ziele.

Zeig mir doch mal die Roadmap von Nvidia, Apple, oder Intel? ;)
Oder haben die nichtmal Praktikanten?
Hardware_Hoshi schrieb:
Jetzt gilt für AMD die Businessseite irgendwie zu retten. Dafür wird höchstwahrscheinilch der Gamingbereich erneut leiden müssen. Außer Konsolen und APUs interessiert sich AMD wohl nicht mehr sonderlich dafür.
Quelle? Unter einer Mischarchitektur gegenüber zwei spezialisierten Architekturen leiden meiner Meinung nahc beide Marktsegmente. Daher gilt es auch sich auf beide Segmente gleichermaßen zu konzentrieren.

Hardware_Hoshi schrieb:
Das wird langfristige Folgen haben. Vor 2020 bis 2022 rechne ich nicht mit einer Erholung. Dann sind evtl. die Folgeprojekte fertig und man kann mit komplett frischem Konzept durchstarten. Die Frage ist, ob Nvidia bis dahin nicht unter Umständen zu weit davon zieht. Anders als Intel scheint Nvidia ihre hohen Gewinne weiter massivst in die Entwickung zu stecken. Damit kann AMD leider nicht mithalten.
2022 sind 4 Jahre. Da hast du schon 5nm bei TSMC.
Nvidia kann auch nicht zaubern und ist abhängig von den Fertigungstechnologien ihrer Zulieferer.
AMD ist durch das auslaufende Wafer-Agreement nicht mehr so stark an GloFo gebunden.
Es ist ein Irrglaube, dass Intel jetzt nicht wollen würde.
Erst konnte Intel, und wollte nicht. Und jetzt wo 10nm kaputt ist, wollen Sie und können nicht.
Nvidia hat keine eigenen Fertiger. Allein die Architektur wird in der Zukunft entscheiden und die werden auch irgendwann kaum Verbesserungsmöglichkeiten bieten.

Hardware_Hoshi schrieb:
Anders als AMD ist Nvidia nicht zwangsläufig auf Fertigungsshrinks angewiesen. Sie helfen zwar, dennoch sind sie nicht unbedingt nötig. Der Zuwachs bei Maxwell erfolgte in der gleichen Feritungsgröße - damals 28nm. Über die letzten Generationen hat Nvidia außerdem die Effizienz jeder Architektur deutlich verbessert.
Das gab es jetzt genau einmal. Eine Schwalbe macht noch keinen Sommer ;)

Hardware_Hoshi schrieb:
Alleine die Verbesserungen unter Volta war im Bereich von 60-100% gegenüber dem gleichwertigen Business-Pascal (P100 vs V100). Auch wenn man techniken wie den Tensor-Cores weglässt, steckt da genug Potential dahinter um eine neue goldene Generation zu werden.
Jetzt vergleichst du Business-only mit einer Gaming-Architektur mit Business-Anhang ;)[/QUOTE][/QUOTE]
 
  • Gefällt mir
Reaktionen: Hill Ridge
Zurück
Oben