Chismon schrieb:
Genauso wie AMD/RTG es seit Polaris nicht geschafft haben mit nVidia Treibern in DX11 mitzuhalten, dann waren diese Grafikkarten wohl auch alle Flops gemäß Deiner Sichtweise/Deines Auslegungskriterium.
Die Probleme liegen aber nicht direkt am Treiber, sondern an der Architektur der GCN, die auch sehr viel Zukunftsmusik war und ihre Stärken eigentlich erst mit Mantel/DX12/Vulkan ausspielen konnte.
AMD war bei GCN als auch Bulldozer sehr auf die Zukunft gerichtet und hat die Wette verloren.
Xerxes-3.0 schrieb:
ARC hat zumindest jetzt noch einen Trumpf - den AV1 Hardware-Encoder.
Nicht so wirklich. Der AV1-Encoder wird aktuell sehr stark von gewissen Gruppen verklärt und überbewertet. Da ARC auch noch nicht "breit" verfügbar ist, fehlt es in den meisten Softwarepaketen "noch" für die Unterstützung.
AV1 beim Streaming wird in der Regel zudem erst interessant, wenn man Probleme mit der Bandbreite bekommt. Dafür müssten aber auch die aktuellen Portale auch bereits mit AV1 umgehen können.
Der AV1-Encoder ist aktuell also eher ein rein akademischer Vorteil zum jetzige Zeitpunkt.
der Unzensierte schrieb:
Bulldozer war technisch gesehen ein Flop, auch wenn AMD die Dinger "los" geworden ist, mussten diese teilweise unter Wert verkauft werden. Wirtschaftlich hat Bulldozer auch AMD fast ruiniert, es war durchaus also vollumfänglich ein Flop.
der Unzensierte schrieb:
Aber wären die Erwartungen (von einem gewissen Herrn Koduri gehyped) nicht so hoch gewesen (poor Volta) würde man die AMD Vega wohl eher nicht in dieser Umfrage sehen.
Ja und Nein, Vega wäre wohl etwas wohlwollender aufgenommen worden, gleichzeitig hätte es dennoch nicht so ganz gereicht.
der Unzensierte schrieb:
Die Netburst-Architektur von Intel war für mich auch nicht unbedingt ein Flop
Wirtschaftlich war Pentium 4 kein Flop, technisch gesehen war es zumindest ein Schritt in die falsche Richtung. Flop ist Pentium 4 eher heute rückwirkend, weil Intel nicht das geschafft hatte, was sie wollten und der P6, der damals als "eigentlich fertig" und nur umständlich "erweiterbar" galt, dann doch der Weg war, den man gehen musste.
CDLABSRadonP... schrieb:
Pentium 4 ist definitiv zu allgemein gehalten, Northwood konnte ja durchaus auch als Gesamtpaket überzeugen. Willamette und Prescott hingegen....
Man müsste hier eher darüber reden, wie man einen Flop "definiert".
Lord_Helmi schrieb:
Xeon Phi ist nur für wenige wirklich greifbar, weil es rein den HPC-Markt betrifft.
Lord_Helmi schrieb:
Wirtschaftlich auf jeden Fall, technisch eigentlich nicht. Nur einfach zu teuer um sich durchzusetzen und zu wenige Vorteile. Während HDDS damals wirklich "lange" brauchten, damit die ersten Daten angekommen sind in der CPU und die SSD eine Offenbarung waren, konnte 3D XPoint nicht wirklich noch mal von den verringerten Latenzen im "Alltrag" profitieren, weil dann eh die ersten CPU eher der Flaschenhals ist.
Lord_Helmi schrieb:
Da wird es etwas schwerer, denn so ein wirklicher Flop waren die Prozessoren ja eigentlich nicht, auch wenn man später vom In-Order-Prinzip wieder weggegangen ist. Im Embedded-Bereich waren die durchaus beliebt.
TenDance schrieb:
Vega war, genau so wie Fiji, eine compute-Maschine. Dadurch war die Leistung FPS/Watt nicht so gut wie bei einer GTX 1080, aber compute lief Bombe.
Nein, das ist die heutige Verklärung von GCN und damit auch Vega, dass man sie heute zu "HPC"-Grafikkarten verklärt, die man auch zum Spielen nutze. Auch der Vergleich "Vega" gegen Navi (RDNA1) wird dann zwar gerne angeführt, weil ja die 5700 XT langsamer ist als Vega 56 und 64 in HPC-Benchmarks, das hat aber relativ einfache Gründe: 2560 Shader im Maximum gegen 4096 Shader. Es ist klar gewesen, dass die 5700 XT in der Form überhaupt nicht mit Vega 64 mithalten kann, alleine die Rohleistung ist ein gutes Stück niedriger.
Die Probleme von GCN bei Spielen lag nicht in der "Stärke" bei HPC und dass die Architektur für Spiele nicht so gut geeignet war, sondern die Probleme lagen in der Organisation der CU und dass AMD wieder sehr viel Zukunftsmusik in GCN umgesetzt hat. Deswegen ist GCN auch wesentlich besser gealtert als Kepler, Maxwell und auch zu Teilen Pascal. GCN hatte mit der Zeit ein massives Auslastungsproblem und konnte die Shader nicht mit genug Threads füttern, dazu kam, dass die damals verwendeten Wave64-Fronten immer nur auf einer Vec16 in der CU liefen und gnadenlos immer 4 Takte benötigte, um ausgeführt zu werden.
Die Architektur von GCN, jetzt CDNA, kann im HPC-Bereich Vorteile haben, weil man sehr viele Tasks öffnen kann, gleichzeitig ist Navi im HPC-Bereich nicht wirklich nachteilig, weil man einfach die Vektorlänge beachten muss.
TenDance schrieb:
Der Stromverbrauch war jetzt auch nicht Welten schlechter...
Eine GeForce 1080 liegt bei ca. 180 W TDP, eine Vega 64 bei 295 W TDP und beide waren ungefähr gleich schnell. Pascall lieferte je nach Ausgangsbasis ca. 30 % - 150 % mehr FPS pro Watt, das ist ordentlich gewesen. Erst wenn man Hand anlegt, kann man das alles reduzieren.
CDLABSRadonP... schrieb:
Nur, wenn man durch die falsche Leistungsaufnahme ins Verhältnis setzt
AlderLake ist effizient, gerade im Teillastbereich. Das Problem ist halt MT und dass Intel da einfach mehr Saft reinpumpt. Hier ist das Problem eher Intel, die immer den längsten Balken wollten. AlderLake wird einfach jenseits der Vernunft von Intel und den Boardherstellern betrieben. Eine gute CPU, die einfach nicht gut sein darf.
CDLABSRadonP... schrieb:
Die Grundidee von Bulldozer (im INT-Bereich) ist CMT2: Ein Modul kann sich zusammenschalten und einen Thread schneller bearbeiten oder aufteilen und dann zwei Threads normal schnell bearbeiten.
Nein, gerade das "Zusammenschalten" konnte ja Bulldozer eben nicht. Der L1d sowie die Registerfiles waren bei beiden INT-Kernen getrennt. Auch sonst war bis auf Fetch und Decode quasi alles getrennt, bis auf eben noch die gemeinsam genutzte FPU.
Meine Hoffnung war ja damals, dass beide INT-Kerne entweder an einem Thread zusammen arbeiten können, oder bei Bedarf 2, das war aber nicht der Fall.
Haldi schrieb:
Fury schaffe damals durchaus den Schlag zu Maxwell, auch wenn sie nicht perfekt waren und zuwenig VRAM hatten.
Damien White schrieb:
Auch hier ist die Frage, wieso man bei einem Markstart eines Produktes direkt Perfektion erwartet oder es direkt als "Flop" bezeichnet. I
Weil Intel entsprechende Erwartungen geschürt hat über die letzten Jahre. Wenn Intel anhand ihrer "Taten" hätte gemessen werden wollen, hätte Intel einfach etwas zurückhaltender sein sollen.
Understatement war noch nie Intels stärke, jetzt knallt es deswegen auch, vor allem weil sie auch noch Ausflüchte suchen und die Fehler bei anderen, nicht bei sich.
Hätte Intel sich bei Arc "bedeckt" gehalten und klar und offen kommuniziert, dass sie noch einige Hausaufgaben haben, wäre das alles wohlwollender aufgenommen worden und man würde sagen: ein respektabler Einstand mit Problemen.
Intel hat seit Jahren davon gesprochen, dass sie den Treiber deutlich verbessern, dass sie dieses Jahr "Millionen" an dGPUs ausliefern und dass sie mit XeSS und Co direkt auf Augenhöhe mit NVIDIA agieren usw.
Wer große Worte spricht, wird auch an den großen Worten gemessen.