Notiz Intel Arc A580: Erneut tauchen Benchmarks der Alchemist-Mittelklasse auf

BxBender schrieb:
i740 als Desktopkarte (das Ding gab es vorher nur auf dem Mainboard) war bereits in den 90ern der erste Versuch.
War es 1996? Müsste ich nachschauen.
Das war Anfang 1998 und die i740 kam nicht vom Mainboard, die Geschichte lief andersherum. Die i740 war ja oder eher sollte die Vorzeigekarte für AGP bzw. AGP Texturing sein. Jedenfalls konnte sie gerade so mit der Riva 128, welche da schon länger auf dem Markt war, mithalten. Aber hatte keinen Stich mehr gegen die sehr kurz darauf folgenden TNT und Voodoo 2. Man war also wie so manch anderer Chiphersteller der damals die Segel streichen musste eine Generation zu spät dran. Den Nachfolger i752 hatte man dann sehr spät für Grafikkarten gecancelt, weil dieser kein Land gegen TNT2 usw. gesehen hätte. Unter anderem weil weiter auf AGP Texturing, somit auf den viel zu langsamen Arbeitsspeicher, gesetzt wurde. Dieser Chip wurde dann für die iGPU zum i810/i815 Chipsatz verwurstet.
 
  • Gefällt mir
Reaktionen: SweetOhm
ragan62 schrieb:
Nvidias erste, NV1 war, wenn ich mich richtig erinnere, auch nicht so...
Erst NV3 (Riva 128) hat es dann raus gerissenen.
Nicht nur nicht so, sondern hätte nVidia fast das Genick gebrochen:
https://www.computerbase.de/forum/threads/gpus-ohne-markterfolg-ii-nvidias-nv1.2080076/

ragan62 schrieb:
Arc halte ich für ein "Erstwerk" eigentlich ganz gut.
Ne, nichtmal ansatzweise.


TigerherzLXXXVI schrieb:
Ob Intel sie nach so langer Zeit noch bringt bleibt selbstverständlich abzuwarten.
Ja gut, die RX 6400/6500 kam auch extrem spät.
Wenigstens im bezahlbaren Laptop hätte die mittlere Arc ruhig mal kommen können.

CDLABSRadonP... schrieb:
Ist die i740 von 1998 Intels erste dGPU gewesen? Ist das Intel von damals das Intel von heute?
Und ist die DG1 nicht eher eine iGPU als dGPU als eine dGPU?
Jaein, Grafikkarte ja, Computing eher weniger.
Und, von der i740 gibt es drei oder vier Dutzend(!) Designs.
Bei den aktuellen? Sparkle, acer, ASRock und Gunnir?
Wobei der Chip ja eher aus dem Militärbereich kam.


BxBender schrieb:
i740 als Desktopkarte (das Ding gab es vorher nur auf dem Mainboard) war bereits in den 90ern der erste Versuch.
Nein:
https://www.computerbase.de/forum/threads/intels-i740-timna-und-aimm.2032944/

Retroscorp schrieb:
Den Nachfolger i752 hatte man dann sehr spät für Grafikkarten gecancelt
Jupp, man munkelt von 50 Karten, die auf Messen verschenkt oder verlost wurden.
 
  • Gefällt mir
Reaktionen: SweetOhm
andi_sco schrieb:
Ja gut, die RX 6400/6500 kam auch extrem spät.
Mit dem Unterschied, dass die Arc A580 nicht die kleinste GPU im Produkt-Portfolio ist. Die A380 wurde im selben Zeitraum wie die A770/750 veröffentlicht.
 
andi_sco schrieb:
Wenigstens im bezahlbaren Laptop hätte die mittlere Arc ruhig mal kommen können.
Was hätte ein Arc-Salvage für einen natürlichen Platz in Laptops? Ist doch ineffizienter als ein Vollausbau, der runtergetaktet wird. Entsprechend marginal dürfte die Zielgruppe ausfallen.
 
TigerherzLXXXVI schrieb:
Mit dem Unterschied, dass die Arc A580 nicht die kleinste GPU im Produkt-Portfolio ist. Die A380 wurde im selben Zeitraum wie die A770/750 veröffentlicht.
Du vergisst die A310, die super wäre, älteren PCs AV1 in Hardware nachrüsten. Oder wenn man einfach eine billige GPU zur Bildausgabe braucht, weil das System keine iGPU hat und man Neuware möchte. 1-2 slot Kühler, ITX Länge, kein Stromstecker wäre optimal in meinen Augen. Das sie rBAR benötigt fehlt nicht ins Gewicht, wenn keine Performance braucht, sondern die Features.

Die A380 schlackst bei 135€ rum, die A310 könnte in der 100€ Preisregion sein.
 
CDLABSRadonP... schrieb:
Ohnehin ist das ganze auch deshalb ziemlich müßig, weil es ja ohnehin nicht Intels Ziel ist, dGPUs zu produzieren. Das ihr Weg, um ihr Ziel schneller zu erreichen. Das Ziel ist aber eine konkurrenzfähige GPU-Architektur, um in der Chipletära eine Chance zu haben. Denn wie sollten sie, wenn sich beliebige CPU-DIEs und GPU-DIEs verschmelzen lassen können werden, noch eine Chance ohne vernünftige GPU-Architekturen haben?

Dieses Hintergrundwissen ist wichtig, um überhaupt Erfolg und Misserfolg von Alchemist, Battlemage, Celestrial und Druid als dGPU-Projekt bewerten zu können: Müssen die Gewinn abwerfen? Nein. Es ist gut, wenn sie sich selbst tragen können. Dann steht Intel bereits besser da, als wenn Intel das Projekt nicht am Start hätte. Sie erhalten eine Architektur, die sie zur Hand haben. Und die brauchen sie.
Interessant, dass du vorgibst zu wissen, was Intels Ziel mit diskreten GPUs ist. Arbeitest du im Management von Intel oder woher weißt du das?
Also ich sehe hier mit Wohlwollen nur optimistische Mutmaßungen.

Alles was ich von Intel seit dem Launch von Arc vernommen habe, spricht eher die Sprache eines gescheiterten Projekts und die Umstrukturierung der GPU-Abteilung und Entlassung von Raja Kudori erweckt bei mir auch nicht den Eindruck von erreichten Zielen.

Auch glaube ich nicht, dass die Investoren so viel Geld in Arc gebuttert haben mit der Zielsetzung "muss kein finanzieller Erfolg sein - hauptsache wir machen was Tolles mit Grafikkarten, was wir bestimmt noch in Zukunft für die CPUs brauchen".
 
  • Gefällt mir
Reaktionen: SweetOhm
CDLABSRadonP... schrieb:
Ist doch ineffizienter als ein Vollausbau, der runtergetaktet wird
Und das weißt du woher?
 
:o:confused_alt::o
Aus der Erfahrung mit jeglichen sonstigen GPUs der letzten Jahrzehnte, insbesondere im Notebookbereich?
Breit und niedriger Takt arbeitet bei GPUs halt besser als schmal und hoher Takt...
...passt nebenbei auch zu sämtlichen theoretischen Gesetzmäßigkeiten.
Ergänzung ()

Shy Bell schrieb:
Interessant, dass du vorgibst zu wissen, was Intels Ziel mit diskreten GPUs ist.
Ich sage schlicht und ergreifend (und das schon bevor ein Alchemist-Produkt das Licht der Welt erblickt hat), dass Intel ihr eigentliches Ziel nicht nennt. Ich glaube nicht, dass sie damit ihre (potentiellen) Konkurrenten (AMD, Nvidia, Apple, Qualcomm, ...) werden täuschen können.
 
Nein, du schreibst:
"Das Ziel ist aber eine konkurrenzfähige GPU-Architektur, um in der Chipletära eine Chance zu haben." und gibst damit vor zu wissen, was Intel explizit wollte. Sonst müsstest du "meiner Meinung nach" oder "ich vermute" schreiben.

Davon ab, denke ich auch, dass sie eine konkurrenzfähige GPU-Architektur angestrebt haben (was auch sonst), nur widerspricht die Realität deiner Behauptung, dass der Gewinn nicht für die Strategie entscheidend war.
Für mich sieht es eher so aus, als wäre es ein Fehlschlag gewesen und man würde versuchen, die Verluste im Zusammenhang mit Arc möglichst gering zu halten und sehr genau abwägen, ob und wie viel Ressourcen Intel in Zukunft noch investiert.
"Meiner Meinung nach" werden wir in naher Zukunft keine konkurrenzfähigen dGPU Produkte mehr von Intel sehen - abseits eines unscheinbaren Releases von Battlemage. Aber ich irre mich gerne in dieser Annahme, da dieser Markt mehr Konkurrenz bitter nötig hat.
 
  • Gefällt mir
Reaktionen: DefconDev
Nachdem nVidia und AMD mit ihren neuen Gen´s nicht gerade geglänzt haben mit Leistungsplus zum Vorgänger, könnte das INTEL in die Karten (Achtung Wortspiel) spielen, wenn sie an Celeste und Druid festhalten.
 
Waldheinz schrieb:
Mit der A580 habe ich tatsächlich geliebäugelt, aber da es diese nicht gibt, ist es eine RX6600 geworden, schade eigentlich.
Dafür hast du immerhin einen anderen Underdog am GPU-Markt unterstützt. Und das meine ich auf keinen Fall schmähend für AMD. Ganz im Gegenteil: die gewaltige Dominanz von Nvidia finde ich idiotisch, da Team Red alles andere als schlechte Grafikkarten anbietet. Deine RX 6600 ist zum Beispiel ein Beweis dafür.
 
  • Gefällt mir
Reaktionen: Waldheinz
Draco Nobilis schrieb:
Nur das die DG1 die erst Gen war.
Arc ist die DG2 und damit zweite Gen.
Hier ein "Test" der DG1
Kommt etwas drauf an, wie man die Grenzen zu Generationen ziehen will. DG1 und DG2 sind beide Intel Xe Gen1. Nur dass DG1 Xe-LP für LowPower ist und die DG2 Xe-HPG. Die Architektur weicht also durchaus ab, aber der Befehlssatz ist mehr oder weniger der Selbe. Bei den Nvidia und AMD wäre das kein Generationssprung..
#################################

Was Intels Treiber angeht, die sind nicht perfekt. Das GPU Compute unterstützt Intel (viel) besser als AMD. Die Fixes für Vulkan kommen stetig, gerade an Stellen wo festgestellt wurde, dass es Flaschenhälse oder gar Fehlentscheidungen bei vorheriger Entwicklung gab. Es schaut also nicht schlecht aus, dass Xe2 durchaus brauchbar werden könne was Softwareunterstützung angeht.
- Sicht eines Linuxers -
 
Draco Nobilis schrieb:
Nur das die DG1 die erst Gen war.
Arc ist die DG2 und damit zweite Gen.
Eigentlich gesehen auch nicht so ganz, es gab da schon mal was, wenn es zwar nur ganz kurz war:

https://www.computerbase.de/2020-11/intel-i740-grafikprozessor-bericht/
Ergänzung ()

TigerherzLXXXVI schrieb:
Dafür hast du immerhin einen anderen Underdog am GPU-Markt unterstützt. Und das meine ich auf keinen Fall schmähend für AMD.
Danke für die Lorbeeren. Ich benutze tatsächlich schon länger Grafikkarten von AMD, so ungefähr ab der HD5000er Reihe, aber ich nagel mich nichjt drauf fest, mir gefallen die, und ja NVIDIA hat auch eine gewisse Schuild daran mit ihrer Preispolitik und das sie sich gern nur auf Highend spezialisieren, Das brauche ich nicht, daher ist die AMD genau richtig für mich, wäre die A580 bei Verfügbarkeit ebenfalls gewesen. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Millennial_24K und Draco Nobilis
Intel soll die Kiste für 179$ launchen, dann ist sie preislich in Euro ungefähr gleichauf mit einer 6600 und leistungsmäßig auch in etwa, in fullhd 3-4% langsamer, in wqhd 7-9% schneller, Arc kann mit fullhd einfach nichts anfangen, zu schlecht optimiert.

Wenn die hier für 189-199€ starten würde, kaum gekauft werden würde, würde sie sowieso Richtung 170-180€ fallen, dann hätten wir unter 200€ auch echt Mal Konkurrenz zur 6600. Die A750 gab's ein, zwei Mal im Mindstar für 199 oder 209€, aber nur sehr kurz. Die A580 wird keine 10% langsamer sein als die A750, also passt sie da auch echt gut preislich rein.

Hilft wieder leicht Nachfrage von der AMD 6000er, 7000er Serie und von Nvidia 3000er und 4000er Serie wegzunehmen, die werden billiger, mehr Angebot ist da nie schlecht.
 
Zuletzt bearbeitet:
intel sollte die GPU sparte endlich begraben un sich auf das verlassen was ihnen wirklich geld bringt. das ist aktuell ein milliardengrab und die produkte jetzt und in zukunft sehen nicht wirklich so aus als kann man aufschließen.

klar geben sich AMD und besonders nvidia gerade besonders mühe die als gute alternative darzustellen aber letztlich kommt da nicht viel rum.

zu wenig zu spät um es kurz zu machen
 
@PS828
Intel braucht eine GPU-Sparte für iGPUs. Ohne iGPU wäre ein großer Teil vom Desktop- und Notebookmarkt gefährdet. Für die iGPU braucht es Softwareunterstützung und der Aufwand ist fast so groß wie für größere dGPU. Lizenzieren von externer IP ist dabei schwierig. AMD hat brauchbare IP, deren Softwarestack für GPGPU ist aber im Vergleich zu Intel eher mies. Nvidia ist ein schwieriger Partner und direkter Konkurrent im Bereich HPC, ARM wird Mali nicht herausrücken und deren DirectX, GPGPU Stack ist auch mau, Qualcomm schickt sich an zum direkten Konkurrenten im Notebooksegment werden zu wollen was Snapdragon in Weite Ferne Rücken lässt und zuguterletzt bleibt PowerVR, dass fasst aber Niemand ohne Not an..
Es wird also weiterhin darin investiert werden müssen GPU Architektur und Software zu entwickeln.

Darüber hinaus braucht Intel ein Angebot für HPC/AI allein schon für den Aktienkurs. Genauso wie im Bereich HPC ein Komplettangebot notwendig wird. Nvidia und bedingt AMD stehen hier mit eigenen CPU+GPU-Plattformen bereit, es gibt da kaum Gründe für Kunden noch auf Intel CPUs zu schauen.

Das Hauptgeschäfft von Intel ist dabei gar nicht mehr so sicher. AMD greift den x86-Markt an, die großen IT-Unternehmen haben alle bereits ARM-Systeme Produktiv, Apple ist komplett auf dem ARM Zug und Microsoft liegt mit Qualcomm im Bett.

Intel kann sich kaum leisten nicht zu diversifizieren. An sich haben sie auch den richtigen Ansatz, die GPUs in GPGPU und Gaming aufzuteilen.


Ansonsten finde ich die Erwartungshaltung überzogen. Das Hard- und Software auf einem Niveau mit Nvidia ist, würde ich kaum vor Xe3 erwarten und auch nur dann, wenn Intel da nicht übermäßig den Rotstift ansetzt.
 
  • Gefällt mir
Reaktionen: stevefrogs, axi und DaBo87
PS828 schrieb:
intel sollte die GPU sparte endlich begraben un sich auf das verlassen was ihnen wirklich geld bringt. das ist aktuell ein milliardengrab und die produkte jetzt und in zukunft sehen nicht wirklich so aus als kann man aufschließen.

klar geben sich AMD und besonders nvidia gerade besonders mühe die als gute alternative darzustellen aber letztlich kommt da nicht viel rum.

zu wenig zu spät um es kurz zu machen
Intel verdient Geld mit Prozessoren. ML wird Arc als iGPU nutzen. Die Integration des TSMC-Fertigungsprozesses und die GPU-Architektur in millionenfach verkauften Prozessoren testen oder eine dGPU-Serie vorausschicken, welche Variante reduziert das Risiko?
Arc kam bewusst zu früh. Intel verbessert die Treiber und muss ML nicht als Beta in den Markt schicken. Absatzzahlen von ML wird Intel auch nutzen um sich als Marktführer bei KI-Hardware zu krönen.

TigerherzLXXXVI schrieb:
Dafür hast du immerhin einen anderen Underdog am GPU-Markt unterstützt. Und das meine ich auf keinen Fall schmähend für AMD. Ganz im Gegenteil: die gewaltige Dominanz von Nvidia finde ich idiotisch, da Team Red alles andere als schlechte Grafikkarten anbietet. Deine RX 6600 ist zum Beispiel ein Beweis dafür.
Verstümmelte Karten wie die RX6400 und 6500 bringen: AMD ist Teil des GPU-Marktes. Dabei schafft es AMD mit RDNA3 auch nicht Nvidia gefährlich zu werden, diese Architektur ist eine Fehlentwicklung. In der aktuellen Ct reißt die W7900 dann auch den Rekord für die Leerlaufleistungsaufnahme: über 70 W. Aus welchem Grund soll ein Käufer AMD unterstützen? Mitleid?
AMD versucht die Strategie von Nvidia mitzugehen, hat aber nicht die Produkte dafür. Zen4 setzt auch auf Upselling.
Ein Teil des grünen Erfolgs liegt in AMD begründet. Nvidia hält einfach den Vollausbau zurück. Läuft bei AMD.

Der GPU-Markt teilt sich nicht in grün und rot gegen blau sondern grün gegen rot und blau auf. Nvidia steht einsam an der Spitze. Wem die Produkte zusagen, kann weiter grün kaufen. Wenn zwei streiten, freut sich der Dritte. Mobil kann AMD nichts mehr anbieten, hier ist Intel längst vorbeigezogen.
 
Artikel-Update: Hartnäckig hält sich die Arc A580 in der Gerüchteküche. Jetzt wurde sie bei einem System in der Geekbench-Datenbank entdeckt. Mit rund 83.000 Punkten im OpenCL Benchmark liegt die Leistung mit einer Radeon RX 7600 auf Augenhöhe. Weiterhin steht die offizielle Einführung seitens Intel aus.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: chaopanda, BrollyLSSJ, PietVanOwl und 2 andere
Zurück
Oben