Test Intel Arc A380 im Test: Eine Woche zwischen Lachen und Weinen

Karan S'jet schrieb:
Ich hatte damals zwei ATI Karten, die HD5850 und 7850. Ob ATI damals schon zu AMD gehörte, weiß ich nicht - jedenfalls wurden die Karten unter der ATI Marke vermarktet.
Die HD2000er müssten die letzte Generation sein, die ATI eigenständig entwickelt hat. Zum Launch der Karten gehörte ATI schon zu AMD.
 
Danke für den Test.
Für meinen Geschmack viel zu negativ in der Ausdrucksweise, hätte man durchaus professioneller (sachlicher) rüberbringen können und trotzdem ganz klar die jetzigen Schwächen aufzeigen können.
 
  • Gefällt mir
Reaktionen: foxio und Karan S'jet
eigentlich sollte man den intel arc A380 mit der China GPU vergleichen ;)


was werden die jenigen wohl jetzt machen,
die intel arc als nickbild genommen haben?
:D
;)
 
  • Gefällt mir
Reaktionen: karl_laschnikow und rg88
Ja, muss ich halt kaufen so eine A770, wenn Sie denn draußen ist. Egal wie aktuell der Stand ist was Treiber und Optimierung angeht.
Arc 1.0 muss der Sammlung hinzugefügt werden! :p
Benutzen? Nein....
 
Zuletzt bearbeitet:
@Irrlicht_01
da würde ich aber auf die Angebote der Resterampe und Grabbelkiste warten, dürfte nochmal den einen oder anderen Euro sparen ;)
 
  • Gefällt mir
Reaktionen: Otsy
Blade_user schrieb:
Danke für den Test.
Für meinen Geschmack viel zu negativ in der Ausdrucksweise, hätte man durchaus professioneller (sachlicher) rüberbringen können und trotzdem ganz klar die jetzigen Schwächen aufzeigen können.
Wieso? wenn etwas nichts taugt, dann darf man es auch so schreiben.
Warum soll man das schönfärben? Sowas machen bezahlte Redaktionen zu hauf
Ergänzung ()

Irrlicht_01 schrieb:
Arc 1.0 muss der Sammlung hinzugefügt werden! :p
Kuriositätenkabinett? ;)
Ergänzung ()

Karan S'jet schrieb:
Ob ATI damals schon zu AMD gehörte, weiß ich nicht - jedenfalls wurden die Karten unter der ATI Marke vermarktet.
Stimmt nicht. Seit der HD6000 ist Ati als Marke Geschichte und AMD Radeon wurde verwendet.
Die erste Karte unter AMD-Regie waren die HD3000.
Ergänzung ()

Dummsday schrieb:
und die groben Softwarebugs werden spätestens in sechs Monaten entfernt sein. Die Software der Karte ist einfach nicht fertig, das sieht mir aber eher nach einem Problem mit dem Projektmanagement aus und nicht danach, dass Intel es nicht besser könnte..
Sehr optimistisch :D
Sie haben sich bereits 1 Jahr mehr Zeit gelassen und das ist das, was dabei rausgekommen ist.
6 Jahre halte ich für realistischer um mit der Qualität der Treiber auf dem Niveau der Konkurrenz zu sein.
Zumindest liegt meine Schätzunge wahrscheinlich näher als deine ;)
 
  • Gefällt mir
Reaktionen: Thakor und Luxmanl525
@rg88
Stimmt hast recht - da haben mich meine Erinnerungen getrübt. Ändert aber letztendlich nichts an meinen Erfahrungen welche ich gemacht hatte.
 
@rg88

ja, werde ich dann gleich neben dieses Intel-Produkt packen: :P
Zwischenablage01.jpg
 
  • Gefällt mir
Reaktionen: Thakor, Chismon, Anon-525334 und 4 andere
Holy Shit. Du ziehst das ja echt krass durch ;)
 
  • Gefällt mir
Reaktionen: Irrlicht_01
Beim Bild 23 musste ich kurz lachen. Da hats das Chipmännchen aka Bunny People erschlagen :D
 
  • Gefällt mir
Reaktionen: rg88
Terrordrome schrieb:
Ohje, war bisher noch optimistisch, aber das liest sich nicht gut.
echt jetzt? hallo intel beginnt erst, warten wir nochmal 3-4 jahre da schaut das sicherlich anders aus. aber wer kauft/ oder liebeugelt denn jetzt schon eine intel graka :lol: man die fangen erst an was will man da auch erwarten.
:lol::lol:
 
Dass der erste Test schlecht ausgehen wird war voraussehbar und alles andere wäre recht überraschend gewesen - das stand schon für mich fest als Intel das erste mal die GPU erwähnt hat.

Dass es so Katastrophal ist überrascht mich aber dennoch da nicht mal das richtig funktioniert was absolut nichts mit der GPU selbst zu tun hat und das muss man erst schaffen.

Natürlich kann man das auch positiv sehen,
von diesem Stand müsste man richtig Geld in die Hand nehmen um noch schlechter zu werden und daran dürfte es scheitern^^
 
  • Gefällt mir
Reaktionen: Luxmanl525 und rg88
johnieboy schrieb:
Ich hatte ja drauf gehofft das ARC Intels Ryzen Moment im GPU Bereich sein würde, aber leider haben wir einen Bulldozer bekommen.
Und selbst der war um Welten besser. Da lief alles ohne ständig abzuschmieren

Die Hardware scheint ja noch okay zu sein aber der Treiber ist der Megafail da reichen nicht mal alle Facepalm Memes des Internets um das zu würdigen. Der Treiber ist doch bestenfalls eine späte Alpha.
Mir fällt auch gerade nicht ein das es jemals einen schlechteren Treiber wofür auch immer gegeben hat.
Ich verstehe nicht wie man sowas Launchen kann auch wenn es "nur" China ist mit über 1 Milliarde Kunden.
Das kann doch nicht sein das so ein riesen Konzern wie Intel es nicht schafft da ein Team von 20-30 Leuten abzustellen die einen Treiber hinbekommen der bis auf die Performance auch liefert.
Man müsste doch total Hirnverbrannt sein sich die Karte zum Zocken zu kaufen.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
Wie kann ein so großer Konzern mit so viel Erfahrung im Hardwarebereich so dermaßen schlecht abliefern? Und das nach zig Verschiebungen und mehreren Jahren Vorlaufzeit sowie mehreren Quasi-Vorgängern. ARC ist ja keineswegs der erste Versuch eines Grafikchips von Intel.
So dermaßen schlechte Treiber KANN man doch gar nicht abliefern nach so langer Zeit, außer mit Absicht. Es ist mir wirklich unbegreiflich, wie man so etwas auf irgendeinen Markt lassen kann, wenn man ein Konzern wie Intel ist. Irgendein Kickstarterprojekt aus der Garage hätte man zurecht in der Luft zerrissen, aber das hier ist ein Megakonzern, der seit Jahrzehnten im Geschäft und fast ebensolange Marktführer in diversen Segmenten ist/war.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
rg88 schrieb:
du weißt, dass die R600 Ati ruiniert hat?
Ne, da hat AMD sich mit der ATi Übernahme nur verhoben und an den falschen Stellschrauben den Sparkurs durch die Übernahme bei der Entwicklung fahren müssen. Ich bin ja selbst wieder froh einen intel Chipsatz zu nutzen und keine AMD unbenannten ATi Krücken bis die Abteilung weg gespart wurde um bei ASUS mit ASMedia Chipsätze einzukaufen. Das was AMD mit ADRENO damals für nötiges Kapital augrund der intel Wettberbsverrzerungen verkaufen musste, will man ja wieder erneut mit vorhandenen Ressourcen aufgebaut selbst anbieten. Mit eigenen Finanzmitteln richtig eingesetzt geht halt mehr.

AMD hat es leider wie uns ja allen bekannt ist durch die intel Marktmanipulation hart gehabt, weil durch Marktanteile das Kapital fehlte um die eigenen Werke zu betreiben und die Fertigungstechnologie voran zu bringen, was allein viele Milliarden an nötigen Kapital beansprucht. Da schaut man erst recht, welche teuren Softwareentwickler man halten muss. Die intel Entschädigung von einer 1 Milliarde für die Wettbewerbsverzerrungen waren ein Witz für die entgangenen Marktanteile und Einnahmen die im 10 Milliarden $ Bereich im Jahr oder gar Quartal liegen könnten. Dann wäre durchaus auch AMD 7nm möglich. Wenn AMD auch die nötigen Ingenieure einstellen könnte, wo sich selbst GloFo bei seiner Neuausreichtung mit Sparkursen entschlacken musste und kein Rennen mehr um Spitzentechnologie betreibt.
rg88 schrieb:
Jo, und das war ein ziemlicher Rohkrepierer, der wichtige Ressourcen am falschen Ende gebündelt hat. Die erhofften High-End-Grafikchips sind nicht abgefallen und den eigentlich geplanten HPC-Markt konnte man nicht addressieren.
Das HBM-Knowhow hat auch wahnsinnig viel Geld gekostet und hätte man nicht den Pionier spielen wollen, ......
Das ist doch selbst in RDNA 2 aufgegangen, nachdem man nach langer Stille halbwegs fertige Treiber für Workstations anbieten kann,d amit sogar werben und RDNA 2 selbst Ampere gefährlich wird, was bei nvidia selbst wieder mal nach Maxwell größere Cachestufen nach sich zieht.
Die frühe AMD HBM Entwicklung mit der Kooperation mit SK Hynix erlaubt eben selbst nvidia und intel Produkte, die es so nicht gegeben hätte und AMD hält sicher Patente und Lizenzeinnahmen. (Meine Hassliebe zur VEGA 56 bekommt sicher mal einen Regalplatz und ich hätte die auch für 400€ an Miner verkaufen können. Wirtschaftlich wäre das sogar sinnvoll gewesen um irgendwann gebarucht VEGA für 50€ für das Regal zu kaufen.) AMD musste Pionier spielen um zu überleben. Leider waren die Nutznieser mit Feinschliff die anderen Hersteller, aber mit Ressourcen bei AMD geht es langsam auch mit dem Feinschliff und damit den Treibern, wo die Installationsroutine nicht noch zerschossen ist.
rg88 schrieb:
Jo, das war zu Koduris-Zeiten viel zu oft eben nicht der Fall.
Man brauchte selbst Jim Keller bei AMD trotzdem zwei mal um wieder in die CPU Spur zu kommen. Wen also hat man in der GPU Sparte wirklich? Jim Keller hat aber auch nur mit dem Autorität als führender Spitzendesigner am Phenom 1100 den Ryzen 1200 ermöglicht. Dafür braucht man kein Talent, wenn der Phenom II mit Thuban nur ein Upgrade erhielt, kein Fertigungsschritt von 45nm auf 32 und 28nm, weil die AMD Architekten Bulldozer bevorzugten. Um gute Architekturen zu erkennen und zu fördern muss ich nicht mal Frau Su heißen. Wenn AMD keine Technologieträumer mit ausreichenden Ressourcen beschäftigt, wird es sich bemerkbar machen. Selbst Apple zehrt bis heute von den Visionen und vielen, internen Entscheidungen seitens Steve Jobs, so lange man es gwinnbringend an Kunden verkaufen kann.

Herrn Koduris Arbeit lebt bei AMD, Apple weiter und wird es auch bei intel tun, weil es von den 8 Milliarden Menschen mit Herrn Jensen und einigen Ausnahmen anscheinend keine weiteren, gut ausgebildeten Chipdesigner gibt, die die Chance unter Beweis stellen können oder überhaupt die Chance einer solchen Ausbildung bekommen. Bei Betriebsystemen kam nach Linux was? Den heutigen Anspruch einen völlig neuen Kernel zu entwickeln, darum noch lauffähige Software vorzuweisen zeigt sich, wie lange allein Google bei Fuchsia entwickelt. Das alles habe ich längst mit QNX, ja sogar im Auto.

https://www.techspot.com/news/93476-intel-poaches-another-lead-gpu-designer-amd.html
intel, AMD, intel, wer nicht bei S3 tätig war. Spitzenleute sind mittlerweile alte Dinosaurier und bei AMD GPU hält die Ausrichtung der selbst alternde Herr Wang.
https://www.pcgameshardware.de/Raytracing-Hardware-255905/News/AMD-Raytracing-DXR-1269143/
Die sparsame Spitzenantwort mit Raytracing hat mich mitunter zum Kauf eines nvidia Produktes geführt. Der seit der VEGA halbgare AMD Encoder war da aber längst ausschlaggebend intel und nvidia zu kaufen. So sieht auch Ressourcenbindung bei RDNA 2 in einem Unternehmen aus.

Wenn Frau Su keine Spitzenfachkräfte zu AMD bringt und fördert, wird intel es mit Kapital in Teilsparten aufsaugen um führend zu bleiben. Das muss nur nicht aufgehen, wenn man kein funktionierndes Team für ein ganzes Produkt zusammenstellen kann und bei intel sind es derzeit die Treiber Entwickler, selbst wenn intel wie auch AMD als Pionier Hardware ohne Treiberuntertützung vorstellt, was sich mit dem intel Phi zeigte. Selbst VEGA mit den Treibern von 2021 in 2017 wäre ein ganz anderes Blatt für AMD gewesen, nur hatte man zu der Zeit kein vollwertiges Software Team diese Leistung zu erbringen.
 
  • Gefällt mir
Reaktionen: Ganjaware
Man sollte wohl sehr geduldig auf die 4. Generation warten.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
Geld ist dumm. Auch wenn es im Überfluss auf ein Thema geworfen wird ändert das nichts an dieser Tatsache. Sollte jetzt klar sein.
Ich hatte es auch in einem früheren Thread zum Intel Arc geschrieben. Das Hauptproblem sind die Treiber für Videospiele. Die waren bei Intel auch für iGPUs schon immer die Schwachstelle.
Allerdings hat Intel meine schlechten Erwartungen noch unterboten...ups.

Es wird wohl noch 1-2 Jahre dauern, bis die einigermaßen brauchbar werden.

Die positiven Aspekte beim Video Encoding überraschen weniger. Da haben die erfolgreich die iGPU Encoding komplett übernommen
 
  • Gefällt mir
Reaktionen: xXBobbyXx
Na viel Spaß wenn das Teil so in der USA veröffentlicht wird. Intel würde vermutlich in den Klageschriften unter gehen. Ich frage mich ernsthaft was Intel da geritten bzw. geraucht hat bei den Entscheidungen. Das LineUp ist doch nur für die Tonne gut, schade um die Ressourcen....
 
Der Nachbar schrieb:
Ne, da hat AMD sich mit der ATi Übernahme nur verhoben und an den falschen Stellschrauben den Sparkurs durch die Übernahme bei der Entwicklung fahren müssen.
Nein, die Entwicklung war noch AMDs Werk, das war noch rein ATI
Ati hätte diese Serie nicht überlebt.
Der Nachbar schrieb:
Das ist doch selbst in RDNA 2 aufgegangen, nachdem man nach langer Stille halbwegs fertige Treiber für Workstations anbieten kann,d amit sogar werben und RDNA 2 selbst Ampere gefährlich wird, was bei nvidia selbst wieder mal nach Maxwell größere Cachestufen nach sich zieht.
Was hat das mit RDNA zu tun?
Die alte Architektur (GCN) wird parallel weiter entwickelt und ist an den HPC-Markt addressiert.
Der Nachbar schrieb:
Die frühe AMD HBM Entwicklung mit der Kooperation mit SK Hynix erlaubt eben selbst nvidia und intel Produkte, die es so nicht gegeben hätte und AMD hält sicher Patente und Lizenzeinnahmen.
Kann nicht viel sein, sonst wär das in den Quartalszahlen irgendwann mal erwähnt worden. Damit wurde kein Cent verdient, nur Kosten verursacht.
Der Nachbar schrieb:
AMD musste Pionier spielen um zu überleben.
Nö, muss man nicht, wenn man es sich nicht leisten kann.
Ryzen war eine neue Architektur, aber ohne Experimente. Das innovative war das Multi-Chip-Design mit kleinen Dies. Eine naheliegende Sache, wenn die Chips bei gleicher Größe immer teurer werden und zugleich die Fertigung langsam das physikalische Limit erreicht.
Ebenso wie AMD auch keine eigene Fertigun braucht. Daran hat man auch viel zu lange festgehalten, ohne, dass man es sich leisten kann und ohne, dass man gleichzeitig Vorteile rausgeholt hätte. Entweder der Node war veraltet, die Yields waren mies oder die Kapazitäten waren nicht ausreichend. Irgendwas hat immer nicht gepasst. Fab-less hätten sie schon viel früher gehen müssen, weil sie sich das einfach nicht alleine leisten können und IBM auch kein relevanten Stückzahlen fertigte.
Der Nachbar schrieb:
Man brauchte selbst Jim Keller bei AMD trotzdem zwei mal um wieder in die CPU Spur zu kommen.
Jo, der hat alte Design wieder ausgegraben, die zu Bulldozer-Zeiten verworfen wurden und in der Schublade gelandet sind, weil man auf die falsche Architektur gesetzt hat. Keller hat wieder eine eher konservative Architektur aufgesetzt und dem Team das Know-How gegeben, dass sie es selber fertig entwickeln und weiterentwickeln können.
Aber es ist ja nicht so, dass dort Idioten saßen bis Keller kam. Es fehlte eben eine Person, die die richtigen Entscheidungen traf. Der Rest ist dann vergleichsweise trivial für solche Leute.
Der Nachbar schrieb:
Wen also hat man in der GPU Sparte wirklich?
Keine Galionsfigur mit Rampenlichtfetisch anscheinend. Aber dafür scheints jetzt besser zu klappen als unter dem vorherigen Schaumschläger und Ankündigungsweltmeister
Der Nachbar schrieb:
Jim Keller hat aber auch nur mit dem Autorität als führender Spitzendesigner am Phenom 1100 den Ryzen 1200 ermöglicht.
Der Phenom ist doch nicht das interessante. Athlon 64 war die Meisterleistung von Keller damals. Das hat AMD überhaupt erst so hoch gebracht. Alles danach war einschließlich Bulldozer nur eine Evolution dieser Architektur. Und genau da hat man sich verzettelt. Die Ryzen sind viel mehr mit der Katzenarchitektur verwandt als mit Bulldozer. Die Katzen-Technik war auch die, die in den Netbooks und Konsolen zum Einsatz kam. da konnte man mit der trägen und stromfressenden Bulldozer-Technik nichts gewinnen. (Die Bobcat waren natürlich grottenlahm, aber zumindest effizient)
Der Nachbar schrieb:
Wenn AMD keine Technologieträumer mit ausreichenden Ressourcen beschäftigt, wird es sich bemerkbar machen.
Man braucht keine Träumer in der Entwicklung. Für sowas gibts andere Abteilungen in der F&E.
Der Nachbar schrieb:
Selbst Apple zehrt bis heute von den Visionen und vielen, internen Entscheidungen seitens Steve Jobs, so lange man es gwinnbringend an Kunden verkaufen kann.
Ich werde darauf jetzt nicht eingehen und Koduri mit Jobs auch nur im Ansatz zu vergleichen :D

Der Nachbar schrieb:
So sieht auch Ressourcenbindung bei RDNA 2 in einem Unternehmen aus.
RDNA wurde in erster Linie für die next-gen Konsolen entwickelt. Die Desktopableger sind ein angenehmer Nebeneffekt.
Der Nachbar schrieb:
Wenn Frau Su keine Spitzenfachkräfte zu AMD bringt und fördert, wird intel es mit Kapital in Teilsparten aufsaugen um führend zu bleiben.
Ich denke, dass AMD aktuell selbst sehr gute Leute hat. Sonst würde die Pipeline nicht so gut aussehen.
Der Nachbar schrieb:
Selbst VEGA mit den Treibern von 2021 in 2017 wäre ein ganz anderes Blatt für AMD gewesen, nur hatte man zu der Zeit kein vollwertiges Software Team diese Leistung zu erbringen.
Wäre es nicht. Die GCN-Architektur passt einfach nicht für Spiele und lässt sich nicht richtig auslasten. Deshalb ist ja der Unterschied zwischen theoretischen TFLOPS und fps am Bildschirm so krass. GCN sollte einfach zwei Bereiche gleichzeitig abdecken, wobei man im einen nicht erfolgreich war (HPC) und im anderen dafür eine aufgeblähte Architektur mitschleifen musste, die für Spiele Overkill war und am Ende zu wenig der eigentlich möglichen Rechenleistung auch in Spieleleistung umgesetzt hat.
Die Trennung und damit zwei Schienen mit GCN und RDNA war jetzt die richtige Entscheidung.
Ob man im HPC Markt einen Fuß rein bringt ist weiterhin fraglich. Aber zumindest ist der Gamingsektor jetzt nicht mehr künstllich ausgebremst und man kann hier zumindest einen ordentlichen Cashflow generieren und hoffentlich auch die nächste Konsolengeneration wieder gewinnen
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Kolu, Thakor und eine weitere Person
Intel Ingenieur.. So ihr Leuts von der Treiberentwicklung.. die Karten sind fertig und haben genug Bums , fürs erste. Habt Ihr die Treiber fertig?
Treiberentwickler... Alter!! Augen roll siehste doch, der Monitor zeigt doch den Windows-Desktop an.
Ingenieur.. und sind die auch tauglich für die bekannstesten Videospiele?
Treiberentwickler... öhm ... für Videospiele ?... was zum Teufel sind Videospiele ????????????
Ingenieur fällt in Ohnmacht.. :schluck:
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Hells_Bells und Jan
Zurück
Oben