Test Intel Arc A380 im Test: Eine Woche zwischen Lachen und Weinen

DonL_ schrieb:
Vor allen dingen man muss ein System haben das rBAR fähig ist, sonst geht anscheinend gar nichts.
Wobei ich das nicht sonderlich mehr als Kritikpunkt sehe wie jetzt z.B. PCIe 4.0 für RX6400. Für alte Systeme fallen da beide gleichermaßen raus, was natürlich schade ist.
 
Mich würde die Qualität und die Dateigröße des x265 Encodes insteressieren, insbesondere im Vergleich zu Nvenc und CPU Encoding
Nvenc zB ist schlechter und die Dateien sind am Ende größer als bei einem CPU Encode, dafür geht das aber erheblich schneller.
Kann die Intel GPU Nvenc schlagen? In Sachen Qualität? Dateigröße? Geschwindigkeit scheint ja ähnlich zu sein laut Benchmark.
 
Dummsday schrieb:
Das Zauberwort heisst Preis/Leistung und bei den derzeitigen Preisen von AMD/Nvidia wird da für Intel definitiv eine Lücke bleiben.
Ähm?
Die Karte soll 180€ kosten, also exakt der Preispunkt einer RX 6400 oder RX 6500XT oder GTX 1650 und dagegen verliert diese Karte auf allen ebenen teilweise haushoch, nur der Encoder taugt. Wo ist da denn bitte die preisliche Nische?
Ich meine du kannst dir auch eine RX 570 8G bei ebay Kleinanzeigen schießen und du fährst Kreise um die Karte bei der Leistung, mit undervolting und etwas tuning, verbraucht man wahrscheinlich nur unwesentlich mehr.
24784ds schrieb:
Wobei ich das nicht sonderlich mehr als Kritikpunkt sehe wie jetzt z.B. PCIe 4.0 für RX6400. Für alte Systeme fallen da beide gleichermaßen raus, was natürlich schade ist.
Das nimmt dir halt potentielle Kunden bei einem schon sehr sehr wenig überzeugenden Produkt.
 
  • Gefällt mir
Reaktionen: ThePlayer und edenjung
Eigentlich schade. Auf dem Papier würde mir die Rechenleistung für meine Spiele-Ansprüche genügen und in meinem Alt-PC mit PCIe 3.0 wäre die Karte besser geeignet als eine 6500XT, da weniger Stromverbrauch und vor allem mehr RAM, der auch noch besser angebunden ist.
 
DonL_ schrieb:
Ähm?
Die Karte soll 180€ kosten, also exakt der Preispunkt einer RX 6400 oder RX 6500 oder GTX 1650 und dagegen verliert diese Karte auf allen ebenen teilweise haushoch, nur der Encoder taugt. Wo ist da denn bitte die preisliche Nische?
Die Nische ist im OEM Markt, da wird man das Teil mit erheblichem Preisabschlag verkaufen und es wird genug uninformierte Käufer geben, die da zugreifen, ist ja schließlich "Original Intel" ;)
 
DonL_ schrieb:
Das nimmt dir halt potentielle Kunden bei einem schon sehr sehr wenig überzeugenden Produkt.
Stimmt schon, aber jetzt kennen wir auch einen weiteren möglichen Grund warum die Karte überwiegend in Komplettsystemen in Asien verkauft wird und jetzt eher nur noch zusätzlich nebenher. Von daher sehe ich das Thema rBAR weit weniger kritisch.
 
Dummsday schrieb:
Die Nische ist im OEM Markt, da wird man das Teil mit erheblichem Preisabschlag verkaufen und es wird genug uninformierte Käufer geben, die da zugreifen, ist ja schließlich von Intel...
Also bitte, mit den Treiberproblemen inkl. Abstürze und dann Gewährleistung bei OEMs auf den ganzen Rechner. Jeder mit einer halbwegs guten betriebswirtschaftlichen Begabung, rührt das Ding nicht mit der Kneifzange an.
 
  • Gefällt mir
Reaktionen: ThePlayer und BOBderBAGGER
"Da flimmert es an allen Ecken, bunte Balken wandern durchs Bild und es treten Stroboskop-Effekte auf, die auch bei direkter Sonneneinstrahlung das eigene Gesicht in eine Discokugel verwandeln."

LOL
 
  • Gefällt mir
Reaktionen: knoxxi
Es ist nichts Ungewöhnliches, dass neue Grafikkarten mit Review-Treibern noch kleinere Probleme aufzeigen. Sie sind dann für gewöhnlich zum Release behoben. Selten gibt es Fälle mit wirklich ärgerlichen Treiberfehlern, die auch nach dem Launch noch für einige Wochen anhalten. AMDs erster RDNA-Treiber für die Radeon RX 5700 XT ist solch einer gewesen. Doch selbst dies ist absolut kein Vergleich zum aktuellen Status von Intels Arc-Grafikkarten. Das ist ein Niveau, das der Redakteur so in 17 Jahren Berufserfahrung noch nicht erlebt hat. Nicht einmal im Ansatz.
'nough said
 
  • Gefällt mir
Reaktionen: ThePlayer
DonL_ schrieb:
Also bitte, mit den Treiberproblemen inkl. Abstürze und dann Gewährleistung bei OEMs auf den ganzen Rechner. Jeder mit einer halbwegs guten betriebswirtschaftlichen Begabung, rührt das Ding nicht mit der Kneifzange an.
Das kommt auf den Deal an, den sie mit Intel schließen...
 
  • Gefällt mir
Reaktionen: DonL_
Intel halt.
Grafikkarten können die nicht. Intel hat zwar Geld aber ihnen fehlen fähige Leute.
 
  • Gefällt mir
Reaktionen: Anon-525334 und rg88
Posteo schrieb:
Ein solider Start. Endlich eine Alternative! Bin sehr auf die nächste Generation gespannt.

Hast du überhaupt was gelesen?
So eine Katastrophe ist das schlimmste Auftreten einer Firma seit ich denken kann.
Selbst in den 90ern war die Veröffentlichung der niedergemachten i740 noch besser.
Und die ist zum Glück sofort wieder vom Markt verschwunden.
Dann wird 30 Jahre an der Grafik weiterentwickelt - udn dann komtm so eine Grütze dabei heraus.
Respekt, Intel, wenn man denkt da gehts nichts mehr, legt ihr noch einen oben drauf.
Dagegen stinken Meldungen wie absichtlich manipulierte Benches der letzten Jahre ja förmlich ab.
 
  • Gefällt mir
Reaktionen: Phintor, ThePlayer, McFritte und 2 andere
Also alles genau so wie es zu erwarten war.
Ich hab immer schon vorausgesagt, dass sie wegen der Treibersache gegen die Wand fahren werden. Der Vorsprung der beiden Konkurrenten ist immens und das hat viele, viele Jahre Mühe gekostet, überhaupt soweit zu kommen.

Es war auch abzusehen, dass ein Team unter dem Schaumschläger Koduri wieder nichts konkurrenzfähiges abliefert, wie er es bei AMD auch schon nicht getan hat. Nur hätte Intel keine Not gehabt. Im Gegensatz zu AMD müssten sie nichts auf den Markt werfen. AMD hatte schlicht keine Wahl, zum einen aus finanziellen Gründen, zum anderen um die Marktanteile nicht komplett zu verlieren. Sonst wär Vega wohl auch nicht als dedizierter Chip rausgekommen sondern man hätte sich auf die APU-GPU beschränkt, wo sie halbwegs okay war.

Intel hingegen hätte sich einfach zurückhalten sollen und so lange sich auf das R&D konzentrieren, bis ein brauchbares Produkt in der Pipeline ist. Stattdessen wurde viel zu früh die Marketingtrommel angeworfen und überzogene Erwartungen geschürt, die selbst für aussehenstehende leicht als Wunschdenken zu erkennen waren.
Jetzt ist man wieder soweit, dass der Ruf gleich mal ordentlich angekratzt ist, bevor es überhaupt die Produkte zu kaufen gibt auf allen Märkten. Wer auf so eine Idee gekommen ist, dass man das in dem Zustand released und sei es nur in China, gehört hochkant rausgeworfen IMHO.
Ich zumindest verstehe es nicht, was man sich dabei gedacht hat (oder eben nicht)...
Recht viel größer konnte die Blamage kaum werden, aber, dass denen nichts zu peinlich ist, hat man ja schon daran gemerkt, dass man in der Panik die Entwicklungsressourcen lieber für Benchmarkoptimierung (um nicht zu sagen Fakes) eingesetzt hat...

Btw:
Ist hier jetzt noch ein Fanboy unterwegs, der behauptet, dass die Treiber sicherlich kein Problem für Intel werden, weil sie ja Grafikchip-Marktführer sind und ach so viel Erfahrung und Knowhow haben? :D
Ergänzung ()

Posteo schrieb:
Ein solider Start. Endlich eine Alternative! Bin sehr auf die nächste Generation gespannt.
Ach okay, das ist einer davon :D

Bist du im richtigen Forenthread unterwegs oder hast du nur ein paar Balken angeschaut. Der Begleittext wäre übrigens sehr wichtig, um den Test zu verstehen ;)
Ergänzung ()

BxBender schrieb:
Dann wird 30 Jahre an der Grafik weiterentwickelt - udn dann komtm so eine Grütze dabei heraus.
Naja, so ist es nun auch wieder nicht.
An dieser Arch wurde erst ein paar Jahr entwickelt. Aber von marktreif ist das so weit entfernt wie Russland von einer Demokratie
 
  • Gefällt mir
Reaktionen: karl_laschnikow, ThePlayer, Thakor und eine weitere Person
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rysy
johnieboy schrieb:
Ich hatte ja drauf gehofft das ARC Intels Ryzen Moment im GPU Bereich sein würde, aber leider haben wir einen Bulldozer bekommen.
Bulldozer lief im Vergleich super.
Es fehlte ihm nur die parallelisierte Multihreading-Software.
Die gab es zum Teil im Anwendungsbereich, aber die allermeisten Spiele waren für Ein- oder maximal 2-Kernsystem mit hoher IPC und Taktzahl hin ausgelegt und optimiert.
Der hohe Overhead hat die Grafikkarten dann in DX11 udn Co. ausgebremst.
Hätte man Spiele dahingehend optimiert und Low-Level-APIs zu der Zeit schon grundlegend genutzt, dann wäre das ein gutes Produkt gewesen.
Leider hat man dann versucht über den zu hohen Takt etwas für die Spieler wieder gutzumachen, daher dann der viel zu hohe Verbrauch.
Also das, was Intel jetzt mit seinen Prozessoren macht, dei ja auch mal gerne bis zu 350 Watt aus der Leitung ziehen, der 12900K(S) hat sogar an einer Stelle den 3fachen (!!!) Verbrauch wie ein 5800X3D in Spielen (!!!).
 
  • Gefällt mir
Reaktionen: AssembIer, ThePlayer, Otsy und eine weitere Person
Danke für diesen tollen Test.

Es sieht doch ganz gut aus, erstmal.
Mal gespannt was die nächste Generation dann bringen wird und ob durch einen dritten Player im Game die Preise nicht wieder exorbitant anziehen werden.

Bei dem super Wetter die letzten Tage hat man doch eh keine Lust zum zocken :)
 
Da ist sicher Luft nach oben und Optimierungsbedarf bezüglich Software.
Als Einstand im Low-End Bereich finde ich die Leistung nicht mal so mies, der Preis muss halt runter, für ~120€ ist die Karte sicher okay - nachdem die meisten groben Fehler gefixt worden sind.

Da sieht man aber auch deutlich, dass Nvidia und AMD hier schon einen sehr guten Job machen von dem wir als User das so erwarten, weil wir es nicht anders kennen.
 
BxBender schrieb:
Es fehlte ihm nur die parallelisierte Multihreading-Software.
Urban legend. Die IPC war bescheiden und teilweise unterhalb der Phenom.

BxBender schrieb:
Der hohe Overhead hat die Grafikkarten dann in DX11 udn Co. ausgebremst.
Hätte man Spiele dahingehend optimiert und Low-Level-APIs zu der Zeit schon grundlegend genutzt, dann wäre das ein gutes Produkt gewesen.
Nein, wäre es nicht. Die IPC und Single-Core-Leistung wäre genauso mies gewesen.
Man hätte mit modernen APIs nur etwas mehr kaschieren können.

Der Bulldozer sollte mit seinen vielen Thread vorallem in Server punkten, aber er war so eine krasse Fehlentwicklung, dass er dort auch nichts gewinnen konnte und die Effizienz auch nicht gut war. Sogar so schlimm, dass AMD alle Marktanteile der Opterons verloren hat und sich komplett aus dem Servermarkt zurück ziehen musste. Erst mit Epyc finden sie langsam wieder einen Einzug in diesen Markt. Und sowas dauert sehr lange, bis man hier wieder einen breiten Ruf aufgebaut hat. Die Opterons hatten bis Bulldozer einen hervorragenden Ruf, ebenso die Plattformen. Danach wars vorbei.
BxBender schrieb:
Leider hat man dann versucht über den zu hohen Takt etwas für die Spieler wieder gutzumachen, daher dann der viel zu hohe Verbrauch.
Das wurde nicht als Nettigkeit für die Spieler gemacht, sondern um sich überhaupt von den Vorgängern etwas abzusetzen. Eine neue CPU die noch langsamer als die alte Generation gewesen wäre, wär ja der Worst-Worst-Case gewesen. Die hohen Taktraten wurden durch längere Pipelines erkauft, wie schon beim Pentium 4 Netburst. Und sowas funktioniert halt nicht, wenn man nicht anderweitig die IPC erhöht und die Caches vergrößert oder die Taktraten EXTREM erhöhen kann. Der Stromverbrauch ist dann noch dazu gekommen.
Der Bulldozer war in der ersten Iteration einfach eine absolute Fehlentwicklung.
Mit Excavator war dann die letzte Ausbaustufe und genau so, wie eigentlich diese Architektur zu Beginn hätte sein sollen. Nur kam sie viele Jahre zu spät.

Für die jüngeren im Forum:
https://www.computerbase.de/2016-08/amd-zen-architektur/


BxBender schrieb:
Also das, was Intel jetzt mit seinen Prozessoren macht, dei ja auch mal gerne bis zu 350 Watt aus der Leitung ziehen, der 12900K(S) hat sogar an einer Stelle den 3fachen (!!!) Verbrauch wie ein 5800X3D in Spielen (!!!).
FullACK
Ergänzung ()

Kampfkeefer schrieb:
Es sieht doch ganz gut aus, erstmal.
Mal gespannt was die nächste Generation dann bringen wird und ob durch einen dritten Player im Game die Preise nicht wieder exorbitant anziehen werden.
Haben wir den selben Test gelesen? :D
Ergänzung ()

illumina7 schrieb:
Als Einstand im Low-End Bereich finde ich die Leistung nicht mal so mies, der Preis muss halt runter, für ~120€ ist die Karte sicher okay - nachdem die meisten groben Fehler gefixt worden sind.
Es ist ein unbrauchbares Produkt im aktuellen Zustand. Das werden die auch nicht mehr retten können diese Generation.
Die haben bereits ewig Verspätung gehabt.
 
  • Gefällt mir
Reaktionen: ThePlayer, Otsy und Thakor
Zurück
Oben