Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestIntel Arc A380 im Test: Eine Woche zwischen Lachen und Weinen
Wobei ich das nicht sonderlich mehr als Kritikpunkt sehe wie jetzt z.B. PCIe 4.0 für RX6400. Für alte Systeme fallen da beide gleichermaßen raus, was natürlich schade ist.
Mich würde die Qualität und die Dateigröße des x265 Encodes insteressieren, insbesondere im Vergleich zu Nvenc und CPU Encoding
Nvenc zB ist schlechter und die Dateien sind am Ende größer als bei einem CPU Encode, dafür geht das aber erheblich schneller.
Kann die Intel GPU Nvenc schlagen? In Sachen Qualität? Dateigröße? Geschwindigkeit scheint ja ähnlich zu sein laut Benchmark.
Ähm?
Die Karte soll 180€ kosten, also exakt der Preispunkt einer RX 6400 oder RX 6500XT oder GTX 1650 und dagegen verliert diese Karte auf allen ebenen teilweise haushoch, nur der Encoder taugt. Wo ist da denn bitte die preisliche Nische?
Ich meine du kannst dir auch eine RX 570 8G bei ebay Kleinanzeigen schießen und du fährst Kreise um die Karte bei der Leistung, mit undervolting und etwas tuning, verbraucht man wahrscheinlich nur unwesentlich mehr.
24784ds schrieb:
Wobei ich das nicht sonderlich mehr als Kritikpunkt sehe wie jetzt z.B. PCIe 4.0 für RX6400. Für alte Systeme fallen da beide gleichermaßen raus, was natürlich schade ist.
Eigentlich schade. Auf dem Papier würde mir die Rechenleistung für meine Spiele-Ansprüche genügen und in meinem Alt-PC mit PCIe 3.0 wäre die Karte besser geeignet als eine 6500XT, da weniger Stromverbrauch und vor allem mehr RAM, der auch noch besser angebunden ist.
Ähm?
Die Karte soll 180€ kosten, also exakt der Preispunkt einer RX 6400 oder RX 6500 oder GTX 1650 und dagegen verliert diese Karte auf allen ebenen teilweise haushoch, nur der Encoder taugt. Wo ist da denn bitte die preisliche Nische?
Die Nische ist im OEM Markt, da wird man das Teil mit erheblichem Preisabschlag verkaufen und es wird genug uninformierte Käufer geben, die da zugreifen, ist ja schließlich "Original Intel"
Stimmt schon, aber jetzt kennen wir auch einen weiteren möglichen Grund warum die Karte überwiegend in Komplettsystemen in Asien verkauft wird und jetzt eher nur noch zusätzlich nebenher. Von daher sehe ich das Thema rBAR weit weniger kritisch.
Die Nische ist im OEM Markt, da wird man das Teil mit erheblichem Preisabschlag verkaufen und es wird genug uninformierte Käufer geben, die da zugreifen, ist ja schließlich von Intel...
Also bitte, mit den Treiberproblemen inkl. Abstürze und dann Gewährleistung bei OEMs auf den ganzen Rechner. Jeder mit einer halbwegs guten betriebswirtschaftlichen Begabung, rührt das Ding nicht mit der Kneifzange an.
"Da flimmert es an allen Ecken, bunte Balken wandern durchs Bild und es treten Stroboskop-Effekte auf, die auch bei direkter Sonneneinstrahlung das eigene Gesicht in eine Discokugel verwandeln."
Es ist nichts Ungewöhnliches, dass neue Grafikkarten mit Review-Treibern noch kleinere Probleme aufzeigen. Sie sind dann für gewöhnlich zum Release behoben. Selten gibt es Fälle mit wirklich ärgerlichen Treiberfehlern, die auch nach dem Launch noch für einige Wochen anhalten. AMDs erster RDNA-Treiber für die Radeon RX 5700 XT ist solch einer gewesen. Doch selbst dies ist absolut kein Vergleich zum aktuellen Status von Intels Arc-Grafikkarten. Das ist ein Niveau, das der Redakteur so in 17 Jahren Berufserfahrung noch nicht erlebt hat. Nicht einmal im Ansatz.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Also bitte, mit den Treiberproblemen inkl. Abstürze und dann Gewährleistung bei OEMs auf den ganzen Rechner. Jeder mit einer halbwegs guten betriebswirtschaftlichen Begabung, rührt das Ding nicht mit der Kneifzange an.
Hast du überhaupt was gelesen?
So eine Katastrophe ist das schlimmste Auftreten einer Firma seit ich denken kann.
Selbst in den 90ern war die Veröffentlichung der niedergemachten i740 noch besser.
Und die ist zum Glück sofort wieder vom Markt verschwunden.
Dann wird 30 Jahre an der Grafik weiterentwickelt - udn dann komtm so eine Grütze dabei heraus.
Respekt, Intel, wenn man denkt da gehts nichts mehr, legt ihr noch einen oben drauf.
Dagegen stinken Meldungen wie absichtlich manipulierte Benches der letzten Jahre ja förmlich ab.
Also alles genau so wie es zu erwarten war.
Ich hab immer schon vorausgesagt, dass sie wegen der Treibersache gegen die Wand fahren werden. Der Vorsprung der beiden Konkurrenten ist immens und das hat viele, viele Jahre Mühe gekostet, überhaupt soweit zu kommen.
Es war auch abzusehen, dass ein Team unter dem Schaumschläger Koduri wieder nichts konkurrenzfähiges abliefert, wie er es bei AMD auch schon nicht getan hat. Nur hätte Intel keine Not gehabt. Im Gegensatz zu AMD müssten sie nichts auf den Markt werfen. AMD hatte schlicht keine Wahl, zum einen aus finanziellen Gründen, zum anderen um die Marktanteile nicht komplett zu verlieren. Sonst wär Vega wohl auch nicht als dedizierter Chip rausgekommen sondern man hätte sich auf die APU-GPU beschränkt, wo sie halbwegs okay war.
Intel hingegen hätte sich einfach zurückhalten sollen und so lange sich auf das R&D konzentrieren, bis ein brauchbares Produkt in der Pipeline ist. Stattdessen wurde viel zu früh die Marketingtrommel angeworfen und überzogene Erwartungen geschürt, die selbst für aussehenstehende leicht als Wunschdenken zu erkennen waren.
Jetzt ist man wieder soweit, dass der Ruf gleich mal ordentlich angekratzt ist, bevor es überhaupt die Produkte zu kaufen gibt auf allen Märkten. Wer auf so eine Idee gekommen ist, dass man das in dem Zustand released und sei es nur in China, gehört hochkant rausgeworfen IMHO.
Ich zumindest verstehe es nicht, was man sich dabei gedacht hat (oder eben nicht)...
Recht viel größer konnte die Blamage kaum werden, aber, dass denen nichts zu peinlich ist, hat man ja schon daran gemerkt, dass man in der Panik die Entwicklungsressourcen lieber für Benchmarkoptimierung (um nicht zu sagen Fakes) eingesetzt hat...
Btw:
Ist hier jetzt noch ein Fanboy unterwegs, der behauptet, dass die Treiber sicherlich kein Problem für Intel werden, weil sie ja Grafikchip-Marktführer sind und ach so viel Erfahrung und Knowhow haben?
Ergänzung ()
Posteo schrieb:
Ein solider Start. Endlich eine Alternative! Bin sehr auf die nächste Generation gespannt.
Bist du im richtigen Forenthread unterwegs oder hast du nur ein paar Balken angeschaut. Der Begleittext wäre übrigens sehr wichtig, um den Test zu verstehen
Ergänzung ()
BxBender schrieb:
Dann wird 30 Jahre an der Grafik weiterentwickelt - udn dann komtm so eine Grütze dabei heraus.
Naja, so ist es nun auch wieder nicht.
An dieser Arch wurde erst ein paar Jahr entwickelt. Aber von marktreif ist das so weit entfernt wie Russland von einer Demokratie
die fahren vermutlich mit jeder dieser 4 Karten bei weitem besser und im Falle der WX 2000 zahlen sie trotz funktionierender Treiber, sogar im 2D / Desktop Betrieb, auch nicht so viel mehr
Bulldozer lief im Vergleich super.
Es fehlte ihm nur die parallelisierte Multihreading-Software.
Die gab es zum Teil im Anwendungsbereich, aber die allermeisten Spiele waren für Ein- oder maximal 2-Kernsystem mit hoher IPC und Taktzahl hin ausgelegt und optimiert.
Der hohe Overhead hat die Grafikkarten dann in DX11 udn Co. ausgebremst.
Hätte man Spiele dahingehend optimiert und Low-Level-APIs zu der Zeit schon grundlegend genutzt, dann wäre das ein gutes Produkt gewesen.
Leider hat man dann versucht über den zu hohen Takt etwas für die Spieler wieder gutzumachen, daher dann der viel zu hohe Verbrauch.
Also das, was Intel jetzt mit seinen Prozessoren macht, dei ja auch mal gerne bis zu 350 Watt aus der Leitung ziehen, der 12900K(S) hat sogar an einer Stelle den 3fachen (!!!) Verbrauch wie ein 5800X3D in Spielen (!!!).
Es sieht doch ganz gut aus, erstmal.
Mal gespannt was die nächste Generation dann bringen wird und ob durch einen dritten Player im Game die Preise nicht wieder exorbitant anziehen werden.
Bei dem super Wetter die letzten Tage hat man doch eh keine Lust zum zocken
Da ist sicher Luft nach oben und Optimierungsbedarf bezüglich Software.
Als Einstand im Low-End Bereich finde ich die Leistung nicht mal so mies, der Preis muss halt runter, für ~120€ ist die Karte sicher okay - nachdem die meisten groben Fehler gefixt worden sind.
Da sieht man aber auch deutlich, dass Nvidia und AMD hier schon einen sehr guten Job machen von dem wir als User das so erwarten, weil wir es nicht anders kennen.
Urban legend. Die IPC war bescheiden und teilweise unterhalb der Phenom.
BxBender schrieb:
Der hohe Overhead hat die Grafikkarten dann in DX11 udn Co. ausgebremst.
Hätte man Spiele dahingehend optimiert und Low-Level-APIs zu der Zeit schon grundlegend genutzt, dann wäre das ein gutes Produkt gewesen.
Nein, wäre es nicht. Die IPC und Single-Core-Leistung wäre genauso mies gewesen.
Man hätte mit modernen APIs nur etwas mehr kaschieren können.
Der Bulldozer sollte mit seinen vielen Thread vorallem in Server punkten, aber er war so eine krasse Fehlentwicklung, dass er dort auch nichts gewinnen konnte und die Effizienz auch nicht gut war. Sogar so schlimm, dass AMD alle Marktanteile der Opterons verloren hat und sich komplett aus dem Servermarkt zurück ziehen musste. Erst mit Epyc finden sie langsam wieder einen Einzug in diesen Markt. Und sowas dauert sehr lange, bis man hier wieder einen breiten Ruf aufgebaut hat. Die Opterons hatten bis Bulldozer einen hervorragenden Ruf, ebenso die Plattformen. Danach wars vorbei.
BxBender schrieb:
Leider hat man dann versucht über den zu hohen Takt etwas für die Spieler wieder gutzumachen, daher dann der viel zu hohe Verbrauch.
Das wurde nicht als Nettigkeit für die Spieler gemacht, sondern um sich überhaupt von den Vorgängern etwas abzusetzen. Eine neue CPU die noch langsamer als die alte Generation gewesen wäre, wär ja der Worst-Worst-Case gewesen. Die hohen Taktraten wurden durch längere Pipelines erkauft, wie schon beim Pentium 4 Netburst. Und sowas funktioniert halt nicht, wenn man nicht anderweitig die IPC erhöht und die Caches vergrößert oder die Taktraten EXTREM erhöhen kann. Der Stromverbrauch ist dann noch dazu gekommen.
Der Bulldozer war in der ersten Iteration einfach eine absolute Fehlentwicklung.
Mit Excavator war dann die letzte Ausbaustufe und genau so, wie eigentlich diese Architektur zu Beginn hätte sein sollen. Nur kam sie viele Jahre zu spät.
Also das, was Intel jetzt mit seinen Prozessoren macht, dei ja auch mal gerne bis zu 350 Watt aus der Leitung ziehen, der 12900K(S) hat sogar an einer Stelle den 3fachen (!!!) Verbrauch wie ein 5800X3D in Spielen (!!!).
Es sieht doch ganz gut aus, erstmal.
Mal gespannt was die nächste Generation dann bringen wird und ob durch einen dritten Player im Game die Preise nicht wieder exorbitant anziehen werden.
Als Einstand im Low-End Bereich finde ich die Leistung nicht mal so mies, der Preis muss halt runter, für ~120€ ist die Karte sicher okay - nachdem die meisten groben Fehler gefixt worden sind.
Es ist ein unbrauchbares Produkt im aktuellen Zustand. Das werden die auch nicht mehr retten können diese Generation.
Die haben bereits ewig Verspätung gehabt.