Test Intel Arc A380 im Test: Eine Woche zwischen Lachen und Weinen

Ich finde es interessant wie unterschiedlich sich verschiedene Spiele verhalten, auch wenn man meinen könnte dass alles mehr oder weniger ähnlich funktionieren sollte. So nach dem Motto "ich werfe meine Polygone und Matrizen auf die GPU und die rechnet dann". Aber da sieht man mal wieder wie sehr das nur eine Illusion ist, die ausgereifte Treiber erwecken :D
 
OiOlli schrieb:
Ich bin alt genug um die Zeit noch mitgemacht zu haben. Wirkliche zu Probleme hatte nur die damalige Dual-GPU. Ansonsten war der Zustand meilenweit von dem entfernt, was wir gerade bei Intel sehen.
Hast du ne Intel Graka oder wie kommst du auf „ meilenweit“ .
Nur durch lesen oder selber getestet ?
 
Ich finde Intel macht alles richtig, erstmal in China das Produkt reifen lassen und Global erst dann ausrollen wenn es wirklich Konkurrenzfähig ist. Ich vermute über den Preis bzw. auch mit einer gewissen Toleranz bei den Anwendern in China, wird die Karte trotzdem Ihre Käufer finden. P.S. finde es auch klasse das Ihr euch mit IgorsLab und Golem gut versteht / zusammen arbeitet 👍
 
  • Gefällt mir
Reaktionen: Raptor85 und Karan S'jet
Boimler schrieb:
[...]
Nach dem Test habe ich so meine Zweifel, aber vielleicht peilt Intel auch erstmal nur an, das untere Preissegment zu bedienen?! Da herrscht aktuell das größte Vakuum an günstigen Einstiegsmodellen.
Dafür ist sie nur zu teuer und nimmt zu viel Strom aus der Dose :D


Kurz um: WZEW.. ähnlich dem letzten Versuch Intels dedizierte GPUs zu verkaufen.

Treiber mies
Leistung auch (minfps, Frametimes LOL)
Leistungsaufnahme auch zu hoch ( siehe Konkurrenz am Markt)

Das einzig Positive ist für mich, dass ein 3. Hersteller versucht GPUs anzubieten. Das gesehene können sie aber gleich wieder mitnehmen...das taugt nicht.
 
SVΞN schrieb:
Mal ganz unabhängig davon, dass die Architektur bereits andeutet, dass sie in 2. und 3. Generation eine Alternative werden könnte, gehört das Produkt mit dieser Treiberqualität nicht auf den Mark.
Ne, das sollte man tatsächlich nicht erwarten. Ampere und RDNA 2 sind verdammt starke Architekturen. Dass Intel da nicht gleich oben mitmischt, war zu erwarten. Von den Innovationen liegen sie zwar vor AMD, aber was nützt es, wenn die Karten so spät kommen und im Alltag letztlich nicht überzeugen könnnen

SVΞN schrieb:
Weder in China noch in den USA oder Europa sollte das Produkt so erscheinen, wie es erschienen ist. Aber deshalb versteckt Intel die bislang kleines "Gaming-Grafikkarte" ja aktuell auch so. Es spricht schon für sich, dass das Video zur A770 von LTT eher einer Promotion gleicht. Unabhängige Redaktionen werden auch die A750 und A770 nicht vom Hocker hauen, das ist jetzt schon klar.
Wird man sehen. Bis dahin wird's noch einige Treiberupdates geben.
SVΞN schrieb:
Davon mal ab, auch mit einem Wundertreiber, an den ich persönlich nicht glaube, müsste Intel immer noch über den Preis kommen und selbst die niedrige UVP noch unterbieten.
Der Preis soll ja attraktiv werden und Wundertreiber wird man sehen. Wenn, dann wird sich das über einen langen Zeitraum hinstrecken. Aber ich denke, dass da noch ordentlich Potential ist. Leider hat keine Redaktion das Potential mit Mircobenchmarks ausgetestet.
SVΞN schrieb:
Dass Potential da sein würde, davon war ich überzeugt, davon, dass der Start in die Hose gehen würde, leider auch. :D
Als die China-only Strategie öffentlich wurde, war klar, dass das "holprig" werden wird. Hätte ich so in dem Ausmaß aber nicht gedacht. Intel hat ja eigentlich das richtige Personal dafür.
SVΞN schrieb:
Ich hoffe dann mal auf Battlemage und Celestial. Intel auf Augenhöhe mit AMD und Nvidia bei den GPUs und Nvidia irgendwann mal vielleicht bei den CPUs? Hätte doch was! ^^
Ich hoffe, sie schmeißen nicht hin. Jeder der die Zen 1 Performance gesehen hat in den Launchreviews hat ja insgeheim gedacht: "Oha, Spieleleistung unterirdisch, aber hoffentlich bleiben sie am Ball." Zum Glück ist es ja auch so gekommen. Aber man muss schon sagen, dass die Leute wohlwollender waren mit AMD. ^^
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
rysy schrieb:
Die Leute, denen gerade die Grafik-Karte kaputt gegangen ist und die
a) keinerlei besondere Anforderungen an Grafik-Leistung haben (Office-Bereich)
b) keine iGPU haben bzw. dafür/dann das komplette System auswechseln müssten
c) so wenig wie möglich ausgeben möchten/können

[...]
a) dafür ist die Intel Arc Oversized + würde sich eher was passiv gekühltes anbieten
b) siehe a)
c) siehe a)

weil das Teil ist für nur Bild anzeigen oversized und overpriced - da findet sich in der Bucht was unter nem 50ie... ;)
 
Intel nutzt china eigentlich immer um mit so halbwegs funktionierender Hardware/Software noch ein wenig Geld zu machen, besser als wegwerfen. Kennt jemand noch Cannon Lake? Das war die erste CPU im Rohrkrepierer-10nm-Verfahren, produziert mit riesigem Ausschuß und nichtfunktionaler IGP. Wurde auch in China verklappt und größtenteils aus den Intel-eigenen Geschichtsbüchern getilgt.
 
kachiri schrieb:
[..]
Weiß nicht. An der Karte gibt es ja noch weniger schönzureden, als an AMDs mobiler Desktop GPU.

[...]
Vielleicht hat AMD die ARC in China gesichtet und danach beschlossen " jo bei dem Kack, können wir auch einfach einen lahmen Mobile Chip aufn PCB packen und mit einer sche*ß Speicheranbindung kombinieren" :D

KA Mal sehen, ob sich der GPU Markt in den nächsten 1-2 Jahren normalisiert. Vielleicht haben wir bald die ursprünglichen UVPs erreicht...dann müssen wir nur noch die erhöhten UVPs bei der kommenden Gen von AMD und Nvidia aussitzen.... weil die werden natürlich versuchen die Preise eher nach oben anzupassen...jetzt wo sich viele Verbraucher an die überzogenen GPU-Preise gewöhnt haben..
Ergänzung ()

ELMOKO schrieb:
[...] hallo intel beginnt erst, warten wir nochmal 3-4 jahre da schaut das sicherlich anders aus. [...] man die fangen erst an was will man da auch erwarten.
:lol::lol:
Ja schon schwierig sowas für so ein kleines Startup Unternehmen...oh wait...
Womit fangen die grad an? Mit Treiberentwicklung?
Ergänzung ()

anappleaday schrieb:
Man sollte wohl sehr geduldig auf die 4. Generation warten.
vorher sollte man drauf hoffen, dass sie solange durch halten :D
Arones schrieb:
[...]
Aber unterm Strich sind die Probleme doch auch der Grund warum Intel das Ding jetzt halt mal vorsichtig auf den Markt bringen muss, es ist unmöglich die Probleme mit den zahlreichen Konfigurationen in freier Wildbahn in ihren internen isolierten Testumgebungen zu entdecken.
? Haben die keine Praktikanten / Azubis, die se mal mit einer Liste Hardware einkaufen schicken und dann stecken se bissel zusammen in ihrer "Testumgebung". Muss man seine "Testumgebung" halt sehr der Realität annähern und sich im Zweifelsfall komplette DAUs holen um realistische Ergebnisse zu bekommen. Das ist kein 100 Mann Unternehmen oder ne kleine Bude.....am Ende könnten die Hersteller anschreiben und bekommen bestimmt auch noch für lau Teststellungen an verschiedenster Hardware.
 
Zuletzt bearbeitet:
rg88 schrieb:
Das wird man sicherlich Millionen davon absetzen :D
Nvidia und AMD bieten beide Profikarten an. Nvidia entwickelt Lösungen für Autos. Ein Markt ist so lukrativ wie er Gewinn abwirft.

AV1-Unterstützung werden die in der nächsten Gen auch höchstwahrscheinlich bieten. Warum sollte man hier also zu so einer unfertigen Lösung greifen?
Ampere kann schon nicht gegenhalten. Intel zittert schon vor der RTX 4090 mit 400+ W TDP. 4080 und 4070 folgen erst im nächsten Jahr. 4060 und 4050 kommen noch später in 2023 der 2024.
Lederjacke brachte die 3050 erst in diesem Jahr in den Markt. AMD stellte 6400 und 6500 ebenfalls erst 2022 vor. Es vergehen noch viele Treiberupdates für ARC bis diese Karten Nachfolger erhalten.

Du glaubst doch nicht, dass Intel Treiber für solche Umgebungen bereits besser ausgereift wären :D
Test gelesen? Encoding funktioniert. Intel war Vorreiter mit den iGPU in Sandy Bridge und IB. Lederjacke nahm es persönlich als er seine grottenschlechten Encoder in der GTX 9xx nicht mehr als Verkaufsargument einsetzen konnte.

@Wolfgang
Nun ist es natürlich fraglich, wer seine Videos unbedingt mit dem AV1-Codec umwandeln muss – auf der Arc A380 ist dies aber zumindest im Gegensatz zu den Konkurrenzmodellen möglich.
Hier hättet ihr die theoretischen Vorteile von AV1 überprüfen können. Kann AV1 die Dateigröße verringern? Wie fällt die subjektive oder objektive Qualität im Vergleich zu H.264 und HEVC aus?
Erste AV1-taugliche Endgeräte wie Fernseher werden den Codec in die breite Masse einführen.
 
AV1 ist vor allem für Streamer von Twitch, Facebook, youtube zukünftig interessant oder für youtube Video uploads, weil dort ansonsten nur H264 zur Verfügung steht. HEVC ist keine Alternative dafür, erst AV1 ersetzt den alten H264 Standard.
 
Terrordrome schrieb:
, das kann man trotzdem erwarten.
Ich denke, Du hast das auch so gemeint, aber ich will das noch etwas nachschärfen: Dieses kann ist bei uns nach meiner juristischen Laiensicht ein Rechtsanspruch, der vor "einigen" Jahren mit der Einführung der Gewährleistungspflicht explizit gesetzlich verankert wurde.

Und das wiederum ist der Grund, warum es diese Karten bei uns nicht zu kaufen gibt (selbst wenn Intel in hohen Stückzahlen liefern könnte): Die Retourenquote wäre zum jetzigen Zeitpunkt absehbar abartig hoch, kein Verkäufer mit Sinn und Verstand tut sich so etwas an.
Ergänzung ()

peakyblinder schrieb:
Seid doch froh, dass ein neuer Mitspieler aufm Markt sein Revier markiert.
Es ist halt nicht irgendein neuer Mitspieler oder gar ein Startup, sondern ein seit Jahrzehnten etablierter Gigant mit dem Anspruch technologischer Exzellenz.
Da gibt es durchaus passende Bilder aus der Vergangenheit. Ich denke spontan an das Jahr 1997, als ein Hersteller aus hiesigen Gefilden mit vergleichbarem Selbstverständnis den Markt in einer für ihn neuen Produktklasse "aufrollen" wollte, und dieses Produkt bei einem im Rahmen eines externen Tests durchgeführten Fahrmanövers "einfach so" umkippte.

Häme ist etwas, was ich seit jeher vermeide, aber Spott ist ein für mich legitimes Mittel der Kritik - und in diesem Falle hochverdient und angebracht.

Im Übrigen ist das "Gemäckere" vollkommen unerheblich für diese Misere und deren zukünftigen Ausgang, denn sie ist eine Reaktion auf Managementfehler, die (weit) in der Vergangenheit liegen.
 
Zuletzt bearbeitet:
ComputerJunge schrieb:
Es ist halt nicht irgendein neuer Mitspieler oder gar ein Startup, sondern ein seit Jahrzehnten etablierter Gigant mit dem Anspruch technologischer Exzellenz.


Bei einer Produktbewertung sollte das nie eine Rolle spielen, solange man nicht voreingenommen rangeht. Zumal du komplett ausblendest, dass Intel bei den dGPUs ein Newcomer ist. Die Firmengröße hilft da erstmal wenig. Erst recht nicht wenn nur ein kleiner Teil vom Konzern sich mit GPUs überhaupt beschäftigt. Ressourcen helfen sicherlich langfristig, zum Beispiel um fähige Leute von der Konkurrenz zu besseren Konditionen abzuwerben, Erfahrungen müssen trotzdem erstmal gesammelt werden, Developer Support muss ausgebaut werden und viele andere Dinge. ATI/AMD hat Jahre gebraucht um da anzukommen, wo sie jetzt sind mit den Treibern und GPUs. Und damals war die GPU Welt lange nicht so komplex wie heute mit den zig APIs und komplexeren GPUs.
 


Ach, so schlimm sieht es doch gar nicht aus mit der Graka
 
scootiewolff22 schrieb:
Ach, so schlimm sieht es doch gar nicht aus mit der Graka
Bin echt erstaunt, wie mit quasi 3% mehr Takt, teils 40% mehr Leistung rausgeholt werden. Entweder ist die Telemetrie hier komplett broken oder da greift intern was anderes? Interconnects?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: konkretor
mkl1 schrieb:
Bei einer Produktbewertung sollte das nie eine Rolle spielen, solange man nicht voreingenommen rangeht.
Habe ich auch nirgends behauptet oder gar gefordert, zudem war der von Dir zitierte Satz ein Reaktion auf den "neuen Mitspieler".

Ich will auch nicht weiter darüber diskutieren, ob Intel wirklich als Newcomer bei dGPUs zu bezeichnen ist - da habe ich dann schlussendlich auch viel zu geringen Einblick für.

Aber für eine Bewertung des dem Launch eines derartigen Produkts vorausgehenden Managements sind diese Punkt natürlich relevant - welche auch sonst?
mkl1 schrieb:
Die Firmengröße hilft da erstmal wenig. Erst recht nicht wenn nur ein kleiner Teil vom Konzern sich mit GPUs überhaupt beschäftigt.
Deine Darstellung der einzelnen Zusammenhänge sind richtig - und untermauern für mich nur meine Sicht: Der Launch kam zu früh, denn nicht nur das Produkt, sondern das unternehmensinterne Ökosystem dazu haben den erforderlichen Reifegrad noch nicht erreicht.

Und wenn dann z. B. bei AMD in der Vergangenheit das oftmals angebrachte Argument "für mehr fehl(t)en die finanziellen Mittel" als nachvollziehbare und überzeugende Erklärung zu einigen Defiziten vollkommen zu Recht angeführt wurde, kann ich legitimerweise im umgekehrten Falle "ankreiden", dass vorhandene Ressourcen für den geplanten Markteintritt in zu geringem Maße und/oder zu spät allokiert wurden.

Zumindest sehe ich das so, und zwar ohne jegliche Häme.
 
scootiewolff22 schrieb:
Ach, so schlimm sieht es doch gar nicht aus mit der Graka

Zer0Strat schrieb:
Bin echt erstaunt, wie mit quasi 3% mehr Takt, teils 40% mehr Leistung rausgeholt werden. Entweder ist die Telemetrie hier komplett broken oder da greift intern was anderes? Interconnects?
Igor hat ja Benchmarks mit OC, da bewegt sich der Leistungsvorteil genau im erwartbaren Bereich.

Nur ein weiteres Indiz, dass das Fake Benchmarks sind.
 
guggi4 schrieb:
Igor hat ja Benchmarks mit OC, da bewegt sich der Leistungsvorteil genau im erwartbaren Bereich.

Nur ein weiteres Indiz, dass das Fake Benchmarks sind.
Hab ich schon gesehen, aber dieser russische Youtuber hatte ja auch so heftige Steigerungen. Kann auch nicht sein, dass dann Timer anfangen zu spinnen, läuft ja auf der CPU.
 
Blade_user schrieb:
Hast du ne Intel Graka oder wie kommst du auf „ meilenweit“ .
Nur durch lesen oder selber getestet ?


Gegenfrage hast du irgendwelche Belege dafür, dass der Test von CB, Igors Lab und CO falsch ist?

Ja, oder nein?
 
Zurück
Oben