News Alchemist Benchmarks: Gaming-Grafikkarte Arc A380 ab 150 Euro in China verfügbar

Rockstar85 schrieb:
Ich warte auf eine Entschuldigung bei mir und bei dem Team von CB. Man konnte anhand der ersten mobile benches sehr wohl etwas sehen. Mich nerven nur noch diese Unterstellungen, von immer den gleichen.
Es ging doch bei der Diskussion um die Methodik. Man testet halt nicht Dual- gegen Single-Channel. Es gab im Internet einen Shitstorm, weil ich bei Rocket Lake 2 DIMMs gegen 4 DIMMs getestet hatte, obwohl die 2 DIMMs wegen dual ranked genau so schnell waren. Hatte kaum einen interessiert. Auch hier im Forum ritten einige darauf rum. Auch du warst dabei glaube ich. Ihr habt kräftig gewettert, auch wegen eines belanglosen Subtimings. Aber wenn es um Intel Arc geht, ist die Methodik dann plötzlich egal, passt schon. Ihr seid schon ein paar Nasen hier teilweise.

DevPandi schrieb:
Im Endeffekt habe ich bei meinen ersten Beiträgen zum Treiber das vorher gesagt!

Aber egal, ich stehe darüber. Mango, @Zer0Strat ?
Es gab aber auch Grund zur Annahme, dass Intel das Problem mittlerweile, zumindest teilweise gelöst haben könnte. Software kann man ändern... ^^

Mango? Geht immer... ^^
 
Alles ein Frage des Marketings

"The fastest gaming benchmark GPU"

;-)
 
  • Gefällt mir
Reaktionen: Kuestennebel79, Snoop7676, Draco Nobilis und eine weitere Person
Darknesss schrieb:
Enttäuschend?

Mit 4 Digitalen Displayanschlüssen und Hardware Encoding ist das Teil imho intressanter wie eine RX 6400/6500.
Es geht nicht allen Nutzern um die reine Spieleleistung.
Ein Mountainbike, welches beim ersten kleinen Kieselsteinchen einen Rahmenbruch bekommt, kann man auch nicht damit rechtfertigen, dass es doch als Stadtrad gut zu gebrauchen wäre.

Die Karte wurde von Intel und Gunnir als Gaming-Karte beworben, wenn die Gaming-Performance schlecht ist, ist es eine enttäuschende Gaming-Karte.
Nutzer, die keine Gaming-Performance brauchen, werden sich auch nach keiner Gaming-Karte umschauen. AV1 Decoding bekommt man auch mit Intels iGPU, für den normalen Office-Betrieb ist diese ebenso meistens ausreichend.

Alles, was im Büro oder daheim mehr Performance braucht, ist mit dieser Karte in diesem Zustand nicht machbar. Wenn sie jetzt nicht gerade für 100-120€ verscherbelt wird, ist das Ding selbst beim noch einigermaßen kaputten Markt DoA.
Hauptabnehmer werden vermutlich die Tester und Techfluencer sein.
 
  • Gefällt mir
Reaktionen: Linmoum, DevPandi und Rockstar85
Alleine die Idee damit 4K anzubieten via XeSS.

Doch geheime Elfentechnik bei Intel
@tomgit
Du sagst es. Und igor sagte auch was dazu. Aber wir haben ja alle keine Ahnung und sollen Verständnis mit Intel haben.
Das wird eine reine OEM Karte
 
Zer0Strat schrieb:
Es gab aber auch Grund zur Annahme, dass Intel das Problem mittlerweile, zumindest teilweise gelöst haben könnte.
Ich glaub, dass da eher der Wunsch der Grund zur Annahme war. Die Vorstellung war im März oder April?

Klar, es HÄTTE sich vielleicht was änder können, aber das haben viele damals auch bei Vega gesagt und es kam nicht. Und wenn man dann noch bedenkt, wie ehrlich Intel in den Interviews ist, sie sogar ganz klar gesagt haben, woran es happert, dass es da auch eigentlich tiefgreifende Optimierungen in den Spielen braucht, dann war das ganze nicht nur der Wunsch zur Annahme, sondern einfach nur ein Wunsch.

Und, da ich jetzt nicht böse drauf rumreiten will: Man muss Intel an der Stelle sogar wirklich loben, anders als AMD, habe sie sogar relativ offen die Probleme kommuniziert, sie wissen woran es liegt und haben das auch gesagt. AMD war damals "verschlossener", haben zeitweise auch noch die Hoffnung auf Wunder geschürrt und dann kam nichts.

Warum GCN seine Probleme hatte, hat AMD quasi erst mit dem Whitepaper zu RDNA wirklich offen gelegt.
Zer0Strat schrieb:
Software kann man ändern...
Klar kann man Software ändern, aber du müsstest doch wissen, dass man nicht alles in Software gerade biegen kann und wenn man es versucht, es auch zuästzliche Leistung kostet. ;)

Zer0Strat schrieb:
Mango? Geht immer...
Gut, thai oder indische?
 
DevPandi schrieb:
Und wenn man dann noch bedenkt, wie ehrlich Intel in den Interviews ist, sie sogar ganz klar gesagt haben, woran es happert, dass es da auch eigentlich tiefgreifende Optimierungen in den Spielen braucht, dann war das ganze nicht nur der Wunsch zur Annahme, sondern einfach nur ein Wunsch.
Wo haben sie das gesagt?

DevPandi schrieb:
Gut, thai oder indische?
Als Smoothie bitte. ^^
 
Hat jemand Mango gesagt?

Rockstar85 schrieb:
Ich bin aber gespannt, wie du diese Leistung von Intel begründest. Es ist am Ende genau so eingetroffen, was Fachleute gesagt haben und was ich vor 2 Wochen schreib.! So reicht es Eben nicht, für eine 3060..
Aber klar, bei CB hat ja auch keiner Ahnung...
Wenn man es grob hochskaliert landet man bei einer 3060Ti.

Genau das schrieb auch Igor vor kurzem.

3060 Ti Leistung mit 16GB is doch super ... muss halt nur der Preis stimmen.
 
  • Gefällt mir
Reaktionen: Ganjaware und Rockstar85
3060Ti? Puh da fehlt aber noch ein Stück. Die Rechenleistung des ACM G11 und 10 müsste auch mehr zulassen.
Ich wette mit dir, Intel wird die Karte aus Workstation GPU sehr easy loswerden, weil man auf weniger Produkte optimieren muss.

@bad_sign

Das wäre gegen eine 53W RX6400 noch katastrophalen..
 
Naja, in dem Preissegment ist es nur alles Erbsendrückerei. Entweder ein ausgereifteres Produkt für einen Fuffi mehr, oder ARC. Glaub mir geht es zu gut um sowas zu verstehen.

Man sollte auch bedenken das Nvidia noch weitere nützliches Features hat
 
  • Gefällt mir
Reaktionen: Xaphyr
Katzerino88 schrieb:
und die Treiber können nicht so instabil sein, ansonsten hätte man die 6400 gar nicht erreicht.
Und wie wir aus den neuen Benchmarks nun wissen, erreichen sie die 6400 auch nicht immer.
 
  • Gefällt mir
Reaktionen: Rockstar85
DevPandi schrieb:
Dort spricht sie zwischen all dem Buzzword-Bingo genau das an.
Sehe ich nicht in dem Text wie von dir angesprochen. Das Problem wird eher sein, dass wenn keine precompiled Shader vorhanden sind, die Fallback Shader verwendet werden. Dafür gibt es aber nicht immer ein Replacement. Oder sie habe es noch nicht ausreichend automatisiert. Die Shader-Compiler sollten eigentlich in der Lage seine, den Shader Code auf die Arch hin zu optimieren. Geht bei precompiled Shadern natürlich nicht.

Eigentlich ist es so, dass architekturspezifische Optimierungen seitens der Spielehersteller sehr aufwendig sind, weil die Ausführungspipeline eine Blackbox ist für die Entwickler.
 
Rockstar85 schrieb:
3060Ti? Puh da fehlt aber noch ein Stück. Die Rechenleistung des ACM G11 und 10 müsste auch mehr zulassen.
Ich wette mit dir, Intel wird die Karte aus Workstation GPU sehr easy loswerden, weil man auf weniger Produkte optimieren muss.
Das werden bestimmt super Workstation Karten.

Selbst der DG1 Krüppel schlägt sich da ja schon nicht schlecht.
 
GerryB schrieb:
NV benutzt Farbkompression ... AMD nicht.
Jede Kompression ist am Ende weniger Information als Nativ.
Inwiefern Sowas in guten HDR-Games dann sichtbar wird, who knows.
Hmmm das ist so nicht ganz korrekt.
Man kann ohne Verluste komprimieren.
Das kostet natürlich oft Rechenkraft.

Selbst verlustbehaftete Kompression kann sehr sinnvoll sein, wenn man bsp. für Menschen nicht sichtbare Räume heraus schneidet. Das das bei NVIDIA zu bsp. Verlust an (sichtbarer) Qualität geführt hat ist mir aber nicht bekannt.
 
10bit-->5bit bei 1-2 Farben kann man net so ohne Weiteres dann wieder zurückrechnen auf 10bit
Das wird man am Besten bei HDR sehen, das dann evtl. mal ein paar Blau+Grüntöne etc. net so richtig original
wie Nativ ausschauen.

Wie oft haben sich Manche schon eingebildet 8bit+FRC wäre net so gut wie 10bit und Das ist ja bei weitem weniger "gespart".

Damit genug OT hier, ... soll Jeder mal selbst Genauer hinschauen.
 
Rockstar85 schrieb:
Klar, Wenn man etwas Ahnung von IT hat, dann weiß man leider wie es bei Intel mit treibern so läuft.
Das kann man pauschal so aber auch nicht sagen. Die Treiber für die IGP machen eigentlich genau was sie sollen, sie funktionieren nämlich für Office/Web/Multimonitor fehlerfrei und reichen für kleine Spiele, bei denen nämlich nicht eine dGPU die Anforderung ist.

Und genau DAS ist doch der Punkt, hier wird viel zu sehr in schwarz/weiß argumentiert.
 
  • Gefällt mir
Reaktionen: whynot?
Ich sagte es vor Wochen

Es reicht eben nicht, nur bissl Bild zu bringen. Und ja lieber Löschi, hast du nicht Unrecht. Intel hat aber selbst schuld, so hoch wie man gestapelt hat. Hochmut kommt eben zu Fall
 
Also ich freu mich. MeteorLake+Intel GraKa + Linux...hmmmm...

Ich find die Karte gut. Wer jetzt erwartet hat, das Intel sowohl Ati als auch mit Nvidia den Boden abwischt, will wirklich nur gegen Intel stärken.


Könnte die GraKa besser sein? Auf jeden Fall!
Die Treiber? Definitiv. Aber ich vergass, nvidia und AMD optimieren ja auch alle Spiele im Markt auf ihre GraKa.

Ach, weiss jemand wie der Vulkan support von den Intel Treibern ist?
 
Dass die Karte schon mal alle Hardwaredecoder bietet macht sie als Kodikarte perfekt, erst Recht wenn HDMi 2.1 safe ist. Es hat schon einen Grund warum die für OEM/Komplettrechner gedacht ist eigentlich.

Mal sehen wie die Große mit 256bit und 16GB performt, wenn da der Preis stimmt und die Treiber erst mal ordentlich Laufen dann könnte das was werden. Intel ist Treiberseitig sehr aktiv, fast jede Woche ein neuer, ich brauche die für meinen SOC UHD605 am NUC daher bekomme ich dass mit.

mfg
 
Zurück
Oben