News Alchemist Benchmarks: Gaming-Grafikkarte Arc A380 ab 150 Euro in China verfügbar

1655402756465.png


1655402775640.png


1655402795488.png


https://videocardz.com/newz/intel-a...ance-prediction-for-the-whole-series-suggests
 
Wenn das stimmt, @Müritzer, dann Aua.. Dann muss eine A780 unter 200W fressen, und demnächst gegen eine 4050 oder hoffentlich noch 4060 antreten können.. Und das bei 16GB? Also wenn die Werte stimmen, dann wird das ne reine OEM und HPC Karte werden. Ich hoffe mal Videocardz bzw Leonidas liegt falsch.
Um nicht direkt baden zu gehen muss man eig ne 3070 und 6800 zumindest in Schlagweite haben.. So wäre das nur ein Revival von Larrabee und eben auch I740..

Ach ja, Leonidas zur Ehre die Primärquelle: (Soll er dafür auch Clicks bekommen :))
https://www.3dcenter.org/news/intel...alchemist-basierte-desktop-grafikkarte-heraus

Der andere Bremspunkt liegt darin, dass ein Grafikkarten-Launch im Sommer 2022 automatisch mit dem Herbst-Launch der nächsten Grafikkarten-Generation von AMD & nVidia verglichen werden wird – und so gesehen eigentlich keine Chance hat. Aus dieser Situation heraus dürfte auch kaum ein Grafikkarten-Hersteller hierbei mitmischen wollen, denn die Chance, in wenigen Wochen auf unabsetzbaren Produkten herumzusitzen, ist einfach zu groß. Intel dürfte wohl eher die schon vorhandenen ACM-G10 Grafikchips für die Arc A500 & A700 Serien irgendwie im OEM-Segment verklappen und nachfolgend keine neuen mehr produzieren. Allein der ACM-G11 Grafikchip für die Arc A300 Serie hat wohl die Chance, im LowEnd-Segment und für Mobile-Bedürfnisse eine gewisse Zeit weitergeführt zu werden. Die hierbei gemachten Erfahrungen dienen dann hoffentlich dazu, die vorhandenen Probleme bei der Spiele-Kompatibilität und den Frametimes aus dem Weg zu räumen, so dass dies wenigstens bei der nachfolgenden Intel Grafik-Generation "Battlemage" kein Thema mehr sein muß.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Müritzer
Rockstar85 schrieb:
Ich hoffe mal Videocardz liegt falsch.
Lies dir mal die Kommentare unter der Meldung durch.

Hier der Artikel auf dem sich der von VIDEOCARDZ bezieht:

https://www.3dcenter.org/news/intel...alchemist-basierte-desktop-grafikkarte-heraus

Zitat:
"Deren Problempunkte liegen eher bei Performance und Spiele-Kompatibilität: So berichteten Vorab-Tests von Start-Schwierigkeiten mit einzelnen Spielen sowie generell schlechten Frametimes (stark schwankenden Minimum-Frameraten). Aber auch die reine Performance der Intel-Grafikkarte ist etwas in Frage zu stellen: Intel zeigte hierzu eine vergleichsweise nichtssagende Benchmark-Folie, zuzüglich gab es das Versprechen von "up to 25% better performance per yuan". Dies wurde in der medialen Berichterstattung oftmals als "25% mehr Performance" verstanden, dabei wurde allerdings sowohl das "up to" als auch der Preisbezug dieser Angabe mißachtet. Gemäß den Intel-Fußnoten geht es hierbei um einen Preis/Leistungs-Vergleich zur Radeon RX 6400, zu welcher ein aktueller chinesischer Retail-Preis von 1199 Yuan (~$178) ermittelt wurde. Beachtend die Werte zu den einzelnen Spielen schrumpft Intels Preis/Leistungs-Vorteil erst einmal auf +21,1%, umgerechnet auf die reale Performance ergibt dies +4,0% Mehrperformance gegenüber der Radeon RX 6400."
 
  • Gefällt mir
Reaktionen: Rockstar85
auf die reale Performance ergibt dies +4,0% Mehrperformance gegenüber der Radeon RX 6400.

Das wäre ja noch schlimmer, als befürchtet.. Das wäre also Immer noch eine RX6400 nur mit 6Gb..
Hoffentlich irrt sich Leonidas.

https://www.notebookcheck.com/Intel...t-die-Gaming-Leistung-miserabel.626644.0.html
Hier mal was zum A730M...
Sind also immer noch die Treiber, das Hauptproblem. Vom Front End würde ich noch nicht ausgehen, aber schauen wir mal, wenn die Karten endlich kommen
 
Zuletzt bearbeitet:
Naja das ist Kaffeesatzleserei vom 3dcenter, da würde ich erstmal nicht viel drauf geben. Die Trefferquote vom 3dcenter ist äußerst niedrig. Wir brauchen richtige Tests.
 
oder man kauft die 6400 etwas preiswerter als die A380 und dann passt die Leistung wieder
aktuell für 149€ im MS
 

Anhänge

  • 6400@149€.JPG
    6400@149€.JPG
    66,1 KB · Aufrufe: 187
Convert schrieb:
Die 3x steht nicht für die Grafikkarten-Generation, wie bei AMD oder Nvidia.

Es gibt bei Prozessoren Core i3, i5 und i7. und die erste Zahl bei der Grafikkarten entspricht ebenso dieser Einordnung.

Anhang anzeigen 1228347

Es wird in dieser Generation, der "A-Series"-Generation also eine A3xx eine A5xx und eine A7xx Karte geben.

Wie Intel plannt, dann die nächste Generation zu nennen, ist natürlich eine offene Frage bei dieser Art der Namensgebung. Vielleicht heißt ja die nächste Generation nicht mehr A380, für Arc380, sondern B380, B5xx und B7xx, wenn die nächste Architektur mit dem Buchstaben B beginnt, also dann quasie die "B-Series"-Generation...
Genau so ist es.
A= Ark
B= Battlemage
C= Celestial
D= Druid
 
Naja ob Intel da mit den anderen 2 mithalten kann... ? Optisch ja, wenn das die A780 sein soll.
 

Anhänge

  • Screenshot 2022-06-16 233246.png
    Screenshot 2022-06-16 233246.png
    283,3 KB · Aufrufe: 187
  • Gefällt mir
Reaktionen: Rockstar85
Rockstar85 schrieb:
Würde Intel eine A380 mit der Leistung einer 6400 / 6500 und stabilen Treibern liefern, würde ich sagen: Gut gemacht..

Rockstar85 schrieb:
Wenn das stimmt dann Aua..
Was jetzt? Ist es nun gut oder nicht? Das ist doch letztendlich genau das was man in etwa hatte erwarten können. Leicht schneller als die RX 6400 + Reserven durch Treiberoptimierungen.
Man bekommt dazu noch 6GB RAM statt 4GB.
Auch die Effizienz wäre mit maximal 75 Watt ohne Stromanschluss konkurrenzfähig, vermutlich sind es eher 60 Watt.
Rockstar85 schrieb:
Das wäre ja noch schlimmer, als befürchtet.. Das wäre also Immer noch eine RX6400 nur mit 6Gb..
Nein, deine Befürchtungen waren wesentlich schlimmer als diese Werte. Diese Heuchelei ist wirklich amüsant.

Phoenixxl schrieb:
Wenn man sich die am meisten von der Fachpresse verrissene Karte der letzten Jahre als Gegner aussucht, dann gleicht das einem Offenbarungseid.
Es ist eine der kleinsten Karten ohne Stromanschluss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: W4RO_DE
@Katzerino88

Intel hat keine Stabilen Treiber was auch der Notebookcheck Beitrag zeigt.
Intel braucht 81% mehr Transistoren und 120W für eine Leistung irgendwo unterhalb einer RTX3060 Laptop mit 115W (Analog dazu wäre eine A750 irgendwo bei einer 3050 im Idealfall bei einer 3060 (bei mehr Rechenwerken und auch mehr Verlustleistung). Eine A780 wäre knapp schneller, aber auch dann reden wir immer noch von einem riesen Chip.. Wirtschaftlich ist das nicht.

https://www.bilibili.com/video/BV1US4y1i7ne

Chipgröße Intel:
Die GPU wird mit einer Strukturbreite von 6 nm gefertigt. Intel verbaut 21,7 Milliarden Transistoren auf den Chip, der 406 mm² misst. Dazu noch mehr Verlustleistung und 81% mehr Schaltkreise..
NVidias 3060 Laptop in 8nm mit 12 Mrd Transistoren. Ist halt nicht die Desktop Version, also der Vollausbau GA106.
Ach und deine Aussage zu RX6400 ist auch nichtssagend (Die übrigends ~53W Verlustleistung hat ).. Danke fürs Cherrypicking. Nun ist auch eine Treiberkonsistenz nicht mehr wichtig (Damit steht und fällt jedes Produkt).. Also langsam wirds echt lustig.
Nvidia zeigt netterweise in den Benches, wie wichtig Treiberkonsistenz ist. CS:Go ist der Toastertest und da sind 135Fps ein untrügliches Beispiel für schlechte Treiber. Diese Gegenüberstelllung ist insofern vernichtend für Intel, wenn man Überlegt dass das der ACM-G10 im Vollausbau sein müsste.

#Lesekompetenz.

1655422770061.png

(by Notebookcheck.com)
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
Intel hat keine Stabilen Treiber was auch der Notbookcheck Beitrag zeigt.
Selbst wenn die Leistung schwanken würde, wäre das Angebot mit 6GB und mehr Performance völlig okay und die Treiber können nicht so instabil sein, ansonsten hätte man die 6400 gar nicht erreicht. ;)
Der Notebookbeitrag zeigt, dass ARC in Metro Exodus und Strange Brigade sogar eine RTX 3060 mit gleichem Verbrauch schlagen kann/knapp erreicht. Du fokussierst dich eben ausschließlich auf die negativen Aspekte wie Boundary und Civilization.
Rockstar85 schrieb:
Intel braucht 81% mehr Transistoren.. das deutet nun mal auf etwas anderes hin, als was du behauptest..
Was spielt die Anzahl der Transistoren für eine Rolle? Wenn überhaupt wäre die Chipgröße/Fertigungskosten ausschlaggebend.

Rockstar85 schrieb:
Und auch Bezugnehmend zur RX480.. Da steht ganzes System..
Und die Leistungsaufnahme des ganzen Systems reduziert sich um 6 Watt.
Wo ist darin nun die Senkung der Leistungsaufnahme der GPU um 112 Watt versteckt?
Wir haben nun hoffentlich einen dritten dedidzierten GPU Hersteller, da muss man als echter Hardware Geek eben über den ein oder anderen Treiberfauxpass hinwegsehen und nicht immer alles so negativ sehen.
 
Zuletzt bearbeitet:
Können die Grafikkarte von Intel auch Adaptive Sync? Wenn nein, wären die unbrauchbar für mich. Sollte in dem Fall dann hoffentlich noch kommen und die müssen dann die ganzen Monitore testen, ob die funktionieren. Gleiches bei Geräten mit G-Sync-Ultimate, zumal ich gelesen habe, dass dieses Arria-Modul anscheinend auch von Intel ist.
 
@Banger
Dazu ist nichts bekannt.. Aber ich bin erst mal gespannt wie das Xe SS Funktionieren wird.. Freesync sollte aber machbar sein, weil ja offen.
 
  • Gefällt mir
Reaktionen: Banger
Treiberentwicklung ist eine aufwendige Geschichte, da pro Game optimiert/gefixt werden muss.
Das ist ein Teil des Grundes, warum diese so groß sind.

Treiber haben Fehler, was das Normalste von der Welt ist und manchmal kann ein Treiberprofil das Verhalten in eine bestimmte Richtung lenken, um die Leistung zu verbessern oder andere Probleme zu beheben.
Zum Beispiel kann ein Treiber das Shader-Verhalten optimieren, was sehr hilfreich sein kann.

In der Regel ist der Grad des treiberseitigen Eingriffs beträchtlich, so werden oftmals Shader durch benutzerdefinierter, leistungsfähigere Shader ersetzt, die speziell für diese Architektur (oder einen Anbieter im Allgemeinen) optimiert sind. Manchmal können sich diese Änderungen erheblich auf die Leistung auswirken, indem Daten auf eine bestimmte Art und Weise komprimiert werden und Aufrufe/Pipeline-Ops so ausgeführt werden, dass Latenzzeiten eingespart und Cache-Misses und Stalls verhindert werden, bzw. Dinge neu angeordnet werden müssen, etc.

CPUs und GPUs haben architektonische Besonderheiten. Neue CPUs haben zum Beispiel unterschiedliche Cache-Größen, Bus-Implementierungen, SIMD-Einheiten usw. All das kann sich auf die Leistung auswirken. Manchmal wirken sich die inhärenten Schwachstellen auf die Software in einer Weise aus, wie es auf einer anderen Plattform nicht der Fall wäre und sie müssen behoben werden. Das kommt bei GPUs viel häufiger vor und lässt sich aufgrund der Treiberschicht, die CPUs nicht haben, leichter beheben (in gewisser Weise schon, aber nicht in derselben Form).

GPUs unterscheiden sich von CPUs in dieser Hinsicht. Bei GPUs hat man selten Einsicht in die ziemlich komplexe Ausführungspipeline. Das hält Entwickler von einem gewissen Maß an Optimierung ab oder macht den Aufwand zu teuer. Genau da müssen dann die Treiber ansetzen, was das ganze zu einem komplizierten Unterfangen macht. Treiber müssen also pro App und Arch optimiert werden, was dazu führt, dass man die iGPU Branches nicht einfach so übernehmen kann.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: konkretor, Katzerino88 und 24784ds
up to 25% better performance per yuan, mit anderen Worten wird die Karte im Schnitt deutlich langsamer
als eine RX6400 werden.
Was bleibt Intel, bei dem sich anbahnenden epic fail schon anderes übrig, als so lange cherry picking zu betreiben, bis zumindest irgendetwas positives auf das Werbeprospekt gedruckt werden kann.

Nein, nein die RX6400 ist eine Nummer zu groß, möglicherweise kommt sie mit würgen und brechen an Rembrandt (iGPU 680M) ran, aber mehr ist nur was für Träumer die im lila Wunderland leben.
 
Zurück
Oben