News Alchemist Benchmarks: Gaming-Grafikkarte Arc A380 ab 150 Euro in China verfügbar

Rockstar85 schrieb:
@Katzerino88

Intel hat keine Stabilen Treiber was auch der Notebookcheck Beitrag zeigt.
Intel braucht 81% mehr Transistoren und 120W für eine Leistung irgendwo unterhalb einer RTX3060 Laptop mit 115W (Analog dazu wäre eine A750 irgendwo bei einer 3050 im Idealfall bei einer 3060 (bei mehr Rechenwerken und auch mehr Verlustleistung). Eine A780 wäre knapp schneller, aber auch dann reden wir immer noch von einem riesen Chip.. Wirtschaftlich ist das nicht.

https://www.bilibili.com/video/BV1US4y1i7ne


Der Vergleich ist schwachsinnig, verglichen wird Singlechannel gegen Dualchannel. Intereressiert dich natürlich nicht, wen wunderts.
Ergänzung ()

ArrakisSand schrieb:
up to 25% better performance per yuan, mit anderen Worten wird die Karte im Schnitt deutlich langsamer
als eine RX6400 werden.


Wie kommst du darauf?
 
Rockstar85 schrieb:
Wenn man dann noch bei Igor immer wieder mitbekommt, dass Intels eignes dGPU Treiberteam tot ist, dann weiß ich nicht, wo das enden wird. Der Review war im März halt bezeichnend für Intel:
Das ist ja der springende Punkt. Wenn Intel trotz des Riesenkonzerns nicht in der Lage ist, Produkte vollständig auf den Punkt zu entwickeln.
 
mkl1 schrieb:
Der Vergleich ist schwachsinnig, verglichen wird Singlechannel gegen Dualchannel. Intereressiert dich natürlich nicht, wen wunderts.
81% mehr Transistoren... Da ist mir Dual/ Single völlig egal.. (klingt auch so langsam wie ein Strohmann)
Selbst Igor hat doch gezeigt was DG1 kann. Es gibt etliche dieser Schnipsel, aber klar sind alle Fake ^^
Wenn Intel echt mit 27Mrd Transistoren nur eine 3060 schafft, kann man direkt wieder zumachen. Das ist die Konsequenz aus diesem Benchmark. Und da ist es unerheblich, ob nachher der ACM-G10 eben 3060 oder 3050 schaffst.. Nvidia und AMD haben dafür Salvage Chips..
Und genau deswegen ist der Vergleich nicht Schwachsinnig.. Denn ich bezog mich um die Treiberinkosistenz der Releasetreiber (wurden da nämlich genutzt) und die Chipgrößen.
Aber du kannst gerne mal Gegenbeweise bringen, nur zu. Der Test zeigt eben eindeutig, dass entweder Intel die Power nicht auf die Straße bringen kann (wogegen der CS:Go Wert spricht), oder eben die Treiber (derzeit) Müll sind.
Und da es keine iGPU ist, ist es egal, was in Spielen genutzt wird. Es gibt de facto keinen Unterschied, also danke für die Nebelkerzen

Gamers, mainstream users, and office users shouldn't care. Actually, at the end of the day, the same rule applies to everyone, simulation pro or not: It's density and frequency that matters, not channeling. Quad- and better channels theoretically have a more profound impact, but this is in-step with the increased density of kits that are targeted for quad-channel platforms. If you want to push speed, density and frequency should be at the top of your list. Generally, when you're spending that kind of money, you're going with a multi-channel kit of two or more anyway, but the point still stands.
https://www.gamersnexus.net/guides/1349-ram-how-dual-channel-works-vs-single-channel/Page-3
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andi_sco
mkl1 schrieb:
Wie kommst du darauf?
Link Intel Arc A380
Kleiner Auszug:
The Intel Arc A380 GPU, with a recommended customer price of 1,030 yuan including VAT, delivers up to 25% better performance per yuan than available competitive offerings as measured by performance on a selection of popular games.
 
  • Gefällt mir
Reaktionen: Rockstar85
Rockstar85 schrieb:
81% mehr Transistoren... Da ist mir Dual/ Single völlig egal..


Dir sind faire Performance Vergleiche egal, ja das entspricht deinem Niveau. Eine GPU absichtlich einbremsen und dann mit dem performance Argument kommen, da muss man schon sehr verblendet sein, sich das schönzureden.
Ergänzung ()

ArrakisSand schrieb:
Link Intel Arc A380
Kleiner Auszug:
The Intel Arc A380 GPU, with a recommended customer price of 1,030 yuan including VAT, delivers up to 25% better performance per yuan than available competitive offerings as measured by performance on a selection of popular games.


Und weiter? Kannst du das begründen?
 
@mkl1
Es gibt keinen eindeutigen Hinweis drauf, dass ein Single Channel System in Spielen langsamer ist, bei einer Dedizierten GPU... Vor allem sind wie du im Link siehst nicht alle Spiele von betroffen.
Wir können aber gerne den Test machen, wenn die A380 da ist.

Und ja, in Anwendungen wie Adobe Premiere da würde ich dir Recht geben.. So aber musst du weitersuchen.
Link habe ich oben ergänzt.. (hier nochmal eine Messung dazu: https://techguided.com/single-channel-vs-dual-channel-vs-quad-channel/)
Was sagt mir das Verhalten der A730m? Richtig... Es kann, muss aber nicht besser sein.. Die Retail Treiber mit der A730M haben das doch gezeigt. Dennoch sind die Hardfacts.. 27Mrd Transistoren vs 12Mrd Transistoren eines GA106
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
@mkl1
Es gibt keinen eindeutigen Hinweis drauf, dass ein Single Channel System in Spielen langsamer ist, bei einer Dedizierten GPU...


Erzählt kein Stuss, natürlich gibt es die zu Genüge. Das kostet, teilweise sogar richtig viel. Wie viel genau ist abhängig vom Spiel, der Grafikkarte+Treiber, der CPU, aber auch vor allem von den Grafiksettings selber.


Performance Vergleiche werden mit Dualchannel durchgeführt, kein Mensch mit sachlichen Verstand vergleicht Werte von einem System mit Singlechannel gegen ein System mit Dualchannel. Kein seriöser Tester würde Grafikkarten so miteinander vergleichen.

Der Transistoren Vergleich ist auch Quark. Du vergleichst ein salvage part mit deaktivierten Einheiten gegen das Topmodell mit voll aktivierten Einheiten. Kann man vergleichen, aber dann ist das auch wieder verblendet. Der salvage part von GA106 ist die RTX 3050.
 
  • Gefällt mir
Reaktionen: Zer0Strat
ArrakisSand schrieb:
up to 25% better performance per yuan, mit anderen Worten wird die Karte im Schnitt deutlich langsamer
als eine RX6400 werden.
Die Stock Karte war in dem Chinesischen unabhängigen Test im Schnitt 4% vor der 6400, Intels Angabe wird also mehr oder weniger eingehalten, da treiberseitig sehr wahrscheinlich noch deutlich Luft nach oben ist.
Rockstar85 schrieb:
81% mehr Transistoren... Da ist mir Dual/ Single völlig egal.. (klingt auch so langsam wie ein Strohmann)
Was haben die Transistoren mit der Verwendung von Dual oder Singlechannel zu tun?
Singlechannel bremst die CPU und damit sicherlich auch stückweit die Grafikkarte.

Rockstar85 schrieb:
Selbst Igor hat doch gezeigt was DG1 kann. Es gibt etliche dieser Schnipsel, aber klar sind alle Fake ^^
Und das Fazit war abgesehen von schlechteren Treibern recht positiv.

Rockstar85 schrieb:
Wenn Intel echt mit 27Mrd Transistoren nur eine 3060 schafft, kann man direkt wieder zumachen.

Du berücksichtigst in deinen undifferenzierten Vergleichen nicht, dass auf Intels GPU nur 3072 von 4096 Shadern aktiv sind, also rund 1/4 weniger, was dann 12 Mrd. Transistoren vs ca 16 Mrd. wären.
Die Angabe von 27 Mrd. Transistoren ist falsch und auch die Chipgrößen wären nicht so weit auseinander.

Natürlich schafft Intel aus dem Stand keine bessere Leistung pro Transistor und pro mm². Und es ist mir schon klar warum aus deiner Perspektive Intel in allen Metriken besser als AMD und Nvidia sein muss, eben damit du alles als zu schlecht bewerten kannst.
Aus der Perspektive hätte ATI/AMD auch jahrelang keine unterlegen GPUs/CPUs fertigen brauchen und hätte den Betrieb schließen können.
Es ist doch schon ein Wunder, dass die es schaffen je nach Spiel nahe heranzukommen und offenbar auch die Effizienz vergleichbar ist. Zudem gibt es auch nicht nur Spieler. So oder so werden die GPUs Abnehmer finden.
Es ist total spannend wenn ein neuer Anbieter den Markt betritt, das kann so viele Vorteile bringen.

Skjöll schrieb:
Das ist ja der springende Punkt. Wenn Intel trotz des Riesenkonzerns nicht in der Lage ist, Produkte vollständig auf den Punkt zu entwickeln.
So ist das im Hardware und Software Business. Das ist so komplex, dass dir ein riesiges Unternehmen mit Manpower und Geld ohne Ende nicht das Know-how ersetzt. Ansonsten hätte AMD auch nie Zen entwickeln können. Dann hätten wir 2022 vermutlich lediglich eine 8 Kern CPU im Mainstream und keine Raport Lake 24 Kern CPU.
 
Zuletzt bearbeitet:
CCIBS schrieb:
Laut dieser Seite können sie es

Gut, das ist schon mal was, wenn sie Adaptive Sync können. Im Idealfall funktionieren auch Monitore, der noch nicht den Intel-Sticker drauf haben. Aber bei mir wird wohl trotzdem keine Intel-Grafikkarte reifen, sondern am ehesten RTX4080, zumal ich noch einen Oldgen-Nvidia-Monitor habe und auf den Nachfolger von 27GP850-B warte.
 
mkl1 schrieb:
Erzählt kein Stuss, natürlich gibt es die zu Genüge. Das kostet, teilweise sogar richtig viel. Wie viel genau ist abhängig vom Spiel, der Grafikkarte+Treiber, der CPU, aber auch vor allem von den Grafiksettings selber.
Dein Wortstil ist echt schlimm.. Ich hab dir Links und Messungen beigefügt, da siehste es schwarz auf weiß. Selbst wenn es am Ende bei manchen Spielen was ausmacht, sohat die Aussage Bestand. Steve Burke hat das Thema auch umfassend angefasst.
Und ja ich vergleiche einen ACM G10 mit einem GA106, weil es Intel nämlich genauso macht.. Die A730M ist der Counterpart der GA106 als Mobile (RTX3060M ist GA106 im Vollausbau!) Da kannst du gerne weiterhin meckern, das ist aber der Fakt. Und ich vergleiche am Ende so, wie es Nvidia sieht und da steht es schwarz auf weiß.
komm doch einfach mit Fakten, dann reden wir auch gerne. So bringt das nichts.
1655508666360.png

(3DC)

Unter dieser Prämisse:
https://www.aroged.com/2022/03/31/intel-arc-acm-g10-gpu-has-more-transistors-than-ga104-and-navi-22/
Wäre es kein Thema, dass Intel mehr Transistoren hat.. Aber der Gegner ist Stand heute eher der GA106 und Navi 23 als eben Navi22 oder Gar ein GA104. Das kann man mit einem Blick auf die ersten Testergebnisse rauslesen. Auch wenn es vllt eine Tendenz ist, Intel müsste locker 20-30% aus dem Treiber holen um zur 3060 mit der ACM-G10 Aufzuschließen.. Und das nicht nur in einem Spiel, sondern am Ende Konsistent. Da bin ich sehr gespannt, wie Intel das macht. Gottseidank hat man nicht gegen einen GA104 getestet, sonst hätte Intel ein echtes Problem.
Und genau deswegen gehe ich zu 90% davon aus, dass Intel das Produkt OEM Only machen wird und vermutlich ARC der ersten Gen nie in Europa im Retail auftauchen wird. Aber wir werden sehen.
Treiberentwicklung ist teuer, Intel scheut die Kosten. Das zeigen Aussagen wie von Igor. Man wird mit einem Treiberteam für iGPU keine für dGPU zufriedenstellende Architektur erlangen. Das hat auch AMD lernen müssen, dass der Treiber mit dem Produkt steht und fällt.
Aber sollte ich mich irren, bekommst du und die anderen eine Entschuldigung von mir.

@aldaric
Belass es dabei. Es geht nich ums Thema, sondern nur Fehler aufzuzeigen. Da mach ich nicht mit. Igor hat sogar im Forum drüben was zum Thema noch geschrieben. Ich denke mal, Igor wird mehr wissen als wir alle. Und der ist erstaunlich Realistisch bei dem Thema. Wenn die Arc7 ACMG10 am Ende als A770 knapp oberhalb einer 3060 rauskommt, wäre das gut. Wenn die GPU am Ende einen Teil der 13,5TFlop FP32 Leistung zeigen kann, wäre das ebenso gut. Aber nicht, wenn man Quasi einen Vollausbau mit High End Ambitionen gegen einen Midrange Chip platzieren muss.. Das hat GTX480 Vibes
 
Zuletzt bearbeitet:
Katzerino88 schrieb:
Natürlich sollen sie aus deiner Sicht gleich wieder zumachen, darum geht es dir ja.

Also das sehe ich in seinen Beiträgen nicht. Geht es dir eher darum, anderen irgendwas unterstellen zu wollen, weil eine andere Meinung vorherrscht?

Katzerino88 schrieb:
Für den Markteinstieg ist eine Performance auf Niveau einer 3060Ti mit etwa 200 Watt dennoch völlig ausreichend um die Herstellungskosten zu decken, ob nun die Treiber nicht mit AMD und Nvidia mithalten können oder nicht. Selbst du hast einen Link geliefert der zeigt wie komplex es ist Treiber zu programmieren.
Wir drehen uns im Kreis.
Also bitte. Niveau einer 3060 Ti? Daran glauben ja selbst die größten Optimisten nicht, vor allem nicht konsistent auf diesem Niveau.

Fakt ist doch, dass es Treiberseitig schon eine ganz lange Zeit nicht vorwärts geht bei Intel, dass zeigen ja die verschiedenen Benchmark-Häppchen im Netz recht gut.

Skepsis ist bei diesem Produkt mittlerweile eindeutig angebracht, von extrem fehlerhaften Treibern, immer wieder verschobene Release-Zeitfenster bis hin zu Koduri, der sowieso immer ein großes Mundwerk hat, scheint sich bisehr nichts Konkurrenzfähiges zu zeigen.

Es ist auch völlig egal, was die anderen beiden machen. Ein Markteintritt mit einem inkonsistenten Produkt und schlechter Software, wird sich am Markt nicht halten können. Keiner wird sich sowas freiwillig ans Bein binden. Davon ab, dass durch die Verschiebungen bald nicht mehr RDNA2 und Ampere die Gegner sind, sondern RDNA3 und Lovelace.
 
  • Gefällt mir
Reaktionen: Rockstar85
Rockstar85 schrieb:
Dein Wortstil ist echt schlimm.. Ich hab dir Links und Messungen beigefügt, da siehste es schwarz auf weiß.
Selbst in deiner Verlinkung war ein Uplift von gut 10% enthalten.
Rockstar85 schrieb:
Steve Burke hat das Thema auch umfassend angefasst.
Dein Link von Steve Burke umfasst ein einziges Spiel (Shogun 2) mit dem Fokus auf Ladezeiten und läuft bei der FPS Messung vollständig im Limit der Grafikkarte.

Wie viel das bringt zeigt dieser Vergleich sehr gut.

Im Schnitt in Full HD auf einem 8700K und RTX 2080 im Mittel 25% und in jedem Spiel mindestens 10%.
In Assassins Creed war die Leistung stellenweise um 90% höher.
Niemand nutzt freiwillig Single Channel in einem Gaming Derivat.
aldaric schrieb:
Also bitte. Niveau einer 3060 Ti? Daran glauben ja selbst die größten Optimisten nicht...
Intel hat ursprünglich eine 3070Ti angepeilt, das wäre optimistisch.
Ich denke nicht, dass Leonidas aus dem 3DC nach der Performancekorrektur zu optimistisch ist.
aldaric schrieb:
Ein Markteintritt mit einem inkonsistenten Produkt und schlechter Software, wird sich am Markt nicht halten können. Keiner wird sich sowas freiwillig ans Bein binden.
Sehr viele würden schlechtere Treiber in Kauf nehmen, wenn Preis und Speichermenge besser als bei der Konkurrenz wären. ATI Karten wurden vor x Jahren mit noch deutlich unterlegenen Treibern auch verkauft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zer0Strat
Hat schon einer mal den Vorteil ausgerechnet der per Euro rauskommt?
Da ist ja per Yuan (0.14 €)die Rede.

"The Intel Arc A380 GPU, with a recommended customer price of 1,030 yuan including VAT, delivers up to 25% better performance per yuan(2) than available competitive offerings as measured by performance on a selection of popular games."

Fussnote:
(2) Claim: The Intel® Arc™ A380 GPU, with a recommended customer price of 1,030 yuan, delivers up to 25% better performance per yuan than available competitive offerings as measured by performance on a selection of popular games.

Period: Pricing and testing as of June 12, 2022. Radeon RX 6400 pricing of 1199 yuan on JD.com.

https://www.intel.com/content/www/u...-a380-graphics-available-china.html#gs.3ek50x
 
  • Gefällt mir
Reaktionen: Rockstar85
mkl1 schrieb:
Dir sind faire Performance Vergleiche egal
Sofern die GPU nicht auf den Systemspeicher zurückgreifen muss, sollte es fast egal sein
Ergänzung ()

Müritzer schrieb:
Soweit ich weiß, werden die gerade zu 500€ gehandelt🤨
 
  • Gefällt mir
Reaktionen: Rockstar85
andi_sco schrieb:
Sofern die GPU nicht auf den Systemspeicher zurückgreifen muss, sollte es fast egal sein
Es geht eher darum, die GPU CPU-seitig zu füttern, Draw Calls usw. CPU-Limitierung bremst halt die Grafikkarte aus. Ist dann schon Essig, solche Vergleiche zu machen.
 
Rockstar85 schrieb:
Dein Wortstil ist echt schlimm.. Ich hab dir Links und Messungen beigefügt, da siehste es schwarz auf weiß.

Deine ganzen Beiträge sind echt schlimm, das ist eine Zumutung! Und nichts hast du gebracht, nichts. Du kannst nicht Intel mit Nvidia und AMD vergleichen. Schon alleine der höhere driver overhead der Intel Treiber kann dazu führen, das ein Singlechannel System mit einer Intel dGPU mehr Leistung verliert als ein vergleichbares AMD oder Nvidia dGPU System.

Du müsstest das schon von einem A730M Arc System zeigen, was derzeit nicht möglich ist. Du vergleichst Singlechannel Werte von einer A730M mit Dualchannel Werten einer RTX3060M und verteidigst das auch noch. Dass es Leistung kostet, je nach setting und Spiel unterschiedlich, ist unstrittig. Du versuchst allen ernstes das abzustreiten, einfach nur absurd. Dich kann man doch nicht ernst nehmen.

Eine Mitschuld trägt aber auch Computerbase und andere Medien. Es wäre ihre Aufgabe gewesen, unwissentliche user wie dich aufzuklären. Aber da es um Intel und Grafikkarten geht, wurde es verschwiegen.
 
  • Gefällt mir
Reaktionen: Zer0Strat
andi_sco schrieb:
Soweit ich weiß, werden die gerade zu 500€ gehandelt🤨
Das ist ja noch besser, wie hoch oder wieviel Prozent liegen die dann vor einer 6400.
 
mkl1 schrieb:
Eine Mitschuld trägt aber auch Computerbase und andere Medien. Es wäre ihre Aufgabe gewesen, unwissentliche user wie dich aufzuklären. Aber da es um Intel und Grafikkarten geht, wurde es verschwiegen.
Ich denke nicht, dass dies möglich ist. Das Problem ist nicht in erster Linie die massive fachliche Inkompetenz, sondern das Zusammentreffen von Inkompetenz und Unbelehrbarkeit.

mkl1 schrieb:
Deine ganzen Beiträge sind echt schlimm, das ist eine Zumutung!
Ja, absolut. Wenn ich ehrlich bin, es ist eine große Herausforderung für mich, damit halbwegs sachlich umzugehen.
 
Zuletzt bearbeitet von einem Moderator:
@mkl1
Andi hat dazu auch was gesagt, aber glaube was du möchtest.. Solange die Spiele eben nicht dauernd auf den Ram zugreifen (was beide verlinkten Berichte zeigen), ist es egal. Ich gehe sogar soweit und sage, dass die betroffenen Spiele wie CS Go völlig egal sind, ob Dual oder Single, da kannst du noch so protestieren.

Und ich mache den gleichen Vergleich, den Intel gemacht hat.. Wir nehmen auch gerne einen ACM G11 wenn du möchtest, gegen einen Salvage Navi 24..
Navi 24 hat 5,4Mrd Transistoren der Salvage natürlich etwas weniger. AV1 fehlt hier. Der Navi ist ungefähr 107mm² groß, der ACM-G11 ist 150mm² groß und wird wie Navi 24 in N6 gefertigt..
Navi 24 hat 1 Raster Engine und 16 Shader Cluster bei 5,3Tflops (wohlgemerkt eine 6500)
ACM G11 hat 8Xe Cores und müsste, wenn sie gut skaliert bei 8-9 TFlops rauskommen. (da wären 75W nebenbei angemerkt, richtig gut, wenn denn die Rohleistung nicht liegen bleibt.)
Intel behauptet also, dass das Preis / Yuan Verhältnis ACM G11 25% besser ist als bei AMD. Warum macht Intel nochmal keine Aussagefähigen Performanceangaben, wenn die GPU doch soo viel besser ist?
Am Ende ist es, wie @aldaric und auch @Müritzer schon sagte.. Das ganze wirkt mehr als nur Fishy.

Mit der Rohleistung einer ACM G11 müsste man eigentlich an eine Navi 23 aka 6600 rankommen, das wäre aber mit dem, was wir an Schnipseln bekommen, mehr als Utopisch (Ja in 3D Mark schafft sie es, aber das zeigt einfach, dass Intel auch 20 Jahre später keine Treiber kann).. Ich sehe ne neue VEGA kommen, zuviel gewollt, zu wenig investiert. Ach und danke für das Kompliment.. Ich marker mir mal deinen Beitrag und wir reden dann ende Des Jahres gerne nochmal drüber :)

@Müritzer
146€ für eine A380 zu 170€ für die RX6400
das wären alleine durch den Preis schon 14% egalisiert.

https://www.hardwaretimes.com/intel...to-100-fps-at-1080p-in-popular-esports-games/
Overwatch: Low Quality:
A380 ~100FPS (wie MSI sagt)
GTX1050Ti: ~150FPS
Die RX6400 ist hier nur ne Radeon Pro, soll aber 190FPS machen, was mir zu hoch wirkt, tippe auch mal auf 160FPS, da sie knapp Stärker als eine Ti ist.

 
Zuletzt bearbeitet:
Zurück
Oben