News Alchemist Benchmarks: Gaming-Grafikkarte Arc A380 ab 150 Euro in China verfügbar

Darknesss schrieb:
Wobei da 150€ durchaus noch eher zuviel sind.
Vor dem Miningboom gabs dafür die RX570 schon für knapp >120€. Und selbst im Miningboom gabs Ende letztes Jahr die T600 für ~140€
Du sagst es: Vor dem Miningboom.
Und es zählt auch nicht letztes Jahr, sondern heute.
 
  • Gefällt mir
Reaktionen: simosh
Draco Nobilis schrieb:
Speicherkompression /-Verwaltung ist durchaus eine Wissenschaft. NVIDIA hatte da bsp. gegenüber AMD sehr lange die Nase vorne. Auch einer der Gründe wieso AMD da oft mehr Speicher verbaute. Ist relativ wenig bekannt.
NV benutzt Farbkompression ... AMD nicht.
Jede Kompression ist am Ende weniger Information als Nativ.
Inwiefern Sowas in guten HDR-Games dann sichtbar wird, who knows.
 
Also hier sieht man einfach wie Synthetische Benchmarks fürn Popo sind. Hersteller können sehr gut speziell auf diese Benchmarks optimieren weil sie am Ende immer der selbe Ablauf sind. Selbst innerhalb des Selben Herstellers kann eine neue Generation an GPU's speziell auf diese Synthetischen Benchmarks abgestimmt sein und einen falschen Eindruck von der neuen Generation abbilden. Nichts geht über eine Breite Reihe an echten Spielen wie man auch hier sieht. Ich bin dafür das in einem seriösen Test keine Synthetischen Benchmarks mehr auftauchen sollten.

Und weil Intel hier der neue Player im Haus ist, erwarte ich in Zukunft wieder Tests über die Bildqualität. Nicht das durch eine schlechtere allgemeine Bildquali der Balken länger gemacht werden soll. Alles schon in der Vergangenheit bei AMD bzw ATI sowie bei Nvidia auch schon gehabt.
 
  • Gefällt mir
Reaktionen: Celinna, pipip und Corpus Delicti
GerryB schrieb:
Jede Kompression ist am Ende weniger Information als Nativ.
Ne
Gibt jede Menge verlustlose Kompressionen.
Die ganzen Kanal- und Quellencodierungen (hauptsächlich Kanalcodierungen) in GPUs und im VRAM System sollten verlustlos sein. Zumal AMD auch komprimierungen nutzt (seit GCN 3 wenn ich es richtig im Kopf habe)

Bei NVIDIA scheint die Kanalcodierung seit Pascal ein wenig (auf einem sehr hohen Level) zu stagnieren.
Pascal kam damals je nach Datensatz auf deutlich mehr als eine Verdoppelung der effektiven Bandbreite.
https://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/8

Zumindest hat NVIDIA aufgehört Sprünge bei der Kompression stark anzupreisen.
Das gab AMD ein wenig Zeit zum aufholen.
 
  • Gefällt mir
Reaktionen: FeelsGoodManJPG
Macht wieviel Prozent aus an Vram-bedarf?

... erst wenn wirklich bei den Farben die bit-Tiefe reduziert wird gibts die wundersamen Einsparungen
 
Ich würde ja gerne etwas Nettes schreiben, aber wenn ich ehrlich bleiben soll, außer dem AV1 Support sehe ich nichts Positives das erwähnenswert wäre.

Spannend wird evtl. der Absatz die nächsten Monate. Die Umsatzzahlen der GPU-Sparte kann Intel vielleicht auch in Yuan ausweisen, dann sollte auch eine hohe vielstellige Zahl dabei rumkommen.
 
GerryB schrieb:
Macht wieviel Prozent aus an Vram-bedarf?

Das kommt ganz auf den Inhalt und die Art der Quellenkodierung an.
Da bin ich dann aber auch ein wenig überfragt, was AMD und NVIDIA da konkret nutzen.
Ich kenne mich bei Quellenkodierungen hauptsächlich im Videobereich aus, allerdings sind Bewegungsvektoren dort ein enormer Vorteil. Da sind durchaus Kompressionsfaktoren ~10-15 lossless drin, je nach Inhalt. Komplett unkomprimiertes Material wird eigentlich fast nirgendwo eingesetzt.

Das Hauptaugenmerk liegt allerdings wohl eh primär auf den Kanalkodierungen.
Da war Pascal schon bei einer Verdoppelung bis 2,5 Fachung der Effektiven Bandbreite.

Wobei es auch gut sein kann, dass Quell- und Kanalkodierung in dem Kontext in der Implementierung immer weiter verschmelzen.
 
Zuletzt bearbeitet von einem Moderator:
SVΞN schrieb:
Intel legt den Fokus nicht ohne Grund auf den chinesischen Retail-Markt und wird Arc primär in chinesischen OEM-PC bringen.
Der Grund ist, der asiatische Raum ist aktuell Intel größter Absatzmarkt, denn in USA und Europa mussten sie schon Marktanteile abgeben. Wenn man dann noch bedenkt, dass dort gleichzeit die Chips gefertigte werden, ist es für ein Start eigentlich nur logisch.
Wenn wir noch ein Crypto Mining Phase hätten ware ja alles Prima gelaufen. Trotzdem so ein Line Up war ja vor mehre Jahren geplant. Ich frag mich immer noch, ob bei Gen1 nicht lieber auf Notebooks fokusiert hätte sollen und da zusammen mit Treiber Optimierung arbeiten hätten sollen..aber gut früher oder später muss man ja den Sprung auf Desktop machen.

An sich finde ich das Teil in Ordnung. Und ich habe schon gelesen, dass da im Vergleich zu AMD so viele Transistoren benötigt werden. Ich habe das jetzt nicht nachgelesen. Aber die kleinen GPUs haben auch schon AI Instruktionen oder ? Klar bei Games vllt (aktuell) noch nicht ganz so interessant.
 
Also Fakt ist, wir haben endlich einen neuen Wettbewerber. Und für low budget / full HD gaming sollte sich hier eine gute Karte auftun. Ich kenne genug Bekannte für die selbst die A380 eine gute Wahl wäre.

Für 100-150 Euro wäre die Karte auch für mich eine Überlegung wert.

Intel wird seinen Weg gehen. Auch bzgl der Treiber werden die kommenden 12 Monate schon Besserung bringen. Intel ist finanziell gut genug aufgestellt, um sich in dieses Segment reinzukaufen.
 
Epic Fail.. hmm, wer hätte DAS gedacht?! Diese "Grafikbremse" ist DOA.
 
Darknesss schrieb:
Mit 4 Digitalen Displayanschlüssen und Hardware Encoding ist das Teil imho intressanter wie eine RX 6400/6500.
Na ja, kommt darauf an. Interessant wird Xe primär durch das AV1 Encoding. Das ist aber ein Spezialfall, den nicht jeder benötigt.

Für De- und Encoding würde ich mir selbst keine dedizierte Grafikkarte in den Rechner packen, sowohl Intel als auch AMD bieten die wichtigsten Formate in ihren "APU"s dafür an.
Zer0Strat schrieb:
Sie können schlecht, die Shader für jedes Spiel händisch optimieren.
Richtig, können sie schlecht. Aber genau das haben sie für die synthetischen Benchmarks gemacht.
Zer0Strat schrieb:
Shader-Compiler sind für mich übrigens ein Teil des Treibers.
Klar ist der Shader-Compiler ein Bestanteil des Treibers. Es ging mir aber primär dazum zu sagen, dass AMD und NVIDIA heute bei ihren Treibern oft eher mit sehr allgemeinen Optimierungen arbeiten und für die Spiele oft nur ein Profil angelegt, der dann den Treiber selbst als - also die direkt Kommunikation - als auch den Shadercompuiler bestimmte Flags mit geben und dann zwischen verschiedenen bereits vorhanden Codepfaden gewechselt wird.

Das Außmaß, das Intel hier bisher zugeben hat für 3dMark und Co versuchen AMD und NIVIDA möglichst zu vermeiden, da dass massiv viel Personal bindet.
GerryB schrieb:
Jede Kompression ist am Ende weniger Information als Nativ.
Falsch, es kommt darauf an, ob man eine verlustbehaftete Kompression nutzt oder eine eine verlustfreie. Beides kostet aber etwas "Rechenzeit".
GerryB schrieb:
... erst wenn wirklich bei den Farben die bit-Tiefe reduziert wird gibts die wundersamen Einsparungen.
So pauschal ausgedrückt ist das falsch! Bei Bildern und einer verlustfreien Kompression kommt es auf den Inhalt des Bildes an und wie effektiv eine Kompression dann sein kann.

Texturen sind, egal wie hochaufgelöst sie sein möchten, sind nicht gerade komplexe Bilder oder Grafiken, die aus vielen verschiedenen Bestandteilen bestehen, sondern in der Regel sogar relativ simple und monoton. Hier kann man auch mit einer guten verlustfreien Kompression einiges an Einsparrungen erreichen.

Du kannst dir ja mal die gänigen Algorithmen wie LZW ansehen. Solche Algorithmen kann man durch weitere Techniken stark verfeinern und noch effizienter machen.
 
Ich rede net über Texturen sondern die Farbverläufe in HDR.
 
Convert schrieb:
Die 3x steht nicht für die Grafikkarten-Generation, wie bei AMD oder Nvidia.

Es gibt bei Prozessoren Core i3, i5 und i7. und die erste Zahl bei der Grafikkarten entspricht ebenso dieser Einordnung.

Anhang anzeigen 1228347

Es wird in dieser Generation, der "A-Series"-Generation also eine A3xx eine A5xx und eine A7xx Karte geben.

Wie Intel plannt, dann die nächste Generation zu nennen, ist natürlich eine offene Frage bei dieser Art der Namensgebung. Vielleicht heißt ja die nächste Generation nicht mehr A380, für Arc380, sondern B380, B5xx und B7xx, wenn die nächste Architektur mit dem Buchstaben B beginnt, also dann quasie die "B-Series"-Generation...
Sehr wahrscheinlich. Als nächstes kommt
  • Battlemage
  • Celestial

Convert schrieb:
Wenn Intels Grafikkarten den Alpha- und Beta-Status verlassen haben, dann erfolgt vielleicht auch mal eine Nomenklaturänderung, dass das "A" und "B" eine Zahl wird :D
 
GerryB schrieb:
Ich rede net über Texturen sondern die Farbverläufe in HDR.
Ja, und? Das vorgehen ist in diesem Fall ähnlich, weil auch die Daten, die da gespeichert und geladen werden, ähnlich sind.

Es wird in dem Fall halt eine temporale Textur für ein Objekt gerendert und im VRAM abgelegt, auch in diesem Fall kann man mit entsprechenden Algorithmen das "Bild" verlustfrei kompremieren und je nach Komplexität auch wieder sehr viel einsparren an Bandbreite.

Es ist hier vollkommen irrelevant ob wir Texturen, Farbverläufe, *-Maps oder vom finalen Produkt sprechen, dass auf dem Monitor angezeigt wird, alles sind "Bilder" und für Bilder gibt es entsprechende Techniken für die verlustfreie Kompression und die Komplexität der Bildes bestimmt, wie effektiv so eine Kompression ist.

Auch für deinen HDR-Farbverlauf gilt das gleiche. Es hat einen Grund, warum während der Berechnung des Bildes nicht quasi im "fertigen" Bild gerechnet wird, sondern die einzelnen Schritte alle einzelne Teilbilder/Teilschichten berechnen un diese erst am Ende dann zusammen geführt werden, dadurch sinkt die Komplexität in den Teilabschniten dramatisch und entsprechend effektiv können die Algorithmen vorgehen.
 
GerryB schrieb:
Macht wieviel Prozent aus an Vram-bedarf?

... erst wenn wirklich bei den Farben die bit-Tiefe reduziert wird gibts die wundersamen Einsparungen
Da geht es gar nicht mal um Platzersparnis sondern um die Bandbreite. Denn alles was ich über die Bandbreite in den Speicher komprimiert schicke, müsste ich beim Aufrufen der Daten aus dem Speicher eigentlich wieder "herstellen". Je nachdem was wir unter Kompression verstehen. Einfach killen aller Redundanzen? Oder neue Codes erstellen die kompakter sind, aber eben auch wieder decodiert werden müssten. Weiß jetzt nicht wie das bei den GPUs läuft...
 
Volker schrieb:
Artikel-Update: Wie Anfang der Woche gemutmaßt, ist heute ein von Intel in China auferlegtes NDA ausgelaufen und Tests der Intel Arc A380 durften veröffentlicht werden. Ein auf bilibili in chinesischer Sprache veröffentlichtes Review präsentiert dabei genau das Bild, das erwartet wurde: Im synthetischen Benchmark 3DMark kann sich die Gaming-Grafikkarte von Intel dank optimierter Treiber im DirectX-12-Test „Time Spy“ gegen Radeon RX 6400 (dem von Intel auserkorenen direkten Gegenspieler) und Radeon RX 6500 XT (Test) behaupten, im Raytracing-Benchmark Port Royal sogar deutlich. Im älteren DirectX-11-Test FireStrike gelingt das allerdings schon nicht mehr.

Ganz ehrlich? Das ist viel schlimmer als befürchtet. Das ist ein Vollausbau der nicht mal im Ansatz die Leistung aus die Straße bekommt und lässt für A770 nichts gutes hoffen. Danke für das Update:

An die Leute, die hier meinten, man hätte ja eh keine Ahnung und mussten noch anfeinden
Ich mache das ja sonst nicht, aber:

Eigentlich wäre Entschuldigung bei mir, den Mitforisten und bei dem Team von CB von den Leuten angebracht. Man konnte anhand der ersten mobile benches sehr wohl etwas sehen. Mich nerven nur noch diese Unterstellungen, von immer den gleichen.
Passiert aber leider wohl nicht.

Ich bin aber gespannt, wie du diese Leistung von Intel begründest. Es ist am Ende genau so eingetroffen, was Fachleute gesagt haben und was ich vor 2 Wochen schreib.! So reicht es Eben nicht, für eine 3060..
Aber klar, bei CB hat ja auch keiner Ahnung...

Sorry liebe Mods, aber das musste leider sein
 
Zuletzt bearbeitet:
DevPandi schrieb:
Aber egal, ich stehe darüber. Mango, @Zer0Strat ?
Klar, Wenn man etwas Ahnung von IT hat, dann weiß man leider wie es bei Intel mit treibern so läuft. Ich sehe auch noch keine a380 oder 500er gpu in Europa kommen. Für 75W ist das echt schlecht und eine Baustelle von Jahren.
 
Zurück
Oben