News Intel Arc A380 („Alchemist“): Erste Benchmarks im Vergleich mit Ampere, Turing und Navi

Die x-Skalierung der Charts ist aus der Hölle.
Dann lieber einfach nur die Werte hernehmen, damit kein so völlig falscher erster Eindruck überall entsteht.
 
  • Gefällt mir
Reaktionen: piy und J@ck
Ich kann mir gut vorstellen das der Kampf hier über den Preis gehen würde. Bei einer brauchbaren Karte zu einem angemessenen Preis könnte man den Skalpern den wind aus den Segeln nehmen. Aber Intel muss definitiv am Treiber arbeiten. Die sind weit hinter der Konkurrenz.
 
Für den ersten Wurf doch ein ansehnliches Ergebnis von Intel, sehr schön.
 
  • Gefällt mir
Reaktionen: Maeximus und Onkel Föhn
@quakegott
Das kann Intel gerne versuchen. Aber spätestens der Handel legt da +300€ drauf. Oder die Board-Partner.
Intel kann die Preise am Markt nicht diktieren.

Und was viele hier auch immer wieder vergessen ist der Mangel an Substraten, packaging- Kapazitäten, Boardkomponenten, ram und, und, und.
Die Chips sind schon und gut, aber wenn man keine Boards ausstatten kann, dann helfen einem auch keine 5 Millionen Chips.
Und das machen die Board-Partner oder Unternehmen die Intel damit beauftragt. Die kaufen am Markt die Teile ein. Und das muss dann am Ende auch bezahlt werden.

Es ist ja nett, dass alle hoffen das Intel der Heiland sei, aber das sind die auch nicht. Bzw. Können die nicht zaubern. Sonst würden die Merlin heißen.
 
Ich glaube, hier sehen es manche zu rosig. Das sind Benchmarks die keine Treiber-Optimierung erfordern, da exterem low-level. Das ist das bestmögliche Szenario für Intel. Und selbst da sieht man, dass man Harware-technisch maximal auf Augenhöhe ist. Man ist +/- bei der 6500XT und die wird überall (größtenteils übertrieben) verrissen.
 
Ich frage mich, wieviele (Gamer) am Ende tatsächlich gewillt sind, zur Arc zu greifen, selbst wenn die Leistung einer 3070 für 25% weniger Kaufpreis erreicht werden könnte.

Ich vermute, die meisten hoffen v.a. auf Preisdruck auf die Konkurrenz, um dort dann ein etwas günstiger gewordeneres Produkt mit gereifteren Treibern (und weniger Ärger in Spielen) kaufen zu können.

Also: Dass möglichst viele die Arc kaufen… nur man selbst halt nicht, weil keinen Bock auf Early Adoption.
 
  • Gefällt mir
Reaktionen: Sly123
@Katzenjoghurt du kannst natürlich richtig liegen, aber seit dem Parhelia "Debakel" von Matrox gab es keine Alternative zu ATi / nVidia bzw. heute natürlich AMD / nVidia. Und es wäre mal wieder Zeit für einen dritten Mitspieler.

Gibt genug Kunden für Karten in den Leistungsklassen RTX 3060 / RTX 3060 Ti und RX 6600 XT / RX 6700 XT, so daß eine Intel Karte mit einer wenn auch nur halbwegs vernünftigen Verfügbarkeit und annehmbaren Preis hier Punkten kann - wenn die angestrebte Leistung dann passt.

Das Intel nicht direkt eine RTX 3080 oder RX 6800 XT in den Schatten stellen wird, sollte jedem klar sein.

Um es mit Franz Beckenbauer zu halten: Schaun mer mal.
 
  • Gefällt mir
Reaktionen: Katzenjoghurt und Onkel Föhn
Danke für das vorinterpretieren der Diagramme, selbst vergleichen wär mir bei diesem Format viel zu mühlsehlig.
Ein exponentielles Balkenwachstum für diese Benchmarks auszuwählen ist für diesen Vergleich völliger Unfug.
Wenn nur ein paar Milimeter für fast den doppelten Score herhalten, hätte man sich alles abseits reiner Zahlen auch sparen können.
 
Excel schrieb:
Viele Fragen, die noch offen sind. Ich sehe nicht, dass Intel in den nächsten Jahren den Markt wirklich aufwirbeln könnte.
Aufwirbeln vielleicht nicht, aber einen Namen werden sie sich machen können. Intel lies ja schon verlauten dass sie 2022 4 Mio Stück anpeilen. AMD hat letztes Jahr auch "nur" um die 10 Mio diskrete GPUs verkauft.

Die Gerüchte sagten ja bereits letztes Jahr Leistung in Richtung 2070 voraus. Das ist nicht die Welt, aber für viele wohl ausreichend.

Die Frage Intel, AMD oder Nvidia werden sich denke die wenigsten stellen. Hier im Forum ja, aber nicht so affine Leute werden sicherlich auf Preis/Leistung gehen oder irgendwelche Angebote mitnehmen.

Treiber und FPS müssen passen, das stimmt. Da bleibt aktuell nur zu hoffen dass Intel das nicht verkackt.
 
  • Gefällt mir
Reaktionen: Ganjaware
Sehr gute Werte für 75 Watt GPU! Schließlich wird Strom aus dem Ausland nicht günstiger, also her mit der GPU :schluck:
 
  • Gefällt mir
Reaktionen: tritratrullala, k0n, Lemiiker und eine weitere Person
Ist das jetzt eine Grafikkarte oder eine Zusatzbeschleuniger? 75 Watt ist angenehm wenig, nur intessiere ich mich bei einer Grafikkarte primär für OpenGL bzw. Vulkan und sekundär für Videoencoding. Die GPGPU-Eigenschaften interessieren mich - überhaupt nicht. Für General Computing habe ich eine CPU.

Habe ich den primären Zweck falsch verstanden und Intel zielt auf Miner?
Ich verorte mich selbst im Team AMD. Aber wenn ein dritter Hersteller etwas GPU-Leistung anbietet, wäre das ein Segen für alle. Die sollen ruhig etwas Druck auf AMD und Nvidia ausüben, ohne die Konkurrenz auszulöschen. Wettbewerb wünsche ich mir. Und AMD soll ruhig Intel weiter bei den CPUs vor sich hertreiben...immer weiter ;)
 
Gortha schrieb:
Wenn das wirklich aus Effizienzsicht sehr gute Chips werden, dann kann das Intel-High-End-Portfolio, also DG 512 meine ich, locker NVidias und AMDs Mittelklasse stark vom Markt verdrängen.
Nicht unbedingt.

Kommt auch das Szenario an, hier wurde primär OpenCL miteinander verglichen und in OpenCL war Vega vor nun gut 5 Jahren auch sehr effizient und war in bestimmten Berechnungen Pascal voraus und legte sich mit Volta/Turing an.

In Spielen war Vega aber dann doch eher langsam für das, was sie in OpenCL und Co an Rechenleistung ablieferte. Der Test hier zeigt jetzt erst mal: Im Compute-Workloads ist die Architektur von Intel ähnlich effizient wie Ampere/Turing und ebenso RDNA2.

Es zeigt sich in den Tests auch, dass RDNA2 in bestimmten Szenarios mit der Speicherbandbreite verhungert, weil nicht genug Daten kommen, während Xe etwas besser dasteht und Ampere richtig gut, weil passend Speicherbandbreite ist.

In anderen Szenarios, in der es eher auf die Rohleistung ankommt, verhalten sich die Karten entsprechend der zu erwartenden Rohleistung.
 
flaphoschi schrieb:
---Vollzitat entfernt---bitte Zitierhinweise beachten---
Kurz gesagt ..Ja
Intell will ja 4 Mio GPUs/APUs an den Man bringen .. wahrscheinlich direkt an miner mit Mengen Rabatt, da freut sich der Investor über seine Rendite.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: flaphoschi
SpartanerTom schrieb:
Beim ersten Chart in (halb)logarithmischer Darstellung bekomme ich PTSD. Wer macht sowas?
PTBS
PTBS
PTBS

Wenigstens a bissl deutsch. Wo macht man so was?
Grüße vom Trauma Patienten

CCIBS schrieb:
Am besten gefallen mir die 75 Watt und ich hoffe auch, dass die wirklich im Maximum da waren.
Naja, wenn die Karte ohne extra Anschluss kommt, schaut es gut aus.
 
  • Gefällt mir
Reaktionen: tritratrullala, Backfisch und SpartanerTom
Full intel pc cool zum basteln. Treiber muss passen höchstleistung ist Irrelevante. Gib dem Volk 2070Super Leistung für wenig geld und du hast millionen neue fans. Das wäre noch immer 2 mal schneller als das was der haushohe anteil der Pc Spieler hat. 👌
 
  • Gefällt mir
Reaktionen: v_ossi
Schon lustig, wie einige Leute Gamingperformance an irgendwelchen kryptischen Pseudobenchmarks ablesen können wollen.
Es ist und bleibt halt alles Wunschdenken.
Die Benches zeigen hier eigentlich sogar wunderbar, wie die Leistungsunterschiede sehr stark schwanken können, je nachdem, was man damit befeuern möchte.
Die Leistung steht für mich erst fest, wenn PCGH den 20-Spiele-Stresstest durchgezogen hat, und die Hardware und vor allem die Treiber halten, was Koduri großmundig versprochen hat. "Poor Volta 2.0"?
Und es wird spannend sein, wie gut die hauseigenen Features abseits von Rohleistung nützlich verwendet werden können.
Und zu der Sache mit dem Effizienzvergleich möchte ich nur mal anmerken, dass die Radeon 6500XT der absolut schlechteste Chip aus der Serie ist und 107W viel zu hoch angesetzt sind, da man den Takt weit über das Limit hinaus geschossen hat, um damit zumindest die altehrwürdige RX580 zu schlagen.
Normalerweise wäre das eine maximal 75 Watt Karte gewesen, bei vernünftiger Einstellung.
Das sieht man alleine daran, dass die R6600XT, der einen doppelt so großen Chip hat, lediglich 130 Watt benötigt, bei dementsprechend massiv mehr Leistung pro Watt.
Mit solchen Karten muss sich Intel messen lassen, wenn man über deren technische Umsetzung in Sachen Leistung und/oder Effizienz-Ausrichtung spricht, und wie die Leistung ggf. dann je nach Anwendungsfall auf den Asphalt gebracht wird.
Hexen kann niemand, wenn der gleiche Fertigungsweg genutzt wird.
Wenn jeder seine Arbeit macht, sollte man bei gleicher Strategie auch oftmals ähnliche Ergebnisse erzielen können.
Das sehen wir ja auch bei den Prozessoren, dass man mit ein paar Anpassungen gar nicht mehr soo riesige Abweichungen zueinander hat, wie es zunächst erscheinen mag.
So waren die (größeren) letzten Intel-Chips unter richtiger Vollast reine Stromverschwender, aber im Alltag und mit genormten BIOS-Einstellungen laufen Spiele nicht unbedingt schlechter, die 400er sollen ja sogar richtig sparsam sein.
 
  • Gefällt mir
Reaktionen: kachiri
Mal abwarten, wenn die kleinere Modelle gut skalieren heißt es nicht das die größeren ebenfalls so gut laufen.
Das hat man bei AMD in der Vergangenheit auch öfters gesehen.

Bisher scheinen die Zeichen für Intel aber nicht schlecht zu stehen.
 
Zurück
Oben