News Intel Arc A380 („Alchemist“): Erste Benchmarks im Vergleich mit Ampere, Turing und Navi

Das ist doch Mist, wer will das haben? Niemand, der Grafikleistung braucht. Bestenfalls 5 Jahre alte Mittelklasse, mehr ist das nicht.
 
Laufen eigentlich AES-Ver- und Entschlüsselungen z. B. vom Dateisystem rein über die CPU oder wird auch die GPU genutzt?

An sich wäre das eine schöne gehobene Office-GPU mit 75 Watt.
 
In Sachen Berechnung von Kryptographie mittels AES-128 und AES-256 zeichnet Alchemist aktuell noch ein sehr düsteres Bild und landet weit abgeschlagen auf dem letzten Platz.
endlich mal eine gute Nachricht
 
  • Gefällt mir
Reaktionen: Veitograf, 7LZ, Bert und 2 andere
Muss man mal abwarten, was die GPUs da leisten, wo sie hauptsächlich eingesetzt werden. Als Workstation GPUs könnten die bei den Ergebnissen schon passen. Nützt natürlich wenig, wenn man die als Gaming GPUs vermarktet.

Wird man alles sehen müssen. Aber sagen wir so, die Radeon Vega war je nach theoretischen Benchmark auch schneller als eine 1080Ti. Das nützte einem nur wenig, wenn man eine GPU zum Spielen wollte.

Von daher abwarten und Tee trinken. Könnten gute GPUs werden. Das kann man aber aus den Ergebnissen so nicht rauslesen. Auch die Effizienz nicht. Wir wissen nicht, was Sie wirklich unter der TDP verstehen. AMD, Intel und Nvidia haben da ja durchaus verschiedene Auffassungen.

Ich würde mir aber wünschen, dass die Chips was taugen. Glauben werde ich es aber erst dann, wenn unabhängig die Leistungsfähigkeit nachgewiesen worden ist.
 
  • Gefällt mir
Reaktionen: Lindar, Onkel Föhn, feris und eine weitere Person
Wenn auch vielleicht sonst nichts, wenigstens technisch wird Alchemy bestimmt interessant.
 
Gibts irgend einen legitimen Grund, solche Ergebnisse mit log-Skala darzustellen?
Ansonsten hat das den Beigeschmack, dass man größere Abstände optisch möglichst klein halten will...
 
  • Gefällt mir
Reaktionen: Ernie75, Felix#, Lemiiker und 4 andere
Evtl. sollte im Artikel nochmal explizit erwähnt werden, dass diese Benches nichts zur Gamingperformance von Alchemist aussagen.
Wenn ich nämlich so manche Kommentare zu dem Artikel lese, gewinne ich zumindest den Eindruck, dass die Leute sich aufgrund dieser Benches Versprechungen zur Gamingperformance von Alchemist machen..
 
  • Gefällt mir
Reaktionen: stevefrogs, TechFunk, NerdmitHerz und 4 andere
CCIBS schrieb:
Am besten gefallen mir die 75 Watt und ich hoffe auch, dass die wirklich im Maximum da waren. Denn in letzter Zeit haben nämlich TDP die Aussagegraft des Benzinverbrauch vom Hersteller.

Hast du ein paar Quellen dazu? Im CB Test sind bei den letzten Karten keine signifikanten Abweichungen erkennbar.

Links offiziell; Rechts gemessen in Games
6500XT 107W / 103W
6600 130W / 135W
6600XT 160W / 148W
3050 130W /129W
3060 170W / 173W
 
  • Gefällt mir
Reaktionen: Rockstar85
Wenn sich das auch in spielen wiederspiegelt, dann ist das ne Knaller Karte.
75watt, ordentliche Leistung und 6gb RAM (und damit nicht interessant für miner).
Damit könnte man auf dem Papier echt nen Knaller liefern.
Das wäre eine solide low-range Möhre mit wenig Verbrauch.

Betonung liegt auf "auf dem Papier".
Denn wie sagte Alfred Preißler so schön: " Grau is' im Leben alle Theorie – aber entscheidend is' auf'm Platz".

Und die Verfügbarkeit, da sehe ich nen riesen ?.
 
  • Gefällt mir
Reaktionen: 7LZ und Wintermute
Es ist komisch, dass es keine Gaming Benchmarks gibt sondern immer nur kryptische Benchmarks.
Viele denken bestimmt das suggeriert auch eine hohe Gamingleistung.
 
  • Gefällt mir
Reaktionen: Rockstar85
6GB sind sogar sehr interessant für Miner, 5GB ist das aktuelle Minimum.
Und wie man auf Spiele Leistung schließen will, erschließt sich mir nicht.
SHA2? Mpix/s? AES? Nichts davon ist für Gaming interessant.

Nur Flops geben annäherend einen Hinweis zur Gaming Leistung, wobei hier auch nur innerhalb einer Arch verglichen werden darf (siehe Vega vs Pascal oder aktuell Navi vs Ampere)
 
1-1260.78798f4e.png

Also das Diagramm hätte man sich auch sparen können ... wie albern die x-Achse beschriftet ist und wie sich die Balken in Relation dazu verhalten .. herrlich
 
  • Gefällt mir
Reaktionen: stevefrogs, Lemiiker, hanjef und 3 andere
Für mich wäre die Hauptsache, das man endlich wieder eine halbwegs vernünftige Grafikkarte für FHD bekommt und das dann möglichst auch für unter 200 €.:D
 
  • Gefällt mir
Reaktionen: Lemiiker
Auch wenn man keine Gaming Leistung davon ableiten kann, finde ich es zumindest gut, dass die Intel bei den GPGPU Sachen bei einer niedrigeren TDP mithalten kann.
 
@NguyenV3
Da habe ich mich wirklich etwas zu allgemein ausgedrückt. Intel kenne ich jetzt Hauptsächlich von der CPU und dort den TDP angaben, mit den ganzen Turbostufen, welche man auch dauerhaft betreiben kann, wenn man will.

Ich hätte also schreiben müssen.

"Am besten gefallen mir die 75 Watt und ich hoffe auch, dass die wirklich im Maximum da waren, und es nicht irgendwelche noch unbekannte Turbostufen gab, mit einer weit hören TDP Anhabe. Denn in letzter Zeit haben nämlich die TDP anhaben bei Intel durch die ganzen Turbostufen, die Aussagegraft des Benzinverbrauch vom Hersteller."

Solche Turbostufen sind bei Grafikkarten jetzt wirklich weniger typisch, als bei der CPU, weshalb sie da eher Punktgenau zutreffen. Als neuer Player bei dGPU warte ich bei Intel aber dann noch ab, ob es bei ihren Grafikkarten dann auch so treffsichere Werte sind, als bei den anderen, und ihnen beim erscheinen nicht doch noch die Idee kommt, es gibt einen Turbo, welche zwar bis jetzt noch nicht so erwähnt wurde, aber bei den ganzen Vorabtests schon existiert.
 
Knaecketoast schrieb:
Also das Diagramm hätte man sich auch sparen können ... wie albern die x-Achse beschriftet ist und wie sich die Balken in Relation dazu verhalten .. herrlich

Müsste 10. Klasse Mathe sein...
 
  • Gefällt mir
Reaktionen: [wege]mini, tritratrullala und 7H0M45
S.Kara schrieb:
Nein.


Wieso? Wenn die kleinste Karte mit 1024 ALUs mit einer 3050 mithalten kann, wird die große mit 4096 ALUs sicherlich mit einer 3060 mithalten können.
Es wird wohl nur an der Stückzahl hapern.
Über die Skalierung kann man noch nichts genaues sagen. Das ist aber an sich weniger das Thema.
Vielmehr hat Intel noch einiges zu leisten. Intel ist bei Grafik noch gar nicht etabliert, die Vergangenheit ist wenig rühmlich. Woher weiß ich, dass die Karten nicht bald wieder eingestellt werden und es keine neuen Treiber mehr gibt?
Wie gut funktionieren Treiber in Spielen und Anwendungen? Wie gut reagiert Intel auf Fehler und neue Software? Läuft alles gut oder gibt es Probleme?
Sind Stromverbrauch und Unterstützung der Software passend?
Wo ist der große Vorteil gegenüber Nvidia und AMD? Man mag jetzt günstiger sein, aber das wird nicht ewig so bleiben. Wer greift bei vergleichbarem Preis zu Intel? Kann Intel überhaupt größere Mengen liefern?

Viele Fragen, die noch offen sind. Ich sehe nicht, dass Intel in den nächsten Jahren den Markt wirklich aufwirbeln könnte.
Ich mag mich irren. Wenn es so kommen sollte, darfst du mich gerne zitieren.
 
Zuletzt bearbeitet: (Blöde Autokorrektur)
  • Gefällt mir
Reaktionen: MasterAK
ssh schrieb:
Das ist doch Mist, wer will das haben? Niemand, der Grafikleistung braucht. Bestenfalls 5 Jahre alte Mittelklasse, mehr ist das nicht.
Entweder verstehe ich deine Ironie nicht, oder aber du wärst eh kein Kunde, der sich eine GTX 1660 Ti, RTX 3050 oder RX 6500 XT kauft.

Keine dieser Karten und auch nicht die Arc A380 richtet sich an Nutzer, die in WQHD oder gar in 4K die Details sehr weit aufdrehen würden. Auch in Full-HD sind 6 GB Videospeicher schon meist zu wenig.

"Wir" Gamer sind nicht der Nabel der PC Welt. So leid es mir tut, daß sind halt die großen OEM Hersteller, die Nutzer vom Schlage Tante Erna und Onkel Otto bedienen. Oder Firmen, die Großkunden wie Behörden und Krankenhäuser, Universitäten, etc. versorgen. Und dort reicht eine iGPU / APU nicht immer aus.

Nebenbei...wenn Intel mit dem kleinen Ableger seiner ersten eigenständigen Grafikkartenserie direkt mit den Karten messen kann, ist das doch schon ganz in Ordnung. Bis zum Launch fließt noch viel Wasser den Rhein runter, dementsprechend kann Intel die Treiber weiter optimieren.

Grundsätzlich: wenn das für dich Mist ist, steht es dir doch frei, dich bei Intel in der Entwicklungsabteilung zu bewerben. Fähige Köpfe und gute Ansätze kann jede Firma brauchen. Also auf, auf, sprach der Fuchs zum Hasen. Wenn du dich da auskennst, hau rein in die Tasten zur Bewerbung. ;)
 
  • Gefällt mir
Reaktionen: CueSystem, hanjef, Innocience und 2 andere
Zurück
Oben