Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intel Arc A380 („Alchemist“): Erste Benchmarks im Vergleich mit Ampere, Turing und Navi
quakegott
Lt. Commander
- Registriert
- Okt. 2008
- Beiträge
- 1.459
Ich kann mir gut vorstellen das der Kampf hier über den Preis gehen würde. Bei einer brauchbaren Karte zu einem angemessenen Preis könnte man den Skalpern den wind aus den Segeln nehmen. Aber Intel muss definitiv am Treiber arbeiten. Die sind weit hinter der Konkurrenz.
edenjung
Admiral
- Registriert
- Dez. 2014
- Beiträge
- 9.163
@quakegott
Das kann Intel gerne versuchen. Aber spätestens der Handel legt da +300€ drauf. Oder die Board-Partner.
Intel kann die Preise am Markt nicht diktieren.
Und was viele hier auch immer wieder vergessen ist der Mangel an Substraten, packaging- Kapazitäten, Boardkomponenten, ram und, und, und.
Die Chips sind schon und gut, aber wenn man keine Boards ausstatten kann, dann helfen einem auch keine 5 Millionen Chips.
Und das machen die Board-Partner oder Unternehmen die Intel damit beauftragt. Die kaufen am Markt die Teile ein. Und das muss dann am Ende auch bezahlt werden.
Es ist ja nett, dass alle hoffen das Intel der Heiland sei, aber das sind die auch nicht. Bzw. Können die nicht zaubern. Sonst würden die Merlin heißen.
Das kann Intel gerne versuchen. Aber spätestens der Handel legt da +300€ drauf. Oder die Board-Partner.
Intel kann die Preise am Markt nicht diktieren.
Und was viele hier auch immer wieder vergessen ist der Mangel an Substraten, packaging- Kapazitäten, Boardkomponenten, ram und, und, und.
Die Chips sind schon und gut, aber wenn man keine Boards ausstatten kann, dann helfen einem auch keine 5 Millionen Chips.
Und das machen die Board-Partner oder Unternehmen die Intel damit beauftragt. Die kaufen am Markt die Teile ein. Und das muss dann am Ende auch bezahlt werden.
Es ist ja nett, dass alle hoffen das Intel der Heiland sei, aber das sind die auch nicht. Bzw. Können die nicht zaubern. Sonst würden die Merlin heißen.
Booby
Lt. Commander
- Registriert
- Feb. 2005
- Beiträge
- 1.970
Ich glaube, hier sehen es manche zu rosig. Das sind Benchmarks die keine Treiber-Optimierung erfordern, da exterem low-level. Das ist das bestmögliche Szenario für Intel. Und selbst da sieht man, dass man Harware-technisch maximal auf Augenhöhe ist. Man ist +/- bei der 6500XT und die wird überall (größtenteils übertrieben) verrissen.
Katzenjoghurt
Lt. Commander
- Registriert
- Aug. 2005
- Beiträge
- 1.989
Ich frage mich, wieviele (Gamer) am Ende tatsächlich gewillt sind, zur Arc zu greifen, selbst wenn die Leistung einer 3070 für 25% weniger Kaufpreis erreicht werden könnte.
Ich vermute, die meisten hoffen v.a. auf Preisdruck auf die Konkurrenz, um dort dann ein etwas günstiger gewordeneres Produkt mit gereifteren Treibern (und weniger Ärger in Spielen) kaufen zu können.
Also: Dass möglichst viele die Arc kaufen… nur man selbst halt nicht, weil keinen Bock auf Early Adoption.
Ich vermute, die meisten hoffen v.a. auf Preisdruck auf die Konkurrenz, um dort dann ein etwas günstiger gewordeneres Produkt mit gereifteren Treibern (und weniger Ärger in Spielen) kaufen zu können.
Also: Dass möglichst viele die Arc kaufen… nur man selbst halt nicht, weil keinen Bock auf Early Adoption.
Ltcrusher
Fleet Admiral
- Registriert
- März 2004
- Beiträge
- 14.564
@Katzenjoghurt du kannst natürlich richtig liegen, aber seit dem Parhelia "Debakel" von Matrox gab es keine Alternative zu ATi / nVidia bzw. heute natürlich AMD / nVidia. Und es wäre mal wieder Zeit für einen dritten Mitspieler.
Gibt genug Kunden für Karten in den Leistungsklassen RTX 3060 / RTX 3060 Ti und RX 6600 XT / RX 6700 XT, so daß eine Intel Karte mit einer wenn auch nur halbwegs vernünftigen Verfügbarkeit und annehmbaren Preis hier Punkten kann - wenn die angestrebte Leistung dann passt.
Das Intel nicht direkt eine RTX 3080 oder RX 6800 XT in den Schatten stellen wird, sollte jedem klar sein.
Um es mit Franz Beckenbauer zu halten: Schaun mer mal.
Gibt genug Kunden für Karten in den Leistungsklassen RTX 3060 / RTX 3060 Ti und RX 6600 XT / RX 6700 XT, so daß eine Intel Karte mit einer wenn auch nur halbwegs vernünftigen Verfügbarkeit und annehmbaren Preis hier Punkten kann - wenn die angestrebte Leistung dann passt.
Das Intel nicht direkt eine RTX 3080 oder RX 6800 XT in den Schatten stellen wird, sollte jedem klar sein.
Um es mit Franz Beckenbauer zu halten: Schaun mer mal.
Danke für das vorinterpretieren der Diagramme, selbst vergleichen wär mir bei diesem Format viel zu mühlsehlig.
Ein exponentielles Balkenwachstum für diese Benchmarks auszuwählen ist für diesen Vergleich völliger Unfug.
Wenn nur ein paar Milimeter für fast den doppelten Score herhalten, hätte man sich alles abseits reiner Zahlen auch sparen können.
Ein exponentielles Balkenwachstum für diese Benchmarks auszuwählen ist für diesen Vergleich völliger Unfug.
Wenn nur ein paar Milimeter für fast den doppelten Score herhalten, hätte man sich alles abseits reiner Zahlen auch sparen können.
Aufwirbeln vielleicht nicht, aber einen Namen werden sie sich machen können. Intel lies ja schon verlauten dass sie 2022 4 Mio Stück anpeilen. AMD hat letztes Jahr auch "nur" um die 10 Mio diskrete GPUs verkauft.Excel schrieb:Viele Fragen, die noch offen sind. Ich sehe nicht, dass Intel in den nächsten Jahren den Markt wirklich aufwirbeln könnte.
Die Gerüchte sagten ja bereits letztes Jahr Leistung in Richtung 2070 voraus. Das ist nicht die Welt, aber für viele wohl ausreichend.
Die Frage Intel, AMD oder Nvidia werden sich denke die wenigsten stellen. Hier im Forum ja, aber nicht so affine Leute werden sicherlich auf Preis/Leistung gehen oder irgendwelche Angebote mitnehmen.
Treiber und FPS müssen passen, das stimmt. Da bleibt aktuell nur zu hoffen dass Intel das nicht verkackt.
flaphoschi
Lt. Commander
- Registriert
- Jan. 2018
- Beiträge
- 1.694
Ist das jetzt eine Grafikkarte oder eine Zusatzbeschleuniger? 75 Watt ist angenehm wenig, nur intessiere ich mich bei einer Grafikkarte primär für OpenGL bzw. Vulkan und sekundär für Videoencoding. Die GPGPU-Eigenschaften interessieren mich - überhaupt nicht. Für General Computing habe ich eine CPU.
Habe ich den primären Zweck falsch verstanden und Intel zielt auf Miner?
Ich verorte mich selbst im Team AMD. Aber wenn ein dritter Hersteller etwas GPU-Leistung anbietet, wäre das ein Segen für alle. Die sollen ruhig etwas Druck auf AMD und Nvidia ausüben, ohne die Konkurrenz auszulöschen. Wettbewerb wünsche ich mir. Und AMD soll ruhig Intel weiter bei den CPUs vor sich hertreiben...immer weiter
Habe ich den primären Zweck falsch verstanden und Intel zielt auf Miner?
Ich verorte mich selbst im Team AMD. Aber wenn ein dritter Hersteller etwas GPU-Leistung anbietet, wäre das ein Segen für alle. Die sollen ruhig etwas Druck auf AMD und Nvidia ausüben, ohne die Konkurrenz auszulöschen. Wettbewerb wünsche ich mir. Und AMD soll ruhig Intel weiter bei den CPUs vor sich hertreiben...immer weiter
- Registriert
- Juli 2021
- Beiträge
- 2.717
Nicht unbedingt.Gortha schrieb:Wenn das wirklich aus Effizienzsicht sehr gute Chips werden, dann kann das Intel-High-End-Portfolio, also DG 512 meine ich, locker NVidias und AMDs Mittelklasse stark vom Markt verdrängen.
Kommt auch das Szenario an, hier wurde primär OpenCL miteinander verglichen und in OpenCL war Vega vor nun gut 5 Jahren auch sehr effizient und war in bestimmten Berechnungen Pascal voraus und legte sich mit Volta/Turing an.
In Spielen war Vega aber dann doch eher langsam für das, was sie in OpenCL und Co an Rechenleistung ablieferte. Der Test hier zeigt jetzt erst mal: Im Compute-Workloads ist die Architektur von Intel ähnlich effizient wie Ampere/Turing und ebenso RDNA2.
Es zeigt sich in den Tests auch, dass RDNA2 in bestimmten Szenarios mit der Speicherbandbreite verhungert, weil nicht genug Daten kommen, während Xe etwas besser dasteht und Ampere richtig gut, weil passend Speicherbandbreite ist.
In anderen Szenarios, in der es eher auf die Rohleistung ankommt, verhalten sich die Karten entsprechend der zu erwartenden Rohleistung.
DrSmugface
Cadet 2nd Year
- Registriert
- Nov. 2021
- Beiträge
- 29
Kurz gesagt ..Jaflaphoschi schrieb:---Vollzitat entfernt---bitte Zitierhinweise beachten---
Intell will ja 4 Mio GPUs/APUs an den Man bringen .. wahrscheinlich direkt an miner mit Mengen Rabatt, da freut sich der Investor über seine Rendite.
Zuletzt bearbeitet von einem Moderator:
- Registriert
- Jan. 2018
- Beiträge
- 18.903
PTBSSpartanerTom schrieb:Beim ersten Chart in (halb)logarithmischer Darstellung bekomme ich PTSD. Wer macht sowas?
PTBS
PTBS
Wenigstens a bissl deutsch. Wo macht man so was?
Grüße vom Trauma Patienten
Naja, wenn die Karte ohne extra Anschluss kommt, schaut es gut aus.CCIBS schrieb:Am besten gefallen mir die 75 Watt und ich hoffe auch, dass die wirklich im Maximum da waren.
Cerebral_Amoebe
Admiral
- Registriert
- Sep. 2008
- Beiträge
- 8.620
Pchelp88
Banned
- Registriert
- Feb. 2022
- Beiträge
- 157
Full intel pc cool zum basteln. Treiber muss passen höchstleistung ist Irrelevante. Gib dem Volk 2070Super Leistung für wenig geld und du hast millionen neue fans. Das wäre noch immer 2 mal schneller als das was der haushohe anteil der Pc Spieler hat. 👌
Schon lustig, wie einige Leute Gamingperformance an irgendwelchen kryptischen Pseudobenchmarks ablesen können wollen.
Es ist und bleibt halt alles Wunschdenken.
Die Benches zeigen hier eigentlich sogar wunderbar, wie die Leistungsunterschiede sehr stark schwanken können, je nachdem, was man damit befeuern möchte.
Die Leistung steht für mich erst fest, wenn PCGH den 20-Spiele-Stresstest durchgezogen hat, und die Hardware und vor allem die Treiber halten, was Koduri großmundig versprochen hat. "Poor Volta 2.0"?
Und es wird spannend sein, wie gut die hauseigenen Features abseits von Rohleistung nützlich verwendet werden können.
Und zu der Sache mit dem Effizienzvergleich möchte ich nur mal anmerken, dass die Radeon 6500XT der absolut schlechteste Chip aus der Serie ist und 107W viel zu hoch angesetzt sind, da man den Takt weit über das Limit hinaus geschossen hat, um damit zumindest die altehrwürdige RX580 zu schlagen.
Normalerweise wäre das eine maximal 75 Watt Karte gewesen, bei vernünftiger Einstellung.
Das sieht man alleine daran, dass die R6600XT, der einen doppelt so großen Chip hat, lediglich 130 Watt benötigt, bei dementsprechend massiv mehr Leistung pro Watt.
Mit solchen Karten muss sich Intel messen lassen, wenn man über deren technische Umsetzung in Sachen Leistung und/oder Effizienz-Ausrichtung spricht, und wie die Leistung ggf. dann je nach Anwendungsfall auf den Asphalt gebracht wird.
Hexen kann niemand, wenn der gleiche Fertigungsweg genutzt wird.
Wenn jeder seine Arbeit macht, sollte man bei gleicher Strategie auch oftmals ähnliche Ergebnisse erzielen können.
Das sehen wir ja auch bei den Prozessoren, dass man mit ein paar Anpassungen gar nicht mehr soo riesige Abweichungen zueinander hat, wie es zunächst erscheinen mag.
So waren die (größeren) letzten Intel-Chips unter richtiger Vollast reine Stromverschwender, aber im Alltag und mit genormten BIOS-Einstellungen laufen Spiele nicht unbedingt schlechter, die 400er sollen ja sogar richtig sparsam sein.
Es ist und bleibt halt alles Wunschdenken.
Die Benches zeigen hier eigentlich sogar wunderbar, wie die Leistungsunterschiede sehr stark schwanken können, je nachdem, was man damit befeuern möchte.
Die Leistung steht für mich erst fest, wenn PCGH den 20-Spiele-Stresstest durchgezogen hat, und die Hardware und vor allem die Treiber halten, was Koduri großmundig versprochen hat. "Poor Volta 2.0"?
Und es wird spannend sein, wie gut die hauseigenen Features abseits von Rohleistung nützlich verwendet werden können.
Und zu der Sache mit dem Effizienzvergleich möchte ich nur mal anmerken, dass die Radeon 6500XT der absolut schlechteste Chip aus der Serie ist und 107W viel zu hoch angesetzt sind, da man den Takt weit über das Limit hinaus geschossen hat, um damit zumindest die altehrwürdige RX580 zu schlagen.
Normalerweise wäre das eine maximal 75 Watt Karte gewesen, bei vernünftiger Einstellung.
Das sieht man alleine daran, dass die R6600XT, der einen doppelt so großen Chip hat, lediglich 130 Watt benötigt, bei dementsprechend massiv mehr Leistung pro Watt.
Mit solchen Karten muss sich Intel messen lassen, wenn man über deren technische Umsetzung in Sachen Leistung und/oder Effizienz-Ausrichtung spricht, und wie die Leistung ggf. dann je nach Anwendungsfall auf den Asphalt gebracht wird.
Hexen kann niemand, wenn der gleiche Fertigungsweg genutzt wird.
Wenn jeder seine Arbeit macht, sollte man bei gleicher Strategie auch oftmals ähnliche Ergebnisse erzielen können.
Das sehen wir ja auch bei den Prozessoren, dass man mit ein paar Anpassungen gar nicht mehr soo riesige Abweichungen zueinander hat, wie es zunächst erscheinen mag.
So waren die (größeren) letzten Intel-Chips unter richtiger Vollast reine Stromverschwender, aber im Alltag und mit genormten BIOS-Einstellungen laufen Spiele nicht unbedingt schlechter, die 400er sollen ja sogar richtig sparsam sein.
bondki schrieb:Vorteilhaft geschönt worden für Intel die Graphen. Lmao
Auch bei anderen Reviews wurden die gleichen Graphen verwendet.
Nennt sich logarithmische Darstellung.
https://www.sisoftware.co.uk/2021/01/27/amd-radeon-rx-6800/
https://www.sisoftware.co.uk/2021/01/25/amd-radeon-rx-6900xt/
https://www.sisoftware.co.uk/2020/1...-ampere-gpgpu-performance-in-cuda-and-opencl/
Sephiroth51
Lt. Commander
- Registriert
- Mai 2009
- Beiträge
- 1.672
Mal abwarten, wenn die kleinere Modelle gut skalieren heißt es nicht das die größeren ebenfalls so gut laufen.
Das hat man bei AMD in der Vergangenheit auch öfters gesehen.
Bisher scheinen die Zeichen für Intel aber nicht schlecht zu stehen.
Das hat man bei AMD in der Vergangenheit auch öfters gesehen.
Bisher scheinen die Zeichen für Intel aber nicht schlecht zu stehen.