News Intel Battlemage: Zwei Custom-Designs der Arc B580 auf Amazon gesichtet

Slainer schrieb:
Alternativ kann man sich einfach auch hinstellen und meckern ...
Da hast du sicherlich recht mit dem Informationen sammeln. Übrigens meckere ich nicht, würde eh keine Intel Grafikkarte kaufen wollen.

Als AMD für ihren 287 den Microcode des 286 übernahmen (wozu Sie nach einem Vertrag von 1977 berechtigt waren) prozessierte Intel gegen AMD, weil in den alten Dokumenten von "Mikrocomputer" die Rede war. Dieser Begriff war damals synonym mit dem für Microcode, aber Ende der achtziger Jahre verstand jeder darunter einen kompletten Computer). So sah der Prozess sehr schlecht aus und AMD verlor in der ersten Instanz. Als dann Intel wegen der Verhandlung der Lizenzforderung die Prozessunterlagen zuschicken musste stellte ein AMD Mitarbeiter fest, dass es ein Dokument zweimal gab. Einmal mit neuerem Datum und vollem Text und einmal älteren Datums ohne eine Passage in der der Begriff "Microcode" vorkam: Intel hatte die Beweismittel gefälscht und damit konnte AMD das Urteil anfechten und gewann.
https://bernd-leitenberger.de/intelstory.shtml
 
  • Gefällt mir
Reaktionen: Clonedrone, Rockstar85, SweetOhm und 2 andere
Alesis schrieb:
Übrigens meckere ich nicht, würde eh keine Intel Grafikkarte kaufen wollen.

Als AMD für ihren 287 den Microcode des 286 übernahmen (wozu Sie nach einem Vertrag von 1977...
Nun ja, das liest sich ziemlich markenaffin/-beschränkt und ewig-gestrig (Groll hegend), aber jede/r geht an einen Produktkauf eben anders heran, manche bezogen auf Marken/Emotionen, für andere stehen Marktentwicklung im Interesse/aus Sicht als Kunde im Vordergrund.
 
  • Gefällt mir
Reaktionen: MalWiederIch, Slainer und duskstalker
Ich sag es immer wieder gern : Treiber und Kostenpunkt sind für den Markt entscheidend.

Was bringt einem eine GPU die keine guten Treiber zur Verfügung stehen hat? Richtig nix, außer ausgaben und ärger...
 
Slainer schrieb:
Kaufen und Telemetriedaten zur Verfügung zu stellen.

Ganz sicher nicht. Bei aller Liebe, aber ich (Und ich hoffe auch viele andere nicht!) spiele kein Versuchskaninchen/Laborrate/Betatester/Bananenware-Käufer für einen riesigen Konzern wie Intel. Die sollen das mal schön selbst auf die Reihe kriegen, dann kann man auch eine Empfehlung fürs Gaming für die Karten aussprechen.

Für Multimedia sind ja die jetzigen Karten schon eine gute Empfehlung, AV1 En-/Decoding sei Dank. Vor allem die kleinen Modelle sind da sehr interessant.
 
  • Gefällt mir
Reaktionen: NMA
Randnotiz schrieb:
Der Stromverbrauch von ARC ist verhältnismäßig gering, der Anschaffungspreis war es auch, doch bis auf weiteres brauche ich keinen Ersatz für meine 5700.


Der Stromverbrauch war doch der größte Kritikpunkt am Hardware-Teil von Arc?

Zumal gerade RDNA2 im Vergleich ja besonders effizient war und nVidia dann mit den 4000ern nachgezogen hat.

Eine potenzielle B770 wäre schon interessant, meine 6700XT wartet auf Ablösung. Wenn sie Leistung stimmt, man im Vergleich zu Arc bei der Effizienz zugelegt hat und die Software passt... warum nicht?
Wobei ich kaum glaube, dass man ein vernünftiges Gesamtpaket auf den Markt bringen kann. Dann müsste man über den Preis kommen, was ja auch nicht verkehrt ist, für uns als Kunden. Aber ich brauche auch z.B. WaKü-Blöcke für keine GPUs, da wird's dann schon wieder eng.

Wenn AMD wirklich die versprochene Leistung bringt wird's aber eine RDNA4. Im Grunde muss man nur wieder bei RDNA2 anknüpfen, was Effizienz angeht, und deutlich mehr RT-Leistung bieten. Dann bin ich dabei. Der Rest stimmt ja aktuell auch schon.
 
  • Gefällt mir
Reaktionen: SweetOhm
Randnotiz schrieb:
Ne A770 zieht 230W liegt in der Performance etwas unterhalb einer 4060, die 130W zieht.

Die A380 ist so schnell wie ne uralte 1650 und verbraucht dabei auch so viel wie diese.

Wo ist das gering im Vergleich zu NVIDIA?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Taxxor schrieb:
Wo ist das gering im Vergleich zu NVIDIA?
Was die kleine A380 macht, hab ich tatsächlich nie verfolgt.

Als wer, der wie erwähnt noch eine 5700 im System hat (siehe Signatur zum Stand des Postings), ist die A770 jetzt gar kein so übler Griff.

Am Ende des Tages muss man aber wohl alle Karten in ihrem Hunger etwas eingrenzen, um diese generell effizient betreiben zu können, egal aus welchem Lager.
So zumindest mein Eindruck der letzten Jahre.
 
  • Gefällt mir
Reaktionen: SweetOhm
Randnotiz schrieb:
Als wer, der wie erwähnt noch eine 5700 im System hat (siehe Signatur zum Stand des Postings), ist die A770 jetzt gar kein so übler Griff.
Die 5700 ist doch effizienter als ne A770, sie ist ca 15% langsamer bei 75% des Verbrauchs(175W zu 230W).
Wer würde denn für ~20% mehr aufrüsten und das auch noch für schlechtere Effizienz?

Und du sagtest im Vergleich zu NVIDIA, die sind noch mal deutlich effizienter als AMD und bekommen die Performance der A770 bei fast halbem Verbrauch hin.

Bei AMD ist sie ca so schnell wie ne 6650XT, die die Leistung aber mit 175 statt 230W hinbekommt.

Also Verbrauch ist mit das erste was gegen Arc spricht, neben der inkonsistenten Leistung natürlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MaverickM, NMA, Deinorius und eine weitere Person
Bin gespannt auf die Leistung im Gegensatz zur A-Serie.
 
  • Gefällt mir
Reaktionen: Mcr-King
Hurricane.de schrieb:
Da ich es für absolut ausgeschlossen halte dass Battlemage (in der Ausbaustufe auch noch) so viel saufen wird,
Deswegen ist die ARC 750 8GB manchmal schon für 180€ zu haben wie bei NB und Amazon zur zeit. ;)
 
  • Gefällt mir
Reaktionen: SweetOhm
Ein paar zusätzliche Details, die VCZ auffielen, sind sind ein PCIe 5.0x8 Anschluss (evt. relevant, falls mehr als zwei SSDs auf dem Mainboard dann mit dGPU Lane-Sharing problematisch werden könnten) und maximal dürften wohl 225W TDP bei der ASRock Challenger möglich sein, die (im Gegensatz zum Steel Legend Modell) nur einen Anschluss hat, aber inwieweit da auch OC Potential/Spielraum enthalten ist, kann man von außen aktuell wohl kaum wissen.

1732385940739.png



Hoffentlich ist die Speicherbandbreite nicht limitierend bei der B580, auch wenn die Battlemage Karte höher takten soll als der Alchemist Vorgänger.

Unter 200 US$ zum Marktstart mit bspw. 20% mehr Leistung und besserer Effizienz fände ich schon ziemlich stark für die B580 und vielleicht ist Lunar Lake Xe2 (der die nicht schlechte Strix Point Grafikeinheit von AMD effizienztechnisch noch locker hinter sich lässt) ein guter Indikator, auch wenn iGPUs eben nicht einfach auf kommende dGPUs mit gleicher Architektur umgemünzt werden können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, NMA und Mcr-King
@Hurricane.de
Amazon gibt zwar nichts preis. B580 passt zu einem vorherigen Leak:
24 Xe-Cores
192 Shader
https://forums.anandtech.com/thread...marks-are-here.2526376/page-193#post-41272362
hier mit der Annahme 50% Leistungszuwachs zur A750 mit Platzierung unter der RX6800/RTX3070TI

Legalev schrieb:
Wird halt darauf hin auch zu sehen sein, in weit Intel mit ihren Treibern ist,
Hilft mir nix ne Rohleistung zu haben, aber der Treiber ist nicht zu gebrauchen.

Deswegen interessieren mich die Daten der Karten zunächst nur Sekundär.
Fällt und steht alles mit den Treibern
An den Treibern liegt es wohl nicht mehr. XeSS soll besser laufen als FSR.
Im Vergleich zu FSR schneidet XeSS diesbezüglich weitaus besser ab. Größere Grafikfehler, die es sonst mit XeSS ganz gerne gibt, zeigen sich im neusten COD nicht.
https://www.computerbase.de/artikel/gaming/cod-black-ops-6-benchmark-test.90101/

Intel muss die Rohleistung besser nutzen. Battlemage soll hier ansetzen.
 
  • Gefällt mir
Reaktionen: Mcr-King, NMA, Hurricane.de und eine weitere Person
konkretor schrieb:
Wuhu, kommt doch noch.

Mal sehen ob Intel auch was bringt oder nur Customs
Vor allem besser als eine RTX5060/Ti mit 8GB ;)
 
  • Gefällt mir
Reaktionen: Convert, Chismon und konkretor
RTX 3070-Leistung für 200€ wären ein Traum.
Oder eine potente 75 Watt GPU.

Jetzt müssen nur noch die Chinesen mit ihren diversen GPU-Herstellern aufschließen und die fetten Margen von Ngreedia werden das Zeitliche segnen. :p
 
  • Gefällt mir
Reaktionen: Averomoe und Mcr-King
Combine schrieb:
hier mit der Annahme 50% Leistungszuwachs zur A750 mit Platzierung unter der RX6800/RTX3070TI

Naja, das klingt zu schön/optimistrisch um wahr zu sein für mich, also leider nach ungutem Hypetrain, der Erwartungshaltungen kontraproduktiv in die Höhe schrauben dürfte, nicht, dass ich mir das nicht wünschen würde, dass Battlemage wirklich stark in den passenden Full HD und WQHD Gaming-Marktsegmenten auf den Markt kommt (4K/UHD Gamingleistung sollte man damit sowieso nicht erwarten).

Ab 20% Mehrleistung und mit deutlicher besserer Effizienz fände ich wohl auch besser an den Start zu gehen als die dGPU ineffizient auf Maximalleistung getrimmt (an der "Kotzgrenze") auf den Markt zu werfen, denn preis-leistungstechnisch überlegen dürfte man mit Intel Arc weiterhin kommenden maßlos überteuerten 60er Serie nVidia Chip-Resterampekarten (die auch immer noch viel zu schwach für ordentliches RealTime-Raytracing sein dürften, auch wenn damit geworben werden dürfte).

nVidia RTX ist auch nicht der direkte Konkurrent von Intel Arc (da die 60er Serie technisch viel zu beschnitten und dafür teurer angesetzt ist), sondern eher AMD mit RDNA4 im Einsteiger -bis Mittelklasse-Grafikkartenbereich beim PC Desktop.

Combine schrieb:
XeSS soll besser laufen als FSR.

Davon gehe ich stark aus, zumal XeSS auch gerade angekündigt jetzt in über 200 Spielen auf Steam unterstützt wird, nicht schlecht innerhalb einer dGPU-Generation, wenn man bedenkt wie lange es gedauert hat bis 200 Spiele RTX unterstützt haben nach der RTX Turing Ankündigung damals.

AMD versucht ja erst jetzt technisch erst einmal auch XeSS aufzuschließen (von der Verbreitung her liegen sie mit FSR natürlich weit vor XeSS) mit vermutlich einem neuen, evt. RDNA4-exklusiven FSR; DLSS ist dann noch ein Stückchen weiter entfernt (evt, auch mehr als ein Stückchen, falls nVidia das RTX 5000 exklusiv weiter aufgebohrt haben sollte).

Schon etwas älter das Video von Graphically Challenged, auch dennoch interessant, was Battlemage evt. bieten könnte (im Optimalfall, besser nicht hypen lassen):


Beim, im folgenden Red GamingTech Video erwähnten, Intel Arc Xe3p könnte "p" für "portable" stehen und eventuell einen (Xbox?) Handheld-Chip auf Intel Arc Celestial Basis, was auch interessant sein könnte und andeutet, dass man sich bei Intel nicht vor Celestial vom Grafikkartenmarkt verabschiedet:


Die B580 soll laut Leaks also gegen eine RTX 4060Ti leistungstechnisch antreten (und wird natürlich viel günstiger sein) bei geschätzten 130(+)W, schauen wir 'mal.

Sehr schade, wenn es in etwa so kommen sollte, nur eben leider nicht im Notebook per mobiler Arc B580.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und SP-937-215
Combine schrieb:
@Hurricane.de
Amazon gibt zwar nichts preis. B580 passt zu einem vorherigen Leak:
24 Xe-Cores
192 Shader
https://forums.anandtech.com/thread...marks-are-here.2526376/page-193#post-41272362
hier mit der Annahme 50% Leistungszuwachs zur A750 mit Platzierung unter der RX6800/RTX3070TI
Das hatte ich so tatsächlich noch nicht auf dem Schirm, ich hätte es so oder so aber auch nur mit Fragezeichen in den Artikel aufgenommen. Ich vermute mal, dass wir relativ bald relativ gesicherte Informationen über den Ausbau des Chips haben werden und das dann auch dementsprechend berichten können, denn die Zeichen stehen ja schon auf "Release noch in diesem Jahr", und da der Dezember kein Monat wie jeder andere ist, sind die letzten 10 Tage ja schon recht unwahrscheinlich.

Also entweder sehen wir Battlemage Anfang bis Mitte Dezember, oder doch erst zur CES, was ich angesichts der letzten Nachrichten aber für unwahrscheinlicher halte.
 
  • Gefällt mir
Reaktionen: Mcr-King und SweetOhm
Chismon schrieb:
Naja, das klingt zu schön/optimistrisch um wahr zu sein für mich, also leider nach ungutem Hypetrain, der Erwartungshaltungen kontraproduktiv in die Höhe schrauben dürfte, nicht, dass ich mir das nicht wünschen würde, dass Battlemage wirklich stark in den passenden Full HD und WQHD Gaming-Marktsegmenten auf den Markt kommt (4K/UHD Gamingleistung sollte man damit sowieso nicht erwarten).
Im Prinzip sehe ich das ähnlich. Die iGPU mit 8 Xe-Cores und 2 Ghz liegt jedoch schon gut im Rennen. Dreifache Ausführungseinheiten und 40-50% mehr Takt sollten hier deutlich im Mittelfeld landen.
RX6800/3070TI kann auch nur eine ungefähre Angabe sein, weil beide Karten je nach Spiel unterschiedlich abschnedien und 50% mehr Leistung als die A750 in einigen Spielen keine Mittelklasse wäre. 50% mehr reichen im erwähnten COD6 für die 3060, mit Augen zudrücken.
Der Sprung sollte nicht unmöglich sein.
 
  • Gefällt mir
Reaktionen: Chismon
Wenn Sie es schaffen die Dinger tatsächlich günstig und ausreichend vor Weihnachten auf den Markt zu bringen, dann könnten die damit einen guten Einstieg machen.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Zurück
Oben