Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel Battlemage: Arc B580 und Arc B570 für 249 und 219 US-Dollar vorgestellt
ich verstehe die Fertigung nicht. Mit N4P wäre bestimmt viel mehr möglich gewesen. Bei N5 hätte man auch gleich zum eigenen Intel 7 greifen können. Da frage ich mich, ob Intel es zunächst mit Intel 7 versucht hat,
Vielleicht in N3, aber wie weiter vorne schon erwähnt: da ist das Celestial Design auch schon fertig, da wär mir lieber die bringen dann gleich Celestial.
@Redirion
Fertigung großer Dies kostet ernstzunehmend Geld, wenn man ein Budgetprodukt plant ist da die teuerste Fertigung eher hinderlich. Solang Intel kein Angebot hat welches dem Platzhirsch die Stirn bieten kann und damit entsprechende Preise aufrufen kann, wird es keine Top Fertigung geben.
Der folgende Satz sagt leider schon alles was man wissen muss und Navi 44
sollte die 4060 bezüglich der Leistung / Fläche gar noch überbieten können.
"Der BMG-G21 kommt auf eine Größe von 272 mm² und auf 19,6 Milliarden Transistoren. Gefertigt wird dieser bei TSMC im N5-Verfahren. Damit ist die GPU deutlich größer als der konkurrierende AD107 auf der GeForce RTX 4060, der auf nur 159 mm² in 4N-Fertigung kommt, und nur knapp kleiner als der AD104 auf der GeForce RTX 4070, der 295 mm² groß ist."
Das ist wirklich traurig mitanzusehen, denn ein Dritter Player hätte uns sicherlich gut getan.
Aber so wird es dies wohl gewesen sein.
Ursprünglich habe ich mir diese Karte zugelegt, um ein wenig mit Stable Diffusion rumzuprobieren.
Nebenbei hat sie genug Dampf trotz nur 70W TDP um CS2 in competetive Settings zu stemmen, außerdem bin ich damals verhältnismäßig günstig an sie gekommen (250€).
Ist eine verdammt tolle Karte und wird dann in ein Linux-basiertes Konsolenbild auf ChimeraOS Basis für Frauchen weiter dienen.
Sie tut Ihren Job ziemlich gut, aber man merkt bei SD schon, dass sie halt nur 70W verheizen darf, daher kann ruhig etwas potenteres her, bis das Thema für mich wieder interessant wird, gerade jetzt wo FLUX und 3.5 massentauglich werden, sieht die leider keine Sonne.
Heute reicht die Leistung einer 3080 halt nicht mehr uneingeschränkt für 4k.
Wer 4k daddeln will und dann auch noch den Anspruch nach möglichst den höchsten Settings hat, der bezahlt halt aller zwei Jahre Geld für das neueste Flaggschiff. Das ist halt der Preis für 4k.
Heute ist das definitiv zu wenig und heute würdest du nicht auf die Idee kommen mit einer etwa gleichschnellen 7700 XT (die btw. weniger VRAM hat, als die 6800) 4k zu daddeln. Nicht, weil zu wenig VRAM, sondern, weil die Leistung einfach wirklich zu knapp ist.
Eine 4070 (ohne Super), GDDR6X, 12GB davon, PCI-E x16, halt so wie sie rauskam, für 350 Euro,
sie wäre millionefach verkauft, der Bestseller, vergriffen wegen hoher Nachfrage, konkurrenzlos, die meist verkaufte Grafikkarte aller Zeiten, usw usw. aber leider verhindern das 200+ Euro.
Gibt jetzt übrigens mehrere Versionen der 4070,
die Ur-Version, 104er Chip, GDDR6X , dann eine 104er Chip GDDR6, dann eine 103er Chip GDDR6X,
Liest sich doch recht vernünftig. Wenn die Treiber keinen Ärger machen und die Performance sich bestätigen sollte sind das ganz nette Karten und eine erfreuliche und anscheinend lohnenswerte Abwechslung/Alternative in dem Segment. Würde ich ganz sicher unterstützen wenn ich in der Klasse was bräuchte und die Tests positiv ausfallen.
@Mrbrill Und der Sargnagel für AMD... Wobei 350 Euro halt schon hart übertrieben wären. 400 Euro. Eben als 4060 Ti und die 4070 Super direkt als normale 4070 um die 550 Euro. Angelehnt an die Preise für 3060 Ti und 3070 zum Release.
So So, die 580er Version soll also schneller sein als ne RTX 4060. Schön, nur zieht die 580er Version dann gleich beinahe das doppelte an Strom.
Wenn, dann kriegt Intel die Dinger nur über den Preis los. Und ich ahne schon daß es für Custom Hersteller nicht so lohnend sein wird weil der Kühlaufwand deutlich höher sein wird. Vor allem beim großen Modell.
Und ich erinnere an die Phantasie-Prognostizierungen von Intel bei ihren CPU´s. Mir schwant böses in dem Kontext.
Also ich würde theoretisch zum Kreis gehören. Nur ist das keinesfalls die richtige Karte. Noch zudem steht zu befürchten, daß hier Phanatsiewerte prognostiziert wurden, wie es von Intel die letzten Jahre nun einmal immer der Fall war bei Vorab-Prognostizierungen.
Und der Verbrauch bei der großen 580er ist sogar jetzt schon völlig indiskutabel, erst Recht wo die RTX 4060 als Vergleich genannt wurde. Absurd in meinen Augen.
Sieht auf den ersten Blick gut aus. Nachteil ist: Ich habe mit einer 6700 (non XT) schon eine Karte in dem Leistungsbereich. Im RT wird die Intel sicher besser sein - wenn das auf dem Level eine Rolle spielen sollte. Weiterer Nachteil ist: sie hat nur PCIe 4.0 x8 gegenüber der 6700 mit x16. Auf einem PCIe 3 Board ist das schon leicht schlechter.
Wer aufrüsten will sollte schon genau hinsehen. Da warte ich noch auf eine Intel die min. 60% schneller ist als meine.
Ach ja: Wie wird die Leistungsaufnahme im idle/ bei niedrigen Lasten sein? Hoffentlich hat sich Intel hier deutlich verbessert.
Auf jeden Fall bin ich auf die Reviews gespannt.
So So, die 580er Version soll also schneller sein als ne RTX 4060. Schön, nur zieht die 580er Version dann gleich beinahe das doppelte an Strom.
Wenn, dann kriegt Intel die Dinger nur über den Preis los. Und ich ahne schon daß es für Custom Hersteller nicht so lohnend sein wird weil der Kühlaufwand deutlich höher sein wird. Vor allem beim großen Modell.
Und ich erinnere an die Phantasie-Prognostizierungen von Intel bei ihren CPU´s. Mir schwant böses in dem Kontext.
Also ich würde theoretisch zum Kreis gehören. Nur ist das keinesfalls die richtige Karte. Noch zudem steht zu befürchten, daß hier Phanatsiewerte prognostiziert wurden, wie es von Intel die letzten Jahre nun einmal immer der Fall war bei Vorab-Prognostizierungen.
Und der Verbrauch bei der großen 580er ist sogar jetzt schon völlig indiskutabel, erst Recht wo die RTX 4060 als Vergleich genannt wurde. Absurd in meinen Augen.
Da bin ich absolut Deiner Meinung. Ich vermute, 3 und 4NM sind auch weitgehend ausgebucht. Die Prioritäten erkennt man bei Intel auch: Die CPUs sind in der besten Node gefertigt, die GPUs in der alten.
Takt scheint ja nicht das Problem zu sein, ich vermute, Intel wird - analog AMD - wieder bei der Effizienz massiv hinter dem grünen Team landen. Vielleicht ist das in der Klasse aber auch ein Stück weit egal. Mich würde es als Budget-Käufer nicht interessieren, ob da bei sonst gleicher Leistung eher 130 oder 170W durchgehen.
Andere Nachteile hat der 5NM soweit ich das sehe nicht.
Richtig Strom einsparen kann man ganz sicher erstmal bei ganz anderen Geräten im eigenen Haushalt.
Die Grafikkarte steht da erst ganz am Ende der Einsparmöglichkeiten.
@blende11 Ist halt trotzdem die Frage, ob ich im Schnitt 10% mehr Leistung mit 70% mehr Leistungsaufnahme bezahlen möchte. UVP von 249 USD könnte auch schnell in Richtung 280 EUR UVP bei uns gehen und dann liegen 7600 (260 EUR günstigstes Angebot) und 4060 (300 EUR günstiges Angebot) jetzt auch nicht so komplett ab vom Schuss...
Defacto ist das kein Geschenk an den Gamer... Wie auch schon bei Alchemist. Intel ist spät dran. Bei der Konkurrenz steht die nächste Generation vor der Tür und die Straßenpreise sind halt schon im Bereich der Intel UVP.
Ähnliche Leistung für ähnliche Preise. Intel verteilt keine Geschenke. Können sie halt auch nicht.
Ganz einfach, die B580 ist der Nachfolger in gleicher Leistungs-/Chipklasse und keine Grafikkarte mit einem Speicherausbau bis zu 16 GB wie die A770.
Man vergleicht wohl auch keine RTX 5060 mit einer RTX 4090, oder?
Bei den Modellen gefallen mir optisch vermutlich neben dem Referenzmodell wohl die Sparkle Modelle am besten, aber das muss ja nicht heißen, dass diese kühl- und übertaktungstechnisch auch am besten sind.
Gespannt bin ich schon auf den OC-Raum, den Intel da lässt (für Bastler und Hobby-OCler evt. interessant) und die neue Suite ist sicherlich auch sehr löblich (lässt hoffen, dass man seitens Intel längerfristig an dGPU Entwicklung festhalten wird, zumindest bis zu einer Druid Generation, selbst wenn es nur noch ein Einsteigerklasse-/untere Mittelklasse-Chip wird).
Die kleine Intel Arc Battlemage Karte (B570) könnte (unter 200 Euro, ggf. "undervolted" für HTPCs etwa) wegen der TBP fast noch interessanter werden, nur schade, dass diese 2 GB weniger verbaut bekommen wird, auch wenn das noch für nicht-speicherlimitiertes Full HD Gaming gerade so reichen dürfte.
Ergänzung ()
SFFox schrieb:
es steht und fällt mit den Treibern und der allgemeinen Kompatibiltät. Lüftersteuerung unter Linux wäre wünschenswert.
Eventuell steht und fällt es auch mit dem "Mindshare" bzw. der Bereitschaft Intel Gradfikkarten eine Chance zu geben und diese (nicht nur bei Budgetzwang) als valide Kaufoption weltoffen anzusehen anstatt markenanhängig sich selber bzgl. Grafikkartenentwicklern zu limitieren.
Zum Glück für Intel wird über Erfolg oder Misserfolg der Arc Battlemage Karten nicht vordergründig von CB-Enthusiasten (die das nicht betrifft, da nicht Zielgruppe) und in Deutschland entschieden sondern eher in China und den USA.
Wie von mir schon zuvor erwähnt, sehr schade, dass keine mobilen Ableger von den Battlemage dGPUs in Notebooks kommen werden (vielleicht ja dann in Zukunft bei möglichen Arc Celestial dGPUs, etwa Anfang bis Mitte 2026?).
Das ist ja noch gar nicht alles. Es bedeutet ja auch u. U. vermehrte Hitzeentwicklung der 580er bei dem Verbrauch den die hat. Je nachdem erfordert die Kühlung deutlich aufwendigere Kühlkonstrukte. Was sich auch im Preis niederschlagen wird. Da besteht kein Zweifel.
Wenn du dann den doppelten Verbrauch, in Relation dann die heutigen Strompreise nimmst, amortisiert sich so eine RTX 4060 im Verhältnis schnell in Bezug auf den leicht erhöhten Kaufpreis. Und da bin ich mir nicht einmal sicher, weil die Hersteller erhöhten Aufwand bei der Custom Lösung von Intel betreiben müssen.
So denn es überhaupt Custom Lösungen der 570er / 580er geben wird.
Persönlich bin ich fast sicher, daß die 580er am Ende bei über 200 Watt Landen wird. Da könnte ich echt die Hand für ins Feuer legen. Aber lassen wir uns Überraschen.
kachiri schrieb:
Defacto ist das kein Geschenk an den Gamer... Wie auch schon bei Alchemist. Intel ist spät dran. Bei der Konkurrenz steht die nächste Generation vor der Tür und die Straßenpreise sind halt schon im Bereich der Intel UVP.
Genauso ist es. Und was noch gar nicht zur Sprache in der Diskussion hier gekommen ist, ist die schlechte bzw. Treibersituation bei den Intel Teilen in Punkto GPU`s. Das war immer schon der Haken an der ganzen Sache bei denen.
Und da ist man nun einmal besonders auf lange Sicht bei AMD und Nvidia deutlich besser aufgehoben. Wer weiß, wie lange Intel das mit den GPU`s überhaupt durchzieht.
Ich meine, ist ja nicht so, daß die sonst keine Probleme hätten. Ratzfatz rasieren die Geschäftsfelder weg wo auf längere Sicht kein wirklicher Ertrag generiert werden kann.
Dann muss aber halt auch das Gesamtpaket stimmen - und wenn man allein schon die Spezifikationen liest... Spricht nicht viel für Intel. In der Detailbetrachtung nicht einmal der Preis.