News Intel Battlemage: Arc B580 und Arc B570 für 249 und 219 US-Dollar vorgestellt

Convert schrieb:
AMDs 7900XT ist die erste Generation (und vorerst letzte), die nicht monolithisch ist, sondern die Speichercontroller abkoppelt...
Das ist schon klar, ich meinte damit eher, dass man dort eben schon seit Jahrzehnten GPUs baut und es auch noch passieren kann, dass man hohe Idle-Last unter gewissen Umständen hat.
 
IBMlover schrieb:
Und wann kommt das große Modell?
Laut Gerüchten im dritten Quartal 2025

https://www.3dcenter.org/news/news-des-1-dezember-2024
Ergänzung ()

Chocobo schrieb:
Hmpf.

Liest sich gut, ärgert mich allerdings etwas.
Einerseits die x8 Anbindung, andererseits die Tatsache, dass sie sich nicht äußern können zur großen Karte ob sie kommt oder nicht.
Vermutlich äußern die sich nicht darüber ob sie kommt, weil diese angeblich erst im dritten Quartall 2025 kommt, wenn sie den kommt.

https://www.3dcenter.org/news/intel...-ersten-battlemage-basierten-grafikkarten-vor
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und IBMlover
4060 niveau mit 12gb ram und das irgendwann 2025 - ich bin überwältigt...
 
Convert schrieb:
Laut Gerüchten im dritten Quartal 2025
was dann aber schon wieder reichlich spät ist:
a) da ist Celestial schon fertig
b) da ist Nvidia mit ihrem gesamten Lineup am Start. AMD wohl ebenso.

Das heißt das müsste dann in N3 gefertigt sein und noch besser schon Celestial. Aber ersteres ist möglich - aber teuer - und letzteres Wunschdenken. Außerdem braucht Intel aktuell jeden Wafer von TSMC N3 um Arrow in ausreichender Stückzahl für die OEMs zu fertigen
 
  • Gefällt mir
Reaktionen: Rockstar85
kein test
Nun klingt wie vermutet mit etwas geringerem Takt also zwischen rx6600/rtx3060 und rx6600xt/rtx4060m für den dicken chip
Sofern der preis bei 200€ wäre wäre das ne option. für Bastler.
wieso die 13,8tf effektiv nicht ankommen liegt am 64bit design sofern nicht grundlegend geändert dürfte das bei 70-75% Nutzung grob liegen
 
CB.R schrieb:
Naja, schön und gut.
Trotzdem nur Luftpumpen, für (ambitionierte) Spieler doch völlig uninteressant.
Was ist ein "Ambitionierter Spieler"?
Jemand der nur High End Kram in seine Kiste haut und meint damit zu einem guten Spieler zu werden?
 
  • Gefällt mir
Reaktionen: mcg00, 12nebur27, SweetOhm und 2 andere
Bin echt gespannt auf die Karten. Wenn die Leistung passt wären sie ne gute Alternative zur 4060 und 7600xt.
Vor allem als 1080p Karten, da werden die 8 GB Speicher der anderen Karten schon öfters knapp.

Ich hab eine 4060 im Laptop und dort ist es schon öfter vorgekommen das der Speicher voll läuft, was schade ist weil der Chip mehr könnte.

Mit 10GB und 12GB ist man da schon auf der besseren Seite.
 
  • Gefällt mir
Reaktionen: SweetOhm
Icke-ffm schrieb:
na da bringen die 12GB eben einen Vorteil bringen, und gerde die Nvidia Jünger sagen doch immer auch mit einer 4060ti kann man gut 1440p spielen. oder 12GB reichen auch für 4k obwohl selbst Nvidia sagt eine 4070ti Super ist eine 1440p Karte auch wenn sie 16GB hat.
NV sagt auch, dass die 4070 Super in 1440p-Karte ist. Genauso wie AMD sagt, dass die 7700 XT eine 1440p-Karte ist. Haben beide auch nur 12 GB VRAM und aktuelle Tests sagen doch zu 98% nichts anderes. 12 GB sind in 1440p mehr als ausreichend und reichen häufig auch für 4k...
Das die 8 GB tatsächlich in FHD schon zu wenig sein können, belegen die Tests wiederum auch häufiger. Wenn gleich es auch nicht SO dramatisch ist. Mehr als 8 GB sind in 1080p aber eigentlich schon wünschenswert... Oder einfach mehr PCIe-Lanes :P

No Affront. Aber AMD hat am Anfang in der Klasse (RX 7600) ja auch gegeizt und kommt dann Monate später mit eine an der Kotzgrenze übertakteten RX 7600 (alias RX 7600 XT) mit 16 GB um die Ecke. Die dann häufig quasi "gleichschnell" ist und zumindest im Test auf CB dann nur 2-3 Ausreißer nach oben hatte, wo dann der VRAM in Verbindung mit den nur 8 Lanes limitiert.
Mein Call: Mit 16 Lanes würden auch die 8 GB wohl kein Drama sein. Die Limitierung kommt durch die Kombination von etwas mageren VRAM und eben 8 Lanes daher...

Und abseits davon: Natürlich kann man auch mit einer 7600 oder einer 4060 (Ti) in WQHD daddeln. Mehr Auflösung bedeutet dann halt ein paar Detailstufen hier und da weniger. Business as usual.
 
Mit der Flächeneffizienz sind sie absolut chancenlos wenn die Daten stimmen. Sie sind entweder zu teuer oder verlieren Geld. In beiden Fällen stellt Intel das ein. Schade
 
  • Gefällt mir
Reaktionen: DF86
Ich hoffe sehr, dass Intel mit Battlemage finanziell Erfolg haben wird oder zumindest viel besser läuft als Alchemist.

Wenn die Karten wieder so floppen, habe keine große Hoffnung mehr in Intels Grafiksparte, zumal es momentan generell bei Intel nicht so rosig aussieht.
 
  • Gefällt mir
Reaktionen: the_IT_Guy
apropo games bin gerade bei daten sammeln für den Test der rtx4070 dran viele dxr spiele haben ein heftiges cpu limit selbst auf meine rtx3060 spiderman morales z:b entgegen dem spiderman re ist das heftigst cpu limitiert
Das warum ergründe ich noch kann am os build liegen.
Gleiches habe ich bei dragon dogma2 gesehen
Cpu limit sollte man genauer unter der lupe nehmen bei gpu test das gilt auch für die b580 da wird es besonders interessant.
Daher Angabe von fps zu gpu load zu tbp mit einen frametime verlauf inklusive gpu busy
Wie man das optisch am besten in Tabellen kriegt ist ne gute frage. In videos könnte das gehen auf Artikeln eher nur als Diagramm und je spiel ein Bild wo alle gpu ihre kurven haben.
ich würde das aber auf 3 gpu beschränken.
 
Super Intel! Das könnte eine tolle Alternative zur 4060 sein oder 5060, vor allem Preislich. Die Leistung für FHD sollte ausreichen. 🥳
 
  • Gefällt mir
Reaktionen: SweetOhm
weiterhin rebar nötig und somit (neben der beschränkung auf 8 pcie-lanes) nicht für ältere systeme geeignet?
 
kachiri schrieb:
Richtig, aber es ist eben der Platzhirsch! AMD hingegen hat eine RX6800 non xt als 4K Karte beworben eine 7900GRE welche definitiv schneller ist ist nur noch eine 1440p, 4k fängt erst ab 20GB bei AMD an.
Nvidia hat 2018 eine RTX 2080-8GB, 2020 eine 3080Ti-12GB als 4K beworben, 2 Jahre später ist eine 4070TI -12GB nur noch eine 1440p Karte obwohl sie schneller ist wie eine 3090-24GB.
ich kann mir gut vorstellen das Nvidia des Upsellings wegen eine 5080-16GB auch nur noch als 1440p bewirbt da AMD eben keine +16GB Karte mehr bringt. und die 5090-32GB die einzige 4K beworbene Karte bleibt, dann haben alle 16GB Karten käufer verlohren denn die werden in 2027 für UHD sicher dann zuwenig sein
 
tso schrieb:
Mit 190W eine 115W Karte zu schlagen beeindruckt mich erstmal wenig.
Die RTX 4060 zieht in der Realität ca 130W und wenn die 150Watt 10GB B570 etwas unterhalb der TDP bleiben sollte, dann ist die Effizienz ziemlich nahe dran.
tso schrieb:
Mal abwarten, vielleicht ziehen die Karten in der Realität nicht annähernd soviel.
+1
 
  • Gefällt mir
Reaktionen: the_IT_Guy
Ich finde gut, dass Intel günstige Grafikkarten mit angemessenem Speicher auf den Markt wirft. Der Erfolg steht und fällt jedoch mit der Treiberunterstützung und da bin ich noch skeptisch.

Der Teletobi schrieb:
Bin echt gespannt auf die Karten. Wenn die Leistung passt wären sie ne gute Alternative zur 4060 und 7600xt.
Vor allem als 1080p Karten, da werden die 8 GB Speicher der anderen Karten schon öfters knapp.
Das Problem ist, dass sehr wahrscheinlich spätestens ab Mitte 2025 bereits Nvidia 5050/5060 am Markt platziert ist bzw. das entsprechende AMD-Pendant. Und mit diesen neuen Karten muss sich Intel messen. Andererseits: Selbst ne Nvidia Geforce RTX 5050 mit (vermutlich) 8GB VRAM wird weit über dem Verkaufspreis der B580 liegen ...
 
  • Gefällt mir
Reaktionen: SweetOhm
Man muss einer 4060 aber auch zu Gute halten: Bei dem Leistungsniveau braucht es auch nicht mehr als 8GB, da man in 1440p eh meist nur so grade irgendwie hinkommt.
Da nun 10GB mit er B570 und darüber direkt 12GB: Das ist eine Ansage an die geizige Konkurrenz wo man als Konsument eigentlich hoffen muss, dass die Karte beim höheren Verbrauch wenigstens in der Leistung um Kompatibilität so abliefert wie präsentiert. Könnte mit RDNA 4 doch eine interessante Rückkehr der Mittelklasse werden zu entsprechenden Preisen.
 
Sorry, aber so viel Gerede um nix? Bis auf den Preis finde ich an dem Produkt nichts Besonderes. 1080p mit 12GB, okay. Aber wenn Intel nicht endlich die Treiber in den Griff bekommt, dann wird wieder kein Spiel vernünftig darauf laufen. Meine Vorfreude bezieht sich eher auf RDNA4.
 
BAR86 schrieb:
Wäre BM schon vor 9 Monaten erschienen und auch mit dem großen Chip hätte man ja auch eine gute Marktposition.
Naja NV bringt ihre Gurken (RTX5060/ti 8GB) erst im April am Markt ob dass so schlau ist, AMD will auch schon im Januar alles bringen was RDNA4 betritt.
 
  • Gefällt mir
Reaktionen: SweetOhm
ich verstehe die Fertigung nicht. Mit N4P wäre bestimmt viel mehr möglich gewesen. Bei N5 hätte man auch gleich zum eigenen Intel 7 greifen können. Da frage ich mich, ob Intel es zunächst mit Intel 7 versucht hat, gescheitert ist, um dann auf N5 auszuweichen.

Mit Lunar Lake hatte man doch schon Xe2 auf N3.
Vielleicht erleben wir mit G31 dann ja eine Überraschung.

edit: eigentlich wollte ich Intel 4 schreiben, bin aber gedanklich dann doch beim älteren Prozess verhaftet geblieben. Aber offenbar hat Intel ja nie etwas anderes kommuniziert, als die Fertigung bei TSMC. Da macht ein günstiger Prozess natürlich Sinn.
 
Zuletzt bearbeitet:
Zurück
Oben