EOL bedeutet, die Karten werden nicht mehr hergestellt. Das hat nichts mit dem Support zu tun. Sollte man wissen. Und eine gebrauchte Karte mit Neuware zu vergleichen ist einfach quatsch. Da gibt es gar nichts zu diskutieren.fortunes schrieb:Wegen der Leistung - und die Karte ist in den Treibern noch lange nicht EOL.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Erste Euro-Preise: Intel Arc B580 ab 319,90 Euro als Custom-Design gelistet
- Ersteller Jan
- Erstellt am
- Zur News: Erste Euro-Preise: Intel Arc B580 ab 319,90 Euro als Custom-Design gelistet
kachiri
Fleet Admiral
- Registriert
- Apr. 2011
- Beiträge
- 18.684
???GrooveXT schrieb:Wie gesagt, die Beobachtung stimmt nicht. AMD ist seit 6 Jahren nicht in der Position einen Preiskampf loszutreten, weil man technologisch hinten an ist. RDNA2 war überhaupt mal wieder der erste Step zurück ins Leben.
Dann ist Intel ja noch weniger in der Lage in einen Preiskampf zu treten...
Ich meine du bestätigst doch meine Aussage, dass das Produkt überzeugen muss. Der Preis ist dann erstmal zweitrangig. Wenn das Produkt ungefähr gleichwertig ist, wird man schon seine Käufer finden. Wenn man möchte, kann man dann vielleicht versuchen, über den Preis noch den ein oder anderen Käufer zusätzlich zu motivieren, um ihn von seinem Standardkauf abzubringen...
Und bei der Chipgröße muss man ja eigentlich schon festhalten, dass Intel hier einen relativ niedrigen Preis ansetzt. Problem ist halt nur, dass die Leistung des Produktes nicht zur Chipgröße passt...
Wenn die B380 wirklich so performt, wie es Intel ankündigt, dann ist der Preis "okay". Das ist kein Preiskampf, sondern einfach nur realistischer Preis. Intel muss hoffen, dass die Leute experimentieren.
Es bringt nichts auf diesen von NV dominierten Terrain mit Verlusten durch Verkäufe Marktanteile zu gewinnen.
Ich gehe eh davon aus, dass Intel sich vom Consumer Markt verabschieden wird.
Denkt sich AMD inzwischen ja auch. Das neue Preisniveau hat AMD losgetreten
Zuletzt bearbeitet:
Wie kommst du darauf?kachiri schrieb:Ich gehe eh davon aus, dass NV sich vom Consumer Markt verabschieden wird.
@Jan hattet ihr schon von GN das deep-dive gesehen?
Was mir da auffällt: Bei dem Beispiel-Frame in Fortnite geht die Render Time von 19,33ms für A750 auf 13,01ms für B580. Das sind fast +50% fps.
Wenn sich das von Fortnite auf andere Spiele übertragen lässt, wäre die B580 damit auf Niveau der 4060Ti...
Im Vergleich zu den Leaks die die Geekbench Performance mit 4060 und 7600XT vergleichen hatten ist das durchaus positive anzusehen.
Was mir da auffällt: Bei dem Beispiel-Frame in Fortnite geht die Render Time von 19,33ms für A750 auf 13,01ms für B580. Das sind fast +50% fps.
Wenn sich das von Fortnite auf andere Spiele übertragen lässt, wäre die B580 damit auf Niveau der 4060Ti...
Im Vergleich zu den Leaks die die Geekbench Performance mit 4060 und 7600XT vergleichen hatten ist das durchaus positive anzusehen.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Ratterkiste
Commander
- Registriert
- Dez. 2004
- Beiträge
- 2.835
@Rickmer
Die ARC A Karten mussten, so habe ich Tom Petersen verstanden Features die in der UE5 benutzt werden emulieren da Alchemist diese teils nicht in Hardware beherrscht. Sieht man auch ganz gut im Video, da ist die neue B - Serie bei Teilen des Rendervorgangs sehr viel schneller als der Vorgänger.
Bei manchen Spielen wird Battlemage sehr stark im Vergleich zum Vorgänger zulegen, Spiele die auf Alchemist schon relativ gut liefen werden nicht so stark zulegen. Da die UE5 Engine (leider) zunehmend dominant wird sollte Battlemage besser und vor allem viel konstanter Leistung liefern als Alchemist.
PCGH hat mal die iGPU von Lunar Lake mit der A380 bei gleichem Takt verglichen, da lag der Performancevorteil zwischen 20% und 50%. Die A380 hat wenn ich mich recht entsinne mehr Speicherbandbreite, eventuell legt die Desktop Battlemage Karte daher etwas stärker zu da diese keinen Bandbreitenmangel haben sollten.
Die ARC A Karten mussten, so habe ich Tom Petersen verstanden Features die in der UE5 benutzt werden emulieren da Alchemist diese teils nicht in Hardware beherrscht. Sieht man auch ganz gut im Video, da ist die neue B - Serie bei Teilen des Rendervorgangs sehr viel schneller als der Vorgänger.
Bei manchen Spielen wird Battlemage sehr stark im Vergleich zum Vorgänger zulegen, Spiele die auf Alchemist schon relativ gut liefen werden nicht so stark zulegen. Da die UE5 Engine (leider) zunehmend dominant wird sollte Battlemage besser und vor allem viel konstanter Leistung liefern als Alchemist.
PCGH hat mal die iGPU von Lunar Lake mit der A380 bei gleichem Takt verglichen, da lag der Performancevorteil zwischen 20% und 50%. Die A380 hat wenn ich mich recht entsinne mehr Speicherbandbreite, eventuell legt die Desktop Battlemage Karte daher etwas stärker zu da diese keinen Bandbreitenmangel haben sollten.
- Registriert
- Jan. 2007
- Beiträge
- 2.477
Also vor der 6000er Reihe hatte man keine Produkte um in den Preiskampf zu treten, die 6000er Reihe viel in die Corona-Zeit und den Mining-Boom. Hier gab es also auch keinen Preiskampf, alles was vom Band lief wurde verkauft, egal zu welchem Preis. Und jetzt macht man keinen Preiskamp weil man im Bereich bis 500 Euro quasi keine Konkurrenz hat und darüber keine Schnitte. Und was ist das Ende vom Lied? Der Marktanteil sinkt, wie wir ja in der anderen News lesen konnten.kachiri schrieb:???
Dann ist Intel ja noch weniger in der Lage in einen Preiskampf zu treten...
Ist er nicht. Das Produkt muss überzeugen und dann kann man, sofern man sich in die Position gebracht hat, auch wieder Gas geben bei den Preisen. AMD hat mit Ryzen wie lange? 7 Jahre gebraucht um sich in diese Position zu bringen und nu können sie ernten. Aber du kannst keinen Markt betreten, gleich der Beste sein und dann auch die entsprechenden Preise aufrufen. Man sehe sich Qualcomm an, die ihr Ziel auch revidieren mussten, nachdem man voller Selbstüberschätzung meinte die Notebook-Markt vom oben aufrollen zu wollen und sich schon als Marktführer sah. Man muss locken, nur auf dem Markt zu sein reicht nicht.kachiri schrieb:Ich meine du bestätigst doch meine Aussage, dass das Produkt überzeugen muss. Der Preis ist dann erstmal zweitrangig.
Ja, wenn ... aber zu dem Produkt Grafikkarte gehört halt mehr als ein GPU und ein Kühler. Und der Rest drum rum ist noch laaange nicht gleichwertig.kachiri schrieb:Wenn das Produkt ungefähr gleichwertig ist, wird man schon seine Käufer finden. Wenn man möchte, kann man dann vielleicht versuchen, über den Preis noch den ein oder anderen Käufer zusätzlich zu motivieren, um ihn von seinem Standardkauf abzubringen...
Nochmal, ich erwarte nicht, das Intel die Karte verschenkt, aber wenn man die Leistung einer 4060 um 10% übertrifft und die Software noch lange nicht fertig ist, dann sollte man nicht 20% mehr Geld fordern. Es reicht ja, wenn man ein paar Prozent unterhalb der 4060 schwimmt oder meinetwegen sich am unteren Ende der 4060 Preisskala einsortiert. Mehr Leistung für weniger Geld und definitiv nicht andersrum.
Tja dann kann Intel einpacken und hätte sich die Sparte besser gespart. Bei den Preisen wird sich keiner aus Hoffnung eine GPU kaufen. Man braucht einen USP, also sowas wie Nvidia damals mit DLSS oder RT. Wenn du den nicht hast, brauchst du nen geilen Preis. Die paar Enthusiasten, die das Geld übrig haben um sich zum Spaß die Karte zu kaufen, werden wohl nicht genug Umsatz generieren.kachiri schrieb:Und bei der Chipgröße muss man ja eigentlich schon festhalten, dass Intel hier einen relativ niedrigen Preis ansetzt. Problem ist halt nur, dass die Leistung des Produktes nicht zur Chipgröße passt...
Wenn die B380 wirklich so performt, wie es Intel ankündigt, dann ist der Preis "okay". Das ist kein Preiskampf, sondern einfach nur realistischer Preis. Intel muss hoffen, dass die Leute experimentieren.
Keiner spricht von Verlust, aber es sollte auch keiner davon ausgehen, viel Gewinn damit zu machen. Und nochmal lieber ein paar Millionen mit wenig Gewinn als ein paar 100k mit hoher Marge. Ersteres ist auf so vielen Ebenen weitaus besser.kachiri schrieb:Es bringt nichts auf diesen von NV dominierten Terrain mit Verlusten durch Verkäufe Marktanteile zu gewinnen.
Ja, das könnte sein. Aber ich glaube die werden weiterhin ihre kaputten KI Chips für ein paar Tausender zweitverwerten, bevor man sie wegwirft. Ich könnte mir vorstellen, dass man das Midrage-Segment irgendwann fallen lässt.. wenn man davon überhaupt noch reden kann bei NV.kachiri schrieb:Ich gehe eh davon aus, dass NV sich vom Consumer Markt verabschieden wird.
SweetOhm
Lt. Commander
- Registriert
- Juli 2023
- Beiträge
- 1.442
Die UVP einer B580 ist allerdings 249 US Dollar und somit sind es 281,43 €uronen.kachiri schrieb:259*0,95+19% ergibt aber rund 293 Euro und nicht 280 Euro.
https://www.google.de/search?q=uvp+intel+b580&sca_esv=417e83525128478d&sxsrf=ADLYWILMS-IdwKZiNNjGwFzRwCAoDXebqA:1733921577567&source=hp&ei=KYtZZ57HH-XikdUPo5u4sAQ&iflsig=AL9hbdgAAAAAZ1mZOUkXz6rVgMXoGl_-Aolxy8ObFko7&ved=0ahUKEwje_8id4Z-KAxVlcaQEHaMNDkYQ4dUDCBo&uact=5&oq=uvp+intel+b580&gs_lp=Egdnd3Mtd2l6Ig51dnAgaW50ZWwgYjU4MDIFECEYoAEyBRAhGKABMgUQIRigAUjYP1AAWIQ7cAB4AJABAJgBxgGgAdAKqgEEMTEuM7gBA8gBAPgBAZgCDqAC-grCAgQQIxgnwgILEC4YgAQYsQMYgwHCAhQQLhiABBixAxjRAxiDARjHARiKBcICBRAAGIAEwgIOEAAYgAQYsQMYgwEYigXCAgoQABiABBhDGIoFwgILEAAYgAQYsQMYgwHCAgoQIxiABBgnGIoFwgIREC4YgAQYsQMY0QMYgwEYxwHCAggQABiABBixA8ICChAAGIAEGEYY_wHCAggQABiABBjLAcICBhAAGBYYHsICCBAAGBYYChgewgIIEAAYogQYiQXCAggQABiABBiiBMICBRAhGJ8FmAMAkgcGMTAuMy4xoAfWTw&sclient=gws-wiz
SweetOhm
Lt. Commander
- Registriert
- Juli 2023
- Beiträge
- 1.442
Und gerade dazu prädestiniert für Indy (RT)SavageSkull schrieb:Im Vergleich zur viel zitierten AMD 6750XT ist allerdings die Raytracing Performance deutlich besser und auch XESS macht einen besseren Job als FSR.
Ergänzung ()
Allerdings nur mit einer 2000 € + Karte (4090/5090) mit 24/32 GB (RT/PT) !Mrbrill schrieb:Und wie gesagt, wenn der Trend mit den neuen Spielen so weiter geht, dann hat nvidia klare Vorteile.
Ergänzung ()
Selbe Leistungsklasse ?!?DiePalme schrieb:@fortunes
Wie kommt man auf die Idee eine Gebrauchte EOL gesetzte Karte mit einer neuen Karte zu vergleichen?
Ergänzung ()
Was INTEL mit wem vergleicht ist ja schon mal "Schnuppe".nebulein schrieb:Die Konkurrenzprodukte, mit denen Intel die Karte vergleicht, sind übrigens die 4060 und die 7600. Allein durch die 12GB Ram, sehe ich die B580 gegen die beiden im Vorteil.
Es wird ganz einfach in Leistung und Preis verglichen. That´s it.
Die 6750XT (12 GB) ist z.B. in der selben Preisklasse (ca. 300 €).
Im NEWS Update wird von einer B580 (12 GB) Custom für 340 € berichtet,
zum selben Preis gibt es eine 7600XT OC Gaming mit 16 GB.
Das ist/wird die Konkurrenz, nicht was INTEL sagt/schreibt/meint ...
Zuletzt bearbeitet:
Wenn DAS hier stimmt (Leak), die Treiber auch in Spielen ordentlich optimiert sind, dann Hut ab. Hier können dann AMD und Nvidia erstmal mit der RX7600 und RTX4060 komplett einpacken. Dann wird auch mit der 5060 und 8600 viel passieren müssen.
Timespy ist natürlich nur ein syntethischer Benchmark und auch schon älter, ist aber mehr als nur ein Anhaltspunkt.
Wenn so eine Grafikkarte dann für den angepeilten Preis von, sagen wir einmal 279€ angeboten wird, ist das sicherlich erstmal ein kleiner Meilenstein.
Jetzt bin ich mehr als gespannt auf den Test zur B580 hier auf CB...
Timespy ist natürlich nur ein syntethischer Benchmark und auch schon älter, ist aber mehr als nur ein Anhaltspunkt.
Wenn so eine Grafikkarte dann für den angepeilten Preis von, sagen wir einmal 279€ angeboten wird, ist das sicherlich erstmal ein kleiner Meilenstein.
Jetzt bin ich mehr als gespannt auf den Test zur B580 hier auf CB...
Zuletzt bearbeitet:
Do Berek
Lt. Commander
- Registriert
- Dez. 2011
- Beiträge
- 2.014
Seit Wochen Leaks und Spekulationen, aber keine Tests, selbst GN hat ein Video dazu gemacht...
Das Ding wird schlechter performen als die A770, soviel kann man schon mal sagen.
Für Spieler nahezu uninteressant, vielleicht noch zum Arbeiten.
Ich versteh den Wirbel darum nicht, als Alternative zu NV und AMD werden die auch nix.
Das Ding wird schlechter performen als die A770, soviel kann man schon mal sagen.
Für Spieler nahezu uninteressant, vielleicht noch zum Arbeiten.
Ich versteh den Wirbel darum nicht, als Alternative zu NV und AMD werden die auch nix.
SweetOhm
Lt. Commander
- Registriert
- Juli 2023
- Beiträge
- 1.442
Genau das tun sie (AMD) schon seit mehr als einer Dekade !GrooveXT schrieb:Und wo ist denn der Preiskampf von AMD? Ich sehe keinen. Preiskampf bedeutet nicht schlechtere Ware zu einem geringeren Preis zu verkaufen sondern gleichwertige oder bessere Ware für weniger anzubieten.
Wenn das 2000 € + Halo Produkt (4090) mit ihrem Alleinstellungsmerkmal ausklammerst und dann die direkten "Gegenspieler" mit einander vergleichst :
7900XTX vs. 4080(S), 7900XT vs. 4070Ti(S), 7900GRE vs. 4070 Super, 7800XT vs. 4070, 7700XT vs. 4060 Ti, 7600XT vs. 4060 und das Ganze mit FPS in RR (ohne RT Gimmick) und Preis (bzgl. FPS/€) siehe Anhang
Somit besser (schneller) und weniger (günstiger) !
p.s. war bei RDNA2 vs. Ampere und Vega vs. Pascal ebenso.
Anhänge
Die Frage ist jetzt viel mehr, ob Xe2 mit den neuen aufgebohrten Treibern samt XeSS/FG und XeLL vernünftig laufen, bald wissen wir mehr...WinstonSmith101 schrieb:Laufen neue und alte Spiele mit den Intel Arc Karten einwandfrei?
Die schreiben von 16100 für die RTX 3080. CB und auch PCGH kommen da auf ~18000 für die RTX 3080.GOOFY71 schrieb:Wenn DAS hier stimmt (Leak),
Geht man eine Generation zurück und betrachtet eine High-End-GPU wie die GeForce RTX 3080 (16.134), so ist die Arc B580 nur 3 % langsamer.
Da heißt es erst mal abwarten.
yamaharacer
Lt. Junior Grade
- Registriert
- Jan. 2008
- Beiträge
- 380
Steht leider aber auch im Artikel, dass die Alchemist Karte bereits in Benchmarks überzeugent haben, es aber in Games nicht umgesetzt bekamen.GOOFY71 schrieb:Wenn DAS hier stimmt (Leak), die Treiber auch in Spielen ordentlich optimiert sind, dann Hut ab. Hier können dann AMD und Nvidia erstmal mit der RX7600 und RTX4060 komplett einpacken. Dann wird auch mit der 5060 und 8600 viel passieren müssen.
Timespy ist natürlich nur ein syntethischer Benchmark und auch schon älter, ist aber mehr als nur ein Anhaltspunkt.
Wenn so eine Grafikkarte dann für den angepeilten Preis von, sagen wir einmal 279€ angeboten wird, ist das sicherlich erstmal ein kleiner Meilenstein.
Jetzt bin ich mehr als gespannt auf den Test zur B580 hier auf CB...
Anhang anzeigen 1554800
Wovon ich leider bei Battlemage auch ausgehe.
Ich habe momentan nur eine 6800XT, die kommt hier auf CB offiziell im Steel Nomad nur auf 3600 Punkt, meine aber fast auf 3900Punkte, prozentual auch ein nicht zu vernachlässigender Unterschied. Es sind sicherlich nur Spekulationen zu Xe2, aber ich glaube dieses Mal an eine Überraschung.DaHell63 schrieb:Die schreiben von 16100 für die RTX 3080. CB und auch PCGH kommen da auf ~18000 für die RTX 3080.
- Registriert
- Jan. 2007
- Beiträge
- 2.477
Stimmt nicht, siehe unten.SweetOhm schrieb:Genau das tun sie (AMD) schon seit mehr als einer Dekade !
Naja das ist nur die halbe Wahrheit. Sobald RT ins Spiel kommt, hat Nvidia immer die Oberhand wenn es um Preis-/Leistung geht. Die 7900XTX wird z.B. von einer 4070 TI geledert, die 7900XT kommt nicht an der 4070S vorbei und die Karten sind sogar günstiger als die AMD Pendants. Dazu immer der höhere Verbrauch der Karten plus weniger Feature Set. Das ist halt wie bei Intel, Rohleistung alleine reicht nicht. Das Gesamtpaket zählt und nein da ist AMD weder schneller noch verhältnismäßig günstiger.SweetOhm schrieb:7900XTX vs. 4080(S), 7900XT vs. 4070Ti(S), 7900GRE vs. 4070 Super, 7800XT vs. 4070, 7700XT vs. 4060 Ti, 7600XT vs. 4060 und das Ganze mit FPS in RR (ohne RT Gimmick) und Preis (bzgl. FPS/€) siehe Anhang
Nein, nur in dem von dir gepickten Szenario.SweetOhm schrieb:Somit besser (schneller) und weniger (günstiger) !
Vega war teurer als Pascal (siehe Bild) und kam nicht an der 1080 vorbei. Dabei hatte man sogar 1 Jahr Verspätung. Stimmt also nicht. Danach kam RDNA1 vs Turing. Es gab eine Karte, die wieder verspätet da war und ebenfalls weder leistungstechnisch noch preislich an Nvidia herangereicht hat. RDNA2 vor 4 Jahren war erstmals seit der 290X wieder ein Comeback für AMD und eine wirklich Kampfansage, ist nur leider unter Corona und Mining verpufft. RDNA3 ist nicht gut, zu ineffizient zu wenig RT Leistung, keine KI Features, nur rohe Gewalt und als Kampfansage kann man das nun wirklich nicht sehen. Wie gesagt im Sub-500-Euro-Bereich sind sie dominierend, da gibts nichts von Nvidia, aber darüber ist das Bild keineswegs so eindeutig wie du das gerade zeichnen möchtest.SweetOhm schrieb:p.s. war bei RDNA2 vs. Ampere und Vega vs. Pascal ebenso.
Zumindest ich würde keine 900 Euro in eine GPU investieren die in der RT-Leistung nur knapp 5% vor einer 4070S liegt, die gerade mal 550 Euro kostet. Denn wie man an Spielen wie Indiana Jones sieht, ist das die Zukunft. Die 7900XTX ist schon richtig bepreist und für das was sie leistet. Ein Preisbrecher oder günstig ist sie keineswegs
Das ist richtig!yamaharacer schrieb:Steht leider aber auch im Artikel, dass die Alchemist Karte bereits in Benchmarks überzeugent haben, es aber in Games nicht umgesetzt bekamen.
Ich hatte kurz zum Testen eine A770 und die war im Timyspy auf RTX3070 Niveau, hatte aber in Spielen im Vergleich sehr stark das Nachsehen. Aber wenn Intel das Versprechen mit den aufgebohrten Treibern zusammen mit der neuen Architektur umsetzt, kann man starkes Potential erkennen.
Wenn sich das bewahrheitet, werden AMD und Nvidia dazu genötigt, eine RTX5060/RX8600 z.B. auch mit mindestens 12GB anzubieten (Indiana Jones lässt grüßen und es wird mit der Zeit nicht besser), damit die hier im Forum oft erwähnten Spiecherkrüppel der Vergangenheit angehören. Man wird es bald nach dem Test hier auf CB wissen...
Ergänzung ()
Da ist viel Wahres dran, ich hatte schon eine 7900XTX, wenn ich heute wieder wählen müsste, würde ich wahrscheinlich eine 4080S nehmen, auch wenn diese etwas teurer ist. Das einzige, was mich etwas stört, sind die 16GB VRAM, eine künstliche Beschneidung der Lebensdauer und auch von Nvidia gewollte Maßnahme. Ein Zeichen der Dominanz am Grafikkartenmarkt. Ohne die 4090 steht jetzt die 4080S im Gesamtpaket wieder alleine da, ohne das ich die 7900XTX hier schecht machen will. Das ist ebenfalls eine gute Karte für rund 950€ in ihrem Segment.GrooveXT schrieb:Die 7900XTX ist schon richtig bepreist und für das was sie leistet. Ein Preisbrecher oder günstig ist sie keineswegs
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 119
- Aufrufe
- 12.989