Test Intel Arc B580 Limited Edition im Test: Intel Kampfmagier vs. Nvidia GeForce RTX & AMD Radeon RX

stevefrogs schrieb:
Bis auf den katastrophalen Idle-Verbrauch schaut die Karte technisch eigentlich sehr gut aus
Ich würde sie als weniger katastrophal als die erste Generation beschreiben, von "technisch sehr gut" ist sie aber meilenweit entfernt wenn man sieht welche Fläche Intel belichten lassen muss um letztlich eine 250 USD Karte auf den Markt zu bringen.

Darüber hinaus teile ich Deine Zweifel für die Zukunft.
 
stevefrogs schrieb:
werden sie sich dennoch sicher einen Respektabstand zu Intel erarbeiten.
Naja da wäre ich mir nicht so sicher grade mit Blick auf dem VRAM der RTX5070/60 von der 50er mit nur 6GB ganz zu schweigen also alles unterhalb der 80 ist eigentlich nur Teuer E-Müll.

Bei AMD gibt es immer noch die RX7600 XT die ist aber viel zu teuer.
 
Alles unter 60 fps (ohne Raytraing) ist in 2024 ein fail - mit oder ohne Fakeframes... und erst recht bei Full HD. Das ist mir auch egal ob das Teil 3000 Ghz taktet oder mit UE4, UE5, Unity 6 oder Godot besser läuft. Ich versteh ja das der Preis die Karte irgendwie "interessant" macht weil NVIDIA abdreht aber mehr als zum Icons klicken und Videogucken ist das nix und das geht auf einem 100 Euro Handy von vier Jahren noch sparsamer in 4K.

Gut finde ich das jetzt auch Tests mit AI von CB gemacht werden, so kann man sehen ob die getesteten Karten wenigstens zu irgendwas nützlich sind. Ein Benchmark mit Blender oder LuxRender für die "nicht Spieler" wäre vielleicht noch super.
 

Anhänge

  • cb-performancerating.jpg
    cb-performancerating.jpg
    37,5 KB · Aufrufe: 26
Zuletzt bearbeitet:
free-sky schrieb:
Alles unter 60 fps (ohne Raytraing) ist in 2024 ein fail

Dann ist es aber auch kein Wunder, dass die Kartenpreise heute so sind, wie sie sind. Entry-Level-GPUs waren verdammt lange Zeit nicht für 60fps min. in allem gemacht -- jedenfalls nicht auf Ultra-Details (also den Settings, mit den CB bencht). Die Bildqualität wird komplexer, gleichzeitig soll aber auch die Einstiegskarte 60 Bilder pro Sekunde davon in Echtzeit rendern.

Was für 2025 eher ein Fail ist: 300-Euro-Karten mit 8GB VRAM. Einstiegsmodelle mit ~170W TDP (Intel sind hier entschuldigt, da erst 2nd Gen, AMD demnächst nicht, falls noch mal ne RX 7600 kommt). Richtig ist auch: Im Entry Level herrscht Stagnation. Seit Jahren. Im Endeffekt werden die Kunden hier mit Kompromissen bis Resterampe abgefrühstückt. Die Performancegains zwischen RX 5600-7600 sind genauso überschaubar wie die zwischen RTX 2060 und RTX 4060. https://www.computerbase.de/artikel...tx-1060-rtx-2060-3060-4060-test.87229/seite-4

Insofern kann man Arc auf zwei Arten beurteilen: Einerseits bringt Intel hier wieder etwas Bewegung rein. Andererseits sind sie Profiteure davon, dass die zwei Etablierten hier seit Jahren dem "Pöbel" nur mehr ein paar Knochen hinwerfen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Svennc schrieb:
Dann ist es aber auch kein Wunder, dass die Kartenpreise heute so sind, wie sie sind. Entry-Level-GPUs waren verdammt lange Zeit nicht für 60fps min. in allem gemacht -- jedenfalls nicht auf Ultra-Details ...

Es ist so absurd, was Leute wie du hier schreiben.

Als die Radeon 5850 rauskam, war das die 2. schnellste Karte (mal die paar exotischen Dual Chip Modelle rausgelassen) am Markt und hat 250€ gekostet.
 
  • Gefällt mir
Reaktionen: grabeskuehle
GreatEvil schrieb:
Es ist so absurd, was Leute wie du hier schreiben.

Als die Radeon 5850 rauskam, war das die 2. schnellste Karte (mal die paar exotischen Dual Chip Modelle rausgelassen) am Markt und hat 250€ gekostet.



Ich bin ja dabei: Das Preisniveau von vor 15 Jahren kann man vergessen -- selbst mit einer Verdoppelung käme man nicht auf aktuelles Preisniveau. Ich hatte eine 6850, den "Nachfolger", der günstiger war (aber etwas langsamer). Aber gehen wir mal nicht ganz so weit zurück: Der Klassiker RX 580 packte im damaligen Parcours keine 60fps im Schnitt. Einstiegsmodelle wie RX 570 oder 560 kann man entsprechend einordnen. Ditto 1050ti, von Computerbase damals explizit als Einstiegskarte empfohlen. Da war Full-HD natürlich noch was frischer. Aber trotzdem. CB bencht mit Reglern auf Anschlag. Das ist zur Vergleichbarkeit sehr sinnvoll. Aber: Dafür waren wirkliche Einstiegsmodelle noch nie gemacht.

Ich hatte übrigens sogar mal eine 6670 drin. Auch wenn ich sie nicht dafür gekauft hatte, die reichte, als sie erschien, in damaliger Auflösung sogar noch für Skyrim (halt mit reduzierten Details und 40fps) -- also ein Markt, der heute gar nicht mehr existiert. Denn die war mit damals genauso viel Speicher ausgestattet wie die gutbürgerliche Mittelklasse (1GB) und 40 fps galten als akzeptabel und nicht als Existenzminimum. Auch AMD brachte zuletzt etwa eine RX 7500 XT gar nicht mehr auf den Markt, ditto Nvidia und eine RTX 4050. Und die 75W-Nische hält mit einigermaßen aktuellen Modellen sogar ausschließlich Nvidia besetzt (RTX 3050/6GB) -- dabei wäre eine kleine Lovelace-Karte aufgrund der viel höheren Effizienz hierfür prädestiniert gewesen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gizzmow, incurable und Quidproquo77
  • Gefällt mir
Reaktionen: Araska
Ich hab mir jetzt mal die Spez. der Arc B580 vs A580 angesehen und verstehe nicht warum der UVP der B580 so viel höher ist als der der A580.
1. Bekommt man durch den Wechsel von N6 auf N5 ~ 30% mehr Chips aus dem Wafer (sofern diese die gleiche Größe haben).
2. Der Yield muss eigendlich ziemlich gut sein, da man für die B570 nur 2 Cores deaktiviert. Nicht wie bei der A-Serie 4 Cores.
3. Ist die PCB sicher etwas günstiger. Nur mehr 8 PCIE Lanes, nur mehr 192bit Speicher Interface.

Kühler & Bauteile der PCBA sind bis auf die 4GB mehr Speicher gleich teuer und die 4GB Speicher machen auch höchsten ~5$ aus.

Somit hätte man sicher auch die B580 mit einem Preis von 189$ & die B570 mit 179$ UVP auf den Markt bringen können. Da hätte man dann NVIDIA & AMD ausstechen können so ist es leider nur ein netter Versuch geworden.
 
  • Gefällt mir
Reaktionen: Imbarius
martin28bln schrieb:
Sehr feine Aufmachung von Intel!
War auch sehr angetan von der Aufmachung, wirklich gut gemacht.
 
Für mich hat Intel bei Battlemage eine großartige Arbeit abgeliefert. Die größte iGPU der Lunar Lake Chips schlägt alle aktuellen AMD APUs mit RDNA 3.5 in Performance und Effizienz... Und die B580 ist für mich die aktuell beste Mittelklasse-Grafikkarte im Preisbereich um 300€. Glückwunsch und Hut ab!
 
Quidproquo77 schrieb:
wir haben schon ca 200 Stück.
Wo sind denn die 200 Stück? Was sind überhaupt 200 St.? Ein Wassertropfen in einen Vulkan?
Und 300€ bei Caseking sind jetzt auch kein toller Preis, der die Unwahrheit von mit Abstand beste P/L Karte bestätigen würde. Da ist überhaupt kein Abstand, sondern man reiht sich typisch Intel beim Preisrahmen auf dem gleichen Niveau zur Konkurrenz ein. Schließlich kannst auch du die üble Leistungsaufnahme bei SDR/HDR nicht schön labern. Zuzüglich zu dem Fakt, dass man weiterhin bei Intel auf Treiber warten muss, während Geforce und Radeon schon spielen.

Seriousjonny007 schrieb:
Somit hätte man sicher auch die B580 mit einem Preis von 189$ & die B570 mit 179$ UVP auf den Markt bringen können.
Du kannst überhaupt nicht abschätzen, welche Preise Intel bei TSMC zahlen muss für diese Fertigung. Obendrauf kommt noch, dass man niemals Intel einen Funken Glauben schenken darf, wenn die irgendetwas von P/L besser labern.
 
Zuletzt bearbeitet:
Also mir macht die B580 schon Lust auf mehr.
Würde es bei derselben Tendenz bleiben und Intel noch einmal so einen Sprung hinlegen können, wäre eine zukünftige C580 schon recht attraktiv, finde ich.

Derweil bin ich auf jeden Fall gespannt auf eine potentielle B770.
 
Zurück
Oben