Test Intel Arc B570 10 GB im Test: Das leistet die neue Einstiegs-Battlemage-Grafikkarte

Wolfgang.R-357: schrieb:
die Leute können mit der Leistung in der x1080 Auflösung sehr gut spielen
Ändert trotzdem nichts dass die Intel Karte nur mit einem 9800X3D und nur in nicht CPU-lastigen Spielen Sinn macht, was konträr zum Budget Gedanken ist.
Meine 5 Jahre alte RX6800 16GB die ich vor ewigkeiten mal für 330 Tacken bei Mindfactory erworben habe, wird in Star Citizen wegen 100% CPU auslastung meines 5800X3D schon in 1440p nativ ausgebremst und dümpelt bei 63% rum, ganz ohne FSR oder tricks.
Star Citizen_2025.01.16-18.25.png
Mit einer Arc hätte ich da noch weniger fps, selbst wenn die Graka nicht limitieren würde. Weil die Intel Treiber viel CPU Leistung fressen.
B580 9800X3D.png
 
  • Gefällt mir
Reaktionen: usernamehere
DerRico schrieb:
Nee, die haben die Leistung seit bald 4 Jahren. Oder seit 2 für den gleichen Preis.
Dennoch wird in der Klasse noch gekauft. Und dass es kaum Fortschritte gibt, liegt nicht an Nvidia, AMD oder Intel, sondern an den, wegen erreichen der Lithographiegrenzen geringen Fortschritten in der Chipfertigung.
crustenscharbap schrieb:
Ein guter Grund für die Karten ist die Video Engine. Da kann keine Nvidia mit halten. Bei 4:2:2 stehste halt da. Selbst mit ner 4090.
Also ideal für Videoschnitt. Aber da reicht auch be A380.
Wobei Battlemage, wenn ich nicht Recht erinnere, die doppelte Zahl an Encodern als Alchemist hat.
 
  • Gefällt mir
Reaktionen: crustenscharbap und Nighteye
@Jan verfolgt ihr noch das Thema AI-Leistung?
Das wäre sehr interessant! Lokale LLM ist wohl auch ein Preistreiber bei den Grafikarten.
 
Auch hier möchte ich den herangezogenen Vergleich von einem Zen4/5 X3D 8-Kerner mit einem Zen 2/3 6-Kerner als mangelhaft dargestellt konnotieren.

Wenn man wie @Volker den Screenshot als Diskussionsgrundlage nimmt und den Fakt betrachtet, dass der 9800X3D im Schnitt nur 10-14 FPS mehr aus der Karte rauskitzeln kann, als ein lumpiger 5600X, stellt sich mir die Frage, warum nicht ein 5600X3D wenigstens, optimalerweise ein 5700X3D mit gemessen wurde, um den reellen Impact des 3D-Vcache herausrechnen zu können.

Oder wenigstens einen 9/7700X gegenüberstellt, um auch den Teil der Menschen zu informieren, die nicht so ein Ding verbauen.

So ist das doch nur heißer gekocht als gegessen, ich muss aber sagen dass der Screen der hier thematisiert ist auch nicht den Worst-Case der CPU-Overhead Problematik einfängt, somit macht dies für mich irgendwann in einem Jahr das Upgrade auf eine neue Plattform erschwinglich.

Das Geld für eine neue Grafikkarte kann ich dann auch in Ruhe aufbringen und alles ist tutti.

Oder es wird einfach ne Konsole und ich kann mir die Freizeit sparen, diese komplexe Thematik analysieren zu müssen um für 6 Monate wenigstens Wissenstechnisch halbwegs Up to Date zu sein.
 
Alles schön und gut, aber ich bleib lieber bei meiner RX6600 :)
Evtl. wird die nächste Generation interessanter.
 
Clonedrone schrieb:
Seit wann ist denn die 4060 Ti so schlecht im Raytracing? Die 7700 XT zieht davon und selbst die uralte 6700 XT ist gleich schnell.

Wenn bei der getesteten B570 schon 10GB VRam drosseln, sind 8GB bei der 4060Ti fast ein Todesurteil, wenn man dann noch auf Fakframes, die wieder mehr Speicher benötigen, angewiesen ist, hört es ganz auf (ist der komplette Infarkt da).

8 gegen 16Gb Benches:
https://www.pcgameshardware.de/Graf...M-2025-ausreichend-16-GB-VRAM-Radeon-1462969/
 
LordLaden schrieb:
Und dass es kaum Fortschritte gibt, liegt nicht an Nvidia, AMD oder Intel, sondern an den, wegen erreichen der Lithographiegrenzen geringen Fortschritten in der Chipfertigung.
Nee, nur an den Gewinnmargen, siehe TSMC Gewinn, heute hier auf der Seite.
Wir könnten ohne Weiteres die doppelte Anzahl an Shadern für das gleiche Geld haben. Also dann, wenn TSMC nicht 60% und NV / AMD / Intel nicht noch einmal 50-75% Marge wollten.

Die Leistung kann geliefert werden, sie wollen nur nicht zu dem Preis ;)
 
  • Gefällt mir
Reaktionen: Convert, eXe777, usernamehere und eine weitere Person
DerRico schrieb:
Also dann, wenn TSMC nicht 60% und NV / AMD / Intel nicht noch einmal 50-75% Marge wollten.
Man sollte ehrlicherweise erwähnen, dass das die Bruttomarge ist. Vor dem AI Hype hatte selbst Nvidia nur eine Nettomarge von etwa 20-30%. AMD hat aktuell keine großen Nettogewinne zu verzeichnen und bei Intel kann man davon ausgehen, dass sie mit jeder Grafikkarte ordentlich Geld verlieren. Das Problem sind hauptsächlich die Waferpreise. Ein gutes Beispiel sind die Shrinks bei den Konsolen. Früher konnten die Konsolenhersteller nicht früh genug auf den nächsten Node wechseln, weil mit jedem Shrink der Chippreis deutlich sank. Konsolen, die am Anfang 500$ kosteten, waren am Ende für 99$ im Laden. Damit war es dann auch möglich 150 Millionen PS2 zu verkaufen. Die PS3 hat z.B, noch Shrinks von 90nm auf 65nm und 45nm erhalten. Bei der PS4 gab es immerhin noch einen Shrink auf 16nm. Bei der Xbox Series X erklärte Microsoft 2020 zu gegenüber Digital Foundry, dass sie die Series S deshalb herausbringen, weil sie keinen Shrink bei TSMC mehr erwarten, der zu einer Preissenkung der großen Konsole führen könnte, weshalb man entschied gleich mit einer günstigen Variante an den Start zu gehen.
 
  • Gefällt mir
Reaktionen: Convert
Kompletter Irrsinn Diese Grafikkarte. Der immens hohe Desktop Verbrauch geht gar nicht. Das hätte Intel ja lösen können. Und warum ist die Karte langsamer als der Vorgänger?
 
@SSD960 Der hohe Verbrauch im Leerlauf liegt an falscher Konfiguration durch die Tester. Meine B580 braucht 10W um Leerlauf.
 
Zuletzt bearbeitet:
Die beiden B5xx Karten sind für mich uninteressant. Vor allem die B570 ist m.M.n. völlig sinnlos.
Da warte ich lieber auf die B7xx und vll. B9xx falls die kommen sollte und schau mir die an.
Allgemein finde ich den Grafikkartenmarkt derzeit extrem zum 🤮 Preispolitik, Bezeichnungswirrwarr uvm...
Vergleiche sind so anstrengend geworden. Ich vermisse die gute alte Zeit
 
Zurück
Oben