Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestIntel Arc B570 10 GB im Test: Das leistet die neue Einstiegs-Battlemage-Grafikkarte
Schade, der Leerlaufverbrauch ist noch immer das No-Go. Mein Rechner läuft zu 95% GPU mäßig im Leerlauf. Da machen die paar Watt schon einen sehr großen Unterschied. Zumal man 20W gut passiv weg bekommt. Bei 40W wird es schon ganz schön heiß, je nach Gehäuselüftung.
was wäre da anders gewesen? die gegenspieler RX6600XT und co. gibts schon seit 4+ jahren. zum sleben preis. so what?! das trum braucht keiner. punkt. keiner will dieses lotterie-ticket intel Arc. da muss man schon komplett plemplem sein um sich sowas anzutun. gleichwertige und schnellere grakas gibts schon JAHRE
Hab mir nie Intel-Karten angeguckt, aber die Leistung einer 4060 zu erreichen finde ich beachtlich! Schade, dass so viel Übersetzung auf der CPU stattfindet... das macht den ganzen Sinn der Karte eigentlich zunichte.
Man sollte ehrlicherweise erwähnen, dass das die Bruttomarge ist. Vor dem AI Hype hatte selbst Nvidia nur eine Nettomarge von etwa 20-30%. AMD hat aktuell keine großen Nettogewinne zu verzeichnen und bei Intel kann man davon ausgehen, dass sie mit jeder Grafikkarte ordentlich Geld verlieren. Das Problem sind hauptsächlich die Waferpreise.
Das ist ein sehr gutes und faires Argument. Die Gewinne der genannten Firmen und vor allem auch die Gewinnerwartungen der Aktionäre sind aber auch massiv gestiegen, was sich im Aktienkurs ganz gut widerspiegelt. Auch aufgrund der geringeren Stückzahlen - die Preise holen nach den Gesetzen des Marktes immer weniger Leute ab - wird es auch immer schwerer die hohen Entwicklungskosten einzufahren. Als z.B. AMD noch selber gefertigt hat, war die Marge auf der Produktion noch teil der eigenen Kalkulation.
In Bezug auf Intel bin ich auch bei Dir. Ist ein bisschen wie bei den Handys: Es gibt nur eine Firma die mit dem Produkt GPU Geld verdient, dafür aber richtig. Die anderen sind zu klein.
@Jan Im Abschnitt Lautstärke und Kühlung sind die Werte zum GPU-Hotspot von Intel nicht zu sehen, oder werden mir nicht angezeigt.
Ansonsten bin ich fast schockiert wie krass alle Grafikkarten in FHD an der 60 FPS Marke (inklusive DLSS/FSR!) knabbern ... Ich zocke jetzt zwar nicht Einzelspieler Titel, aber das würde mich schon extrem abschrecken aktuell überhaupt unterhalb einer 7700XT, oder 4070 nach Grafikkarten zu schauen, wenn ich unbedenklich spielen möchte ... Ich meine ja, das ist die Einsteigerklasse, aber auch die kostet halt schon ein Bisschen was.
Zur Grafikkarte an sich, die Entwicklung bei Intel gefällt mir, wäre jetzt auch ziemlich gespannt auf eine B770. Gerade für Kreative gibt es da sehr gute Ansätze die sich sehen lassen können. Bei den Gaming Ergebnissen muss Intel noch etwas nachbessern.
Da liegt doch heute eigentlich das Problem begraben. Viele Spiele sind einfach so grottig optimiert und sehen dabei oftmals noch schlechter aus wie vor 10 Jahren. Witcher hust - da liegt für mich aktuell das grösste Problem. Von der rohen Performance müssten wir heute alle 1080p Titel mit 200fps zocken können, aber nein man müllt uns mit unnötigen shadern und anderem quatsch voll um die schlechten Modelle/Texturen zu kaschieren.
Zusätzlich zum 12100 würde ich aber auch den 12400F vorschlagen, denn der wurde früher oft verbaut und ist bis heute die Empfehlung im 750 Euro-PC bei "der Idealle Gaming PC". Damit können die Arc-Fans den Test dann nicht einfach abtun.
Wen ihr schon sowieso einen Test nur mit Low-End und Mitrange-Karten macht, dann wäre es auch gut, wenn ihr auch bei den Spielen die Einstellungen im Spiel so wählt, das zumindest die beste Midrange Karte wie die 6700XT (12 GB) oder RTX 4060 die 60 FPS-Marke schafft. Aktuell gibt es so Titel wie "Black Myth: Wukong", wo sogar die 7700XT bei 30 FPS rumgurkt und die B580 liegt bei 21 FPS. Wobei ich persönlich die 7700XT raus nehmen würde und lieber die preislich besser passende RX 7600 XT (16GB) in den Parcour mit rein nehmen würde.
Preise ändern sich, das ist das Problem. Bis vor kurzem war die 7700 XT die besser Wahl, weil die 16 GB 7600 XT zu teuer war. Nun hat sich das alles etwas bewegt, was aber nicht automatisch heißt, dass man da viel neu testen kann. Denn es stehen gerade 50 Grafikkartentests an, die viel wichtiger sind^^
Encoding. Ich nutze z. B. eine Arc 380 zum streamen im zweiten PC. Die kann H264, H265 und AV1 sowie VP9 und hat mich 2nd hand schon letztes Jahr keine 100€ mehr gekostet.
Da find ich den CPU-Overhead der zweiten Generation sogar noch schlimmer, da dies in Kombination mit dem Preis das Produkt schlicht uninteressant macht.
Das ist eine Frage der Bewertung. Ich sehe es anders. Der CPU-Overhead betrifft alte und langsame CPUs. Wer eine schnellere und durchaus leistbare CPU besitzt, hat keine Probleme.
Der Preis ist aktuell wegen der hohen Nachfrage bzw. der begrenzten Verfügbarkeit etwas zu hoch, aber das sollte sich ändern.
Insgesamt ist es kein schlechtes Paket, auch wenn die Intel-GPUs nicht für jeden etwas sind. Aber das ist ja keine GPU.
@SSD960 Ich habe nicht jedem Test, den ich gelesen habe, auf die Leistungsaufnahme geachtet, weil ich wusste, was ich zu erwarten habe. In der c't wurden im Test die erforderlichen Einstellungen erwähnt und der niedrige Verbrauch angegeben. Auf meinem System war es kein Problem den Verbrauch zu senken.
Das ist eine Frage der Bewertung. Ich sehe es anders. Der CPU-Overhead betrifft alte und langsame CPUs. Wer eine schnellere und durchaus leistbare CPU besitzt, hat keine Probleme.
Das hängt extrem stark vom verwendeten Monitor (Auflösung/Bildwiederholrate) ab. Bei meinem 4k-Monitor und 160Hz kommt man auch mit den Energiespareinstellungen nicht unter 45W (B580), es sei denn, man reduziert die Auflösung oder die Bildwiederholrate.
Was ist denn in Ghost of Tsushima los? Das ist ja spielbar und Intel ist da im Testfeld ganz oben dabei.
Kann man das an der Engine festmachen oder ist der Intel-Treiber einfach noch weit weg von ausgereift?
Encoding. Ich nutze z. B. eine Arc 380 zum streamen im zweiten PC. Die kann H264, H265 und AV1 sowie VP9 und hat mich 2nd hand schon letztes Jahr keine 100€ mehr gekostet.
Ansonsten bin ich fast schockiert wie krass alle Grafikkarten in FHD an der 60 FPS Marke (inklusive DLSS/FSR!) knabbern ... Ich zocke jetzt zwar nicht Einzelspieler Titel, aber das würde mich schon extrem abschrecken aktuell überhaupt unterhalb einer 7700XT, oder 4070 nach Grafikkarten zu schauen, wenn ich unbedenklich spielen möchte ... Ich meine ja, das ist die Einsteigerklasse, aber auch die kostet halt schon ein Bisschen was.
Weil Computerbase zwecks Vergleichbarkeit wie so gut wie alle Enthusiastenkanäle auf Ultra-Details bencht, die idR. einen weitaus größeren Performance-Impact haben als eine höhere Auflösungs-Kategorie. Selbst einige Enthusiasten-Kanäle schalten ja seit ein paar Jahren Videos, dass sich das mit Reglern auf Vollanschlag in der Praxis selbst mit entsprechender Hardware so semi lohnen würde Und die Nutzer dieser Karten wissen eh, wie viel mehr FPS oft simple Tweaks bereits ausmachen, ohne großartig die Bildqualität zu implodieren.
Bei KCD hatte man damals immerhin demonstriert, wie krass bereits Presets ohne Tweaks skalieren können -- da gabs zwischen Regelern auf Vollanschlag und mittlerem Preset mal eben einen Performanceunterschied von 250% auf einer Vega. Und selbst das "Hoch"-Preset lieferte auf der Karte das Doppelte an Frames.
Hab mir nie Intel-Karten angeguckt, aber die Leistung einer 4060 zu erreichen finde ich beachtlich! Schade, dass so viel Übersetzung auf der CPU stattfindet... das macht den ganzen Sinn der Karte eigentlich zunichte.
Du sagst es.
In der Theorie sind die Intel Karten jetzt wirklich sehr nice und man könnte es sogar verschmerzen, wenn viel mehr Spiele Probleme bereiten als ihre Konkurrenzprodukte.
Aber die technischen Mängel und Zwangsbedingungen sind leider weiterhin in vielen Fällen für Aufrüster oft ein No-Go.
Ergänzung ()
Mumbira schrieb:
Genau da sehe ich aber das Problem. Wer eine Einsteiger-GPU kauft, hat i.d.R. auch eine Einsteiger CPU.
Habe gestern bei einem anderen Test gesehen, dass bereits ein noch relativ aktuelel udn schnelel RYzen 5600 CPU bereits ins Limit läuft und zu Leistungseinbußen führt.
Es wird also wohl die allermeisten Aufrüster schockieren dürfen, dass eine Inte Karte dann nicht die volle Leistung bringt, wie hier angegeben.
Vor allem Ryzen 1 und 2 Systeme sollen dann schon stärker an Leistung einbüßen, eqivalente alte Intel Kisten selbstverständlich auch.
Stellt euch vor, ihr habt noch einen Intel 6600 mit 1060 GTX 3GB und freut euch auf dieses "Monster".
Sehr wahrscheinlich kein rBar (ohne sollte man niemals Intel kaufen!) und auch nicht dieses Airgendwas für die Energiesparmaßnahmen der Intel GPU.
Dazu noch PCI-E 3.0 und die Party geht los. Der normale Steam Anwender Durchschnitt halt, der aufrüsten möchte.
Ich finde es daher sehr gut, dass Tester auf solche Fallstricke hinweisen und man hier auch noch später Spezialtests nachliefern möchte, die das genauer beleuchten.
Schade ist nur, dass viele Käufer solcher Karten das nicht mitbekommen, weil die nicht wie wir standardmäßig ständig in Foren rumlungern und das dann auch nicht wissen können.