Test Intels 200-Euro-Grafikkarte im Test: Arc A580 vs. A750, RTX 3050 & 3060 und RX 7600 & 6600

R O G E R schrieb:
Sry solange die den Leerlaufverbrauch nicht in den Griff bekommen, ist Intel für mich keine Alternative.
Erinnert leider an ihre CPUs. Bei einem kompletten Neudesign hätte das doch gelingen müssen?


Leider wird hier nicht mit Linux getestet. Was angesichts der Day 1 Verfügbarkeit von CS2 als nativen Port angebracht wäre. Ich sehe da die Redaktion in der Pflicht. Endlich mal wieder ohne Proton und dessen Seiteneffekte.

Vor allem würde es auch erlauben Rückschlüsse auf Hardware und Software zu machen. Was liegt nur an der Software? Was an Windows und Linux?


PS: Erinnere mich noch an ~ 2014 als der native Port von HL2 auf Linux - ausgerechnet mit den gammeligen quellgeschlossenen Modulen von Nvidia - schneller lief als unter Windows. Valve hat dann herausgefunden, das Ihre eigene Implementierung unter Windows nicht so effektiv war wie Ihre Implementierung für Linux. Ich hätte da unter Windows ja nicht gefixt ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mojitomay
Casillas schrieb:
Bei den paar Games hier, ist die z.B. die Arc 580 mal 7 % schneller, mal 30 % langsamer als das Brot und Buttermodel in der Preisklasse 200€... der RX6600.
Das ist ja generell das Problem bei den ARC Karten.

Deswegen sehe ich auch keinen Grund eine ARC zu kaufen.

Bei Arc geht das von unspielbar bis durchschnittlich und grandios. Es ist alles mit dabei. Wer hat denn Lust auf so ein Lotterie Glücksspiel?
 
  • Gefällt mir
Reaktionen: Casillas
rones schrieb:
--Bitte die Zitierregeln beachten--
Weil die Hersteller sich wohl darauf geeinigt haben, keine Low-Budget Grafikkarten mehr herzustellen im Wortsinne.
Selbst eine 3050 war lange Zeit für utopische 300 Euro erst zu haben. Meine damalige 1050 GTX habe ich für 100 Euro gekauft. Und eine 1050 Ti gab es meist schon ab 150 Euro. Das waren Top-Karten für Gelegenheitsspieler. Seit dem hat sich nicht viel getan. Späte kam noch die 1650 aber viel schneller war die auch nicht.
Die 6400&6500 von AMD existiert noch aber aus meiner Warte haben die eigentlich null Daseinsberechtigung. Die 6400 für 130 Euro ist minimal schneller als eine 1650, eine Karte die 2019 herum released wurde.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: mxpower und aldonius
DefconDev schrieb:
Selbst eine 3050 war lange Zeit für utopische 300 Euro erst zu haben.
das was wir gerade und auch die letzten Monate erleben sind halt die Ergebnisse des Miningbooms und dem festhalten der Hersteller an solch dicken Margen sowie Gewinnen. Man hat gesehen was die Leutz da draußen bereit sind für eine Karte in der Krise hinzulegen und versucht nun daran festzuhalten.

Schau mal was eine 1080 oder 2080 zum Release gekostet und dann was eine 3080 bzw. 4080 nun gekostet hat. Daran orientiert sich dann natürlich auch das gesamte Portfolio unter diesen Karten. Aber im Grunde auch alles nur Angebot und Nachfrage. Solang ihr bereit seid solche Preise zu zahlen, werden sie auch den Teufel tun diese wieder nach unten zu korrigieren.
 
  • Gefällt mir
Reaktionen: EdgariuS und Engaged
Neodar schrieb:
Danke für nichts, Intel!
Ich sage Danke dafür, dass Intel bisher noch nicht das Handtuch geworfen hat.

Und dass mit dieser Generation der Energieumsatz auf Hardware-Ebene nicht mehr behoben wird, ist sowieso bekannt und auch nachvollziehbar. Es geht bestenfalls nur noch darum, soviel Erfahrung wie möglich aus diesem Open Field Test zu gewinnen.
 
  • Gefällt mir
Reaktionen: Alex1966, -> m1 <-, cbmik und 5 andere
Wenn Battlemage das Idle Problem löst dürfte Intel mit den GPUs endgültig im Markt angekommen sein, ich hoffe sie bleiben dran.

Leider unterstützt mein System ( 8700k) kein ReBar, sonst hätte ich mir eine a750 geholt
 
  • Gefällt mir
Reaktionen: ComputerJunge
mhh jetzt wo es mit den Treibern vorwärts geht und evtl. die 200 Eurogrenze fallen könnte... mhh ins grübeln komme ich da schon. Auch wenn mir Intel unsymphatisch ist.
Bitte CB, dran bleiben wenn sich da noch mehr positives gibt.
 
Würde die a750 der Karte aufjedenfall vorziehen. Wirklich empfehlen kann man aber mach wie vor nur die a770 16gb, ansonsten würde ich hier die 6650xt empfehlen oder eben die 3060. Konkurrenzfähig ist Intel hier leider noch nicht
 
Das spiegelt das Rafffazit wieder, wenn ich eine 200 Euro Karte suchen würde und der Idle Verbrauch zweitrangig ist, würde ich die A580 nehmen. So sieht es momentan bei vielen aktuellen Games aus, Intel hat hier viel an den Treibern optimiert. Sogar das so heiß umworbene Starfield läuft hier ordentlich.
 
Ein eher verzichtbares Produkt, die Unterschiede zur A750 sind zu klein.
Die A580 muss unbedingt beim Preis Punkten, sonst wird das nichts.

Test schrieb:
Im Leerlauf liegt die Leistungsaufnahme selbst mit aktuellen Treibern sehr hoch.
Dies ist jedoch nur die halbe Wahrheit, was man auch erwähnen hätte können, denn man kann die Leistungsaufnahme im Leerlauf drastisch reduzieren.
Man muss sich dazu einmalig einige Minuten Zeit nehmen und zwei drei Einstellungen tätigen, nach einer Anleitung von Intel:
https://www.intel.de/content/www/de/de/support/articles/000092564/graphics.html
Natürlich hat dies zwei Seiten, der unkundige "Lohnt sich das?" Typ weiß davon nichts und ist damit auch tendenziell überfordert, aber für die Leute hier, also eher versierte Leser, sind das wenige Handgriffe die schnell erledigt sind.
Damit kann man den verbrauch auf einen einstelligen Wert drosseln, im Leerlauf bleiben die Lüfter dann auch aus, ohne nennenswerten Leistungsverlust:
Arc Verbrauch Leerlauf.jpg

Ich will damit nur eines sagen, es geht auch anders, was man erwähnen hätte können.
Es bleibt jedoch ein Entwicklungsfehler, der eigentlich auffallen und beseitigt hätte müssen, ich bin mir aber sicher das dies bei der nächsten Generation nicht mehr der Fall sein wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaBo87, cbmik, PcFliege und 6 andere
rones schrieb:
Ich sehe das auch so, dass man viel zu selten (bis gar nicht) über einfache Grafikkarten im Preisrahmen 50-100€ liest, die man in einen "Office-Rechner" (mit zwei Bildschirmen) steckt, der keine APU oder andere onboard-Grafik hat. Dazu kommt ja speziell der Bereich der passiv gekühlten Grafikchips.
Leider gibt es nichts aktuelles in dem Preisbereich.
Selbst die RX 6400 kostet noch knapp über 100€ und die RX 6300 wurde gecancelt oder nie wirklich geplant.
 
Salamimander schrieb:
Erstaunlich, dass die Intel AMD manchmal in RT schlägt.
Die ARC GPU ist mal eben doppelt so groß. Die A580 ist in RT Leistungen schon viel eher da wo sie vom Transistorbudget sein sollte. Die Raster Leistung ist eine Katastrophe für Intel. Das Intel die Karten so günstig verkaufen muss, obwohl der Chip groß ist erklärt auch die Milliardenverluste die die Sparte jedes Quartal fährt.

Ich bin super gespannt wie Alchemist + als IGPU abschneidet.
 
Zuletzt bearbeitet von einem Moderator:
Weltraumeule schrieb:
Vielleicht ist die 3060 doch etwas schneller, wie jemand mir mitteilte. Vielleicht hilft auch https://www.youtube.com/results?search_query=1080+vs+3060. Habe aber selber nicht in die Videos geschaut. Aber die Radeon 6600 und 7600 sollten dann noch schneller als die 3060 sein.
Aber Vorsicht, es gibt die alte 3060 mit 12 GB und die neue mit 8 GB.
wieso muss das so kompliziert sein alles heute? ._.
 
IsaacClarke schrieb:
Dies ist jedoch nur die halbe Wahrheit, was man auch erwähnen hätte können.
Denn man kann die Leistungsaufnahme im Leerlauf drastisch reduzieren, man muss es nur wollen.
Das hat nicht mit wollen zu tun - wenn im BIOS die entsprechende Einstellung fehlt, geht es nicht!
Ganz davon abgesehen, dass es bei mehr als 2 Monitoren eh nicht funktioniert.

Hier hat Intel einen riesen Bock im Hardware Design geschossen, der sich auch mittels Treiber nicht fixen lässt.
 
Gestern kurz bei Geizhals Grafikkarten mit 8 GB zwischen 130 und 200€ gesucht.
Es ist einfach traurig, hier tut sich nichts. Schön, dass Intel hier endlich reinstoßt, wenngleich mich 2 Dinge stören (1 davon ist aber rein mein Problem)
a) der SAM/reBAR Zwang den mein Mobo noch nicht supportet
b) der hohe Verbrauch generell, aber vor allem beim Nichtstun/Idle

a) ist nicht wichtig, weil es auch immer weniger eine Priorität wird (war nur für mich interessant, weil ich in einen alten PC eine GPU Nachrüsten möchte)
b) wird hoffentlich mit Battlemage eliminiert
 
Stahlseele schrieb:
wieso muss das so kompliziert sein alles heute? ._.
Man muss sich halt reinlesen und auch drauf achten, welchen Monitor du hast und ob ud diesen in Zukunft wechseln möchtest. Also Full HD (1080p) oder WQHD (1440p) oder 4k, was bei dir aber wohl nicht der Fall ist. Und ob dir 60fps bzw. Hz reichen oder eher 90, 120 oder mehr. Ja, kompliziert und man muss sich einlesen :(
Da du aber solch eine alte Katrte momentna hast, vermute ich dass du einen FullHD Monitor mit 60Hz hast und mit 60fps spielen möchtest. Ich rate dir dazu, bei FullHD und 60Hz zu bleiben, denn dafür brauchst du halt die wenigste Grafikleistung und kommst günstiger weg bei einer neuen Grafikkarte. Hoffe dass du bei dem 3d-Center-Übersicht was passendes findest.
Oder erstelle einen Thread halt hier im Forum oder im 3d-center für einer Kaufempfehlung. Ich bin nicht tief genug drin in der Materie um eine gute Empfehlung zu geben.
 
@Stahlseele wenn du kein Board hast welches rBar: Resizable Bar unterstützt, ist eine Intel Karte eh nicht empfehlenswert und im Grunde aufgrund der Leistung der Treiber auch nicht wirklich für nicht Bastler geeignet, würde bei 200€ da eher zu einer RX6600 bzw. noch 40€ für eine etwa 20% schnellere 6650XT hinlegen, die nochmals 5% schneller als eine 6600XT ist
 
@Verak Drezzt
Das hier ist noch ein Sockel2011 Board mit I7 4820 und DDR3 RAM.
Das kann nicht mal die moderneren AVX512 und andere Instruktionen.
Danke für den Tip.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Zurück
Oben