Test Intels 200-Euro-Grafikkarte im Test: Arc A580 vs. A750, RTX 3050 & 3060 und RX 7600 & 6600

DKK007 schrieb:
Was für Anwendungen meinst du konkret?

Videos laufen über den Decoder, da ist der Grafikspeicher egal.
Zum beispiel Videobearbeitung (MAGIX Video deluxe) für die Private nutzung nichts profimässiges !

frankkl
 
DKK007 schrieb:
Schau mal bei Ebay nach gebrauchten Karten.
Eine RTX 2070 bekommt man für um die 200€.
Die sollte man für solche Karten nicht mehr ausgeben, wenn eine quasi gleich schnelle 6650xt 250€ neu kostet.

sorry.. korrektur. Die 6650xt ist genauso schnell, wie eine RTX 2070 super
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verak Drezzt
conglom-o schrieb:
Das hat nicht mit wollen zu tun - wenn im BIOS die entsprechende Einstellung fehlt, geht es nicht!
Ganz davon abgesehen, dass es bei mehr als 2 Monitoren eh nicht funktioniert.

Hier hat Intel einen riesen Bock im Hardware Design geschossen, der sich auch mittels Treiber nicht fixen lässt.
Doch das hat auch was mit wollen zu tun, bei mir fehlen bei einem AM4 System zum Beispiel ASPM Einstellungen, es geht dennoch. Keine Ahnung warum, ich bin da nicht tief genug drinnen, womöglich weil es generell immer aktiviert ist.
Das Intel dahingehend nichts perfektes abgeliefert hat, habe ich auch nie in zweifel gestellt, mein Beitrag dazu hat dies glaube ich deutlich gemacht, ich habe nicht mit Kritik gespart, ich bin dahingehend Neutral herangegangen.
Aber Leerlaufprobleme sind nichts Intel-spezifisches, ich erinnere an einen Mitbewerber der dieses Jahr auch lange Zeit Probleme dahingehend hatte, der keine Neuling im Grafikkartenmarkt ist, siehe Link:
https://www.computerbase.de/2023-07...ws-desktop-adrenalin-2342-kompletter-leerlauf
 
Casillas schrieb:
Die sollte man für solche Karten nicht mehr ausgeben, wenn eine quasi gleich schnelle 6650xt 250€ neu kostet.

Das sind aber 50€ bzw. 25% mehr, die man erstmal haben muss. Und wenn die Karte gleich schnell ist, hat man von der 6650XT auch nichts.
Dazu sind die AMD Karten in Anwendungen die Cuda nutzen (z.B. Blender) deutlich langsamer.

https://opendata.blender.org/benchm...ws&blender_version=3.6.0&group_by=device_name

In dem Fall sind die beiden Nvidia-Karten mehr als doppelt so schnell.
 
Zuletzt bearbeitet:
ja nochmal. die 6650xt ist im Gaming so schnell, wie eine 2070 super. also schneller als eine 2070 non super.

Wir können also davon ausgehen, dass eine 2070 Super gebraucht auch nochmal teurer ist als 200€. Da gibts doch keine Argumente mehr bei gleichem Preis von neu vs. gebraucht.

Cuda allein als Argument? Ok.
Dann sage ich mal Rbar,Effizienz/Stromverbrauch,Garantie pro 6650xt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verak Drezzt
Wird Zeit, dass die 3060 12 GiB endlich im Preis fällt.

rBar kann man btw. nur nutzen, wenn man auch eine neue CPU hat, was bei vielen, die von einer alten GPU aufrüsten vermutlich nicht der Fall ist.
 
Zuletzt bearbeitet:
Stahlseele schrieb:
Wäre eine 580 oder eine 7600 / 6600 oder eine 3050/3060 ein großer Unterschied in der Leistung zu meiner alten 1080?
Die alten Karten fallen ja leider aus allen Benchmarks raus, sodass es recht schwierig ist abzuschätzen, ob man durch die neueren Generationen ungefähr beim gleichen bleibt oder es mehr oder weniger wird.
Ich hatte bereits eine RX 6600 im System und nutze nun schon länger wieder meine GTX 1080, der Unterschied in Spielen ist nicht merkbar, nur messbar. Gemessen in 3DMark Firestrike waren es 22000 Grafikpunkte (GTX 1080) zu 23500 Grafikpunkten (RX 6600) bei meinem ansonsten identischen System.
Das „Upgrade“ würde ich mir sparen, die ~7% Mehrleistung sind es nicht wert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stahlseele und DKK007
frankkl schrieb:
Wieso was altes Gebrauchtes kaufen wenn man auch dann das Neues modernes für einen ähnlichen Preis bekommen kann ist doch sinnlos.

Welche Grafikkarten gibt es denn neu in dem Preisbereich?
 
Ich hoffe Intel hält bei den dedizierten Grafikkarten noch etwas durch.
Die könnten in 1-2 Generationen richtig gut werden und für richtig frischen Wind sorgen.
 
Die Leistungsaufnahme, vorallem im Leerlauf ist ja mal komplett absurd.
Dass werden die wohl auch nicht mehr in den Griff bekommen. Insofern ist die Karte sehr teuer im Unterhalt und heizt komplett sinnlos das Gehäuse auf.

Ich werde mit diesen Intel-GPUs definitiv nicht mehr warm. Einfach zu verpfuscht und unfertig das Ganze. Da müsste man schon eher bei 100 Euro ansetzen, dass man hier ein echtes Kaufargument generieren könnte.

Bin gespannt ob überhaupt noch ein Nachfolger kommt oder die Sparte bald endgültig eingestampft wird.
 
Wen interessiert der Stromverbrauch? Pff🫠
Rechte Tasche, linke Tasche.

Mining-Boom, alle jammern.

Grafikkarten wieder günstig - alle jammern. 🤣
 
Fallout667 schrieb:
Schaust du dann auch keine Filme, bzw hast früher gar nicht gespielt als es noch keine 120Hz Bildschirme gab?
Weißt du denn wie die Wiedergabe von Bildern auf den Fernseher funktioniert oder spielst du auch mit 24fps?

Falls du keinen Unterschied zwischen 24, 60 oder 120fps wahrnimmst, stimmt irgendwas mit dir nicht!
 
Casillas schrieb:
@usernamehere
wieso bist du denn ausgehend von der 6600 wieder zur 1080 zurück? die 6600 ist ja auch mal eben 70% effizienter.
Weil die RX6600 Anfang 2022 390 € gekostet hat und es mir das nicht wert war. Die 1080 braucht bei mir in FHD im CPU Limit auch nur extrem wenig Strom, da juckt mich die Effizienz wirklich nicht.
 
Mir gefällt die Karte grundsätzlich. Für ca. 150 € sicherlich eine Empfehlung wert. Für 200€ eher so lala...

Raytracing finde ich aber auf ARC Karten erstaunlich gut. Sie sind beim Erstversuch zumindest was den Impact von Raytracing auf die Gesamtperformance angeht schon weiter als AMD.
 
usernamehere schrieb:
Weil die RX6600 Anfang 2022 390 € gekostet hat und es mir das nicht wert war. Die 1080 braucht bei mir in FHD im CPU Limit auch nur extrem wenig Strom, da juckt mich die Effizienz wirklich nicht.
Also hast du die 6600 wieder verkauft, als sie entsprechend mehr wert war während des Mining Booms?

CPU Limit mit ner 1080 beim 5800x3D?
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Sly123 schrieb:
Die Arc verbraucht im Leerlauf ja mehr als Gaming-Notebook-Gpus bei Auslastung... oh weh
Die Leistung kann sich dennoch sehen lassen.

Meine arc a770 verbraucht im Leerlauf 4,6 Watt.

kA was daran hoch oder schlimm sein soll.

Light load/Teillast ist aber tatsächlich wieder ein ganz anderes Thema.

Verstehe nicht, wieso man die Abhängigkeit von aspm - einem Standardfeature seit pcie2 - bemängelt,
die von reBAR für optimale/maximale Leistung aber nicht (mehr) ...

Auch rebar ist oft erst mal Standard mäßig deaktiviert auf vielen wenn nicht gar den meisten Systemen, und es sollte mehr boards geben die aspm support bieten als reBAR.

Wieso weigert man sich dann aspm betreffend die zwei Maus Klicks zu setzen, einmal im bios und einmal in Windows..?

Und wieso klopft man nicht auch mal den Mainboard Herstellern auf die Pfoten,
damit sie es auch ordentlich(!) funktionierend implementieren, sofern sie es überhaupt anbieten?

Für am4 zb. wurde aspm seitens amd im agesa Code recht spät u nachträglich erst umgesetzt, und die Hersteller wie MSI hätten sich mal bisschen mehr bemühen bzw kümmern können das zeitnah umzusetzen und nicht erst 1-2 Jahre später erst wenn überhaupt. Löbliche Ausnahme - Gigabyte etwa .

Ja, ich hab keine teure fancy Test Möglichkeit wie CB ( müsste nochmal nachlesen wie die genau aufgebaut ist/funktioniert),

Aber dass aspm tadellos funktionieren kann und deutliche Verbesserung bringt, seh ich auch ohne:

1.) Mit Tools wie gpuz hwmon/hwinfo & co.
2) am Gesamtverbrauch lt. dem (etwas träge/ungenauen) Messgerät hinten am stromstecker fürs Gesamtsystem ohne Monitor
3) an der Wärme Entwicklung
4) an der Lautstärke/fan speed ( erst mit aspm auf null)
 
  • Gefällt mir
Reaktionen: Quidproquo77, Butterfass, axi und eine weitere Person
Zurück
Oben