Test Intels 200-Euro-Grafikkarte im Test: Arc A580 vs. A750, RTX 3050 & 3060 und RX 7600 & 6600

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
16.021
  • Gefällt mir
Reaktionen: flo.murr, Trent, aid0nex und 25 andere
Sry solange die den Leerlaufverbrauch nicht in den Griff bekommen, ist Intel für mich keine Alternative.
 
  • Gefällt mir
Reaktionen: bullit1, gartenriese, flo.murr und 40 andere
Erstaunlich, dass die Intel AMD manchmal in RT schlägt. Aber der Stromverbrauch ist einfach nicht mehr Zeitgemäß
 
  • Gefällt mir
Reaktionen: flo.murr und EdwinOdesseiron
Wäre eine 580 oder eine 7600 / 6600 oder eine 3050/3060 ein großer Unterschied in der Leistung zu meiner alten 1080?
Die alten Karten fallen ja leider aus allen Benchmarks raus, sodass es recht schwierig ist abzuschätzen, ob man durch die neueren Generationen ungefähr beim gleichen bleibt oder es mehr oder weniger wird.
 
  • Gefällt mir
Reaktionen: flo.murr, Alex1966, Cynob und 7 andere
Es muss viel mehr der Einsteiger und Casualgamer berücksichtigt werden in Gaming bei den Herstellern. Auch über „Volumenmodell“ kann man Geld machen!

Der Grund ist ganz einfach dass sonst viele abwandern zu Playstation, Xbox und Switch .
Klar macht das Highend- Segment mehr Gewinn , aber die Studios werden langfristig dann den PC- Markt vernachlässigen und Portierungen sich sparen wenn die Gamer weg fallen ( die Masse an PC- Spielern) und nur wenige „high end Gamer“ gibt.

Und Intel ist eine Bereicherung, da sonst der Segment 200€ wohl völlig vernachlässigt wird !
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FuzzyHead, flo.murr, aid0nex und 19 andere
Ich liebe viele Frames und hohe Details, deswegen schaue ich nicht alle 2 Jahre auf den Preis und kaufe einfach. Wenn ich meine 4080 nehme die z.B. in the Division 2 in WQHD auf Ultra bei stabilen 120fps stelle, ist der durchschnittliche Verbrauch im Undervolting bei ~145W.

Alles unter 90Fps ist Gift für meine Augen, also ist es vielleicht für die Zielgruppe die Lowbudgetgrafikkarten kaufen sollen, einfacher zur Konsole wechseln.

Verurteilt mich nicht aber hohe Details bei vielen Frames sind heutzutage zum sehr teueren Hobby geworden!
 
  • Gefällt mir
Reaktionen: Raptor85, NMA und aLanaMiau
Gut das hier Intel weiter dran bleibt. Die Treibern haben sich massiv verbessert seit 2022.

Jo der IDLE Stromverbrauch ist eins der größten schwächen der Karte.
 
  • Gefällt mir
Reaktionen: IliadZenith, flo.murr, Maverick515 und 17 andere
Man muss anmerken die RX7600 macht ohne RT einen guten job. Aber seltsam ist dass Intel mit der 580 und 750 gleichauf oder besser sind und das lässt amd iwie unattraktiv werden für Leute die es haben wollen
 
  • Gefällt mir
Reaktionen: Mcr-King
Wieso wird nicht der aktuelle Preis-Leistungs-Sieger im Test berücksichtigt? RX 6650 XT (= 240 Euro)
 
  • Gefällt mir
Reaktionen: Mcr-King, Nasedo00, lalanunu und 11 andere
Salamimander schrieb:
Erstaunlich, dass die Intel AMD manchmal in RT schlägt.
Kurzer Blick auf die Architektur der jeweiligen GPUs und dann ist das plötzlich nicht mehr erstaunlich.
 
  • Gefällt mir
Reaktionen: NMA und Slayn
konkretor schrieb:
Gut das hier Intel weiter dran bleibt. Die Treibern haben sich massiv verbessert seit 2022.
Passend dazu die Gunnir Index mit Xe Kernen:
Screenshot 2023-10-12 001413.png
 
  • Gefällt mir
Reaktionen: Mcr-King, boypac007, NMA und 2 andere
Danke für nichts, Intel!
Zu teuer, viel zu hoher Stromverbrauch und dann auch noch immer teils harte Treiberprobleme. Nö, nö, nö.
 
Es gibt doch seit Monaten einen Workaround um die Spannung im IDLE zu senken.
Für meine kleine Linux-Büchse wäre die schon interessant.
 
  • Gefällt mir
Reaktionen: lynxx83 und NMA
@Jan Nun ist CB ja eine Gamer-Seite, aber wenigstens einen Satz zu Computing könnte man schon fallenlassen - da sind die Intel-Karten nämlich gar nicht schlecht und insbesondere die A770 mit ihren 16GB einen Blick wert. Das gilt sowohl für Krams à la LLMs oder Stable Diffusion als auch Produktivitäts-Zeugs wie Davinci Resolve, wo die A750 inzwischen mit einer 4060 so gut wie gleichauf liegt und die A770 ihr davonzieht.

CPUs testet ihr in Anwendungen doch auch...
 
  • Gefällt mir
Reaktionen: usopia, Zarlak, kat7 und 16 andere
  • Gefällt mir
Reaktionen: Akula, Sweepi, danyundsahne und 3 andere
Luccabrasi schrieb:
Es gibt doch seit Monaten einen Workaround um die Spannung im IDLE zu senken.
Und warum bindet den Intel nicht mal offiziell in seine Treiber ein?
Man muss Produkte so testen, wie sie angeboten werden und nicht mir irgendwelchem Workaround Bumms.
 
  • Gefällt mir
Reaktionen: bullit1, Balikon, Michael vdMaas und 13 andere
"Getestet wurde auf einem Ryzen 7 7800X3D mit 32 GB DDR5-6000CL30 auf einem aktuellen Windows 11, das für Arc zwingend erforderliche PCIe-Feature rBAR/SAM war aktiv."

Heißt das das man die GPU mit älteren CPUs, wo die preislich dazu passen würde als Upgrade nicht verwenden kann?

Also z.B. bei einem i7-8700K

Der Wolle P schrieb:
Ich liebe viele Frames und hohe Details, deswegen schaue ich nicht alle 2 Jahre auf den Preis und kaufe einfach. Wenn ich meine 4080 nehme die z.B. in the Division 2 in WQHD auf Ultra bei stabilen 120fps stelle, ist der durchschnittliche Verbrauch im Undervolting bei ~145W.

Alles unter 90Fps ist Gift für meine Augen, also ist es vielleicht für die Zielgruppe die Lowbudgetgrafikkarten kaufen sollen, einfacher zur Konsole wechseln.

Verurteilt mich nicht aber hohe Details bei vielen Frames sind heutzutage zum sehr teueren Hobby geworden!

Es braucht aber nicht jeder 90 FPS. Bei AC Mirage waren es auf der GTX 1050ti 4 GiB etwa 30-40 FPS (FullHD, niedrige-mittlere Settings) und ließ sich erstaunlich gut spielen, obwohl die Systemanforderungen eine 1060 6GiB fordern.
Auch der Grafikspeicher reichte aus.

Dazu kommt, dass auf einer Konsole auch keine Anwendungen wie Blender laufen.

GrumpyCat schrieb:
@Jan Nun ist CB ja eine Gamer-Seite, aber wenigstens einen Satz zu Computing könnte man schon fallenlassen - da sind die Intel-Karten nämlich gar nicht schlecht und insbesondere die A770 mit ihren 16GB einen Blick wert. Das gilt sowohl für Krams à la LLMs oder Stable Diffusion als auch Produktivitäts-Zeugs wie Davinci Resolve, wo die A750 inzwischen mit einer 4060 so gut wie gleichauf liegt und die A770 ihr davonzieht.

CPUs testet ihr in Anwendungen doch auch...

Tests in Blender oder Cinebench R24 würden mich auch interessieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Moonr3der
GrumpyCat schrieb:
Das gilt sowohl für Krams à la LLMs oder Stable Diffusion als auch Produktivitäts-Zeugs wie Davinci Resolve, wo die A750 inzwischen mit einer 4060 so gut wie gleichauf liegt und die A770 ihr davonzieht.
Resolve und OBS Tests wären da echt ganz nett. Bei Resolve kann man sich ja mit Pugetbench abhelfen..^^
 
Richtig. Ohne rBAR/SAM geht bei Arc nichts. Ich habe das auch noch einmal im Fazit ergänzt!

@R4mses guter Punkt, ich sehe mal, was die Tage da noch geht.
 
  • Gefällt mir
Reaktionen: Michael vdMaas, R4mses, BAR86 und 2 andere
Zurück
Oben