Test State of the Arc: A770 & A750 im zweiten Duell gegen RTX 3000 und RX 6000

Wolfgang schrieb:
Exakt zwei Monate nach dem ersten Test stellen sich Intel Arc A770 und Arc 750 im Benchmark-Duell erneut Radeon RX 6000 und GeForce RTX 3000.
Die Frage ist, ob der Idle Verbrauch immer noch bei 70Watt liegt. Falls ja, ist die GK ein NoGo, andernfalls würde ich mir eine A770 statt 6700XT holen.
 
  • Gefällt mir
Reaktionen: Eisenoxid
Ich bin ja mal gespannt ob wir in ein paar Jahren Patentstreitigkeiten gegen intel wegen deren Treibern sehen. In der Kürze der Zeit halte ich es für schwer möglich, dass sie solche Fortschritte machen und gleichzeitig prüfen können ob deren Lösungsweg für die Probleme nicht Patentbelastet ist
 
Eisenoxid schrieb:
Es ist ja schon gut und wird nur besser :)
Für mich die perfekte Karte, für die meisten nicht. Es deckt meinen Anwendungsbereich perfekt ab, in einer außerordentlichen Qualität. Jeder kann nutzen was er möchte.

Für mich wär die Karte nix. Wünsche aber viel Freude mit der Karte!

Hast aber echt ein witziges Setup^^ AMD CPU und Intel GPU. Man wird sich daran gewöhnen aber heute doch was "besonderes".
 
  • Gefällt mir
Reaktionen: Eisenoxid
Was hat Ihr den erwartet, wie lange hat es bei AMD gedauert, mit bedeutend weniger Geld in der Hinterhand?

Die AMD HD7970 kam Ende 2011 und war die letzte konkurrenzfähige Karte zur GTX 680. Mit dem Unterschied das man die HD7970 durchaus höher Takten lassen konnte. 3gb VRAM statt 4gb VRAM der keinen großen Aufpreis kostete. Die Treiber wurden jeden Monat besser. :)

Naja, NVIDIA hat mit der GTX 480 (2010) einen Bock geschossen, könnt Ihr euch noch erinnern, Fermi wurde zu Thermi. Damals dachte man noch die brauchen viel Strom.

AMD hatte mit VEGA keine Chance gegen NVIDIA, der HBM Speicher brachte keine Überraschung. Erst mit NAVI (2019) wurde AMD wieder konkurrenzfähig. Das war 2019 (8 Jahre später), die RX 6900 XT ist mit der RTX 3080 gleich auf, bis auf mehr Hubraum (VRAM) wie damals schon.

Oder sagen wir mal so, wie lange dauerte es von AMD Bulldozer zu Ryzen. Die vorherige Architektur Phenom II (2009) brachte mehr Effizienz und wurde besser als Bulldozer (2011). Bulldozer war bekannt als langsam und durstig, aber Windows gab man die Ursache.

Glaube es wurden mehr Phenom II 6 Kerner verkauft als Bulldozer. Dem war auch noch vorzuziehen. Die APU´s von AMD waren gut und brachten mal etwas Licht in den dunklen Keller. Ryzen kam dann 2017 (6 Jahre später) und damit setze man Intel dann gehörig unter Druck.

Was will ich damit sagen, es muss nur einmal eine Architektur funktionieren und schon frisst man für eine Dekade die Konkurrenz, siehe Intels Grafikkarten. Die kann man fast mit dem Bulldozer von AMD vergleichen. Mal sehen ob und wie die von Ihren Fehlern lernen, zumal Geld ja nicht das Problem sein sollte.
 
  • Gefällt mir
Reaktionen: Eisenoxid
Gerithos schrieb:
Weil das der primäre einsatzzweck ist. Ich behaupte mal frech, 95 Prozent aller Käufer wollen mit einer gpu spielen.
Zeig mir eine alternative Karte, die AV1 decode/encode hat unter 1300 EUR...
 
  • Gefällt mir
Reaktionen: Yar und Eisenoxid
D0m1n4t0r schrieb:
Intel müsste einfach nur den Preis senken und die Karten würden sich verkaufen.
Die 770 für 299 Euro und die 750 für 199 und die Karten verkaufen sich und Intel bekommt nen Fuß in den Markt.
Den Preis so niedrig anzusetzen ist, so wie man hört, utopisch. Da macht Intel mit jedem verkauften Produkt Verlust im $50 Bereich (zumindest laut MLID).

Wenn mit Battlemage nichts besser wird, und auch hier munkelt man, dass es nicht gut aussieht und sich ggf. nur auf Mobile konzentriert werden wird, ist Intels GPU Programm mächtig Baden gegangen.
 
Ich kann Modern Warfare II in UHD flüssig spielen und das Ganze noch in AV1 aufnehmen. Für Videobearbeitung sehr tauglich. Im Encoder Test auf Platz eins vor Nvidia und AMD. Besser als meine RTX2070 Super vorher, für mich, andere sehen das anders, aber für mich uninteressant.
Eisenoxid schrieb:
Ich spiele Modern Warfare II in UHD, OHNE Probleme, flüssig.
Was heißt denn flüssig bei dir?
Laut Pcggameshardware schafft die 770 in 4k gerade mal 17 fps im Durchschitt.

https://www.pcgameshardware.de/Call...ls/Technik-Test-mit-GPU-Benchmarks-1406475/3/
 
Jan schrieb:
Wahrscheinlich immer noch dasselbe wie im Oktober mit FSR in Death Stranding? Es sieht im Stillstand aus wie 320x240? ;)

Danke, das würd ich gerne nochmal sehen ;) das hatte ich nicht mehr auf dem Schirm..

der .3802 Treiber enthält ja folgenden fix für Death Stranding:
Death Stranding Director’s Cut* (DX12) may exhibit lighting or flickering corruption
.. ist es das gewesen bei euch? jedenfalls wird das nicht explizit als Problem im Zusammenhang mit FSR erwähnt..

ich weiß nicht, müsste mal gucken ob ich den Titel irgendwo bei mir in den Tiefen der Epic Games Bibliothek oder im Xbox Game Pass Abo finde, dann seh ich mir das beizeiten selber mal an..
€: In der bescheidenen Xbox Game Pass - Mogelpackung ist - wie so oft leider- nur die alte Standardversion enthalten und nicht die Directors Cut Edition also wird's erst mal nix damit. (jaja der Xbox Game Pass.. meinen werd ich nächsten Februar wenn der ausläuft nicht mehr verlängern, gibt ca. 1000 Gründe es nicht zu tun)


PS: will wer dafür mal screenshots sehen, wie Forza Horizon 5 bei mir auf der Arc mit FSR aktiviert aussieht?

Ich könnte nachsehen ob ich sie noch finde oder später mal neue erstellen...
Aber vorsicht, nur für hartgesottene, das tut weh in den Augen! ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Yar
Gnodab schrieb:
Ich kann Modern Warfare II in UHD flüssig spielen und das Ganze noch in AV1 aufnehmen. Für Videobearbeitung sehr tauglich. Im Encoder Test auf Platz eins vor Nvidia und AMD. Besser als meine RTX2070 Super vorher, für mich, andere sehen das anders, aber für mich uninteressant.

Was heißt denn flüssig bei dir?
Laut Pcggameshardware schafft die 770 in 4k gerade mal 17 fps im Durchschitt.

https://www.pcgameshardware.de/Call...ls/Technik-Test-mit-GPU-Benchmarks-1406475/3/
Spielt sich wie sonst auch, schätze 50 FPS. Müsste es Mal irgendwie anzeigen lassen. Ruckelt keine Sekunde. Sieht sehr gut aus. Wenn Interesse besteht schaue ich morgen Mal nach. Habe mit meiner RTX 2070 Super vorher auch in UHD gespielt, bin keiner der mehr als 60fps braucht.
 
Zuletzt bearbeitet:
Wo bleibt die Neugierde etwas auszuprobieren? Mal wieder basteln.
Neues zu probieren.
Wo sind die Nerds und Geeks nur geblieben von früher, die diverse Karten von verschiedenen Herstellern im Rechner hatten. Sich in Foren darüber auszutauschen.

Für jemand der nur ein bestimmtes Spiel spielt kann doch die Karte ne Alternative sein. Wenn das Spiel sauber läuft wieso nicht.

Stattdessen gemecker und gejammer.
Dann wird sich nichts ändern.

Ich wünschte es wären wieder die 90 im Graka Markt da. Mit über 6 Hersteller wo jeder was findet was ihm gefällt.
 
  • Gefällt mir
Reaktionen: Yar, Zer0Strat, Aliosy und 5 andere
s!r.einSTein schrieb:
Zeig mir eine alternative Karte, die AV1 decode/encode hat unter 1300 EUR...
Trotzdem hat Intel diese Karte als gaming Karte platziert. Ist ungefähr so, als würd man nen neuen Sportwagen vorstelle, der weniger Leistung bringt als die Konkurrent aber Dafür ein riesen Infotainment hat. Spielt in der kernkompetenz keine Rolle oder man platziert sie halt als creator Karte, hat Intel aber nicht getan. Und ich sagte bewusst 95 Prozent und nicht 100,keine Ahnung warum man sich da dann angegriffen fühlt.
 
Jolly91 schrieb:
Was hat Ihr den erwartet, wie lange hat es bei AMD gedauert, mit bedeutend weniger Geld in der Hinterhand?

Die AMD HD7970 kam Ende 2011 und war die letzte konkurrenzfähige Karte zur GTX 680. Mit dem Unterschied das man die HD7970 durchaus höher Takten lassen konnte. 3gb VRAM statt 4gb VRAM der keinen großen Aufpreis kostete. Die Treiber wurden jeden Monat besser. :)

Naja, NVIDIA hat mit der GTX 480 (2010) einen Bock geschossen, könnt Ihr euch noch erinnern, Fermi wurde zu Thermi. Damals dachte man noch die brauchen viel Strom.

AMD hatte mit VEGA keine Chance gegen NVIDIA, der HBM Speicher brachte keine Überraschung. Erst mit NAVI (2019) wurde AMD wieder konkurrenzfähig. Das war 2019 (8 Jahre später), die RX 6900 XT ist mit der RTX 3080 gleich auf, bis auf mehr Hubraum (VRAM) wie damals schon.

Oder sagen wir mal so, wie lange dauerte es von AMD Bulldozer zu Ryzen. Die vorherige Architektur Phenom II (2009) brachte mehr Effizienz und wurde besser als Bulldozer (2011). Bulldozer war bekannt als langsam und durstig, aber Windows gab man die Ursache.

Glaube es wurden mehr Phenom II 6 Kerner verkauft als Bulldozer. Dem war auch noch vorzuziehen. Die APU´s von AMD waren gut und brachten mal etwas Licht in den dunklen Keller. Ryzen kam dann 2017 (6 Jahre später) und damit setze man Intel dann gehörig unter Druck.

Was will ich damit sagen, es muss nur einmal eine Architektur funktionieren und schon frisst man für eine Dekade die Konkurrenz, siehe Intels Grafikkarten. Die kann man fast mit dem Bulldozer von AMD vergleichen. Mal sehen ob und wie die von Ihren Fehlern lernen, zumal Geld ja nicht das Problem sein sollte.
Die rx 6900 xt konnte sich auch gegen die rtx 3090 behaupten und vega war nie so schlecht, nur als stock. Meine vega 56 ließ sich auf 1500 mhz übertakten und auf 0.95v gleichzeitig Undervolten.

Amd hatte sie besser einstellen müssen da, sich fast alle vegas so verhalten haben
 

Anhänge

  • Screenshot_20221205_223655_com.android.chrome.jpg
    Screenshot_20221205_223655_com.android.chrome.jpg
    321,8 KB · Aufrufe: 167
  • Screenshot_20221205_223707_com.android.chrome_edit_83777189343986.jpg
    Screenshot_20221205_223707_com.android.chrome_edit_83777189343986.jpg
    199 KB · Aufrufe: 167
  • Gefällt mir
Reaktionen: konkretor
mcsteph schrieb:
Ist das Problem mit dem hohen Idle Verbrauch gefixt?

jein. ich habe im bios nichts besonderes eingestellt aber musste im windows noch die pcie link energiesparfunktion von mittel auf maximal umstellen. das windows ist relativ aktuell, aber ich habe jetzt nicht bewusst ein update vorher gemacht.

ich denke microsoft hat das mal wieder verpennt.

edit: habe ja das dual gpu setup, und es geht nur die sekundäre gpu in den idle state - die hauptkarte bleibt bei ihren ~30w idle. der intel treiber weiß wohl nicht, dass 2 karten im system sind - man kann nirgends die karten umschalten und manche programme und der treiber selbst nehmen die sekundäre A750 als hauptkarte, obwohl die a770 bspw. in den optionen als hauptkarte festgelegt wurde. der intel treiber selbst identifiziert die a750 als a770 8gb. intel hat wohl selbst nicht dran geglaubt, dass sich jemand zwei von den dingern in den rechner steckt :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eisenoxid
konkretor schrieb:
Wo bleibt die Neugierde etwas auszuprobieren? Mal wieder basteln.
Neues zu probieren.


Es gibt Sie noch, die Bastler. Es gibt nicht viele, aber allein im Retro-Hardwarethread finden sich ja noch so einige. Hast ja selber erst vor kurzem gut abgestaubt im 3dc :p

Die Arc-Karten sind jedoch rar gesät - außer Löschzwerg und Eisenoxid (wie ich jetzt gerade gemerkt habe) und mir sind da nicht viele, die tatsächlich mal ein Game spielen mit den Dingern....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Yar, konkretor und Eisenoxid
Benutze meine für Spiele, die es auf den Konsolen nicht gibt, also hauptsächlich Strategie etc... Anfänglich begeistert, neuere Sachen unter DX12 laufen super. Mittlerweile hier und da doch etwas enttäuscht, bei vielen 4-5 Jahre alten Spielen unter DX11 ist es eine Lotterie ob und wie sie laufen.
 
Wolfgang schrieb:
Auch wenn du recht hast, dass AMD mit rBAR das geschickter gemacht hat, ist es deutlich einfacher rBAR im BIOS zu aktivieren als Intels Idle-Modus. Das sind 4 (Intel) gegenüber 2 (AMD) BIOS-Einstellungen (kein halbwegs modernes System ist nicht im UEFI-Modus unterwegs.

Das letzte mal als ich das getestet habe, waren es genau 2 Einstellungen im Bios, die ich ändern musste. Und weil das eine einmalige Änderung ist, ist das auch überhaupt kein Problem. Aber klar, bei AMD würde man sowas eher durchgehen lassen als bei Intel. Bei AMD hätte Computerbase das wahrscheinlich schon selber mal getestet, bei Intel wird es gar nicht erst versucht.
 
Ist doch toll Intel bietet gute Leistung für angemessenes Geld, bei de Grafikkarten.

Eine A750 gibts um 300€ ist mit RT, Was ja die neue Zunkuft darstellt und nur so rum gebrüllt wird immer besser als eine RX 6650XT um 330€.


Nur um das mal zu vergleichen das ist in der neueren Zeit Intels erste Grafikkarten Expedition,
Amd als lang eingesessener bietet dazu so gesehen nichts.


Edit:
War aber abzusehen seblst ein Intel I5 mit G7 Xe also 80 EU mit 28w TDP ist kaum schlechter als ein 5600G mit 65w TDP.
 
Zuletzt bearbeitet:
Terrordrome schrieb:
Benutze meine für Spiele, die es auf den Konsolen nicht gibt, also hauptsächlich Strategie etc... Anfänglich begeistert, neuere Sachen unter DX12 laufen super. Mittlerweile hier und da doch etwas enttäuscht, bei vielen 4-5 Jahre alten Spielen unter DX11 ist es eine Lotterie ob und wie sie laufen.
Ja, das glaub ich gerne. Spiele im Moment nur Battlefield 2042 und Modern Warfare II und beide laufen sehr gut in UHD. Mal sehen was Intel noch am Treiber werkelt um diesem leider lästigen Problem zu begegnen.
Da mein PC eher zum Arbeiten verwendet wird, kann ich damit leben. Zocke eh lieber auf Konsole, reicht mir persönlich vollkommen aus. Kann deswegen ganz entspannt abwarten, wie es sich noch entwickeln wird.
 
Zurück
Oben