Test Intel Arc A770 & A750 im Test: Intels schnellste Gaming-Grafikkarten analysiert

Also falls Intel scheitern sollte, wird bestimmt irgendein chinesischer Konzern die Reste aufkaufen und in fünf Jahren dann beginnen den Markt aufzurollen..
 
Ano_Dezimal schrieb:
Das machst du nicht für mich, sondern für dich. Denn das liest sich direkt komplett anders und singalisiert auch was ganz anderes. Aber du bist nicht der einzige der so ist, hier gibt es viele die der Ansicht sind Preise für Produkte festlegen zu müssen.

Natürlich gibt hier jeder User für sich individuell die subjektive Preisvorstellung an, oder denkst du für den Nachbarn oder Arbeitskollegen, von daher verstehe ich deine Antwort nicht, bzw. sie hat Logik Löcher?

Aber nichts für ungut, jeder kauft und konsumiert was er für finanziell angebracht hält, so wie ich, du und alle anderen User hier. :daumen:
 
  • Gefällt mir
Reaktionen: simosh
Aus meiner Sich eines Gamers.
Leistung 4
Verbrauch 4
Treiber 5-

Selbst für 100€ kann ich sie niemandem den ich kenne empfehlen solange die Treiber nicht passen.
 
  • Gefällt mir
Reaktionen: Innocience, cookie_dent, Rockstar85 und 2 andere
Silencium schrieb:
für die erste GPU von Intel ist das schon wirklich keine schlechte Leistung.
Ganz die erste dedizierte GPU ist es nicht. Intel hatte mit der i740 im Jahr 1998 schon den ersten Versuch gestartet, der recht schnell gescheitert ist.

SVΞN schrieb:
Schade, ich habe zu Beginn deutlich mehr erwartet und schlussendlich wurden selbst die immer tiefer gesteckten Erwartungen noch einmal unterboten.
Intel hatte durch die eigenen Ankündigungen ja auch höhere Erwartungen geschürt. War nicht anfangs sogar mal die 3070 das erklärte Ziel?
Zumindest die mittlerweile anvisierte RTX 3060 erreichen sie zwar so grob, aber mit dem ansonsten schlechteren Gesamtpaket (Verbrauch unter Last über der 3070, lahmes DirectX 9 durch die "Emulation" und unausgereifte Treiber).

SVΞN schrieb:
Im Abverkauf könnte die A770 zumindest ein Exot für die Vitrine werden.
Kommt die dann neben die oben erwähnte i740 in die Vitrine?
 
  • Gefällt mir
Reaktionen: SVΞN
Direkt mal eine 5 gegeben. Welch komplett vermüllte Vorstellung. Dafür das Intel so ein riesen Laden ist, ist das hier Sondermüll. Vor allem der Verbrauch und die Frametimes kommen aus der Hölle.

Im zweiten Wurf wird sich dann zeigen wie gut hier die Basis war.
 
  • Gefällt mir
Reaktionen: edenjung, Innocience, matraj63 und 4 andere
Naja, dass das Release der Karten vielleicht nicht perfekt werden würde, auch in Anbetracht der Verspätung, war ja in gewisser Weise fast erwartbar. Auf der anderen Seite muss man aber auch sehen, dass Intel jetzt trotz gegenwärtiger Probleme (Einstellung von Optane, Verzögerung bei Sapphire Rapids, etc.) alles andere als ein kleines Unternehmen ist, sich für die damals neu aufgestellte Grafiksparte auch bekannte und erfahrene Leute eingekauft hat und grundsätzlich auch weiß, wie man Treiber baut. Es ist für mich eher bedenklich, dass wir, zumindest soweit ich weiß, hier von den Topmodellen sprechen und diese gerade so mit der gehobenen Mittelklasse der Konkurrenz mithalten können. Für die Zukunft wird man sich da schon noch ziemlich strecken müssen, gerade weil die Konkurrenz ja auch nicht schläft.
Ich hoffe daher, dass der Einstieg von Intel in den Grafikkartenmarkt nicht zu spät kam und man bei Intel einen langen Atem hat, sonst haben in ein paar Jahren einen weiteren "gescheiterten" und leider keinen "gescheiten" Konkurrenten im Grafikkartenmarkt.
 
Zuletzt bearbeitet:
bad_sign schrieb:
Wir sind aber in 2022, bald 23, nicht 16
ja die Zeiten gehen vorwärts.
Andersrum kann ich aber sagen. Wir sind im Jahr 1 des Releases, nicht 25, wie bei AMD und Nvidia, die das eben erst nach vielen Jahren in den Griff bekommen haben.
Es ist nunmal eine Entwicklung.
Genauso kann man sagen "wir sind im Jahr 2022, nicht 2016" und meint damit den Spitzenverbrauch, der ist bei Intel nämlich auf 1080 Ti Niveau (auch die Leistung ;) ), nicht auf 4090 Niveau.
Ergänzung ()

ComputerJunge schrieb:
Ich verstehe ja Deine Referenz auf die ebenso schlechten Verbrauchswerte der älteren Produkte der Konkurrenz.

Aber bestätigte Idle 40 Watt lesen sich für mich aus technischer Laiensicht irgendwie wie "Ups, Sie haben Recht, Gating haben wir offenbar vergessen".
Bei den CPUs ist Intel diesbezüglich top, daher kann es doch eigentlich kein reines Hardwareproblem sein.
Das CPU Team ist halt nicht das GPU Team. Vermutlich hat man im ersten Versuch einfach mal versucht eine Generation auf den Markt zu bringen die Läuft, und noch nicht darauf geachtet "alles" richtig zu machen.
Das Team wächst noch, man wird auf etwas aufbauen können - dann ist es auch leichter einzelne Dinge zu ändern.
Wenn ich etwas neue Anfange ist es auch nicht so gut, wie das was andere seit 30 jahren machen
 
Bin angenhm überrascht. Stromverbrauch in Idle ist schlecht aber scheint haben sie einiges mit die Treiber gemacht.
Spannend ist wie entwicklt die Treiber weiter... Könnte ein Geheim Tipp für Full HD/WQHD Zocker sein
 
Intel ist ein Musterbeispiel dafür, wie einst große, mächtige Quasi-Monopole failen können.

Erst hat man fünf Generationen in Folge den Markt mit teuren Quadcores beglückt. Und nun bringt man kurz vor RDNA 3 und RTX 4000 Grafikkarten auf dem Markt, die zumindest kein Gamer gebrauchen kann.

Auf der anderen Seite AMD, die sowohl bei CPUs als GPUs absolut wettbewerbsfähige Produkte in Serie rausbringen.

Diese Grafikkarten braucht der Markt nicht und ein Konzern wie Intel sollte es besser können. Für mich ein klarer Fail.
 
  • Gefällt mir
Reaktionen: edenjung und JohnVienna
JohnVienna schrieb:
Natürlich gibt hier jeder User für sich individuell die subjektive Preisvorstellung an, oder denkst du für den Nachbarn oder Arbeitskollegen, von daher verstehe ich deine Antwort nicht, bzw. sie hat Logik Löcher?
Logik Löcher hat deine Meinung ebenfalls. Aber wie du schon sagtest, wir belassen es dabei. Denn es ist eine never ending Story. Jedem das seine :)
 
  • Gefällt mir
Reaktionen: JohnVienna
Tjoa, wie andere es sagen, so sehe ich aus: Intel ARC Gen 1 ist ein halbes bis ganzes Desaster.

Einen Hoffnungsschimmer gibt es: irgendwo in den Treibern gibt es Code, der Leistung auf der Strecke liegen lässt. Der CSGO Benchmark zwischen 720p und 1080p sieht stark nach CPU-Limit aus,
eventuell kann ein neuer Treiber es richten.

Dagegen spricht aber eine Sache: Raja Koduri. Okay, ob er selber oder das Team um ihn herum weiß ich nicht,
aber "das gleiche Problem" hatte Vega auch und das war ein Fehler vom Hardwaredesign.

Der Stromverbrauch im Leerlauf ist auch schlecht.
Naja, mal schauen, vielleicht hole ich mir eine A310 für die "Hall of Shame".
 
  • Gefällt mir
Reaktionen: Aegir
Chesterfield schrieb:
Sehe für die A770 einen achtungserfolg; und erzielt gegen 6650xt /RTx 3060 defintiv Punkte ( wenn auch keinen absoluten Sieg) … bin trotzdem überrascht. Positiv .

Für den Einstieg in mittleres Gaming eine Alternative 👏🏿.

also muss sagen wenn sie ordentliche Treiber liefern und über den Preis kommen kann das für midrage durchaus spannend werden ein Dreikampf.

Hervorzuheben ist die AV1-Encoding Leistung. Also quasi ein Must habe für Encoder und das simmer noch genug Leute die einen Kaufanreiz hätten
Findest du? Die hat so viel Speicher, Recheneinheiten, usw... ist also garantiert teuer zu fertigen und kostet knapp 400 €? Dann doch lieber die günstigere, schnellere UND unproblematischere 3060. Oder noch besser: Direkt zur 3060 Ti / 6700 XT greifen. Die drehen Kreise um diese Karte.
Klar, erste GPU seit langem. Von daher OK. Aber guten Gewissens kann man das Teil niemandem empfehlen.
 
  • Gefällt mir
Reaktionen: Oktaederfeld
Ja, vor 2 Jahren wo die Mining "Krise" für teure Preise und Hardware Knappheit sorgte, wäre der jetzige Launch sehr gut aufgenommen worden.
Heute mit den "alten" Karten gerade so mithalten zu können, ist viel zu wenig.
Aber es werden bestimmt einige OEMs diese Karten in ihren Top Gaming Rechnern verbauen bei Aldi und co .
 
Ist ja irgendwie eine enttäuschende Vorstellung, aber mehr erwarten durfte man, glaube ich nicht, ob es mit Treiberverbesserung was wird? Vielleicht next Generation abwarten?
 
BAR86 schrieb:
Das CPU Team ist halt nicht das GPU Team.
Klar. Aber die hätten sich ja ab und an mal austauschen können. ;-)

Mit etwas weniger Spott: Ich denke mittlerweile wirklich, dass Intel ein grundsätzliches Problem bei sowohl der Zusammenstellung von Teams als auch der Wahl der richtigen Zusammenarbeitsmodelle hat. Liest sich alles wie enorm altertümliche hierarchische Organisationstrukturen kombiniert mit maximal minimierter Verantwortung in den Teams und nahezu perfektionierter Taubheit des hohen Managements gegenüber des Feedbacks aus den Mannschaften. Intel auf den Spuren von IBM?

Aber das kann (will?) ich mir wiederum nicht richtig vorstellen, genausowenig wie den gemessenen Idle-Verbrauch als finales Optimum. Die Wichter 3 - Performance passt nämlich für mich ziemlich perfekt, weil es ist vermutlich das einzige Spiel, welches ich im kommenden Herbst/Winter am PC (weiter)spielen werde. Mal schauen, was sich technisch weiterhin ergibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: edenjung
Nicht so schlecht wie ich dachte aber auch nicht atemberaubend, ich hoffe nur das Intel dran bleibt, ne basis haben die jetzt damit geschaffen.
Was mich noch interessiert wie der VR support aussieht und ob Intel die Idle verbräuche noch geregelt bekommt.
Was aber wirklich dämlich umgesetzt ist, ist das mit dem RGB kram. einerseits find ichs gut weil dann wohl nichts von haus aus leuchtet aber andererseits bekommen es die anderen hersteller besser hin.
Ich denke bei BM also dem arc nachfolger werd ich mir so ne midclass karte als ersatz zulegen.
 
highwind01 schrieb:
Polemischer Unsinn
Defacto ist die Karte von Leistung und Effizienz ziemlich auf RX 5700 XT Niveau - was immerhin die "Top Karte" des direkten Mitbewerbers der letzten Generation war
Ja nur das AMD in der letzten Generation chancenlos war und die 5700XT schnell um die 300 eur gekostet hat anno 2019/2020. Wir können also festhalten, selbe leistung und selber, eher höherer, Preis zwei Jahre später. Dem gegenüber steht der encoder als Pluspunkt und die inkonstanz und schlechte Performance bei älteren Titeln, der idle Verbrauch als Minuspunkte. Da ist nix polemisch, das Ding ist ein trauerspiel.
 
  • Gefällt mir
Reaktionen: FGA
Bescheidene Leistung!
Generell:
Sind GPUs und CPUs denn so Grundverschieden herzustellen? Sind doch im Endeffekt beides Prozessoren, mit dem Unterschied das GPUs mehr auf Parallelisierung ausgelegt sind.
CPUs baut Intel doch wirklich schon lange.... zudem onboard-lösungen seit Jahren. Also, wo hakt es?
 
Da ist wohl was schief gelaufen, wenn die GPU im Leerlauf mehr aus dem Loch säuft als die wesentlich stärkeren Konkurrenzkarten.
 
Zurück
Oben