Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Intel Arc A770 & A750 im Test: Intels schnellste Gaming-Grafikkarten analysiert
- Ersteller Jan
- Erstellt am
- Zum Test: Intel Arc A770 & A750 im Test: Intels schnellste Gaming-Grafikkarten analysiert
JohnVienna
Lt. Commander
- Registriert
- Aug. 2005
- Beiträge
- 1.846
Ano_Dezimal schrieb:Das machst du nicht für mich, sondern für dich. Denn das liest sich direkt komplett anders und singalisiert auch was ganz anderes. Aber du bist nicht der einzige der so ist, hier gibt es viele die der Ansicht sind Preise für Produkte festlegen zu müssen.
Natürlich gibt hier jeder User für sich individuell die subjektive Preisvorstellung an, oder denkst du für den Nachbarn oder Arbeitskollegen, von daher verstehe ich deine Antwort nicht, bzw. sie hat Logik Löcher?
Aber nichts für ungut, jeder kauft und konsumiert was er für finanziell angebracht hält, so wie ich, du und alle anderen User hier.
Ganz die erste dedizierte GPU ist es nicht. Intel hatte mit der i740 im Jahr 1998 schon den ersten Versuch gestartet, der recht schnell gescheitert ist.Silencium schrieb:für die erste GPU von Intel ist das schon wirklich keine schlechte Leistung.
Intel hatte durch die eigenen Ankündigungen ja auch höhere Erwartungen geschürt. War nicht anfangs sogar mal die 3070 das erklärte Ziel?SVΞN schrieb:Schade, ich habe zu Beginn deutlich mehr erwartet und schlussendlich wurden selbst die immer tiefer gesteckten Erwartungen noch einmal unterboten.
Zumindest die mittlerweile anvisierte RTX 3060 erreichen sie zwar so grob, aber mit dem ansonsten schlechteren Gesamtpaket (Verbrauch unter Last über der 3070, lahmes DirectX 9 durch die "Emulation" und unausgereifte Treiber).
Kommt die dann neben die oben erwähnte i740 in die Vitrine?SVΞN schrieb:Im Abverkauf könnte die A770 zumindest ein Exot für die Vitrine werden.
Direkt mal eine 5 gegeben. Welch komplett vermüllte Vorstellung. Dafür das Intel so ein riesen Laden ist, ist das hier Sondermüll. Vor allem der Verbrauch und die Frametimes kommen aus der Hölle.
Im zweiten Wurf wird sich dann zeigen wie gut hier die Basis war.
Im zweiten Wurf wird sich dann zeigen wie gut hier die Basis war.
Naja, dass das Release der Karten vielleicht nicht perfekt werden würde, auch in Anbetracht der Verspätung, war ja in gewisser Weise fast erwartbar. Auf der anderen Seite muss man aber auch sehen, dass Intel jetzt trotz gegenwärtiger Probleme (Einstellung von Optane, Verzögerung bei Sapphire Rapids, etc.) alles andere als ein kleines Unternehmen ist, sich für die damals neu aufgestellte Grafiksparte auch bekannte und erfahrene Leute eingekauft hat und grundsätzlich auch weiß, wie man Treiber baut. Es ist für mich eher bedenklich, dass wir, zumindest soweit ich weiß, hier von den Topmodellen sprechen und diese gerade so mit der gehobenen Mittelklasse der Konkurrenz mithalten können. Für die Zukunft wird man sich da schon noch ziemlich strecken müssen, gerade weil die Konkurrenz ja auch nicht schläft.
Ich hoffe daher, dass der Einstieg von Intel in den Grafikkartenmarkt nicht zu spät kam und man bei Intel einen langen Atem hat, sonst haben in ein paar Jahren einen weiteren "gescheiterten" und leider keinen "gescheiten" Konkurrenten im Grafikkartenmarkt.
Ich hoffe daher, dass der Einstieg von Intel in den Grafikkartenmarkt nicht zu spät kam und man bei Intel einen langen Atem hat, sonst haben in ein paar Jahren einen weiteren "gescheiterten" und leider keinen "gescheiten" Konkurrenten im Grafikkartenmarkt.
Zuletzt bearbeitet:
ja die Zeiten gehen vorwärts.bad_sign schrieb:Wir sind aber in 2022, bald 23, nicht 16
Andersrum kann ich aber sagen. Wir sind im Jahr 1 des Releases, nicht 25, wie bei AMD und Nvidia, die das eben erst nach vielen Jahren in den Griff bekommen haben.
Es ist nunmal eine Entwicklung.
Genauso kann man sagen "wir sind im Jahr 2022, nicht 2016" und meint damit den Spitzenverbrauch, der ist bei Intel nämlich auf 1080 Ti Niveau (auch die Leistung ), nicht auf 4090 Niveau.
Ergänzung ()
Das CPU Team ist halt nicht das GPU Team. Vermutlich hat man im ersten Versuch einfach mal versucht eine Generation auf den Markt zu bringen die Läuft, und noch nicht darauf geachtet "alles" richtig zu machen.ComputerJunge schrieb:Ich verstehe ja Deine Referenz auf die ebenso schlechten Verbrauchswerte der älteren Produkte der Konkurrenz.
Aber bestätigte Idle 40 Watt lesen sich für mich aus technischer Laiensicht irgendwie wie "Ups, Sie haben Recht, Gating haben wir offenbar vergessen".
Bei den CPUs ist Intel diesbezüglich top, daher kann es doch eigentlich kein reines Hardwareproblem sein.
Das Team wächst noch, man wird auf etwas aufbauen können - dann ist es auch leichter einzelne Dinge zu ändern.
Wenn ich etwas neue Anfange ist es auch nicht so gut, wie das was andere seit 30 jahren machen
Max007
Lt. Commander
- Registriert
- Juli 2004
- Beiträge
- 1.105
Intel ist ein Musterbeispiel dafür, wie einst große, mächtige Quasi-Monopole failen können.
Erst hat man fünf Generationen in Folge den Markt mit teuren Quadcores beglückt. Und nun bringt man kurz vor RDNA 3 und RTX 4000 Grafikkarten auf dem Markt, die zumindest kein Gamer gebrauchen kann.
Auf der anderen Seite AMD, die sowohl bei CPUs als GPUs absolut wettbewerbsfähige Produkte in Serie rausbringen.
Diese Grafikkarten braucht der Markt nicht und ein Konzern wie Intel sollte es besser können. Für mich ein klarer Fail.
Erst hat man fünf Generationen in Folge den Markt mit teuren Quadcores beglückt. Und nun bringt man kurz vor RDNA 3 und RTX 4000 Grafikkarten auf dem Markt, die zumindest kein Gamer gebrauchen kann.
Auf der anderen Seite AMD, die sowohl bei CPUs als GPUs absolut wettbewerbsfähige Produkte in Serie rausbringen.
Diese Grafikkarten braucht der Markt nicht und ein Konzern wie Intel sollte es besser können. Für mich ein klarer Fail.
Ano_Dezimal
Lieutenant
- Registriert
- Juli 2019
- Beiträge
- 978
Logik Löcher hat deine Meinung ebenfalls. Aber wie du schon sagtest, wir belassen es dabei. Denn es ist eine never ending Story. Jedem das seineJohnVienna schrieb:Natürlich gibt hier jeder User für sich individuell die subjektive Preisvorstellung an, oder denkst du für den Nachbarn oder Arbeitskollegen, von daher verstehe ich deine Antwort nicht, bzw. sie hat Logik Löcher?
GTrash81
Lt. Commander
- Registriert
- Aug. 2014
- Beiträge
- 1.821
Tjoa, wie andere es sagen, so sehe ich aus: Intel ARC Gen 1 ist ein halbes bis ganzes Desaster.
Einen Hoffnungsschimmer gibt es: irgendwo in den Treibern gibt es Code, der Leistung auf der Strecke liegen lässt. Der CSGO Benchmark zwischen 720p und 1080p sieht stark nach CPU-Limit aus,
eventuell kann ein neuer Treiber es richten.
Dagegen spricht aber eine Sache: Raja Koduri. Okay, ob er selber oder das Team um ihn herum weiß ich nicht,
aber "das gleiche Problem" hatte Vega auch und das war ein Fehler vom Hardwaredesign.
Der Stromverbrauch im Leerlauf ist auch schlecht.
Naja, mal schauen, vielleicht hole ich mir eine A310 für die "Hall of Shame".
Einen Hoffnungsschimmer gibt es: irgendwo in den Treibern gibt es Code, der Leistung auf der Strecke liegen lässt. Der CSGO Benchmark zwischen 720p und 1080p sieht stark nach CPU-Limit aus,
eventuell kann ein neuer Treiber es richten.
Dagegen spricht aber eine Sache: Raja Koduri. Okay, ob er selber oder das Team um ihn herum weiß ich nicht,
aber "das gleiche Problem" hatte Vega auch und das war ein Fehler vom Hardwaredesign.
Der Stromverbrauch im Leerlauf ist auch schlecht.
Naja, mal schauen, vielleicht hole ich mir eine A310 für die "Hall of Shame".
schallundrauch
Lt. Commander
- Registriert
- Okt. 2013
- Beiträge
- 1.049
Findest du? Die hat so viel Speicher, Recheneinheiten, usw... ist also garantiert teuer zu fertigen und kostet knapp 400 €? Dann doch lieber die günstigere, schnellere UND unproblematischere 3060. Oder noch besser: Direkt zur 3060 Ti / 6700 XT greifen. Die drehen Kreise um diese Karte.Chesterfield schrieb:Sehe für die A770 einen achtungserfolg; und erzielt gegen 6650xt /RTx 3060 defintiv Punkte ( wenn auch keinen absoluten Sieg) … bin trotzdem überrascht. Positiv .
Für den Einstieg in mittleres Gaming eine Alternative 👏🏿.
also muss sagen wenn sie ordentliche Treiber liefern und über den Preis kommen kann das für midrage durchaus spannend werden ein Dreikampf.
Hervorzuheben ist die AV1-Encoding Leistung. Also quasi ein Must habe für Encoder und das simmer noch genug Leute die einen Kaufanreiz hätten
Klar, erste GPU seit langem. Von daher OK. Aber guten Gewissens kann man das Teil niemandem empfehlen.
me@home
Lieutenant
- Registriert
- Dez. 2017
- Beiträge
- 681
Ja, vor 2 Jahren wo die Mining "Krise" für teure Preise und Hardware Knappheit sorgte, wäre der jetzige Launch sehr gut aufgenommen worden.
Heute mit den "alten" Karten gerade so mithalten zu können, ist viel zu wenig.
Aber es werden bestimmt einige OEMs diese Karten in ihren Top Gaming Rechnern verbauen bei Aldi und co .
Heute mit den "alten" Karten gerade so mithalten zu können, ist viel zu wenig.
Aber es werden bestimmt einige OEMs diese Karten in ihren Top Gaming Rechnern verbauen bei Aldi und co .
Firlefanz_11
Ensign
- Registriert
- Jan. 2009
- Beiträge
- 144
Ist ja irgendwie eine enttäuschende Vorstellung, aber mehr erwarten durfte man, glaube ich nicht, ob es mit Treiberverbesserung was wird? Vielleicht next Generation abwarten?
Wurde doch hier auch getestet… jeweils nur 1W mehr im Dual-Monitor-Setup 😉Czk666 schrieb:Mich würde noch interessieren ob sie mit 2 Bildschirmen noch mehr verbraucht im idle. Da zieht meine AMD auch 40
https://www.computerbase.de/artikel...itt_stromverbrauch_unter_last_und_im_leerlauf
ComputerJunge
Captain Pro
- Registriert
- Sep. 2018
- Beiträge
- 3.502
Klar. Aber die hätten sich ja ab und an mal austauschen können. ;-)BAR86 schrieb:Das CPU Team ist halt nicht das GPU Team.
Mit etwas weniger Spott: Ich denke mittlerweile wirklich, dass Intel ein grundsätzliches Problem bei sowohl der Zusammenstellung von Teams als auch der Wahl der richtigen Zusammenarbeitsmodelle hat. Liest sich alles wie enorm altertümliche hierarchische Organisationstrukturen kombiniert mit maximal minimierter Verantwortung in den Teams und nahezu perfektionierter Taubheit des hohen Managements gegenüber des Feedbacks aus den Mannschaften. Intel auf den Spuren von IBM?
Aber das kann (will?) ich mir wiederum nicht richtig vorstellen, genausowenig wie den gemessenen Idle-Verbrauch als finales Optimum. Die Wichter 3 - Performance passt nämlich für mich ziemlich perfekt, weil es ist vermutlich das einzige Spiel, welches ich im kommenden Herbst/Winter am PC (weiter)spielen werde. Mal schauen, was sich technisch weiterhin ergibt.
Zuletzt bearbeitet:
Hatsune_Miku
Rear Admiral
- Registriert
- Juli 2012
- Beiträge
- 5.353
Nicht so schlecht wie ich dachte aber auch nicht atemberaubend, ich hoffe nur das Intel dran bleibt, ne basis haben die jetzt damit geschaffen.
Was mich noch interessiert wie der VR support aussieht und ob Intel die Idle verbräuche noch geregelt bekommt.
Was aber wirklich dämlich umgesetzt ist, ist das mit dem RGB kram. einerseits find ichs gut weil dann wohl nichts von haus aus leuchtet aber andererseits bekommen es die anderen hersteller besser hin.
Ich denke bei BM also dem arc nachfolger werd ich mir so ne midclass karte als ersatz zulegen.
Was mich noch interessiert wie der VR support aussieht und ob Intel die Idle verbräuche noch geregelt bekommt.
Was aber wirklich dämlich umgesetzt ist, ist das mit dem RGB kram. einerseits find ichs gut weil dann wohl nichts von haus aus leuchtet aber andererseits bekommen es die anderen hersteller besser hin.
Ich denke bei BM also dem arc nachfolger werd ich mir so ne midclass karte als ersatz zulegen.
Gerithos
Lt. Commander
- Registriert
- Mai 2020
- Beiträge
- 1.718
Ja nur das AMD in der letzten Generation chancenlos war und die 5700XT schnell um die 300 eur gekostet hat anno 2019/2020. Wir können also festhalten, selbe leistung und selber, eher höherer, Preis zwei Jahre später. Dem gegenüber steht der encoder als Pluspunkt und die inkonstanz und schlechte Performance bei älteren Titeln, der idle Verbrauch als Minuspunkte. Da ist nix polemisch, das Ding ist ein trauerspiel.highwind01 schrieb:Polemischer Unsinn
Defacto ist die Karte von Leistung und Effizienz ziemlich auf RX 5700 XT Niveau - was immerhin die "Top Karte" des direkten Mitbewerbers der letzten Generation war
M
M1ximili1n
Gast
Bescheidene Leistung!
Generell:
Sind GPUs und CPUs denn so Grundverschieden herzustellen? Sind doch im Endeffekt beides Prozessoren, mit dem Unterschied das GPUs mehr auf Parallelisierung ausgelegt sind.
CPUs baut Intel doch wirklich schon lange.... zudem onboard-lösungen seit Jahren. Also, wo hakt es?
Generell:
Sind GPUs und CPUs denn so Grundverschieden herzustellen? Sind doch im Endeffekt beides Prozessoren, mit dem Unterschied das GPUs mehr auf Parallelisierung ausgelegt sind.
CPUs baut Intel doch wirklich schon lange.... zudem onboard-lösungen seit Jahren. Also, wo hakt es?
Ähnliche Themen
- Antworten
- 204
- Aufrufe
- 31.421
- Antworten
- 64
- Aufrufe
- 13.684
- Antworten
- 5
- Aufrufe
- 2.462
- Antworten
- 168
- Aufrufe
- 29.677
- Antworten
- 151
- Aufrufe
- 16.782