News Arc A730M & A770M: Intels Benchmarks sehen 3050 Ti und 3060 Mobile als Gegner

@SoDaTierchen
Intel bekommt von mir Zeit bis Battlemage, ob das kein Rohrkrepierer ist. Alleine 3 Gens sind 6-8 Jahre.
Nein. Intel baut seit 20 Jahren GPU und hier kann man sehr wohl mit gutem Geldeinsatz Know How kaufen.
Ist ja nicht so, dass das für Intel alles Neuland ist ^^
 
Was Intel auch schön versteckt hat: Ihre Alchemists dürfen mit AlderLake das maximale heraus holen, NVidia's Vergleichsgeräte nutzen nur TigerLake. Macht sicher auch noch mal was aus.
 
Finde es garnicht so schlecht was da abgeliefert wird. Darauf lässt sich aufbauen. Hoffe der 12er enthusiast NUC mit A770m ist in den nächsten Wochen verfügbar.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Blackfirehawk schrieb:
Das Problem bei den Mobile GPUs ist das es teilweise extrem auf die Watt Anzahl ankommt.

Da ist eine TDP kastrierte 3070m ganz schnell auf dem Level einer 3050TI (m) wo der Hersteller mehr TDP Budget gibt
Dann wird oft noch die CPU mit ner geteilten TDP mit reingerechnet.
Man ist da ganz schnell an nem Punkt wo sich die Komponenten gegenseitig den Saft abgraben und man sich wundert warum n Game keine 60fps packt obwohl es theoretisch von der Hardware machbar wäre


Deswegen sind Notebook Benchmark absolute nicht aussagekräftig für mich.
Deswegen hat Computerbase extra die gemessene TDP bei den getesteten GPU´s hingeschrieben, damit der Vergleich aussagekräftig ist. Die 130W bei dem Gigabyte Aorus X17 mit der RTX3070Ti sind dabei nicht das Maximum, das wären 150W, aber dennoch bietet die A730M eine beachtliche Leistung.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Mehr habe ich auch nicht wirklich erwartet in dieser Generation.
Das wichtigste ist den Mist auf den Markt zu bringen, damit die Spiele-Entwickler auch optimieren können.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Von der TGP her müsste es eigentlich A730M VS 3060 sein und da liegt die A730M etwa 18 % hinter der 3060.

Bei einigen Spielen sind es 10 % weniger, was ich als erster Versuch trotzdem noch als gut Empfinden würde. Aber es gibt auch die Spiele mit über 30 % weniger. Man sieht, das die Power eigentlich da wäre und in einigen Ausnahmefälle sogar halbwegs abgerufen werden können.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Das ist so enttäuschend, da hätte Intel lieber verschoben und geliefert, wenn es was zu liefern gibt.
 
Die sollen das endlich mit den Treibern gebacken bekommen.
Das war für mich einfach immer der Intel Vorteil. Einstecken, tut, keine dauernden
Updates bis es richtig läuft. Wäre toll wenn das nochmal was wird demnächst.
 
  • Gefällt mir
Reaktionen: Rockstar85
Hört sich für den ersten Anlauf recht gut an. Die Leistung ist ausreichend für den Großteil der Spieler.

Letzten Endes ist es eine Frage des Preises. Wenn Intel die Karten günstig genug in den Handel bringt, werden die Roten und Grünen GPUs wie Blei in den Regalen liegen bleiben. (Was ich ihnen auch wünsche)
 
Typische Intel Benchmark Märchenstunde.
Die 730M und 770M mit Core i7-12700H und Core i9-12900H auf 16GB DDR5.
Die Geforces beide mit Vorgänger Core i7-11800H und DDR4.
14 Kerne gegen 8.
Wo ist das noch ein ordentlicher Vergleich, wenn man Spiele nimmt die mit der CPU skalieren?

Ich hoffe die Intel Fanboys kaufen den Kram, dann fühlt sich jedes Spiel wie Blei an den Füßen an (Was ich ihnen auch wünsche) :D
 
Zuletzt bearbeitet: (RS)
Plaste schrieb:
Typische Intel Benchmark Märchenstunde.
Die 730M und 770M mit Core i7-12700H und Core i9-12900H auf 16GB DDR5.
Die Geforces beide mit Vorgänger Core i7-11800H und DDR4.
14 Kerne gegen 8.
Wo ist das noch ein ordentlicher Vergleich, wenn man Spiele nimmt die mit der CPU skalieren?

Ich hoffe die Intel Fanboys kaufen den Kram, dann fühlt sich jedes Spiel wie Blei an den Füßen an (Was ich ihnen auch wünsche) :D

Mhh also das Gigabyte Gigabyte Aorus X17 hat nen i9-12900HX + DDR5 und halt die RTX3070Ti mit 105+25W TDP.
Des weiteren hat das MSI GE76 einen i9-12900HK und auch DDR5 und eine RTX3080Ti mit 150+25W TDP.
Und auch das XMG Neo 15 E22 kommt mit nem aktuellen i7-12700H mit DDR5 sowie mit einer RTX3080Ti mit 150+25W TDP.

Sicherlich sind auch ältere Geräte dabei, es sind schliesslich auch ältere Grafikkarten. Als die auf den Markt gekommen sind, gab es nunmal keine anderen CPU´s oder DDR5 RAM...

Also, nicht nur zwischen den Zeilen lesen !
 
Abgerechnet wird zum Schluss. Im Test werden wir alle sehen, was es wirklich taugt.
Die Hersteller Benchmarks sind immer geschönt, egal welche Firma.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Ich finds ja iwie nett das Intel die 3DMark Benches für so 08/15 Vergleiche aus der verstaubten Schublade holt. Sonst seh ich die ja nur bei irgendwelchen crazy OC Kollegen die mit LN2 Büchsen auf YT um sich schütten.
Ansonsten wie immer auf echte Tests gespannt, wobei GPUs in Laptops immer so stark schwanken durch Verbrauch und Kühlleistung. Die Architektur hat ja aber schon gezeigt, dass sie viel Saft brauch um Leistung auf die Straße zu bringen. Das wird echt spannend mit welchen Deals Intel ihre GPUs dann an die Hersteller und letztlich an uns Konsumenten vertickt. Könnte preislich vielleicht (wenn nicht mehr taufrisch am Markt) hier eher ziehen wie im gnadenlosen dGPU Markt.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Blackfirehawk schrieb:
Das Problem bei den Mobile GPUs ist das es teilweise extrem auf die Watt Anzahl ankommt.

Da ist eine TDP kastrierte 3070m ganz schnell auf dem Level einer 3050TI (m)
Das halte ich persönlich für stark übertrieben. Übrigens liegt der sweetspot bei der RTX 3070m bei 100 Watt. Du bekommst bei 140 Watt zwar mehr FPS, allerdings nur noch in einem sehr kleinem Rahmen.


Nur gegen die TDP bashen bringst es genauso wenig wie immer alles mit Max TPD laufen zu lassen.
Ganz ehrlich, wenn ich bei der RTX 3070m 140Watt in Cyberpunk 2077 nur 3FPS mehr hab im vergleich zur 100 Watt Version, gewinnt immer die Version mit weniger Verbrauch. Das lässt sich dann auch besser Kühlen.
Ich hab diese ja selber.

Bei gleicher TDP ist die 3070m schneller als eine 3060m.


Die RTX 3050 ti mobile die an der RTX 3070m vorbei zieht zeig mir mal.


Die RTX 3050 mobile schafft in der Regel nicht einmal eine mittlere RTX 3060 mobile.

Unterm Strich ist es gar nicht so wild mit der unterschiedlichen TPD wenn die Hersteller klar angeben wie viel TDP erlaubt ist.
Bei mir zb liegen die 100 Watt nahezu dauerhaft an.
Das ist viel wichtiger wie die Max TDP die mak kurz wo anliegen darf und das Gerät krachend laut macht.
 
  • Gefällt mir
Reaktionen: cr4zym4th, SVΞN, Onkel Föhn und eine weitere Person
Schranz0815 schrieb:
Altes Koduri Problem. Synthetische Rohleistung ist mehr da, als in den Spielen zur Verfügung steht. Kenne ich schon von meiner VEGA. Ein typisches Koduri Problem.
Eher ein typisches Problem von Grafikarchitekturen, die Gaming und Computing bedienen sollen. Intel denkt sich wie dereinst AMD: Gaming ja, aber wichtiger ist Computing.
Deswegen haben Vega und Arc meines Erachtens diese Gamingdefizite, sie sind schlicht mehr Compute- denn Gamingarchitekturen.
 
Finde es gut, dass es vorangeht mit unserem dritten Grafikkarten-Streiter! Und wenn es noch ein paar Jahre dauert, bis der Gamer hier in Deutschland eine echte Alternative darin findet, dann ist es halt so. Wichtig ist, dass sie viel darüber berichten was passiert und das Interesse aufrecht erhalten.

Nicht jede Kaufentscheidung hängt von den letzten 5% FPS oder 15€ Kaufpreis ab. (Sonst gäbe es auch keine solche Vielfalt im Custom-Markt).

In meiner Familie gibt es 4 PCs an denen auf verschiedenen Leistungsniveaus gezockt wird: von Roblox (APU) über Minecrafts/SIMS (R9 270) über MMORPGs (GTX 1650s) bis Triple-A (1080 Ti). Wenn am unteren Leistungsspektrum mal was neues gebraucht wird und Intel ist bis dahin bei uns mit einer Lösung am Markt, könnte ich mir vorstellen eine Arc zu nehmen, einfach um es mal auszuprobieren.
 
Da fehlt noch ein Zusatz im Titel: Intels Benchmark sehen 3050 ti und 3060 mobile als Gegner weit am Horizont. Nach den Benchmarks der kleineren Lösungen gegen RX6400/GTX1650 sind hier Zweifel durchaus angebracht.

Falls es aus Sicht der Architektur kein Fail ist (Das kann ich nicht beurteilen), dann weiss man aber auch aus vielen Tests, was die Optimierung der Treiber bewirken kann. Und da muss Intel nun mit den Spieleherstellern zusammenarbeiten.

Hoffen wir mal nicht, dass es wie bei der Vega ist, dass da einfach ein Grossteil der verfügbaren Leistung brach liegt. Wenn doch, liegt die Vermutung nahe, dass Koduri hier einen ähnlichen Ansatz wie bei VEGA nutzt.

Wichtig finde ich aber auch andere Dinge wie Anzahl Displays, die supported werden, Features, Preispunkt, Effizienz, Bugs, etc. Das Gesamtpaket muss einfach stimmen. Dann hat Intel eine Chance. Und als Neuling versuchen es viele v.a. auch über den Preis.
 
In der Leistungsklasse interessiert das doch eh niemand wirklich ...
 
Für die erste Generation an externen GPU´s finde ich das noch ganz ok. Es wäre auch naiv zu erwarten, dass ein komplett neuer Player mal eben so die beiden Platzhirsche mit 20+ Jahren GPU Erfahrung übertrifft.
Hat das wirklich jemand geklaubt?

Die erste Ryzen Generation war seiner Zeit auch noch nicht so gut gegen die damalige Intel Konkurrenz und jetzt sieht es ganz anderes aus.
Von daher gebe ich Intel noch Zeit und bin vorsichtig optimistisch. Wenn Sie dran bleiben und die Treiber weiter verbessern kann es noch was werden.
Die GPU Fertigung ist extrem komplex und es ist einiges auf dem Markt zu holen, da stand heute nur drei Hersteller diese Technik beherrschen.
 
Typisches Koduri Produkt. Ergebnis war absehbar. Was ein Glück für AMD als der 2017 zu Intel wechselte.
 
Zurück
Oben