News A350M und A370M: Intel Arc startet im Notebook, Desktop-GPUs ab Sommer

Tulol schrieb:
HDMI war und ist am PC eine nette dreingabe um mehr als "nur" Bild zu übertragen. (zB an einen TV).
Aber ein Monitor ist fürs Bild da und Ton gehört an anständige Ausgabegeräte geschickt und nicht an eventuell im Monitor verbautes Laptop gequäke.

DisplayPort überträgt ebenfalls auch Ton.
Ich war auch überrascht, als der Monitor an meiner Arbeitsworkstation auf einmal anfing zu dudeln. Rechnet man gar nicht mit. 😁

Ansonsten stimme ich zu, dass HDMI an PCs nur ein Zusatzfeature ist. Halt der Nachfolger der alten Analogausgänge, mit denen TVs anschließen konnte, z.B. für Präsentationen.
Der primäre Anschluss für den oder die Monitore ist aber DP.
 
Herdware schrieb:
DisplayPort überträgt ebenfalls auch Ton.

Und Daten.

Habe hier einen USB-Hub im Monitor, der damit (schnell, reicht für eine SATA-SSD) versorgt wird.

Für den Rückweg Monitor --> PC brauche ich allerdings ein USB-Kabel.
 
duskstalker schrieb:
mit entsprechendem h265 decoder/encoder würde ich sogar direkt eine dgpu vorbestellen :rolleyes:

Da geh ich mit. Nicht nur für mich selbst, sondern auch weil mir beim Videoschnitt-PC für meinen Dad der "Fehler" unterlaufen ist, Ryzen zu verbauen. Rohleistung schön und gut, aber Intel sind halt bis dato die einzigen die h265 10bit 4:2:2 hardware-beschleunigt dekodieren können, zumindest ab 11th Gen. nVidia und AMD gucken da in die Röhre, selbst bei den High-End GPUs.

Glücklicherweise hatten wir den GPU-Kauf bislang ausgesetzt. Nicht nur aufgrund der Preise, sondern auch weil auch eine 3090 bei der Dekodierung von o.g. Material nicht viel gebracht hätte. Von daher kann Mai nicht schnell genug kommen :)
 
Sebastian_12 schrieb:

h265 10 bit 422 decodieren wird nicht unterstützt. Und das ist ein weit verbreiteter Standard bei Filmkameras.

Das kann wirklich nur Intel per quick sync (bisher) oder der apple m1.

AMD und nvidia gehen hier einfach mit einem blinden Auge an der Realität vorbei.
 
flaphoschi schrieb:
verbraucht mehr als 15 Watt” und damit ist klar das passive Kühlung nicht möglich ist.
Im Laptop oder Desktop?
Selbst im Laptop sollte es machbar sein, oder zumindest auf einem leisen Level.
 
Powl_0 schrieb:
Die Radeon 680M kommt auf 3.6TFlops und mit DDR5 auch in ähnliche Richtung bei der Bandbreite...
Danke, ka wie ich drauf kam.
Wobei ich dazu sagen muss, 3.6TFLOPs sustain wird schwer zu halten sein, da übertreibt sicher auch AMD mal.
Man schreibt ja auch nur von bis zu 2,4GHz GPU Takt.
DDR5 Interface hat Rembrandt doch glaube gar nicht? Wäre eh viel zu teuer.
Aber klar, wenn AMD sich genötigt fühlt, würde man Intel direkt kontern.
Die 4GB sind natürlich hart, aber für Notebooks mit FHD mittlere Details/ältere Spiele oder e-Sportstitel sollte es irgendwie gehen. Eher aber wird Intels Treiber alles zunichte machen.

Spannend finde ich vor allem das Rembrandt und Iris in TSMC 6N daher kommen.
Das eine ist dedicated und das andere APU, zeigt aber um so mehr wie ewig weit AMD vor Intel in solchen Belangen steht.
 
  • Gefällt mir
Reaktionen: Powl_0 und andi_sco
Draco Nobilis schrieb:
Wobei ich dazu sagen muss, 3.6TFLOPs sustain wird schwer zu halten sein, da übertreibt sicher auch AMD mal.
Man schreibt ja auch nur von bis zu 2,4GHz GPU Takt.
Was ich in user videos dazu bisher so sehe, hält die 680M die 2.4GHz tatsächlich sehr oft. Ist für RDNA2 ja schon ein Gebiet, das sehr effizient machbar ist. Erst Richtung 3GHz braucht es die PPT Keule.
Aber "nur" in den 45W Ryzen 6000H.

Gibt auch ein paar SKUs, in denen die 680M offiziell nur bis 2.2GHz darf, und mit cTDP down oder in den 25W Modellen wirds dann eh langsamer ausfallen.
Ergänzung ()

Draco Nobilis schrieb:
DDR5 Interface hat Rembrandt doch glaube gar nicht?
Oh doch :D
 
  • Gefällt mir
Reaktionen: Draco Nobilis
Artikel-Update: Hardware Unboxed nennt die Größe (Die Size) und die Anzahl der Transistoren der beiden ersten Intel-Arc-GPUs ACM-G10 (DG2-512) und ACM-G11 (DG2-128). Der Vergleich mit den von AMD und Intel aktuell in Notebooks genutzten GPUs zeigt: Der größere der beiden Dies misst mit 406 mm² und 21,7 Milliarden Transistoren mehr als Nvidias GA104 und AMDs mobile Top-GPU Navi 22, der von Nvidia mit der GeForce RTX 3080 Ti Laptop GPU im Januar eingeführte GA103 ist allerdings größer; GA102 und Navi 21, die größten aktuellen GPUs der Konkurrenten, kommen im Notebook nicht zum Einsatz.

[Tabelle: Zum Betrachten bitte den Artikel aufrufen.]

Mit 157 mm² und 7,2 Mrd. Transistoren ist der ACM-G11 am anderen Ende des Spektrums wiederum größer als AMDs Navi 24, der mit seinen 107 mm² und 5,4 Mrd. Transistoren zur Vorstellung aufhorchen lassen und in der Desktop-PC-Umsetzung Radeon RX 6500 XT (Test) auch viel Kritik eingefahren hat. 1.024 FP32-ALUs und ein 64 Bit breites Speicherinterface bieten beide GPUs. Über Nvidias kleinste mobile Ampere-GPU GA107 liegen keine gesicherten Informationen zu Die Size und Transistor Count vor.

[Tabelle: Zum Betrachten bitte den Artikel aufrufen.]

Ein erstes Benchmark-Ergebnis
Twitter-Nutzer @harukaze5719 vermeldet derweil erste Ergebnisse der Intel Arc A350M im Galaxy Book 2 Pro. Mit einem „Graphics Score“ von 3.197 Punkten im „Performance Mode“ des Notebooks positioniert sich Intels kleinste mobile Grafikkarte 32 Prozent vor der Radeon 680M im Ryzen 9 6900HS (Test) und knapp 10 Prozent hinter einer GeForce GTX 1650. Intels aktuelle Xe-iGPU wird um 70 Prozent geschlagen.

[Diagramm: Zum Betrachten bitte den Artikel aufrufen.]

Wie die Tests der Redaktion zuletzt gezeigt haben, ist der 3DMark Time Spy kein verlässlicher Schätzer für die Leistung (mobiler) Grafikkarten in Spielen. Es bleiben mehr und vor allem nachvollziehbarere Tests abzuwarten.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, TechFA, Plage und 2 andere
@Wolfgang
Du hast im Text die Die Größe von G11 und Navi 24 vertauscht, auch der G11 ist nicht größer als ga103 wie im Text behauptet
Ergänzung ()

@Jan
Hier ist auch noch der Fehlerteufel versteckt:

Mit 107 mm² und lediglich 5,4 Mrd. Transistoren ist der ACM-G11 am anderen Ende des Spektrums wiederum noch kleiner als AMDs Navi 24, der mit seinen 157 mm² zur Vorstellung bereits aufhorchen lassen hat. 1.024 FP32-ALUs und ein 64 Bit breites Speicherinterface bieten beide GPUs.

G11 hat 157mm², N24 107mm²
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jan
Jan schrieb:
Und ich wohl neben der Spur! ^^
Ich empfehle noch einen Kaffee, denn jetzt haben beide Chips plötzlich 107mm² 😄
 
  • Gefällt mir
Reaktionen: TechFA, Plage und konkretor
Also im Notebook werden sie es mit dem größeren (und viel teureren) Chip vermutlich halbwegs hinbiegen können, da hier bei AMD und Nvidia ja auch immer die TDP-Keule greift. Aber für Desktop seh ich nach den ersten Daten eher schwarz. Da kommt am Ende doch nur 3060-Niveau raus .. und wer kauft das im Sommer 2022 dann, wenn es frühestens da ist? Ist ja nicht so, dass es nur 100 Euro kosten wird. Und AMD und Nvidia klopfen mit ihren neuen Produkten schon an der Tür.

Too little, too late! OEMs werden sich freuen, wird tolle Deals von Intel geben, PCs mit CPU und GPU von Intel werden dann "Intel Inside²"
 
  • Gefällt mir
Reaktionen: andi_sco, ComputerJunge, Onkel Föhn und 3 andere
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: konkretor
Volker schrieb:
Aber für Desktop seh ich nach den ersten Daten eher schwarz. Da kommt am Ende doch nur 3060-Niveau raus
Wenn man dann noch bedenkt, dass die Chips ja noch "dedizierte" INT-32 Einheiten haben, ist das vor allem richtig schön "Beschiss" in den Folien.

4096 Shader, am Arsch! Es sind 8192! Und wenn sie da NUR auf 3060 Niveau landen, dann ist deren Auslastung quasi vollkommen im Eimer! Dabei sollte doch gerade Raja wissen, das nicht die maximale Rechenleistung oder viele dedizierte Kerne helfen, sondern man die Auslastung erhöhen muss.

Raja did it again! Vega2.

Da fragt man sich, ob Navi wirklich noch von ihm stammt, oder die Gerüchte stimmen, dass das Ding doch hinter seinem Rücken entwickelt wurde.
 
  • Gefällt mir
Reaktionen: TechFA
Volker schrieb:
Aber für Desktop seh ich nach den ersten Daten eher schwarz. Da kommt am Ende doch nur 3060-Niveau raus .. und wer kauft das im Sommer 2022 dann, wenn es frühestens da ist?

mit dem einzigartigen decoder und encoder support und ggf. generell guter performance in gpgpu anwendungen sind die karten absolute nobrainer für videoanwendungen.
 
Klar, irgend einen Einsatzfall wird man finden. Findet man immer für alles!
Auch werden sie die Karten verkaufen, und wenn jeder OEM eine pro gekaufte CPU oben drauf erhält.

Aber der Shitstorm wird im Sommer trotzdem erstmal riesig. 2, 3 Jahre lang Hype-Train und dann sowas ...
Ja der gute Raja, wurde ja schon genannt. Hat echt wieder zugeschlagen ..
 
  • Gefällt mir
Reaktionen: aldaric und TechFA
Zurück
Oben