News Arc-Grafikkarten: Intel verspricht A750 und A770 mal wieder für später im Jahr

Nach neuesten Gerüchten wird die Nvidia RTX 4090 ja 16384 Shader haben.
Die Intel A770 hat 4096, also ein Viertel, dürfte also vermutlich auch 1/4 der Leistung einer kommenden 4090 haben.
Bei AMD dürfte es dann ähnlich sein mit der 7900XT.

Heisst, jetzt schon befindet sich Intel Leistungstechnisch weit von den kommenden Topmodellen der Konkurrenz entfernt. Und umso länger es dauert bis Intels Karten rauskommen, umso mehr werden Nvidia und AMD davonziehen.

Wenn dann irgendwann im Dezember oder so Intels Karten rauskommen werden die Intel Highend Modelle sich wahrscheinlich mit ner RTX 4050 oder ner 7500XT duellieren dürfen was die Leistung betrifft.
Oder schlimmer noch, sie erreichen nichtmal deren Leistung.

Dann wirds für Intel bitter, denn der einzige Weg dann noch Karten zu verkaufen ist über den Preis. Dann muss Intel das Highend Modell für soviel verkaufen wie bei der Konkurrenz ne Einstiegskarte kostet.
 
kokiman schrieb:
Hm ggf. nur meine Wahrnehmung aber bei Ryzen Gen 1 hatte ich schon das Gefühl, dass es von vielen mit Samthandschuhen behandelt wurde.
Ryzen 1 wurde in vielen Tests sehr wohlwollend aufgenommen, weil AMD sehr zurückhaltend war, was Versprechungen anging und von Zen ein relativ realistisches Bild gezeichnet hat und damit die meisten Tester auch wussten was kommt.

AMD hat kurze Zeit vorher jedoch für Vega sehr wohl von der Community als auch von den Testern eine ordentliche Ohrfeige bekommen, was die Qualität des Treibers anging, weil viele angekündigte Sachen noch nicht wie versprochen liefen und man für die Leistung einer 1080 fast den doppelten Energiehunger hatte.

AMD hat Zen damals mit ca. 40 % IPC angekündigt, das war 2015. Erst 2016 - als AMD wusste wohin die Reise mit Zen gehen kann - hat man angefangen zu sagen, dass man vermutlich schneller als die 40 % IPC sein wird und dass man sich auch mit SkyLake anlegen können wird, gleichzeitig hat man aber auch die 40 % immer wieder betont. Zudem hat man primär den Vergleich zur letzten Bulldozer-Ausbaustufe gesucht, nicht direkt zu Intel. Und wenn man Intel gewählt hat, dann hat man nicht SkyLake genommen sondern hat sich an Haswell/Broadwell gehalten. AMD hat bei Zen bewusst den Ball falch gehalten und da Bulldozer - Piledriver als letzte "Desktop-CPU" wirklich "mies" war und AMD auch bewusst nicht SkyLake als "Endgegner" ausgesucht hatte, sondern Broadwell, wussten viele, was von AMD kommt und dass AMD dann diese CPUs geschlagen hat und sich "wirklich" mit SkyLake hat anlegen können, auch wenn man unterlegen war, war das Feedback natürlich wesentlich wohlwollender. Es sind ja auh dann statt 40 % IPC ca. 52 % IPC im Mittel geworden und Haswell hatte man gut im Griff, lag etwas unter Broadwell und man war in Schlagweite zu SkyLake und konnte dank 8 Kernen damals sogar in Anwendungen sogar in einem Bereich "trumpfen" und hatte ein sehr gutes SMT.

Und natürlich hatte AMD mit Zen auch "seine" Pannen, das betraf aber - beim RAM - oft eher die OC-Community und Co, weniger den normalen Nutzer.

AMD hat also auf der einen Seite geliefert und überrascht, auf der anderen Seite nie überzogene Erwartungen geschürrt and Zen, denn sie wussten, wenn sie hier falsch ran gehen, dann ist die Firma weg. Sie konnte sich keine negative Presse erlauben und entsprechend haben sie kleine Kuchen gebacken.
 
  • Gefällt mir
Reaktionen: TechFA, andi_sco, ComputerJunge und 3 andere
Wenn Intel mit Zen auf den Markt gekommen wäre, hätte es quer durch die Presse Haue gegeben.

Weil er aber von AMD kam war die müde Kernleistung nicht so wichtig und viele hielten viele, billige Kerne für eine akzeptabele Alternative.

Rückblickend sind Zen und Zen+ nicht gut gealtert und AMD brauchte bis Zen 3 um wirklich konkurrenzfähig zu werden.
 
D0m1n4t0r schrieb:
Nach neuesten Gerüchten wird die Nvidia RTX 4090 ja 16384 Shader haben.
Die Intel A770 hat 4096, also ein Viertel, dürfte also vermutlich auch 1/4 der Leistung einer kommenden 4090 haben.
Das Arc nicht mit den dicken Brummern mithalten kann ist ja kein Geheimnis aber bitte hör auf verschiedene Chips über die Kerne/Shader Anzahl zu vergleichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nore Ply und Schinken42
Ja, irgendwie muss man aber vergleichen, und da ist Shader schon ein ganz guter Ansatzpunkt.
 
incurable schrieb:
Weil er aber von AMD kam war die müde Kernleistung nicht so wichtig und viele hielten viele, billige Kerne für eine akzeptabele Alternative.
Die „müde Kernleistung“ wurde akzeptiert, weil sie vor allem im Vergleich zur bis dahin aktuellen Generation von AMD CPUs endlich überhaupt wieder mal als Konkurrenz in Betracht gezogen werden konnten. Billige viele Kerne gabs mit Bulldozer und Piledriver schon, aber Intel hat mit denen bis zu Zen den Boden gewischt.

Intel hat erst nach Zen im Desktop und Notebook endlich mehr Kerne herausgegeben und sich überhaupt mal wieder genötigt gesehen zu reagieren.

Zen und Zen+ waren die erste echte neue Generation CPU von AMD nach Jahren ohne eine Konkurrenz darzustellen. Ich denke das ist, vor allem angesichts der Nachfolger, mehr als verkraftbar.
 
D0m1n4t0r schrieb:
und da ist Shader schon ein ganz guter Ansatzpunkt.
Nein, die Dinger funktionieren je nach Chip einfach anders. Eine 3070 z.B hat mehr shader units als die 6900xt und ist langsamer.
 
  • Gefällt mir
Reaktionen: bad_sign
Wenn man nach einem Jahr Verspätung noch immer nicht sagen kann, wann man denn nun mal irgendwann liefern kann und wird, dann sagt das sehr viel über den Zustand der Grafikkartenriege aus!
Wäre nur noch etwas Feintung bei den Treibern notwendig, wären die schon längst auf dem Markt.
Und eine vorherige Anhäufung von Bestandsmengen zur Auslieferung hat damit auch nichts zu tun.
Man macht sich dadurch selber die ganze Verkaufsmöglichkeiten völlig zunichte, wenn die Karten erst zeitgleich mti den Nachfolgern der Konkurrenzmodelle auf den Markt kommen.
Genau so war das bei dem i740 vor knapp 30 Jahren nämlich auch.
Man kam nicht aus dem Quark, dann hatte man Treiberprobleme (obwohl es ja nur wenige Spiele im Vergleich zu heute gab, vor allem auch viel weniger Features), schwupps kam wenige Monate später die ganze Konkurrenz mit glatt doppelt(!) so schnellen Modellen auf den Markt - schon ware Intel hinüber!
Die Probleme sind jetzt aber noch massiver als damals.
Schaut euch die lange Mängelliste bei Igor im Testvideo an.
Ich frage mich, wie lange Koduri und andere Verantwortliche da noch einen Job haben werden?
Mehr versauen geht ja nicht.
Ob die da sind oder nicht... - wahrscheinlich hätte es ohne denen sogar besser funktioniert. ;-P
Ergänzung ()

mcsteph schrieb:
Was nützt mir ein billiger Preis und gute Leistung wenn die Treiber Grütze sind. Treiberentwicklung dauert Jahre und keine Monate.
Die machen ja schon seit 30 Jahren Treiber.
Also da werden es ein paar Monate mehr oder weniger jetzt wohl auch nicht mehr viel richten können.
Die Raytracing-Einheiten sind neu, und Softwaretechnisch gibt es auch noch Upskaling dazu.
Das mag einiges an Zeit benötigen, bis es richtig läuft.
Aber das alles andere drumherum steht ja noch nicht einmal, es scheint eine einzige große Baustelle zu sein, wo überall ein wenig rumgebastelt wird.
Und zu viele Köche verderben den Brei.
Vermutlich wird ein Fehler behoben und schon gibt es woanders wieder irgendeine neue Baustelle.
Der Koduri wollte wieder viel zu viel auf einmal.
Hätte man den ganzen neuen Kram für die ersten neuen Karten weggeleassen, wäre man schon letztes JAhr wie angekündigt auf dem Markt gewesen.
Und das wäre genau so richtig gewesen.
Die günstigen Karten brauchen das nämlich nicht, weil damit eh keiner Triple A mit Raytracing zocken kann und will.
Und mit den gemachten Erfahrungen hätte man dann die Nachfolgeneration, die Ende 23 kommen soll(te) dann ausstatten können.
Vermutlich wäre das schon ein hochgestecktes Ziel gewesen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA und Duffy Duck
incurable schrieb:
Wenn Intel mit Zen auf den Markt gekommen wäre, hätte es quer durch die Presse Haue gegeben.

Weil er aber von AMD kam war die müde Kernleistung nicht so wichtig und viele hielten viele, billige Kerne für eine akzeptabele Alternative.

Rückblickend sind Zen und Zen+ nicht gut gealtert und AMD brauchte bis Zen 3 um wirklich konkurrenzfähig zu werden.
Also ich hatte einen Ryzen 1700x ;)

Es gab nie Probleme und alles lief sehr stabil. Mit meinem Billigboard (ca. 80 Franken) kam ich anno dazumal leider nicht auf 3200Mhz für den Ram. Sprich das XMP Profil konnte ich nicht verwenden. Habe den Ram somit von Hand etwas übertaktet. Jedoch nur dezent. Glaub so 2700 - 2800 funktionierte. Dies war aber laut Herstellerangaben alles OC. Unter den normalen Specs gab es nie Probleme.

Da ich mittlerweile ein 5900x mein eigen nenne, werkelt der gute 1700x samt billig Board nun beim Neffen. Kann nicht sagen, ob es am anderen Ram oder dem neueren Bios liegt. Bei ihm läuft nun das XMP Profil stabil.

Mein "alter" Ram läuft nun mit XMP auf dem neuen Board.

Ich kaufte den Ryzen gleich zu Release. Was ich noch im Kopf habe, war das Intel Gegenstück ein i7 7700k. Mal zumindest beim Preis. Also wenn ich heute wählen müsste, ob ich einen Ryzen 1700x oder einen i7 7700k haben müsste. Denke, ich würde mich für den Ryzen entscheiden. Bei beiden gibt es Abstriche, aber besonders unter DX12 ist der Ryzen doch die bessere Wahl.
 
  • Gefällt mir
Reaktionen: TechFA und 4lter5ack
Wolwend_the_Orc schrieb:
Bei beiden gibt es Abstriche, aber besonders unter DX12 ist der Ryzen doch die bessere Wahl.
Ne, der 7700K ist im Vergleich gerade bei Spielen vorne, teilweise sogar absurd weit. Siehe auch die CB CPU Liste, wo er mit einem 2700X gleichzieht:

https://www.computerbase.de/artikel/prozessoren/rangliste.89909/

Ich hab die Dinger auch durch, einen 1700X hab ich sogar noch hier, den 7700K inzwischen nicht mehr. Beim 1700X war die einzige Lösung für vernünftigen RAM-Takt ein B-die Kit zu kaufen, der 7700K hat im Prinzip alles gefressen.

Zen und Zen+ waren damals und sind auch heute noch nur dort gut, wo Lasten sinnvoll auf mehr als 8 Threads aufteilbar waren, überall sonst schlägt die gemütliche Kernleistung durch.
 
@incurable

Es werden ja auch in Spielen immer mehr Kerne unterstützt. Mit 4 Kernen gab es ja schon beim Vorletzten Battlefield Probleme. Es hat einfach immer mal wieder bös geruckelt. Auch wenn der 1700x im Schnitt weniger fps lieferte war das Gefühl doch flüssiger als auf dem i7 7700k. Zumindest laut Test auf CB. Ich habe es nicht gespielt. Kann mich aber noch gut an den Test erinnern und ist glaub ein gutes Beispiel ;)

Ich denke auch, dass die IPS bei den ersten Ryzen nicht sooo dolle war. So schlimm wie du es schilderst war es aber nicht. Zudem bekam man halt sehr sparsame 8 anstatt 4 Kerne. Ein Kollege kaufte sich den 7700k und ich den 1700x. Meiner war ca. 1 Jahr länger im Dienst. Muss aber natürlich nichts bedeuten ;)
 
  • Gefällt mir
Reaktionen: 4lter5ack
Sieht für mich nicht danach aus:

https://www.computerbase.de/2018-11...hnitt_cpubenchmarks_in_single_und_multiplayer

Hier ist der 7700K minimal schneller als ein 2700X.

Unterm Strich bleibt für mich als Fazit, dass es 2017 sinnvoller war, den bereits damals schnelleren 7700K zu kaufen als darauf zu hoffen, dass die zusätzlichen Kerne der Zen und Zen+ CPUs die fehlende Leistung irgendwann ausgleichen würden. (und das gleiche Prinzip gilt dann "später im Jahr" auch für Intel GPUs, die man für die vorhandene Leistung kaufen oder nicht kaufen sollte, anstatt als Lottoticket für Wundersoftware aus der Treiberabteilung)
 
FormatC schrieb:
Ich schäme mich ja sowas von.
Und warum?
Oder ist das Fremdschämen?
… das würde ich ja noch verstehen.
 
incurable schrieb:
Wenn Intel mit Zen auf den Markt gekommen wäre, hätte es quer durch die Presse Haue gegeben.

Weil er aber von AMD kam war die müde Kernleistung nicht so wichtig und viele hielten viele, billige Kerne für eine akzeptabele Alternative.
Schöne Geschichte die du dir hier gebastelt hast. Allerdings wohl nur schön für dich. Denn zu dem Thema hier Arc, passt deine Geschichte überhaupt nicht. Insofern sehe ich völlig andere Gründe, warum du solche Geschichten erzählt.

Während ein 1700 aus der Schachtel heraus seine Leistung gebracht hat, hat die A380 schon hier versagt.
Und da du schon hier nicht mit der Realität gehst, gehe ich zwar nicht davon aus, dass du dir diese zu eigen machen wirst, aber trotzdem werde ich diese Realität nochmals zeichnen.

Gut dann vergleichen wir eben mit dem 350€ 7700K
Natürlich sind gebastelte Geschichten fern ab von der Realität stark begrenzt. Deswegen ging es dir auch nur um Spiele.

Während also vor dem 300€ 1700 Intel mit dem 7700K 63% vor dem FX 8370 lag, waren es mit dem 1700 nur noch 7% bei 720p.
Auch hier versagt A380 auf ganzer Linie.

Insofern muss man dein persönliches Fazit als diese eben sehen. Es ist ein persönliches Fazit, welche fern ab jeglicher Realität ist und keinerlei Bezug und Vergleich zum Thema Arc hat.

Wenn man noch berücksichtigt, dass AMDs Aktie zu dieser Zeit 1,50 wert war und gefühlt jede Woche irgendjemand ein Gerücht gestreut hat, wer nun alles AMD aufkaufen würde, konnte Intel mit einem unglaublichen Vermögen, 3 Jahre Arc Propaganda und dem Twitter Gequatsche von Raja mit 4 Millionen Arc werden 2022 den Grafikmark fluten, nur ein A380 Versagen zeigen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA und Nore Ply
Ich kann ja schon mal spoilern, das ein paar Intel-Vertreter auf der SIGGRAPH mal wieder den Mund nicht halten konnten / wollten. Mein Kumpel Rob war heute nacht komplett von den Socken, aber ich will seinen Artikel ja nicht zerspoilern.

Demnächst dürften einige Redaktionen in Bälde ein spezielles, vorkonfiguriertes Testsystem von Intel erhalten, das eine DirectX12-basierte mGPU-Lösung mit zwei Arc-Karten beinhaltet. Dass auf der SIGGRAPH nichts davon zu sehen war, soll daran gelegen haben, dass Intel kein passendes Gehäuse gefunden haben soll (naja...). Mit der neuen mGPU-Lösung (SLI und Crossfire sind ja tot), will intel dann zur 3080 / 6800XT aufschließen.
 
  • Gefällt mir
Reaktionen: TechFA, andi_sco, yummycandy und 2 andere
will intel dann zur 3080 / 6800XT aufschließen.

Bei der Leistungsaufnahme wird Intel sicherlich die Führung übernehmen.

Was ich nicht begreife ist die Tatsache, dass viele, für mich zu viele, die Firma Intel als wertvoll erachten, wenn Intel nun auch im Grafikmarkt mitmischen will.
Ich mein, wer in die Geschichte schaut und dabei die Geschichte von Intel wählt, kann nach meinem Verständnis doch nicht glauben, dass irgendetwas besser für den Kunden werden wird, wenn ein Konzern wie Intel einem anderen Markt beitreten will.
Meine Prophezeiung ist ganz klar, mit Intel im Grafikmarkt wird es eher schlechter als besser für den Kunden.
Der Einstieg mit Arc zeigt doch das gleiche Verhalten, welches wir seit Jahrzehnte kennen.
Unwahrheiten, tricksen, Behauptungen, Propaganda und solche für mich intellektuell verarmte Vergleiche wie, Frames per $/€/Yuan.
 
  • Gefällt mir
Reaktionen: TechFA
Bei der Leistungsaufnahme wird Intel sicherlich die Führung übernehmen.
Das sowieso :D

Ich habs doch noch mal in eine News gegossen, denn die Umstände der (noch nicht) Ankündigung waren doch einfach zu putzig :D
 
Als hätten die nicht schon genug Features die sie nicht ans laufen bekommen.

Lange wird sich die Führungsriege das nicht mehr ansehen ich schätze manch einer schärft da schon die Axt
 
Fragt sich, wie lange die Führungsriege noch überlebt, bevor die Investoren und Aktionäre das Messer wetzen. Die PR ist ja auch nur noch das letzte Aufgebot. ;)
 
  • Gefällt mir
Reaktionen: TechFA, BOBderBAGGER und konkretor
Zurück
Oben