Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIndustriekreise: Intel Battlemage soll noch vor Black Friday erscheinen
Zur embedded world 2024 ist offiziell zwar noch einmal Alchemist ein Thema, doch unter der Hand auch Battlemage: „Vor Black Friday“ ist das Ziel, heißt es aus Industriekreisen. Der Freitag nach Thanksgiving ist insbesondere, aber nicht nur in den USA wie das folgende Weihnachtsgeschäft ein wichtiger Fixpunkt im Handel.
Solange sie in ihrem Preissegment gut performen ist es nicht nötig die schnellste Karte zu haben. Die jetzigen Intels haben sich ja auch eingependelt, die Treiber sind zwar oft noch meh aber da tut sich ja momentan viel.
Neben den immerhin sukkzessive besser werdenen Treibern sehe ich die Effizienz eher als Dorn im Auge. Gerade für kleine Gehäuse ist Effizienz wichtig, weshalb ich auch auf Nvidia umgestiegen bin, neben dem, dass ich mehr Leistung in der vorgegebenen Größe bekommen habe.
Die höchste Leistung braucht es nicht unbedingt, aber ein passendes Konzept in der jeweiligen Leistungsklasse mit nicht zu ausartenden Verbrauch.
Letztes Mal gab es satte 25 Einheiten ARC einer Sorte bei Mindfactory, während zur gleichen Zeit lediglich 4stellige Einheiten von AMD Karten verkauft worden sind.
Das war also die Lieferung, von der Intels Sprachrohre damals gesprochen hatte, als man bei den Lieferengpässen der Konkurrenz in die Bresche spingen wollte, um die bedrüfnisse der Kunden zu bedrieden.
Hoffentlich machn die ja nicht wieder irgendwelche öffentlich , die sie eh nicht halten werden.
Die 4000er Serie ist jetzt schon besser als Battlemage jemals werden könnte.
Muss man nur mal Werte vergleichen, Leistung und vor allem Effizienz.
Bei den Prozessoren sieht es auch zappenduster aus.
Meteor Lake hat auch nicht gezündet, hat totz der geringen Taktung und der somit geringen leistung auch bei der Effizienz keine Chance, wenn man gleiche Wattzahlen vergleicht.
Nein, ist aber auch kein Problem. Können ja einfach Elementarist und Firemage nehmen. Celestial finde ich übrigens immer noch blöd. Cleric hat sich so hart angeboten, aber nein, sie nehmen natürlich Celestial...
Naja was heißt "wieder".
In Sachen Raytracing muss AMD zuerst mal an Intels ersten Versuch rankommen.
Dazu kommt, dass Intel sich wesentlich leichter steigern kann als AMD. So etwa hat man viel Transistoren und Chipfläche verbraten um etwas ähnliches zu erreichen. Wenn man daran arbeitet + besserer Prozess + mehr Leistung in der Architektur sehe ich durchaus gute Chancen für Intel im Mittelfeld (Highend wird man wohl nicht erreichen, aber das ist für meine Kosten/Nutzenrechnung auch irrelevant).
Ich weiss gar nicht so recht, wie ich das finden soll: Für den Durchschnittsspieler sind die GPUs an sich wertlos da - rein objektiv betrachtet - sie einfach nicht mithalten können.
Klar, wenn sie so billig verkauft werden, dass man 16GB / 256 bit auf einer Chipfläche knapp unter 4080 (ja, hinkt ein bisschen) für den Preis einer 6600xt bekommen kann, ist es irgendwie wieder okay.
Aber am Ende nimmt der geneigte Kunde dann eben doch lieber für das Geld eine 3060 / 6600er und hat damit auch weniger Probleme. Warum sollte Intel bei der Gewinnentwicklung langfristig in so etwas investieren? Wieso sollte ich als Kunde bei diesen Aussichten so eine Karte kaufen?
Auch die meisten hier wollen Intel doch nur deswegen dabeihaben, damit sie preislich Druck auf NV ausüben ;-). Wirklich kaufen tut den Quatsch (zu Recht) ja niemand hier wirklich.
Naja gab ja auch genug Presse die schon vor knapp 2 Jahren den Tod von Intels GPU Versuchen vorhergesagt haben.
Im Moment siehts aber eher so aus, als würde man sowieso eine GPU-Artige Architektur entwickeln müssen für HPC/AI/Server und wenn da was für uns Gamer abfällt, das Intel früher oder später Millionen in die Kasse spült wär das ja cool
Noch cooler wäre natürlich wenn sie mit Celestial und Druid auf die eigene Fertigung setzen würden (18A, 14A?) weil man dann nicht mehr von TSMC abhängig wäre, bzw, davon, dass Apple und Co sich die ersten 2 Jahre einen Prozess "sichern". Und man hätte wohl eine inzwischen ausgereifte Architektur die auch noch einen Prozessvorsprung hätte - also wär man dann wohl endlich konkurrenzfähig bis ins Highend hinauf.
Kommt stark darauf an wie man vergleicht.
Vom Shader und Transistorcount wäre man da eher bei einer RX6800 als Gegenspieler zur A770 und da gewinnt AMD auch im Raytracing.
Was stimmt ist das Intel beim Raytracing weniger Auslastungsprobleme hat als beim Rastern.
Auslastung und Effizienz sind massive Baustellen. Aktuell verbrennt Intel mit der Sparte Milliarden, weil man große Chips zu dumping Preisen in den Markt drücken muss.
Über die Leistung und Effizienz ist nichts bekannt, außer, dass die bei Intel natürlich zulegen wird.
Erstens weil man die Architektur überarbeiten wird (inwieweit ist nicht klar, je nachdem ob man versucht Arc einfach zu verbessern oder ob man schon vor 5 Jahren gesehen hat, dass man eigentlich ein komplettes Redesign braucht), weil man von 7nm (N6) auf 5nm (N4) springt, weli man mehr Einheiten verbaut, weil man mehr Cache hat...
Und schon der erste "Versuch" war in manchen Bereichen ganz gut, etwa Raytracing. Also die Zukunft des Renderings.
BxBender schrieb:
Bei den Prozessoren sieht es auch zappenduster aus.
Meteor Lake hat auch nicht gezündet, hat totz der geringen Taktung und der somit geringen leistung auch bei der Effizienz keine Chance, wenn man gleiche Wattzahlen vergleicht.
Meteor Lake ist ja auch Jahre zu spät und der 10nm Prozess immer noch unterlegen.
Wenn Intel den Abstand bei den Prozessen verkürzt und auch endlich mal ne komplett überarbeitete Architektur bringt wird man wieder auf Augenhöhe sein, wenn nicht sogar vorne, denn AMD bekommt die Prozesse ja auch erst 2 Jahre nachdem sie bei TSMC von Apple eingesetzt werden.