News Industriekreise: Intel Battlemage soll noch vor Black Friday erscheinen

DiePalme schrieb:
@BAR86
Im Nachgang die Fehler zu sehen ist einfach.


du hast natürlich recht, aber es war durchaus ein Kurs der schon vor vielen Jahren (Fertigung 20, GPUs 15) immer wieder angeregt wurde, in meinem Fall also nicht im Nachgang

Ergänzung ()

lynx007 schrieb:
Ich würde bei den Preisen so gerne zu Intel greifen.... Nur deren Treiber(Poltik)...

Zukunft ja, aber noch weit entfernte Zukunft...
nicht wirklich. Hybrid Rendering wird grad der Standard, erst recht mit besseren Konsolen. Rastern ist ziemlich am Ende angekommen. Intel fehlts vor allem am Support durch Devs.
 
Araska schrieb:
Alchemist, Battlemage, Celestial, Druid - hat Intel schon die Bezeichnung für Xe5 leaken lassen?
Ich vermute mal nach Celestial wird Ende sein. Driud wird nicht mal auf dem Papier existieren als Funktionsprinzip
Intel ist ein Aktienunternehmen und wir können froh sein, wenn Celestial kommt.
 
BAR86 schrieb:
nicht wirklich. Hybrid Rendering wird grad der Standard, erst recht mit besseren Konsolen. Rastern ist ziemlich am Ende angekommen. Intel fehlts vor allem am Support durch Devs.

1712669219146.png

Hybrid Rendering =! Pathtracing! Der rest sind Tricks! Deshalb schrieb ich auch ohne Tricks! Das ist wohlgemerkt eine 4090, eine 2k GPU?!??! 1,5k?!?! Wir haben ohne Tricks bei Native 4k 16 FPS.... sprich wir brauchen faktor 5 an Leistung, für 1/5 des Preise..... oder 500% Leistung, für 25% des Preises..... :daumen:

Ne das dauert noch etwas... vielleicht ahben wir da schon Enkel.... Worauf ich raus will, Rasterizing kann gar nicht am "Ende" sein, weil dann gäbe es das auch für jeden bezahlbar... und das ist gerade Praktisch nicht der Fall. Sprich das ist ncoh viel Marktanteile die sich Intel unter den Finger reisen könnte. Bis dahin können die gern RT ignorierne. Werden sie nicht. Aber die Preise für zb nur eine QHD GPU die stabile 140 FPS bringt sind ewinfach krank... Bis die Technik tot ist, sprich 4k eine 100€ GPU wiedergeben, das dauert auch noch ein paar Jahre.

1712668789479.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Warten wir es ab, vieleicht kann Intel ja doch Zaubern.....
 
nvidia ist eine der wertvollste Firmen mit dem steilsten Aktienkurs der Welt, aber Intel sollte aus finanziellen Gründen als Aktienunternehmen lieber keine gpus mehr machen?

Das ist der größte Wachstumsmarkt für Intel und alchemist war die allererste Generation mit Endkundenkontakt.

erst hieß es "battlemage kommt garnicht", dann "battlemage nur low end" und jetzt gibt's offenbar doch einen direkten Nachfolger der a770. Bevor man jetzt das Ende heraufbeschwört, sollte man zumindest mal abwarten, was battlemage kann.
 
  • Gefällt mir
Reaktionen: Yar und Strahltriebwerk
CDLABSRadonP... schrieb:
Effizienz ist wirklich der kritische Faktor. Bei Rasterperformance/Preis ist Alchemist mittlerweile konkurrenzfähig, bei der Effizienz hingegen nach wie vor abgeschlagen:
Also wie im CPU Bereich.
Aber aus gänzlich anderen Gründen.
Ich finde es aber dennoch gut dass Intel bei den gpus am Ball bleibt und es nach wie vor ernst zu nehmen scheint.
Ob die Effizienz für jeden jetzt so ausschlaggebend ist ? Guck mal wie die meisten ihre Intel CPU betreiben.
Und solange es nichts mobile sondern dedizierte Karten sind, sehe ich Effizienz zwar als wichtig, nicht aber als der eine große Punkt.

Unterstellen wir mal dass es mit den Treibern weiter so gut vorwärts geht wie momentan, dann könnte ich mir in 2-3 Jahren Karten vorstellen die zumindest mit AMD konkurrieren. NVIDIA ist, insbesondere nach manuellem UV mit ihren großen DIEs eh in einer ganz anderen Liga stand jetzt.
 
Einen B380 oder wie auch immer er heißen mag, passiv, mit wenig W Verbrauch im Idle und der Möglichkeit 3-4 4k Streams in AV1 zu transcoden wäre ein Segen für mein NAS. Ich will endlich alles auf AV1 umstellen können!
 
duskstalker schrieb:
nvidia ist eine der wertvollste Firmen mit dem steilsten Aktienkurs der Welt, aber Intel sollte aus finanziellen Gründen als Aktienunternehmen lieber keine gpus mehr machen?
Intel ist eine Aktienbude... Wenn die Aktionäre Gewinne fordern, dann setzt Gelsingers Nachfolger notfalls die fabs vor die Tür.. Da denkt man nicht langfristig, erst Recht nicht bei Intel. Das sieht man Eindrucksvoll an der Foundry Nummer... Intel hätte schon lange mal ihr Tooling soweit kommunizieren können, dass andere ihre Designs anpassen können.. nichts ist dergleichen passiert.

nach dem Atomx86 Desaster habe ich in Intel so viel Vertrauen, wie ich Lottozahlen richtig erraten kann
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerRico
iNFECTED_pHILZ schrieb:
Ich finde es aber dennoch gut dass Intel bei den gpus am Ball bleibt und es nach wie vor ernst zu nehmen scheint.
Ob die Effizienz für jeden jetzt so ausschlaggebend ist ? Guck mal wie die meisten ihre Intel CPU betreiben.
Bei Grakas sorgt die fehlende Effizienz halt vor allen Dingen für hohe Folgekosten. Die Kühler müssen fett ausfallen, die Boards sind dick ausgestattet und dennoch gibt es am Ende keine Performance, die jemanden hinterm Sofa hervorlockt. Bei CPUs lässt sich das stets leichter kaschieren, da die Standard-Leistungsaufnahmen so gering sind. Ob 100W statt 50W (oder gar im Fall der KS-CPUs 150W) ist halt nicht das gleiche wie 250W statt 125W bei Grakas. Eine KS-Krücke im Grakabereich könnte man knicken; das Ding ließe sich nicht ernsthaft verkaufen. Also man stelle sich vor, Nvidia würde z.B. eine Karte mit 300W Real-Leistungsaufnahme als Topmodell anbieten, Intel hätte eine ähnlich schnelle Karte mit 600W Real-Leistungsaufnahme und dann gäbe es noch eine zwei Prozent schnellere mit 900W Real-Leistungsaufnahme. Das Ding wäre Blei.
 
Das stimmt, deshalb kaufe ich auch keine Amd Karte.
Effizienz ist ALLES. 😀
 
BAR86 schrieb:
Vor allem wenns die 2025er Geforce 5700 wird ;)
Die wäre mir so etwas von scheißegal, bis der Herr Wir-sind-eine-Datacenter-Firma wieder seine als Grafikkarten verkauften Silizium-Überschüsse wieder zu Preisen ähnlich der Pascal Generation und maximal 2, vielleicht 2.5 Slots verkauft, schaue ich mich lieber auf dem Gebrauchtmarkt dann um, oder wirklich bei Intel, sofern sie es mit Battlemage schaffen.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk und BAR86
BAR86 schrieb:
du hast natürlich recht, aber es war durchaus ein Kurs der schon vor vielen Jahren (Fertigung 20, GPUs 15) immer wieder angeregt wurde, in meinem Fall also nicht im Nachgang
Damit hast du natürlich auch recht. Aber da ich selbst in einer Position bin, in der Entscheidungen über zukünftige Ausrichtungen getroffen werden müssen...... kann ich sehr gut nachvollziehen, warum so der so entschieden worden ist. Man hat zum jeweiligem Zeitpunkt einen anderen Blickwinkel.
Z.b.... ob man einem Zukunftstrend folgt oder nicht. Nicht jeder Trend wird auch zum Erfolg. Und manchmal will man den vermeidlich sicheren Weg gehen, was am Ende doch die falsche Entscheidung war.
Manchmal setzt man auf einen ganz anderen Weg, bewusst am Trend vorbei und hat damit Erfolg. Es ist manchmal ein bisschen wie Wetten wenn es um Planungen für die nächsten 5 Jahre und mehr geht.

Oder.... noch schlimmer... man folgt dem Trend und verkackt einfach bei der eigenen Umsetzung. Das tut dann richtig weh.
Oder... es fehlt an Kompetenzen um dem Trend zu folgen. Passende Leute zu finden, ist schwerer als man denkt. Grade bei bestimmten Kompetenzen wird der Arbeitsmarkt plötzlich sehr sehr klein.
 
CDLABSRadonP... schrieb:
Bei Grakas sorgt die fehlende Effizienz halt vor allen Dingen für hohe Folgekosten. Die Kühler müssen fett ausfallen, die Boards sind dick ausgestattet und dennoch gibt es am Ende keine Performance, die jemanden hinterm Sofa hervorlockt.
Folgekosten für Intel ? Ja. Drückt aber nur deren Marge also Wayne
Folgekosten für den Kunden ? Selbst bei steigenden Strompreiseb wohl kaum relevant. Eventuell noch Lautstärke aber die wäre ja gleich wenn Intel halt ein potenteres Kühlsystem verbaut.
CDLABSRadonP... schrieb:
.. eine Karte mit 300W Real-Leistungsaufnahme als Topmodell anbieten, Intel hätte eine ähnlich schnelle Karte mit 600W Real-Leistungsaufnahme und dann gäbe es noch eine zwei Prozent schnellere mit 900W Real-Leistungsaufnahme. Das Ding wäre Blei.
Also ich sehe einen Markt für die 666W YoloBIOS der RTX4090. Wie der KS ist sowas halt für reine enthusiasten. Keiner der zwei mal nachdenkt kauft sich nen KS. Und trotzdem wird’s angeboten und sogar verkauft.

Ich Seh das jetzt erst mal entspannt. Intel wird sich wie AMD und NVIDIA für ihre GPUs im üblichen Verbrauchsfeld bewegen (100-300W Karten ). Abhängig von der erreichten Leistung kann dann der Marktpreis sich einpendeln. Ob eine Karte 100fps mit 200W schafft oder eben 300W benötigt interessiert Jürgen Mustermann doch nicht.
 
iNFECTED_pHILZ schrieb:
Also ich sehe einen Markt für die 666W YoloBIOS der RTX4090. Wie der KS ist sowas halt für reine enthusiasten. Keiner der zwei mal nachdenkt kauft sich nen KS. Und trotzdem wird’s angeboten und sogar verkauft.
Den sehe ich durchaus auch. Aber das ist nicht das Szenario, in dem sich Intel im CPU-Segment befindet. Dafür habe ich ja extra als Gegenstück...
CDLABSRadonP... schrieb:
Also man stelle sich vor, Nvidia würde z.B. eine Karte mit 300W Real-Leistungsaufnahme als Topmodell anbieten, Intel hätte eine ähnlich schnelle Karte mit 600W Real-Leistungsaufnahme und dann gäbe es noch eine zwei Prozent schnellere mit 900W Real-Leistungsaufnahme.
...dieses Szenario konstruiert. Etwa so (noch ein Bisschen schlechter für Intel) sieht es ja gerade bei CPUs im Vergleich 7800x3D vs. 14900K vs. 14900KS aus.
 
BxBender schrieb:
Das war also die Lieferung, von der Intels Sprachrohre damals gesprochen hatte, als man bei den Lieferengpässen der Konkurrenz in die Bresche spingen wollte, um die bedrüfnisse der Kunden zu bedrieden.
Ich habe nur das Bedürfnis nach ebenbürtigen Treibern von Intel. Die brauchen kein highend oder Premiumklasse, stattdessen würde die Einsteigerklasse bis 350€ ausreichen, wenn im Gegenzug die Treiber stimmen würden.
 
Wie es aussieht, hat auch Intel (wie AMD) erkannt die Bonzenklasse besser Nvidia zu überlassen. Das Geld wird bei Einsteiger und Mittelklasse gemacht.
 
BAR86 schrieb:
Arc war ein allererster Versuch, sowohl die Software, als auch die Hardware haben einen Jahrelangen Erfahrungsrückstand den sie langsam schließen werden.
Das stimmt ja so nicht. Intel hatte bereits viiiiiele Jahre Millionen GPUs im Mobilbereich im Umlauf gehabt. Sie sind also sicher nicht bei 0 gestartet. Das Gleiche gilt für die Fertigung und das Chipdesign.
BAR86 schrieb:
War vor kurzem auf der Suche nach GPUs im Bereich 200-270€, da ist "der Quatsch" zu recht die beste Wahl gewesen.
Die Meinung hast Du aber recht exklusiv. WENN man Titel spielt, in denen die Intel-GPUs funktionieren und WENN es einem egal ist, dass sie ggf. einfach mal wieder aus den GPUs aussteigen - so dass es dann mit den Treibern eben nicht weitergeht und WENN einem ausserdem die Effizienz egal ist und daher AUSSCHLIESSLICH auf FPS/Euro schaut, DANN kann man auf die Idee kommen, dass eine Arc die beste Wahl ist. Zu dem Ergebnis kommen aber sehr wenige Leute.

Ich will Deine Wahl auch nicht schlechtreden: Wenn das für Dich passt, ist das wunderbar. Jede Konkurrenz ist willkommen.

Ich persönlich würde nur nicht unbedingt davon ausgehen, dass Intel noch mehrere Generationen auf GPUs baut, wenn die Verkaufszahlen so bleiben und die Kosten sich entsprechend weiterentwickeln.

AMD geht ja nun den gleichen Weg wie Intel: NV im oberen Marksegment aus dem Weg gehen und sich im P/L-Mittelklassesegment breitmachen, wo die grossen Stückzahlen sind.

Dann können die beiden sich schön die Marktanteile streitig machen und um die verbliebenen Kapazitäten bei TSMC zum höheren Preis als NV wetteifern. Klingt für mich für beide Firmen nicht sehr erfolgsversprechend...
 
BAR86 schrieb:
Meteor Lake ist ja auch Jahre zu spät und der 10nm Prozess immer noch unterlegen.
Das CPU Chiplet wird doch eh mittlerweile in Intel 4 und damit in einem eigentlich zu N4 vergleichbaren EUV Prozess produziert, rein auf die Fertigung kann sich Intel nicht mehr rausreden
 
lynx007 schrieb:
Hybrid Rendering =! Pathtracing!
Auch Pathtracing verwendet einen hybriden Ansatz. Volles Raytracing wird es nie bis kaum geben. Aber der RT Anteil wird größer und da ist Intel schon jetzt teils besser aufgestellt als AMD
lynx007 schrieb:
Der rest sind Tricks!
Deshalb schrieb ich auch ohne Tricks!
Rendering sind sowieso Tricks. Und vor allem Rasterizing ist hier am Ende.

lynx007 schrieb:
Das ist wohlgemerkt eine 4090, eine 2k GPU?!??! 1,5k?!?! Wir haben ohne Tricks bei Native 4k 16 FPS....
Das kriegst du mit genug Details auch im Rastern hin.
lynx007 schrieb:
sprich wir brauchen faktor 5 an Leistung, für 1/5 des Preise..... oder 500% Leistung, für 25% des Preises..... :daumen:
na was jetzt 1/5 oder 25%?
Willst du volles Raytracen "ohne Tricks" brauchst du eher den Faktor 100.
Willst du Rastern "ohne Tricks" - na dann schau dir an wie gut das funktionieren würde wenn du Fotorealismus erreichen möchtest.

lynx007 schrieb:
Ne das dauert noch etwas... vielleicht ahben wir da schon Enkel....
Kommt drauf an was du konkret meinst.
Cyberpunk 2077, RT, 4K @ 144 fps?
Da sind wir schon recht bald
lynx007 schrieb:
Worauf ich raus will, Rasterizing kann gar nicht am "Ende" sein, weil dann gäbe es das auch für jeden bezahlbar...
gemeint ist natürlich am Ende der Entwicklung/Skalierbarkeit.
Dass es auch in 10+ Jahren noch in China-GPUs Rasterizing geben wird ist ja schön und gut, die Entwicklung und zukünftige Spiele gehen klar richtung Hybrid Rendering
lynx007 schrieb:
und das ist gerade Praktisch nicht der Fall. Sprich das ist ncoh viel Marktanteile die sich Intel unter den Finger reisen könnte. Bis dahin können die gern RT ignorierne.
niemand kann mehr RT ignorieren, es ist in fast allen AAA Games drin.

DerRico schrieb:
Das stimmt ja so nicht. Intel hatte bereits viiiiiele Jahre Millionen GPUs im Mobilbereich im Umlauf gehabt. Sie sind also sicher nicht bei 0 gestartet. Das Gleiche gilt für die Fertigung und das Chipdesign.
Naja in den frühen 2000er Jahren war es großteils eine lizenzierte IP.
Und: hauptsächlich krankt es an der Treiberentwicklung und die hat man erst um 2019 herum angeworfen
DerRico schrieb:
Die Meinung hast Du aber recht exklusiv. WENN man Titel spielt, in denen die Intel-GPUs funktionieren und WENN es einem egal ist, dass sie ggf. einfach mal wieder aus den GPUs aussteigen - so dass es dann mit den Treibern eben nicht weitergeht und WENN einem ausserdem die Effizienz egal ist und daher AUSSCHLIESSLICH auf FPS/Euro schaut, DANN kann man auf die Idee kommen, dass eine Arc die beste Wahl ist. Zu dem Ergebnis kommen aber sehr wenige Leute.
Ok ich exklusiv und die Kollegen von der Presse: https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Videos/Arc-A770-Nachtest-1436941/

DerRico schrieb:
Ich will Deine Wahl auch nicht schlechtreden: Wenn das für Dich passt, ist das wunderbar. Jede Konkurrenz ist willkommen.
Das war natürlich ein Experiment, GPUs hab ich genug rumliegen und ich bin auch ein Sammler (von Parhelia über Volari, S3, 3dfx.... und nun auch Intel. Und während ich deine Bedenken anfangs durchaus geteilt habe (vor allem weil ich immer wieder mal Spiele auf der Intel iGPU am Laptop angeworfen hab), kann ich das so nicht mehr ganz sehen. Im Moment macht die GPU weniger Probleme als meine AMDs, die teilweies beim Abspielen von Twitch-Streams überfordert waren
DerRico schrieb:
Ich persönlich würde nur nicht unbedingt davon ausgehen, dass Intel noch mehrere Generationen auf GPUs baut, wenn die Verkaufszahlen so bleiben und die Kosten sich entsprechend weiterentwickeln.
Das ist halt die Frage: wenn man nicht kauft, weil sie vielleicht bald nicht mehr gebaut werden, werden sie eben auch nicht mehr gebaut. Gab ja auch ein Interview von einem der Entwickler der meint solche Meinungen und Presse sind nicht hilfreich. Wenn das Management den Hahn zudreht haben wir weiterhin ein Duopol. Sonst wär wenigstens Intel dabei.
Immerhin die GPU Architekturentwicklung muss sowieso weitergehen und weil Nvidia die Preise in den letzten Jahren so nach oben gezogen hat ist es für Intel/AMD auch viel leichter Gewinn zu machen, auch wenn sie unter 30% Marktanteil bleiben sollten.
DerRico schrieb:
AMD geht ja nun den gleichen Weg wie Intel: NV im oberen Marksegment aus dem Weg gehen und sich im P/L-Mittelklassesegment breitmachen, wo die grossen Stückzahlen sind.
Ja, und "Mittelklasse" waren früher GPUs um 130-200€, inzwischen sind wir da eher bei 300-400€, das heißt da verdienen beide pro Karte auch viel mehr.
DerRico schrieb:
Dann können die beiden sich schön die Marktanteile streitig machen und um die verbliebenen Kapazitäten bei TSMC zum höheren Preis als NV wetteifern. Klingt für mich für beide Firmen nicht sehr erfolgsversprechend...
Intel wird früher oder später auch selbst produzieren. Abgesehen davon hat die Mittelklasse inzwischen wesentlich weniger Stückzahlen als früher, tatsächlich kaufen die PC Spieler teurer ein als früher. Dazu gibts ja immer schöne Zahlen von Mindfactory aber auch Martkuntersuchungsinstituten und den Jahreszahlen. Wenig representativ aber immer noch interessant auch kürzlich hier eine Umfrage am Sonntag.
 
CDLABSRadonP... schrieb:
Bei Grakas sorgt die fehlende Effizienz halt vor allen Dingen für hohe Folgekosten. Die Kühler müssen fett ausfallen, die Boards sind dick ausgestattet und dennoch gibt es am Ende keine Performance, die jemanden hinterm Sofa hervorlockt.

die aussage geht im bezug auf die arc karten aber auch an der realität vorbei. die a770 hat eine asic power von gerade mal 190w - da kommen dann 16gb gddr6 dazu + wandlerverluste. die referenzkarte ist 2-Slot, leise, kompakt und optisch ansprechend und sogar besser als die Acer AIB karten. die "schlechte" effizienz von intel kommt hauptsächlich aus der schwankenden leistung.

der grundsätzliche verbrauch der karten bei der chipgröße ist doch voll in ordnung. es hängt nur an der performance und hier sprechen wir von einem 1st gen produkt. in manchen titeln ist die a770 auch auf dem niveau einer 6700XT bzw. sogar 6800XT. natürlich bekommt hier intel nicht überall die selbe leistung pro watt pro mm² raus wie nvidia & amd. intel hat aber enorm viel potential mit verbesserungen bei den folgenden generationen aus der selben chipfläche beim selben verbrauch deutlich mehr leistung herauszuholen.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Zurück
Oben