News „Intel Arc B770“ mit BMG-G31: Kommt der große Battlemage-Chip, oder kommt er nicht?

Replay86 schrieb:
AMD versagt seit Jahren im Grafikkartenmarkt
OK. Das ist jetzt mal eine interessante These. Kannst du das bitte ein bisschen deutlicher ausführen?
 
Irgendwie ist das so weird im hardware bereich dass tatsächliche ankündigung von produkten und veröffentlichung teils nichtmal eine woche getrennt liegen.. gibts das sonst wo? glaube fast nicht
 
craxity schrieb:
Ich glaube du bist nicht auf dem Laufenden. Wenn man sich die Nachtests anschaut, erkennt man, dass sich bei den Treibern und der Spieleuntetstützung enorm viel getan hat.
aha, das mag sein. Schaun wir mal einfach wie die Tests der neuen Intel-Karten aussehen. Mal sehen, ob da alle Titel in den ganzen Tech website Tests grundsätzlich funktionieren wie es auch bei Nvidia und AMD Karten der Fall ist.
 
China scheint absolut frustresistent gegenüber Krüppelhardware zu sein.
Dort wird sogar wieder die GT 710 und RX580 weitergebaut.
Und die Eigenproduktionen wie die MTT80 und Longson etc. haben es ja ganz Dicke.
Trotzdem wird so etwas euphorisch gefeiert und man macht mit bester Laune weiter und vor allem immer schneller und immer besser.
Demgegenüber ist bei Intel richtig Kindergarten angesagt.
Wenn die jetzt nicht mal mehr so ein einfaches Projekt wie den Battlemage ganz durchziehen wollen, können oder werden, dann lacht die ganze Welt die aus.
Die werden es doch wohl geschissen kriegen, nach 30 Jahren Entwicklungszeit einen bereits voll entwickleten Chip aus der CPU aufgepimpt auf eine dedizierte Steckkarte zu löten und die Treiber dafür aufzufrischen?
Wenn die in China diese einfache Grundvorraussetzung gehabt hätten, die würden womöglich heute schon NVidia auf den Zahn fühlen, wenn die nicht auch noch die Sanktionen als künstlichen Bremsklotz hätten, wohl nur, um die eigenen Firmen wie Intel damit zu schützen?
 
Munkman schrieb:
sondern stützt dich auf irgendwelche weiß Gott wie alten Benchmark Balken
Viel zu pauschal deine Intel Zuneigung. Und wenn 12.10.24 bei dir eine göttlich vergangene Zeit ist, unterstreichst du nur deine göttlich gegebene nicht Objektivität.
Einem Multimilliarden Konzern Geld in den Rachen zu stopfen, die schon heute ihre misslungene Arc zum gleichen Preis verkaufen als bessere Grafikkarten mit bessere Treiber ist unfassbar dämlich. Wäre Intel in der Nvidia Position, wären die Preise und der Speicherausbau exakt gleich. Mit Intel wird nichts besser im GPU Bereich. Im Gegenteil, Intels Ziel war und ist, eine Monopolstellung haben zu wollen für noch mehr Milliarden in den eigenen Taschen und für die Aktienhalter*innen.
Dann soll Intel doch weniger Gewinne ausschütten und dafür Leute einstellen, die Tag und Nacht ihre Arc stressen. Aber Endnutzer*innen auffordern sie sollen sich teuer diese Karten kaufen, damit Intel irgendwann einem noch mehr Geld aus der Tasche ziehen kann, grenzt doch an eine blinde Intel Unterwerfung.
Wie schon andere schrieben, kann niemand sagen ob es weiter geht bei Intel. Noch nicht einmal ist klar, wie lange 1851 unterstützt wird.
Intels Devise war schon immer, nie etwas zugeben, immer so weit wie möglich verheimlichen. Intel, also den Leuten die Entscheidungen treffen und getroffen haben, haben sich dieses Image verdient, dass man diesem Konzern nie und nimmer irgendetwas schenken darf, oder als Endanwenderin auch noch selbstlos Beihilfe bietet.
Das würde ich auch nicht für AMD und Nvidia machen. So etwas kann man für den kleinen Laden nebenan machen.
 
  • Gefällt mir
Reaktionen: Zoba
Dr-Rossi-46 schrieb:
Ist schon sehr ernüchternd, da wird Intel wieder extrem über den Preis kommen müssen und selbst dann muss man sich die Frage stellen, ob man sich den mittelmäßigen Support antun möchte.
Für den geringen Marktanteil ist der support seitens Intel sogar ziemlich gut. Man muss aber leider sehen dass Intel quasi ohne "Vorarbeit" im Markt landete. Keine relevanten Kontakte zu gaming-Studios. Keine Prozesse oder Tools zum Zusammenarbeiten... keine Datenbank im Rücken mit bisherigen engines und den hunderten micropatches damit es funktioniert.

Das Problem bei GPUs ist eben dass, trotz APIs wie DX, die Kommunikation mit den engines ein reines bugfestival ist. Die ganzen "gameready"-Treiber etc liefern eben hunderte bis tausende Micropatches dafür. Je länger man am markt ist desto größer ist der Schatz in der eigenen Datenbank mit bisherigen Spielen auf der engine und den dafür entwickelten patches.

Es gibt einen Grund weswegen Intel nicht mit Spielen der Generation DX9 oder älter richtig funktioniert - diese Datenbank wird nicht mehr rückwirkend erstellt.

Da Xe aus einer Architektur für Datenbankapplikationen entstanden ist hoffe ich dass Battlemage die entsprechenden Anpassungen in Hardware mit sich bringt um die gezeigten Flaschenhälse beim Gaming zu umgehen. Die Software ist ja mittlerweile ganz passabel. Und dennoch wird Intel immer auch über den Preis kommen müssen - es sei denn XeSS knallt alles andere in die Tonne. Oder ein vergleichbares feature mit absolutem Mehrwert...
 
konkretor schrieb:
Selbst ne Intel schon in der Hand gehabt oder nur Hörensagen? Wenn letzteres dann verkneif dir die Kommentare dazu.
Dann kann CB ja einpacken. Alle Artikel sind Hörensagen...
 
DerRico schrieb:
Wenn ich mal selber mit Kunden spreche die produktiv zu tun habe, sagen die IMMER, in all den Jahren IMMER, wenn sie wissen was eine GPU ist und wer sie herstellt: NV.
Das wird solange so bleiben, bis Intel und AMD sich mal über ein paar Jahre und Generationen als mindestens gleichwertig zum besseren Preis erwiesen haben. Das wiederum ist fast unmöglich, da NV den enormen Preisvorteil des grössten Players am Markt hat, dazu erlösen sie den höchsten Preis je Chipfläche und haben die besten Leute.

Harte These. AMD war und ist, je nach Anwendungsfall, seit Jahren eine gleichwertige oder auch bessere Alternative.
Wenn Du im Produktivbereich bist gibt es exakt zwei Gründe warum Deine Kunden (und dadurch beeinflusst in Teilen auch Du) zu solch einer Meinung gelangen:

- je nach Bereich ist CUDA einfach zu mächtig. Da hat sich nVidia eine Vormacht im Softwareumfeld aufgebaut die nicht so leicht zu durchbrechen ist zumal die Hersteller der Software keinen Anreiz haben für AMD Anpassungen einzubauen. Warum? Ist nicht deren Aufgabe zu entscheiden welche GPU ihre Kunden kaufen, sind aber ihre Kosten das zu coden. AMD hat seit Jahren Versuche ein vernünftiges framework auf die Beine zu stellen und an und für sich funktioniert das auch gut. Nur muss man die Zielsoftware auch darauf hin anpassen. Da ist null Anreiz im Markt. So wie die Software-Seite aussieht muss AMD quasi CUDA emulieren und da kann AMD nicht gewinnen. Derzeit versucht AMD über HPC ihre API zu verbreiten, quasi von oben nach unten. Das kann gelingen aber ist natürlich langsam.

- Deine Kunden (und Du) entstammen naturgemäß einem Businessumfeld mit einer einfachen Regel: völlig egal ob die Karte 1000€ mehr oder weniger kostet, wenn die Kiste auch nur einen Tag nicht so funktioniert wie sie soll gehen - je nach Kunde - gerne mal schnell tausend bis viele tausende Euro an (Opportunitäts-)Kosten flöten.
Also bleibt man beim bewährten. Und mit nVidias Salamitaktik beim Preis fahren sie auch ganz gut nicht den großen Schockmoment zu generieren um Menschen über das Abwandern nachdenken zu lassen.


Intel kann hier nicht mitspielen, denen fehlt die Schnittstelle komplett. Das ist locker seit Larrabee verkackt. Auch Knight's (Landing/Corner etc) konnte im business nie wirklich landen. Also fehlt da eine API-Verbreitung.
Selbst wenn Gaudi irgendwann mal mithalten kann, ist das auch technisch eigentlich viel zu weit entfernt als dass es da einen trickle down-Effekt zur Verbreitung geben würde.
 
  • Gefällt mir
Reaktionen: Gizzmow und Munkman
Vorallem ist AMD unter Linux das beste was man sich antun kann. Auch ROCM als CUDA Konkurrent hat Sprünge gemacht.
 
  • Gefällt mir
Reaktionen: Munkman
quakegott schrieb:
OK. Das ist jetzt mal eine interessante These.
Schau Dir die Entwicklung der Marktanteile an.
Ergänzung ()

BxBender schrieb:
Wenn die jetzt nicht mal mehr so ein einfaches Projekt wie den Battlemage ganz durchziehen wollen, können oder werden, dann lacht die ganze Welt die aus.
Wen interessiert's, selbst wenn's so wäre?

Sinnlos Geld zu verbrennen um weniger (oder aus anderem Grund) ausgelacht zu werden ist keine sinnvolle Maxime für eine Aktiengesellschaft.
 
TenDance schrieb:
Das ist keine These sondern ein Erfahrungsbericht, der ganz unterschiedlich sein kann je Kundenkreis.
Und ganz wichtig: Ich erwähne AMD mit keinem Wort. Es geht hier um Intel und ich grenze die für einen plakativen (nicht wissenschaftlichen) Vergleich zu NV, dem Marktführer ab.

Bei uns sind anteilig mehr AMDs im Einsatz als der Marktanteil vermuten lässt, u.a. aus von Dir genannten Gründen. Aber: Kunden fragten selber bei uns zumindest nie danach - Über 90% der Kunden ist das egal oder sie wissen gar nicht, wo die Rechenleistung herkommt. Dann kaufe ich das ein, was funktioniert und kostenoptimal ist, was eben manchmal NV und manchmal AMD ist.

Oft geht es auch einfach um tagesaktuelle Preise, die GPUs kommen kistenweise aus Asien und nicht aus dem Mediamarkt. So haben wir nach dem Miningboom Dutzende A2000 12GB eingeflottet. Aber sicher nicht, weil die so geil sind, sondern weil die keine 200Dollar gekostet haben / Stück.
TenDance schrieb:
- Deine Kunden (und Du) entstammen naturgemäß einem Businessumfeld mit einer einfachen Regel: völlig egal ob die Karte 1000€ mehr oder weniger kostet, wenn die Kiste auch nur einen Tag nicht so funktioniert wie sie soll gehen - je nach Kunde - gerne mal schnell tausend bis viele tausende Euro an (Opportunitäts-)Kosten flöten.
Also bleibt man beim bewährten.
Das ist absolut richtig. Die Hardwarekosten sind im Vergleich zu anderen Posten minimal. Die Dinger müssen immer laufen und halten in der Regel auch länger als im Heimrechner, wo der Nerd alle zwei Jahre austauscht. Wenn in einem Beispiel ein Mitarbeiter, der extern vielleicht mit 150€ abgerechnet wird mal einen Tag auf seine Kiste verzichten müsste (theoretisches Beispiel), sind die initialen Hardwarekosten weniger relevant, wenn ein dringendes Projekt, für dass der Endkunde fünfstellig zahlt nicht fertig wird, sind sie sogar vollkommen egal.
 
  • Gefällt mir
Reaktionen: incurable
Naja... da hat Intel leider noch einen weiten Weg vor sich.
Wenigstens gefällt mir jedoch das Design der ASRock Steel Legend Intel Arc B580 schon mal richtig gut, auch wenn ich sie nie kaufen werde.
 
DerRico schrieb:
Masochist? Bastler? Zyniker?


Oder vielleicht einfach mit der Preisexplosion der letzten Jahre unzufrieden? Nicht jeder nimmt eine Vervielfachung einfach so hin.

Wenn Intel bei der Leistung eine Generation aufholt, was man erwarten muss, und der Stromverbrauch nicht mehr so hoch wäre wie bei Arc würde eine B770 sicher für sehr viele sehr interessant werden.


Replay86 schrieb:
AMD versagt seit Jahren im Grafikkartenmarkt und nun hofft man auf Intel. Was eine Ironie.


Auf welchen Grafikkartenmarkt beziehst du dich da? Der der Grafikkarten für PC-Spiele kann es ja nicht sein...

Ich könnte jetzt polemisch sein und sagen, dass nVidia seit Jahren auf dem Grafikkartenmarkt versagt. Unter den x090ern kommt nur Rotz. Die sollen endlich mal zeitgemäße Speichermengen verbauen, bei einer neuen Generation endlich mal wieder mehr Leistung fürs Geld bringen, Linux vernünftig unterstützen und die Software final 2024-tauglich machen. Außerdem hat nVidia immer noch keinen Gegner für AFMF zu bieten.


Chismon schrieb:
Die Preise aktuell sich ziemlich zum abgewöhnen, da müsste noch einiges passieren und wenn man für knapp 700 Euro per Black Friday Aktion ein ziemlich vernünftiges (Gaming-)Laptop mit AMD dGPU (RX 7600S, 8GB) bekommt, dann sind die weit über 1000 Euro Preise für ein Laptop mit vergleichsweise ziemlich schwacher Strix Point APU (aber Copilot+ kompatibler NPU) leider ein ganz schlechter (Marketing-)Witz von AMD und Boardpartnern.


Sind die Laptops denn sonst absolut baugleich? Ein besseres Gehäuse oder Display, eine bessere Tastatur, mehr Akkulaufzeit, Garantien, Features für Profis usw. spielen also alle keine Rolle im Vergleich zur GPU?

Ich kaufe bewusst keine Laptops mit dGPU mehr. Sind kein Mehrwert für mich und nur rausgeschmissenes Geld und Ressourcen. Und wenn ich unterwegs doch mal was spielen will habe alleine ich bei Steam hunderte Spiele, die schon auf meinem alten 5500U mit GCN-iGPU noch mit maximalen Details laufen.


Ich sehe das entspannt. Denke RDNA4 wird gut werden, wenn man die Ankündigungen von AMD bedenkt, und wenn Battlemage wie gesagt deutlich sparsamer wäre könnte eine B770 doch eine Alternative zur 8700 oder so werden. Dann hat man wenigstens etwas Auswahl und kann je nach Budget und Anforderungen zwischen Intel und AMD wählen.
Wer ab und zu mal ein Spiel mit RT spielt, noch auf 1080p setzt und die Apothekenpreise von nVidia nicht bezahlen will könnte mit einer B770 genau die richtige Karte bekommen.
 
  • Gefällt mir
Reaktionen: Munkman und Atlan2101
Bierliebhaber schrieb:
Auf welchen Grafikkartenmarkt beziehst du dich da? Der der Grafikkarten für PC-Spiele kann es ja nicht sein...
Ach, deswegen hatte AMD im vorletzten Quartal gerade noch 12% Marktanteil?

Wenn AMD morgen die Grafikkartensparte einstellen würde, fiele das nur den geschätzten drei Hanseln auf, die - warum auch immer - aktiv nach Radeon Grafikkarten suchen.
Ergänzung ()

Bierliebhaber schrieb:
Wer ab und zu mal ein Spiel mit RT spielt, noch auf 1080p setzt und die Apothekenpreise von nVidia nicht bezahlen will könnte mit einer B770 genau die richtige Karte bekommen.
Nur welchen Antrieb haben AMD und Intel, sich um Pfennigfuchser zu bemühen?

Das sind schließlich beides Aktienunternehmen mit der Zielsetzung Gewinne für die Anteilseigner zu erzielen.
 
Zuletzt bearbeitet:
incurable schrieb:
Ach, deswegen hatte AMD im vorletzten Quartal gerade noch 12% Marktanteil?

Wenn AMD morgen die Grafikkartensparte einstellen würde, fiele das nur den geschätzten drei Hanseln auf, die - warum auch immer - aktiv nach Radeon Grafikkarten suchen.


Achso, wusste nicht, dass man die Qualität der Produkte am Marktanteil ablesen kann. Dann ist z.B. das Fleisch von ja! auch allerbeste Gourmetqualität, oder? Immerhin verkauft sich das richtig viel.
Mir wäre auch neu, dass insgesamt nur 14 Menschen am PC spielen, aber nach deinen Zahlen muss es wohl so sein.

Du scheinst meinen Kommentar ja ohnehin nicht gelesen zu haben, deshalb kurz nochmal die Gründe, warum man nach AMD-Grafikkarten suchen könnte:
-besseres P/L-Verhältnis
-mehr VRAM
-bessere Software
-läuft problemlos unter Linux
-andere, je nach Geschmack vielleicht brauchbarere Features

Für Intel spricht z.B. die RT-Leistung fürs Geld.


Aber klar, wird niemand merken, wenn es die nicht mehr gibt. Auch nicht daran, dass dann eine 5050 mit 6GB VRAM 2000€ kosten dürfte, dank Monopol. 5090 gibt's dann nicht unter 15.000€.
 
incurable schrieb:
Man kann ja viel behaupten, aber dass Intel in Sachen Grafikkartentreiber heute schlechter dastehen würde als zur Veröffentlichung der Arc-A-Serie ist wilder Unfug.
Das steht da nirgends... Grober Unfug von dir?
 
engineer123 schrieb:
aha, das mag sein. Schaun wir mal einfach wie die Tests der neuen Intel-Karten aussehen. Mal sehen, ob da alle Titel in den ganzen Tech website Tests grundsätzlich funktionieren wie es auch bei Nvidia und AMD Karten der Fall ist.
Gleich nebenan:
FSR 3.1 legt dagegen eine absolute Bruchlandung hin. Auch die neuste Version von AMDs temporalem Upsampling bekommt die Bildstabilität im Spiel unabhängig von der Auflösung einfach nicht in den Griff, zahlreiche Elemente flimmern deutlich mehr als mit der nativen Auflösung. Darüber hinaus „verschlimmbessert“ FSR das Bildrauschen, was mit FSR oft passiert: Grafikfehler werden intensiviert anstatt unterdrückt.(...)Im Vergleich zu FSR schneidet XeSS diesbezüglich weitaus besser ab. Größere Grafikfehler, die es sonst mit XeSS ganz gerne gibt, zeigen sich im neusten COD nicht.
https://www.computerbase.de/artikel...psampling_nvidia_dlss__amd_fsr_in_der_analyse
 
@Combine hmmm, was willst Du uns damit wohl sagen?! FSR war bzw. ist oftmals schlechter als DLSS.

Das ändert nichts daran, dass AMD Grafikkarten in den Tests zu ihrem jeweiligen release in
nahezu allen Jahren die getesteten Spiele ab Verkaufsbeginn fehlerfrei und ohne reproduzierbare Abstürze darstellen konnten und können. Dieses Kriterium wird aktuell von AMD und Nvidia erfüllt.

Mit der nächsten Intel Generation hat Intel die Chance den Club auf drei zu erhöhen, mal sehen, ob sie sie nutzen. Einzige Voraussetzung ist, dass die getesteten Spiele in den release Tests fehlerfrei laufen und keine reproduzierbaren Abstürze zeigen.
 
Zurück
Oben