Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intel Battlemage (Xe2): Die Arc B580 kommt mit weniger Shadern, aber fast 3,0 GHz
Selbst wenn dem so wäre hat Intel weiterhin iGPUs für die sie Treiber pflegen müssen.7eNd schrieb:von der man weiß, dass es die letzte Generation sein wird? Wieviel Aufwand wird da in den nächsten Jahren noch in Treiberpflege gesteckt?
Also auf den Vollausbau bin ich durchaus gespannt. Momentan genügt mir die 6900XT noch gut, sollte ich aber Lust auf ein Upgrade kriegen... wer weiss.
Zuletzt bearbeitet:
SweetOhm
Lt. Commander
- Registriert
- Juli 2023
- Beiträge
- 1.383
Für 289 - 299 € gab es aber schon eine 7600XT mit 16 GB ...yoshi0597 schrieb:12GB statt 8GB nimmt man gerne mit, das ist ein Alleinstellungsmerkmal, da 4060 und 7600 nur 8GB haben.
Anhänge
Shader
Lt. Commander
- Registriert
- Aug. 2005
- Beiträge
- 1.892
Ich habe da was verwechselt.Medi02 schrieb:Wäre mir neu das es da Limitierrungen gab. Ich nutze meine A770 auch mit einem Ryzen. Oder versteh ich dich da falsch?
Ich glaube nicht, dass Intel die Leistung einer Radeon RX 6900 XT mit der Arc B780 oder dergleichen erreicht aber vielleicht wird man ja eines besseren belohnt aber selbst wenn, da der große Chip sich verzögert und zu dem Zeitpunkt wahrscheinlich schon die Radeon RX 8800 draußen ist, wird das auch wieder zu spät sein.
C
Coeckchen
Gast
Dachten wir doch auch bei Xbox One X vs PS5. Aber weniger Einheiten mit hohem Takt lassen sich scheinbar besser auslasten. Ich denke sie gehen da schon den richtigen Weg.BernmanHH schrieb:Bin gespannt, ob der hohe Takt nicht den Verbrauch negativ beeinflusst. Vielleicht wären mehr Einheiten und weniger Takt besser.
Da stimmte es ja auch. Die Series X verbraucht je nach Test 20-30 Watt weniger als die Ur PS5 (vor dem neuen SoC und RAM) und ist dabei in vielen Spielen zumindest ein bisschen schneller (bzw. weniger aggressiv bei der dynamischen Auflösung).Coeckchen schrieb:Dachten wir doch auch bei Xbox One X vs PS5.
Die Ur PS5 geht in Spielen bis ~225 hoch. Die Series X auf um die ~200W.
https://www.eurogamer.net/playstation-5-review-digitalfoundry
https://www.eurogamer.net/digitalfoundry-2020-xbox-series-x-power-consumption-and-heat-analysis
Innocience
Lieutenant
- Registriert
- Okt. 2020
- Beiträge
- 628
Ob Battlemage was wird, hängt für mich vorallem vom Preis ab. Sie müssen billiger als AMD sein und gleich viel bieten oder gleich viel Kosten und mehr bieten.
Als Konkurrent zu Brot und Butter GPUs à la 8600 XT aber mit mehr Speicher oder eben 8600 XT aber billiger.
Ggf. könnte Intel sich auch bei Low-End Käufern <250€ beliebt machen. 8GB ~4060 oder knapp drunter hielte ich für angemessen. AMD und Nvidia bequemen sich ja nun schon seit Jahren nicht, mal eine vernünftige Karte in der Preisregion anzubieten.
Als Konkurrent zu Brot und Butter GPUs à la 8600 XT aber mit mehr Speicher oder eben 8600 XT aber billiger.
Ggf. könnte Intel sich auch bei Low-End Käufern <250€ beliebt machen. 8GB ~4060 oder knapp drunter hielte ich für angemessen. AMD und Nvidia bequemen sich ja nun schon seit Jahren nicht, mal eine vernünftige Karte in der Preisregion anzubieten.
der Unzensierte
Vice Admiral
- Registriert
- Juni 2009
- Beiträge
- 7.077
Dem Markt würde es extrem gut tun wenn Intel hier endlich abliefert. Aber ob das auch für die Kasse von Intel zutrifft? Ich habe da Bedenken, trotz der Fortschritte bei iGPU. Die müssten weiterhin bereit sein einiges Lehrgeld zu investieren - zu einem Zeitpunkt wo es dem Unternehmen nicht wirklich gut geht.
Nicht wirklich. Die Entwicklung von G31 wurde nur spät angefangen. Zunächst sollte der große Die ein 28Xe Core Design sein, der wurde dann gecancelt und dafür G31 mit 32Xe Kernen aufgelegt.Simanova schrieb:Das Problem sehe ich beim B770, der Chip sollte ja zusammen mit dem B580 erscheinen, hängt aber von Problemen geplagt in der Entwicklung fest
Mea culpa, hatte dual issue ganz vergessen, weil ich ursprünglich A770 mit der 6650 vergleichen wollte und dann festgestellt hab, dass letztere in 7nm gefertigt wurde und die 7600 vom Prozess her näher an der A770 liegt. Die 6650 hat nur die Hälfte theoretischer FLOPS. Könnte wirklich ein Auslastungsproblem sein.Temporä schrieb:Das leistet RDNA3 allerdings auch nur mit den Dual Issue Befehlen
Real performt RDNA3 da ähnlich wie RDNA2 bei halber nominellen Rohrleistung.
Dennoch glaube ich dass der kleine Battlemage nicht super spannend wird - zumindest für alle die bereits auf 6700XT und schneller sitzen.
Ob das die letzte Generation von Gaming-Grafikkarten sein wird, ist noch gar nicht raus. Dann wird diese Architektur ja auch von den aktuellen CPUs genutzt. Von dem Chip wird es sicher auch wieder Profiversionen geben. Treiberpflege wird damit auch mittelfristig gesichert sein.7eNd schrieb:Ich hätte ja Interesse daran, aber lohnt es sich überhaupt, auf eine GPU-Reihe zu setzen, von der man weiß, dass es die letzte Generation sein wird? Wieviel Aufwand wird da in den nächsten Jahren noch in Treiberpflege gesteckt?
Man muss sich endlich von dem Gedanken trennen, dass Grafikkarten für Gamer entwickelt werden. Das ist weder bei Nvidia, noch bei AMD und auch bei Intel nicht der Fall. Gaming ist für die nur ein Nebengeschäft, ganz besonders für Intel und AMD.
Meine Meinung: Ich glaube nicht, dass das Intels letzte Grafikserie sein wird. Ich denke, sie wollen - wie AMD auch - Profilösungen aus einer Hand anbieten können und deswegen nicht auf eigene (Profi-)Grafikkarten verzichten. Vielleicht gibt es keine weiteren Gaming-Karten, aber wenn sie weiter Profikarten entwickeln, wäre es unlogisch, keine Gamingkarten rauszubringen. Anders als bei AMD, die (noch) zweigleisig fahren, wäre der Aufwand für Intel quasi null, weil selbe Arch. Treiber wollen ja auch für die Profikarten gepflegt werden. Verträge mit den Boardpartnern hat man auch noch.
Diablokiller999
Captain
- Registriert
- Jan. 2007
- Beiträge
- 3.417
Mensch Intel, ich hätte es euch gegönnt und der Start war meiner Meinung nach gar nicht so übel. Aber irgendwo habt ihr euer Mojo verloren was GPUs an geht. Battlemage und Cleric hätten da wunderbar drauf aufbauen können und gerade jetzt sind die Gamer gewillt, ein paar Einschnitte hinzunehmen, wenn der Preis stimmt. Das hätte euer Ryzen-Moment für GPUs werden können.
Hoffe nur, sie ziehen nach 2 Generationen nicht wirklich schon den Stecker.
Manchmal glaube ich, Imagination Technologies zu kaufen wäre einfacher gewesen...
Hoffe nur, sie ziehen nach 2 Generationen nicht wirklich schon den Stecker.
Manchmal glaube ich, Imagination Technologies zu kaufen wäre einfacher gewesen...
scootiewolff22
Lt. Commander
- Registriert
- Mai 2016
- Beiträge
- 1.034
therealcola
Lt. Commander
- Registriert
- Sep. 2020
- Beiträge
- 1.582
Intel war damals aufgestellt wie NVIDIA. Das beste vom besten. Jetzt nur noch schlamm. CPU schlecht und GPU schlecht. Wen interessiert die Grafikkarte b580? Vermutlich weniger Leistung als ne Olle 6700 XT ?
12gb zu wenig 16gb müssen es sein. Ist doch nicht schwer zu verstehen.
Wenn Intel ne Grafikkarte für Gamer raus bringt sollte diese schon mehr Leistung als ne ps5 oder xbox series x bieten, ansonsten können sie es gleich lassen.
10% mehr Leistung als ne RX 7900 GRE und das 50-70€ günstiger mit 16gb Speicher und dann noch overclock für 3-5% extra bumm und Intel könnte was reißen, aber so? Ne.
12gb zu wenig 16gb müssen es sein. Ist doch nicht schwer zu verstehen.
Wenn Intel ne Grafikkarte für Gamer raus bringt sollte diese schon mehr Leistung als ne ps5 oder xbox series x bieten, ansonsten können sie es gleich lassen.
10% mehr Leistung als ne RX 7900 GRE und das 50-70€ günstiger mit 16gb Speicher und dann noch overclock für 3-5% extra bumm und Intel könnte was reißen, aber so? Ne.
Zuletzt bearbeitet:
BernmanHH
Ensign
- Registriert
- Sep. 2019
- Beiträge
- 203
Ähnliche Themen
- Antworten
- 359
- Aufrufe
- 32.079
- Antworten
- 92
- Aufrufe
- 8.537
- Antworten
- 72
- Aufrufe
- 3.922