News Gerüchte um Intel Arc 2.0: Battlemage als Desktop-Grafikkarte noch dieses Jahr

Day 1 Kauf, keine Frage - Preis egal. Bin sehr gespannt!
 
  • Gefällt mir
Reaktionen: konkretor und DynamaxX
Rockstar85 schrieb:
Wenn BGM solide wird und wie RX8000 gute Leistung zu einem guten preis bringt und stabile treiber hat, dann Bitte Intel..
Go 4 it. Aber ich bin mir leider ziemlich sicher, dass Intels GPU nicht mithalten werden. Sonst würde Gelsinger das Projekt nicht wieder einstampfen
Hoffen dürfen wir doch noch :D
Aber ja, die Gerüchte sagen was anderes. Gespannt abwarten und dann sehen wir was kommt.
 
Rockstar85 schrieb:
Sonst würde Gelsinger das Projekt nicht wieder einstampfen
Das muss nicht zwangsläufig mit der Leistung zusammenhängen - Grund könnte auch die aktuelle Lage sein.
Schade ist es natürlich trotzdem.
 
  • Gefällt mir
Reaktionen: konkretor und DynamaxX
mscn schrieb:
Das muss nicht zwangsläufig mit der Leistung zusammenhängen
Das Problem wird auch nicht die Technik sein, sondern die Implementierung. Also JA, es hängt zwangsläufig zusammen, denn auch GAUDI läuft alles andere als gut.
 
tso schrieb:
Sollte Intel den Grafikkartenmarkt wieder verlassen, hätte das nur negative Konsequenzen für uns Konsumenten (Zurzeit kann NVIDIA die Preise ja nach Belieben festlegen und auch wird AMD wird mit der nächsten Generation auf einen direkten Angriff gegen NVIDIA verzichten).
Aber an der Situation ist der Kunde doch selber schuld, selbst wenn AMD mal besser war, hat man kräftig Nvidia gepuscht. Auch in Zeiten wo Grafikkarten durch DLSS/FSR und Framegeneration noch länger beim Kunden leben, war die Botschaft des Kunden ganz deutlich "Ich bekomme das eine oder das andere nicht aber FSR wird meine Nvidia-Karte noch retten, damit ich mir dann eine neue Nvidia-Karte kaufen kann".

Intel hat definitiv nicht Kohle für Kunden die nur einen dritten Mitspieler haben wollen, damit ihre Nvidia-Karte dann günstiger wird.

Am Ende des Tages erntet man was man über all die Jahre gesät hat.
 
  • Gefällt mir
Reaktionen: Aquilid, tso, DynamaxX und 5 andere
Die A-Serie war schlicht zu teuer anfänglich.
Die A770 16 GB ist ja aktuell eine solide Option für 300 €, aber eben auch kein "must buy"- bei 250 € würde die Sache eben anders aussehen.
Auch die A750 ist auch eine gute Einstiegskarte, welche aber nicht besser ist als eine RX 6600 und den gleichen Preis besitzt.
 
Crifty schrieb:
selbst wenn AMD mal besser war,
Das AMD im GPU Segment mal wirklich die Nase vorne hatte, ist aber auch schon ziemlich lange her. Ansonsten hatte Nvidia in den letzten Jahren immer die Leistungskrone, das größte Featuresetting und bot die neuste Technik als erstes an. Das fing ja schon mit der Geforce 256 und T&L an.
Das eine Marke eine derartige Marktmacht bekommt, und sie auch derart lange halten kann, liegt an den Produkten.
 
incurable schrieb:
Genau das Richtig, um die 0% Marktanteil nicht zu verlieren!
Naja irgendwo muss man anfangen. International (inkl OEM) wäre viel Spielraum, aber Arc/Alchemist war halt mehr ein "Versuch".
Jetzt mit Battlemage würde es "zählen" und ich hoffe tatsächlich, dass man eine Alternative zu dem vorhandenen Duopol aufmacht.

So schwer mir das zu schreiben fällt, aber ich wünsche Intel hierbei viel Erfolg. Denn nur bei Erfolg wird Celestial auch kommen (als D-GPU).

Zumal die 0% auch selbst geschuldet sind. Da wird nix mehr produziert. Hätte Intel hohe Lagerstände könnte man Werbung schalten, sie bei OEMs verteilen oder den Preis senken. Tut man aber nicht.
Neodar schrieb:
Wenn Intel die dedizierten GPUs nach Battlemage schon wieder fallen lässt, dann: Danke für nichts.
Fällt blöd zusammen mit der aktuellen finanziellen Lage.
Hätte...Fahrradkette.

Hätte Intel Alchemist und BM nicht zu spät released (Alchemist war urpsünglich für 2020 geplant, dann 2 Jahre später BM...) dann würds auch anders aussehen.
Jetzt, wo die Treiber "gut" sind (oder halt auch nur "ok", aber das reicht für die meisten), wär das schon gut, wenn sie Erfolg hätten.
Vor allem eben um einen 3. Player zu haben, gar nicht weil es Intel ist. Wer auch immer der 3. ist.
Hätte Intel schon vor 5 Jahren Erfolg gehabt mit GPGPU Beschleunigung wäre es ähnlich wie jetzt bei Nvidia als "Abfallprodukt" immer noch ok, dass hier was released wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aquilid und DynamaxX
DiePalme schrieb:
Das AMD im GPU Segment mal wirklich die Nase vorne hatte, ist aber auch schon ziemlich lange her.
RX5700 oder die 6000er sind nicht lange her..
 
@Rockstar85
Gute Karten, aber sie waren auch damals keine Spitzenmodelle bzw. keine Leistungskrone.
 
@DiePalme Du hast die Argumentation fast selbst gefunden :)
Und dann verstehst du, was der gute Crifty sagte..
 
Klar verstehe ich was er sagte. Ist ja auch nicht schwer zu verstehen. Meine Aussagen sind nur ergänzend zu seiner. Denn ich sehe es dennoch ein bisschen anders, bzw. die Begründung der Marktmacht von Nvidia liegt bereits recht weit in der Vergangenheit zurück, wenn man die Schnelllebigkeit des Marktes berücksichtigt.
 
Schade das die dGPU Sparte wohl eingestellt wird. Hätte mich in ferner Zukunft um nen zweiten Player im High End bzw einen dritten falls AMD irgendwann mal zurückkehrt.

Für den ersten anlauf was das echt nicht schlecht was Intel abgeliefert hat. Gerade beim RT schien man da fortschritlicher als AMD zu sein.
 
Ich besitze aktuell eine A770 16GB und werde auf jeden Fall eine Battlemage Karte kaufen da ich mit meiner ARC bisher zufrieden war wenn man vom Stromverbrauch im idle mal absieht.

Ein CEO der sein eigenes Produkt das kurz vor Veröffentlichung steht schlecht redet, der gehört gefeuert und darf sich dann auch nicht wundern das potentielle Käufer es sich anders überlegen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aquilid, Yar, tritratrullala und 2 andere
DiePalme schrieb:
Das AMD im GPU Segment mal wirklich die Nase vorne hatte, ist aber auch schon ziemlich lange her. Ansonsten hatte Nvidia in den letzten Jahren immer die Leistungskrone, das größte Featuresetting und bot die neuste Technik als erstes an. Das fing
Die RX 6000er waren meist leistungsfähiger oder ähnlich leistungsfähig im Raster wie die RTX 3000er und deutlich effizienter, mit mehr Speicher und günstiger. Also nein, das ist nicht lange her.
RTX ist sowieso erst seit den grösseren 4000ern überhaupt halbwegs brauchbar, war aber immer eine einwandfreie Ausrede.
 
modena.ch schrieb:
Die RX 6000er waren meist leistungsfähiger oder ähnlich leistungsfähig im Raster als die RTX 3000er und deutlich effizienter und günstiger. Also nein, das ist nicht lange her
Ich weiß nicht welche Benchmarks du gesehen hast, aber selbst auf CB waren die RX 6000 nicht die Leistungsspitze sondern lagen hinter der 3090. Und ich rede hier nicht von RT Benchmarks, da sehen die RX 6000 gar kein Land und schlagen sich eher mit der RTX 2XXX Serie herum.

Und btw. ich hatte mit der 2080TI in Cyberpunk in UWQHD viel Spaß mit RT dank DLSS.
 
  • Gefällt mir
Reaktionen: Aquilid
modena.ch schrieb:
Die RX 6000er waren meist leistungsfähiger oder ähnlich leistungsfähig im Raster wie die RTX 3000er und deutlich effizienter, mit mehr Speicher und günstiger. Also nein, das ist nicht lange her.
was auch den Grund hat, dass Nvidia einfach den billigeren, alten Samsung 10nm Prozess verwendet hat, AMD den 7nm Prozess. Vermutlich hat Nvidia AMD einfach unterschätzt damals und den Fehler später korrigiert.
modena.ch schrieb:
RTX ist sowieso erst seit den grösseren 4000ern überhaupt halbwegs brauchbar, war aber immer eine einwandfreie Ausrede.
Raytracing steckt nach wie vor in den Kinderschuhen. Aktuell ist es erst ab einer 4070 gut einsetzbar, noch höher ist besser.
Aber in ein paar Jahren, wenn das noch mehr Spiele umfangreich(!) verwenden aber auch die Optimierungen besser werden, wird auch eine 4090 nicht mehr ausreichen
 
DiePalme schrieb:
Ich weiß nicht welche Benchmarks du gesehen hast, aber selbst auf CB waren die RX 6000 nicht die Leistungsspitze sondern lagen hinter der 3090.
Die RX6950 eher nicht. Und wie schon gesagt, ist eh Wurst die schlauen kaufen immer NV auch wenn die Radeon 100W spart, kein Thema.
Das ist jetzt bei den RX7000ern, wo die RTX 4000er wieder effizienter sind wieder seeehr wichtig.
 
DiePalme schrieb:
Das fing ja schon mit der Geforce 256 und T&L an.
Sorry aber nein, wer hatte die erste dx11 Karte? AMD, wer hatte die erste lowlevel API im Grafiksegment(Mantle)? AMD, wer hatte die erste Grafikkarte mit vollen DX12 Support? AMD… Es gibt noch andere Beispiele aus der Vergangenheit wo NVIDIA nur zweiter war oder die schlechtere Technik im Vergleich hatte.

Der Kunde entscheidet, also darf er dann auch nicht meckern, wenn er seine Entscheidung bereut.
 
Zurück
Oben