News Arc-B580/B570-Teaser: Intel bestätigt „big graphics news“ für den 3. Dezember

@Brrr Ok, Danke, das war mir neu.
 
Interessant wird, wie gut und konsistent das Speichermanagement bei den B-Karten funktioniert. Die A-Karten haben teilweise hohe Ausreißer, was den Speicherbedarf angeht. Da sind 10 und 12 GB Grafikspeicher auf einmal nicht mehr viel.
 
Gaugaumera schrieb:
4060 = 0.386 FPS/€ (Raster und Raytracing)
7600 = 0.358 FPS/€ (Raster und Raytracing)
7800XT = 0.360 FPS/€ (Raster und Raytracing)
4070 = 0.347 FPS/€ (Raster und Raytracing)
Kommt halt darauf an, ob man in den Preiskategorien Raytracing nutzen möchte.

Ohne RT schneidet AMD P/L Mäßig nochmal deutlich besser ab. Da ist dann eher FSR vs DLSS der Diskussionspunkt.
 
  • Gefällt mir
Reaktionen: DerFahnder, PulsarS, yamaharacer und 4 andere
usernamehere schrieb:
Interessant wird, wie gut und konsistent das Speichermanagement bei den B-Karten funktioniert.
Es ist zumindest von einer neuen "8:N" Kompression die Rede:

https://pics.computerbase.de/1/1/2/6/7/7-82243ed1879cd66c/12-1080.401169d5.jpg

Wenn die neue Kompression gut ist, dann klappt es auch mit den 10 und 12 GB VRAM.

Out of order Sampling läuft auch direkt mit komprimierten Texturen.

https://pics.computerbase.de/1/1/2/6/7/7-82243ed1879cd66c/9-1080.3f2b8462.jpg
 
  • Gefällt mir
Reaktionen: Mcr-King und usernamehere
Inxession schrieb:
Vergesst nicht immer die Konsolen.
AMD hat massiv viele GPUS am Markt...
Nur machen die nur sehr wenig Gewinn …
Inxession schrieb:
In Sachen PC Gaming sind sie eben etwas zurück gefallen weil die RTX Kampagne von nVidia eben voll eingeschlagen hat und RX 7000 nicht so war wie von vielen erhofft.
Die RX 7000 sind einfach vergleichsweise zu ineffizient - die RX 7900 XTX braucht mal kurz fast 100W mehr als eine RTX 4080, sogar mehr als die deutlich stärkere 4090, entsprechend die Abwärme …
Inxession schrieb:
Trotzdem...
Ich würde so weit gehen und sagen das locker >70% aller Gamer nicht mal merken würden.. wenn man "ihre" 4080 durch eine RX 7900 XT(X) ersetzen würde.
Wie kommst du auf 70%?
Selbstverständlich würden die allermeisten das merken, oder läuft DLSS seit neuestem auf AMD Grafikkarten und Raytracing wird nicht mehr zur Diashow?

Die Software und nicht (nur) die Hardware sind der Grund warum die meisten zu Nvidia greifen - habe selbst von einer RX 6900 XT auf eine RTX 3090 gewechselt und das war es trotz ähnlicher Rasterleistung völlig wert.
Inxession schrieb:
AMD Karten laufen wunderbar mittlerweile.
Verbrauchen etwas mehr Strom und hängen in der Nische Raytracing hinterher.
Welche Nische soll das sein? Nahezu jedes aktuell erscheinende Spiel unterstützt Raytracing - nur weil es auf den verhältnismäßig paar wenigen AMD GPUs nicht gut läuft wird es doch nicht zur Nische :rolleyes:
Inxession schrieb:
Im Raster Gesamtpaket aber eigentlich durchaus konkurrenzfähig.
Da ist nVidias Marketing einfach (leider) weit besser aufgestellt.
Es mehr als genug Beispiele aus der Vergangenheit , dass AMD mit guten GPUs ordentlich verkaufen kann. Das hat mit schlechtem Marketing wenig zu tun …
Inxession schrieb:
Viel mehr hat sich der Markt einfach "hin entwickelt"
Nicht wirklich, eigentlich hat sich seit über einen Jahrzehnt nicht wirklich was verändert:
IMG_3463.jpeg

Inxession schrieb:
und die Hersteller nehmen Eben mit was sie können.

Nvidia verdient genug anderweitig und muss keinen Preiskampf eingehen.
Nein, die RTX 4000 Serie verkauft sich blendend und daher müssen sie keinen Preiskampf eingehen - das muss man bei den Produkten, die sich nicht gut verkaufen.
Inxession schrieb:
Nur Intel steht eigentlich unter Druck.
Muss über den Preis kommen...
Nein - das müssen ganz klar Intel und AMD. Beim gleichen Preis greift keiner zur Intel oder AMD GPU.
 
  • Gefällt mir
Reaktionen: floTTes und Mcr-King
Boimler schrieb:
Was soll das für eine Statistik sein, die nur auf FPS/€ basiert?
Welche Statistik wäre denn dann für dich aussagekräftig? Eigene Erfahrungen, wie im zitierten Posting erwähnt?
Boimler schrieb:
Ich kaufe mir ja auch kein Auto nach km/h pro €. Genau die Punkte, die du weglässt, sind die Punkte, die viele Käufer interessieren.
Naja bei den sonstigen Features abseits der V-ram Menge verliert AMD deutlich.
DLSS ist nach wie vor 1-3 Stufen, je nach Spiel besser. Erst wieder in Star Wars Outlaws gesehen, wo DLSS selbst von Full HD ausgehend mit Performance noch besser als Nativ aussieht und FSR hingegen völlig zusammenbricht. In einem Extrem-Vergleich habe ich DLSS mit effektiven 360p getestet und selbst das sah von der Couch noch gut aus und auch das Bild flimmerte nicht. FSR dagegen musste auf 1080p rauf, damit das Ergebnis vergleichbar war.
Boimler schrieb:
Das ist so ziemlich die intransparenteste Statistik, die man zu dem Thema aufstellen kann ;).
Weil? Leistung/FPS ist sehr transparent und da liegen AMD und Nvidia kaum auseinander, was es dann schwierig macht eine AMD GPU zu kaufen, weil deren Upscaling mittlerweile als unbrauchbar zu bezeichnen ist.
Ergänzung ()

ArrakisSand schrieb:
FPS Raster und FPS Raytracing sollte man nie zusammen rechnen.
Ich vielen aktuellen Spielen lässt sich Raytracing nicht mehr deaktivieren. Das schmeckt dir natürlich gar nicht, aber damit muss man mittlerweile einfach umgehen lernen und aufhören diese lächerliche Blockadehaltung gegen RT aufrecht zu erhalten, um sich etwas schönzureden.
ArrakisSand schrieb:
Entweder oder ist die Devise an die man sich halten sollte.
Es gibt noch weit mehr Grafik-Effekte, die auf AMD oder Nvidia Karten unterschiedlich viel FPS kosten, warum konzentrierst du dich dann nur auf RT? Was muss man denn noch alles abschalten, um den fairen Vergleich zu scheuen?
ArrakisSand schrieb:
Du kannst sagen das die Geforce Karten bezogen auf die Raytracing-Performance, wohl ein besseres FPS/€ Verhältnis als die AMD Karten haben.
Man könnte sogar sagen, dass mit DLSS Performance vs. FSR Quality, was etwa die gleiche BQ bietet das Nvidia P/L deutlich vorne liegt.:)
ArrakisSand schrieb:
Nur das dies für >80% der Käufer in diesem Preissegment nicht ausschlaggebend ist.
Was lediglich deiner persönlichen Meinung entspricht und dass diese IHV bezogen ist und nichts mit Neutralität zu tun hat, weiß mittlerweile auch jeder.
Wenn man sich die Marktanteile ansieht, dann scheint dieses doofe RT viele Käufer auf die Nvidia Seite zu spülen, was AMD veranlasst das Thema mit RDNA4 anzugehen.
ArrakisSand schrieb:
Für >80% zählt nun einmal Raster und dann kommt nochmals Raster und dann vielleicht irgendwann am Ende als kleiner Appetithappen zum Dessert, noch ein wenig RT.
Also soll man sich eine aktuelle Grafikkarte kaufen, um dann eines der Hauptfeatures nicht zu nutzen?
Dann wird dir ja die neue Konsolengeneration die Tränen in die Augen treiben, wenn RT gar nicht mehr deaktivierbar ist.
ArrakisSand schrieb:
Daher wenn du Raster etwa 5 Mal mehr gewichtest, wird vielleicht ein Schuh daraus.
Bei einem Neukauf? Das glaubst du wohl selbst nicht.
ArrakisSand schrieb:
Aber es liegt auch ein wenig an den ganzen Hardwareseiten, die langsam durchdrehen und die RT
Sau solange durchs Dorf treiben bis es jeder am Ende glaubt.
Dann haben die "Hardwareseiten" wohl recht.
ArrakisSand schrieb:
Daher das Nvidia ein besseres FPS/€ Verhältnis haben soll.
Der war wirklich gut, aber so kurz vor Weihnachten ist es dir verziehen.
Ja, das ist ähnlich, es gibt kaum Unterschiede, ohne DLSS und FG zu berücksichtigen, welches bei AMD zwar hohe FPS produziert, aber häufig keine sauberen Frametimes, da es eine Treiber bzw. Softwarelösung ist, die nicht auf Hardwareeinheiten berechnet wird.
ArrakisSand schrieb:
So eine Märchenstunde hat ja auch etwas besinnliches und fantasievolles an sich, wo man dabei auch etwas abschalten kann.
Ja, definitiv, dabei bist du der größte Märchenerzähler von allen, der aggressiv einen IHV bevorteilt und dieses lächerliche Narrativ von angeblich so günstigen AMD Karten vertritt, was sachlich nicht korrekt ist, was auch jeder weiß, wenn er fair bleibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch
Quidproquo77 schrieb:
Weil? Leistung/FPS ist sehr transparent
Von Leistung/FPS hat niemand gesprochen. Lies doch erst einmal, worum es ging.
Quidproquo77 schrieb:
Welche Statistik wäre denn dann für dich aussagekräftig? Eigene Erfahrungen, wie im zitierten Posting erwähnt?
Hast du schon einmal eine Grafikkarte nach fps/€ gekauft? Wenn ja, ist die Statistik für dich doch super. Wenn nein (und ich glaube, das trifft auf 99% der Käufer zu), ist sie nicht aussagekräftig. Und mehr habe ich dazu auch nicht gesagt. Mal ganz plakativ gesprochen: Niemand mit einem Kaufbudget <2000€ kauft sich eine 4090, weil die in 1080p mehr fps/€ hat als eine RX [...] von AMD. Was sollen mir diese Zahlen denn dann bitte sagen? Noch dazu, wenn ich nur Rasterizer spiele oder nur Gelegenheitsspieler bin oder in WQHD zocke oder, oder, oder...

Wenn das nur beweisen soll, dass AMD teurer als Nvidia ist, reicht ein Blick in die entsprechenden Tests. Über die Leistung von RDNA3 wurde ja schon genug geschrieben.

Quidproquo77 schrieb:
was es dann schwierig macht eine AMD GPU zu kaufen, weil deren Upscaling mittlerweile als unbrauchbar zu bezeichnen ist.
Weil :heilig:?
 
Als Update auch zu meiner eigenen Frage wie es mit Xe2 in Linux aussieht:
Scheinbar ist die Leistung der Xe2 iGPU in Lunar Lake deutlich besser geworden mit den Änderungen/Treiber in der neuesten Linux Version, zumindest bei GPU Compute/OpenCL:
https://www.phoronix.com/review/intel-xe2-lunarlake-compute.
Beim Linux Support für die Battlemage dGPUs tut sich auch was.
Die Frage ist und bleibt natürlich, ob sich die B580 in aktuellen Spielen und Anwendungen in Windows ungefähr so gut wie (oder besser?) schlägt wie eine kleine Ada Desktop Karte, dh eine 4060. IMHO ist das die Latte, die die B580 schaffen muss, damit sie konkurrenzfähig ist.
 
  • Gefällt mir
Reaktionen: floTTes und Mcr-King
Boimler schrieb:
Von Leistung/FPS hat niemand gesprochen. Lies doch erst einmal, worum es ging.
Gemeint ist da natürlich FPS pro Euro.
Ich kann mir keine neutralere Vergleichsbasis vorstellen, was ist die Alternative?
Boimler schrieb:
Hast du schon einmal eine Grafikkarte nach fps/€ gekauft?
Na klar, früher schon. Heute kommen noch Features hinzu, aber dient als gute Orientierung.
Boimler schrieb:
Wenn nein (und ich glaube, das trifft auf 99% der Käufer zu), ist sie nicht aussagekräftig.
Und warum soll das so sein? Lieferst du dazu eine schlüssige Begründung? Nö. Was soll das?
Boimler schrieb:
Mal ganz plakativ gesprochen: Niemand mit einem Kaufbudget <2000€ kauft sich eine 4090, ....
Wie soll er mit weniger als 2000 auch eine 4090 bezahlen? Das schließt sich schonmal aus.
Boimler schrieb:
weil die in 1080p mehr fps/€ hat als eine RX [...] von AMD.
Die hat ja auch nicht mehr FPS/Euro. Die Karte hatte immer das schlechteste FPS/Euro Verhältnis, war aber mit Abstand am schnellsten und bei RT wars sogar ganz ok. Hat ja auch mal nur ~1500 gekostet.
Boimler schrieb:
Was sollen mir diese Zahlen denn dann bitte sagen?
Dass die Karte in Full HD ein schlechtes FPS/Euro Verhältnis hat, was auch so ist.
Ich verstehe dein Argument nicht.
Boimler schrieb:
Noch dazu, wenn ich nur Rasterizer spiele oder nur Gelegenheitsspieler bin oder in WQHD zocke oder, oder, oder...
Was brauchst du dann eine 4090? Dann kommen ganz andere Karten in Frage, wo der FPS/Euro Vergleich von Nutzen ist. Und dass jemand inkl. die nur "Rasterizer" spielt halte ich für weit hergeholt. Wie deaktiviert du das denn in Star Wars Outlaws oder Avatar?
Boimler schrieb:
Wenn das nur beweisen soll, dass AMD teurer als Nvidia ist, reicht ein Blick in die entsprechenden Tests.
?! Sinn?! Niemand hat behauptet AMD sei teurer, nur nimmt sich das jetzt sehr wenig.
Boimler schrieb:
Steht doch im restlichen Beitrag weiter oben.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Convert schrieb:
Für die 10 GB für die B570 gibt es einen weiteren leak:

https://x.com/josefk972/status/1862883604088476014

Takt liegt 200 Mhz unter der B580, dafür kommt die Karte mit nur einem 8-Pin-Stecker aus.
Einer der beiden geleakten B580 reicht ein 8-Pin-Stecker. Sollte Intel die Anforderungen in Bezug auf rBar lockern, wäre auch eine halbe B580 ohne Stecker als B380 eine mögliche Aufrüstkarte. A310 und A380 brachten eine frische Brise in den steckerlosen Markt.
 
Ich bin verwirrt beim Namensschema. Ist das nun die stärkste Grafikkarte der "neuen" Generation?
 
Nichts Genaues weiß man nicht. Intel steigt vorerst gegen die volumenstarke Mittelklasse in den Ring.
 
IBMlover schrieb:
Ich bin verwirrt beim Namensschema. Ist das nun die stärkste Grafikkarte der "neuen" Generation?
Es ist erstmal der "i5" ... ob ein "i7" d.h. A7xx Nachfolger (B7xx) kommt, ist noch unklar.
 
  • Gefällt mir
Reaktionen: IBMlover
@MalWiederIch

DLSS und Konsorten interessiert wie RT, die Masse der Spieler absolut null.

Das ist nur bei Enthusiasten ein Thema.
Das sind dann die 30%...

Ich bleibe dabei.
Rein vom "Feeling" beim spielen merkst du keinen Unterschied ob AMD oder Nvidia GPU der gleichen Leistungsklasse.

Und ob AMD mit den Konsolen APUs Geld verdient ist für den GPU Marketshare vollkommen irrelevant.

Finde die Entwicklung eh bedenklich.
Spiele kommen halbgar auf den Markt.
Laufen dann stellenweise nur noch flüssig weil die GPU Hersteller am Nativen Bild rum pfuschen (DLSS/FSR/etc).

Vergleichen ist dann eh mühselig weil jeder Hersteller sein eigenes Brötchen backt.
 
Inxession schrieb:
@MalWiederIch

DLSS und Konsorten interessiert wie RT, die Masse der Spieler absolut null.

Das ist nur bei Enthusiasten ein Thema.
Der war gut :p

Die Masse der Spieler ist heutzutage angewiesen auf DLSS/FSR und interessiert sich dementsprechend sehr wohl dafür - oder wann hast du hier auf CB das letzte Mal einen Test ohne DLSS/FSR gesehen?

CB schreibt dazu ganz passend:
Upsampling ist in modernen Spielen nicht mehr wegzudenken und wird das klassische Rendern in „nativer“ Auflösung bald vollständig ablösen.

Und wie CB schon ausführlich ausgearbeitet hat sind DLSS/FSR weder im Ansatz gleichauf was die Bildqualität angeht, noch wird FSR in jedem Spiel überhaupt unterstützt - bspw. BF2042. In dem Fall ist eine nicht DLSS fähige GPU ein großer Nachteil.

Inxession schrieb:
Ich bleibe dabei.
Rein vom "Feeling" beim spielen merkst du keinen Unterschied ob AMD oder Nvidia GPU der gleichen Leistungsklasse.
Gilt eben nur ohne DLSS/FSR - und das ist heutzutage eben naiv …
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Luccabrasi schrieb:
Mal im Ernst, haben sich alle damals über den Idle der Graka aufgeregt aber zu Hause muss es ein 65 Zoll TV sein, wenn ich mir über den Idle einer Graka im unteren Segment schon Gedanken machen muss, läuft irgendwas falsch, oder?
Hab keinen 65" TV.
Ist ja egal welches Segment, aber eine GFK mit 50W im idle ist einfach nicht mehr zeitgemäß. Und heute laufen Rechner gerne mal 18h am Tag, da macht das im Geldbeutel schon nen Unetrschied zu einer Karte die nur 2W zieht.
https://www.techpowerup.com/review/sapphire-radeon-rx-6500-xt-pulse/35.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Boimler
Ja, die ARC 770 hat eigentlich ordentlich Power, die man auch in einigen Spielen und Benchmarks sieht, die Treiber sind immernoch mies im Vergleich zu AMD und Nvidia. Meine läuft mit einem Ryzen 5950X zusammen und da ist sie eigentlich ganz OK am arbeiten. Ich hoffe Battlemage bringt auch noch viel bessere Treiber mit sich, dann profitiert auch die A770 von ...^^
 
  • Gefällt mir
Reaktionen: floTTes
Wenn hier jemand bessere (tiefere) Einsichten in der Treiberentwicklung hat, würde mich interessieren, inwieweit jetzt Battlemage dGPUs von den Treibern für die Battlemage iGPUs in Lunar Lake SoCs profitieren kann (oder nicht). Zumindest in Tests hier und auch bei einigen anderen Seiten haben die Xe2 iGPUs von Lunar Lake Laptops ziemlich gut abgeschnitten, und eben nicht nur in Benchmarks.
 
  • Gefällt mir
Reaktionen: icetom und floTTes
Meine Prognose: das einzige was diese neue ARC grafikkarten bewirken wird sein, dass die leute noch mehr (was eigentlich eh schon fast nicht mehr geht) zu AMD und NV greifen werden. Sinkt der Marktanteil von 0,25% auf 0,15% oder so LOL
 
Artikel-Update: Intel hat den Termin für die Vorstellung der 2. Generation Intel-Arc-Grafikkarten, die jetzt auch offiziell als „B-Serie“ erscheint, inzwischen konkretisiert und den Link für den öffentlichen Livestream geteilt: Die Vorstellung findet am Dienstag, den 3. Dezember um 15 Uhr deutscher Zeit auf dem Intel-Gaming-Kanal auf YouTube statt.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: eastcoast_pete, Quidproquo77, PietVanOwl und 4 andere
Zurück
Oben