News Intel Battlemage: Arc B580 und Arc B570 für 249 und 219 US-Dollar vorgestellt

So Intel

Nun eine B750 bitte, meinetwegen auch mit 12GB und ihr wärst zumindest in Schlagweite einer 4070... Das zu einem Preis von 399€ und ich wäre happy.
Dann müssen vllt auch NV und AMD die Preise nach unten Korrigieren.

Alles in allem, weniger als ich erhofft habe und mehr als gedacht..

ganz Solide eig.
 
  • Gefällt mir
Reaktionen: coxon, Neubauten, Imbarius und eine weitere Person
DarthFilewalker schrieb:
Die mehr als 2.000 Euro kommen nämlich nicht dadurch zustande, dass die RTX 4090 so besonders und wertvoll ist, sondern weil es in dieser Leistungsklasse keine Konkurrenz gibt und NVidia machen kann, was es möchte.
Aber der zukünftige "hohe" Preis einer 5090 liegt mit an Sicherheit grenzender Wahrscheinlichkeit an den 32 GB (laut nVidia) ... :lol:
 

Anhänge

  • 2 x 16 GB.jpg
    2 x 16 GB.jpg
    344,5 KB · Aufrufe: 130
  • Gefällt mir
Reaktionen: coxon, Rockstar85 und Imbarius
Mrbrill schrieb:
Wichtig wäre noch der Idle Verbrauch. Ist der niedriger geworden?
heise schreibt:
Intel gab auf c’t-Nachfrage an, auch an einem der größten Kritikpunkte der Vorgängergeneration, der Leistungsaufnahme im Leerlauf, gearbeitet zu haben. In vielen Fällen sei man in dieser Hinsicht nun konkurrenzfähig, liege bei bestimmten Kombinationen aus hochauflösendem Display und hoher Bildwiederholrate aber noch zurück.
Also manchmal wohl schon, aber nicht in jedem Fall.
 
  • Gefällt mir
Reaktionen: tso und SweetOhm
Klingt für mich erstmal ganz gut. Bin gespannt auf den Test.
 
  • Gefällt mir
Reaktionen: Convert, 407SW, gbert und 3 andere
@Wolfgang
Finde deine Tabelle prinzipiell sehr (sehr!) schön, auch wenn ich eine Sache nicht verstehe, nämlich warum du den AD104 und nicht den AD106 aufgenommen hast:
GPU
Prozess​
Fläche​
Transistoren​
Intel BMG-G21
TSMC N5​
272 mm²​
19,6 Mrd.​
Intel AMC-G10
TSMC N6​
406 mm²​
21,7 Mrd.​
Nvidia AD107
TSMC 4N​
159 mm²​
18,9 Mrd.​
Nvidia AD104
TSMC 4N​
295 mm²​
35,8 Mrd.​
AMD Navi 33
TSMC N6​
204 mm²​
13,3 Mrd.​
AMD Navi 32
TSMC N5​
238 mm²​
28,1 Mrd.​
Um das mal zu fixen:

GPU
Prozess​
Fläche​
Transistoren​
Intel BMG-G21
TSMC N5​
272 mm²​
19,6 Mrd.​
Intel AMC-G10
TSMC N6​
406 mm²​
21,7 Mrd.​
Nvidia AD107
TSMC 4N​
159 mm²​
18,9 Mrd.​
Nvidia AD106
TSMC 4N​
188 mm²​
22,9 Mrd.​
AMD Navi 33
TSMC N6​
204 mm²​
13,3 Mrd.​
AMD Navi 32
TSMC N5​
238 mm²​
28,1 Mrd.​

Und das sieht bereits jetzt danach aus, als würde Intel ordentlich draufzahlen müssen. 4N soll schließlich auch bloß ein angepasster N5 sein --- und die 4060ti wirkt weiterhin OutOfRange.
 
  • Gefällt mir
Reaktionen: Jan und DF86
12nebur27 schrieb:
Geniales Zitat. Dann solltest du dich ja auch nicht beschweren über die 2500€ für die 5090. Bekommst dann ja mehr ^^
Die 3060 ist langsam und wird nicht mehr produziert. Du machst dich sicher sehr beliebt mit deinem Drang nach dem Nichtproduzieren von neuen einsteiger grakas. Verstehe noch nicht mal inwieweit diese dich tangieren. Die Firmen versuchen immer so viele Segmente abzudecken wie sie können bzw. wie es für ihre Architektur Sinn macht. Das einzige was deine Forderungen zu Folge hätten ist weniger Konsumerfreundlichkeit im PC markt und das aussterben des PCs als Massenmarkt. Letzteres kann auch nicht in deinem Interesse sein.
Die 3060 ist aber noch auf Lager.
Würde Intel HighEnd anbieten, bieten sie auch LowEnd an. Da hätte jeder was von.
 
Bin sehr gespannt auf die ersten Tests :)

Die Karte dürfte sehr interessant für günstigere Komplett PCs, mit denen man auch einfachere oder ältere Sachen zocken möchte, sein. Dafür muss dann aber die reale Performance stimmen.
 
Zuletzt bearbeitet:
Intel schreibt 1440p dran, während die selbst erwählte Konkurrenz (7600 und 4060) reine 1080p-Karten sind und als solche auch beworben werden und sich dort auch, bereits mit DLSS und FSR, durchaus in aktuellen Titel "schwertun" die 60 FPS-Marke zu erreichen...
Die Arc soll das bei "im Schnitt" 10% richten? Klar.

Ich bin mal auf die unabhängigen Tests gespannt. Die letzten Spieletests in Bezug auf das Abschneiden der Vorgänger-Generation lassen mich da eher böses erahnen...
 
  • Gefällt mir
Reaktionen: DF86 und Imbarius
Imbarius schrieb:
Absolut, ist aber ne andere Diskussion. Intel har sich zu lange auf ihren Lorbeeren ausgeruht. Und nun sind sie am Arsch
Imbarius schrieb:
Ein 3. player wäre sehr gut! Aber dann doch im kompletten Leistungsspektrum von High bis LowEnd.
Wie viele Jahrzehnte ist Intel bereits am dedizierten GPU Markt für Gamer und wie viele Generationen haben sie vor dieser hier bereits heraus gebracht?
Tatsächlich finde ich es sehr respektabel, was sie in so kurzer Zeit und mit so wenig praktischer Erfahrung bis hierhin geleistet haben.
Aber vielleicht solltest du dich direkt bei Intel bewerben, wenn du es ja scheinbar besser kannst.
 
  • Gefällt mir
Reaktionen: Flutefox, 12nebur27, SweetOhm und 3 andere
@Ja_Ge Hat Intel nicht einige "führende" Mitarbeiter von AMD abgeworben. Für die GPU-Sparte? Gewisse Ähnlichkeiten in der Architektur sind ja nicht von der Hand zu weisen und das Intel ohnehin ja auch deutlich größer ist, darf man aber halt auch nicht vergessen.
Also von "wenig praktischer Erfahrung" kann man im Zweifel auch nicht mehr reden. Die hat man sich eingekauft. Was natürlich auch notwendig ist, weil die halt in so einen Markt nicht bei 0 anfängst.
 
  • Gefällt mir
Reaktionen: coxon und Ja_Ge
9t3ndo schrieb:
Chip Ausbeute. So wirst du noch die Teildefekten Chips los.

aid0nex schrieb:
Bist du neu im Grafikkarten Markt? Wenn du auf einem Wafer Computerchips produzierst, wirst du immer defekte Chips dabei haben. Ist z.B. die Hälfte der Chips defekt und die andere Hälfte brauchbar, hast du eine sogenannte Yield ("Ausbeute") von 50%. Dabei sind nicht alle Chips komplett unbrauchbar, manche sind nur teildefekt, es fehlt z.B. eine Recheneinheit. Dann standarisierst du ein "kleineres" Produkt, schneidest den kaputten Part per Lasercut ab und et voila, du wirst die Hardware dennoch zu einem günstigeren Preis los. Das machen AMD und Nvidia genauso. So ist z.B. die RTX 4070 eine teildefekte RTX 4070 Ti.

Siehe: https://de.wikipedia.org/wiki/Nvidia-GeForce-40-Serie#Desktop-Modelldaten


siehe Post 35
 
Freu mich auf den Test. Hoffentlich schaffen sie es mit den Treibern, dass die Karte stabil in allen Spielen abliefern kann.
 
  • Gefällt mir
Reaktionen: SweetOhm und M4deman
Was sind mxm Einheiten und warum werden es weniger🤔
 
Bitte Löschen
 
  • Gefällt mir
Reaktionen: SweetOhm
Imbarius schrieb:
Wer Ray/Pathtracing will, wird im Low/Middle-Segment nicht glücklich. Dafür ist diese Technologie zu leistungshungrig.
Ergänzung ()
Naja dank XeLSS,FG und Co geht schon einiges.
Natürlich wäre mehr Leistung noch besser. Wer volles RT/PT will wird aber auch mit einer 4090 nicht glücklich, da werden noch 3-4 Gens ins Land gehen bis wir endlich ausreichend Leistung haben für Spieletitel die von Vornherein auf Raytracing/Pathtracing setzen (schon bei der Entwicklung)
Imbarius schrieb:
Ein 3. player wäre sehr gut! Aber dann doch im kompletten Leistungsspektrum von High bis LowEnd.
Wäre schön, muss aber nicht sein.
Bei AMD war es uns auch immer genug, wenn sie nicht ganz oben mitspielen.

Prinzipiell hätte Intel eine Architektur die offenbar bis oben mitspielen kann. 4090 vielleicht nicht, aber auf 4080 Niveau könnte man kommen - nur hat man aus Kostengründen die oberen Chips gestrichen.
ODER - noch wahrscheinlicher - man hat eben ein Waferübereinkommen mit TSMC und muss jetzt jeden verfügbaren Wafer für Arrow Lake verwenden
 
  • Gefällt mir
Reaktionen: Convert, TigerNationDE und Ja_Ge
kachiri schrieb:
Was natürlich auch notwendig ist, weil die halt in so einen Markt nicht bei 0 anfängst.
Stimmt schon, was vermutlich auch mit dazu geführt hat, dass die erste Generation zumindest nicht ganz unbrauchbar war. Und hier auf den ersten Blick ganz ordentlich abgeliefert wurde, die Test stehen ja noch aus.
Trotzdem, hier als "Vorwurf" zu argumentieren, dass Intel (Stand Heute) kein High-End bedient, halte ich für ungerechtfertigt.
 
  • Gefällt mir
Reaktionen: Flutefox, SweetOhm und coxon
Na da bin ich ja auf erste Tests gespannt. Ich sehs kommen. Der GPU Markt dreht sich. Intel übernimmt die AMD Stellung und AMD dafür den CPU Markt 😹 Unrealistisch, aber ich fände es mega interessant.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ja_Ge
Das hört sich bis hierhin ganz gut an. Wenn jetzt noch gute Treiber rauskommen, wäre das noch besser. GO Intel GO! Wir brauchen ernstzunehmende Konkurrenz.
 
  • Gefällt mir
Reaktionen: nkler
Ok, wo kaufe ich die jetzt meinem kleinen Bruder zu Weihnachten? Sieht wie ne 1a 1440p GPU aus, bei mittlerem Anspruch an Spiele.
 
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben