Test Intel Arc B580 Limited Edition im Test: Intel Kampfmagier vs. Nvidia GeForce RTX & AMD Radeon RX

@jo192 Das Übliche, irgendwelche Praktikanten und andere Ahnungslose haben die Bewertungen durcheinander gebracht.
 
DiePalme schrieb:
Wir reden hier über GPUs nicht CPUs
Joa schon, allerdings zeigt das ganze doch, dass es nichts heißt, ob eine Firma nun bei den einen Bauteilen gute Arbeit abliefert.
Grafikkarten sind für Intel noch relativ neu, von den iGPUs mal abgesehen, trotzdem ist der Verbrauch jetzt vergleichbar mit dem, aus dem Hause Su.
 
DerRico schrieb:
Doch, tun sie, siehe Post 295. Sie verlieren massiv Geld mit jeder Karte und müssen sich halt überlegen, was ihnen der Markteintritt wert ist und wie lange sie das tragen können / wollen.
Solange die Herstellungskosten pro Karte niedriger sind als der Erlös (sprich positiver Deckungsbeitrag) besteht zumindest die theoretische Möglichkeit, dass im Falle guter Verkaufszahlen das Ganze kein völliges Finanzielles Desaster wird.
Wenn die Karten nur in Homöopathischen Dosen verkauft werden versauen halt die Fixkosten (Entwicklung und Treibersupport) die Rechnung.
 
"Der offizielle Marktstart ist erfolgt und Intel ist mit dem Einstiegspreis für die Limited Edition eine Überraschung gelungen: 289 Euro verlangt Notebooksbilliger.de*."

Na sieh einer an. :D Mich hätten wie gesagt (siehe Zitat unten) die 310€ wesentlich mehr überrascht.

@Wolfgang, @Jan: Habt Ihr evtl. mit 1,049 $/€ multipliziert, statt dadurch zu teilen? Dann komme ich nämlich auch auf ~310€. Man muss allerdings durch den Wechselkurs teilen bzw. mit 0,953 €/$ multiplizieren.

MoinWoll schrieb:
"Mit einem Wechselkurs von 1:1 umgerechnet und inklusive 19 Prozent Mehrwertsteuer ergeben sich 296 Euro. Doch ob Intel in Anbetracht des aktuell starken USD wirklich 299 Euro möglich machen wird respektive kann, bleibt abzuwarten."

@Wolfgang: Ich weiß nicht ob es schon geschrieben wurde, aber der $/€-Wechselkurs liegt doch aktuell immer noch bei 1,049 und nicht bei 1,0. Damit komme ich auf $249 / 1,049 $/€ * 1,19 = 282,47€. Klar wird leider häufig etwas aufgerundet für den EU-Markt, aber warum Intel dann 299€ UVP nicht möglich machen kann, ist mir nicht klar. Das wäre dann ja schon fast 6% Steuer- und Wechselkurs-bereinigter UVP-Aufschlag ggü. der US-MSRP. Ich hätte eher mit 289€ gerechnet. Die 4060 wird aktuell sogar mit -3% und die 7600 mit -2% Steuer- und Wechselkurs-bereinigtem UVP-Abschlag ggü. den US-MSRPs angeboten.
 
Zuletzt bearbeitet:
Aduasen schrieb:
Leistung zwischen 7600 und 4060

Da muss der Preis auf deutlich unter 300 € runter sonst passt es nicht.
Wenn man sich die Benchmarks anderer Tester anschaut, liegt die Karte in Schnitt zwischen RTX4060 und 4060 Ti. Und angesichts der mageren Treiberqualität ist da noch viel Luft nach oben hin, im Gegensatz zu Nvidia oder AMD, deren Treiber bereits bei Release die Karten leistungstechnisch sehr gut ausreizen.

Ich finde das hier eine echte Bombe von Intel, wenn man bedenkt wie viele Jahre Entwicklungsrückstand sie ggü. Nvidia und AMD aufzuholen haben...
 
  • Gefällt mir
Reaktionen: Atlan2101, Humbertus und Quidproquo77
Falls ein Besitzer einer ARC 770 LE auf die Idee kommt den neuen Treiber und die GUI zu testen. Gibts ja seit heute Nacht offiziell...
Beispiel: CS 2 -> intel low latency with boost merkt man mit vsync 75HZ sofort, völlig anderes Spielgefühl
Bei den Einstellungen muss man sich erst mal in Ruhe durcharbeiten. Performance ist leicht besser geworden.

2 Nachteile die mich wieder zum 6319 zurück geführt haben:

1. Powermanagement muss noch mal ans Reißbrett. Statt vorher min 3-5 Watt idle, dort 18-20 Watt idle.
2. Kein Overlay dabei oder ich bin zu doof. Mit ALT+O passiert nicht

Aber sonst auf dem richtigen Weg :schluck:
 
  • Gefällt mir
Reaktionen: konkretor und coxon
Wolfgang schrieb:
In den Abschnitten Preis-Leistung......
sieht es dann für B580 viel besser aus durch ein nicht verfügbares Modell. Ok, wir werden sehen müssen wie viele limitierte Modelle es sein werden. Aber ein Limited Modell, also eines was es nur spärlich geben wird, sonst wäre der Name sinnbefreit, noch es überhaupt nicht klar ist, wann und wie viele Modelle kommen werden, hat diese Note, oder auch den Geruch :D von der 500€ RTX 3070. Allerdings gehe ich davon aus, dass Limited mit viel weniger Einheiten glänzen wird.
Schon jetzt an dieser Stelle kann man keine bestellen.

Nachtrag für aufkommende Gefühle :daumen:
Die 7700 XT hat eigentlich auch eine gute Basis mit den 12GB VRAM. Allerdings einfach viel zu teuer für die üble Leistungsaufnahme bei SDR HDR. Ich mein, 12W Leerlauf zu 36W B580, mit HDR 56W und glorreich damit die B580 um 16W überholt.

Man sollte also nicht ein X670E System mit EXPO und ~20W Leerlauf CPU mit 7700 XT kombinieren + HDR
:lol::evillol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: -MK
Alesis schrieb:
sieht es dann für B580 viel besser aus durch ein nicht verfügbares Modell. Ok, wir werden sehen müssen wie viele limitierte Modelle es sein werden.
Das Modell wird ja auch zu Mindfactory geliefert werden, wir haben schon ca 200 Stück.
Und von der Limited Edition gabs auch beim Vorgänger genügend Karten.
Alesis schrieb:
Aber ein Limited Modell, also eines was es nur spärlich geben wird
Nein, nur zeitlich limitiert, wahrscheinlich bis mitte/ende 2025.
Alesis schrieb:
, sonst wäre der Name sinnbefreit, noch es überhaupt nicht klar ist, wann und wie viele Modelle kommen werden, hat diese Note, oder auch den Geruch :D von der 500€ RTX 3070.
Der Launch ist gerade mal 2 Tage her, ich weiß nicht, was du da erwartest.
Alesis schrieb:
Allerdings gehe ich davon aus, dass Limited mit viel weniger Einheiten glänzen wird.
Schon jetzt an dieser Stelle kann man keine bestellen.
Quatsch, da kommen genügend.
 
Quidproquo77 schrieb:
Und von der Limited Edition gabs auch beim Vorgänger genügend Karten.
Weil die keiner kaufen wollte. Habt ihr deswegen dort noch Sparkle A770 für 325€ rumliegen? :D
Quidproquo77 schrieb:
Ist auch nichts anderes als mein wahrscheinlich.
Quidproquo77 schrieb:
Quatsch, da kommen
Warum 2 mal das gleiche schreiben?

Wir werden sehen :stacheln:
 
Verstehe nicht, warum für manchen den im Moment etwas höheren Idle Strom ein K.-o.-Kriterium ist, man sollte sich mal ausrechnen, wenn es 5 Watt mehr ist, wie lange es dauert, bis man die 1KW/h hat. Finde den Gesamtstromverbrauch viel schlimmer im Idle, von 60 Watt mehr oder weniger, oder unter Volllast grad bei Intel oder Nvidia mit bis zu 600Watt bei der 4090.
 
Aisn schrieb:
Es geht nicht um diese Produkte

Aisn schrieb:
Btw: Es soll Menschen geben, bei denen ist bei einem bestimmten Preis einfach das Ende der Fahnenstange erreicht, da hilft kein "für 50,-€ mehr bekommst du viel mehr...". Irgendwann will frau / man / HundKatzeMaus einfach nicht mehr Geld investieren, "nur" um Fortnite oder CS o.ä. spielen zu können...

🤷‍♂️
 
PegasusHunter schrieb:
Ja Absolut ein Rätsel, wie man auf dem Screenshot meiner 770 LE 16GB sieht! unfassbarer Stromverbrauch.! Geht gar nicht! :heilig:
LOL. Ich glaube viel eher der Messung von CB als irgendeinem Tool von Intel. Zudem verbraucht nur die GPU 3Watt und bei einer Graphikkarte gibt es noch viel Mehr drumherum und soweit ich es verstanden habe ist das drumherum das Problem. Man muss immer noch drumfrickeln, damit man einen schlechten und nicht super schlechten Idle Verbrauch bekommt. Quelle
 
Wenn sich der Preis um die 200-220€ einpendeln würde, wäre es eine echt interessante Grafikkarte.
 
frankyboy1967 schrieb:
Es gibt auch die eine, oder den anderen. Durchschnittlich sind es 400W. Eine 7700 XT ist in Raster einer klasse Karte. RT ist weiterhin nicht die Macht, es unbedingt in Games haben zu wollen. Trotzdem ist die nur 14% vorne liegende 4070 immer noch extrem teuer. Deswegen wird 400€ für die 7700 XT aufgerufen.
Weil die 4070 einfach überall die bessere Karte ist und vor allem auch auf eine längere Nutzung.
Am Ende kommt ein System zustande, wie oben beschrieben, dass der PC bei einem HDR Video 136W zieht.
Wenn eine 4090 im gleichen Szenario 48W zieht und die 7700 XT 56, dann sehen wir "aber übermächtige Leistung" gegen "macht die 48W nicht schöner" :)
 
DerRico schrieb:
Doch, tun sie, siehe Post 295. Sie verlieren massiv Geld mit jeder Karte und müssen sich halt überlegen, was ihnen der Markteintritt wert ist und wie lange sie das tragen können / wollen.
schwachsin, sie versenken Geld, ja aber sicher nicht mit jeder Karte die Sie verkaufen, die sind im Plus die Entwiklungskosten versenken sie eventuell aber wenn der Chip 10$ kostet und nur 10$ einbringt verkaufen sie maximal 1:1 würden sie nur 9$ bekommen stellen sie die Produktion umgehend ein und verkaufen lieber keine mehr.
LamaMitHut schrieb:
Ne Radeon RX 6600 gab es jetzt oft genug für unter 200€, erfüllt auch alle Ansprüche in dem Bereich. Und dann komm bitte nicht mit mehr VRAM oder RT.
ja und, die bietet aber nichts wirklich mehr wie meine Rx590 ausser das sie bisschen schneller ist, für volle Details oder RT ist sie eben viel zu schwach und Ihr fehlt Vram. die 590 war schneller und hatte mehr vram wie die 1060-6GB und wird heute kreise um die drehen weil 6GB auf keine Spielbaren fps mehr kommen.
somit doch Vram und RT, FG und was es sonnst noch so gibt ist das was den Kaufanreits ausmacht.
RT und FG braucht leistung und Vram somit minimum 12GB selbst in FHD, FG reicht nicht einmal die Leistung von Ada also wie damals RT nur ein nice to have, mit einer 10GB RT Karte kannst Du heute nicht mehr spielen weil Ihr der Vram fehlt. somit ist eine Einsteiger Karte heute mit 12GB schon knapp bemessen, selbst wenn man auf RT und FG verzichteten kann. Die B580 ist in meinen augen der bessere Deal wie die rx7600xt fürs gleiche geld. die 6750xt ist dann gleich wieder 50€ teurer, es fehlt halt an einsteiger Karten von Nvidia und AMD der aktuellen gen mit 12/16GB die N32 sind gut 100€ zu teuer und hier hoffe ich auf N48 das die eben günstiger wird, da günstiger in der Herstellung.
Das Intel nun eine 12GB Karte unter 300€ bringt ist top und hilft das die Platzhirsche eben auch mal den Vram erhöhen, oder zumindest die Preise senken.
 
  • Gefällt mir
Reaktionen: Catrovacer
Icke-ffm schrieb:
schwachsin, sie versenken Geld, ja aber sicher nicht mit jeder Karte die Sie verkaufen, die sind im Plus die Entwiklungskosten versenken sie eventuell aber wenn der Chip 10$ kostet und nur 10$ einbringt verkaufen sie maximal 1:1 würden sie nur 9$ bekommen stellen sie die Produktion umgehend ein und verkaufen lieber keine mehr.
Ich finde "Schwachsinn" eine harte Ansage als Antwort auf meinen mit Zahlen belegten Post.

Wenn Du richtig argumentieren wolltest, z.B. mit einem positiven Deckungsbeitrag, kann man da gerne drüber reden. Aber "Schwachsinn" ist meine Argumentation sicher nicht.

Die Gegenfrage zu Deinem Post wäre: Wie kann ich denn auf der einen Seite hunderte von Millionen verlieren (belegt) mit einem Produkt, aber nicht jede von den Eigenschaften her vergleichbare Karte macht Verlust? So funktioniert die Betriebswirtschaft nicht, da wird je Produktionseinheit gerechnet.
Etwas Anderes wäre es, wenn die Produkte massiv unterschiedliche Produktions- und Verkaufspreise hätten. So verliert Mercedes z.B. tendenziell eher Geld mit den kleinen Modellen und macht riesige Gewinne mit der vollausgestatteten AMG-S-Klasse.

Man kann das "Versenken der Entwicklungskosten" auch nicht von den Gesamtkosten trennen und dann sagen, es gibt keinen Verlust. Also kann man schon und wird in Konzernen auch immer wieder gerne versucht, um Gewinne / Verluste zu verlagern oder verschleiern. Aber für die Kostenrechnung ist das natürlich irrelevant.

Zu Deinem letzten "Argument": Würden sie den Verkauf einstellen, wenn der DB I negativ ist? Wahrscheinlich, oder zumindest so wenige herstellen, dass es in Summe nicht zu sehr wehtut. Ich vermute daher auch, dass der DB I zumindest gering positiv ist. Wenn sie aber nicht mehrere Millionen von den Dingern im Quartal verkaufen können, werden sie mit der Produktgruppe "diskrete GPU" in der Verlustzone bleiben.
 
  • Gefällt mir
Reaktionen: Icke-ffm
DerRico schrieb:
Ich finde "Schwachsinn" eine harte Ansage als Antwort auf meinen mit Zahlen belegten Post.
Sorry, war nicht persöhnlich gemeint, und Deine Zahlen belegen nur das die Sparte geld verbrand hat, und es sicher auch noch immer tut, nur sind da eben auch Personal und entwiklungskosten für die nachfolgende Gen. mit drin das kostet eben Geld, an der Hardware selbst werden sie vielleicht nicht viel aber sicherlich verdienen.

und ja der DB1 wird sicher Positiv sein, und wird auch mit jeder verkauften einheit weiter steigen selbst wenn nur minimal es ist eben ein Deckungsbeitrag muss sich am ende rechnen
 
  • Gefällt mir
Reaktionen: DerRico
@Icke-ffm

"Insbesondere bei Hardware Canucks werden (auch) Spiele berücksichtigt, die aktuell oder seit langem viel gespielt werden, die wahrscheinlich viel eher von Interessenten gespielt werden, die keine 1k+€ für eine Grafikkarte ausgeben möchten."

Ich habe mich hierauf bezogen.

Später kommt der Stratege dann auch noch mit einem harten Budget, welches bitte nicht überschritten werden darf. Wenn ich mir für ein paar Euro mehr zu geizig bin ein Produkt zu kaufen, dass wahrscheinlich auch noch in 4-5 Jahren alle Mainstream Titel in full HD packt, oder zu ungeduldig die zwei Wochen auf die Einstiegslösung von AMD zu warten...

Muss ja jeder selbst wissen. 😅
 
  • Gefällt mir
Reaktionen: incurable und Icke-ffm
Das ist so eine Karte die man nicht braucht und AMD und Nvidia einfach besser sind.
ABER irgendwie ist sie doch interessant, weil es eben KEINE Karte von AMD oder Nvidia ist.
Die schlimmsten Kinderkrankheiten sind ausgemerzt und der Treiber sowie die Funktionen aufgebohrt.

Wenn ich nicht wüsste wohin mit meinen Kröten, würde ich sie kaufen um damit ein wenig rumzuspielen. :D
 
  • Gefällt mir
Reaktionen: Atlan2101
Glyphus schrieb:
fehlt meiner Meinung nach eine 6700XT/6750XT.
Nein, es fehlen die 7700 XT und 4060 Ti 16 GB als Vergleich zur nächst höheren Preisklasse und grundsätzlich sollte eine 3060 12 GB ebenfalls getestet werden, da gleicher Preis wie die Intel-GPU.
 
  • Gefällt mir
Reaktionen: DerRico, Icke-ffm und incurable
Zurück
Oben