Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Intel Arc B580 Limited Edition im Test: Intel Kampfmagier vs. Nvidia GeForce RTX & AMD Radeon RX
OldNewUser
Ensign
- Registriert
- Dez. 2023
- Beiträge
- 171
Wow, eine GPU mit einem guten P/L-Verhältnis? (oder zumindest einem nicht unterirdischen) Ich glaube die Hölle friert zu.
Schön zu sehen. Ich hoffe Intel wird mit Marktanteil belohnt.
Schön zu sehen. Ich hoffe Intel wird mit Marktanteil belohnt.
Ja mal schauen, mit extrem schlechter Marge oder gar negativer Marge wird man nicht viel verkaufen wollen, also wirds ganz schnell ausverkauft sein, auch wenn die Marktanteile im Keller bleiben...NguyenV3 schrieb:Gut so. Wer Marktanteile will, muss halt auf Marge verzichten. Gut für den Kunden.
Ich hab ja noch andere Sachen genannt, 1. Gebrauchtmarkt, dagegen sind die Karten scheiße, kannst dir ne 6800er holen die dann eben deutlich besser ist für den selben Preis, 2. Linux und ich bin selbst 3. bei Windows nicht davon überzeugt das jetzt alle Spiele laufen, die im Benchmark ja, aber es gibt ja zig tausende wie viel % laufen da? mal weniger % als bei der Konkurrenz auch das ist noch ein Argument dagegen.
Aber wie gesagt wenn das dazu beiträgt das die Konkurrenten die Preise leicht senken bin ich froh und dankbar, ich seh da aber noch wenig Licht am Ende des Tunnels und frage mich ob Intel überhaupt was Grafikkarten an geht noch das Tunnelende erreichen wird, oder ob man bei den kommenden Massenentlassungen auch das dann abcalcelt, hoffentlich nicht, aber hier mir weniger um Wünsche sondern um Einschätzung der Realität. (mir wäre es aber auch egal wenn Intel drauf gehen würde, daher kann ich selfish hoffen das sie sich das Gewicht anhängen und weiter stur verfolgen, für deren Wirtschaftliches überleben wäre das einstampfen also zukünftige wahrscheinlich klüger)
Ja da wäre interessant wie voll die Lager sind, ich erwarte vor Weihnachten noch massive Rabatte auf einige AMD Karten 7700 und 7800 vorallem vielleicht auch 7600 (xt) 7900 vieleicht aber die XT vielleicht auch, das kommt halt drauf an wie AMD kalkuliert hat, wenn die Lager nicht eh trotz total schlechten Verkäufen und Marktanteilsverlust schon leer sind weil AMD frühzeitig dieser Gen nicht mehr vertraut hat und schon vor zig Monaten bis hin zu nem Jahr Produktion aufgehört hat, dann kann ich nur sehen das AMD ein interesse hat noch vor Weihnachten was los zu kriegen und wer bisher nicht zu den Preisen gekauft hat vor z.B. 1 Jahr, der wird auch dieses Jahr in der Regel nichts kaufen zu den selben Preisen.NguyenV3 schrieb:Also auch wieder gut für den Kunden. Wäre schön, wenn AMD einen Full 7700 Chip zum Preis einer 7600 verscherbeln müsste.
Vielleicht erwarte ich auch von 8800xt zu viel und es wird ne totale Lachnummer dann wären volle Lager natürlich kein Problem, dann wäre man aber langsam auch komplett am Ende wenn man sowohl bei Leistung nicht bei der Vorgängergeneration auch nur annäherd mit halten kann aber auch bei Preisleistung nicht deutlich vorne liegt.
GOOFY71 schrieb:Was ist hier denn los? Räumungsverkauf? Aber Sonderangebote zählen nicht für den Vergleich!Anhang anzeigen 1555407
a) Ist dasmit einem Gutschein? Das reguläre Sonderangebot sind 289.
b) Lässt sich die Weihnachtsdisco eigentlich deaktivieren?
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
GOOFY71
Lt. Commander
- Registriert
- Juni 2011
- Beiträge
- 1.713
Ja.Svennc schrieb:Lässt sich die Weihnachtsdisco eigentlich deaktivieren?
TigerNationDE
Commander
- Registriert
- März 2010
- Beiträge
- 2.571
Wie erwartet, aber ich wurde dafür ja letzte Woche angeschnauzt xD
Karte und Performance eigentlich echt gut, aber die Treiber ......
Danke für den Bericht/Test, hab mir direkt im Anschluss noch das Roman Video angeschaut und wurde in dem was ich erwartet habe bestätigt. Schaun wir mal wo die Karte im Frühjahr steht.
Karte und Performance eigentlich echt gut, aber die Treiber ......
Danke für den Bericht/Test, hab mir direkt im Anschluss noch das Roman Video angeschaut und wurde in dem was ich erwartet habe bestätigt. Schaun wir mal wo die Karte im Frühjahr steht.
Wenn AMD jetzt schon keine Gewinne macht und es an Grafikkarten liegt, die Margen bei Konsolen sind ja extrem beschissen, da geht es über die Masse, die ja auch enttäuscht, dann zahlt Intel jetzt schon oben drauf.PrefoX schrieb:stimme dir voll zu bis auf, das AMD "easy" Preisnachlässe geben kann. die machen ja jetzt schon verlust mit ihrer GPU Sparte, das ist so traurig... ohne die Konsolen würden die keine mehr herstellen.
Weil ihre Chips teurer sind (größe), seh nicht woran sie die Marge besser haben könnten wie AMD und nicht gar deutlich schlechter?
erazzed
Lt. Commander
- Registriert
- Dez. 2008
- Beiträge
- 1.339
Ich finde es auch merkwürdig, dass mit Cyberpunk und Alan Wake 2 die beiden de facto Referenzspiele für Raytracing aus dem Testparkour geflogen sind. Stattdessen sind insg. 9 (!) Spiele im Testparkour, die Unreal Engine 5.x verwenden. Irgendwie erscheint mir das doch ziemlich unausgewogen...Raidr schrieb:[...]
Warum sind eigentlich so viele unoptimierte Katastrophen im Testparkour und richtig anspruchsvolle Spiele wie Cyberpunk und Alan Wake 2 fehlen komplett?
Grundgütiger
Lieutenant
- Registriert
- Aug. 2017
- Beiträge
- 914
@blackiwid, die Kosten fürs chiplet Design sind unbekannt.
Im übrigen hat der B580 mehr Transistoren als eine 2080Ti.
Im übrigen hat der B580 mehr Transistoren als eine 2080Ti.
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.163
Hallo zusammen,
ich finde das schon lustig, daß beim AMD 9800x3d so am IDLE Verbrauch gemäkelt wurde. Regelrecht ein Faß dafür aufgemacht wurde bei einem Mehrbetrag, den man locker an anderer Stelle einsparen kann bzw. konnte.
Jetzt hier die GPU bzw. Karte zieht auf dem Desktop dann einfach mal Easy 36 Watt. Und komme mir keiner daß man ja "ASPM" aktivieren kann. Abseits von uns Spezialisten hier hat von sowas niemand je was gehört.
Okay, einerlei. Jedenfalls verwunderlich daß dieser, aus meiner Sicht, überbordende Desktop-Verbrauch so mir nichts dir nichts hingenommen wird. Da kann ich wirklich nur Staunen, vor allem in Relation dazu was für ein Faß beim 9800x3d aufgemacht wurde.
So long..
ich finde das schon lustig, daß beim AMD 9800x3d so am IDLE Verbrauch gemäkelt wurde. Regelrecht ein Faß dafür aufgemacht wurde bei einem Mehrbetrag, den man locker an anderer Stelle einsparen kann bzw. konnte.
Jetzt hier die GPU bzw. Karte zieht auf dem Desktop dann einfach mal Easy 36 Watt. Und komme mir keiner daß man ja "ASPM" aktivieren kann. Abseits von uns Spezialisten hier hat von sowas niemand je was gehört.
Okay, einerlei. Jedenfalls verwunderlich daß dieser, aus meiner Sicht, überbordende Desktop-Verbrauch so mir nichts dir nichts hingenommen wird. Da kann ich wirklich nur Staunen, vor allem in Relation dazu was für ein Faß beim 9800x3d aufgemacht wurde.
So long..
Das größere Dies mehr kosten wie kleinere sollte jetzt keine Verschwörungstheorie sein und das damit auch die Fehlerrate steigt sollte auch klar sein.Grundgütiger schrieb:@blackiwid, die Kosten fürs chiplet Design sind unbekannt.
Im übrigen hat der B580 mehr Transistoren als eine 2080Ti.
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.561
Eventuell ist das noch "work in progress" und die ASPM Sache im Bios ist sicherlich interessant (mir auch neu) .Luxmanl525 schrieb:Jetzt hier die GPU bzw. Karte zieht auf dem Desktop dann einfach mal Easy 36 Watt. Und komme mir keiner daß man ja "ASPM" aktivieren kann. Abseits von uns Spezialisten hier hat von sowas niemand je was gehört.
Die Karte ist keine eierlegende Wollmilchsau, aber die wichtigen TechTuber Seiten sind alle ziemlich voll des Lobes (egal ob Hardware Unboxed, Gamers Nexus, und sogar JayzTwoCents) und PCGH ebenso und hatten wohl auch deutlich weniger positives erwartet und nicht so einen großen Leistungssprung bei Intel (teilweise nicht weit von RTX 3070 Level entfernt in einigen Spielen).
Für einige wird der "Idle"-Verbrauch ein "No Go" sein, für andere ziemlich bedeutungslos, denn Prioritäten varieren bekanntlich.
Ja, für mich ist es auch "noch" ein (oder der größte) Makel bei der Arc B580, aber in anderen Bereichen deklassiert die Karte teilweise die Konkurrenz (in Sachen Preis-Leistung), was ich aus Verbrauchersicht ausserordentlich begrüße, auch wenn ich nicht zur Zielgruppe gehöre.
Auch ist das eine Karte bei der OC wieder richtig Spaß einigen (Bastlern/OClern) machen könnte (ohne künstliche Begrenzung); ich warte auch eher auf AMDs UDNA2 (die erste Generation von UDNA wird vermutlich ein Testballon werden) und würde eine mobile Intel Arc Battlemage Karte im Laptop (ohne Idleproblem) sofort in Betracht ziehen.
Schade, dass es dafür noch nicht gereicht hat um das dortige nVidia Quasi-Monopol und die dortrige massive Speicherverknappung ein wenig auszuhebeln, wo AMD seit vielen Jahren ja leider kaum etwas gebacken bekommt mit deren Produkt-/Exklusivmodell-Politik (von mobilen RDNA4 Karten weiss man ja noch leider viel zu wenig bisher, ob und wann es solche geben wird).
Die übliche Misere bahnt sich dort wieder an und über 2000 Euro (im Angebot für ausgewählte "Billig"-Modelle, regulär eher über 2500 Euro) für ein Notebook mit mobiler 12 GB nVidia dGPU sehe ich bisher nicht ein).
Zuletzt bearbeitet:
Clonedrone
Lieutenant
- Registriert
- Apr. 2024
- Beiträge
- 616
Von wegen Abverkauf. Andere Uraltkarten von AMD bekommt man auch noch oder von Nvidia die 3060.DiePalme schrieb:Reiner Abverkauf um die Lager leer zu machen da die 6XXX Serie schön länger EOL ist. Wollte anscheinend niemand, sonst wären die auch bei MF nicht mehr auf Lager gewesen. Denn MF hat ein winziges Lager und legt sich so gut wie nichts an Ware hin.
Für mich als Kunde zählt, was die Karte für die Euros leistet. Da ist die 6750 XT klar der bessere Deal, denn billiger ist die B580 ja auch nicht mal. Schneller ist die AMD-Karte ohnehin.
Hoffen kann man nur auf die B770 zu einem besseren Preis als die 4070. Ich befürchte aber bis dahin gibt es schon von AMD die 8800XT, welche den Leaks nach ja ein deutlicher Fortschritt zur 7800 XT sein wird, insbesondere bei Raytracing.
Intels Denkweise verstehe ich nicht. Jetzt vor Weihnachten hätten sie die dicken Karten wie B770 bringen müssen noch bevor AMD und Nvidia releasen.
Ergänzung ()
Die meistverkauften Karten bei Mindfactory sind 4070 Super und 7800 XT, wenn ich mich nicht irre.Eritsch schrieb:Intel bedient mit der Karte genau das Preissegment, was wahrscheinlich 80% aller Kunden anstreben.
Intel ist weder billiger noch schneller noch sparsamer. Mit 12 GB VRAM kann ich auch nichts anfangen, wenn die Recheneinheiten nicht mal 60 fps bringen. Ein gewisses Leistungsniveau kann man bei Spielen halt einfach nicht unterschreiten Ende 2024, damit es spielbar bleibt.
Und gerade in dieser Low End Leistungsklasse auf 8x PCIE Lanes zu setzen, wo die Karte hauptsächlich für leistungsschwäche ältere Systeme, sehr häufig mit PCIE 3.0, geeignet ist, ist die dümmste Entscheidung überhaupt gewesen.
Zuletzt bearbeitet:
Hm, das die Intel Karte Display Port 2.1 hat, ist es da nicht Zeit mal auf die Eigenschaften und Stolperfallen einzugehen, auch wenn NV den vielleicht nach wie vor ignoriert?
Bin nur drauf gekommen, weil ich mir ein etwas längeres Monitorkabel kaufen wollte und deswegen auf das Thema stieß.
Mir war vorher nur klar, das Kabelqualität eine gewaltige Rolle bei vorgeblichen GPU-Problemen spielen kann:
PS: Auch das mit Pin20, der nicht angeschlossen sein sollte.
Bin nur drauf gekommen, weil ich mir ein etwas längeres Monitorkabel kaufen wollte und deswegen auf das Thema stieß.
Mir war vorher nur klar, das Kabelqualität eine gewaltige Rolle bei vorgeblichen GPU-Problemen spielen kann:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
PS: Auch das mit Pin20, der nicht angeschlossen sein sollte.
SweetOhm
Lt. Commander
- Registriert
- Juli 2023
- Beiträge
- 1.227
Ja, liegt aber halt ausschließlich daran, dass die Hersteller lediglich NV GPUs im Laptop in ihrem Portfolio anbieten ...Sahit schrieb:Ja bringt mir heute aber nichts...... und eins ist fakt aktuell gehts halt bei ca. 2000€ los mit mehr als 8GB VRAM
netzgestaltung
Captain
- Registriert
- Jan. 2020
- Beiträge
- 3.609
na, schaut für mich auch nicht uninteressant aus die karte. vor allem die decoder, die gleich dabei sind.
bin schon gespannt ob/wie davinci/linux damit in ein paar monaten laufen wird, dann könnte die wirklich spannend sein (für unter 300.-)
bin schon gespannt ob/wie davinci/linux damit in ein paar monaten laufen wird, dann könnte die wirklich spannend sein (für unter 300.-)
SweetOhm
Lt. Commander
- Registriert
- Juli 2023
- Beiträge
- 1.227
Yup, echt Schade !erazzed schrieb:Ich finde es auch merkwürdig, dass mit Cyberpunk und Alan Wake 2 die beiden de facto Referenzspiele für Raytracing aus dem Testparkour geflogen sind. Stattdessen sind insg. 9 (!) Spiele im Testparkour, die Unreal Engine 5.x verwenden. Irgendwie erscheint mir das doch ziemlich unausgewogen...
Und Red Dead 2 performt die B580 auch ordentlich ...
Clonedrone schrieb:Mit 12 GB VRAM kann ich auch nichts anfangen, wenn die Recheneinheiten nicht mal 60 fps bringen. Ein gewisses Leistungsniveau kann man bei Spielen halt einfach nicht unterschreiten Ende 2024, damit es spielbar bleibt.
Dr. Jones hätte gerne ein Gespräch mit dir. Und nicht nur der.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Mein Wunschtraum für das Entrylevel dieser Generation war ja bescheiden:
*RTX4060-ti/Niveau. Das ist ungefähr die Mittelklasse von vor zwei Generationen oder knapp drunter (RTX 3070). Früher kein Problem.
*12GB VRAM (mindestens 10 sind in 2025 außer für absolutes Lowend das Minimum. 6GB hatte vor bald zehn Jahren schon ne GTX 1060, 8 für 250 Euro eine RX 480. Und nicht nur immer komplexere Texturen und Co. , hinzukommende Features kosten seither auch Speicher -- ironischerweise auch die, die Entry-Level-Karten helfen können, mehr Performance zu liefern. 8GB für Neu-GPUS in 2025 = garantierte Obsoleszenz. Völlig egal, in welcher Leistungsklasse.
*~130W TDP.
~ 300 Euro
Intel geht langsam in diese Richtung, siehe auch andere Tests als der von Computerbase. Und es ist sehr respektabel, was sie da auf die Beine gestellt haben. Auf Nvidia braucht man gar nicht erst hoffen, dort wird auch eine RTX 5060 wieder mit ihren 8GB von Anno 2016 begeistern -- aber wer weiß, vielleicht packt Nvidia ja eine KI dazu, die jetzt auch VRAM erzeugt. Mal sehen, was AMD mit der RX 8600 nächsten Monat ankündigt.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 75
- Aufrufe
- 8.288
- Antworten
- 60
- Aufrufe
- 5.272
- Antworten
- 9
- Aufrufe
- 747
- Antworten
- 3.747
- Aufrufe
- 346.205
- Antworten
- 356
- Aufrufe
- 114.303