Test Arc B580 12 GB vs. RTX 4060 8 GB: Leistungsunterschiede mit und ohne Unreal-Engine-Spiele

Randnotiz schrieb:
Arch ist schon auf 6.12 oder? Ich bin mit Tumbleweed noch auf 6.11.8 unterwegs, was vielleicht auch dafür spricht, dass ich mich noch etwas in Geduld übe, da die Linux-Treiber noch mit der heißen Nadel gestrickt zu sein scheinen :D
Korrekt !
6.12.4 habe Ich derzeit drauf, schaue mal im Laufe des Tages was nachkommt, habe glaube vor 3-4 Tagen das letzte mal Updates eingeschoben !

Laut Phoronix sollen die Treiber diesmal aber schon viel runder laufen, nur leider ist da nicht viel mit OC / Lüfterkurvenanpassung zurzeit.
Das muss man wissen, damit man das Ding nicht gleich nach 5 Minuten an die Wand knallt 🙃
 
  • Gefällt mir
Reaktionen: Randnotiz
Wolfgang schrieb:
Wo soll Intel das eigentlich gesagt haben? Mir gegenüber hat das Intel nie erwähnt, das haben sie bei Alchemist auch schon nicht. Ich habe davon auch nichts in dem Testing-Guide gefunden. Und gehört habe ich sowas bei Grafikkarten bis jetzt auch noch nicht. Für mich klingt das eher nach einer simplen "Lösung", wenn man Probleme hat und nicht weiß woran es liegt.
Hallo Wolfgang,

ich zweifele die Objektivität eurer Messergebnisse nicht an, aber schau dir einfach einmal das Video zur B580 von Roman an.
Probleme mit der B580 hatte in meinem System nicht, aber keine Auslastung bis zum angebenen PL in FHD und auch WQHD, außer in synthetischen Benchmarks.
Von der Hand zu weisen sind die unterschiedlichen Einordnungen im abschließenden Ranking aber nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andy_K und Three of Nine
@Michael-Menten Komisch, ich habe hier kein Problem. Einfach das Video nochmal neu starten?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Three of Nine
Gaugaumera schrieb:
Also laut Video wird der PCI Slot nicht mit gemessen. Es fehlen also immer ca. 40-50W
Lt. JazyTwoCents zieht die B580 gar keinen Strom aus dem PCIe Slot, das hatte er bei seinen Messungen festgestellt.

Also brauchst du auch keine 40-50W dazurechnen, die es gar nicht gibt.
 
  • Gefällt mir
Reaktionen: Schmuppes
Wolfgang schrieb:
Ich habe die entsprechenden Spiele mit den Ergebnissen der PCGH verglichen und die Ergebnisse sind teils bis aufs Prozent gleich. Natürlich gibt es auch mal Schwankungen von bis zu rund 10 Prozent, doch das gilt in beide Richtungen.
Dann verstehe ich das Problem nicht. Ich hatte auch mit ein paar Seiten verglichen und 10% Abweichung waren in seltenen Fällen das Höchste der Gefühle.
Hier wird im Thread ein Skandal kreiert, der keiner ist.

Irgendwo ist in diesem Land auch der Respekt in den Tests (eigentlich vor den Testern) völlig abgegangen. Sieht man ja auch, wie Community-Tester teilweise angemacht werden.
Ein Produkt kann man Scheiße finden, den Tester nicht.
Undank ist der Welten Lohn.
 
  • Gefällt mir
Reaktionen: Quidproquo77, LamaMitHut, Jan und 5 andere
lynx007 schrieb:
Bin ich Blind oder haben dei im Test wikrlich die 1440p weggelasen? Das soll doch die Kerndisziplin von Battlemage sein.
Es wurde zwar schon beantwortet, aber das ist NICHT der Hauptartikel! Das sollte ersichtlich sein, wenn man den Artikel liest.

@polyphase
Also das ist jetzt interessant. Jayz hat CB2077 bei 1440p gemessen. TechPowerUp misst dasselbe Spiel in UHD und dort bekommen sie 182/185 W, mit RT etwas weniger.
Man hat das Gefühl, dass die GPU in niedrigeren Auflösungen mehr können sollte, aber nicht dazu kommt. Man stelle sich das vor.
 
Clonedrone schrieb:
Hier wird im Thread ein Skandal kreiert, der keiner ist.
Das ist natürlich richtig, das ist nicht weiter tragisch. Der Unmut hier in der Community rührt aus der unterschiedlichen Einordnung im Ranking im Vergleich zu anderen Tests.
 
GOOFY71 schrieb:
Hallo Wolfgang,

ich zweifele die Objektivität eurer Messergebnisse nicht an, aber schau dir einfach einmal das Video zur B580 von Roman an.
Probleme mit der B580 hatte in meinem System nicht, aber keine Auslastung bis zum angebenen PL in FHD und auch WQHD, außer in synthetischen Benchmarks.
Von der Hand zu weisen sind die unterschiedlichen Einordnungen im abschließenden Ranking aber nicht.
Es ist sowohl bei Alchemist als auch Battlemage völlig normal, dass man in niedrigen Auflösungen nicht Intels maximale TDP erreicht. Es ist eine Mischung aus Konfiguration der Karte und Architektur, dass die GPU in niedrigen Auflösung nicht völlig ausgelastet wird und dann weniger Energie benötigt. Das ist zum Beispiel auch bei Nvidias Ada Lovelace, allen voran der RTX 4090 so. Das ist aber kein Fehler. Darüber hinaus sieht man diesen Effekt auch bei quasi allen Messungen der Leistungsaufnahme von verschiedenen Testern.
polyphase schrieb:
Lt. JazyTwoCents zieht die B580 gar keinen Strom aus dem PCIe Slot, das hatte er bei seinen Messungen festgestellt.

Also brauchst du auch keine 40-50W dazurechnen, die es gar nicht gibt.
Doch, muss man. Ich weiß zwar nicht, ob die B580 keine Energie vom PCIe-Slot zieht (kann ich am Montag mal in den Logs nachschauen), aber das ist dafür auch egal. Intels eigene Telemetrie zeigt dir nie die Leistungsaufnahme der gesamten Grafikkarte an, dass kann sie gar nicht. Es ist immer nur die der GPU (und eventuell Speicher), die Grafikkarte braucht immer mehr Energie als das, was dir die Telemetrie mitteilt. Das war zum Beispiel bei AMD Radeon vor RDNA 3 auch noch so.
 
  • Gefällt mir
Reaktionen: Demon_666 und Jan
polyphase schrieb:
Lt. JazyTwoCents zieht die B580 gar keinen Strom aus dem PCIe Slot,
Und lt. einer gemeinsammen Erklärung von JazTwoCents, Linus Tech Tips und Intel wird mit der Karte für den Weltfrieden gekämpft.
 
yamaharacer schrieb:
Kann mir mal jemand erklären ob die Leistungsaufnahmen in diesem Video realistisch sind?

Ich dachte die B580 performt bei 190W.
In Games scheint sie aber sogar manchmal besser als die 4060 ist das wahr?

Das sind GPU only Werte und ja die wären realistisch. Die Board Power liegt natürlich deutlich höher, auch wenn diese in games oft weit unterhalb der 190W liegen. Typisch sind eher 160-170W.
 
Wolfgang schrieb:
Es ist sowohl bei Alchemist als auch Battlemage völlig normal, dass man in niedrigen Auflösungen nicht Intels maximale TDP erreicht.
Ich kenne das Verhalten einer 4090 nicht, da ich diese noch nicht im Rechner hatte. Das alles erklärt aber noch nicht, dass ich die B580 nur in synthetischen Bechmarks auf ihr max. PL bekommen habe und in Games nicht. Dieses Verhalten ist mir fremd und ich habe das bisher auch noch bei keiner aktuellen AMD und Nvidia Grafikkarte gehabt. In meinen angestrebten Grafikeinstellungen mit mind. 60fps mit hohen Details/ Settings lag ich immer mit allen Karten an an der Grenze und bei 99% Last.
Das habe ich mit der B580 nur in, wie bereits erwähnt, synthetischen Benchmarks hinbekommen.
Hinzufügen möchte ich noch, dass ich für niedrige Auflösungen nicht mehr die ideale Plattform habe, ändert aber nichts an der Tatsache.
Das wird sich im Frühjahr bei mir aber ändern.
 
Wolfgang schrieb:
Doch, muss man. Ich weiß zwar nicht, ob die B580 keine Energie vom PCIe-Slot zieht (kann ich am Montag mal in den Logs nachschauen), aber das ist dafür auch egal. Intels eigene Telemetrie zeigt dir nie die Leistungsaufnahme der gesamten Grafikkarte an, dass kann sie gar nicht. Es ist immer nur die der GPU (und eventuell Speicher), die Grafikkarte braucht immer mehr Energie als das, was dir die Telemetrie mitteilt. Das war zum Beispiel bei AMD Radeon vor RDNA 3 auch noch so.
Jazytwocents hat meines Wissens nicht per Software gemessen, sondern per Hardware.

Somit sollten die Werte eigentlich stimmen, vorausgesetzt die Messgeräte wurde richtig bedient.

Wie der Testaufbau jetzt genau aussieht, zeigt er in seinem Video nicht. Ich gehe aber davon aus das ein entsprechendes Riserboard zwischen Karte und Slot verwendet worden ist.
 
Chismon schrieb:
Ich denke ein anderer Test-Ansatz/-Parcours (vorrangig mit den zuvor benannten Live Service/eSports Spielen) wie bei Laptop-Einsteiger-Grafikkarten und starken APUs/iGPUs würde für untere Mittelklasse-Desktopkarten auch mehr Sinn machen.
Sehe ich auch so.
Wenn ich z.B. die Wukong-Werte anschaue: da liegen alle Karten unter 30FPS.
Upscaling alleine scheint auch nicht zu helfen. Man sollte da auch noch Presets wählen wie (Mid-Details).
Niemand kauft eine Einsteiger-Karte und stellt die Details so ein, damit man immer unter 30FPS ist.
Ergänzung ()

Chismon schrieb:
Für mich bleibt der PCGH Test vorbildlich/führend und die waren schon zu Arc Alchemist Zeiten diejenigen mit den besten/glaubwürdigsten Intel GPU Tests im deutschsprachigen Raum
Woran machst das aus? Weil Intel dort besser abschneidet?
Laut PCGH liefert B580 34FPS im Durchschnitt mit RT. Keine Ahnung wer mit solchen FPS was anfangen kann.

CB schreibt im Fazit: Fraglich ist aber ohnehin, in wie weit Raytracing mit der B580 in aktuellen Spielen praxisrelevant ist.
PCGH Fazit: sowie eine Raytracing-Leistung, die tatsächliche Nutzbarkeit gewährleistet

34FPS - im Durchschnitt, das bedeutet auch Ausreißer nach unten. Natürlich kann man RT nutzen, geht auch mit meiner 6700XT. Aber wie sinnvoll ist das?
Ich finde CBs Fazit, was RT angeht, deutlich besser, da realistischer
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Matthauser, Chismon und Jan
GOOFY71 schrieb:
Ich kenne das Verhalten einer 4090 nicht, da ich diese noch nicht im Rechner hatte. Das alles erklärt aber noch nicht, dass ich die B580 nur in synthetischen Bechmarks auf ihr max. PL bekommen habe und in Games nicht.
Intel hat für die meisten synthetischen Benchmarks ihren Shader-Compiler entsprechend massiv "optimiert", damit Alchemist und nun auch Battlemage entsprechend gut dastehen.

Das war im Übrigen zum Start von Alchemist auch ein sehr großes Thema und beschrieb das Grundproblem von Alchemist und aktuell auch bedingt noch Battlemage: Durch die Vec8-Einheiten und der durch diese hohen benötigten Anzahl an Threads.

Intel hat zugeben, dass sie entsprechend in ihrem Compiler Optimierungen für 3dMark und co drin haben. Intel hat sich gerade mit Alchemist ein massives "Treibermonster" an den Halsgebunden. Mit Battlemage hat sich das "gebessert".

Nvidia setzt seit Tesla auf Warp32, AMD hat erst auf Wave64 gesetzt, mit vier Vec16 - ähnliches Problem wie Alchemist mit "vielen" Threads. Hat aber auf Wave32 umgebaut.

Die Spieleentwickler und Co optimieren weitgehend auf Warp32/Wave32, auch wenn sie theoretisch in DX12/Vulkan auch anders könnten. Nur würde man damit wieder den Optimierungen von Nvidia und AMD "entgegen" stehen.
 
GOOFY71 schrieb:
Ich kenne das Verhalten einer 4090 nicht, da ich diese noch nicht im Rechner hatte. Das alles erklärt aber noch nicht, dass ich die B580 nur in synthetischen Bechmarks auf ihr max. PL bekommen habe und in Games nicht. Dieses Verhalten ist mir fremd und ich habe das bisher auch noch bei keiner aktuellen AMD und Nvidia Grafikkarte gehabt. In meinen angestrebten Grafikeinstellungen mit mind. 60fps mit hohen Details/ Settings lag ich immer mit allen Karten an an der Grenze und bei 99% Last.
Das habe ich mit der B580 nur in, wie bereits erwähnt, synthetischen Benchmarks hinbekommen.
Hinzufügen möchte ich noch, dass ich für niedrige Auflösungen nicht mehr die ideale Plattform habe, ändert aber nichts an der Tatsache.
Das wird sich im Frühjahr bei mir aber ändern.
Die B580 kommt auch in Spielen auf diesen maximalen Wert, die 190 Watt haben wir ja auch in Metro Exodus in Ultra HD gemessen. Abseits einiger Spezialfälle und für die Karte viel zu hohen Auflösungen wird es mit der B580 aber schwer werden, an eben jene maximale 190 Watt zu gelingen.
polyphase schrieb:
Jazytwocents hat meines Wissens nicht per Software gemessen, sondern per Hardware.

Somit sollten die Werte eigentlich stimmen, vorausgesetzt die Messgeräte wurde richtig bedient.

Wie der Testaufbau jetzt genau aussieht, zeigt er in seinem Video nicht. Ich gehe aber davon aus das ein entsprechendes Riserboard zwischen Karte und Slot verwendet worden ist.
Mein Post bezog sich auch gar nicht groß auf Jazytwocents (außer bei der Sache, ob die B580 Energie durch den PCIe-Slot aufnimmt), sondern darauf, dass die Telemetrie der Grafikkarte, also das, was dir im Treibermneü angezeigt wird und das, was du in Overlays sehen kannst, einzig die GPU-Power ist und nicht die Leistungsaufnahme der gesamten Grafikkarte.

In dem verlinkten Video wurde die Telemetrie der RTX 4060 und der B580 miteinander verglichen. Und dort ist die angezeigte Leistungsaufnahme dann eben nicht miteinander vergleichbar.
 
GOOFY71 schrieb:
Das alles erklärt aber noch nicht, dass ich die B580 nur in synthetischen Bechmarks auf ihr max. PL bekommen habe und in Games nicht. Dieses Verhalten ist mir fremd und ich habe das bisher auch noch bei keiner aktuellen AMD und Nvidia Grafikkarte gehabt.
Böse Zungen würden behaupten, dass Intel in dieser Hinsicht einfach 10 Jahre hinterher ist.
Die Parallelen mit beispielsweise GCN1 bis GCN3 sind doch eklatant:
Auslastungsproblem in niedrigen Auflösungen
Hoch angesetztes Powerlimit, das nur selten erreicht wird
Realer Takt vom maximalen Takt begrenzt, nicht vom Powerlimit
Große Taktsprünge, wenn das Powerlimit erreicht wird (2850MHz direkt auf 2700 runter laut Artikel)

Intel setzt das Powerlimit einfach passend für den Bestcase (sehr gute Auslastung) an, um keine Leistung zu verschenken. In den meisten Fällen wird dieser Bestcase aufgrund von Auslastungsproblemen einfach nicht erreicht.
 
  • Gefällt mir
Reaktionen: Brrr und GOOFY71
Man könnte an das Thema auch anders herangehen.

Man kauft die Intel Karte und zockt Games, die älter als zwei Jahre sind.

Hat den Vorteil, dass die Games laufen und die Games günstig zu bekommen sind.

Man lebt quasi zwei Jahre aus technischer Sicht in der Vergangenheit und muss jedesmal wenn man "neue" Hardware kauft nicht die teuerste nehmen.

Einfach mal dumm gesponnen.
 
  • Gefällt mir
Reaktionen: Brrr
DrFreaK666 schrieb:
Laut PCGH liefert B580 34FPS im Durchschnitt mit RT.
Da gebe ich Dir Recht, aber ich denke das ist heutzutage Standard und man kommt nicht mehr drumherum RT-RT zu testen (es ist fast schon medialer Gruppenzwang, wenn man noch wahr genommen werden will), auch wenn es in der Leistungsklasse begrenzt sinnvoll ist (beim einhergehenden Leistungshunger), da hat das Marketing ganze Arbeit geleistet.

Es ist also mehr theoretischer Natur, wobei ich (als Retrogamer) auch noch mit 30fps gelegentlich spiele, muss ich zugeben, nur habe ich dann auch nicht die Möglichkeit RT-RT abzustellen für mehr fps (und würde das bei einer Arc B580 oder ähnlich leistungsstarker Karte natürlich vorziehen anstatt auf im Spielfluß kaum spürbare RT-RT Implementierung zu setzen).

Grafik (insbesondere auf RT-RT bezogen) ist lange nicht alles und beizeiten überbewertet, Spielbarkeit (Rasterizerleistung) ist da m.M.n. deutlich wichtiger und immer noch die Grundlage.
 
Zuletzt bearbeitet:
yamaharacer schrieb:
Man könnte an das Thema auch anders herangehen.

Man kauft die Intel Karte und zockt Games, die älter als zwei Jahre sind.
Das muss ich aber gar nicht. Ich nutze einfach meine 2 Jahre alte RX6700XT weiter, die sogar noch schneller ist und mich schon vor 2 Jahren kaum mehr gekostet hat.
Warum redet man hier auf Tod und Teufel dieses schwache Intel Produkt schön?
Das ist so lächerlich.
 
  • Gefällt mir
Reaktionen: dohderbert
Zurück
Oben