Test Arc B580 12 GB vs. RTX 4060 8 GB: Leistungsunterschiede mit und ohne Unreal-Engine-Spiele

pacifico schrieb:
... CB hat eine Interessante Schwäche bei dieser Karte aufgedeckt.
Welche?

Das man die große Graka in FHD@XeSS nicht auslastet.
Würde dann sofort alle 4090 wegwerfen.

oder
CB macht sich bitte beim nächsten Test mehr Gedanken und schaut mal, was Intel so für sinnvoll hält.
Von Intel gabs glaube nur Folien zu WQHD@XeSS+FG.
Nach Möglichkeit Beides nutzen!

Wie skalieren Grakas mit Upsampler+Framegeneration in WQHD+ ? (z.Bsp. siehe Anhang dort in 4k)
Wo ist der Vergleich bei CB?
Es gibt zwar jetzt erstmal nur F1 24, aber da hätte man auch mal die Konkurrenz mit dazunehmen können.
Und das man im Launchreview da nur 1080p im XeSS-Test genommen hat = ???
Warum macht man nicht die Nagelprobe in 1440p um die Intel-Folien nachzustellen?
 

Anhänge

  • Fps-Scaling mit FG.jpg
    Fps-Scaling mit FG.jpg
    92,9 KB · Aufrufe: 28
Zuletzt bearbeitet:
lynx007 schrieb:
Falls es die Fakeframes sind, muss ich da leider wiedersprechen. Fakeframes sollen erst bei hohen nativen FPS sinn machen. Denn mit Fakeframes erkauft man sich eine höher Latenz und Grafikfehler, die in Abhängigkeit der Gesamt FPS stehen. Und Framedrops bleiben halt dort weiter Spürbar. Zumindest dieses Gemischte Erfahrungsbild wurde halt von HardwareUnboxed immer beschrieben.
Ich denke du solltest dich genauer in die Materie einlesen.....
Ergänzung ()

GerryB schrieb:
Welche?

Das man die große Graka in FHD@XeSS nicht auslastet.
Würde dann sofort alle 4090 wegwerfen.
Nun entspann dich mal wieder.

Ne 250 Euro Karte sollte bei FullHD sinngemäß am Anschlag laufen und nicht mit unterauslastung glänzen

Ggf blestet der Arc Treiber die CPU stärker als der Geforce Treiber.

Btw gewinnen AMD Karten mit Upscaling häufig etwas mehr FPS dazu als ihre Geforce Pendants.
Der Effekt ist nicht Intel Exklusiv.

Zweiter Gedanke zu den CB Benchmarks:

CB hat sich wohl dafür entschieden (so ähnlich wie PCGH) lieber mit Worst Case Szenarien zu Beinchen. Mit anderen Worten, diese beiden Publikationen wollen mit ihren Tests herausbekommen was die GPU nicht_gut_kann, während andere Webseiten mit ihrem Testparcours herausarbeiten was Battlemage gut macht.
 
Zuletzt bearbeitet:
Wer nutzt in FHD denn Upsampler?

nur CB-reviewer
Das ist total an den Haaren herbeigezogen.

praktisch:
Wenn in FHD die Fps nicht reichen, würde ich keine maxed Settings verwenden.
1-2 Regler links:
meist sinds nur vol. Wolken und/oder ultra hyper Shadows, die man nicht unbedingt braucht
wie B580 auf Tesselation bei Hairs reagiert. wäre auch interessant, vllt. da mal ne Stufe runter
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NerdmitHerz und Andy_K
Icke-ffm schrieb:
wenn die Hardware heute Nativ 30fps mit dem Spiel bringt und in 2Jahren dann 40fps Nativ liegt dann an der Hardware, bzw der Software des spiels.
naja, der treiber ist nicht ganz unschuldig an der performance die eine hardware abliefern kann - die hardware an sich "mutiert" ja nicht plötzlich während sie in einer kiste steckt.

aber ich verstehe die grundsätzliche kritik und sehe es teilweise genauso; tests mit nativen auflösungen zeichneten meiner meinung nach ein leistungsbild, welches besser vergleichbar war.
nun kommt zu der unsicherheit was die reife der treiber der jeweiligen hersteller betrifft noch die frage wie gut deren upscaling technologien performen, wie ausgereift diese sind und ob die integration in das jeweilige game gut oder schlecht ist oder oder...
ich erwische mich immer wieder dabei dass nach vergleichswerten/diagramen für tests mit und ohne upscaling suche.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm
btw.
zum Treiber-Paneel

Ein User hat das Dingens aus dem Autostart rausgehauen!
(macht bei Ihm Probleme auf dem Desktop bezgl. runtertakten/Strom sparen)
 

Anhänge

  • B580 Autostart.JPG
    B580 Autostart.JPG
    70,4 KB · Aufrufe: 39
pacifico schrieb:
Ich denke du solltest dich genauer in die Materie einlesen.....
Noch genauer? Wieviel über Fakeframes soll ich denn noch konsumieren? Ne... das überlasse ich anderen, und die haben mir ja schon ein sehr klares Bild darüber gegeben was FG kann und was eben nicht.



Es ist wie der upscaler nen kompromiss. Nur das halt nicht an Bildpunkten gespart wird, sondern auch nochmal Frames verdoppelt werden. Das gab es schonmal im Fernsehen, wen auch anders umgesetz.

Soll nicht heißen das ich es nie einsetzen werde. Aber jedem dem Latenz wichtig ist, der wird das nur selten aktvieren. Und das könnten dann Situationen sein wo hohe FPS, die Latenz aber auch dei Bildfehler in Relation zu den Gesamtframes, nur noch eine utnergeordnete Rolle spielen.

Nochmal in kurz, ich will FG nicht schlecht reden, es gibt sicher Sinnvole einsaztszenarien. Auch für dieses Feature. Aber für jemanden der in Latenz > Bildanzahl >= Bildqualität dauert es noch, bis es einen Sinnvollen einsatzzweck hat. Denkbar wäre es bei einem 480hz Oled Monitor, wo nativ nur 240hz nativ gerendert werden. Aber dem Punkt sollen die Bildfehler angeblich unter der Wahrnehmbarkeits schwelle verschwinden.
 
Zuletzt bearbeitet:
lynx007 schrieb:
Fakeframes sollen erst bei hohen nativen FPS sinn machen. Denn mit Fakeframes erkauft man sich eine höher Latenz und Grafikfehler, die in Abhängigkeit der Gesamt FPS stehen

hohe Fps ist jetzt auslegungssache. 50-60 fps reichen für sauberes FG je nach Auflösung. Es muss aber sauber integriert sein.

ich bin gerade von Spacemarine2 begeistert Was FSR integretaion + FG betrifft.

Und es ist einer der wenigen titel wo es auch super auf dem Steamdeck mit SteamOS funktioniert.
 
@Northstar2710
Das soll Geschmackssache sein. Den man holt sich halt die Artefakte mit an Bord. Sicher auch Softwareabhängig und wie empflindlich man dem gegenüber ist. Aber alles was flimmert, rausch, oder halt bewwegt ohen das es bewegen sollte, das regt mich tierisch auf. Aber das ist subjektiv.

Was nicht subjektiv ist ist, ist halt die tatsache, das bei hohen Frames das mehr und mehr in den "Hintergrund" verschwindet. Zb habe ich nochmals die Lust auf RT verloren, wen ich mitbekomme das man sich damit "rauschen" mit an Bord holt. Sicher auch Titel abhängig. Und eine 200-300 GPU ist ohne hin zu langsam dafür. Auch das scheinen andere anders zu sehen.

Worauf ich raus will, wem das Gefällt soll es kaufen! Denn jeder Kauf bedeutet ja auch Geld in die weiterentwicklung. In neue bessere Karten, aber auch bessere, weiterentwickelte Technologien. Vielleicht kommen wir wirklich mal an den Punkt, wo man wirklich keinen unterschied mehr Spührt. Weder bei der Latenz, aber zimindest in der Bildqualität. Latenz ist wiederum eine frage des Anspruchs. Auch wen ich den unterscheid Spüre, kann mir nur scher Hardware leisten die nativ 100 1% FPS rausdrück.

Aber bei adaptive Sync nutze ich auch. Wen auch nicht bei jedem Titel. Ist glaube ich ein guter vergleich. Da wo man aSync deaktiveirt, kann man auch immer FG deaktiveren. Aber solange Noise, Flimmert, Bildfehler dazugehören, werden ich es immer deaktivert haben. Gerade wen etwas warnehmbar rauscht und flimmert, und da bin ich wohl auch bei Schallquellen extrem Hypersensibel, geht bei mir der Switch auf Zero. :daumen: So technologieoffen wie auch versuche zu sein.
 
aklaa schrieb:
Im Vergleich ist Intel B580 für mich eine Katze im Sack. Werde ich definitiv nicht Intel kaufen.
Ich würde der B580 sogar eine Chance geben. Allerdings nicht zu dem Preis einer RX6750XT. Die Vorbestellpreise für die B580 liegen zwischen 300 und 320 € - und das ist einfach viel zu viel. 250 € darf ein Newcomer kosten, bei dem der Kunde das Risiko trägt, damit baden zu gehen. Vertrauen des Kunden muss man sich erarbeiten bzw. verdienen. Und das geht in diesem Fall nur über den Preis.
 
Quidproquo77 schrieb:
Naja, alles unter der Ultra-Ägide.
Ja, das ist ein Problem bei solchen Tests.
Die Vergleichbarkeit mit teuren Karten ist zwar dann gegeben, aber wenn man max 350€ ausgeben will, dann interessieren einem die Performance der 4080 usw. nicht; genauso wenig ob ich 22FPS oder 26FPS habe. Das ist beides unspielbar.
Aber hey: ca. 20% mehr Performance
 
lynx007 schrieb:
Das soll Geschmackssache sein. Den man holt sich halt die Artefakte mit an Bord. Sicher auch Softwareabhängig und wie empflindlich man dem gegenüber ist. Aber alles was flimmert, rausch, oder halt bewwegt ohen das es bewegen sollte, das regt mich tierisch auf. Aber das ist subjektiv.
Das stimmt natürlich. Ich benutze es tatsächlich sehr häufig. Das liegt aber wohl auch an meinen Augen. Es ist viel angehnemer für mich ein sauber bewegtes Bild zuhaben. Z.b. sind 60fps bei einem aktion spiel für mich doch sehr ruckelig mit Maus, so das ich sehr gerne FG einschalte. Mit Controller ist es nicht so schlimm da man damit automatisch anders spielt. Und natürlich spielt die Bildschirmgrösse eine rolle. Beim steamdeck (kleiner bildschrin und controller) funktionieren auch 30fps ohne Probleme :)

Ich warte noch auf einen guten Monitor mit 240hz
 
Es gibt hier und da Diskussionen darum, welche Herangehensweise für Grafikkartentests die bessere wäre.

Ich persönlich finde es objektiver und fairer, wenn die Performance einer GPU standardmäßig mit nativer Auflösung ermittelt wird. Ganz einfach aus dem Grund, weil nur so wirklich gleiche "Umgebungsbedingungen" für jede einzelne Grafikkarte geschaffen werden. Außerdem ist diese Testmethode immer noch das beste Maß für die "tatsächliche Rohleistung" einer GPU.

Bei den vielen unterschiedlichen Upscalingtechnologien variiert die Performance und die Bildqualität zu sehr bzw. das Ergebnis (FPS) ist zum Schluss weniger aussagekräftig. Und beim Zuschalten von künstlicher Zwischenbildberechnung ist die Aussagekraft dann völlig dahin.
 
Millennial_24K schrieb:
Ich persönlich finde es objektiver und fairer, wenn die Performance einer GPU standardmäßig mit nativer Auflösung ermittelt wird. Ganz einfach aus dem Grund, weil nur so wirklich gleiche "Umgebungsbedingungen" für jede einzelne Grafikkarte geschaffen werden
es gibt aber auch spiele wo du den upscaler nicht deaktivieren kannst. Du kannst zwar auf native Auflösung stellen, Aber der Upscaler Algorithmus wird benutzt.

Von der Spiele Auswahl, begrüsse ich das relativ neue Spiele verwendet werden. Viele suche eine GPU weil ihre bei neuen Games nicht mehr ausreicht. Auch werden bei neuen Games die neussten grafik features einer GPu unterstützt. Da finde ich die wahl der Engine eher nebensächlich.
 
Kleiner Fehler auf der ersten Seite nach diesem Absatz:
Die Grundsatzentscheidung, die dabei getroffen wurde, war einmal mehr: Aktuell sollen die Spiele sein, auf denen aktuelle Grafikkarten getestet werden.

Die folgende Tabelle hat nur 20 Einträge.. :-) (und Benchmark ist falsch geschrieben)
 
lynx007 schrieb:
Nochmal in kurz, ich will FG nicht schlecht reden, es gibt sicher Sinnvole einsaztszenarien.
Deine Beiträge sagen eher das Gegenteil aus.

Erst schön negativ rumquatschen um dann schlussendlich das eigene Genörgel wieder zu relativieren...

Lol das ist nicht überzeugend

BTW Framegen und Upscaling sind super. Dank Reflex wurde das Lazenzproblem bereits zu Anfang gelöst.... Aber du lamentierst lieber über deine fake frames...
 
Nixdorf schrieb:
ComputerBase wird damit vermutlich auch bei anderen Kartentests eher zum Ausreißer, wenn man das breite Bild der Testberichte betrachtet.
Also für diesen Test bewahrheitet sich das schon mal:

Screenshot 2024-12-17 at 16-35-15 Launch-Analyse Intel Arc B580 (Seite 2) 3DCenter.org.png


Die Abweichung gegenüber der gemittelten Raster-Performance für den Vergleich von 4060 zu B580 ist bei ComputerBase mit +10,86% am höchsten. Über die gesamte Tabelle hinweg ist die mittlere Abweichung mit 7,1% gut 40% höher als bei der am zweitstärksten abweichenden Publikation (Tom's Hardware, 5,05%).

Insgesamt treffen die Messungen von TechPowerUp die nachfolgende Launch-Analyse hier subjektiv am besten. Die Abweichungen von Tweakers sind zwar noch etwas geringer, aber TechPowerUp testet mit deutlich mehr Titeln.

Natürlich ist es immer begrüßenswert, wenn Publikationen mit Titeln testen, die nicht auch von zig anderen Testern verwendet werden. Einen gewissen Anspruch, die mittlere Leistung zu treffen, sollte man dennoch haben.
 
Zurück
Oben