News Radeon RX 6500 XT: Sapphire bringt AMDs Einsteiger-GPU mit 8 GB VRAM

ghecko schrieb:
Aber ein fehlender AV1 Decoder fällt jetzt schon bei jedem User der Youtube verwendet oder allgemein Streaming nutzt negativ auf
Sorry, ist mir bisher noch nicht aufgefallen
 
McFritte schrieb:
Was schluckt denn so ein aktuelles System mit Grafikkarte mit AV1 Decoder, also bei AMD ab 6600 aufwärts?
Etwas mehr als Idle. Ein deutlicher Unterschied zu 80% CPU-Last.
Und selbst diese 10% bei 1080p fallen im Stromverbrauch auf, insbesondere bei Mobilgeräten. Heute verbringt man ja teilweise Stunden vor YT oder entsprechenden Streamingangeboten.
 
Zuletzt bearbeitet:
@ghecko
Gut. Das sind jetzt ein paar Argumente. Aber mehr gibt es nicht? Das ist alles was es zum Thema fehlen von AV1 Dekodierung in Hardware im negativen Sinne zu äußern gibt?

ich schaffe es gerade nicht, youtube auf av1 zu zwingen. Laut Statistik spielt er weiter in vp9 ab.
 
Casillas schrieb:
Das ist alles was es zum Thema fehlen von AV1 Dekodierung in Hardware im negativen Sinne zu äußern gibt?
Höherer Stromverbrauch reicht dir nicht? Okay. Also mich nervt es, wenn mein PC unnötig Strom verbrät und meine Bude aufheizt. Meine CPU soll sich mit anderen Dingen beschäftigen, nicht mit Decoding von Videos weil der GPU ein Decoder fehlt, den mittlerweile jeder integriert hat und nur dieser eine Chip nicht.
 
10% Stomverbrauch ist nen Argument ja. Aber nicht, wenn ich mir als alternative neue Hardware anschaffen muss. Auf dem Fehlen von AV1 in Hardware wird ja ganz schön rumgeritten. Siehe jetzt bei der 6400. Und da liegt der Anwendungsfall ja nun klar bei FHD
 
Gerade bei den Grafikkarten ist es doch interessant, um ältere Systeme fit für Multimedia zu machen.
So greift man da besser zu Intel, sobald die ihren Treiber im Griff haben.
Bei der 6900XT, da könnte man drauf verzichten. Die installiert wohl keiner in sein LGA1150-System.
Aber gerade in den kleineren Chips ist der Decoder wichtig.
 
Sobald, bzw. wenn, bzw. ob überhaupt sie ihre Treiber jemals in den Griff bekommen. Das ist der Punkt. Wenn sie es denn schaffen. Für mich schwer vorstellbar.

Und soweit ich weiß sind die ansonsten im Stromverbrauch auch eher sehr schlecht gegenüber AMD. So glaube ich auch nicht, dass diese 10% beim Video schauen ins Gewicht fallen, wenn ansonsten die Effizienz so schlecht ist. Und die 10% Vorteil hast du dann auch nur, wenn ausschließlich AV1 zur Verfügung steht. Ansonsten ist die Wahrscheinlichkeit ja vorhanden, dass du mit dem decodieren aller anderen Codecs auf der AMD Karte wieder effizienter bist. Und wann das der Fall sein wird, dass es außer AV1 nichts mehr gibt, weiß man auch nicht.

Eventuell nachher wenn Encoding noch eine Rolle spielt, dann ist die 380 mMn ein Argument. Aber sonst.

Zumal was betreffend ARC 380 und ältere Systeme noch zu nennen ist. Der Zwang für rBar. Und ich glaube nicht, dass das treiberseitig zu lösen ist.
 
Zuletzt bearbeitet:
ghecko schrieb:
Den Rest der Welt sollte so was interessieren
Dazu muss intel erstmal Treiber und Verbrauch optimieren, dann interessiert es auch den Rest der Welt.

Und bitte vergesst nicht, das die kleinsten Radeons Mobilchips sind, wo noch eher eine APU daneben sitzt, die dann AV1 beherrscht.
andi_sco schrieb:
Sorry, ist mir bisher noch nicht aufgefallen
Und das fehlen dieses ist mir im Notebook bisher noch nicht aufgefallen und der Ryzen 5 läuft auch nicht andauernd mit hoher Auslastung :freak:
 
@ghecko dann wäre der alte lg1150 wieder Multimedia (neuster stand) tauglich, wenn die Karte auf dem System startet und das Bios ihm keinen Strich durch die Rechnung macht. Aber wegen fehlenden rbar ist sie nicht spiele taugliche. Ich weiß nicht ob das ein guter Deal wäre. Da wäre ein Plattform Upgrade wohl die bessere Wahl. Oder eine 3050. denn die neue (diesen Monat erst erschienen)gtx1630(170€)hat auch keinen AV1 dekoder.
 
Casillas schrieb:
10% Stomverbrauch ist nen Argument ja. Aber nicht, wenn ich mir als alternative neue Hardware anschaffen muss.
Eigentlich ist das nicht mal ein Argument. Die entsprechende Grafikkarte mit AV1 läuft auch nicht mit Luft und Liebe. Bei einer aktuellen Karte mit AV1 könnte allein das mehr an verbauten Videospeicher schon die geringere Leistungsaufnahme der CPU ausgleichen.

Vielleicht hat ja mal jemand valide Zahlen für den Vergleich von z.B. einen Ryzen 5600X mit einer 20 Watt Karte wie der 1030 und der Wiedergabe in Software gegen einen 5600X und einer AMD 6600 oder einer entsprechenden NVidia Karte (30XX Serie ??) mit hardwareseitiger Unterstützung.
Müsste ich raten, würde ich den Vorteil als 4K Wiedergabegerät eher bei Kombination 1 sehen (vom gesparten Geld/geringeren Kaufpreis ganz abgesehen)
Und bei einem kombiniertzen Mutimedia+Gamingsystem wird sich eh nimand (mit Verstand) bei 4K eine 6400/6500 kaufen.
 
  • Gefällt mir
Reaktionen: Casillas
Northstar2710 schrieb:
Aber wegen fehlenden rbar ist sie nicht spiele taugliche.
Ist die 6400 auch nicht wirklich. Und ich glaube das liegt auch nicht im Fokus, wenn man sich eine solche Karte für ein altes System zulegt.
Und AV1 ist nur ein Punkt von vielen, der bei diesen Karten sauer aufstößt.
Northstar2710 schrieb:
denn die neue (diesen Monat erst erschienen)gtx1630
Auch total bescheuert.
 
ghecko schrieb:
Und irgendwann ist der Treiber von Intel brauchbar, oder die Firma geht unter. Und das wird sie nicht.
Warum gleich so dramatisch? Intel stellt einfach die Produktion dieser und weiterer Karten ein und fertig. Dann werden halt ein paar Milliarden abgeschrieben und fertig. Das juckt Intel auch nicht besonders.
 
  • Gefällt mir
Reaktionen: naicorion und Casillas
McFritte schrieb:
Intel stellt einfach die Produktion dieser und weiterer Karten ein und fertig. Dann werden halt ein paar Milliarden abgeschrieben und fertig.
Es hat schon seinen Grund warum sich Intel seit Jahren an GPUs versucht. Die aktuellen Beschleuniger von AMD und Nvidia im HPC-Segment dürften dir wohl nicht entgangen sein. Auch, das Intel langsam aus dem Segment gedrängt wird. Das ist der eigentliche Grund, warum Intel GPUs bauen will. Bzw warum Intel GPUs bauen muss.
 
ghecko schrieb:
Ist die 6400 auch nicht wirklich
Immerhin schneller, als die A380. Und zur Zeit ne ganze Ecke günstiger.
Hat schon seinen Grund, warum die nicht in meinem PC läuft.
 
Hälst mich auch für doof?
Ergänzung ()

Hier der Vorgänger

IMG20220726141337.jpg
 
  • Gefällt mir
Reaktionen: Casillas
ghecko schrieb:
Ist die 6400 auch nicht wirklich. Und ich glaube das liegt auch nicht im Fokus, wenn man sich eine solche Karte für ein altes System zulegt.
Und AV1 ist nur ein Punkt von vielen, der bei diesen Karten sauer aufstößt.

Auch total bescheuert.
Naja aber was erwartet man denn? Die Spieleleistung einer 6400 passt ja zu einer 380. AV1 Dekoding bringt mir aber aus leistungstechnischer Sicht erst was ab 4k. Und da passt weder die eine noch die andere Karte. Und wenn man Gaming als Ganzes ausklammert, brauche ich weder die eine noch die andere Karte. Dann reicht auch eine aktuelle APU.

Intel "versucht" sich bis jetzt auch nur an dGPUs. Erfolg war noch nicht da.
 
  • Gefällt mir
Reaktionen: McFritte
War nicht ersichtlich, das du in deinem Beitrag die A380 meinst und nicht die 6400.
Und ja, man kann das Ding scheinbar aus China importieren. Bei den Händlern hier findet man halt nichts.
Aliexpress ist bei den meisten nicht die erste Anlaufstelle wenn sie eine Office-Grafikkarte brauchen.
Casillas schrieb:
AV1 Dekoding bringt mir aber aus leistungstechnischer Sicht erst was ab 4k. Und da passt weder die eine noch die andere Karte.
Was sollte einen daran hindern, mit einer A380 8K AV1 anzuschauen, vom Treiber mal abgesehen?
 
@ghecko ja, es wäre nice wenn ein Hersteller eine billige Karte <60€ auf den Markt werfen würde welche alle neuen Multimedia Standards beherrscht. Dann wäre sie für Office und Multimedia Anwendungen preisleistungstechnisch perfekt.

Aber nur auf AV1 bezogen, wie groß ist bitte die Zielgruppe die 4k60p an einem alten PC schaut und diesen noch nicht mal zum zocken benutzt. Die meisten schauen 4k am TV wenn überhaupt. Für Laptops ist das auch kein Thema. Im großen Ganzen ist das nicht wirklich relevant.

Aber ich verstehe warum es säuerlich aufstößt, es ist praktisch kein Kostenfaktor bei einem neuen Chip einen aktuellen Decoder zu verbauen.

Aber es ist jetzt auch kein Beinbruch.
 
  • Gefällt mir
Reaktionen: naicorion, Convert und Casillas
Zurück
Oben