radeon r9 270x - 144hz?

Das enttäuscht mich ja jetzt, hätte echt gedacht es liegt daran.

Es wird aber dann ziemlich sicher an deiner GPU und nicht am Bildschirm liegen. Du kannst auch mal schauen, ob du im Monitor den Displayport zwischen DP 1.2 und 1.4 schalten kannst. Sollte theoretisch nichts bringen, aber Versuch wär es wert.

Handbuch sagt
Bitte stellen Sie die DisplayPort-Version so ein, dass sie der Version des angeschlossenen externen Geräts entspricht (1.4, 1.2 und 1.1). Wenn Sie HDR verwenden möchten, wählen Sie DP-Version 1.4.

Auf was steht bei dir die horizontale Frequenz? 183 khz?

1638307073447.png
 
Zuletzt bearbeitet:
Tanzmusikus schrieb:
Schafft die das mit den 2GiB VRAM überhaupt?
2D auf dem Desktop und in Office/Filmen sollte machbar sein, in 3D-Anwendungen könnte es knapp werden.
Sogar meine GT 1030 schafft 120 HZ auf 4K über hdmi 2.0b. Und das mit 300 FPS. ABer halt nicht in tripple A Titeln. :D

So Spiele wie Countstrike, league of Legends oder Valorant laufen problemlos mit so 150 FPS mit der 270x.
 
Speicher ist absolut kein Thema. Kann man relativ einfach berechnen, habe aber vergessen wie (Pixel x Farbtiefe x Hertzahl etc). Das sind nur ein "paar" Megabyte. Der Famebuffer ist immer das kleinste Problem. VRAM wird zu 99% von Texturen belegt.
 
Zuletzt bearbeitet:
Neustart des PCs sollte schon nötig sein.
 
Hatte die Radeon HD 7000er Serie nicht Displayport 1.1 btw. ?

Weil die R9 200er Serie war wenn ich mich recht zurückerinnre die 7000er Serie mit neuem Namen, bis auf die r9 290x. Man konnte die r9 280x ja sogar im Crossfire mit einer 7970 oder 7990 betreiben.
 
Also aus eigener Erfahrung ist eigentlich kein Neustart nötig, der schaltet bei mir immer alles direkt hin und her und bietet sofort neue Optionen an. Die Karte selber wird eigentlich überall mit DP 1.2 angegeben und mit DP 1.1 würde das nicht gehen, was aktuell geht.
 
Nein, die 200er Serie ist nicht mit den 77x0ern gleichzusetzen.

cvzone schrieb:
Also aus eigener Erfahrung ist eigentlich kein Neustart nötig, der schaltet bei mir immer alles direkt hin und her.
Naja, wenn Du unter [Grafik] -> [Erweitert] die Option "10-Bit Pixel-Format" auf 8-Bit änderst, musst Du den PC neu-starten ... oder die restart64.exe von CRU benutzen, um den Radeon-Treiber neu zu starten.

Die 10-Bit Farbtiefe unter [Anzeige] ändern reicht nicht, oder?
 
Tanzmusikus schrieb:
Nein, die 200er Serie ist nicht mit den 77x0ern gleichzusetzen.


Naja, wenn Du unter [GRafik] -> [Erweitert] den "Pixel Clock" auf 8-bit änderst, musst Du neu-starten oder Restart_x64 von CRU benutzen.
Sicher? Ich weiß zu 100 % das die r9 280x im Grunde exakt die selbe Karte wie die Radeon HD 7970 war. Identischer chip, identische Karte von den Specs her.

https://www.techpowerup.com/gpu-specs/radeon-r9-280x.c2398

Die hatte nur etwas mehr GPU Clock

Und auch die r9 270x ist GCN 1.0

https://www.techpowerup.com/gpu-specs/radeon-r9-270x.c2466
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Die 270x ist eine 7870 mit etwas mehr Takt.
 
Ihr redet glaube ich aneinander vorbei :D

@Tanzmusikus meint HD 77x0 (hat er zumindest so geschrieben), also -> 7730, 7750, 7770, 7790
@Weedlord Du, bzw. wir, meinen die HD 78x0 bzw. 79x0, also 7850, 7870, 7950, 7970, 7990 und die waren durchaus mit R9 270X & 280X gleichzusetzen.
 
  • Gefällt mir
Reaktionen: Weedlord und Tanzmusikus
Okay, hab ich verwechselt mit meiner R9 290X.
Davor hatte ich auch eine 270Xer Karte. :daumen:

cvzone schrieb:
diese Einstellung hat aber nichts mit der Farbtiefe zu tun
Häh, ich steh auf dem Schlauch. Womit denn sonst bitte?
AMD-GraKas arbeiten (ab GCN?) intern standardmäßig immer mit 10bpc, deshalb die explizite Deaktivierung.

Was soll den "10-Bit-Pixelformat" sonst bedeuten?
 
Tanzmusikus schrieb:
Häh, ich steh auf dem Schlauch. Womit denn sonst bitte?
Die Farbtiefe des Signals stellst du bei Einstellungen - Anzeige - Farbtiefe ein.

Das 10 Bit Pixel Format wird hier erklärt
https://www.amd.com/system/files/documents/10-bit-video-output.pdf

Wenn man dieses aktiviert gibt es momentan auch immer noch seit Jahren über RDP Grafikfehler, wenn auf den PC zugegriffen wird. Das ist also nicht die "normale" Farbtiefe. Du kannst das Pixel Format auch auf 10 Bit setzen und hast trotzdem 8 Bit in Windows.
Ergänzung ()

Tanzmusikus schrieb:
AMD-GraKas arbeiten (ab GCN?) intern standardmäßig immer mit 10bpc, deshalb die explizite Deaktivierung.
Standardeinstellung beim Pixelformat ist auch 8 Bit, also kann das keine explizite Deaktivierung sein.
Ergänzung ()

@Tanzmusikus Ich habe das eben nochmal nachgelesen, weil ich auch nicht so ganz sicher war. Das Pixel Format ist das Farbformat für Farbkanäle und Texturen etc. innerhalb der Programme/Engines und die normale Fabrtiefe ist für das eigentliche Ausgangssignal zum Bildschirm.

Man hat ja teils trotz 10 Bit öfter mal Banding an Texturen, das liegt dann am fehlenden Pixel Format. Aber die Engine/Programm muss das auch können, nur aktivieren macht erst mal nichts.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus
Bei meinen bisherigen Grafikkarten war das immer voreingestellt mit 32" LG-TV (10-Bit-fähig) von 2011 und nun LG-Monitor (10-Bit-fähig).

Ob das auch an 22" Monitoren so ist, weiß ich nicht mehr.
Könnte ich aber leicht überprüfen, hab noch welche hier.

https://www.reddit.com/r/Amd/commen...l_format/#CommentTopMeta--Created--t1_fzzv79e
10-bit pixel format option in Radeon Settings is to enable a true 10-bit Desktop Rendering environment for Windows, so that you can use applications that take advantage of 10bit true color, for example Adobe software.
Mind you this will override Win10's HDR mode, so this should only be selected if you are using 10bit aware applications. This is mostly useful only for content creators.
Scheint wohl so zu sein, dass es dem angeschlossenen Bildschirm ein 10-Bit-Format liefert.
Aber was liefert denn "Farbtiefe 10bpc" unter [Anzeige]?
8-Bit + 2-Bit FRC ohne 10-Bit-Format ... und ... 10-Bit nativ im 10-Bit-Format? :confused_alt:


cvzone schrieb:
Ich habe das eben nochmal nachgelesen, weil ich auch nicht so ganz sicher war. Das Pixel Format ist das Farbformat für Farbkanäle und Texturen etc. innerhalb der Programme/Engines und die normale Fabrtiefe ist für das eigentliche Ausgangssignal zum Bildschirm.

Man hat ja teils trotz 10 Bit öfter mal Banding an Texturen, das liegt dann am fehlenden Pixel Format. Aber die Engine/Programm muss das auch können, nur aktivieren macht erst mal nichts.
Und hier Zitat aus der PDF von Deinem obigen Link:
Once the 10-bit pixel format support is enabled the system will request a reboot and after that any
10-bit aware OpenGL application will be displayed in 10-bits without any clamping. In the following,
we demonstrate how an application programmer can easily create a 10-bit aware OpenGL application.
Naja - ein bisschen so ähnlich dachte ich's mir doch.
Das macht Sinn. Danke sehr !!! Das ist die 10-Bit-Erleuchtung. 😇
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cvzone
Tanzmusikus schrieb:
Bei meinen bisherigen Grafikkarten war das immer voreingestellt mit 32" LG-TV (10-Bit-fähig) von 2011 und nun LG-Monitor (10-Bit-fähig).
Also ich habe nen LG C9 und nen UWQHD Monitor, beide mit 10 Bit und das Pixelformat war bei mir immer aus (und auch bei eigentlich allen anderen Leuten im Internet, was man so liest). Sowohl mit der Vega 64 als auch mit der RX6900XT.

AMD erklärt es sogar auch, wenn auch sehr dürftig.
10-Bit Pixel Format - Enables 10-bit pixel format support for compatible displays and applications than can render in 10-bit.
https://www.amd.com/en/support/kb/faq/dh3-012

Es scheint also drei relevante Punkte zu geben. Processing in der Software, Processing in der GPU Pipeline und dann entsprechend zum Monitor...
 
Zuletzt bearbeitet:
Echt komisch. :o Habe da gänzlich andere Erfahrung die letzten Jahre gemacht. Und das mit teils älterer Hardware.

Egal wie ich den AMD Radeon-Treiber installiert habe (Drüber, De-/Install, DDU, Neu-Install), es war immer 10-Bit-Format ohne-mein-zutun aktiviert. Zumindest ab der Adrenalin-Reihe. Mit Crimson weiß ich es nicht.

***

@GLeo
Wie sieht's aus?
Bist Du an was dran um Dein Problem zu lösen?
 
  • Gefällt mir
Reaktionen: cvzone
Mind you this will override Win10's HDR mode, so this should only be selected if you are using 10bit aware applications. This is mostly useful only for content creators.
Das ist mir auch aufgefallen, als ich es früher mal explizit aktiviert hatte. HDR war dann immer komplett schrott in Spielen am LG C9. Sicherlich weil die Spiele intern kein 10 Bit können, trotz HDR Support. (z.B. The Divison 2)

Wenn es bei dir wirklich immer an war, müsste dir das bestimmt auch mal aufgefallen sein.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Zurück
Oben