News AMD-Treiber: Catalyst wird mit neuer Oberfläche zu „Crimson“

@Richthofen

Du kannst alles aufhalten, wenn es nur genug verweigern. Leider ist es nicht abzusehen, ob Cloud-Gaming eine Zukunft hat. Ich hoffe eher gegenteiliges.
Es wurden schon viele Techniken als Zukunftsweisend und unumgänglich gefeiert, die aber genauso schnell und unglaublich unspektakulär wieder von der Bildfläche verschwanden. ;)
 
Hm, interessant.

Ich weiß ehrlich gesagt gar nicht, warum alle das CCCP so sehr hassen - es ist sicherlich nicht das schönste Stück Software auf dieser Welt und braucht tatsächlich ewig zum Starten, aber es funktioniert und man findet in der Regel auch die Einstellungen, die man sucht.

Schnell und übersichtlich ist das Ding von Nvidia nebenbei auch nicht - bei mehr als drei installierten Spielen braucht auch das Jahrzehnte zum Starten (und Speichern von spielespezifischen Einstellungen), und bei diversen Monitoroptionen, die man vielleicht nicht alle Tage braucht, sucht man sich tot. Es hat aber eben auch mehr Optionen.

Man kann jedenfalls darüber streiten, ob das neue Treibermenü unbedingt so aussehen muss wie ein Mediacenter und ob ein Touch-UI wirklich sinnvoll ist, wenn 100% der User das Dingen mit Maus und Tastatur bedienen werden, aber gut... wichtiger ist mir persönlich eh, was sich bei Features, Stabilität und Performance tut.
 
BookerDeWitt schrieb:
Wieso muss AMD die 980Ti brechen, wenn sie darunter für den Kunden besser aufgestellt sind? Marktanteil macht man nicht mit Flaggschiffen.

AMD muss das eigentlich nicht, wie man sehr gut an der HD 5000/6000/7000er Serie sah. Auch dort waren die Topmodelle von AMD FPS-Zahlen-mäßig hinter den NV Topmodellen zu Beginn. Aber durch den Preis konnte man sich doch sehr gut gegenüber dem Konkurrenten aufstellen.
Bei der HD 3000/4000 Serie musste AMD/ATI sogar einzig allein auf den Preis setzen.
Das waren dann auch immer die Zeitpunkte, in denen AMD Marktanteile zurückerobern konnte.


Und abschliessend eine Frage:
Ich weiß, dass es AMD zurzeit finanziell nicht allzu gut geht, aber was hilft es mir, wenn ich Lösungen erfinde, die nicht funktionieren, die eh nicht an AMD herankommen, oder die AMD eher mal wieder schlecht machen?

Scheinlösung maybe.

Ich persönlich denke, dass die Neugestaltung der Treiberoberfläche gut ist.
Wirklich nötig hat aber AMD einen Verkaufsschlager, der günstig in der Produktion ist, im verkaufsstarken Mittelklassesegment. Die 380X wäre da sicher passend gewesen, aber nun kommt sie vllt. schon zu spät, um da noch etwas rauszureißen.
Ich hoffe ja, dass AMD einfach bei der nächsten Generation maximal eine High-End-Karte bringt (Alibi-Karte quasi) und im Mid-Range/Low-End (falls das wegen der APUs im Consumer-Markt überhaupt noch nötig sein sollte, abseits von OEM halt) etwas komplett neues anbietet, was gut ist, günstig in der Produktion und dadurch wieder Gewinn macht.
 
@zeedy

zugegeben ;) ich hab mich nicht viel mit dem CCC in den 7 Jahren rumgeschlagen, auch nie wirklich unter gravierenden Bugs oder so gelitten weshalb ich grundsätzlich der Meinung bin dass sich beide Treiber heute nicht viel geben in Ihrer Stabilität, auch wenn NVs Marktanteil natürlich höher ist und somit auch mehr Probleme auftreten sollten (würde ich mal von ausgehen).

Ich bleib von sowas zum Glück meist verschont, obwohl ich recht "on Edge" unterwegs bin, neustes Win Insider Preview und so Kram.

Mir gings rein um die Darstellung und Benutzbarkeit. Ich hab mir schon die wenigen male wenn ich was im Treiber wollt nen Wolf gesucht. Unglücklich war auch dass ich meinen HDMI nicht einfach rein als Audio hernehmen konnte damals, ohne dass er immer meinen TV erkennt nur weil der auch am AVR hängt - bin dann auf SPDIF ;)

Wie auch immer, wir müssen wohl nicht darüber streiten dass der CCC in Vielerlei Hinsicht wirkliche eine Überarbeitung nötig hat (gerade optisch) und das sicher auch ankommen wird. Look & Feel sollte man auch da nicht unterschätzen. Ich nutz den Win Calculator auch nicht oft und breche dennoch ab weil ich seit Win 8 diesen 1 Mio Pixel Oschi sehen muss wenn ich "calc" ausführe :D

Klar. Die Kritiker als "dumm" abzutun ist natürlich besonders "smart".

Aber ja, die Nvidia Systemsteuerung ist jetzt auch nicht grad "mega". Zumindest nachdem was ich nach wenigen Monaten Nvidia nun sagen kann. Dennoch laufen nun ein paar Sachen besser bei mir, z.B. die GPU Beschleunigung in LR.

Wenn AMD da nen schöne gut bedienbare GUI raufpackt und vielleicht noch "MSI Afterbruner Funktionalität" nahezu voll-umfänglich integriert wäre das schon super. Klar, Fehlerbeseitigung geht vor.
 
Da blickt man als nVidia-User nur neidisch drein:

nVidia Controlpanel @ Desktop | Mit GeForce GTX

:rolleyes: Das Video habe ich vorgestern aufgenommen, also aktuellster Treiber (358.78).
Toll wie AMD sich entwickelt. Wenn kommendes Jahr die CPU- und GPU-Leistung passt werde ich vielleicht auch mal wieder rüber wechseln. :)
 
Kann mir eigentlich recht egal sein.
In meiner Main Kiste steckt eine Config die kompensiert das ganze eh. Wird die meisten eh nicht groß gestört haben einfach weil die meisten die darauf wert legen so oder so dermaßen Power unter der Haube haben das sie es eh nicht mehr merken.
Ob jetzt angestaubter Phenom oder sonst was sobald ne SSD verbaut ist merkt man das eh nicht mehr. Ram verbraucht es auch nicht unmengen.
Ansonsten habe ich das CCC nie gebraucht und auch direkt aus dem Autostart gekickt, momentan läuft das nur mit um die angeschlagene HD7950 auf trab zu halten d.h. 1,1Ghz core und 1,375ghz mem clock.
Was ich an AMD zu bemängeln habe das deren Partner wie TUL es ordentlich versauen. 1,5Jahre, Lager von den Lüftern quasi schrott, unsinniges vBIOS was den Chip unnötig vCore gibt. Wenn eine AMD dann nichts von TUL. Kann aber auch Pech gewesen sein, war 3x bei TUL reklamiert, und läuft nicht so toll. Die R9 280Xer hingegen alle TOP von denen die ich verbaut hatte.
Könnte aber auch am damaligen getgoods debakel gelegen haben - war mir jedenfalls ne Lehre mit der geiz ist geil mentalität.
Jetzt mit gefixten Lüftern, OC (letzter echter Turbo :p) ist die Karte so wie sie sein soll und für 170€ wars dann echt ein Preis der abnormal war inkl Spiele. Fliegt dann wohl raus wenn sie echt am Ende ist aber für die Games die ich Spiele reicht sie locker aus.
Also bei GPUs kaufe ich gerne AMD, die Karten sind für das Geld top. Wärmeentwicklung bzw Stromverbrauch könnte man als Argument nehmen aber die Diskussion will ich mir mal sparen. Wer für die selbe Leistung mehr Geld drauflegt um es dann wieder beim Stromverbrauch rauszuholen... seine Entscheidung.
Würde aber auch ne Nvidia nehmen wenn sie vom P/L genauso gut oder besser sind.
Mal sehen was Crimson bringt, sieht für mich irgendwie nicht so doll aus, eher genau der selbe Mist wie CCC. Verstehe nicht warum man da unnötige Texturen benutzen muss inkl Spielereien.
Das man das sogar noch anpreist mit "new brushed metal design". Hau doch weg den Mist.
Macht doch einfach mal ein Control Center was nicht das Ziel hat optisch die Leute zu beeindrucken sondern funktional ist. Treeview links, Einstellungen + Tabs Rechts - fertig.
Wenn man das in .NET macht, vernünftig Threads nutzt und dinge async regelt ist man damit schnell fertig, verbraucht wenig ram und die Anwendung rennt. Schlampig und scheiße durchdacht wird überall lahm sein nicht nur in .NET.
Soll mir aber egal sein, benötige das Center so selten da stört mich das nicht, nur um mal Overscan oder OC einzustellen habe ich es bis jetzt genutzt. Alles andere an Einstellungen mache ich über Win + in den Spielen selbst.
Aber wollen wir mal das beste hoffen und nicht direkt alles schwarz malen :p
 
VSR ist im Vergleich aber sehr unflexibel. Das meinte er. Wenn man das über Shadercode in den Treiber injeziert, kann man sowohl Filter als auch Achsenskalierung individuell und unabhängig vom Monitor nutzen. Frage mal Leute mit z.B. 2560x1080 wie VSR da läuft ;)
Ausserdem hast du nicht mehr den Nachteil mit der vertikalen Bildwiederholfrequenz herunter gehen zu müssen, damit du die Bandbreit nicht zerschrubbst. 4k@120 Hertz? Kein Problem.
Na ja ich finde es gut und freue mich für die AMD-Käufer dass es nun vorwärts geht.
 
anständiges Downsampling wie es bei nVidia schon seit Jahren geht

Man hat bei der R9 380 ein anständiges VSR. Stellt jemand bei der Grafikkarte ein 4k VSR ein ? Selbst bei der R9 390X, ist es auch nicht wirklich nachvollziehbar, dass man 4k VSR einstellt.
Für 1080p halte ich 1440 VSR immer noch am sinnvollsten, oder sehe ich das falsch ? Gibt es Games, wo es 4k VSR sein soll ? Kann mir einfach nicht vorstellen, dass die Performance dann noch stimmt. Auch glaube ich nicht, dass viele, die zum Beispiel eine 970 oder 980 GTX 4k DSR einstellen.

hübie
4k 120 Hz zum Beispiel, wäre meiner Meinung nach, auch nur ein Argument für die 980 GTX TI. Wer aber so eine Grafikkarte hat, hat in der Regel auch einen besseren Monitor.
Okay, du scheinbar nicht :D Naja irren ist menschlich.
 
BookerDeWitt schrieb:
@Relaxo32:
Schön, dass wir uns bezüglich der Flaggschiff = mehr Marktanteil- Theorie einer Meinung sind.

Ich seh mir nur AMDs (ATIs) Vergangenheit an. Den richtig "dicken" Erfolg mit High-End-Karten hatte man zuletzt mit der Radeon 9000er/X800er Reihe (wobei selbst da die 9500pro das starke Zugpferd war), danach, selbst wenn man Leistungstechnisch gleichzog oder besser war, brachte das nicht wirklich viel. Hingegen konnte man aber eben sehr gut im Verkaufsstarken Mittelsegment sich behaupten. Auch die HD 7000er und R9-290er Karten haben ja erst so gut eingeschlagen, als die Preise in das Mittelsegment von 200-300€ gefallen sind.

Da es AMD finanziell daher momentan nicht so gut geht, sollte man eben erstmal kleiner stapeln, Geld einnehmen, das wird dann auch dem CPU Teil der Firma zugutekommen.
 
Mit der 5870 gabs auch noch etwas Erfolg, das war ne richtig gute Karte und der Konter von NV war nen Heizlüfter... leider saß da schon der "es muss NV sein" Faktor schon zu tief in den Leuten als das es ein richtig guter Erfolg wurde.
 
pipip schrieb:
Man hat bei der R9 380 ein anständiges VSR. Stellt jemand bei der Grafikkarte ein 4k VSR ein ? Selbst bei der R9 390X, ist es auch nicht wirklich nachvollziehbar, dass man 4k VSR einstellt.
Für 1080p halte ich 1440 VSR immer noch am sinnvollsten, oder sehe ich das falsch ? Gibt es Games, wo es 4k VSR sein soll ? Kann mir einfach nicht vorstellen, dass die Performance dann noch stimmt. Auch glaube ich nicht, dass viele, die zum Beispiel eine 970 oder 980 GTX 4k DSR einstellen.

hübie
4k 120 Hz zum Beispiel, wäre meiner Meinung nach, auch nur ein Argument für die 980 GTX TI. Wer aber so eine Grafikkarte hat, hat in der Regel auch einen besseren Monitor.
Okay, du scheinbar nicht :D Naja irren ist menschlich.

Dann spiele mal in 3D. Die Welt ist nicht nur so flach wie du sie kennst. Naja irren ist menschlich. :p Den Monitor habe ich nicht ohne Grund. Und es gibt genug Spiele die man auch in 4k genießen kann. Sogar mit reduzierten Details lohnt es sich bei dieser Stufe zu bleiben.
 
Die HD 5870 war wirklich eine phenomenale GPU.
Mit ihrem Cypress GPU Design sowie der VLIW Architektur und dem "moderaten" Energieverbrauch und sehr guten Filtereigenschaften ist dieses Produkt mehr als "nur" Konkurenzfähig zu Nvidia gewesen.
Vor ca zwei Jahren hatte ich eine HD 5870 (2GB) noch im Betrieb, nur die aktuellsten Gametitel rutschten signifikant bei moderaten Settings unter die 20 FpS Marke.

Schaut man sich die GPU Designs von AMD an fällt auf das diese seit der HD5XXX Serie im Durchschnitt und Vergleich zu anderen GPU Architekturen sehr lange am Markt mitmischen können.
Ein weiteres Besipiel dafür ist der Tahithi Chip der 79XX/ R9 280 (X) Serie.
 
Da ist Pitcairn das bessere Beispiel. Tahiti lebte ja nicht allzu lange. Pitcairn ist bis heute im Portfolio drin und bietet immer noch gute Effizienz.
 
Zurück
Oben