Eli0t schrieb:Glaskugel? Oder denkst Du der AMD Vapourchamber Kühler auf der Referenzkarte ist gratis?
Der Kühler ist schon ein Upgrade zu dem was es früher gab.
Steht doch im Artikel das mit den 225 Watt...einfach nur lesen.
Eli0t schrieb:Deswegen Vapourchamber... aber gibt genug technische Möglichkeiten auch diese gut zu kühlen.
Ja, und auch laut wie "Sau". Kommentar dazu steht auch im Artikel. Die Referenzdesigns der Nvidia Turings waren nicht superleie, aber auch keine Krachmacher wie der gefürchtete Radeon Kühler.
Eli0t schrieb:Der Markt regelt gar nichts, solange alle Leute meinen sie müssen nieVieda kaufen, weil die hat 10fps mehr und verbraucht 30W weniger.
Tatsache ist, auch Polaris ist besser als ihr Ruf. Schau Dir mal "God of War" auf der PS4 Pro an... ne poppeliges Radeon 570 äquivalent stellt 4k in 30fps dar. Wenn die Developer zu faul zum Optimieren sind ist das natürlich mehr als traurig. Aber AMD geht den richtigen Schritt und stellt sein SDK Open Source zur Verfügung, das sollte auch die Entwickler motivieren mehr zu tun.
Aber natürlich ist es so. Hier geht es nicht um Affinität zu einer Firma, sondern Pragmatismus. Ich kaufe nach Logik das beste für mich, unter den Voraussetzungen die ich für mich benötige. Und da spielt Verbrauch und Lautsärke jedenfall bei mir eine enorm grosse Rolle. Und nicht, um jemanden zu "unterstützen", der halt nicht die vergleichbaren Anforderungen erfüllt.
Das mit dem SDK stimmt, ist auch vernünftig.
Eli0t schrieb:Also Anti-Lag und Image Sharpening (Fidelity FX) finde ich sehr wohl als großen Vorteil. Wer will denn nicht, daß die Bildqualität besser wird? Im Unterschied zu Raytracing, das unter einer GTX 2080 sinnfrei ist und DSR was meist nur in Flimmern ausartet hat nieVida das imho schlechtere Featureset.
Du kannst einer anderen Entwicklung (RTX, DXR) doch nicht vorwerfen, das sie (noch) nutzlos und zu langsam ist (und darauf wird auch noch optimiert), aber die AMD Vorzüge - die noch niemand unabhängiges getestet und beurteilt hat - in einem Atemzug hier als Vorteil herausstellen. Vielleicht bringt es ja auch nichts, genauso "wenig" wie RTX (in deinen Augen). Warten wir mal ab.
Eli0t schrieb:Lieber Janami25, jahrelang hat AMD genau das gemacht... Kampfpreise und sogar schnellere GPUs produziert als nieVida, man denke nur an die glorreiche 48xx Serie zurück. Was haben die dummen Kunden gemacht? Schlechtere nieVida Karten gekauft...
Und jetzt sagt AMD "fickt euch" und Du regst Dich auf? Du hättest jahrelang die Möglichkeit gehabt AMD zu unterstützen. Die Geforce 4 Ti 4200 war meine erste und letzte nievida Karte. Seit dem Schrott habe ich nur AMD gehabt und habe es nie bereut.
Ich rege mich doch nicht auf, ich bin einfach nur enttäuscht von AMD. Das solltest du nicht durcheinander bringen.
Und das was du da erzählst, ist nicht richtig. Natürlich gibt es ein Nvidia "Fanlager". Eben wie bei AMD auch.
Ich habe das auch gänzlich anders in Erinnerung, da ich seit der 9700 Pro bis einschliesslich der Radeon 5870 im AMD Lager war, wie viele andere eben auch die ich kenne (kannte). Eventuell mit 2 Ausnahmen, aber gehabt habe ich "sie fast alle". Und das waren wirklich konkurrenzfähige Produkte, was P/L und Stromverbrauch anging. (Zwischenzeitlich gab es auch mal "Ausrutscher" HD2000). Die Preise waren auch gerechtfertigt, so viel steht für mich fest.
Aber seit der GCN Architektur sind die Karten zu stromhungrig, zu gross und zu laut geworden, und der Support für die Videoengine hat im Gegensatz zu Nvidia/Intel stark nachgelassen. Nicht nur durch externe Entwickler, auch AMD hat dieses im Treiber stetig stiefmütterlicher behandelt. Das hat mich nicht überzeugt, im Gegenteil. Da für mich das wesentliche Aspekte sind, bin ich halt gewechselt. Da den Kunden den schwarzen Peter zuzuschieben, finde ich als Kunde unfair. Hier hat AMD schlechtere "Leistung" als die Konkurrenz abgeliefert.
Nvidia hat in dieser ganzen Zeit stetig geliefert, und zwar nicht nur Marketingtechnisch, wie du das behauptest. Die Leistung wurde stetig, manchmal deutlich, verbessert, der stromverbrauch ständig gesenkt, und die Videoengine weiter aufgebohrt. Klar, auch hier gab es immer Ausnahmen, aber in Summe ist es so gewesen. Das waren eben die Gründe, warum ich persönlich gewechselt habe. Und auch jetzt sehe ich noch immer keinen Grund zurück. Es sei denn, der Preis hätte mich milde gestimmt, aber wenn der nicht stimmt, bin ich erst recht nicht bereit dazu.
Eli0t schrieb:Die NextGen Konsolen basieren schon auf Navi2 ... was nicht heißt, daß Raytracing mit expliziten Hardware Units durchgeführt wird.
Kannst Dir nen R9-3900X gönnen und hoffen, daß die Spiele DXR unterstützen und dann ist es egal ob das die Grafikkarte kann oder nicht.
Mit persönlich interessiert RTX und auch das meiste der AMD Featuresets nicht besonders, die Standard Grafiksets reichen mir vollkommen aus. Es ist für mich nicht von so grosser Relevanz, aber die anderen genannten Dinge schon. Aber es wird Relevanz auf die Masse der Kunden haben. Das hätte man über den Preis kompensieren können, aber...
Eli0t schrieb:Dank Dir und vieler anderer hatte AMD nie genug Geld vernünftig zu entwickeln. Sie haben sich zuerst auf Ryzen konzentiert und das war auch wichtig und richtig. Jetzt kommt mit Navi die erste Generation einer neuen Architektur. Und schon raunzen die User wieder. War Maxwell gut? Nein, nicht wirklich. War halt die erste Generation. Und schon die zweite Generation Pascal war wesentlich schneller und engeriesparender.
Schon mal ausgerechnet wieviel Geld das mehr verheizt so ein 25-35W Unterschied? Macht das Kraut nicht wirklich fett, außer Du spielst 24h/Tag. Nochdazu hat man bei AMD mit Wattman ein nices Tool um die Voltage runterzuregeln (Oh Gott, da muß der geneigte User selbst Hand anlegen). Ansonsten ist der Stromverbrauch meist überbewertet. Es regt sich komischerweise auch niemand auf, daß der Stromverbrauch einer i9-9900K von den 95W meilenweit entfernt ist... außer man regelt die Boards auf die Intel Specs runter, wie es nur OEMs machen, mit der dann entsprechender Leistung, die im Keller darnieder liegt. Aber Du kannst das ja ausgleichen mit einer 65W Ryzen CPU und einer 5700XT, dann ist der Gesamtverbrauch ident mit einem i9-9900k und einer Gefurz RTX 2070.
Du siehst den Fehler halt bei den Kunden, und nicht bei AMD. Und damit denkst du halt auch falsch. Der Kunde kauft sich das in seinen Augen bessere Produkt. Ich kann nicht verstehen, warum manche das nicht einsehen wollen. AMD hat halt hier in der Hinsicht seit der GCN Architektur stark nachgelassen, so das danach viele Kunde verloren wurden. Das du nicht ganz sachlich sein kannst, und es wohl auch nicht vorhast, sieht man ständig an so Sachen wie "Gefurz", "Nwiedia", etc. Ist natürlich Deine Sache, aber keine gute Diskussiongrundlage.
Maxwell und Pascal waren nicht gut ? Sorry, sehe ich gänzlich anders. Die Gründe habe ich schon aufgeführt, die wurden stetig weiter entwickelt und das Gesamtpaket war jedenfalls für mich ökonomischer.
Ich möchte jetzt hier nicht über Stromhungrige CPU's reden, denn auch da ist genug Kritik gekommen, das kann man überall nachlesen.
AMD hat dahingehend mit dem ZEN 2 absolut alles richtig gemacht. Das P/L Verhältnis zum Stromverbrauch ist beeindruckend, erst recht bei den 12-16 Kernern. Hier hat man auch Fuss gefasst und ist wieder dabei ein "Grosser" zu werden, aber eben nicht bei den GPU's.
Man hätte das zeitgleich erreichen können, nämlich wenn man hier einen P/L Knaller geboten hätte. 100 Euro weniger, und die Navi GPU's wären ein Verkaufsschlager geworden, AMD hätte deutlich mehr Kunden angelockt, Nvidia wäre in Zugzwang gewesen. Und, am wichtigsten, "ich" als Kunde hätte davon profitiert.
So werden die GPU's immer teuer, und ich sehe hier Null Vorteile für uns zahlende Klientel, sondern nur für die Hersteller. Beim nächsten mal werden es dann halt anstatt 450 Euro plötzlich 650 Euro, "weil halt die Entwicklung so viel verschlungen hat"....Als wenn das etwas völlig neues in der GPU Branche wäre. Gab es, und hat es immer gegegeben. So, bevor ich mich wiederhole, ist hier Ende. Ist meine persönliche Meinung.
Zuletzt bearbeitet: