Und bei deinen Mainboard hast du dich übergeben?Stefcom64 schrieb:Wenn ich dann bei Grafikkarten immer im Namen das Kürzel ROG höre, bekomme ich immer starke Blähungen!
Genau mein Humor
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Und bei deinen Mainboard hast du dich übergeben?Stefcom64 schrieb:Wenn ich dann bei Grafikkarten immer im Namen das Kürzel ROG höre, bekomme ich immer starke Blähungen!
Würde jetzt nicht unbedingt die Schaffung des Marktes Nvidia zuschreiben. Bedarf an KI-Beschleunigern gäbe es auch ohne Nvidia. Wo du aber recht hast, ist der Punkt, dass Nvidia frühzeitig den steigenden Bedarf an solcher Hardware erkannt hat.xexex schrieb:diesen Bereich gibt es überhaupt erst, weil man bei Nvidia vor vielen Jahren eine Weitsicht gezeigt hat und diesen Markt entstehen ließ.
Ohne die Hardware mit der man sowas praktikabel umsetzen kann, wäre es vielleicht maximal ein Spielfeld für Großrechner und kein breites Geschäftsfeld geworden, so wie früher Raytracing teuren Filmproduktionen vorbehalten war. Als Nvidia mit CUDA um die Ecke kam, gab es keinen dringenden Bedarf an solchen Lösungen und Intel ist mit Xeon Phi just in diesem Bereich praktisch gescheitert.mibbio schrieb:Bedarf an KI-Beschleunigern gäbe es auch ohne Nvidia.
Guck dir mal die verkauften Angebote bei ebay und die Kommentare zum 4090 Release an.Öcher Tivoli schrieb:Guck dir einfach die 1080Ti,2080ti,3090,4090 an.
Betonung auf war, mit den customs der RX7900XT und XTX in Verbindung mit dem monströsen Kühler der auch auf der 4090TUF zum Einsatz kommt hat Asus das m.M.n. beste custom design abgeliefert und so lange ich denken kann zum ersten mal Geld für eine GPU von mir bekommen. Aber prinzipiell muss man abwarten ob das eine Eintagsfliege war oder nicht. Vorher waren die wirklich grottig und lieblos bei AMD. Da konnte eigentlich nur noch MSI mithalten. Und ja, von Sapphire und Power Color kamen eigentlich immer sehr gute customs. Das würde ich auch weiterhin erwarten.Chismon schrieb:ASUS Grafikkarten waren seit jeher eher zweite Wahl mit Radeon dGPU
oh, gerne nehm ich was so richtig dickes wie die noctua 4080.RaptorTP schrieb:Nee nee, passt schon
Bigger is better. Es geht gar nicht Silent genug.
Dann kauf dir was anderes und lass uns "dicke Karten" - Nutzer in Ruhe xD
Ich musste die TUF 4070 Deshrouden wegen deren blöden Lüftersteuerung. 😅
Aus der Sicht des Kunden ist der Konkurrenzkampf wünschenswert. Es braucht keine Schmarotzer, die im Windschatten von Nvidia sich heimlich über hohe Preise freuen und abzocken.wolve666 schrieb:Es ist Aufgabe von AMD, die Preise zu senken und Konkurrenz zu bieten?
Was denn jetzt? Die Kunden kaufen blind Nvidia, aber trotzdem denken die, Nvidia senkt die Preise? Entscheide dich mal. Deine angesprochenen Lemminge warten bestimmt heute noch auf diesen Tag.wolve666 schrieb:Damit du deine Nvidia hoffentlich günstiger bekommst?
....
Solange die Lemminge blind alle Preise von Nvidia zahlen und die überteuerten Produkte kaufen, ändert sich gar nix.
Aus Sicht des Investors ja. Ich denke, es war aber klar, dass der Ursprungspost aus der Sicht des einfachen Kunden geschrieben wurde.Balikon schrieb:Nein, ist es nicht. Aufgabe von AMD ist, mit möglichst wenig Invest möglichst viel zu verdienen.
Die Frage ist eher, will man nicht, weil man mit den steigenden Preisen insgeheim doch zufrieden oder kann man nicht. Nvidia bietet so viele Angriffspunkte, als wäre es Absicht. Die RTX 4060 8GB war z. B. eine Einladung für einen Schlag ins Gesicht.Balikon schrieb:AMD kann sich mit dem kleinen Marktanteil gar keinen Preiskampf mit Nvidia leisten.
Das Gejammer mit dem Speicher gibt es nur hier in der Nerd Blase. In der Realität reichen die 8GB bei einer 4060 durchaus aus.NguyenV3 schrieb:Nvidia bietet so viele Angriffspunkte, als wäre es Absicht. Die RTX 4060 8GB war z. B. eine Einladung für einen Schlag ins Gesicht.
750 reichen. Ich habe seit mittlerweile 7 Jahren eine Vega 64 (300 Watt) mit AMD-Achtkernern im Einsatz, an einem Straight Power 10 mit 500 W. An der Steckdose hab ich nie mehr als 450 Watt primär gemessen. Ich hab mittlerweile ein 750er E12 bereitliegen und bin ganz entspannt, dass das für jede Mainstream-GPU reichen wird. Zumal Netzteile ja im Gegensatz zu 2015 (als ich es kaufte) so gebaut sind, dass sie erhebliche kurze Lastspitzen deutlich über der angegebenen Sekundärleistung aushalten müssen.Cinquedea schrieb:Frage mich welche Wattklasse man bei einer 5700X + RTX 5070 Ti wählen sollte (ATX 3.1 & Highend-Netzteil versteht sich).
Ich schwanke zwischen 750W und 850W.
ASUS selber hat doch hier gar nichts offiziell verraten, sondern die Infos basieren auf einem Leak. Daher ist gar nicht bekannt, ob es "Astral" nur bei der 5080 geben wird oder auch bei den anderen Modell und damit sind auch keine verlässlichen Rückschlüsse auf die Vorstellungen von Nvidia auf der CES möglich.DJMadMax schrieb:Die Tatsache, dass ASUS drei Markennamen für die RTX5080 verrät, jedoch keinen für die 5090, lässt ja durchaus erahnen, welche Serie zur CES vorgestellt wird und welche wohl erst später folgt.
Der Endkunde denkt immer, um ihn würde sich die Welt drehen. Spoiler: Tut es nicht. Gilt für Intel, für Nvidia und natürlich AMD. Man produziert, was sich verkauft und wo es Marge gibt. Im Zweifelsfall macht man lieber APUs für die PS5 Pro und für Valve und Konsorten. Andere Kunden sind AMD deutlich wichtiger, weil es da mehr Geld zu holen gibt. Trotz der Preise ist Gaming quasi nur eine Fußnote in der Nvidia-Bilanz und auch Intel macht Grakas nicht Gamern zu liebe. Ist so wie es ist, nicht, wie es sein sollte.NguyenV3 schrieb:Ich denke, es war aber klar, dass der Ursprungspost aus der Sicht des einfachen Kunden geschrieben wurde.
Ich auch nicht, aber man sollte immer mal bedenken das man selbst so ne geöffnete Karte bekommen könnte/kann.riOrizOr schrieb:@NorwegianViking Ich glaube Amazon und Mindfactory Service Level Gold nehmen die zurück. Zumindest habe ich das so mitbekommen. Selber noch nie gemacht 😁
Deswegen kommt bei mir seit Jahren nur Palit ins Gehäuse, wenn ich zu Nvidia greife. ( Ausgenommen aktuell, da nur eine leih Graka bis Januar )NorwegianViking schrieb:Wobei Palit mit den Solidesten job erledigt hat
Wie kommst du darauf, das die Karte fast gleich schnell werden wird? Alleine durch den Takt und den RT-Kernen sollte die sich spürbar absetzen können.Lumi25 schrieb:Das Problem der RX 9070 ist, dass es anscheinend keine signifikante Verbesserung gibt. Es ist einfach nur ein Update der RX 7800 XT. Niedriger Stromverbrauch (anscheinend) Fehlanzeige. Wo sind also die Verbesserungen zur fast gleichschnellen RX 7800 XT? [...]