Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

kisser schrieb:
... bei wievielen Produkten interessiert dich denn die Marktposition des Herstellers? Informierst du dich vor dem Einkauf im Aldi welche Hersteller von Dosensuppen welchen Marktanteil haben und ob du den kleineren Marktteilnehmer durch den Kauf seines Produktes unterstützen sollst? ;). Es gibt Tausende von Produkten, da interessiert dich das kein bißchen, wetten? Und genauso geht es dem Ottonormalkunden von Computertechnik. Mein Schwiegervater hat sich letzte Woche ein Laptop gekauft. Für den ist das ein Arbeitsgerät, der weiß nicht welche Hersteller von CPU, GPU etc... es überhaupt gibt und es interessiert ihn auch nicht. Der Staat und seine Institutionen sind bei weitem nicht perfekt, aber was besseres haben wir nicht.

Du wirst staunen, aber ich kaufe bei Technik/Elektronik in der Regel auch mit Blick auf Marktgegebenheiten/Marktanteile/Mainstreamfaktor ein, so das bei mir nie vom 08/15 Marktführer Samsung Smartphones oder TVs in Erwägung kämen, solange es noch andere Marken gibt (die ich persönlich als besser/passender/sympathischer einstufe).

Das gleiche gilt bei Mainboards und Grafikkarten von ASUS, zumal ich da eine sehr schlechte Erfahrungen mit beiden (gleichzeitig) vor langer Zeit gemacht habe und in anderen Sektoren; einen m.E. überbewerteten VW etwa, würde ich mir auch nie kaufen um die Vetternwirtschaft/Korruption und überhöhten Löhne/Sozialprivilegien dort mitzufinanzieren, auch wenn VW mit den Partnermarken europäischer Marktführer (zeitweise auch Weltmarktführer) sind (waren)

Ich bin nun 'mal mit Prinzipen aufgewachsen bzw. so erzogen worden (darauf auch ein Stück weit stolz :)) und habe gelernt vorausschauend/strategisch einzukaufen und verstehe meine Kaufkraft auch als Macht/Verantwortung (des Verbrauchers) und Stimmrecht (über Güte von Produkten und Marktentwicklung, falls diese aus dem Ruder läuft).

Doch, was besseres als den Staat/Institutionen haben wir als eigenen Kompass bei Kaufentscheidungen, den gesunden Menschenverstand (insbesondere, wenn man sich darüber informieren kann) ;).

Bei Lebensmitteln gilt das übrigens - weil Du darauf erstaunlicherweise eingegangen bist - in besonderem Maße bei mir, das ich mir Gedanken mache, was ich einkaufe wegen meiner damit verbundenen beruflichen Ausbildung ... da wird PepsiCo von mir z.B. auch kategorisch boykottiert, weil die fast nur ungesunden Müll produzieren, der m.E. nicht unterstützt gehört.
 
Zuletzt bearbeitet:
kisser schrieb:
Notobooks nutzen keinen(!) DP-Standard. Es ist also Quatsch, was du da erzählst. Wie oft muss sich das eigentlich wiederholen?

Der (Ober)Lehrer wieder... :rolleyes:

Mit welchem Standard übetragen die Geräte dann das Bild von der Grafikeinheit zum Monitor? Denkst du jeder Barebonehersteller kocht da sein eigenes Süppchen und die Grafikchiphersteller liefern jedem Kunden entsprechend die eigens entwickelten Ausgänge?

Abgesehen davon ist Adaptive Sync nicht auf Displayport beschränkt, sondern beschreibt einen freien VESA-Standard, welcher mittlerweile auch über HDMI angeboten wird.

Aber was interessiert dich das eigentlich? Das ist ja "AMD"-Technik und deshalb für dich sowieso ein No-Go. Eigentlich sinnlos mit dir zu diskutieren. Wie oft muss sich das eigentlich wiederholen?
 
Shrimpy schrieb:
Nicht vergessen das es noch Radeon Pro und Instinct gibt. Wo liegen wohl die Entwicklungsprioritäten?;)
Natürlich da wo es mehr Kohle gibt. Der RX Treiber ist die letzte Baustelle, er ist wohl auch der aufwendigste ... gilt zum erheblichen Teil für Vega selber, AMD will ihn hauptsächlich mit Epyc in Racks sehen, verständlich ... da schlägt sich das Bundle sehr gut für die kosten und verbrauch. Vega ist in seinem wichtigsten Einsatzzweck wohl keine Fehlentwicklung. Aber halt nicht so der Bringer in Gaming, erst recht nicht mit Holz-DX11. In wie weit die Architektur Leistung bringt beim richtigen Support werden wir bei Wolfenstein 2 sehen...hoffe bis dahin ist der Treiber besser. Fertig sicher nicht.:rolleyes:

Ganz klar, das haben die Präsentationen von AMD/RTG dieses Jahr untermauert, wo die Gaming GPUs eher eine kleine Nebenrolle (sehr wenig Zeit zur Vorstellung) hatten im Vergleich zu den Pro und Instinct GPUs.

Das denke ich auch, Wolfenstein II und Far Cry 5 sollen wohl beide einige Architektur-Features von RX Vega nutzen (wenn wohl nicht maximal ausreizen, aber das kann wohl auch keiner verlangen bei der Vorlaufzeit, denn da waren beide Spiele schon lange in Entwicklung, bevor es überhaupt einen RX Vega Prototypen, geschweige denn Treiber, gegeben hat), bei CoD WWII würde ich mich wohl auf eine ungewöhnlich negative Überraschung einstellen, weil dort viel nVidia Mittel hineinfließen dürften, zumal Huang schon für den Titel öffentlich (neben Destiny 2 und Project Cars 2) geworben hat.

Gut, für mich persönlich käme wohl keiner der o.g. Titel für einen Kauf in Frage - wenn Shooter dann eher noch Star Wars Battlefront II oder der neue Metro Teil oder Hunt: Showdown und weiterhin Quake Champions - aber als Indikatoren sind Wolfenstein II und Far Cry 5 sicherlich nicht verkehrt. Ein neuer Elderscrolls Teil (Skyrim Nachfolger) könnte da (für mich) auch passen, aber das wird vor 2018 wohl nichts ...
 
Zuletzt bearbeitet:
Bei den Thema Stromaufnahme... mal ehrlich so manche Signatur hier, haben einen PC der völlig OP ist für über 90% der normalen Spieler.

Für die meisten Sachen reicht eine PS 4 Pro mit Ihren 315 Watt Gesamtenergieaufnahme oder im FHD Breich die PS slim mit 165watt oder XBox One mit 120 Watt.

Stellen wir noch den Anschaffungspreis der Konsolen und Ihren Energieverbrauch im Verhältnis zu den PC. Wunder ich mich echt, das man Euch nicht als Umweltsünder (Achtung Ironie) an den Pranger stellt....... Energieverschwendung ohne Ende...aber wahrscheinlich wohnt der meiste Teil daheim bei den Eltern und muss nicht die Energiekosten bezahlen ( Um das schöne Standardargument zu nehmen).

Andere Leute lassen Ihre 65 Zoll TV Glotze als Hintergrundberieselung 12h/Tag laufen mit guten 150 - 180 Watt/h oder oder.... Wer mir nun sagt das er 35 - 40€/Jahr Stromkosten Mehraufwand, für die Vega nicht aufbringen kann, wird die kommende Stromkostenerhöhung von minium 5 - 7€ im Monat auch nicht mehr stemmen können. Danke an die Mitbürger die gerne Erdkabel haben wollen anstelle von Strommasten/trasse.

Zu den Preisen die über die UVP sind, nun die Kistenschieber möchte jetzt gerne solange es noch geht eine fette Marge herrausschlagen. Das wird der Markt spätens zum Weihnachtsgeschäft regeln. Ich persönlich kann nicht verstehen, das sich wer eine Vega (eigentlich bei jeder Grafikkarte) im Referenzdesign kauft. Wo bekannt ist das jede Customgrafikkarte besser in Leistung, leiser, kühler und co ist.

Zum Treiber der Vega, ich hab einen Verdacht das spätens mit den Launch der Xbox One X, die deaktivierten Funktionen des Vegachip via Treiber teils oder ganz aktiviert werden.

mfg
 
Zuletzt bearbeitet:
Botcruscher schrieb:
... Wunderteiber komme und erhelle die Ungläubigen mit der Leistung der noch abgeschalteten Funktionen. Amen! Fiji ist zudem ordentlich bandbreitenlimitiert. Der Durchsatz erreicht zudem bei weitem nicht die theoretischen Werte. Vega hat da das gleiche Problem. Gegen die TI sieht es bei 30% und mehr Leistung jeder. Da muss nur am unteren Ende der Sync-Range getestet werden. Am oberen Ende, wie vom AMD Marketing, ist es schlicht verarsche. Ein Test gegen GM104 wiederum zeigt nur wie abgeschlagen AMD ist. Mit 318mm² verdient sich NV dumm und dämlich. Im schlimmsten Fall lässt sich NV eben zu einer Preissenkung herab. "Absolut keinen signifikanten Unterschied" ist ja gerade AMDs Problem... bei deutlich höheren Produktionskosten und Verbrauch. Vega hat ja nicht mal beim angepeilten UVP ein (deutlich) besseres P/L.

Nicht wirklich, 10-15% mehr für alle RX Vega Karten sind durchaus noch realistisch/im Bereich des machbaren, könnte ich mir vorstellen, auch basierend auf der ordentlich optimierten Battlefield 1 Vorstellung/Leistung zum Marktstart und den bisher halbgar aktivierten oder gar nicht aktivierten Treiberfunktionen.

Wen interessieren die theoretischen Werte, in Spielen habe ich jedenfalls nicht von großen Beschwerden/Engpässen aufgrund mangelnder Fiji Speicher-Bandbreite gelesen, egal ob von Usern hier im Forum oder in irgendwelchen Testartikeln ;).

Naja, ist die Frage, beim HardOCP Blindtest war das wohl nicht der Fall, trotz des Leistungsklassenunterschieds zwischen GTX 1080Ti und RX Vega 64 ... fragt sich dann natürlich auch ob die mindestens 200 Euro Aufpreis von GTX 1080 auf (vernünftige) GTX 1080Ti (für ca. 750Euro) wirklich den Aufpreis wert sind (wenn man einen G-Sync-Monitor hat), ich persönlich denke nicht, das für mich einzige Argument pro GTX 1080Ti sind die 3 GB zusätzlicher Speicher (ab noch nicht zu dem aktuellen Aufpreis lohnend), denn für uneingeschränktes/kompromissloses 4K/UHD spielen ist die GTX 1080Ti noch viel zu schwach (da bräuchte es aktuell dann schon eine 100% skalierende Dual-SLI Kombo).

Deshalb ja, abwarten und Tee trinken bzgl. Preis-, Leistung- und Effizienz-Entwicklungen bei RX Vega...

... die GTX 1080Ti von nVidia mag bis zu Volta hin nicht ausgedient haben aber die GTX 1070 hat jetzt schon leistungsmäßig den Löffel abgegeben gegen die neue Konkurrenz (RX Vega 56) und die GTX 1080 könnte das noch zum Frühjahr 2018 (gegen die kleine RX Vega Karte) tun, wir werden sehen ...

... dass man mit einem einzigen Vega Chip nicht die Leistungsklassen von GTX 1070 bis Titan Xp OC abdecken kann, war doch klar (für Dich ist es das aber scheinbar noch immer nicht).
 
blue-water schrieb:
Achtet mal bei der getesteten Leistungsaufnahme auf die Hertz-Angabe, sie ist nämlich bei 60 Hz.
Die Redaktion ist ja nicht doof und hat wohl mittlerweile das Problem bei Nvidia bemerkt: hat man nämlich am Schreibtisch einen 144Hz Monitor angeschlossen, dann steigt der Energieverbrauch an! (wohlgemerkt bei Nvidia im Desktopbetrieb), weil die GPU sich gar nicht mehr ganz runter takten kann.

Klingt doof - ist aber so.

Wer es nicht glaubt: hier fast 60 Seiten im Nvidia-Forum: https://forums.geforce.com/default/topic/939358/geforce-1000-series/gtx-1080-flickering-issue/

Ich denke/hoffe AMD hat so einen Bug nicht...

AMD hatte über Jahre hinweg einen irre hohen Stromverbrauch im Multi Monitor Betrieb, weil sich der RAM nicht runtergetaktet hat. Haben sie dann aber mit Fiji bzw Polaris behoben, und wird bei Vega denk ich auch so sein.

Gehört aber getestet! Aus irgendeinem Grund hat CB das bei Vega vernachlässigt :mad:
 
latexdoll schrieb:
Ich persönlich kann nicht verstehen, das sich wer eine Vega (eigentlich bei jeder Grafikkarte) im Referenzdesign kauft. Wo bekannt ist das jede Customgrafikkarte besser in Leistung, leiser, kühler und co ist.

kompatibilität. bei meinen letzten grafikkarten habe ich den kühler getauscht, zum einen aus spaß an der freude und zum anderen um eine karte auch unter last leise zu kriegen. da hat man mit den referenzmodellen einfach die größte auswahl.
 
Hi, ich wollte nur kurz danke sagen, für die freundlichen Reaktionen auf meinen ersten Beitrag!
Ich hatte mit anderen Kommentaren gerechnet.
Danke an Chismon und alle anderen die reagiert haben, freundlich waren nämlich alle ;)

Grüße Lamaan
 
rg88 schrieb:
Abgesehen davon ist Adaptive Sync nicht auf Displayport beschränkt, sondern beschreibt einen freien VESA-Standard, welcher mittlerweile auch über HDMI angeboten wird.
Schreib doch besser nichts, wenn du keine Ahnung hast. Kann doch nicht so schwer sein, mal die Finger still zu halten. HDMI ist kein VESA-Standard und Async über HDMI ist AMD-proprietär! Wie ist nochmal deine Einstellung zu proprietären Schnittstellen?
 
sidewinderpeter schrieb:
Das stimmt wohl, ATI hatte nämlich oft die Nase vorn. Wohlgemerkt ATI! Allerdings hatte ich damals schon befürchtet, als AMD die übernommen hat, dass das keine gute Idee ist(und ich bin mir sicher, dass die XT1900XT, die der letzte echte Hammer zu seiner Zeit war, noch unter ATI entwickelt wurde). Ich hab mir heut mal eine Bildstrecke angesehen(leider finde ich den Link grad nicht - liefere ich noch nach!), wie oft sie eigentlich vorn waren....

Betreiben wir hier mal keine Geschichtsklitterung ;)
Die HD2000er Serie, also der R600 Chip war noch eine ATI-Entwicklung und wurde zusammen mit ATI eingekauft.
ATI wusste, was für einen Rohrkrepierer (die Einstieg- und Mittelklasse ging, aber Highend aka 2900 war der größte Flop der ATI-Geschichte) sie da haben und nur deshalb konnte AMD ATI überhaupt kaufen. Der Kaufpreis war zu dem deutlich zu hoch. Das ist aber eine Fehler von AMD-Seite bzw. Hector Ruiz gewesen, der damit endgültig und endlich seinen Posten räumen musste, wenn auch erst Jahre später (viel zu spät).

Erst mit dem dann von AMD initierten Shrink aka R670 konnte man wieder eine akzeptable Leistungsaufnahme vorweisen, war aber leistungstechnisch hinten, weil eben nur ein Shrink der eh nicht berauschenden R600.
Erst mit der HD4000er und dann richtig mit der HD5000er Serie konnte AMD/ATI wieder Anschluss finden. Ob ATI diese Jahre alleine überlebt hätte mag ich mal zu bezweifeln.
 
Zuletzt bearbeitet: (typo(s))
latexdoll schrieb:
Zum Treiber der Vega, ich hab einen Verdacht das spätens mit den Launch der Xbox One X, die deaktivierten Funktionen des Vegachip via Treiber teils oder ganz aktiviert werden.

Hieße ja im Umkehrschluss, das AMD absichtlich die Karte mit angezogener Handbremse verkaufen würde, kann ich mir eigentlich nicht vorstellen, damit würde sich AMD selbst ein Bein stellen, denn daß würde gar nicht gut ankommen bei ihrer Kundschaft.
 
@Blueline56

Mein Gedanke ist das MS und Sony, die Hauptkunden von AMDs APUs sind.Aber ich habe mich vertan, ich ging davon aus das die APUs schon Vega Shader haben.

https://en.wikipedia.org/wiki/Xbox_One#Hardware_comparison

Es sind doch nur Polaris Shader, daher ich meine Vermutung mit den Launch der XBox One X hinfällig mit der Voll/teilaktivierung des Vegachips via Treiber.

https://en.wikipedia.org/wiki/AMD_Radeon_500_series

Aber ich frage mich jetzt was das für ein Chip ist. Polaris 10 aka RX 480/580 hat nur 2304 Shaders, aber die XBox One X hat 2560 aktiv von 2816.
Auch die Speicherbandbreite ist unterschiedlich 326Gb/s und 384Bit (XBox One x) zu 256 Gb/s und 256Bit (Rx480/580).

Weiss darüber wem etwas mehr ?


mfg
 
Zuletzt bearbeitet:
kisser schrieb:
Schreib doch besser nichts, wenn du keine Ahnung hast. Kann doch nicht so schwer sein, mal die Finger still zu halten. HDMI ist kein VESA-Standard und Async über HDMI ist AMD-proprietär! Wie ist nochmal deine Einstellung zu proprietären Schnittstellen?

Wenn du das nur selbst befolgen würdest... :rolleyes:

Lesekompetenz und so, gell...

Ich sagte, dass der Adaptive Sync ein freier VESA-Standard ist und diese Technik auch für HDMI verfügbar ist. Was ist daran so schwer zu verstehen?
FreeSync ist ein offener Standard und AMD hat eben nicht abgewartet bis er in einer der nächsten Versionen IRGENDWANN von HDMI spezifiziert wird, bevor es freigeschaltet wird. War bei Adaptive Sync exakt das selbe. Erst hat AMD Freesync entwickelt und dann wurde dies als VESA-Standard übernomen.
Also nochmal für dich: Freesync war zuerst -> daraus wurde der Adaptive Sync Standard abgeleitet.

Auch FreeSync über HDMI ist ohne Lizenzgebühren nutzbar und es ist bloß eine Frage der Zeit, wann es in die nächste HDMI-Iteration aufgenommen wird. Mehr kann man nicht machen, als eine Technik zu entwickeln und kostenfrei anzubieten. Der Rest, also eine Standardisierung durch ein Konsortium ist nicht Aufgabe von AMD, man kann diese nur einreichen und abwarten.


In AMD-Sprech:
AMD fully supports the addition of standardized
variable refresh rate to future HDMI® specs, but we
couldn’t wait
Quelle: AMD Präsentation von 15.1.2016.

Also ist in über 1,5 Jahren noch nichts passiert. Keine neue HDMI-Spezifikation mit Adaptive Sync oder einer anderen Synchronisierungstechnik. Für Spielekonsolen aber durchaus künftig wünschenswert und besser über die offene Freesync-Technik realisiert, als gar nicht.

Es steht Nvidia natürlich jederzeit frei, selbst den Versuch zu machen G-Sync einzureichen. Nur wird man denen dann den Vogel zeigen und fragen, warum man einen Standard absegnen soll, der einen hunderte Euro teuren propritären Skaler braucht, wenn es ohne diesen, bzw. mit einem 5 Euro Non-Nvidia-Bauteil exakt genau so geht.
Das ist halt das blöde bei Standards: Die Definition der Technik ist offen und jeder kann es einfach selbst bauen. :freaky: Wie soll Nvidia da noch ein paar hunderter für nichts verdienen?

Aber ich weiß, dass man bei dir eh gegen eine Wand redet. Ich führe das ganze nur auf, damit andere nicht auf deinen Quark reinfallen.
 
Zuletzt bearbeitet: (Quelle ergänzt)
kisser schrieb:
HDMI ist kein VESA-Standard
Das hat er auch nicht geschrieben. Er hat vollkommen korrekt ausgesagt das Adaptive Sync ein VESA Standard ist, der durch AMD auch mit einem HDMI Anschluss funktioniert.
Er hat nie behauptet das HDMI ein VESa Standard sei.

und Async über HDMI ist AMD-proprietär! Wie ist nochmal deine Einstellung zu proprietären Schnittstellen?
HDMI 2.1 schon mal gehört? Game Mode VRR schon mal gehört? Kommt voraussichtlich Q3/17.

Nutzt das selbe Funktionsprinzip wie Displayport Adaptive Sync.
Auch hier hat AMD - zusammen mit Realtek -gearbeitet und ihre HDMI 1.4 Erweiterung offiziell in die Spezifikationen von HDMI 2.1 weiterfließen lassen. Game Mode VRR kann sowohl an PC Monitoren als auch Fernsehern genutzt werden.
Ein riesen Schritt nach vorne bzgl des Hz "Durcheinander" und herumgerechne.

Außer Lizenzkosten für HDMI, die eh anfallen, ist da nichts proprietär und steht jedem Lizenznehmer offen es zu nutzen ohne weitere Lizenzkosten zB an AMD oder Realtek.
Oder willst du uns jetzt, wieder einmal, erzählen es sei proprietär, nur weil nvidia vermutlich auch bei HDMI dies nicht unterstützen wird/will trotz Spezifikation.

@rg88
Ja, ich weiß doch. Aber wer nicht müde wird zu erwähnen er sei Lehrer und seine Schüler seien wie wir, und er halte sie an Dinge sich selber anzueignen etc, den muss man eben genauso widerlegen.
 
rg88 schrieb:
Erst mit dem dann von AMD initierten Shrink aka R670 konnte man wieder eine akzeptable Leistungsaufnahme vorweisen, war aber leistungstechnisch hinten, weil eben nur ein Shrink der eh nicht berauschenden R600.

Ähm, damals auch nur weil in 1280x1024 gebencht wurde. In 1080p war dann die HD3870 im Mittel gleichauf zur 8800GT, die 2900XT war da schon weitaus schneller. Hier mal Crysis, da sieht man es sehr schön, obwohl CB damals wieder nur DX9 32bit testete, was eigentlich pro NVIDIA war:
crysis.PNG
oder Oblivion, das zeigte damals auch, wohin die Reise gehen wird:
oblivion.PNG
Quelle: CB
Und mit dem in DX11 integrierten DX10.1 Fallback, konnte man die HD3870 mit 1GB Reihe noch viel länger verwenden, während die 88er wenig später durch wenig RAM und RAM-Bug erst total abkackte und dann DX11 gar nicht mehr konnte.

edit:
Aktuell erkenne ich viele Parallelen zu früher, Die 88 GTX Ultra ist die 1080Ti, Vega ist äquivalent zur HD3870... history repeating...
 
Zuletzt bearbeitet:
rg88 schrieb:
Betreiben wir hier mal keine Geschichtsklitterung ;)
Die HD2000er Serie, also der R600 Chip war noch eine ATI-Entwicklung und wurde zusammen mit ATI eingekauft.
ATI wusste, was für einen Rohrkrepierer (die Einstieg- und Mittelklasse ging, aber Highend aka 2900 war der größte Flop der ATI-Geschichte) sie da haben und nur deshalb konnte AMD ATI überhaupt kaufen. Der Kaufpreis war zu dem deutlich zu hoch. Das ist aber eine Fehler von AMD-Seite bzw. Hector Ruiz gewesen, der damit endgültig und endlich seinen Posten räumen musste, wenn auch erst Jahre später (viel zu spät).

Erst mit dem dann von AMD initierten Shrink aka R670 konnte man wieder eine akzeptable Leistungsaufnahme vorweisen, war aber leistungstechnisch hinten, weil eben nur ein Shrink der eh nicht berauschenden R600.
Erst mit der HD4000er und dann richtig mit der HD5000er Serie konnte AMD/ATI wieder Anschluss finden. Ob ATI diese Jahre alleine überlebt hätte mag ich mal zu bezweifeln.

Ich betreibe keine "Klitterung", schlicht, weil ich nicht weiß, was es sein soll :) Zugegeben, mir ist tatsächlich eine folgenschwere Fehlerinnerung passiert: Rage Pro(1999) war zwar gut, aber ich glaube tatsächlich, mich zu erinnern, dass ich mich damals für den Riva TNT entschieden hatte und damit sehr glücklich war...erst als die anfingen, so energiehungriges, üerteuertes Zeug(ok, performant schon, ja) zu bauen und dann auch noch mit der schlechten Erfahrung mit der 6800, hab ich mich von NVIDIA vollends abgewandt.

Naja, wie auch immer, ich bin noch folgendes schuldig geblieben: http://www.tomshardware.com/picturestory/735-history-of-amd-graphics.html

Ansonsten kann ich nur sagen, dass ich vor Allem mit meinen ATI-Karten bisher immer recht zufrieden war. z.B. meine X850XT All in Wonder in einem Uralt-Rechner liefert heute noch deutlich bessere Ergebnisse, als die Kombi Hauppauge 1100/HD 6850/Q9550(auch schon in die Jahre gekommen, aber zum Surfen und für Office reichts noch), zumindest was analaog TV betrifft...

Ich hatte dann eben die HD 3850 und später die HD 6850; grade von letzerer(Sapphire) bin ich wahnsinnig überzeugt: gute Performance, wenig Stromverbrauch, unhörbar, seit quasi 10 Jahren im Dauergebrauch. Glaub ich damals für 140 Euro geholt. Wo kann man heute noch für 140 Euro ne gute Grafik bekommen(und zum Thema "nicht gut": ich hab ja kürzlich den Test gegen die GTX 480 machen können und die nur wenige Monate später erschienene 6850, also "Mittelklasse", sind in WoW bei vollen Details gleichauf und von PhysX hab ich auch nix gespürt...Lärm hat die GTX 480 allerdings Höllischen gemacht - daher stelle ich mir rückblickend wirklich die Frage, was man von den Testern da seit Jahren immer so angeschwätzt bekommt, immerhin ist die 6850 nur 6 Monate später erschienen, ist, wie ich jetzt praktisch herausgefunden habe, genausogut, hat nur ein Viertel gekostet und hat mir neben sicherlich vieler kW/h auch noch Nerven, wegen praktischer Unhörbarkeit auch unter Vollast gespart...)? Klar ist meine R9 280X(ebenfalls von Sapphire) schneller, aber auch deutlich lauter und braucht natürlich auch viel mehr Strom.

Ich sage nur: meine Hoffnung auf meiner Suche zur Wachablösung meiner 280X, Vega, hat sich nach diesen ersten Berichten zerschlagen. Und das nehme ich AMD "persönlich"! Trotzdem wird wohl ein Selbsttest nötig werden, da ich, wie gesagt, nach der Erfahrung mit der GTX 480, schön langsam die Testergebnisse schwer in Zweifel ziehe.
 
Zuletzt bearbeitet:
Chismon schrieb:
Du wirst staunen, aber ich kaufe bei Technik/Elektronik in der Regel auch mit Blick auf Marktgegebenheiten/Marktanteile/Mainstreamfaktor ein, so das bei mir nie vom 08/15 Marktführer Samsung Smartphones oder TVs in Erwägung kämen, solange es noch andere Marken gibt (die ich persönlich als besser/passender/sympathischer einstufe).

Das ist zwar löblich, aber man kann das nicht von der Masse an Verbrauchern erwarten. Und Sympathie spielt da fast keine Rolle, die Leute kaufen, was zu ihren Bedürfnissen am besten passt. Ich bin zwar auch Fan von AMD-CPUs, aber würde mir nur aus diesem Grund kaufen.
Ergänzung ()

rg88 schrieb:
Auch FreeSync über HDMI ist ohne Lizenzgebühren nutzbar

Lol, HDMI = Lizenzgebüren, nix frei. Besser du schreibst hier nichts mehr, Argumente hast du sowieso keine, weshalb du auch immer persönlich beleidigend wirst. Ganz schwach!
Ergänzung ()

Volkimann schrieb:
Das hat er auch nicht geschrieben. .

Doch hat er:

"...einen freien VESA-Standard, welcher mittlerweile auch über HDMI angeboten wird."
 
"über HDMI angeboten" ≠ "HDMI ist ein VESA Standard".

Anstatt hier also eher Wortklauberei zu betreiben, und über Lizenzgebühren für HDMI zu fabulieren - die für den Anschluss fällig sind, und nicht für die Adaptive Sync Funktion als solche - solltest du dir lieber nicht versuchen dich mit solchen Strohhalmen herumzuhangeln und Behauptungen und Sätze zu verdrehen.

Wie ich bereits schrieb: Adaptive Sync kann man ohne zusätzliche Kosten über HDMI nutzen. Das einzige ist die ohnehin fällige Lizenzgebühr für HDMI, die so oder so anfällt.

Als nächstes kommt wohl noch das ja Adaptive Sync über Displayport usw wohl auch nicht kostenlos zu nutzen sind, weil die VESA Mitglieder auch eine Jahresgebühr bezahlen müssen, statt pro Anschluss. :rolleyes:

Es wird grotesk wie du versuchst dich zu winden.
 
sidewinderpeter schrieb:
Ich sage nur: meine Hoffnung auf meiner Suche zur Wachablösung meiner 280X, Vega, hat sich nach diesen ersten Berichten zerschlagen. Und das nehme ich AMD "persönlich"! Trotzdem wird wohl ein Selbsttest nötig werden, da ich, wie gesagt, nach der Erfahrung mit der GTX 480, schön langsam die Testergebnisse schwer in Zweifel ziehe.
Mein Bruder hat sich ne Vega im Referenzdesign für 650€ gekauft, und ist sehr positiv überrascht. Er war zwar auch wegen den höheren Preisen enttäuscht, aber wir sind beide überzeugt, dass die Karten in absehbarer Zeit nicht billiger werden. Nur zur Info: er hatte eine RX480, die das flashen zur RX580 nicht überlebt hat, und hat sich dann eine weisse 1060er gekauft, ich glaube von ASUS. Und die hat er seit vorgestern durch eine Referenz 64er ersetzt und ist jetzt schon sehr zufrieden mit Vega...


kisser schrieb:
Das ist zwar löblich, aber man kann das nicht von der Masse an Verbrauchern erwarten. Und Sympathie spielt da fast keine Rolle, die Leute kaufen, was zu ihren Bedürfnissen am besten passt. Ich bin zwar auch Fan von AMD-CPUs, aber würde mir nur aus diesem Grund kaufen.
Papperlapapp, du bist Fanboy und magst AMD nicht. Das ist ja soweit OK. was aber nicht ok ist, ist ständig irgendwelche Behauptungen zur Diskreditierung von AMD Produkten zu posten, zumal die nicht ansatzweise der Wahrheit entsprechen.
 
Zurück
Oben