Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

3-way schrieb:
Ich danke für Computerbase für diesen ehrlichen Titel, der mich meinen Glauben an investigative journalistische Arbeit nicht verlieren lässt. Marketing-Reviews gibt es zuhauf.
Böse Stimmen der anderen Seite würden jetzt sagen NVIDIA hätts gesponsert.
 
  • Gefällt mir
Reaktionen: LyGhT
Wer seine Grafikkarte out of the box nutzen und nicht optimieren möchte [oder kann], der macht besser einen großen Bogen um die Radeon VII [und kauft in der Regel eh keine Grafikkarte für 750,— Euro.]

Ohne jede Optimierung wäre mir sowohl die Kühllösung zu laut und die Effizienz nicht hoch genug um von einer richtig guten Custome Lösung wie der Nitro+ umzusteigen.

Für Leute die sich [tiefergehend] mit UV und OC auseinandersetzen, eine sehr interessante Grafikkarte mit Potenzial.

Natürlich zielt die Radeon VII damit auf eine kleine Käuferschicht, aber das tun alle GPUs in dem Preisbereich.

Warten wir mal ab wie sich der Preis und die mögliche Verfügbarkeit von Custome Modellen entwickelt.
 
  • Gefällt mir
Reaktionen: Excel, Krautmaster, Sun-Berg und 4 andere
Mustis schrieb:
Ich finde das eher bedenklich und frage mich, warum AMD so einen gewaltigen Puffer einbaut.

Bist du neu im Thema Hardware?
Ist bei AMD die Regel, schon die alten Bulldozer waren mit UV ziemlich brauchbar... der VCore wird und wurde bei AMD immer recht hoch angesetzt, damit selbst schlechte Samples noch absolut im grünen Bereich unterwegs sind. Habe mich da schon vor 10 Jahren gewundert was bei AMD immer manuell herausholbar ist, speziell als bastler merkt man das sofort...



Lord Horu$ schrieb:
Ich mein...ich wusste, dass das ein Fail wird, aber...meine Güte...das ist keine gute Karte!

Sorry...ich mein ja Undervolting, aber wer macht das?

Wer hat da Lust zu?


Außerdem ist meine 1080Ti rundum die bessere Karte imo!

Die gabs gegen Lebensende ungefähr für den gleichen Preis. Natürlich: sie ist JETZT nicht mehr wirklich verfügbar, aber selbst die RTX 2080 ist besser im P/L!


Sorry AMD! Setzen 6! Das ist nicht akzeptabel!

Ihr schafft es nichtmal das KLEINE High-End Modell von Nvidia im Zaum zu halten! 16GB HBM2 hin, oder her!

Was ist denn das bitte für ein Beitrag?
Liest sich echt als ob du mega Fanboy bist oder eben noch sehr jung....
Im Grunde schreibst du blablablaba... meine 1080 ist toll und bin froh das die Konkurrenz nix besseres am Start hat...
Wenn du wenigstens technisches Verständnis hättest und damit die Hintergründe kennen würdest, dann würde dir auffallen wie peinlich solche Kommentare sind^^


Marcel55 schrieb:
Die Karte hat ja eine brachiale Rohleistung, die muss sie nur noch auf die Straße bringen.


Ich würde Wetten abschließen, in 3-4 Jahren noch mal testen mit aktuellen Games, die Karte wird die 2080 überholt haben und mindestens gleichauf mit der 2080ti sein, zu verdanken dem großen VRAM und der Leistungsfähigkeit.


Der Kühler ist leider nicht so toll, aber mit einem gescheiten Kühler und für einen angenehmeren Preis würde ich sie kaufen. Mit UV ist die Karte auf jeden Fall empfehlenswert.

Den Post kann ich so unterschreiben und hätte ich auch so geschrieben, letztlich ist das die letzten Gens immer so gewesen das AMD auf lange Sicht gesehen stark aufholt. Würde der Preis und die Kühlung passen, wäre das eine gute Grafikkarte für die nächsten Jahre, zumindest mehr als vergleichbare Nvidia. Und das nicht nur wegen dem Speicher, insgesamt ist die Karte technisch in einigen Punkten wieder mal State of the Art. Leider bekommt man die Rohleistung bei Games nicht auf die Kette, dafür eben beim Mining.

t3chn0 schrieb:
Da hatte die Lederjacke absolut recht. Go AMD....


Nvidia ist schon echt unverschämt!11!11 Lachhaft was AMD da auf die Beine gestellt hat. Performance zwischen 2070 und 2080, dafür aber deutlich teurer, verbraucht mehr Strom und ist um WELTEN lauter. Das ist ja fast unerträglich.


Böses, böses RTX....wie un-innovativ und unnötig. Lieber eine 16GB Karte die kaum jemand nutzen kann. Ich hoffe, dass die AMD-Lemminge jetzt auch ordentlich diesen Technologieträger kaufen, denn die Lederjacke ist ja zu böse und korrupt =D.


Kompletter Fail...

Auch eher noch sehr jung?
Warte mal 2-3 Jahre und schau dann was du mit den genauso teuren oder gar teureren Nvidia Karten noch anfangen kannst und da rede ich nicht nur vom Speicher. Die Dinger sind von den Treibern her auf aktuelle Games optimiert, aber das bleibt ja nie so. Man muss eigentlich immer nur schauen wo die letzten 2-3 Gens bei Nvidia heute stehen und wie die AMD nach ein paar Jahren performen... würde selbst jetzt jedem preisbewussten Käufer noch eine 580 für 180 Euro empfehlen...
Btw ich finde immer lustig wie man etwas als Müll oder Fail bezeichnet, wo es irgendwie um 10% in Benchmarks geht, in dem Fall ist der Parcour sogar noch sehr Nvidia lastig und die AMD Karten sind halt Profi Karten die man eben auch als Gaming verkauft, da liegt eher der Fehler und in diversen anderen Punkten, aber wenn man Hintergründe kennt sind solche Postings immer umso peinlicher xD


Bob1337 schrieb:
Wenn AMD in ein paar Monaten gute Treiber auf den Markt bringt, sieht die Sache doch eh wieder anders aus ;-).

Problem ist halt das man auch über den Ruf und eben solche Tests Hardware verkauft und nur sehr wenige schauen Monate später auf die gleiche Hardware, cb erst Recht nicht und daher macht man denen hier auch immer solche Vorwürfe, die Fanboys im Forum geben dem ganzen dann noch den Rest, die finden dann immer ihre jeweilige 800 Euro Karte gerechtfertig und freuen sich (vermeintlich) einen Ast ab...
Dein Posting wird aber wohl wieder zutreffen, jedenfalls war das die letzten Jahre fast immer so und von der Rohleistung ist AMD ziemlich gut.

ralf1848 schrieb:
Da gefällt aber jemandem die nackte Wahrheit nicht ! Ätsch ! Jetzt ist die AMD Karte leider doch nicht so geil.

Sagte der Typ mit seiner 2080 in der Signatur... bei aller Liebe, habe mir bis dahin mal alle Postings durchgelesen und Hate kommt fast nur von 1080 oder 2080 Besitzern, obwohl die sich was die Grakkas angeht mal an die eigene Nase packen müssten.... wäre mir nämlich peinlich so etwas zu besitzen.


Nolle schrieb:
Gab es solche Tests auch schon von Intel oder nvidia, in welchen bereits der Titel das Produkt mit wenigen Worten so zerreist? Ich bin wahrlich kein Fanboy. Aber solche transparenten Kritiken wünsche ich mir auch mal bei den anderen. Wenn die Hardware wirklich nix taugt.

Genau das habe ich mich halt auch gefragt... bei Intel und Nvidia wird man das hier wohl nie lesen... warum wohl...


Postman schrieb:
Verdammt AMD, warum bekommt ihr selbst nach über einem Jahrzehnt nicht mal eine ordentliche Grafikkarte zustande? Ich würde gerne mal wieder rot sehen.

Ich finde du belügst dich da selber und leider damit noch andere hier im Forum. Ich habe deine Beiträge mal quer gelesen und da ist immer eine Abneigung gegenüber AMD raus zu lesen, das hat wenig mit Kritik zu tun, ist eher ein schlecht machen und daher kauft man dir sicherlich nicht ab, dass du AMD kaufen würdest. Du gehörst ziemlich sicher zu der Sorte die Nvidia noch kaufen würde, selbst wenn AMD vorne wäre, spätestens wenn Nvidia dann die Preise reduziert... ist immer so und kenne solche wie dich zur Genüge, btw hf mit deiner 2080... ^^
 
  • Gefällt mir
Reaktionen: s0UL1, autofahrer50 und Bob1337
deady1000 schrieb:
Eben 16GB stehen drauf und bringen letztendlich auch nicht mehr FPS.
Also bringt für den Moment einfach null Vorteil.

Bezüglich zukunftssicherheit:
Man muss eh früher wieder upgraden, weil die Karte ansich langsamer als eine RTX2080 ist. Der Speicher läuft vielleicht nicht so früh voll, aber wenn die Performance schon vorher 5-20% langsamer war ist es auch egal.

Und bezüglich OC und UV...
Ihr werdet mir nicht glauben, aber das kann man mit NVIDIA-Karten auch machen...

Was? Nein? Ehrlich? Darf er das?

Wenn die Karte statt HBM2 einfach GDDR bekommen hätte, würde die vlt 550€ kosten und hätte ihre Berechtigung. So ist das Teil in meinen Augen ein Stück Hardwareschrott und Umweltverschmutzung.
 
  • Gefällt mir
Reaktionen: Luzifer71
Kraudi2k schrieb:
Wenn die Karte statt HBM2 einfach GDDR bekommen hätte, würde die vlt 550€ kosten und hätte ihre Berechtigung.
Bis hier stimme ich zu.
Der Rest ist etwas zu hart.
 
  • Gefällt mir
Reaktionen: Zanmatou
textract schrieb:
@Wolfgang Warum befinden sich in eure Liste der E-Sports Titel eigentlich keine Titel, die auch tatsächlich jemanden interessieren?
LoL, Dota 2, CS zum Beispiel.
woher willst du wissen dass die aktuellen Spiele niemanderen interessieren?
lol, dota 2, cs die Spiele kann man schon auf einem Taschenrechner spielen..... highendkarten braucht man damit nicht testen.
 
  • Gefällt mir
Reaktionen: deady1000
Kraudi2k schrieb:
Wenn die Karte statt HBM2 einfach GDDR bekommen hätte, würde die vlt 550€ kosten und hätte ihre Berechtigung. So ist das Teil in meinen Augen ein Stück Hardwareschrott und Umweltverschmutzung.

Was weiterhin nicht funktioniert, wenn man aber ein bearbeitetes Naturprodukt möglichst weit von den Füssen entfernt am Körper anbringt glaubt man halt dass man einfach HBM gegen GDDR tauschen kann...

Dafür muss man nämlich den Chip "geringfügig" ändern etc. pp.
 
Artikel-Update: Auf Wunsch der Leser hat ComputerBase die Testreihe 8 GB vs. 16 GB in Spielen zusätzlich auf einer Radeon RX Vega 64 mit aktiviertem HBCC durchgeführt. In speicherlimitierten Szenarien bringt der HBCC eine mess- und spürbare Verbesserung. Allerdings gibt es auch Probleme, die ohne das Feature nicht auftreten. Der HBCC ist damit kein Ersatz für einen größeren Speicher, kann aber etwas Abhilfe schaffen.
 
  • Gefällt mir
Reaktionen: Wadenbeisser, SVΞN, yummycandy und 6 andere
Grestorn schrieb:
HW-accelerated. Das läuft nur auf NVidia. Auf anderen Systemen sind die Effekte nicht zu sehen.
Baal Netbeck schrieb:
Ist aber falsch....Beispiele die ich selbst besitze....
Grestorn schrieb:
Nein, ist es nicht. Du schreibst ja selbst, dass es zwei "Arten" von PhysX Unterstützung gibt.
Wo ist deine ursprüngliche Aussage nicht falsch? "Auf anderen Systemen sind die Effekte nicht zu sehen."
Und ich zeige Beispiele, dass man auch ohne Nvidia GPU die Effekte sehen konnte!
Egal ob meine beiden Beispiele für die HW Beschleunigung(Mafia 2 und Mirrors Edge), oder mein drittes Beispiel The Witcher 3, wo ich mir nicht sicher bin was da physX sein soll....Es fehlen keine Effekte!
Auch "Das läuft nur auf Nvidia" ist falsch, da es auch als CPU Fallback läuft.....Es läuft dann nicht gut, aber so mancher Konsolen Spieler würde es vermutlich als spielbar bezeichnen.

Grestorn schrieb:
Unten zum dritten Mal die Liste der Spiele, die tatsächlich Hardware-Beschnleunigte PhysX Effekte nutzen. Da ist W3 nicht dabei, aber eben Dein Mafia II.

Und es ging, nur nochmal zur Erinnerung, darum dass @MK one behauptet hat, Gameworks Spiele (oder gar alle Spiele) würde nur wegen PhysX besser auf NVidia laufen - das ist und bleibt absolut und zweifellos eine falsche Behauptung (wie so viele hier):

https://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support
Was soll immer diese komische Wiki Liste? Die beweist doch gar nichts außer dass es über die Jahre eine Reihe Spiele mit HW acceleration gab.

"Und es ging, nur nochmal zur Erinnerung, darum dass @MK one behauptet hat, Gameworks Spiele (oder gar alle Spiele) würde nur wegen PhysX besser auf NVidia laufen"
So pauschal kann man das natürlich nicht sagen, aber es ist über die Jahre klar geworden, dass Nvidia ihre Grafikeffekte dazu nutzt, AMD schlecht aussehen zu lassen, während AMD sich auf offene Standards stützt oder bei Eigenentwicklungen wie TressFX, darauf achtet, dass es auch auf Nvidia Hardware gut läuft.

Das physX mit HW Beschleunigung nicht für AMD GPUs freigegeben ist, hat keine technischen Gründe....man hatte die Möglichkeit den Konkurrenten schlecht darstehen zu lassen und hat es gemacht...das wurde aber auch negativ aufgenommen.
Und blöd, dass in den meisten Spiele-Tests diese Effekte dann ausgeschaltet wurden, um es fair zu machen....und sie auch auf Nvidia GPUs oft viel Leistung gekostet haben.

Was genau zu Gameworks zählt, und was unter anderem Namen an Effekten von Nvidia in die Spiele mit einfließt ist Wortklauberei.....Es gab genug Beispiele, wo Nvidia seine Effekte so ausgelegt hat, dass es auf AMD GPUs läuft aber mehr Leistung kostet und das hat sich für sie als deutlich erfolgreicher heraus gestellt.

Die offene "nicht Unterstützung" von physX hat ausgedient.
Die versteckte Einflussnahme über das einbauen von unsinnig viel Tessellations-Last hat auch ausgedient...war aber weit verbreitet.
Beispiele wie Crysis 2 mit Tessellation im Wasser, das auch unter der Erde berechnet wurde und Betonabsprerrungen, wo glatte Flächen trotzdem aus tausenden Polygonen zusammentesselliert wurden, waren zwar die Ausnahme, aber auch The Witcher 3 ist nicht sauber, weil mit Hairworks ein unsinnig hoher Tessellationsgrad verwendet wurde, der keinen optischen Vorteil gebracht hat, aber auf den damals noch Tessellationsschwächeren AMD GPUs mehr Leistung gekostet hat als bei Nvidia.

Mit Vega hat AMD bei der Tessellation aufgeschlossen und blockiert über den Treiber zu extreme Tessellationslevel, weshalb dieses Vorgehen sich für nvidia auch nicht mehr lohnt.

FFXV hat nochmal über Hairworks und den anderen Nvidia Krams AMD torpediert und versucht über den Benchmark zu betrügen indem dauerhaft(und außerhalb der Sichtweite) extrem viel Hairworks berechnet wurde.......war natürlich ein Versehen. ;)

Und das sind ja nur ein Teil der Sachen, die ans Licht gekommen sind.....

Natürlich laufen nicht "alle Spiele" wegen Nvidia schlechter, aber Nvidia hat einfach eine lange Tradition, sich als Hilfe bei der Spieleentwicklung anzubieten und dann zufällig kreative Wege zu finden um im direkten Vergleich mit ATI/AMD besser dar zu stehen.

Es ist auch ihr gutes Recht...sie verletzen ja keine Gesetze......nur sollte man sie auch deswegen in Foren anprangern dürfen.
Das DX12 so stark klein gehalten wurde und Gameworks Titel dieses fast nie und wenn dann tendenziell schlecht geboten haben, war auch weil AMD in DX9-11 fast immer so schön ins single core CPU limit läuft.
Vulkan/mantel waren Randerscheinungen, die aber eigentlich immer die bessere Alternative waren, da man hier fast immer Nvidia und AMD GPUs auf Augenhöhe gesehen hat....aber besser weiter auf DX11 drängen, wo Nvidia einen Vorteil gegenüber AMD hat. :(

RT und DLSS sind mit extra Hardware beschleunigt, die Nvidia entwickelt hat, und die Nvidia auch mehr Geld in Form von größeren Chips kostet.
Das kann man sich anders wünschen und aus Sicht des Kunden blöd finden, aber noch ist es kein Problem für AMD.
....es ist sogar ein kleiner Segen für AMD, weil Nvidia dafür DX12 braucht und sie ihre Haltung zu DX12 um 180° gedreht haben.....von der miesen API, die(wenn gut umgesetzt) auf AMD gut lief und auf Pascal nicht, ist es zur "Zukunft" geworden...Turing unterstützt es zwangsweise besser als Pascal(wegen RT) und plötzlich sind viel mehr Spiele mit DX12 gekommen und werden noch kommen.....und dann vermutlich weniger fails wie Vermintide 2 und die vielen anderen grausig ruckeligen DX12 Umsetzungen.....jetzt wo Nvidia davon profitiert, wird DX12 gepusht.....
Aber ist das ein Vorteil für AMD...nein, man begegnet sich nur öfter auf Augenhöhe.

Ich will auch nicht AMD anpreisen.....sie haben in der Vergangenheit auch mal betrogen(ist aber schon länger her), sie sind ein gewinnorientiertes Unternehmen, das zwar heuchelt "We love PC gaming....",
aber Server CPUs in den consumer markt bringt (Ryzen) und Compute GPUs in den gaming Markt(Vega, Vega II).

Zu ihrem Glück sind die Server CPUs so günstig, dass sie eine empfehlenswerte Alternative zu Intel sind....mehr Kerne, Effizienz und freies OC als Verkaufsargumente gegen die hochgezüchteten Intel CPUs.
Das hat funktioniert und mit den vielversprechenden Effizienz und Taktsteigerungen die wir hier mit der 7nm Vega sehen, wird es wohl auch mit Ryzen 3000 ein Erfolg......sicher nicht so geil wie der Hype train es herbeischreit, aber ich bin etwas zuversichtlicher als vor dem Radeon VII launch.

Ich kaufe AMD, weil es für mich das Unternehmen mit weniger Dreck am Stecken ist und weil es mir mehr Freiräume bietet, meinem PC-Bastel-Hobby nachzugehen.

Ich freue mich fast, dass die Karten so mies ab Werk sind....das sie Fehler haben, die ich ausloten und abschwächen kann.

Aber in einer Kaufberatung versuche ich objektiv zu sein und keine Vega zu empfehlen...Polaris ist hingegen ganz gut.....und wer maximale CPU Gaming Leistung möchte, der muss Intel kaufen......wer solide Leistung möchte der sollte Ryzen kaufen......

Ich prangere auch schon länger hier im Forum die Ignoranz von AMD an, wenn es um Software
Optimierung ihrere Produkte geht.
Das lässt sich nicht mehr mit einem kleineren Budget und weniger Leuten entschuldigen.......wer behauptet Gaming zu lieben, der muss eben einen software Scheduler Fallback für DX9-11 einfügen, als ständig im CPU limit zu hängen....oder ein "Task force" zusammenstellen, die kostenlos zu den Entwicklerstudios geht und denen einen Weg beibringt, den Render Thread frei zu schaufeln.
Oder besser noch kostenlos eine DX12/Vulkan Implementierung, die den Namen verdient einfügt.

Dann würden sie ehrlich sein und sagen....Vega war nie für Spieler gemacht und in 7nm ist sie nur ein Lückenfüller der 7nm Fertigung....und weil Navi einen Bug hat und sich verzögert mussten wir irgendwas bringen um die Aktionäre ruhig zu stellen.....PS...kauft die Karte nicht, wir machen Verluste damit.

Den Ryzen CPUs fehlt Takt und Latenz und Ramlatenz......ob der Takt mit 7nm, ohne extreme Kühlung, so viel besser werden wird, bleibt abzuwarten.....Vega 7nm hat ja nur 9,3% mehr Takt.....bei ähnlichem Verbrauch.
Und scheinbar Temperaturprobleme....ist das bei den CPUs auch so, dann werden aus 4050Mhz allcore eben 4430Mhz.
Der8auer hat mit Trockeneis Vega 7nm auf über 2000MHz übertaktet.
Das ist vielversprechend und wären bei Ryzen eine allcore Übertaktbarkeit auf 4,8GHz
Alles grausige Milchmädchenrechnungen mit Spekulatius. ;)
Trotzdem bleiben es die Server CPUs, die mit mehr Kernen und Preis punkten müssen. immerhin wird der verdoppelte L3 Cache in Spielen wohl helfen.

....keine Ahnung worauf ich hinaus wollte. :(
 
  • Gefällt mir
Reaktionen: s0UL1, Smartbomb, SVΞN und 3 andere
AleksZ86 schrieb:
woher willst du wissen dass die aktuellen Spiele niemanderen interessieren?
lol, dota 2, cs die Spiele kann man schon auf einem Taschenrechner spielen..... highendkarten braucht man damit nicht testen.

Highendkarten braucht man für E-Sports Titel eigentlich generell nicht vor allem weil da sogar noch die Details etc. runtergestellt werden um "competitive" zu spielen.
 
deady1000 schrieb:
Ja aber Pech gehabt, dass die Speicher für 350€ einbauen.
Ist doch nicht die Schuld der Kunden.
Ich kann mich gern wiederholen. Gehörst du nicht zur Zielgruppe ist es egal was du gern hättest.
Dann kaufe eben das was deinen Ansprüchen entspricht. Für die Kundschaft die die Compute Funktionen der Karte nutzt, nutzen aus dem größeren Speicher zieht und keine 1000€ oder mehr ausgeben will ist die Karte ziemlich alternativlos.

Meiner Erfahrung nach jammern ca. 90% derjenigen die über den Preis meckern nur deshalb weil sie damit nicht den preis der Geforce drückt.
 
  • Gefällt mir
Reaktionen: Smartbomb, Rambo5018, rolandm1 und 4 andere
Das beste an der neuen Radeon sind eigentlich die Diskussionen hier :D
 
  • Gefällt mir
Reaktionen: 1cem4n, Kleiner69 und deady1000
rentner55 schrieb:
Bist du neu im Thema Hardware?
Ist bei AMD die Regel, schon die alten Bulldozer waren mit UV ziemlich brauchbar... der VCore wird und wurde bei AMD immer recht hoch angesetzt, damit selbst schlechte Samples noch absolut im grünen Bereich unterwegs sind. Habe mich da schon vor 10 Jahren gewundert was bei AMD immer manuell herausholbar ist, speziell als bastler merkt man das sofort...
Sagte der USer mit 3 Beiträgen und zitierte selektiv und lässt den Teil, der die Frage klärt schlicht weg. :rolleyes: Hin und wieder fühle ich mich richtig verarscht...
 
  • Gefällt mir
Reaktionen: SVΞN
Man man man geht's hier ab. Das ist ja besser als ein Kinobesuch. So manch einer lässt sehr stark seinen roten Blick durchscheinen und wieder andere ihren grünen Blick. Wirklich Neutral sind die wenigsten. Das meiste ist echt Fanboygequatsche von beiden Seiten.

dgneo schrieb:
Das beste an der neuen Radeon sind eigentlich die Diskussionen hier :D

ja bei Grafikkarten kommen ganz neue Emotionen auf :D

@Topic: Hab ich es verpasst oder fehlt der The Division 2 Benchmark immernoch?
 
Benji21 schrieb:
Highendkarten braucht man für E-Sports Titel eigentlich generell nicht vor allem weil da sogar noch die Details etc. runtergestellt werden um "competitive" zu spielen.

Jein.
Wenn du mit 240hz/FPS spielen willst, dann schon.

Ich würde mich z.B. über einen aktuellen Test für E-Sport Titeln mit dem von dir angesprochenen Szenario freuen.
Max. FHD / Low Details mit dem Ziel konstante 240FPS und mehr zu erreichen.

Glaube aber da mangelt es an interessierten Lesern ^^
 
Wadenbeisser schrieb:
Meiner Erfahrung nach jammern ca. 90% derjenigen die über den Preis meckern nur deshalb weil sie damit nicht den preis der Geforce drückt.
Diese Vermutung habe ich allerdings auch....
 
  • Gefällt mir
Reaktionen: Smartbomb, fanatiXalpha, Volkimann und 3 andere
Ich hoffe AMD verbaut in seiner Mittelklasse dann auch 8 bis 16GB. Nvidia mag zwar die Oberhand haben aber wer die Karte lange behält, ist mit mehr Speicher besser ausgestattet. Die Vergleiche zwischen 7970 und GTX 680 oder R9 290/390 8GB und GTX 780ti damals und heute sind ja ziemlich eindeutig.
 
  • Gefällt mir
Reaktionen: Smartbomb, SVΞN, valnar77 und 2 andere
Und was hat die Mittelklasse dann gewonnen wenn 8GB Grafikspeicher verbaut werden? Die hat auch Nvidia verbaut.
 
RYZ3N schrieb:
Wer seine Grafikkarte out of the box nutzen und nicht optimieren möchte [oder kann], der macht besser einen großen Bogen um die Radeon VII [und kauft in der Regel eh keine Grafikkarte für 750,— Euro.]

Warten wir mal ab wie sich der Preis und die mögliche Verfügbarkeit von Custome Modellen entwickelt.

Ich nutzte meine 1080Ti (und davor die Titan) auch mit den Stock Einstellungen. Die Wakü ist nur wegen der Lautstärke da.

Bei den kolportieren Stückzahlen dürft es etwas dauern bis die Preise der Vega 7 sinken. (Wie bei Vega 64 damals)
Den Preis wird dann schon der Markt regeln. (P/L Niveau).
(Außer AMD will die Radeon 7 garnicht an Consumer verkaufen und die Stückzahlen bleiben beschränkt)
Die verfügbaren Stück werden ja trotzdem gekauft werden.... wenn auch hauptsächlich aus ideologischen Gründen.
 
Unnu schrieb:
Ja, schon. :confused_alt: Wer behauptet denn, dass das verwerflich wäre?
Alles gut, ich wollte Dir nicht widersprechen.

Unnu schrieb:
Was man an der "Umsetzung" dieser Strategie bemängeln kann, ist, dass nVidia sich dabei auf möglichst proprietäre Techniken konzentriert um so eine erhöhte "Kundenbindung" zu erzielen.

Dazu mal was grundsätzliches, weil man so etwas immer wieder liest:

JEDE Firma, die mehr als 50 Leute hat und dem Idealismus entwachsen ist, muss als Ziel haben möglichst stabil im Markt zu stehen. Du hast eine Verantwortung für jede Menge Mitarbeiter, die Du u.U. entlassen musst, wenn es der Fa. schlecht geht. Von Marketshare und Börsenkurs mal ganz abgesehen.

Da von "gut" und "böse" zu sprechen ist m.E. völlig daneben. Jede Fa. wird versuchen, den Gewinn und den Marketshare zu verbessern.

Wie Dir das gelingt, hängt von vielem ab. Ob man nun etwas proprietär macht oder nicht, hat nichts damit zu tun, ob man "lieb" ist sondern ausschließlich von folgenden Fragen:

  1. Kann ich es mir leisten, die Entwicklung komplett alleine zu tragen?
  2. Wie bekomme ich mehr Gewinn/Markanteil?
  3. Besteht die Gefahr, dass meine Investition den Bach runter geht, weil die Technik vom Markt nicht angenommen wird, da der Anwenderkreis zu klein ist?
Es gibt vermutlich noch weitere Aspekte.

Wenn Du finanziell gut aufgestellt bist, wird Frage 1 öfter mit "Ja" beantwortet werden. Das ist der Grund, warum Du von NVidia häufiger Entwicklungen siehst, die sie komplett alleine finanzieren. Von AMD gibt's das selten, kommt aber auch vor (z.B. Mantle).

Wenn Du eine Entwicklung komplett alleine finanzierst, gibt es nur selten einen Grund, sie mit dem Mitbewerber zu teilen.
Es gibt aber auch Ausnahmen: Bei Raytracing hat NVidia sicher den Löwenteil der Entwicklung, auch in DirectX, mitfinanziert und dennoch entschieden, es nicht proprierär zu machen - einfach weil das Risiko, dass es sich nicht durchsetzt, sonst zu groß ist.

AMD hat oft die Entscheidung getroffen, eine Entwicklung dem OpenSource Bereich oder Drittentwicklern zu überlassen (OpenCL, Freesync...), einfach weil sie die Finanzen für eine Eigenentwicklung nicht haben, und mit etwas Glück dem Konkurrenten damit eins auswischen können (bei FS hat das gut geklappt), dessen Investition dann zumindest zum Teil den Jordan runtergeht.

Du siehst also, es hat nichts mit persönlichem Wohlwollen zu tun, sondern es sind alles knallharte und begründete (wenn auch oft genug trotzdem wenig erfolgreiche) Businessentscheidungen.
 
  • Gefällt mir
Reaktionen: Smartbomb und indy1138
Zurück
Oben