News Radeon VII: AMD publiziert Benchmark­-Ergebnisse von 26 Spielen

Benji21 schrieb:
besseren Modelle landen bei 2100+ MHz beim Chip

Nunja, da ich nur 111% PT einstellen, bin ich eher damig limitiert.
 
Fraggball schrieb:
das ist doch totaler quatsch, das game hat viel vram reserviert ja, aber wenn der vram nicht ausreichen würde hätte die karte ja performanceprobleme.
niemand weiss wieviel davon wirklich genutzt wird, auch bei 11 oder 16 gb kann ich der engine sagen den komplett zu reservieren, in dem graphen sieht es dann so aus als wäre der voll. nutzen kann ich aber trotzdem nur 500mb...was hier manchmal für unfug verbreitet wird ist echt schräg.
informiert euch doch bitte mal ordentlich bevor ihr solche sachen erzählt.
klar strauchelt ne 2080 wenn ich irgenwo modpacks draufpacke die 12gb vram brauchen, wenn ich sowas nutze ist die r7 defintiv die bessere karte, aber diese halbwahrheiten hier sind manchmal echt anstrengend.
Danke für die sachliche Aufklärung. Was mich nur irritiert hat dabei, ist das sich die Karte bei 1080p auch schon 7 Gb reserviert bei 4k dann quasi alles. Woher erkennt man denn jetzt ob der Speicher nur reserviert oder fast/voll ist. Mir würde die Entscheidung für eine 2080 jedenfalls deutlich leichter fallen, wenn sie den Speicher nicht so knapp gehalten hätten. Die 11Gb der 1080ti mit vergleichbarer Leistung wirkte da irgendwie ausgewogener zukunftsorientierter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sennox
Hollomen schrieb:
Danke für die sachliche Aufklärung. Was mich nur irritiert hat dabei, ist das sich die Karte bei 1080p auch schon 7 Gb reserviert bei 4k dann quasi alles. Woher erkennt man denn jetzt ob der Speicher nur reserviert oder fast/voll ist. Mir würde die Entscheidung für eine 2080 jedenfalls deutlich leichter fallen, wenn sie den Speichet nicht so knapp gehalten hätten. Die 11Gb der 1080ti mit vergleichbarer Leistung wirkte da irgendwie ausgewogener zukunftsorientierter.
Wenn der vram voll ist und dein System nicht hinterherkommt das auszugleichen leidet die Performance stark. Dann hast du massive ruckler, niedrige fps, fps drops und fiese texture pop ins. Allerdings gibt es auch bei vollem vram häufig noch Spielraum bis die Performance abschmiert.
Wenn dein vram überlastet ist merkst du das sofort. Wolfenstein läuft in 4k astrein und hat dementsprechend kein vram Problem bei 8gb.
Desweiteren sind die 11gb pascal ddr5 schwer mit den 8gb ddr6 von turing zu vergleichen.
DDR6 hat ne andere Architektur als ddr5 und turing hat eine deutlich bessere speicherkomprimierung als pascal. Laut whitepaper ca. 1/3 besser. Damit ist es schwer da direkte Vergleiche zu ziehen.
 
Hollomen schrieb:
Danke für die sachliche Aufklärung. Was mich nur irritiert hat dabei, ist das sich die Karte bei 1080p auch schon 7 Gb reserviert bei 4k dann quasi alles. Woher erkennt man denn jetzt ob der Speicher nur reserviert oder fast/voll ist. Mir würde die Entscheidung für eine 2080 jedenfalls deutlich leichter fallen, wenn sie den Speichet nicht so knapp gehalten hätten. Die 11Gb der 1080ti mit vergleichbarer Leistung wirkte da irgendwie ausgewogener zukunftsorientierter.
Die "offiziellen " Benchmarks deuten auf eine Irrelevanz des doppelten Speichers der RVII hin für den Mainstream Gaming Einsatz. Die 4K Heavy Modded Skyrim Szenarien sind die extrem speziellen Situationen.
Wir reden immer noch von Full HD und 1440p Mainstream, letzter Auflösung ist gerade nun mal auf die ~ 25 % Nutzung angestiegen laut steam.
In keinem mir bekannten Test fällt die 2080 als Problem aus durch nur 8 GB VRAM.
Die Spiele und Grafikengines sind qua Design entweder auf den Konsolenmarkt oder dann nativ oder portiert auf den Desktopmarkt abgerichtet. Und da bedienen sie 4 bis 8 GB im Kern.

Eine Verbreitung im einstelligen Prozentbereich der GPUs durch R7 Käufer wird aber auf jeden Fall 16 GB VRAM notwendig machen, ohne Zweifel! Frag die AMD Apologeten, die sich einreden, dass für jeden Gamer bei der Wahl zwischen R7 ohne Zusatzfeatures mit Speed aus März 2017 aber mehr Speicher versus 2080 plus Turingfeatures ganz klar die R7 gesetzt ist. So objektiv. Dank 16 GB VRAM. ;)
 
Benji21 schrieb:
Falsch, bei der 2080 war oder besser ist es Mist weil du 1080Ti Leistung (ja, ist die gleiche weil jede Custom Karte höher taktet als die Founders, erst recht auf Dauer) zum 1080Ti Release-Preis und 3GB weniger VRam bekommst. [...]

Über den VRAM kann man streiten, aber die reine Rasterisierungsleistung der 2080 ist doch in Ordnung.

Mit der neuen Generation erreicht Nvidia die Leistung der höheren Karten der letzten Generation. Also ehemalige xx80Ti Leistung in der neuen xx80er Klasse. Einzig die Tatsache, dass man unbedingt RTX einbauen musste und damit die höheren Preise rechtfertigt, stößt doch sauer auf.

Bei AMD muss man aber den gleichen Maßstab anlegen.

Es werden ~35% Rasterisierungsleistung hinzugewonnen, aber gleichzeitig wird der Preis von 499 auf 699 erhöht. Preis-Leistungs-Technisch haben "wir" da nix gewonnen.

Download.jpg
 
Laphonso schrieb:
Die "offiziellen " Benchmarks deuten auf eine Irrelevanz des doppelten Speichers der RVII hin für den Mainstream Gaming Einsatz. Die 4K Heavy Modded Skyrim Szenarien sind die extrem speziellen Situationen.
Wir reden immer noch von Full HD und 1440p Mainstream, letzter Auflösung ist gerade nun mal auf die ~ 25 % Nutzung angestiegen laut steam.
In keinem mir bekannten Test fällt die 2080 als Problem aus durch nur 8 GB VRAM.
Die Spiele und Grafikengines sind qua Design entweder auf den Konsolenmarkt oder dann nativ oder portiert auf den Desktopmarkt abgerichtet. Und da bedienen sie 4 bis 8 GB im Kern.

Eine Verbreitung im einstelligen Prozentbereich der GPUs durch R7 Käufer wird aber auf jeden Fall 16 GB VRAM notwendig machen, ohne Zweifel! Frag die AMD Apologeten, die sich einreden, dass für jeden Gamer bei der Wahl zwischen R7 ohne Zusatzfeatures mit Speed aus März 2017 aber mehr Speicher versus 2080 plus Turingfeatures ganz klar die R7 gesetzt ist. So objektiv. Dank 16 GB VRAM. ;)

Du hast bei der 2080 den Speed aus März 2017 und Turingfeatures in 2 Games Stand Januar 2019 vergessen. :freaky:
Ergänzung ()

v_ossi schrieb:
Über den VRAM kann man streiten, aber die reine Rasterisierungsleistung der 2080 ist doch in Ordnung.

Mit der neuen Generation erreicht Nvidia die Leistung der höheren Karten der letzten Generation. Also ehemalige xx80Ti Leistung in der neuen xx80er Klasse. Einzig die Tatsache, dass man unbedingt RTX einbauen musste und damit die höheren Preise rechtfertigt, stößt doch sauer auf.

Bei AMD muss man aber den gleichen Maßstab anlegen.

Es werden ~35% Rasterisierungsleistung hinzugewonnen, aber gleichzeitig wird der Preis von 499 auf 699 erhöht. Preis-Leistungs-Technisch haben "wir" da nix gewonnen.

Anhang anzeigen 742149

Ja das stimmt, haben wir aber bei Nvidia auch nicht durch die Anpassung nach oben. Bei der 7 gibt es aber mehr Speicher der auch nicht kostenlos ist und weder Nvidia noch AMD haben was zu verschenken.

Hätte Nvidia den Platz für normale Shader genutzt würden wir hier auch nicht diskutieren weil dann würde die 7 nicht zur Debatte stehen weil nicht existent.
 
Schön das AMD doch noch was bringt und das sogar basierend auf der neuen Fertigungsgröße.
Benchmarks, lieber erst mal abwarten in der Vergangenheit wurden da keine echten, reproduzierbaren Ergebnisse geliefert.
Der hohe Preis überrascht nicht, schon bei Fury ist AMD deutlich übers Ziel geschossen und der Preis viel relativ schnell - als wesentlicher Grund warum der Preis fallen musste, war seinerzeit der geringe Speicherausbau. Jetzt, mit 16 GB HBM2 kann man sicher einige Kunden einfangen und man fällt sicher nicht direkt so auf die Nase.
Was bleibt am Ende, erst mal die Tests abwarten. Die tatsächliche Performance, die Energieaufnahme und natürlich auch die Möglichkeit diese effektiv abzutransportieren machen das Bild erst komplett.
Letztendlich würde ich aber sagen, dass die Leistung für 7nm zu gering ist. Trotz das AMD hier führend ist, erreichen sie nicht die Leistung die nVidia schon letztes Jahr brachte. Man stelle sich vor, nVidia würde jetzt, trotz eingeführten neuen Features auf die 7nm Generation 25-30% drauf legen, dann wäre AMD innerhalb eines halben Jahres wieder raus aus dem Spiel. Ein Sofortkauf ist Vega VII auf Basis der jetzigen Daten sicher nicht.

Hätte wenn und aber, schön das erst mal was neues kommt und wir uns nächsten Monat die Tests in Ruhe anschauen können. Vielleicht hat AMD ja mal nicht zu optimistische Daten rausgehauen und kann die Werte tatsächlich liefern - vielleicht sogar mit akzeptablen Verbrauch durch 7nm - wobei ich mir das nicht vorstellen kann - aber wer weiß.
Wenn dann die early Adaptors abgegriffen wurden, kann die Karte für weniger Geld durchaus interessant sein.
 
  • Gefällt mir
Reaktionen: Colindo und Hopsekäse
v_ossi schrieb:
Über den VRAM kann man streiten, aber die reine Rasterisierungsleistung der 2080 ist doch in Ordnung.

Mit der neuen Generation erreicht Nvidia die Leistung der höheren Karten der letzten Generation. Also ehemalige xx80Ti Leistung in der neuen xx80er Klasse. Einzig die Tatsache, dass man unbedingt RTX einbauen musste und damit die höheren Preise rechtfertigt, stößt doch sauer auf.

Bei AMD muss man aber den gleichen Maßstab anlegen.

Es werden ~35% Rasterisierungsleistung hinzugewonnen, aber gleichzeitig wird der Preis von 499 auf 699 erhöht. Preis-Leistungs-Technisch haben "wir" da nix gewonnen.

Anhang anzeigen 742149
Naja, der Vergleich ist nicht ganz fair. Die Karte damals war so günstig in der UVP weil die Leistung entsprechend war. Die UVP heute ist identisch zur vermutlich gleichschnellen NV. Und damit völlig in Ordnung. Ich denke allen ist klar, dass AMD mit den Karten nicht wirklich viel Geld verdient hat. Auch die Marge heuer wird bei den verbauten 16GB HBM nicht wesentlich besser sein. Die doppelte Speichermenge hast du in deiner Betrachtung auch mal dezent unterschlagen;) Übrigens ist es mitnichten so das die R7 keine Features hat - auch wenn viele davon dem Gamer nucht unmittelbar nutzen.
 
  • Gefällt mir
Reaktionen: Sennox
Rockstar85 schrieb:
Es wird hier UPV mit Straßenpreisen verglichen, was ansich schon lachhaft ist
Ich habe nicht Straßenpreis und UVP verglichen.
Die Aussage, auf die ich damit einging, sprach davon, dass sich die Radeon VII 50-100€ unter der 2080 ansiedeln würde. Das war natürlich auf einen Vergleich von Straßenpreis zu Straßenpreis zu beziehen, denn alles andere ist witzlos. Selbst wenn $-UVP = €-Straßenpreis ist, heißt das noch nicht, dass man 50-100€ günstiger ist als eine 2080. Und einen stichhaltigen Grund dafür, dass die Karte zum Release oder kurz danach die bekannte UVP so weit unterbietet, dass man Straße zu Straße 50-100€ Preisvorteil hätte, sehe ich aktuell nicht. Angemessen wäre es je nach Ergebnis wahrscheinlich, aber mit der Begründung hätte AMD ja auch die UVP gleich niedriger ansetzen können.

Dabei sagten die Orks schon:
Rot is bessä, denn Rot macht schnellä
:p
Finde ich irgendwo gut, weil 40K = immer gut.
Andererseits so richtig lustig auch nicht, weil inhaltlich zur Zeit eindeutig falsch und von der Komplexität der Betrachtung her leider erschreckend nah an dem, was Einige hier praktizieren.
Aber um bei den Orks zu bleiben... Selbst wenn Rot schneller machen würde...
Sin' ja da Ork-Gitz da bestä Beischbielä, dass da Fahra davon nich schlaua wird! Waaaaagh!

@Laphonso
Amen. Hier wird mittlerweile jeder mit unbequemem Blickwinkel auf einen NVidia oder Intel-Fan reduziert. Richtig primitives Mob-Gehabe.
Anstatt sich einfach mal differenziert mit den Tatsachen zu beschäftigen...
Ich habe ja auch nie gesagt, dass das Gesamtpaket nicht trotzdem eine kaufbare Alternative sein kann.
Aber dass AMDs Vega10 technologisch für den Gaming-Markt deutlich hinten dran ist und nach aktuellen Infos Vega20 nicht dramatisch viel dran ändert, ist auch leicht auszumalen. Jeder mit etwas Sachkenntnis weiß oder sieht das. Die Ingenieure von AMD wissen das.
Aber die Leute hier sind mittlerweile so verbohrt, dass sie nichtmal die Wahrheit auf sich beruhen lassen können.
Was ist denn daran so schlimm, dass Vega ein ganzes Stück zurück hängt? Ich habe ja niemandem verboten, die Karte zu kaufen. Die Radeon VII kann ja trotzdem auf dem zur Zeit leider ziemlich teuren Markt ein akzeptables Angebot sein und man kann auch weiterhin aus diversen Gründen AMD lieber mögen als NVidia.
Die Welt geht nicht unter, wenn man eingesteht, dass AMD zurück hängt und dass es enttäuschend wäre, wenn die überteuerten RTX-Karten bei gleicher Leistung nicht unterboten würden.
Aber das geht scheinbar nicht. Dann würde man ja im CB-Forum jemandem Recht geben, der ein Produkt von AMD kritisiert hat. Wo käme man denn da hin? ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: baizer und Rockstar85
easy-max schrieb:
moin,
kann jemand mit ähnlichen Spec´s und den Einstellungen diese Werte verifizieren?
(i7-7700K und 16 GB Arbeitsspeicher mit einem Takt von 3.000 MHz. Windows 10 in UHD (3.840 × 2.160 Pixel mit der Radeon RX Vega 64 )

Verstehe auch nicht warum hier nicht ein übersichtliches Diagram erstellt wird. Wie viel besser braucht man es denn noch?
Alle betr. Websites haben Benchmarkdatenbanken angelegt und jeder kann sehen was die Vega64 die ausgiebig getestet wurde bringt. Stimmt es überein?? ...kann man da ungefähr die VegaII (mit Vorsicht) mit einem herausstechenden Balken integrieren zur besseren Übersicht?

Nur so eine Idee.
 
domian schrieb:
? Einen 82er leider aber ich bin zufrieden ja.

Das meinte ich:
https://www.tomshw.de/2018/09/15/nv...etsstufen-fuer-die-rtx-2080-und-rtx-2080-ti/#
Man sollte sich auch schon mit der Technik, die man besitzt, ab und an befassen ;)
Das da ist noch ein Grund, warum ich die RTX 20er Serie meide

@Hopsekäse
Schön, dass du meinen Humor verstanden hast. Das was @Laphonso schreibt, ist aber unangebracht. Denn es ist exakt anders rum, was man auch Eindrucksvoll an diesem Thread sieht. Also am Ende nicht immer auf die Stammtischpoltiker beschränken, sonst wird man selber noch zur AfD ;)

@Lars_SHG
An Ende ist es eben immer noch GCN und damit keine Reine Gamerarchitektur.. Ich hoffe AMD entschlackt hier zumindest die Performance Karten und baut meinetwegen ihre MI-Next dann als High End... Aber dieses one for all wird AMD nicht schaffen. Ich erwarte hier keine Wunder, aber ne Solide 2080 Leistung kann es werden. Der Preis wird fallen, AMD wird am Ende vermutlich wieder mal bei Null rauskommen. Noch ein Grund, die High End Ambitionen von AMD zu hinterfragen.
Am Ende wird eh Grün gekauft
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cbmik
Rage schrieb:
@m.Kobold Tjo, jetzt hätts auch der billigere FreeSync-Schirm getan :heilig:
Mein 1440p Dell Monitor hat schlappe 400€ gekostet, gibt einige Modelle wo man fast nichts fürs G-Sync bezahl.
Selbst ohne G-Sync hätte ich den Monitor für den Preis bei der gebotenen Qualität genommen.

Rage schrieb:
Das hier ist doch kein ernsthafter Versuch, eine überzeugende Konkurrenzlösung zu den RTX-Karten abzuliefern. Das ist lediglich eine GPU, die sowieso entwickelt wurde und auf der man zufälligerweise auch spielen kann, um eben eine Alternative zu bieten.

RTX ist eh für die Tonne und das sage ich als Zukünftiger 2080 Ti besitzer... habe mir gestern eine bestellt, aber nicht wegen Raytracing bullshit sondern wegen der Leistung, das ist das einzige was für mich zählt.

Und AMD liefert hier nichts mehr und das seit Jahren, selbst im CPU bereich (gaming) hinkte AMD seit Skylake release total hinterher und ganz ehrlich glaube ich nicht daran das selbst der neue Ryzen soviel ändert, kein wunder das dort nur mit Cinebench geworben wird.

Ich werde wohl noch auf Icelake warten und dann direkt auf DDR5 springen. Eigentlich kann ich ja froh sein das Intel/AMD es nicht gebacken bekommen, so muß ich nicht auf Win10 zwangs downgraden.
 
Hopsekäse schrieb:
Die inhaltliche Begründung deiner Aussagen ist ja faszinierend... (btw: mal in meine Signatur geguckt? :rolleyes:)
Einfach mal "modern" und "7nm" rein geworfen und schon wird das alles ausbügeln? Wohl nur wenn man sich das gaaanz ganz fest wünscht...
Es geht hier um technologischen Vorsprung. Wie ignorant muss man denn sein, um alles bis auf den Preis und die Leistung auszublenden und dann, nur weil es ein ähnlich dastehendes Konkurrenzprodukt gibt, zu meinen AMD hinge nicht hinterher?

Also 7nm ist auch technologischer Vorsprung. Die einen schaffens halt über die Fertigung und die anderen durch eine ausgeklügelte Architektur und Treibergetrickseoptimierung. Und Lisa Leathersuit's expertise ist nunmal die Chipfertigung nicht das Chipdesign.
 
  • Gefällt mir
Reaktionen: Hollomen
temnozor schrieb:
Also 7nm ist auch technologischer Vorsprung. ... Und Lisa Leathersuit's expertise ist nunmal die Chipfertigung nicht das Chipdesign.
Da gebe ich dir sogar Recht :) WK bei CB übrigends
Igor schrieb es ja auch bei THG.. Man darf über Huang denken, was man möchte. Aber sonst ist der Kerl ein Paradebeispiel für Selbstkontrolle..
Deswegen würde ich auch nicht 350W für ne Vega 7 sagen, sondern warte diesen Monat ab.

Und Huangs Aussage zu FreeSync ist auch unter aller Sau. Aber am Ende eben auch nur PR.. Ich glaube dem auch nicht, dass er Adaptive Sync verstanden hat, denn Freesync ist ja schließlich die Implementierung davon ^^
Aber klar, Die sind der Erfinder von A-Sync (Soviel Überheblichkeit bei so einen miesen Aktienkurs)

Sollten alle tun, bevor Sie hier noch Bullshit schreiben :*
 
temnozor schrieb:
Also 7nm ist auch technologischer Vorsprung.
AMD hat hiermit einen zetlichen Vorsprung, aber sicher keinen technologischen. Der Prozess ist für AMD und Nvidia zugänglich. Ein Vorsprung wäre es, hätte AMD seine eigenen Fabs, und der Prozess wäre exklusiv.
Es ist naiv zu glauben man wäre mittlerweile gut dran weil man ja irgendwieso mithalten kann, und blendet den 7nm Vorteil einfach aus.

Fakt ist aber auch, dass Vega nicht für 7nm designed wurde. Das dient als Pipecleaner. Man nimmt halt das bisschen Takt mit reduziert etwas die Fläche damit man fluffig mal 4 HBMs auf einen Interposer packen kann. Ähnlich wie der Zen Shrink von 14 auf 12nm.

Was 7nm wirklich wert ist, wird man frühestens mit Navi sehen. Und wenn man es nicht endlich schafft aus dem GCN Karussell auszuteigen wird man wohl von 7nm Nvidia wirklich gecrushed.
 
  • Gefällt mir
Reaktionen: v_ossi
Cl4whammer! schrieb:
Dachte die Aussage von AMD wäre gewesen mehr Leistung bei gleichem Verbrauch? O.o

Lass dich doch nicht von einem Forumstroll ohne Angabe von Quellen verunsichern. Abwarten und Tee trinken. 350W halte ich für exorbitant übertrieben. 250-300W wären (aus meiner Sicht) denkbar, aber wenn die Rede von gleichem Stromverbrauch ist, dann wohl eher weniger als 300W - Spitzen ausgeschlossen.
 
r4yn3 schrieb:
AMD hat hiermit einen zetlichen Vorsprung, aber sicher keinen technologischen. Der Prozess ist für AMD und Nvidia zugänglich. Ein Vorsprung wäre es, hätte AMD seine eigenen Fabs, und der Prozess wäre exklusiv.
Es ist naiv zu glauben man wäre mittlerweile gut dran weil man ja irgendwieso mithalten kann, und blendet den 7nm Vorteil einfach aus.

Und warum machen sie es nicht? Der Prozess ist ja nicht alles man muss erstmal sein Produkt darauf lauffähig bekommen mit einer akzeptablen Ausbeute und Zieltakt.

Fakt ist aber auch, dass Vega nicht für 7nm designed wurde. Das dient als Pipecleaner. Man nimmt halt das bisschen Takt mit reduziert etwas die Fläche damit man fluffig mal 4 HBMs auf einen Interposer packen kann. Ähnlich wie der Zen Shrink von 14 auf 12nm.

Was 7nm wirklich wert ist, wird man frühestens mit Navi sehen. Und wenn man es nicht endlich schafft aus dem GCN Karussell auszuteigen wird man wohl von 7nm Nvidia wirklich gecrushed.

War halt das billigste was man machen kann. Man nimmt was man hat und setzt alles auf die 7nm Karte. Scheint ja für die RTX2080 zu reichen.

Wenn AMD das Budget für GPUs gehabt hätte das die Lederjacke hatte, so das alle 2 Jahre ein neues Chipdesign gemacht werden kann, dann wär die RTX Line wohl pulverisiert worden.
Navi wird auch erstmal ein Spardesign voll auf Midrange und Konsolen ausgelegt. Danach geht es vielleicht mal wieder mit einem "echten" neuen HighEnd weiter.
Lederjäckchen kotzt ja blos ab weil er für das Midrange nur 6GB bieten kann, da nicht anders anbindbar an die SalvageGPU und weil sein RTX nicht zündet.
 
Meint ihr ein 650 Watt Netzteil reicht für die Radeon VII wenn ich die mit einem Ryzen 3700x kombinieren würde???
 
Edelgamer schrieb:
Meint ihr ein 650 Watt Netzteil reicht für die Radeon VII wenn ich die mit einem Ryzen 3700x kombinieren würde???


Warte, ich frag mal eben meine Glaskugel.....
 
  • Gefällt mir
Reaktionen: Rockstar85 und v_ossi
temnozor schrieb:
Und warum machen sie es nicht?
Weil man sich scheinbar auch mit 12nm "Worlds fastest GPU" auf die Stirn schreiben kann. In der Zwischenzeit kann man sich mal solche Späße wie RTX leisten. Nvidia steht absolut nicht unter Zugzwang. Man kann über eine 2060 lästern was man will, aber ein Navi12, welches im Midrange mal ordentlich angreifen könnte, dauert wohl nochmal ein halbes Jahr.
Nach Fiji war Vega der helle Stern, der AMD aus der GPU Krise leiten sollte. Seit man weiß, dass daraus nix wird, treibt man die Navi Sau durchs Dorf.

temnozor schrieb:
War halt das billigste was man machen kann.
Ob jetzt 331mm2 in 7nm oder 752mm2 in 12nm billiger ist, wird man nie wirklich erfahren. AMD hat halt die Flucht nach vorne ergriffen. Bei ihren CPUs bin ich ja optimisch, da scheint ihnen das wirklich gut aufzugehen.

Und das abkotzen der Lederjacke über Radeon 7 wirkt für mich so dermaßen deplatziert, dass ich fast schon glauben könnte, er möchte AMDs GPU Umsatz ankurbeln in dem er seine eigene Gefolgschaft vergrault. Quasi um seinen Cousinchen einen gefallen zu tun.
 
Zurück
Oben